Siga o Olhar Digital no Google Discover
O New York Times, um dos principais veículos de imprensa dos Estados Unidos, tomou algumas medidas para impedir que seu conteúdo seja utilizado para treinar modelos de inteligência artificial.
Ofertas
Por: R$ 4.519,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
Como primeiro noticiou o site AdWeek, o jornal norte-americano atualizou seus termos de serviço em 3 de agosto, proibindo a extração do conteúdo para treinamento de aprendizado de máquina ou sistema de IA.
Leia mais:
- Inteligência artificial já está produzindo fake news
- Caso de fake news com ChatGPT termina em prisão na China
- Como uma frase usada pelo ChatGPT está gerando spam e fake news
Além de textos, o conteúdo proibido pelo veículo são fotografias, imagens, ilustrações, designs, clipes de áudio, videoclipes, “aparência” e mais.
O termo de serviço do New York Times também não permite que rastreadores de sites — que indexam as páginas do site em resultados de buscas — usem conteúdo de pesquisa para treinar os amplos modelos de linguagem (LLMs, na sigla em inglês) ou demais sistemas de IA.
Ainda de acordo com o AdWeek, caso as regras do termo não sejam respeitadas, as empresas donas dos sistemas de IA podem sofrer com penalidades.
Como lembrou o The Verge, em fevereiro deste ano, o New York Times assinou um contrato de três anos no valor de US$100 milhões com o Google, para que a empresa utilize conteúdos do veículo em algumas de suas plataformas.
Nesse anúncio foi mencionado que o conteúdo do Times seria utilizado para marketing, fins publicitários e de distribuição, mas não menciona se o treinamento de IA está incluso no contrato.
IA pode identificar fake news? Estudo responde
- Um estudo liderado por Kevin Matthe Caramancion, pesquisador da Universidade de Wisconsin-Stout, nos Estados Unidos, avaliou a capacidade dos LLMs de detectar se uma notícia é verdadeira ou falsa;
- “Meu objetivo era testar rigorosamente a proficiência desses modelos em discernir fatos de fabricação, usando uma simulação controlada e agências de checagem de fatos estabelecidas como referência”, disse Caramancion;
- Na pesquisa, foram utilizadas duas versões do ChatGPT (a 3.0 e 4.0), o Bard, do Google, e o Bing, da Microsoft;
- Essas IA’s foram utilizadas para classificar 100 notícias verificadas por agências de checagem em três categorias: verdadeiro, falso ou parcialmente verdadeiro/falso;
- Para mais informações leia a matéria completa.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!