Ilustração de pesquisa no Google com IA (Imagem: Reprodução/YouTube/Google)
Os resumos gerados por IA (AI Overviews) na sua busca do Google entregaram resultados estranhos, para dizer o mínimo. E a big tech explicou os porquês. Segundo um post publicado na quinta-feira (30) no blog da empresa – assinado pela chefe de buscas do Google, Liz Reid – os culpados foram “vazios de dados” e pessoas inventando perguntas estranhas.
No post, Liz reforça a afirmação de que os resultados da IA têm levado a uma “maior satisfação” com a Busca. Reid argumenta que os Resumos de IA geralmente não “alucinam”; eles apenas às vezes interpretam erroneamente o que já está na web.
Reid disse que a empresa testou o recurso extensivamente antes do lançamento, mas “não há nada como ter milhões de pessoas usando o recurso com muitas buscas novas”. “Também vimos novas buscas sem sentido, aparentemente destinadas a produzir resultados errôneos.”
Leia mais:
Liz também observa que algumas das respostas mais absurdas dos Resumos de IA que têm circulado pela internet, como alegações de que é seguro deixar cachorros em carros, são falsas.
Já a captura de tela mostrando a resposta absurda para a pergunta “Quantas pedras devo comer?” é real. Mas ela disse que o Google encontrou uma resposta porque um site publicou um conteúdo satírico abordando o tema.
“Antes dessas capturas de tela viralizarem, praticamente ninguém tinha feito essa pergunta ao Google”, explicou ela. Então, a IA da empresa se apegou a esse site na hora de responder a pergunta peculiar.
O Google aparentemente conseguiu determinar padrões onde sua tecnologia de IA não acertou ao observar exemplos de suas respostas nas últimas semanas. Em seguida, colocou proteções em prática com base em suas observações, começando por ajustar sua IA para detectar melhor conteúdo humorístico e satírico.
A big tech também atualizou seus sistemas para limitar a adição de respostas geradas por usuários nos Resumos, como postagens em redes sociais e fóruns, que poderiam dar às pessoas conselhos enganosos ou até mesmo prejudiciais.
Além disso, a empresa “adicionou restrições de ativação para consultas onde os Resumos de IA não estavam se mostrando tão úteis” e parou de mostrar respostas geradas por IA para certos tópicos relacionados à saúde.
Esta post foi modificado pela última vez em 31 de maio de 2024 09:48