O Gemini é a inteligência artificial (IA) mais avançada do Google. A empresa promete um modelo revolucionário que vai além da compreensão de texto e engloba também fotos e vídeos. Essa foi uma forma encontrada pela big tech de competir com o ChatGPT, da OpenAI.

Entretanto, a tecnologia tem provocado controvérsias. Além de informações imprecisas ou factualmente erradas, a IA já foi acusada de racismo em algumas ocasiões. Veja abaixo cinco erros cometidos pelo Gemini até agora.

publicidade

Leia mais

Gemini: veja 5 erros cometidos pela IA do Google

Algoritmo gera imagens com imprecisão histórica

O gerador de imagens do Gemini tinha como objetivo enfatizar a diversidade racial e de gênero, mas mudava essas características em personagens históricas. O resultado foi imagens de soldados nazistas de diferentes raças, dos fundadores dos Estados Unidos retratados como se não fossem brancos. A IA errou, inclusive, a raça dos fundadores do Google.

publicidade

As imagens geraram controvérsia e serviram de pretexto para que influenciadores digitais e políticos de direita falassem em “conspiração politicamente correta” e denunciassem um suposto apagamento de pessoas brancas.

(Imagem: Lightspring/Shutterstock)

Em resposta, o Google tirou o gerador do ar. O CEO da companhia, Sundar Pichai, chamou os erros na geração das imagens de “inaceitáveis” e disse que são ofensivo aos usuários. O CEO do Google DeepMind, Demis Hassabis, anunciou que a big tech iria corrigir e relançar o gerado do Gemini.

publicidade

Gemini comete erro factual em vídeo de demonstração

Em uma demonstração do Google sobre o Gemini, a IA trouxe a resposta errada para uma pergunta. O veículo The Verge notou o erro no vídeo publicado em 14 de maio deste ano.

Durante o vídeo de apresentação de “Pesquisa na era Gemini” o Google apresenta uma ferramenta que interpreta vídeo e áudio para trazer as respostas da busca. Na demonstração, um fotógrafo com a câmera analógica emperrada pergunta por que a alavanca do equipamento não está indo até o final.

publicidade

O Google, então, traz alguns conteúdos como resposta. Uma delas que está destaca diz “abra o compartimento traseiro e gentilmente remova o filme se a câmera estiver emperrada”. Mas essa é uma das piores coisas a se fazer nessa situação, já que expor o filme a luz pode arruinar o material.

Bard, antigo Gemini, se confunde sobre James Webb

A resposta do Gemini sobre o que fazer com a alavanca emperrada em câmera analógica não foi a primeira vez que a IA do Google errou em um vídeo oficial de demonstração. O Bard, antigo Gemini, respondeu à pergunta “que novas descobertas do Telescópio Espacial James Webb posso contar ao meu filho de 9 anos?” de forma incorreta.

(Imagem: Pawel Czerwinski/Unsplash)

A IA ofereceu três opções, sendo que uma delas afirmava que o telescópio “tirou as primeiras fotos de um planeta fora de nosso próprio sistema solar”. No entanto, vários astrônomos apontaram que esse feito foi realizado em 2004.

Após a divulgação do erro, as ações da Alphabet, controladora do Google, perderam mais de 100 bilhões de dólares em valor de mercado.

Alucinações do Gemini

Mesmo com novo nome, a IA do Google continua a apresentar respostas erradas. Uma pesquisa feita pela Forbes Brasil no Gemini sobre uma linha do tempo da vida do empresário Elon Musk trouxe como resultado que o dono da Tesla se tornou presidente dos Estados Unidos em janeiro de 2024. A ferramenta também disse que ele havia inaugurado uma cidade em Marte em abril deste ano.

Bard e racismo médico

Um estudo publicado na revista Digital Medicine em outubro de 2023 mostrou que o Bard, assim como outras IAs, poderiam perpetuar ideias racistas na medicina. Por exemplo, quando perguntadas sobre a grossura da pele entre pacientes brancos e negros, as IAs responderam que existe diferença entre os dois, o que não é verdade. O antigo Gemini e concorrentes também falharam em responder de forma correta questões médicas sobre funcionamento dos rins e pulmões.

(Imagem Freepik)

De acordo com o estudo, como essas tecnologias tem treinamento em larga escala e sem supervisão a partir de textos da internet, podem incorporar informações enviesadas e inadequadas. O estudo sugere que essas as IAs ainda precisam de mais ajustes antes de serem incorporados em uso clínico.