Siga o Olhar Digital no Google Discover
A Microsoft e seu modelo de inteligência artificial (IA) de agregação de notícias do MSN destacou recentemente uma notícia que alegava, erroneamente, que o Presidente Joe Biden teria cochilado durante um momento de silêncio para as vítimas dos incêndios em Maui. Além disso, a inteligência artificial ainda noticiou um obituário que rotulou de “inútil” um jogador da NBA… e essas são só algumas das várias falhas da IA.
Ofertas
Por: R$ 678,90
Por: R$ 112,40
Por: R$ 2.288,93
Por: R$ 8,28
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 491,92
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 499,00
Por: R$ 369,00
Por: R$ 1.616,02
Por: R$ 179,90
Por: R$ 3.099,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 505,00
Um equipe editorial humana provavelmente teria identificado e corrigido esses erros, diferentemente do sistema da Microsoft que, após abandonar a supervisão humana por algoritmos há alguns anos, falhou em fazê-lo. Conforme relatado pela CNN, a Microsoft está no centro de um problema mais amplo: a utilização de modelos de Inteligência Artificial (IA) na agregação de notícias.
Leia também:
- 5 produtos com inteligência artificial para equipar sua casa inteligente
- LuzIA: como funciona a inteligência artificial no WhatsApp
- Como criar slides com Inteligência Artificial
O custo de trocar uma equipe humana por algoritmos e IA
As falhas não pararam por aí. Outras implementações equivocadas da IA foram observadas, como um guia de viagem que sugeria aos turistas em Ottawa fazerem uma refeição no banco alimentar local, e uma enquete criada por IA que questionava os leitores sobre a causa da morte de uma jovem mulher. Estas situações colocam em cheque a eficácia e sensibilidade dos algoritmos em lidar com tópicos delicados e informações precisas.
O campo jornalístico não é o único afetado pela crescente presença da IA. A BBC tem conduzido experimentos com IA, sites como o Macworld utilizam chatbots para consultar seus arquivos, e a Associated Press tem empregado IA em seus “Automated Insights” há mais de oito anos. Contudo, exemplos como histórias equivocadas sobre Star Wars e conselhos financeiros errados fornecidos por chatbots no último ano evidenciam os riscos associados à falta de supervisão humana.
A Microsoft, através do Microsoft Start e MSN, apresenta seus sistemas como recursos confiáveis para encontrar notícias. No entanto, o que temos observado é que seu sistema automatizado continua promovendo ou gerando conteúdo com linguagem desnecessariamente perturbadora e informações falsas.
A ausência de jornalistas e editores humanos na linha de frente do processo editorial elimina a possibilidade de responsabilização individual direta por erros e desinformação. Nesse caso, a culpada é unicamente a Microsoft.