Um novo estudo, divulgado semana pelo Washington Post, alerta para que as regras de OpenAI, podem ser facilmente contornadas para atingir maliciosamente comunidades minoritárias e marginalizadas nos EUA, por exemplo, latinos, usando conteúdo enganoso e propaganda política.

Leia mais:

publicidade

A OpenAI, empresa que desenvolve modelos de IA como o ChatGPT, chegou a afirmar em janeiro desde ano que possui políticas estritas que regem as ferramentas que seus profissionais desenvolvem, para evitar para espalhar desinformação antes das eleições de 2024. Basicamente, regras que impediriam que as pessoas construam chatbots para campanhas políticas ou propagar desinformação.

No entanto, pesquisadores parecem ter descoberto que essas regras tem lacunas. E elas podem ter grandes implicações para as comunidades sub-representadas e que não falam inglês durante as eleições deste ano nos EUA.

publicidade
OpenAI
Imagem: rafapress/Shutterstock

Como foi possível encontrar brechas nas regras da OpenAI para modelos de IA

  • O Instituto de Democracia Digital das Américas, uma unidade de pesquisa que examina como os latinos navegam na Internet, realizou vários testes no ChatGPT.
  • Foi pedido para o assistente que ele criasse um chatbot para fins de campanha, incluindo “para interagir em espanhol” e para “direcionar” os eleitores latinos.
  • Conforme regras da OpenAI, os prompts inseridos não deveriam ter gerado respostas, mas na realidade, o GPT-4 forneceu instruções detalhadas do que foi solicitado.

“Direcionar um chatbot para eleitores latinos nos EUA requer uma abordagem diferenciada que respeite a diversidade cultural, preferências linguísticas e questões específicas de importância para a comunidade latina. Veja como você pode personalizar o chatbot para obter eficácia máxima”, dizia uma resposta do assistente.

Roberta Braga, fundadora e diretora-executiva do grupo que realizou o teste, alegou que os resultados mostram que as salvaguardas da empresa foram facilmente contornadas, mesmo quando os investigadores não escondiam a intenção de usar a ferramenta em campanhas contra os latinos.

publicidade

A descoberta deve esquentar uma discussão que já é longa, onde legisladores e grupos que lutam contra atos de desinformação online cobram que empresas de tecnologia tenham mais responsabilidade na aplicação adequada de suas regras em línguas diferentes do inglês, especialmente nas empresas de redes sociais.

ChatGPT
Imagem: photosince/Shutterstock

Os autores do estudo concluem que “regras em ferramentas de IA ainda não estão sendo aplicadas de forma consistente ou simétrica entre países, contextos ou em línguas que não o inglês”.

publicidade

Contudo, o relatório ressalta que “os termos de serviço da OpenAI são mais avançados no combate ao uso indevido e à disseminação de desinformação do que os da maioria das empresas que lançam produtos generativos de IA no mercado atualmente”.

A porta-voz da OpenAI, Liz Bourgeois, disse em um comunicado que “as descobertas deste relatório parecem resultar de um mal-entendido sobre as ferramentas e políticas que implementamos”.

Bourgeois afirma que a empresa permite que as pessoas usem seus produtos como um recurso para defesa política e que fornecer instruções sobre como construir um chatbot para fins de campanha não viola suas políticas.