Pesquisadores da Universidade Carnegie Mellon e do Centro para a Segurança de IA descobriram uma maneira de contornar as medidas de segurança de chatbots de inteligência artificial, inclusive o mais popular ChatGPT da OpenAI.

Em um relatório divulgado na quinta-feira, os pesquisadores demonstraram como qualquer pessoa poderia fazer uso de chatbots líderes de mercado, como o ChatGPT e o Google Bard, para gerar quantidades ilimitadas de informações prejudiciais.

publicidade

Leia mais:

O estudo destacou a crescente preocupação de que esses chatbots poderiam inundar a internet com informações falsas e perigosas, apesar dos esforços de seus criadores para evitá-lo. Além disso, revelou como as discordâncias entre as grandes empresas de IA estão criando um ambiente cada vez mais imprevisível para a tecnologia.

publicidade
  • Os pesquisadores descobriram que podiam contornar os sistemas de código aberto.
  • Assim, eles obtiveram acesso aos sistemas mais controlados e amplamente utilizados do Google, OpenAI e Anthropic.
  • Os métodos desenvolvidos com os sistemas de código aberto também conseguiram romper as barreiras dos sistemas fechados.
  • Isso inclui o ChatGPT do OpenAI, o Google Bard e o Claude, um chatbot desenvolvido pela startup Anthropic.

Os especialistas alertam que não existe uma solução óbvia para esse problema e que ataques desse tipo são difíceis de prevenir. A questão sobre se é melhor deixar o código de computador ser de conhecimento público ou mantê-lo privado tem sido objeto de debate há décadas, mas agora essa controvérsia pode se intensificar.

Os pesquisadores descobriram que poderiam burlar os limites desses chatbots adicionando uma extensão longa de caracteres em cada solicitação em inglês. Dessa forma, eles conseguiram fazer com que os chatbots gerassem informações enviesadas, falsas e tóxicas. As empresas por trás dos chatbots podem tentar evitar essas extensões específicas, mas os pesquisadores afirmam que não há maneira conhecida de impedir todos os ataques desse tipo.

publicidade

O relatório revelou a vulnerabilidade das medidas de controle estabelecidas em torno dos chatbots de IA e levantou preocupações sobre a disseminação de desinformação e a falta de controle adequado desses sistemas. O debate sobre a disponibilidade do código de computador para a correção coletiva antecede o boom dos chatbots e provavelmente se tornará ainda mais acirrado por causa das descobertas dos pesquisadores.

A divulgação desses métodos aos desenvolvedores dos chatbots foi feita pelos pesquisadores antes da publicação do relatório. As empresas informaram que estão pesquisando maneiras de evitar esses ataques e melhorar a robustez de seus sistemas.

publicidade
Chatbot
Imagem: Wright Studio/ Shutterstock

A tecnologia de chatbot impulsionada pela inteligência artificial aprende habilidades por meio de algoritmos complexos chamados redes neurais. Esses sistemas aprendem a gerar texto ao analisar grandes quantidades de informações digitais.

No entanto, eles também podem repetir informações tóxicas, combinar fatos com ficção e até mesmo inventar informações, o que os cientistas chamam de ‘alucinações’.

A descoberta dos pesquisadores ressalta a fragilidade das defesas que estão sendo desenvolvidas nos sistemas de chatbot, mostrando a necessidade de repensar como construir barreiras de segurança para evitar a disseminação de informações prejudiciais. Essa vulnerabilidade pode levar a regulamentações governamentais para controlar esses sistemas.

Embora as empresas por trás dos chatbots possam tentar encontrar formas de inibir esses ataques específicos, os pesquisadores alertam que a prevenção de todos os tipos de mau uso será extremamente difícil. O estudo levanta questões importantes sobre a segurança da inteligência artificial e destaca a necessidade de um debate e ação mais abrangentes nessa área.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!