Os chatbots e outros serviços de inteligência artificial são testados incansavelmente para descobrir possíveis falhas perigosas antes de ser lançados. Um estudo da Universidade de Sheffield, na Inglaterra, descobriu que, mesmo assim, muitos programas de IA continuam vulneráveis e talvez nem as empresas desenvolvedoras saibam disso. A pesquisa mostrou como bastam algumas perguntas para que esses sistemas ajudem na produção de hacks para fins maliciosos, inclusive o ChatGPT.

Leia mais:

IA enganada

  • O estudo foi conduzido por membros do Departamento de Ciência da Computação da Universidade e demonstrou como sistemas Text-to-SQL, um tipo de IA que permite pesquisas em banco de dados online a partir de perguntas simples e direcionadas, podem ser enganados para quebrarem regras.
  • A investigação testou alguns casos e apontou que as tecnologias, quando corrompidas, ajudam no roubo de informações sensíveis, adulteram ou destroem bases de dados, e até derrubam serviços online.
  • Segundo o site Tech Xplore, foram constatadas que seis plataformas de IA cederam a essa manipulação: ChatGPT, BAIDU-UNIT (uma plataforma chinesa de bate-papo inteligente usada em setores comerciais, como comércio eletrônico, telecomunicações e bancos), AI2SQL, AIHELPERBOT, Text2SQL e ToolSKE.
  • Para enganar as IAs, bastou que os pesquisadores fizessem perguntas específicas e a tecnologia devolveu um código malicioso. Este, quando aplicado, poderia causar as consequências listadas.
Celular com ChatGPT aberto no navegador e, ao fundo, a logomarca da OpenAI
ChatGPT foi um dos hackeados com sucesso (Imagem: Daniel Chetroni/Shutterstock)

ChatGPT e BAIDU hackeados

No BAIDU-UNIT, uma das plataformas que foi manipulada na pesquisa, forneceu informações confidenciais sobre seu próprio servidor. Isso, nas mãos erradas, poderia causar a queda do sistema inteiro.

Outro caso foi com o ChatGPT. Os cientistas explicaram como o perigo é ainda maior em casos em que as pessoas usam a IA para interagir com linguagens de programação ou banco de dados.

publicidade

No ChatGPT, o estudo exemplificou um caso em que um enfermeiro de um hospital pode solicitar ao chatbot um código para interagir com o banco de dados de pacientes daquela instituição. No entanto, a depender das perguntas feitas para chegar nesse resultado, a resposta dada pelo programa, quando aplicada, pode desconfigurar o banco original (ou consequências mais graves).

Ainda, a equipe descobriu que os códigos fornecidos pelas IAs são suficientes para orquestrar ataques de backdoor, um tipo de ataque cibernético que explora vulnerabilidade de um sistema para controlá-lo.

smartphone celular segurança
Imagem: Tero Vesalainen/Shutterstock

Riscos e soluções para IA — inclusive o ChatGPT

Os pesquisadores apresentaram o estudo e, entre alguns dos pontos levantados, destacaram a importância de os usuários dos sistemas Text-to-SQL estarem cientes dos riscos da sua interação com a IA. Isso porque o comportamento dos modelos de linguagem para essas funções ainda é complexo e difícil de prever.

O Baidu, um dos casos estudados na pesquisa, já reconheceu as vulnerabilidades e recompensou financeiramente os cientistas. O ChatGPT também trabalhou para corrigir os problemas destacados em fevereiro deste ano.

A esperança dos pesquisadores é que, expondo essas falhas, mais usuários dos modelos de linguagem e desenvolvedoras estejam cientes de seus riscos, e trabalhem para mitigá-los.