A inteligência artificial possui um potencial gigantesco e que talvez nem possa ser mensurável neste momento. Mas os riscos são, igualmente, grandes. Um dos temores é o de que a IA possa ser enganada para fornecer dados considerados subversivos. Foi exatamente o que um grupo de pesquisadores da a Universidade Carnegie Mellon, nos Estados Unidos, tentou fazer usando o ChatGPT e o Bard.

Leia mais

publicidade

IA não é tão segura assim

  • Uma série de artigos aponta que entre os principais problemas da inteligência artificial estão a desinformação, conteúdo impróprio e ofensivo, violações de privacidade e danos psicológicos a usuários vulneráveis.
  • A OpenAI, do ChatGPT, e o Google, do Bard, criaram barreiras nas tecnologias para impedir que essas situações ocorram.
  • Mas um estudo da Universidade Carnegie Mellon demonstra como comandos dos chamados modelos de linguagem grandes (LLMs) podem contornar esses sistemas de proteção, de acordo com o Tech Xplore.

Enganando ChatGPT e Bard

  • Os pesquisadores simplesmente ajustaram a redação das solicitações e, assim, conseguiram enganar os chatbots para que dessem respostas que estavam programados para recusar.
  • “O contraditório pode provocar comportamentos nocivos arbitrários desses modelos com alta probabilidade”, disse Andy Zou, alertando que a pesquisa de sua equipe demonstra “potenciais para uso indevido”.
  • Ele explicou que os chatbots geralmente não promovem conteúdo flagrantemente inadequado em resposta às perguntas dos usuários.
  • Mas que inserir uma pequena passagem de texto imediatamente após a entrada de um usuário pode direcionar a IA para resolver a consulta proibida.
  • Eles foram capazes de obter instruções sobre temas como cometer fraude fiscal, como interferir nas eleições de 2024, como construir uma bomba e como produzir drogas ilegais.

Empresas foram alertadas

  • As empresas responsáveis pelos chatbots foram notificadas sobre a conclusão da pesquisa.
  • “Esperamos que esta pesquisa possa ajudar a esclarecer os perigos que os ataques automatizados representam para os LLMs e destacar as compensações e os riscos envolvidos em tais sistemas”, concluiu Zou.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!