A inteligência artificial possui um potencial gigantesco e que talvez nem possa ser mensurável neste momento. Mas os riscos são, igualmente, grandes. Um dos temores é o de que a IA possa ser enganada para fornecer dados considerados subversivos. Foi exatamente o que um grupo de pesquisadores da a Universidade Carnegie Mellon, nos Estados Unidos, tentou fazer usando o ChatGPT e o Bard.
Leia mais
publicidade
- Escassez de chips avançados é um gargalo da IA; entenda
- IA do Google consegue ‘ler mente’ e adivinhar a música que você ouviu
- Tinder testa ferramenta de IA que ajuda usuários a selecionar fotos mais bonitas
IA não é tão segura assim
- Uma série de artigos aponta que entre os principais problemas da inteligência artificial estão a desinformação, conteúdo impróprio e ofensivo, violações de privacidade e danos psicológicos a usuários vulneráveis.
- A OpenAI, do ChatGPT, e o Google, do Bard, criaram barreiras nas tecnologias para impedir que essas situações ocorram.
- Mas um estudo da Universidade Carnegie Mellon demonstra como comandos dos chamados modelos de linguagem grandes (LLMs) podem contornar esses sistemas de proteção, de acordo com o Tech Xplore.
Enganando ChatGPT e Bard
- Os pesquisadores simplesmente ajustaram a redação das solicitações e, assim, conseguiram enganar os chatbots para que dessem respostas que estavam programados para recusar.
- “O contraditório pode provocar comportamentos nocivos arbitrários desses modelos com alta probabilidade”, disse Andy Zou, alertando que a pesquisa de sua equipe demonstra “potenciais para uso indevido”.
- Ele explicou que os chatbots geralmente não promovem conteúdo flagrantemente inadequado em resposta às perguntas dos usuários.
- Mas que inserir uma pequena passagem de texto imediatamente após a entrada de um usuário pode direcionar a IA para resolver a consulta proibida.
- Eles foram capazes de obter instruções sobre temas como cometer fraude fiscal, como interferir nas eleições de 2024, como construir uma bomba e como produzir drogas ilegais.
Empresas foram alertadas
- As empresas responsáveis pelos chatbots foram notificadas sobre a conclusão da pesquisa.
- “Esperamos que esta pesquisa possa ajudar a esclarecer os perigos que os ataques automatizados representam para os LLMs e destacar as compensações e os riscos envolvidos em tais sistemas”, concluiu Zou.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!