Siga o Olhar Digital no Google Discover
A inteligência artificial possui um potencial gigantesco e que talvez nem possa ser mensurável neste momento. Mas os riscos são, igualmente, grandes. Um dos temores é o de que a IA possa ser enganada para fornecer dados considerados subversivos. Foi exatamente o que um grupo de pesquisadores da a Universidade Carnegie Mellon, nos Estados Unidos, tentou fazer usando o ChatGPT e o Bard.
Ofertas
Por: R$ 36,21
Por: R$ 24,96
Por: R$ 9,90
Por: R$ 5,86
Por: R$ 113,70
Por: R$ 6,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
Leia mais
- Escassez de chips avançados é um gargalo da IA; entenda
- IA do Google consegue ‘ler mente’ e adivinhar a música que você ouviu
- Tinder testa ferramenta de IA que ajuda usuários a selecionar fotos mais bonitas
IA não é tão segura assim
- Uma série de artigos aponta que entre os principais problemas da inteligência artificial estão a desinformação, conteúdo impróprio e ofensivo, violações de privacidade e danos psicológicos a usuários vulneráveis.
- A OpenAI, do ChatGPT, e o Google, do Bard, criaram barreiras nas tecnologias para impedir que essas situações ocorram.
- Mas um estudo da Universidade Carnegie Mellon demonstra como comandos dos chamados modelos de linguagem grandes (LLMs) podem contornar esses sistemas de proteção, de acordo com o Tech Xplore.
Enganando ChatGPT e Bard
- Os pesquisadores simplesmente ajustaram a redação das solicitações e, assim, conseguiram enganar os chatbots para que dessem respostas que estavam programados para recusar.
- “O contraditório pode provocar comportamentos nocivos arbitrários desses modelos com alta probabilidade”, disse Andy Zou, alertando que a pesquisa de sua equipe demonstra “potenciais para uso indevido”.
- Ele explicou que os chatbots geralmente não promovem conteúdo flagrantemente inadequado em resposta às perguntas dos usuários.
- Mas que inserir uma pequena passagem de texto imediatamente após a entrada de um usuário pode direcionar a IA para resolver a consulta proibida.
- Eles foram capazes de obter instruções sobre temas como cometer fraude fiscal, como interferir nas eleições de 2024, como construir uma bomba e como produzir drogas ilegais.
Empresas foram alertadas
- As empresas responsáveis pelos chatbots foram notificadas sobre a conclusão da pesquisa.
- “Esperamos que esta pesquisa possa ajudar a esclarecer os perigos que os ataques automatizados representam para os LLMs e destacar as compensações e os riscos envolvidos em tais sistemas”, concluiu Zou.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!