ChatGPT pagará até US$ 20 mil para quem encontrar bugs

OpenAI oferecerá até US$ 20 mil por vulnerabilidades em seus sistemas de inteligência artificial, incluindo o ChatGPT
Ana Luiza Figueiredo11/04/2023 19h29, atualizada em 12/04/2023 21h28
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A OpenAI, empresa por trás do famoso chatbot ChatGPT, anunciou nesta terça-feira, 11 de abril, seu programa de recompensas por bugs chamado Bugcrowd, onde que oferecerá até US$ 20 mil, equivalente a cerca de R$ 100 mil, para usuários que denunciarem vulnerabilidades em seus sistemas de inteligência artificial.

O programa oferecerá recompensas aos usuários com base na gravidade dos bugs reportados, com prêmios a partir de US$ 200 por vulnerabilidade, chegando ao prêmio máximo de US$ 20 mil.

Leia mais:

Empresas de tecnologia geralmente usam programas de recompensas para incentivar programadores e hackers éticos a reportar bugs em seus sistemas de software.

De acordo com detalhes disponíveis na plataforma de recompensas Bugcrowd, a OpenAI convidou pesquisadores para revisar certas funcionalidades do ChatGPT e a estrutura de como os sistemas da OpenAI se comunicam e compartilham dados com aplicativos de terceiros. O programa não inclui conteúdo incorreto ou malicioso produzido pelos sistemas da OpenAI.

A iniciativa vem dias depois que o ChatGPT foi banido na Itália por suspeita de violação de regras de privacidade, levando reguladores de outros países europeus a estudar serviços de IA gerados por computador com mais atenção.

O ChatGPT da OpenAI, apoiado pela Microsoft, que tem feito sucesso desde o seu lançamento em novembro, impressionando alguns usuários com respostas rápidas a perguntas e causado transtornos para outros com imprecisões.

Como participar do programa de recompensas

Para participar do programa de recompensas da OpenAI, os usuários devem seguir as regras de engajamento detalhadas pela OpenAI e usar o programa Bugcrowd para comunicação relacionada a vulnerabilidades.

Eles também devem manter detalhes de vulnerabilidade confidenciais até que sejam autorizados para divulgação pela equipe de segurança da OpenAI, que visa fornecer autorização dentro de 90 dias após o recebimento do relatório.

Além disso, os participantes devem testar apenas sistemas no escopo, não violar a privacidade ou prejudicar a experiência do usuário e não engajar em extorsão, ameaças ou outras táticas para obter uma resposta sob pressão.

Mais informações sobre o programa de recompensas Bugcrowd podem ser encontradas aqui.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Ana Luiza Figueiredo é repórter do Olhar Digital. Formada em Jornalismo pela Universidade Federal de Uberlândia (UFU), foi Roteirista na Blues Content, criando conteúdos para TV e internet.