OpenAI tenta influenciar regulamentação da IA na Europa

A OpenAI fez lobby para atenuar aspectos da Lei de IA e conseguiu incorporar alguns elementos na versão final dela, revelou a revista Time
Por William Schendes, editado por Pedro Spadoni 20/06/2023 17h17, atualizada em 21/06/2023 21h20
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A OpenAI tentou influenciar a União Europeia para que a Lei da IA não afetasse tanto a empresa dona do ChatGPT. A informação vem de documentos vistos pela revista Time. Segundo a publicação, eles revelam o lobby da OpenAI para atenuar elementos significativos da legislação.

Para quem tem pressa:

  • Algumas alterações propostas pela OpenAI estão presentes no texto final da lei aprovada na última quarta-feira (14);
  • Antes da aprovação, os legisladores debatiam se a Lei da IA deveria classificar todos os sistemas de IA de uso geral, como ChatGPT e Dall-E da OpenAI, como ferramentas de “alto risco”;
  • A reportagem revelou que a OpenAI lutou para que os sistemas de IA generativos não fossem classificados nessa categoria da lei;
  • O argumento da empresa era que apenas as empresas que aplicam a IA em casos de alto risco devem cumprir com os regulamentos (o mesmo argumento foi utilizado pelo Google e pela Microsoft).

A OpenAl implanta principalmente sistemas IA de uso geral – por exemplo, nosso modelo de linguagem GPT-3 pode ser usado para uma ampla variedade de casos de uso envolvendo linguagem, como resumo, classificação, perguntas e respostas e tradução.

OpenAI em artigo enviado aos funcionários da Comissão e Conselho da União Europeia em setembro de 2022.

Leia mais:

Celular com logomarcas da OpenAI e ChatGPT na tela e logomarca da OpenAI ao fundo
(magem: Fabio Principe/Shutterstock)

Também foi revelado que representantes da OpenAI se reuniram com funcionários da Comissão Europeia em junho de 2022 para discutir sobre as categorizações de risco proposta pelo projeto de lei.

“Eles [OpenAI] estavam preocupados que sistemas de IA de uso geral fossem incluídos como sistemas de alto risco e preocupados que mais sistemas, por padrão, fossem categorizados como de alto risco” diz um registro da reunião.

Uma fonte anônima disse à revista que, na reunião, os funcionários da OpenAI demonstraram preocupação que o excesso das regulamentações pudesse prejudicar as inovações da IA.

Em comunicado, um porta-voz da OpenAI disse que na reunião citada os funcionários forneceram uma visão da abordagem da empresa para “implantar sistemas como o GPT-3 com segurança” e comentaram sobre o rascunho da Lei de IA.

A Lei de IA ainda será discutida em conjunto entre Parlamento Europeu, Comissão Europeia e o Conselho da União Europeia. A versão final da lei deve ser apresentada até o final de 2023. Mas pode demorar até dois anos para entrar em vigor.

Com informações da Time

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Jornalista em formação pela Universidade Metodista de São Paulo (UMESP). Mesmo com alguns assuntos negativos, gosta ficar atualizado e noticiar sobre diferentes temas da tecnologia.

Pedro Spadoni
Redator(a)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.