Assim como em tantos outros governos, o Japão tem sido pressionado para que uma nova lei sobre uso da inteligência artificial (IA) seja introduzida ainda este ano no país. De acordo com o portal Nikkei, o Partido Liberal Democrata (PLD) elaborará regras preliminares, incluindo regulamentos penais, para desenvolvedores de modelos como o ChatGPT, da OpenAI, para o território avançar na supervisão da tecnologia.

O que você precisa saber: 

publicidade
  • A iniciativa vem da equipe do projeto de IA do Partido Liberal Democrata (PLD), sistema que governa o Japão; 
  • A ideia é abordar questões relacionadas à IA, como desinformação e violação de direitos, além de aplicação de penalidades para desenvolvedores (empresas) que descumprirem as regras; 
  • Avanço do país mostra interesse do território em alcançar grandes potências no que diz respeito a regulação da IA, tais como Estados Unidos e China, que estão explorando formas de regular a tecnologia; 
  • Aceno do país chega após o líder da corrida, Reino Unido, chegar a um acordo sobre a legislação para IA na Europa. 

 Leia mais! 

Essa não é a primeira vez que o Japão acena em direção a uma regulamentação para IA. Em julho de 2023, uma fonte próxima ao governo japonês disse à Reuters que o país já estaria estudando uma lei, mas com regras mais brandas que as desenvolvidas na UE. 

publicidade

Se uma abordagem japonesa mais leve realmente sair do papel no Japão, ela pode se tornar uma referência global — título que ronda, prioritariamente, as deliberações na UE, mas que estão sofrendo críticas do mercado tech devido muitas restrições. 

Originalmente, uma proposta era para ter sido apresentada no fim do ano passado, o que não ocorreu. Veja mais aqui! Por ora, não há prazo para o Japão anunciar a nova lei, que ainda será elaborada pelo PLD. 

publicidade

UE aprova lei da IA 

A UE chegou a um acordo, entre seus países-membros, sobre a Lei de IA no início deste mês. Prevista para ser ratificada em abril pelo Parlamento Europeu, a legislação vai: banir alguns usos da tecnologia, limitar o uso em casos de alto risco e exigir transparência e testes de funcionamento em modelos mais avançados. Confira detalhes aqui