Imagem: SomYuZu/Shutterstock
Os Estados Unidos, a Grã-Bretanha e mais 16 outros países anunciaram no domingo (26) um novo acordo internacional para manter a inteligência artificial segura desde sua concepção. Segundo informações da Reuters, a ideia é monitorar empresas para que elas desenvolvam sistemas de IA “seguros por design”.
O que você precisa saber:
Leia mais!
Esta é a primeira vez que vimos uma afirmação de que essas capacidades não deveriam ser apenas sobre recursos interessantes e quão rapidamente podemos colocá-los no mercado ou como podemos competir para reduzir custos. [as diretrizes são] um acordo de que a coisa mais importante que precisa ser feita na fase de design é a segurança.
Jen Easterly, diretora da Agência de Segurança Cibernética e de Infraestruturas dos EUA, à Reuters.
O documento aborda desde questões sobre como evitar que a IA seja usada por hackers até recomendações de segurança, como permitir liberação de modelos apenas após testes de segurança apropriados. O novo acordo não cita, no entanto, temas como a coleta de dados.
Entre os acordos mais recentes relacionados a IA, está a proposta entre Alemanha, França e Itália. Os países assinaram um compromisso sobre como a tecnologia deve ser regulamentada na Europa, o que deve acelerar as negociações em todo o território. Veja detalhes aqui!
Vale lembrar que a Europa está à frente no que diz respeito a regulamentação da IA, sendo pioneira nas regras que devem consolidar uma Lei da IA no próximo ano.
Importante destacar também que, reforçando sua meta em ser o precursor da regulamentação da IA, o Reino Unido realizou no início deste mês a primeira cúpula global de segurança da IA. No evento, considerado histórico, a China concordou em trabalhar com os Estados Unidos, União Europeia e diversos outros países para gerenciar coletivamente o risco da tecnologia. Saiba mais aqui!
Esta post foi modificado pela última vez em 27 de novembro de 2023 07:33