Imagem: Ascannio/Shutterstock
As startups de inteligência artificial OpenAI e Anthropic firmaram acordos com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de IA, conforme anunciado pelo U.S. Artificial Intelligence Safety Institute e informado pela Reuters.
Esses são os primeiros acordos desse tipo e surgem em um momento de crescente escrutínio regulatório sobre o uso seguro e ético da tecnologia de IA. A Califórnia está prestes a votar em um projeto de lei que visa regulamentar amplamente o desenvolvimento e a implantação de IA no estado.
“Uma IA segura e confiável é essencial para maximizar o impacto positivo da tecnologia. Nossa parceria com o U.S. AI Safety Institute aproveita sua vasta experiência para testar rigorosamente nossos modelos antes de seu lançamento em larga escala”, afirmou Jack Clark, cofundador e chefe de política da Anthropic, que conta com o apoio da Amazon e da Alphabet.
Leia mais:
“Esses acordos são apenas o início, mas representam um marco importante enquanto buscamos gerenciar o futuro da IA de forma responsável”, afirmou Elizabeth Kelly, diretora do U.S. AI Safety Institute.
O instituto, criado no ano passado como parte de uma ordem executiva da administração do presidente Joe Biden para avaliar os riscos associados a modelos de IA conhecidos e emergentes, também colaborará com o U.K. AI Safety Institute e fornecerá feedback às empresas sobre possíveis melhorias de segurança.
Esta post foi modificado pela última vez em 29 de agosto de 2024 17:06