Siga o Olhar Digital no Google Discover
Está nas mãos da governadora de Nova York, Kathy Hochul, o projeto de lei que cria uma série de regras de transparência para desenvolvedores de inteligência artificial. O chamado RAISE Act (Responsible AI Safety and Education, em inglês) foi aprovado por senadores do estado americano na semana passada.
Ofertas
Por: R$ 1.439,90
Por: R$ 117,64
Por: R$ 123,20
Por: R$ 89,90
Por: R$ 313,50
Por: R$ 475,87
Por: R$ 23,65
Por: R$ 235,28
Por: R$ 36,22
De maneira geral, as empresas terão de criar planos de segurança para proteção contra crimes automatizados, armas biológicas e outros danos e destruições generalizadas. A lei se aplica apenas às companhias que investiram mais de US$ 100 milhões em recursos computacionais para treinar modelos avançados de IA.
O projeto tem como base o Relatório Internacional de Segurança da IA — liderado por um painel de consultores especialistas — que alerta para “impactos em larga escala no mercado de trabalho, ataques de hackers ou biológicos com IA, e na perda de controle da sociedade sobre a IA de uso geral”. O texto foi elaborado pelo senador estadual Andrew Gounardes (Partido Democrata) e pelo deputado Alex Bores (Partido Democrata).

O que prevê a lei RAISE?
- Exige que as maiores empresas de IA publiquem protocolos de segurança e avaliações de risco. Esses protocolos abrangem riscos graves, como auxiliar na criação de armas biológicas ou realizar atividades criminosas automatizadas;
- Exige que as empresas divulguem incidentes graves, como quando um modelo de IA perigoso é roubado por um agente malicioso ou se comporta de maneira perigosa;
- Permite que o Procurador-Geral do Estado de Nova York aplique penalidades civis contra grandes empresas de IA que não cumpram esses padrões.
“É exatamente o tipo de salvaguarda razoável e sensata que esperaríamos de qualquer empresa que trabalhe com um produto potencialmente perigoso, e garante que ninguém tenha incentivo para economizar ou priorizar os lucros em detrimento da segurança”, afirmou o senador Gounardes.

Leia Mais:
- Por que IA superinteligente está longe de virar realidade, segundo a Apple
- IA mais humana? É o seu consumo que está ensinando isso às máquinas
- Regulação da IA já existe, mas não é democrática, diz especialista
Críticas ao projeto
O RAISE Act compartilha semelhanças com a lei de segurança de IA da Califórnia, SB 1047, que acabou sendo vetada sob o argumento de que pudesse inibir o desenvolvimento de startups ou de pesquisas acadêmicas, como lembra o site TechCrunch.
Para Gounardes, o novo projeto apenas estabelece padrões de segurança e relatórios de incidentes para os modelos de IA mais poderosos, garantindo que Nova York fique à frente das ameaças emergentes sem sufocar a inovação.

No X, o cofundador da Anthropic, laboratório de IA focado em segurança que defende uma regulamentação federal sobre o assunto, Jack Clark, afirmou que o RAISE é “pouco claro em algumas de suas principais definições, o que dificulta saber como cumprir”.
“A definição de ‘incidente de segurança’ é extremamente ampla/obscura e o prazo de resposta é muito curto (72 horas!). Isso pode gerar muitos relatórios desnecessários. Quaisquer propostas estaduais devem ser focadas estritamente na transparência e não excessivamente prescritivas. O ideal seria que houvesse uma regra única para o país”, escreveu.