O governador da Califórnia, Gavin Newsom, sancionou uma lei pioneira que impõe regras de segurança para o uso de chatbots de inteligência artificial.
O projeto SB 243 torna o estado o primeiro do país a exigir que empresas como OpenAI, Meta, Character AI e Replika adotem protocolos obrigatórios de proteção, especialmente voltados a crianças e usuários vulneráveis.

Detalhes da nova legislação
- Apresentada em janeiro pelos senadores Steve Padilla e Josh Becker, a medida ganhou força após casos trágicos envolvendo jovens que interagiram com chatbots e cometeram suicídio.
- A nova legislação, que entra em vigor em 1º de janeiro de 2026, exige verificação de idade, alertas de segurança, mensagens automáticas de prevenção ao suicídio e restrição de conteúdo sexualizado.
- Também proíbe que bots se apresentem como profissionais de saúde e obriga lembretes de pausa para menores.
Leia mais
- IA pode inserir falhas invisíveis em chips, alerta estudo
- Golpe do roubo de voz cresce no Brasil com uso de IA
- IA concentra mais da metade dos investimentos globais de risco em 2025

Obrigações por parte de empresas de IA
As empresas deverão ainda compartilhar com o Departamento de Saúde Pública dados sobre interações de risco e implementar protocolos para lidar com crises emocionais. Violações, como o uso de deepfakes ilegais, poderão gerar multas de até US$ 250 mil.
Newsom afirmou que a lei busca equilibrar inovação e responsabilidade, protegendo jovens de danos causados por tecnologias não regulamentadas. A Califórnia também aprovou recentemente outra lei de IA (SB 53) que exige transparência de grandes laboratórios sobre seus sistemas de segurança.
