Funcionários e ex-funcionários de empresas de inteligência artificial (IA) disseram, numa carta aberta, que companhias retaliam contra pessoas que manifestam preocupações sobre segurança da tecnologia. Entre os signatários do documento, estão profissionais que estão na (ou passaram pela) Anthropic, OpenAI e Google DeepMind.

Carta aberta traz preocupações de quem trabalha (ou trabalhou) em empresas de IA

  • Funcionários e ex-funcionários de empresas de inteligência artificial (IA) alegam, em carta aberta, que companhias retaliam contra quem expressa preocupações sobre a segurança da tecnologia. Entre os signatários estão profissionais da Anthropic, OpenAI e Google DeepMind;
  • A carta, disponível on-line, afirma que empresas de IA sufocam críticas e supervisão, especialmente diante do aumento recente das preocupações com a segurança da IA. Os signatários defendem princípios de crítica aberta e proteção aos denunciantes;
  • O documento é assinado por 13 profissionais, com endossos de especialistas renomados (Yoshua Bengio, Geoffrey Hinton e Stuart Russell). A carta critica a insuficiência das proteções atuais para denunciantes, focadas em atividades ilegais, enquanto as preocupações com a segurança da IA permanecem em grande parte não regulamentadas;
  • A OpenAI enfrentou uma debandada de pesquisadores após desmantelar sua equipe de “Superalinhamento”, dedicada aos riscos de longo prazo da IA. Ilya Sutskever, cofundador da OpenAI, também deixou a empresa. Atualmente, a OpenAI conta com uma nova equipe de segurança, liderada pelo CEO Sam Altman.

Na carta aberta disponível on-line, os profissionais afirmam que empresas de IA sufocam críticas e supervisão, especialmente conforme as preocupações com a segurança da IA aumentaram nos últimos meses.

publicidade

Leia mais:

O documento traz a assinatura de 13 profissionais (sete nominais, seis anônimos). Desses, sete são ex-funcionários da OpenAI, quatro ainda trabalham na OpenAI, um trabalhou no Google DeepMind e um é ex-funcionário da Anthropic e atualmente trabalha no GoogleDeepMind.

publicidade

Além disso, a carta é endossada por Yoshua Bengio, Geoffrey Hinton e Stuart Russell. A título de curiosidade, Hinton trabalhou no Google e é considerado como “Padrinho da IA”.

O que diz a carta aberta dos profissionais sobre as empresas de IA

IA
Empresas de IA devem se comprometer com princípios de crítica aberta, diz carta assinada por funcionários e ex-funcionários (Imagem: Thapana_Studio/Shutterstock)

O texto afirma que, na ausência de qualquer supervisão governamental efetiva, as empresas de IA devem se comprometer com princípios de crítica aberta. Esses princípios incluem evitar a criação e aplicação de cláusulas de não depreciação, facilitar um processo anônimo “verificável” para relatar problemas, permitir que funcionários atuais e antigos levantem preocupações ao público e não retaliar contra denunciantes.

publicidade

A carta diz que, embora os profissionais acreditem no potencial da IA para beneficiar a sociedade, eles também vêem riscos, como o agravamento das desigualdades, manipulação e desinformação, e a possibilidade de extinção humana.

Os signatários da carta afirmam que as proteções atuais para denunciantes “são insuficientes” porque se concentram em atividades ilegais, em vez de preocupações que, dizem eles, são em grande parte não regulamentadas.

publicidade

O Departamento do Trabalho dos Estados Unidos (espécie de Ministério do Trabalho) afirma que os trabalhadores que denunciam violações de salários, discriminação, segurança, fraude e retenção de folgas são protegidos pelas leis de proteção a denunciantes. Isso significa que os empregadores não podem demitir, reduzir horas nem rebaixar os denunciantes.

“Alguns de nós temem, de forma razoável, várias formas de retaliação, dado o histórico de tais casos na indústria. Não somos os primeiros a encontrar ou falar sobre essas questões”, diz a carta.

OpenAI tem debandada após desmantelar equipe de segurança

Vários pesquisadores da OpenAI se demitiram recentemente (Imagem: TY Lim/Shutterstock)

Recentemente, vários pesquisadores da OpenAI se demitiram após a empresa desmantelar sua equipe de “Superalinhamento”. Essa equipe se concentrava em abordar os riscos de longo prazo da IA.

Além disso, Ilya Sutskever, cofundador da OpenAI que vinha defendendo a segurança da IA na companhia, saiu da empresa. Agora, a OpenAI tem uma nova equipe de segurança, liderada pelo CEO Sam Altman.

Um ex-pesquisador, Jan Leike, disse que “a cultura de segurança e os processos ficaram em segundo plano em relação a produtos novos” na OpenAI.