OpenAI: Sam Altman cultiva “cultura tóxica de mentiras”, afirmam ex-executivos

Ex-funcionárias da startup pedem que governo intervenha com regulamentações para salvar "gestão desastrosa" do atual CEO
Por Leandro Costa Criscuolo, editado por Rodrigo Mozelli 28/05/2024 06h25, atualizada em 04/06/2024 21h05
sam-altman-
Imagem: jamesonwu1972/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O CEO da OpenAI, Sam Altman, sofreu com as turbulências internas da startup, após ser demitido do conselho da empresa ano passado e readmitido meses depois. No entanto, ex-membros do conselho não deixaram de apontar problemas na gestão do executivo. As informações são do Mashable.

Enquanto pedem maior regulamentação governamental da empresa, os ex-membros do conselho relataram, nesta semana, tudo o que consideram errado na postura de Altman à frente da empresa que desenvolve inteligência artificial (IA).

Leia mais:

Helen Toner e Tasha McCauley, duas das várias ex-funcionárias que foram responsáveis por destituir Altman do conselho em novembro passado, dizem que sua decisão de expulsá-lo e salvar a estrutura regulatória da OpenAI foi estimulada por padrões de comportamento de longa data exibidos pelo CEO da startup.

Toner e McCauley alegam que o padrão de comportamento de Altman, combinado com a confiança na autogovernança, é “receita para o desastre”.

As duas alegam que ingressaram na empresa “cautelosamente otimistas” sobre o futuro da OpenAI, reforçadas pelas motivações aparentemente altruístas da empresa na época exclusivamente sem fins lucrativos, mas questionaram desde então as ações de Altman e da empresa.

Sam Altman
Sam Altman, CEO da OpenAI (Imagem: jamesonwu1972/Shutterstock)

“Vários líderes compartilharam, em particular, graves preocupações com o conselho, dizendo acreditar que o Sr. Altman cultivava cultura tóxica de mentiras e se envolvia em comportamentos que podem ser caracterizados como abuso psicológico”, afirmaram Toner e McCauley.

“Os desenvolvimentos desde que ele retornou à empresa – incluindo sua reintegração ao conselho e a saída de talentos seniores focados em segurança – são mau presságio para o experimento OpenAI de autogoverno”, continuam.

“Mesmo com a melhor das intenções, sem supervisão externa, este tipo de autorregulação acabará por ser inexequível, especialmente sob a pressão de imensos incentivos ao lucro. Os governos devem desempenhar papel ativo”, clamam as ex-funcionárias.

OpenAI centraliza debate sobre regulamentação governamental

  • Nas últimas semanas, a OpenAI tem estado no centro da conversa sobre regulamentação da IA;
  • Uma série de demissões de funcionários de alto escalão chegaram a ocorrer, motivadas por opiniões divergentes sobre o futuro da startup, que não estaria se esforçando para que suas tecnologias de IA sejam totalmente seguras;
  • Depois que o cofundador e chefe de sua equipe de alinhamento, Ilya Sutskever, e seu colíder, Jan Leike, deixaram a empresa, a OpenAI dissolveu sua equipe interna de segurança;
  • Leike disse estar preocupado com o futuro da OpenAI, já que “a cultura e os processos de segurança ficaram em segundo plano”.

openai
OpenAI estaria afrouxando medidas internas de segurança (Imagem: Camilo Concha/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.