Google, OpenAI e Microsoft formam grupo para supervisionar as IAs

OpenAI, Microsoft, Google e Anthropic formaram um grupo que visa garantir o desenvolvimento seguro e responsável dos modelos de IA
Por William Schendes, editado por Bruno Capozzi 26/07/2023 11h22
Bard Bing ChatGPT
(Imagem: AdriaVidal / Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

No momento em que governos de todo o mundo estudam a melhor forma de regular as inteligências artificiais, quatro grandes empresas do segmento estão se unindo na formação de um novo órgão que visa garantir o desenvolvimento seguro e responsável dos modelos de IA. Pelo menos, é o que dizem as big techs envolvidas.

A OpenAI, Microsoft, Google e Anthropic divulgaram, nesta quarta-feira (26), a criação do Frontier Model Forum, que juntará a experiência das empresas para desenvolver avaliações técnicas, identificando as melhores práticas e padrões de uso das IAs.

Leia mais:

O foco do grupo será a “IA de fronteira”, modelos avançados de inteligência artificial e aprendizado de máquina que são perigosos o suficiente para representar “riscos graves à segurança pública”.

Em comunicado, a coalizão reuniu alguns objetivos centrais:

  • Pesquisas de segurança de IA: promover o desenvolvimento responsável dos modelos de IA, minimizando riscos e permitindo avaliações independentes e padronizadas de capacidades e segurança;
  • Identificar melhores práticas: auxiliará no desenvolvimento e implantação das IAs, permitindo a compreensão do público sobre a natureza, capacidades, limitações e impacto da tecnologia;
  • Colaborar na formulação de políticas, pesquisadores, sociedade e empresas: Compartilhar conhecimento sobre confiança e riscos de segurança;
  • Apoiar esforços para desenvolver aplicativos para enfrentar desafios da sociedade: combater problemas enfrentados pela humanidade, como mitigação e adaptação de mudanças climáticas, detecção e prevenção do câncer e combate a ameaças cibernéticas.

Inicialmente, o fórum contará com a colaboração das quatro empresas, mas o grupo diz que está aberto para outras organizações que desenvolvem ou implementam modelos de IA. Além disso, os novos aliados devem demonstrar compromisso com a segurança dos modelos de IA de fronteira.

Nos próximos meses, o Frontier Model Forum planeja formar com um conselho consultivo para avaliar prioridades, estabelecer um estatuto, sistema de governança e financiamento para realizar o esforço. A coalizão também consultará governos e sociedade civil.

Com informações de TechCrunch e Google.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Jornalista em formação pela Universidade Metodista de São Paulo (UMESP). Mesmo com alguns assuntos negativos, gosta ficar atualizado e noticiar sobre diferentes temas da tecnologia.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.