Siga o Olhar Digital no Google Discover
A Meta anunciou que poderá interromper o desenvolvimento de sistemas de IA considerados excessivamente perigosos. A decisão, revelada em um novo documento da empresa, surge em meio a crescentes preocupações sobre os riscos potenciais da inteligência artificial.
Ofertas
Por: R$ 36,21
Por: R$ 24,96
Por: R$ 9,90
Por: R$ 5,86
Por: R$ 113,70
Por: R$ 6,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
A nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da tecnologia.
IAs de “risco crítico”: o que preocupa a Meta?
O documento descreve tipos de sistemas que a Meta considera muito arriscados para lançamento. Como aqueles capazes de auxiliar em ataques cibernéticos, químicos e biológicos. A empresa ilustra a gravidade desses riscos com exemplos como a proliferação de armas biológicas e a invasão automatizada de sistemas corporativos.
A avaliação de risco da Meta é baseada na análise de pesquisadores internos e externos. Diante da identificação de um sistema de “alto risco”, por exemplo, a Meta promete restringir o acesso.
No caso de um sistema classificado como “risco crítico”, a Meta se compromete a implementar salvaguardas de segurança, como interromper o desenvolvimento até que o sistema se torne menos perigoso.

O relatório da Meta representa uma resposta às críticas sobre sua abordagem de desenvolvimento de IA. A empresa tem sido notória por tornar sua tecnologia de IA abertamente disponível, em contraste com empresas como a OpenAI, que optam por proteger seus sistemas.
Essa estratégia de “lançamento aberto” tem sido um divisor de águas para a Meta. Sua família de modelos de IA, Llama, acumula centenas de milhões de downloads. No entanto, essa mesma abertura gerou preocupações, com relatos de que o Llama foi usado para desenvolver um chatbot de defesa por um adversário dos EUA, segundo o TechCrunch.

Leia mais:
- Trump anuncia ‘projetaço’ para data centers de IA com OpenAI e outras empresas
- Meta: o que são as notas de comunidade? Veja diferença para o sistema de checagem de fatos
- Meta AI: como mudar a voz na IA do WhatsApp
A Meta enfatiza no documento que sua abordagem, que considera os benefícios e riscos da IA, visa entregar essa tecnologia à sociedade de forma a preservar seus benefícios, mantendo um nível aceitável de risco. Resta saber se essa nova postura será suficiente para acalmar as preocupações e garantir um futuro da IA mais seguro e responsável.