Siga o Olhar Digital no Google Discover
A Meta anunciou que poderá interromper o desenvolvimento de sistemas de IA considerados excessivamente perigosos. A decisão, revelada em um novo documento da empresa, surge em meio a crescentes preocupações sobre os riscos potenciais da inteligência artificial.
Ofertas
Por: R$ 19,90
Por: R$ 819,00
Por: R$ 22,90
Por: R$ 2.240,00
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 404,90
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 469,00
Por: R$ 5.610,00
Por: R$ 499,00
Por: R$ 379,00
Por: R$ 1.616,02
Por: R$ 179,90
Por: R$ 2.759,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 473,00
A nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da tecnologia.
IAs de “risco crítico”: o que preocupa a Meta?
O documento descreve tipos de sistemas que a Meta considera muito arriscados para lançamento. Como aqueles capazes de auxiliar em ataques cibernéticos, químicos e biológicos. A empresa ilustra a gravidade desses riscos com exemplos como a proliferação de armas biológicas e a invasão automatizada de sistemas corporativos.
A avaliação de risco da Meta é baseada na análise de pesquisadores internos e externos. Diante da identificação de um sistema de “alto risco”, por exemplo, a Meta promete restringir o acesso.
No caso de um sistema classificado como “risco crítico”, a Meta se compromete a implementar salvaguardas de segurança, como interromper o desenvolvimento até que o sistema se torne menos perigoso.

O relatório da Meta representa uma resposta às críticas sobre sua abordagem de desenvolvimento de IA. A empresa tem sido notória por tornar sua tecnologia de IA abertamente disponível, em contraste com empresas como a OpenAI, que optam por proteger seus sistemas.
Essa estratégia de “lançamento aberto” tem sido um divisor de águas para a Meta. Sua família de modelos de IA, Llama, acumula centenas de milhões de downloads. No entanto, essa mesma abertura gerou preocupações, com relatos de que o Llama foi usado para desenvolver um chatbot de defesa por um adversário dos EUA, segundo o TechCrunch.

Leia mais:
- Trump anuncia ‘projetaço’ para data centers de IA com OpenAI e outras empresas
- Meta: o que são as notas de comunidade? Veja diferença para o sistema de checagem de fatos
- Meta AI: como mudar a voz na IA do WhatsApp
A Meta enfatiza no documento que sua abordagem, que considera os benefícios e riscos da IA, visa entregar essa tecnologia à sociedade de forma a preservar seus benefícios, mantendo um nível aceitável de risco. Resta saber se essa nova postura será suficiente para acalmar as preocupações e garantir um futuro da IA mais seguro e responsável.