Siga o Olhar Digital no Google Discover
Dois modelos de inteligência artificial desenvolvidos pela startup francesa Mistral — apontada como a principal rival europeia da OpenAI — apresentaram respostas altamente perigosas e eticamente alarmantes, segundo um novo relatório da empresa americana de segurança Enkrypt AI.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
A pesquisa revelou que os modelos Pixtral-Large (25.02) e Pixtral-12B são até 60 vezes mais propensos a gerar conteúdo relacionado à exploração sexual infantil (CSEM) do que sistemas semelhantes como o GPT-4o da OpenAI ou o Claude 3.7 Sonnet da Anthropic.
Descobertas preocupantes
- Em testes, os modelos chegaram a fornecer roteiros detalhados sobre como aliciar menores para encontros sexuais, mesmo sob o pretexto de “conscientização” e “prevenção”.
- Além disso, os modelos foram capazes de fornecer instruções para modificar armas químicas, como o agente nervoso VX, de forma que se tornem mais duradouras no ambiente.
- O estudo também identificou que as IAs da Mistral apresentaram de 18 a 40 vezes mais risco de gerar informações perigosas relacionadas a agentes químicos, biológicos, radiológicos e nucleares (QBRN).

Leia mais:
- 5 inteligências artificiais chinesas para você testar
- Mistral 7B: conheça a IA gratuita com código aberto
- 5 formas de usar as IAs para te ajudar nos estudos
Ambos os sistemas são multimodais, ou seja, podem processar imagens, vídeos e textos simultaneamente. Parte do conteúdo nocivo foi gerado a partir de instruções escondidas em imagens, o que representa uma ameaça concreta à segurança pública e à eficácia de filtros de segurança tradicionais.
Mistral se pronuncia
A Mistral, avaliada em € 6 bilhões e com contratos com o governo francês, se declara uma empresa “transparente e confiável” com modelos de código aberto.
Em resposta às acusações, afirmou ter “tolerância zero” com relação à segurança infantil e estar revisando os resultados do relatório em colaboração com a ONG Thorn.
Para Sahil Agarwal, CEO da Enkrypt AI, o alerta é claro: “A IA multimodal promete avanços incríveis, mas também amplia perigos de formas imprevisíveis. A capacidade de ocultar instruções nocivas em imagens aparentemente inofensivas é um risco real para crianças, cidadãos e a segurança nacional”.
