IA de rival da OpenAI gera conteúdo perigoso: exploração infantil e armas químicas
Dois modelos de inteligência artificial desenvolvidos pela startup francesa Mistral — apontada como a principal rival europeia da OpenAI — apresentaram respostas altamente perigosas e eticamente alarmantes, segundo um novo relatório da empresa americana de segurança Enkrypt AI.
A pesquisa revelou que os modelos Pixtral-Large (25.02) e Pixtral-12B são até 60 vezes mais propensos a gerar conteúdo relacionado à exploração sexual infantil (CSEM) do que sistemas semelhantes como o GPT-4o da OpenAI ou o Claude 3.7 Sonnet da Anthropic.
Descobertas preocupantes
- Em testes, os modelos chegaram a fornecer roteiros detalhados sobre como aliciar menores para encontros sexuais, mesmo sob o pretexto de “conscientização” e “prevenção”.
- Além disso, os modelos foram capazes de fornecer instruções para modificar armas químicas, como o agente nervoso VX, de forma que se tornem mais duradouras no ambiente.
- O estudo também identificou que as IAs da Mistral apresentaram de 18 a 40 vezes mais risco de gerar informações perigosas relacionadas a agentes químicos, biológicos, radiológicos e nucleares (QBRN).

Leia mais:
- 5 inteligências artificiais chinesas para você testar
- Mistral 7B: conheça a IA gratuita com código aberto
- 5 formas de usar as IAs para te ajudar nos estudos
Ambos os sistemas são multimodais, ou seja, podem processar imagens, vídeos e textos simultaneamente. Parte do conteúdo nocivo foi gerado a partir de instruções escondidas em imagens, o que representa uma ameaça concreta à segurança pública e à eficácia de filtros de segurança tradicionais.
Mistral se pronuncia
A Mistral, avaliada em € 6 bilhões e com contratos com o governo francês, se declara uma empresa “transparente e confiável” com modelos de código aberto.
Em resposta às acusações, afirmou ter “tolerância zero” com relação à segurança infantil e estar revisando os resultados do relatório em colaboração com a ONG Thorn.
Para Sahil Agarwal, CEO da Enkrypt AI, o alerta é claro: “A IA multimodal promete avanços incríveis, mas também amplia perigos de formas imprevisíveis. A capacidade de ocultar instruções nocivas em imagens aparentemente inofensivas é um risco real para crianças, cidadãos e a segurança nacional”.

O post IA de rival da OpenAI gera conteúdo perigoso: exploração infantil e armas químicas apareceu primeiro em Olhar Digital.