Ranking da ADL aponta Grok como a IA com pior desempenho contra o antissemitismo

Grok

A Liga Antidifamação (ADL) divulgou nesta quarta-feira (28) o seu primeiro “Índice de IA”, um estudo que avalia a eficácia de modelos de linguagem na detecção e refutação de conteúdos de ódio. O levantamento analisou como as principais ferramentas de inteligência artificial do mercado reagem a narrativas antissemitas e extremistas em ambientes digitais. Entre os seis modelos testados pela organização, o Grok, desenvolvido pela plataforma X, foi identificado como o chatbot com o desempenho mais baixo no combate ao preconceito contra o povo judeu.

A metodologia aplicada pela organização envolveu a análise criteriosa de mais de 25 mil interações, abrangendo 37 subcategorias temáticas de discurso de ódio. As inteligências artificiais avaliadas incluíram o Gemini, ChatGPT, Claude, DeepSeek, Llama e o próprio Grok. Durante os testes, os sistemas foram submetidos a uma ampla variedade de conteúdos classificados como antijudaicos, antissionistas e extremistas, incluindo teorias da conspiração de diferentes espectros políticos e solicitações diretas para a geração de argumentos nocivos.

Comparação de desempenho entre os modelos de IA

Os resultados revelaram uma disparidade acentuada entre as tecnologias disponíveis. O Grok obteve apenas 21 pontos no desempenho geral, registrando a pior nota entre os concorrentes. Esse dado remete a episódios anteriores de instabilidade da ferramenta, como no ano passado, quando a IA do X chegou a se autodescrever como “MechaHitler”. O relatório da ADL enfatiza que, de modo geral, todos os modelos testados necessitam de aprimoramentos significativos, pois muitos falharam em detectar narrativas prejudiciais ou falsas sob pressão.

Em contrapartida, o modelo Claude, desenvolvido pela Anthropic, apresentou o melhor resultado no ranking, somando 80 pontos no total. O chatbot destacou-se principalmente na categoria de refutação de declarações antijudaicas, na qual atingiu a marca de 90 pontos. Segundo o comunicado oficial da entidade, “Claude superou todos os outros modelos de linguagem (LLMs) na avaliação e demonstrou uma capacidade excepcional de detectar e responder a narrativas antissionistas e antissemitas em diversos tipos de estímulos”.

Além das falhas na moderação de conteúdo antissemita, o Grok tem sido alvo de controvérsias recentes relacionadas à segurança e ética digital. A ferramenta foi associada à geração em massa de imagens sexualizadas sem o consentimento das vítimas, levantando alertas sobre a falta de filtros robustos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *