Un rapport de l'ADL révèle des biais anti-juifs et anti-israéliens sur les outils d'IA usuels : Chat GPT et Gemini


26 mars 2025

L'Anti-Defamation League a dévoilé mardi un rapport exhaustif sur les préjugés anti-juifs et anti-israéliens présents dans les outils d'intelligence artificielle courants, tels que ChatGPT et Gemini. 

Après avoir scruté les quatre principaux modèles d’IA, l'ADL a relevé des biais significatifs, de la désinformation, et une attention sélective sur des sujets sensibles. Parmi les exemples les plus frappants, le modèle Llama de Meta a été identifié comme celui présentant les biais anti-juifs et anti-israéliens les plus marqués. Il a fourni des réponses souvent erronées, voire totalement inexactes, concernant des questions liées à Israël et au peuple juif.

Les modèles GPT et Claude, eux, ont montré un biais anti-israélien notable, notamment dans le cadre de discussions sur la guerre entre Israël et le Hamas, où leurs réponses manquaient de cohérence et d’objectivité. En outre, ces outils ont fréquemment refusé de répondre aux questions portant sur Israël, ce qui soulève des interrogations sur leur gestion des problématiques politiques et historiques sensibles.

Le rapport de l’ADL souligne également que ces IA peinent à déconstruire les théories du complot et les stéréotypes antisémites, illustrant ainsi la difficulté à empêcher la propagation de la désinformation par l’intelligence artificielle. L’ADL alerte ainsi sur les risques associés à l’utilisation de ces technologies, appelant à une régulation renforcée pour contrer ces dérives.