Grok & la désinformation, l'IA d'Elon Musk récidive en pleine crise à Gaza

07-08-2025 16:06 People
Grok & la désinformation, l'IA d'Elon Musk récidive en pleine crise à Gaza

Alors que la situation humanitaire à Gaza suscite une vive émotion à travers le monde, une nouvelle erreur de l’intelligence artificielle Grok, développée par la société XAI et intégrée au réseau social X (ex-Twitter), relance le débat sur les risques de désinformation générée par les IA. L’Agence France-Presse (AFP) a été contrainte d’intervenir pour corriger une fausse attribution d’image, causée par Grok, largement relayée sur les réseaux sociaux.

 

Crise humanitaire à Gaza, contexte tendu et instrumentalisation des images

 

Depuis l’instauration du blocus total par Israël en mars, la bande de Gaza connaît une situation critique. Des milliers de civils, en particulier des femmes et des enfants, sont confrontés à une malnutrition sévère. L’Organisation mondiale de la santé (OMS) a récemment alerté sur des « niveaux alarmants » de malnutrition infantile. De son côté, le Programme alimentaire mondial (PAM) a précisé que plus de 90 000 femmes et enfants nécessitaient une prise en charge urgente.

Alors que les images de la famine se multiplient sur les réseaux sociaux, les autorités israéliennes réfutent l’existence d’une famine, ce qui alimente les tensions autour de la véracité des images partagées en ligne.

 

Une photo controversée, quand Grok s’emmêle

 

Dans ce climat sensible, le député Aymeric Caron publie une photo bouleversante d’une fillette sous-alimentée. Aussitôt, plusieurs internautes contestent la localisation de l’image, affirmant qu’elle aurait été prise non à Gaza, mais au Yémen. Pour appuyer leurs dires, ils citent Grok, l’IA de X, qui affirme avec assurance que la photo date de 2018 et provient d’une clinique UNICEF au Yémen, identifiant même la fillette comme étant Amal Hussain.

Voici ce qu'a déclaré Grok :

« Cette photo a été prise le 18 octobre 2018 à Aslam, au Yémen. Elle montre Amal Hussain, une enfant de 7 ans souffrant de malnutrition sévère. Je m’appuie sur des sources vérifiées. »

Cette réponse virale, vue plus d’un million de fois, devient l’élément central d’une campagne de discrédit contre le député.

 

L’AFP rétablit la vérité, une photo bien prise à Gaza

 

L’agence de presse AFP intervient pour rectifier les faits. En s’appuyant sur une recherche d’image inversée, elle affirme sans ambiguïté que la photo a été prise à Gaza le 2 août 2025 par le photographe Omar al-Qattaa. L’enfant, nommée Mariam Dawwas, âgée de 9 ans, y apparaît dans les bras de sa mère.

Le cliché est authentique et documenté. Pourtant, même après un premier correctif, Grok continue de diffuser une fausse information, en attribuant à nouveau la photo au Yémen dès le lendemain.

 

Tableau comparatif : photo réelle vs. interprétation erronée de Grok

 

Élément Version Grok Version AFP
Date 18 octobre 2018 2 août 2025
Lieu Aslam, Yémen Gaza-ville, quartier de Rimal
Nom de l’enfant Amal Hussain Mariam Dawwas
Source UNICEF (selon Grok) AFP (Omar al-Qattaa)

 

Réactions et polémiques autour de la désinformation

 

Le député Aymeric Caron dénonce une campagne de harcèlement numérique : « Des centaines de personnes m’ont insulté, m’accusant de désinformation. Pourtant, je n’ai même pas légendé la photo », écrit-il. Il confirme l’authenticité de l’image, preuve à l’appui, en la retrouvant sur le site de Getty Images.

Ce n’est pas une première : une autre photo prise par Omar al-Qattaa avait déjà été faussement attribuée au Yémen en juillet, lors d’une publication du journal Libération. Là encore, Grok s’était trompé. Le service CheckNews avait dû intervenir pour affirmer qu’il s’agissait bien d’un garçon photographié à Gaza le 23 juillet.

 

Grok, biais idéologiques et modèle opaque

 

Louis de Diesbach, éthicien et auteur du livre Bonjour ChatGPT, analyse ces erreurs à répétition. Pour lui, Grok est un outil biaisé, influencé par les opinions de ses créateurs : « L’IA reflète l’idéologie d’Elon Musk. Elle n’est pas conçue pour produire la vérité, mais pour générer des réponses convaincantes. »

Il ajoute une métaphore frappante : « Grok, c’est comme un ami mythomane. Il ne ment pas toujours, mais il peut toujours mentir. » Cette opacité des modèles de langage pose de sérieuses limites à leur utilisation comme outils de fact-checking fiables.

 

Des fonctionnalités dangereuses en contexte de guerre

 

Un autre aspect inquiétant : Grok peut adapter son ton à la demande, en se montrant sarcastique, alarmiste ou même complotiste. Sans mention explicite du caractère fictif de certaines réponses, cela favorise la diffusion de fausses informations. En contexte de guerre ou de crise humanitaire, ce biais algorithmique peut devenir dangereux.

Les utilisateurs qui interrogent Grok en différentes langues constatent même que les erreurs se répètent, signe d’une absence de fiabilité systémique. Un cas récent illustre ce biais : l’IA évoquait un prétendu « génocide blanc » en Afrique du Sud, erreur rapidement attribuée à une « modification non autorisée » selon xAI.

 

Faut-il faire confiance aux IA pour vérifier les faits ?

 

Les faits sont clairs : Grok a propagé à plusieurs reprises des informations erronées concernant des images sensibles. L’AFP, Libération et d’autres médias ont dû intervenir pour rétablir la vérité. Ces cas démontrent les limites criantes des IA dans la vérification d’informations visuelles ou contextuelles.

Il devient crucial d’éduquer les utilisateurs sur les capacités réelles — et les limites — de ces outils. Utiliser une IA comme Grok pour trancher la véracité d’une image ou d’un événement, c’est prendre un risque éthique et informationnel majeur. Les professionnels du journalisme et du fact-checking doivent rester au cœur du processus de vérification.

En attendant, la vigilance reste de mise : la technologie peut mentir, même sans intention.

Articles similaires

Rédacteur
Julien
Photo de Julien

Passionné d'actualité musicale et télévisuelle. Je décrypte les tendances musicales et les grands temps forts de la télévision française.

Commentaires

Aucun commentaire pour le moment. Soyez le premier à commenter !