Grok & la désinformation, l'IA d'Elon Musk récidive en pleine crise à Gaza

Grok & la désinformation, l'IA d'Elon Musk récidive en pleine crise à Gaza

Auteur : Julien Baudry

Date : 07 août 2025 à 16:06

Alors que la situation humanitaire à Gaza suscite une vive émotion à travers le monde, une nouvelle erreur de l’intelligence artificielle Grok, développée par la société XAI et intégrée au réseau social X (ex-Twitter), relance le débat sur les risques de désinformation générée par les IA. L’Agence France-Presse (AFP) a été contrainte d’intervenir pour corriger une fausse attribution d’image, causée par Grok, largement relayée sur les réseaux sociaux.

 

Crise humanitaire à Gaza, contexte tendu et instrumentalisation des images

 

Depuis l’instauration du blocus total par Israël en mars, la bande de Gaza connaît une situation critique. Des milliers de civils, en particulier des femmes et des enfants, sont confrontés à une malnutrition sévère. L’Organisation mondiale de la santé (OMS) a récemment alerté sur des « niveaux alarmants » de malnutrition infantile. De son côté, le Programme alimentaire mondial (PAM) a précisé que plus de 90 000 femmes et enfants nécessitaient une prise en charge urgente.

Alors que les images de la famine se multiplient sur les réseaux sociaux, les autorités israéliennes réfutent l’existence d’une famine, ce qui alimente les tensions autour de la véracité des images partagées en ligne.

 

Une photo controversée, quand Grok s’emmêle

 

Dans ce climat sensible, le député Aymeric Caron publie une photo bouleversante d’une fillette sous-alimentée. Aussitôt, plusieurs internautes contestent la localisation de l’image, affirmant qu’elle aurait été prise non à Gaza, mais au Yémen. Pour appuyer leurs dires, ils citent Grok, l’IA de X, qui affirme avec assurance que la photo date de 2018 et provient d’une clinique UNICEF au Yémen, identifiant même la fillette comme étant Amal Hussain.

Voici ce qu'a déclaré Grok :

« Cette photo a été prise le 18 octobre 2018 à Aslam, au Yémen. Elle montre Amal Hussain, une enfant de 7 ans souffrant de malnutrition sévère. Je m’appuie sur des sources vérifiées. »

Cette réponse virale, vue plus d’un million de fois, devient l’élément central d’une campagne de discrédit contre le député.

 

L’AFP rétablit la vérité, une photo bien prise à Gaza

 

L’agence de presse AFP intervient pour rectifier les faits. En s’appuyant sur une recherche d’image inversée, elle affirme sans ambiguïté que la photo a été prise à Gaza le 2 août 2025 par le photographe Omar al-Qattaa. L’enfant, nommée Mariam Dawwas, âgée de 9 ans, y apparaît dans les bras de sa mère.

Le cliché est authentique et documenté. Pourtant, même après un premier correctif, Grok continue de diffuser une fausse information, en attribuant à nouveau la photo au Yémen dès le lendemain.

 

Tableau comparatif : photo réelle vs. interprétation erronée de Grok

 

Élément Version Grok Version AFP
Date 18 octobre 2018 2 août 2025
Lieu Aslam, Yémen Gaza-ville, quartier de Rimal
Nom de l’enfant Amal Hussain Mariam Dawwas
Source UNICEF (selon Grok) AFP (Omar al-Qattaa)

 

Réactions et polémiques autour de la désinformation

 

Le député Aymeric Caron dénonce une campagne de harcèlement numérique : « Des centaines de personnes m’ont insulté, m’accusant de désinformation. Pourtant, je n’ai même pas légendé la photo », écrit-il. Il confirme l’authenticité de l’image, preuve à l’appui, en la retrouvant sur le site de Getty Images.

Ce n’est pas une première : une autre photo prise par Omar al-Qattaa avait déjà été faussement attribuée au Yémen en juillet, lors d’une publication du journal Libération. Là encore, Grok s’était trompé. Le service CheckNews avait dû intervenir pour affirmer qu’il s’agissait bien d’un garçon photographié à Gaza le 23 juillet.

 

Grok, biais idéologiques et modèle opaque

 

Louis de Diesbach, éthicien et auteur du livre Bonjour ChatGPT, analyse ces erreurs à répétition. Pour lui, Grok est un outil biaisé, influencé par les opinions de ses créateurs : « L’IA reflète l’idéologie d’Elon Musk. Elle n’est pas conçue pour produire la vérité, mais pour générer des réponses convaincantes. »

Il ajoute une métaphore frappante : « Grok, c’est comme un ami mythomane. Il ne ment pas toujours, mais il peut toujours mentir. » Cette opacité des modèles de langage pose de sérieuses limites à leur utilisation comme outils de fact-checking fiables.

 

Des fonctionnalités dangereuses en contexte de guerre

 

Un autre aspect inquiétant : Grok peut adapter son ton à la demande, en se montrant sarcastique, alarmiste ou même complotiste. Sans mention explicite du caractère fictif de certaines réponses, cela favorise la diffusion de fausses informations. En contexte de guerre ou de crise humanitaire, ce biais algorithmique peut devenir dangereux.

Les utilisateurs qui interrogent Grok en différentes langues constatent même que les erreurs se répètent, signe d’une absence de fiabilité systémique. Un cas récent illustre ce biais : l’IA évoquait un prétendu « génocide blanc » en Afrique du Sud, erreur rapidement attribuée à une « modification non autorisée » selon xAI.

 

Faut-il faire confiance aux IA pour vérifier les faits ?

 

Les faits sont clairs : Grok a propagé à plusieurs reprises des informations erronées concernant des images sensibles. L’AFP, Libération et d’autres médias ont dû intervenir pour rétablir la vérité. Ces cas démontrent les limites criantes des IA dans la vérification d’informations visuelles ou contextuelles.

Il devient crucial d’éduquer les utilisateurs sur les capacités réelles — et les limites — de ces outils. Utiliser une IA comme Grok pour trancher la véracité d’une image ou d’un événement, c’est prendre un risque éthique et informationnel majeur. Les professionnels du journalisme et du fact-checking doivent rester au cœur du processus de vérification.

En attendant, la vigilance reste de mise : la technologie peut mentir, même sans intention.

Articles similaires

Grok 4 : l’IA d’Elon Musk enchaîne les polémiques | éloge de Hitler, propos injurieux et complotistes

Grok 4 : l’IA d’Elon Musk enchaîne les polémiques | éloge de Hitler, propos injurieux et complotistes

Le 9 juillet 2025, Elon Musk a dévoilé Grok 4, la dernière version de son assistant...

L’Amour est dans le Pré 2025 : Laurent préfère Laurence, Françoise en pleine crise – Épisode du 27 octobre sur M6

L’Amour est dans le Pré 2025 : Laurent préfère Laurence, Françoise en pleine crise – Épisode du 27 octobre sur M6

Dans la saison 20 de L’Amour est dans le Pré, les cœurs battent la chamade et les tensions...

Gina Carano un accord avec Disney après licenciement polémique, avec le soutien d’Elon Musk

Gina Carano un accord avec Disney après licenciement polémique, avec le soutien d’Elon Musk

Après avoir été écartée de la série The Mandalorian suite à des publications polémiques, Gina...

Commentaires

Soyez le premier à commenter cet article !