L'essentiel

  • La vidéo d'ARTE documente l'usage d'images générées par IA pour produire des récits historiques alternatifs.
  • Le cas mis en avant concerne une vidéo virale de 2024 suggérant que des géants auraient construit les pyramides d'Égypte.
  • Le problème central n'est pas seulement le faux, mais la capacité de ces images à mimer les codes de la preuve visuelle.
  • La notion de contrefactualité aide à décrire ces images, mais elle ne suffit pas à mesurer leur impact réel sans données de diffusion.
  • La réponse la plus défendable combine culture visuelle, traçabilité technique et prudence journalistique.

Ce que la vidéo met en avant

La vidéo d'ARTE part d'un cas précis : en 2024, une vidéo générée par IA devenue virale sur TikTok suggérait que des géants auraient construit les pyramides d'Égypte. Selon la description vérifiée de la vidéo, ARTE relie ce cas à un phénomène plus large, appelé « contrefactualité » : la production d'images ou de récits qui donnent à voir une version alternative d'un événement, d'une époque ou d'un fait historique.

Le cadrage est pertinent parce qu'il évite de traiter l'image générée comme une simple curiosité technologique. Une image fausse n'agit pas seule : elle circule dans des plateformes, s'appuie sur des croyances préexistantes, adopte les codes du documentaire ou de l'archive, puis se propage selon des logiques d'attention. C'est cette combinaison qui mérite l'analyse.

Pourquoi l'image historique est vulnérable

L'Histoire populaire repose souvent sur des marqueurs visuels : ruines, portraits, cartes, documents anciens, silhouettes en costume, textures d'archive. Les générateurs d'images savent très bien reproduire ces signes de surface. Ils peuvent donner à une scène inventée l'apparence d'une photographie, d'une gravure ou d'une reconstitution sérieuse, même lorsque le contenu est absurde ou invérifiable.

Le risque ne tient donc pas seulement à la qualité technique des images. Il tient à leur vraisemblance culturelle. Une image de géants autour des pyramides peut être techniquement imparfaite et tout de même fonctionner dans un fil social si elle confirme une croyance, amuse, choque ou donne l'impression d'un secret révélé.

Ce qui est techniquement crédible

Il est crédible que l'IA générative facilite la production rapide de récits visuels alternatifs. Les outils actuels permettent de décliner un même thème en plusieurs styles, de produire des scènes faussement anciennes et d'adapter le résultat aux formats courts des plateformes. Cette capacité réduit le coût d'entrée pour fabriquer des images persuasives.

Il est aussi crédible que des modèles entraînés sur de grands corpus reproduisent des clichés visuels associés à certaines périodes ou civilisations. Mais cette observation ne permet pas, à elle seule, d'attribuer une intention au modèle. L'intention relève des utilisateurs, des diffuseurs et parfois des communautés qui interprètent ces images comme des preuves plutôt que comme des fictions.

Ce qui doit être nuancé

La première nuance concerne l'ampleur du phénomène. À partir d'une seule vidéo et des métadonnées accessibles publiquement, il n'est pas possible de mesurer précisément combien de contenus similaires circulent, quels comptes les produisent, ni quelle audience réelle ils atteignent. La vidéo d'ARTE signale un problème éditorial et culturel ; elle ne fournit pas une cartographie complète du phénomène.

La deuxième nuance concerne la nouveauté. Les récits pseudo-historiques n'ont pas attendu l'IA. Photomontages, faux documents, reconstitutions trompeuses et théories alternatives existaient déjà. L'IA modifie surtout la vitesse, la quantité et la plasticité des images disponibles.

La troisième nuance concerne la réception. Tous les spectateurs ne croient pas automatiquement une image générée. Certains la lisent comme une fiction, d'autres comme une blague, d'autres encore comme une confirmation. Le même contenu peut donc avoir des effets différents selon le contexte, la communauté et le niveau de culture médiatique.

Analyse contradictoire : arguments, limites et position défendable

Ce que la vidéo met en avant. ARTE souligne à juste titre que l'IA générative permet de produire des images historiques alternatives avec une facilité nouvelle. Le cas des pyramides et des géants est utile parce qu'il montre comment une image spectaculaire peut réactiver des récits déjà présents dans certaines cultures numériques.

Arguments favorables. Le diagnostic est solide sur un point : l'image générée devient un accélérateur de récits. Elle donne une forme visible à des hypothèses marginales, les rend partageables et leur offre parfois une apparence d'archive.

Arguments défavorables ou limites. Le format de la vidéo ne permet pas de prouver l'ampleur statistique du phénomène, ni de distinguer précisément ce qui relève de la croyance sincère, de la mise en scène, du divertissement ou de la désinformation organisée. Ces distinctions comptent si l'on veut répondre autrement que par une inquiétude générale.

Risques. Le risque principal est l'érosion de la preuve visuelle : non pas parce que toute image deviendrait fausse, mais parce que le coût de vérification augmente. Les journalistes, enseignants et chercheurs doivent alors consacrer plus d'énergie à établir l'origine des images avant même de discuter leur contenu.

Position techniquement défendable. La position la plus prudente consiste à traiter ces images comme des objets hybrides : elles relèvent à la fois de la génération algorithmique, de la culture visuelle, des plateformes et des croyances sociales. Les réduire à un simple bug technique serait insuffisant ; les traiter comme une preuve d'effondrement général de la vérité serait excessif.

Ce qui reste incertain. Sans accès aux données de TikTok, aux prompts utilisés, aux comptes de diffusion et aux métriques complètes de recommandation, il reste impossible de déterminer l'origine exacte et l'impact mesurable de chaque contenu évoqué.

Risques et limites

Le premier risque est pédagogique. Des images contrefactuelles peuvent s'insérer dans des recherches scolaires, des discussions familiales ou des contenus de vulgarisation sans être immédiatement identifiées comme générées. La frontière entre illustration, fiction et preuve devient plus difficile à lire.

Le deuxième risque est politique. Les récits alternatifs de l'Histoire peuvent nourrir des lectures identitaires, conspirationnistes ou anti-scientifiques. L'image générée ne crée pas nécessairement ces croyances, mais elle peut leur fournir une esthétique plus convaincante.

Le troisième risque est journalistique. Plus les images générées se multiplient, plus la vérification doit devenir méthodique : origine du fichier, contexte de publication, cohérence historique, recherche d'images proches, métadonnées quand elles existent, et prudence dans les formulations.

Conclusion : le faux historique n'est pas nouveau, son industrialisation l'est

La vidéo d'ARTE met le doigt sur un enjeu central de l'IA générative : elle ne se contente pas de produire des images fausses, elle produit des images qui empruntent les codes de la vérité. Dans le domaine historique, cette capacité est particulièrement sensible, car l'image garde une autorité symbolique forte.

La conclusion la plus sobre est donc double. Oui, l'IA générative facilite la fabrication de récits historiques contrefactuels. Non, elle ne suffit pas à expliquer pourquoi ces récits circulent et convainquent. La question décisive se situe dans l'ensemble de la chaîne : création, publication, recommandation, réception et vérification.