Ces derniers jours, une image devenue virale a montré un marché de Noël spectaculaire devant Buckingham Palace. Chalets illuminés, sapins enneigés, ambiance féerique… L’image a séduit des milliers d’internautes et poussé des touristes à se rendre sur place.
Ils n’ont trouvé que des grilles fermées.
Le marché de Noël de Buckingham Palace n’a jamais existé.
Cette histoire a fait le tour des médias, souvent présentée comme un nouvel exemple de dérive de l’intelligence artificielle.
Mais réduire ce phénomène à l’IA serait une erreur.
Car les fausses images touristiques, les lieux inventés et la désinformation visuelle existaient bien avant l’arrivée de l’IA générative.

L’affaire du faux marché de Noël est emblématique d’une tendance plus large.
Les fake photos ne sont pas nouvelles : elles deviennent simplement plus faciles à créer et à partager.
Le vrai enjeu n’est pas technologique, mais culturel : notre capacité à analyser, contextualiser et vérifier ce que nous voyons.
C’est ce qu’on appelle la littératie visuelle numérique :
la compétence qui consiste à comprendre comment une image est produite, diffusée et interprétée.
Sans ces réflexes, n’importe quel contenu – qu’il soit créé avec IA, Photoshop ou une simple caméra – peut devenir trompeur.
L’image virale présentait tous les codes du contenu touristique attractif :
Pour un œil non averti, rien ne semblait suspect.
C’est justement ce qui a poussé des visiteurs à croire à un événement inexistant.
L’IA a rendu la supercherie plus crédible, mais elle n’a pas inventé le principe.
Bien avant Midjourney, les voyageurs se faisaient déjà piéger par des images trompeuses.
Ces contenus n’étaient pas générés par IA, mais ils ont eu le même effet : induirent les voyageurs en erreur par l’usage d’images trop parfaites.
Dans les années 80, la tromperie visuelle passait par les brochures papier et les photomontages artisanaux.
Là encore, ce n’était pas de l’IA.
C’était du marketing trompeur, basé sur des images séduisantes.
Ce phénomène s’explique par plusieurs facteurs puissants :
On croit ce qu’on aimerait voir.
Un marché de Noël royal, un pont arc-en-ciel, un village Hobbit perdu… ça nous fait rêver.
Ce qui est beau circule.
Ce qui circule devient crédible.
Nous savons lire un texte, mais pas toujours lire une image.
C’est un terrain fertile pour les illusions visuelles.
L’intelligence artificielle rend les fausses images :
Mais elle ne crée pas le phénomène.
Elle amplifie un mécanisme déjà bien installé depuis des décennies.
C’est pourquoi il est crucial d’investir non seulement dans l’éducation au numérique, mais aussi dans la culture de l’image, la vérification et l’analyse.
Voici les bons réflexes à adopter :
Ombres, perspectives, matières incohérentes…
Site officiel, événement annoncé, presse locale.
Une photo populaire mais aucune preuve terrain ? Suspicion.
Les destinations touristiques ne ressemblent jamais à des affiches.
C’est même souvent l’inverse.
La fausse photo du marché de Noël de Buckingham Palace n’est pas un accident isolé.
C’est le signe d’un monde où l’image voyage plus vite que la vérité.
L’IA joue un rôle, bien sûr.
Mais elle n’est qu’un outil.
Le défi majeur de ces prochaines années sera d’améliorer notre culture visuelle, notre capacité à analyser ce que l’on voit, à douter intelligemment, à vérifier avant de partager.
C’est ainsi qu’on évitera que des touristes traversent une ville ou un pays entier…
pour rejoindre un marché de Noël qui n’a jamais existé.