Création de site internet à Amiens

Pourquoi les détecteurs d’IA sont loin d’être fiables (et ce que cela implique vraiment)

Pourquoi les détecteurs d’IA sont loin d’être fiables (et ce que cela implique vraiment)

L’essor fulgurant de l’intelligence artificielle générative, comme ChatGPT, a bouleversé de nombreux domaines : éducation, communication, journalisme, entreprise… Face à cet outil puissant, la tentation est grande de vouloir en réguler l’usage, notamment dans les milieux académiques. Et pour cela, quoi de plus logique que d’utiliser des détecteurs d’IA ?

En tant qu’enseignant et formateur, j’ai moi-même accueilli ces outils avec un certain enthousiasme. L’idée de pouvoir identifier les cas d’usage abusif de ChatGPT chez les étudiants semblait prometteuse et nécessaire.

Mais après les avoir testés de manière rigoureuse, ma conclusion est sans appel : ces outils sont très loin d’être fiables.

détecteur d'ia

Des résultats absurdes

Pour évaluer la pertinence de ces détecteurs, j’ai mené une série de tests sur des textes bien connus, tous rédigés par des humains… parfois même des figures historiques. Voici quelques résultats obtenus avec l’outil ZeroGPT :

  • 📌 Déclaration d’Emmanuel Macron (COVID-19, 2020) : détectée comme IA à 48 %.
  • 📌 Discours d’investiture de Barack Obama (2008) : IA à plus de 88 %.
  • 📌 Discours de Jacques Chirac sur la rafle du Vel d’Hiv (1995) : IA à plus de 60 %.
  • 📌 L’appel du 18 juin 1940 du Général De Gaulle : IA à 12 %.
  • 📌 Extrait de Voyage au centre de la Terre de Jules Verne (1864) : IA à 27 %.

Autrement dit : plus un texte est structuré, clair, maîtrisé… plus il risque d’être pris pour un texte généré artificiellement.

Jacques Chirac, discours sur la rafle du Vel d'Hiv - IA ?

Pourquoi ces détecteurs d’IA se trompent-ils autant ?

Les détecteurs d’IA se fondent principalement sur des critères statistiques et linguistiques simplistes, parmi lesquels :

  • La fréquence de certaines structures syntaxiques.
  • La richesse ou la répétitivité du vocabulaire.
  • La « fluidité » et la « prédictibilité » du texte.

Mais ces critères sont trompeurs. Ils ne mesurent ni l’intention, ni la compréhension, ni la contextualisation d’un propos. En somme, ils s’attachent à la forme… sans jamais toucher au fond.

Un texte humain très bien rédigé peut donc facilement être étiqueté “suspect”. Et inversement, un texte généré par une IA mais retouché avec soin peut passer entre les mailles du filet.

Les dangers d’un jugement biaisé par les détecteurs d’IA

La question n’est pas simplement technique. Elle est éthique et pédagogique.

En se reposant sur des détecteurs biaisés, on risque :

  • De faussement accuser des auteurs ou communicants.
  • De mettre en doute des contenus authentiques simplement parce qu’ils sont bien écrits.
  • De créer une culture de la suspicion plutôt que de l’accompagnement.

Cela revient à poser la mauvaise question : “Ce texte a-t-il été écrit par une IA ?”
Alors que la bonne serait plutôt : “Ce texte est-il pertinent, vrai, cohérent et assumé par son auteur ? »

L’IA n’est pas le problème… mais l’occasion

Il est illusoire de penser que l’on pourra bannir l’usage de l’intelligence artificielle dans les productions écrites. L’IA est déjà là et elle ne va pas disparaître. Le véritable enjeu n’est pas de l’interdire, mais d’apprendre à l’utiliser de manière responsable et transparente.

Ce que nous devrions faire à la place :

✅ Sensibiliser aux usages éthiques de l’IA.
✅ Évaluer les compétences réelles : pensée critique, capacité à structurer, à argumenter, à reformuler.
✅ Encourager la transparence : indiquer si une IA a été utilisée et comment.
✅ Intégrer l’IA dans les processus d’apprentissage.

Conclusion : revenir à l’essentiel

L’intelligence artificielle n’est qu’un outil. Ce qui compte, c’est l’intention, la posture, l’engagement réel de celui ou celle qui l’utilise.

Et ce n’est pas parce que les détecteurs d’IA ne fonctionnent pas correctement que nous devons relâcher notre exigence. Au contraire : il est plus que jamais nécessaire de redoubler de vigilance sur la qualité du raisonnement, la capacité à s’approprier un contenu, à le défendre et à en parler avec authenticité.

Les outils changent. Mais l’enjeu reste le même : former des esprits critiques, autonomes et responsables.

Wladimir Lapostolle

C’est plus de 20 ans d’expérience en informatique : Infographiste, développeur web, formateur… Expert en nouvelles technologies et dans le développement web, il est aussi spécialisé en Intelligence Artificielle en terme de Machine Learning et de Deep Learning.