À mesure que les intelligences artificielles génératives s’imposent comme des instruments d’écriture incontournables, une résistance s’organise : celle des détecteurs d’IA.
Dotés de modèles statistiques, ces outils prétendent distinguer ce qui vient d’un cerveau humain de ce qui émane d’un algorithme. Mais à y regarder de plus près, ce combat commence à ressembler à une croisade contre des moulins. Et comme toute croisade, elle repose souvent sur des illusions, voire des impostures.
Une technologie bâtie sur des probabilités… pas sur la vérité
Ces détecteurs s’appuient aujourd’hui sur deux grands outils pour analyser un texte. Le premier (la perplexité) mesure à quel point les mots choisis sont prévisibles. Plus un texte suit les habitudes d’une langue, plus il semble « attendu », donc plus cette mesure est faible. Les intelligences artificielles, qui cherchent à produire des textes fluides et naturels, ont tendance à écrire dans ce style prévisible.
Le second outil (l’éclatement) évalue les variations dans la façon d’écrire : changements de rythme, de longueur de phrases ou de vocabulaire. Les humains, eux, écrivent souvent de manière moins régulière, avec des écarts de style, des détours ou des imperfections. Ces irrégularités, appelées éclatement, sont plus rares dans les productions d’IA — du moins jusqu’à présent.
Ces deux indicateurs permettent aux détecteurs d’établir une probabilité que le texte a été généré par une machine. Mais il s’agit bien de probabilités, pas de preuves. Or, dans les usages concrets, ces chiffres sont trop souvent brandis comme des verdicts absolus.
Mais voilà : ces deux tendances, issues de la linguistique computationnelle (langage automatisé), sont aujourd’hui au cœur du fonctionnement des détecteurs de textes générés par l’IA. Or, les modèles évoluent vite, très vite. À mesure qu’ils apprennent à imiter les nuances, les hésitations, et même les failles humaines, leurs textes deviennent de plus en plus difficiles à distinguer de ceux d’un véritable auteur. Les repères s’effacent, les écarts se resserrent.
Alors que faire si les outils eux-mêmes ne parviennent plus à faire la différence ? Devons-nous entrer dans une guerre de tous contre tous, à douter de chaque ligne écrite, de chaque mot publié ? Ou bien faudra-t-il repenser entièrement notre manière de faire confiance à un texte, à une signature, à une voix dans la foule numérique ?
L’expérience qui dérange : des journalistes classés par les « machines »
C’est ce flou méthodologique qui a été mis en lumière lors d’une série de tests réalisés par mon cabinet sur des articles de presse provenant de rédacteurs reconnus en Tunisie et en France. Après analyse via les plus célèbres détecteurs au monde, les résultats ont été édifiants: entre 75 % et 90 % des textes ont été jugés comme « générés par l’IA » !?
Des éditoriaux signés, publiés, rédigés par des journalistes professionnels, parfois même primés. Comment expliquer cela ? Par le fait que ces journalistes maîtrisent leur style, optimisent leur langage, produisent des textes jugés trop bons pour les détecteurs… qui, paradoxalement, les assimilent alors à des productions artificielles. Autrement dit, plus on écrit bien, plus on est suspect !
Les « humaniseurs » : une imposture & un blanchiment algorithmique
Face à ces résultats gênants, plusieurs détecteurs ont intégré un module supplémentaire: « l’humaniseur de texte », conçu avant tout à des fins commerciales. Officiellement, il s’agit de rendre un texte généré par une IA « plus humain ». En réalité, cette fonctionnalité opère comme une machine de blanchiment algorithmique : elle prend un contenu produit de bout en bout par une intelligence artificielle, tant sur le fond (idée) que sur la forme (style) et le maquille pour qu’il échappe aux pseudo-radars de détection…
Ce blanchiment ne repose pas sur une amélioration du texte, ni sur une quelconque réécriture intelligente. Il consiste à introduire volontairement des maladresses, des erreurs syntaxiques, des ruptures de style. Autrement dit, à abaisser artificiellement la qualité du texte pour le faire ressembler à ce que certains algorithmes considèrent comme une écriture « authentiquement humaine ». C’est un maquillage statistique, une caricature linguistique, qui transforment un texte artificiel en texte « acceptable», non pas parce qu’il est meilleur, mais parce qu’il est devenu moins détectable…
Une autre voie : l’intelligence de l’aiguilleur
Dans ce grand brouillard algorithmique, une idée originale émerge : celle de l’Aiguilleur d’IA, un concept théorisé par moi-même dans mon ouvrage « Aiguilleur d’IA », notifié et transmis à l’Organisation mondiale de la propriété intellectuelle (OMPI).
Loin de diaboliser l’intelligence artificielle, on propose, dans cet ouvrage, d’en faire un outil dirigé, aiguillé, par des compétences humaines conscientes. En effet, l’aiguilleur d’IA n’est ni un rédacteur passif ni un simple utilisateur. C’est un stratège du texte assisté par IA, capable d’orchestrer la collaboration entre l’humain et la machine, en s’appuyant sur une connaissance des limites, des biais, mais aussi des forces des modèles génératifs.
Face aux faux positifs des détecteurs, face aux « humaniseurs » qui déshumanisent, c’est cette compétence hybride qui offre une sortie par le haut.
La vraie bataille n’est peut-être pas celle qu’on croit
Pendant qu’on traque des phrases trop fluides, trop polies ou trop bien construites, le monde de la communication continue d’évoluer. L’IA ne va pas disparaître, elle ne fera que s’affiner. Demain, ce ne sont pas les textes générés par IA qu’il faudra redouter, mais ceux qui le seront sans conscience humaine pour les guider.
À l’image de Don Quichotte, voulons-nous continuer à lever nos lances contre des moulins ? Ou accepter que le texte de demain – aussi authentique soit-il – sera un terrain partagé entre intelligence humaine… et intelligence artificielle bien aiguillée ?
——————————
Mahjoub Lotfi Belhedi
Chercheur en réflexion stratégique optimisée IA // Data Scientist & Aiguilleur d’IA
L’article Détecteur d’IA : la chasse aux fantômes textuels est apparu en premier sur Leconomiste Maghrebin.