Normale Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Gestern — 02. September 2025Haupt-Feeds

Friedman 1.0 vs Friedman 4.0

02. September 2025 um 05:12

Il était une fois un économiste ressuscité dans un monde qu’il n’avait jamais prévu, un monde où l’oracle du marché libre se réveille, non dans une salle de conférence feutrée à l’Université de Chicago, mais en plein hackathon Web3, sponsorisé par Binance.

Milton Friedman, le prophète du monétarisme, revient d’entre les morts, les yeux encore embués d’idéalisme néolibéral, pour découvrir qu’il est devenu une icône… d’un système qui ne parle plus économie, mais tokenisation de l’attention.

Il tente, dans un dernier sursaut d’humanité académique, de murmurer une phrase qui fut jadis sacro-sainte : « Le seul rôle légitime du gouvernement est de faire respecter les règles du jeu… »

Mais déjà, une version boostée de lui-même, Friedman 4.0, avatar NFT, lunettes AR intégrées lui tape sur l’épaule et, avec ce sourire digitalement parfait, lui glisse : « Les règles ? Elles sont dans la blockchain maintenant. Et le gouvernement ? C’est un bug, Milton. On bosse dessus avec une DAO. »

 

  • Un débat entre les deux Friedman : « État vs Protocole »

Les deux Milton se toisent, comme deux versions d’un même rêve en pleine désynchronisation. Le décor se métamorphose en une table ronde virtuelle, sponsorisée par une start-up de café décentralisée dont personne ne sait si elle vend vraiment du café ou juste des whitepapers.

Milton 1.0, costumé en bon professeur des années 80, campé dans ses certitudes : « Le marché est l’expression la plus pure de la liberté individuelle. Il faut libérer l’homme de l’État pour qu’il puisse exercer ses choix en paix. »

Milton 4.0, avatar premium avec animation en temps réel : « Milton, c’est mignon, mais aujourd’hui, les gens ne choisissent plus. On leur suggère. On les prédit. On les capte. Le marché n’est plus une arène : c’est une interface. C’est fluide, gamifié. L’API de la volonté, si tu veux. »

L’ancien fronce les sourcils, visiblement troublé : « Et… la rationalité ? La transparence ? Le consentement éclairé ? »

Le nouveau ricane, un brin cruel : « Tu veux dire… les cases à cocher qu’on met pile là où les gens cliquent sans lire ? Ce « consentement », c’est juste du design, Milton. Un dark pattern déguisé en libre arbitre. »

Le vieil économiste blêmit : « Tu es en train de me dire que la liberté individuelle a été transformée en… piège à clics ? »

Le Friedman augmenté désigne alors un écran rempli de graphes dynamiques : « Regarde ça : 97 % de taux de rétention. 84 % de taux de clics. Le marché fonctionne à merveille. »

Et l’autre, les lèvres tremblantes, ne peut que balbutier : « Fonctionne, oui… mais pour qui ? La concurrence ? Les monopoles ? Les inégalités ? »

Et la réponse tombe, tranchante comme un code minifié : « La concurrence est algorithmique, Milton. Invisible. Comme ta main. Mais la mienne s’appelle AWS. »

 

  • Deux Friedman pour un seul capitalisme ?

Milton l’ancien rêvait d’un monde peuplé de consommateurs rationnels, comparant, choisissant, optimisant leur panier dans un grand supermarché moral. Une humanité qui vote avec sa carte bleue, éduquée par le prix, disciplinée par l’offre et la demande.

Mais son clone numérique n’a que faire de ces naïvetés. Il sait pertinemment que l’humain n’est pas rationnel, juste scroll-addict et dopé à la dopamine transactionnelle. Il ne le laisse pas choisir : il l’anticipe, le pilote, l’enferme dans des modèles prédictifs si précis qu’ils en deviennent prophétiques. Le libre arbitre ? Juste un résidu statistique dans un dashboard de machine learning.

Là où l’un croyait en la souveraineté du consommateur, l’autre parle d’optimisation du « temps de cerveau disponible », et il a les heatmaps pour le prouver.

 

  • La liberté ? Oui, mais version bêta

Autrefois, la liberté signifiait choisir sa retraite, sa banque, son école quitte à se tromper.

Aujourd’hui, la liberté, c’est de connecter son wallet Metamask à une plateforme de micro-tâches rémunérées 0,0004 centimes, en cryptomonnaie instable, pour valider des captchas qui entraînent une IA de surveillance. Loin de protester, l’utilisateur clique, se connecte, se conforme. La liberté a changé de camp : elle s’est faite UX.

Milton 1.0 aurait vu dans le capitalisme de surveillance une perversion insupportable de son rêve libéral.

Friedman 4.0, lui, l’automatise, le monétise, le benchmarke, et l’A/B teste sur des panels comportementaux.

 

  • Ils ne parlent plus la même langue

Le vieux cite Adam Smith, parle de responsabilité fiscale, évoque la Constitution avec la gravité d’un homme pour qui les textes fondateurs comptent encore.

Le jeune, lui, balance des threads X sur l’ubérisation des émotions, partage des mèmes de Hayek en pixel art, et publie des e-books sur la souveraineté numérique… écrits par une IA brésilienne, puis traduits automatiquement avec Google Translate pour le SEO.

Quand l’un s’inquiète du déficit public, l’autre distribue des tokens de gouvernance pour voter sur la roadmap d’une Constitution version open-source.

Quand l’un parle de taux d’intérêt, l’autre parle de staking.

Quand l’un rêve de réduire l’État, l’autre rêve de le convertir en smart contract.

 

  • Constat de rupture épistémologique

Il n’y a pas eu transition, évolution, adaptation. Il y a eu bascule brutale, glissement d’époque, mutation de l’espèce économiste.

Friedman 1.0 voulait libérer les marchés du poids de l’État. Friedman 4.0 a bien libéré les marchés, mais en y enfermant les individus dans des silos d’optimisation algorithmique.

Le premier parlait de choix éclairé, le second de funnels de conversion.

Le premier pensait la liberté comme absence de contrainte, le second la pense comme absence de friction ce qui revient, ironiquement, à la rendre insaisissable.

L’école ? Elle n’a pas été privatisée, elle a été mise dans une app avec abonnements mensuels, upsells pédagogiques, et NFT de diplôme.

Le marché ? Ce n’est plus une agora d’échanges libres, mais une marketplace dopée aux prédictions, aux émotions trackées, livrée en drone avec supplément réalité augmentée.

Et la liberté ? Elle est là, toujours affichée, bien en évidence, mais comme un sticker promotionnel sur l’interface : belle à regarder, inutile à toucher.

Friedman 1.0 se rêvait en architecte d’un capitalisme émancipateur.

Friedman 4.0 a fait mieux : il a mis le capitalisme dans le cloud, activé un plugin de dérégulation, codé une API d’austérité, et appliqué un filtre AR de « liberté » pour que tout cela passe crème sur les réels Instagram.

 

  • Friedman 1.0, dans un dernier souffle, regarde autour de lui

Il voit un monde où les individus ne votent plus qu’avec des likes, où la pensée est un flux, et où l’économie se vit comme une interface : esthétique, rapide, fermée.

Il sent que la démocratie n’est plus qu’un bouton « je participe », que l’opinion s’affiche avec des étoiles, et que l’existence elle-même est devenue un score.

Alors, les yeux levés vers ce ciel bleu synthétique d’un métavers fiscalement optimisé, il murmure presque à lui-même, presque à nous tous : « Ce n’était pas… ce que j’avais prévu ».

 

——————————————–

Mahjoub Lotfi Belhedi

Chercheur en réflexion stratégique optimisée IA // Data Scientist & Aguilleur d’IA

L’article Friedman 1.0 vs Friedman 4.0 est apparu en premier sur Leconomiste Maghrebin.

Ältere BeiträgeHaupt-Feeds

Détecteur d’IA : la chasse aux fantômes textuels

30. August 2025 um 05:30

À mesure que les intelligences artificielles génératives s’imposent comme des instruments d’écriture incontournables, une résistance s’organise : celle des détecteurs d’IA.

 

Dotés de modèles statistiques, ces outils prétendent distinguer ce qui vient d’un cerveau humain de ce qui émane d’un algorithme. Mais à y regarder de plus près, ce combat commence à ressembler à une croisade contre des moulins. Et comme toute croisade, elle repose souvent sur des illusions, voire des impostures.

 

Une technologie bâtie sur des probabilités… pas sur la vérité

Ces détecteurs s’appuient aujourd’hui sur deux grands outils pour analyser un texte. Le premier (la perplexité) mesure à quel point les mots choisis sont prévisibles. Plus un texte suit les habitudes d’une langue, plus il semble « attendu », donc plus cette mesure est faible. Les intelligences artificielles, qui cherchent à produire des textes fluides et naturels, ont tendance à écrire dans ce style prévisible.

Le second outil (l’éclatement) évalue les variations dans la façon d’écrire : changements de rythme, de longueur de phrases ou de vocabulaire. Les humains, eux, écrivent souvent de manière moins régulière, avec des écarts de style, des détours ou des imperfections. Ces irrégularités, appelées éclatement, sont plus rares dans les productions d’IA — du moins jusqu’à présent.

Ces deux indicateurs permettent aux détecteurs d’établir une probabilité que le texte a été généré par une machine. Mais il s’agit bien de probabilités, pas de preuves. Or, dans les usages concrets, ces chiffres sont trop souvent brandis comme des verdicts absolus.

Mais voilà : ces deux tendances, issues de la linguistique computationnelle (langage automatisé), sont aujourd’hui au cœur du fonctionnement des détecteurs de textes générés par l’IA. Or, les modèles évoluent vite, très vite. À mesure qu’ils apprennent à imiter les nuances, les hésitations, et même les failles humaines, leurs textes deviennent de plus en plus difficiles à distinguer de ceux d’un véritable auteur. Les repères s’effacent, les écarts se resserrent.

Alors que faire si les outils eux-mêmes ne parviennent plus à faire la différence ? Devons-nous entrer dans une guerre de tous contre tous, à douter de chaque ligne écrite, de chaque mot publié ? Ou bien faudra-t-il repenser entièrement notre manière de faire confiance à un texte, à une signature, à une voix dans la foule numérique ?

 

L’expérience qui dérange : des journalistes classés par les « machines »

C’est ce flou méthodologique qui a été mis en lumière lors d’une série de tests réalisés par mon cabinet sur des articles de presse provenant de rédacteurs reconnus en Tunisie et en France. Après analyse via les plus célèbres détecteurs au monde, les résultats ont été édifiants: entre 75 % et 90 % des textes ont été jugés comme « générés par l’IA » !?

Des éditoriaux signés, publiés, rédigés par des journalistes professionnels, parfois même primés. Comment expliquer cela ? Par le fait que ces journalistes maîtrisent leur style, optimisent leur langage, produisent des textes jugés trop bons pour les détecteurs… qui, paradoxalement, les assimilent alors à des productions artificielles. Autrement dit, plus on écrit bien, plus on est suspect !

 

Les « humaniseurs » : une imposture & un blanchiment algorithmique

Face à ces résultats gênants, plusieurs détecteurs ont intégré un module supplémentaire: « l’humaniseur de texte », conçu avant tout à des fins commerciales. Officiellement, il s’agit de rendre un texte généré par une IA « plus humain ». En réalité, cette fonctionnalité opère comme une machine de blanchiment algorithmique : elle prend un contenu produit de bout en bout par une intelligence artificielle, tant sur le fond (idée) que sur la forme (style) et le maquille pour qu’il échappe aux pseudo-radars de détection…

Ce blanchiment ne repose pas sur une amélioration du texte, ni sur une quelconque réécriture intelligente. Il consiste à introduire volontairement des maladresses, des erreurs syntaxiques, des ruptures de style. Autrement dit, à abaisser artificiellement la qualité du texte pour le faire ressembler à ce que certains algorithmes considèrent comme une écriture « authentiquement humaine ». C’est un maquillage statistique, une caricature linguistique, qui transforment un texte artificiel en texte « acceptable», non pas parce qu’il est meilleur, mais parce qu’il est devenu moins détectable…

 

Une autre voie : l’intelligence de l’aiguilleur

Dans ce grand brouillard algorithmique, une idée originale émerge : celle de l’Aiguilleur d’IA, un concept théorisé par moi-même dans mon ouvrage « Aiguilleur d’IA », notifié et transmis à l’Organisation mondiale de la propriété intellectuelle (OMPI).

Loin de diaboliser l’intelligence artificielle, on propose, dans cet ouvrage, d’en faire un outil dirigé, aiguillé, par des compétences humaines conscientes. En effet, l’aiguilleur d’IA n’est ni un rédacteur passif ni un simple utilisateur. C’est un stratège du texte assisté par IA, capable d’orchestrer la collaboration entre l’humain et la machine, en s’appuyant sur une connaissance des limites, des biais, mais aussi des forces des modèles génératifs.

Face aux faux positifs des détecteurs, face aux « humaniseurs » qui déshumanisent, c’est cette compétence hybride qui offre une sortie par le haut.

 

La vraie bataille n’est peut-être pas celle qu’on croit

Pendant qu’on traque des phrases trop fluides, trop polies ou trop bien construites, le monde de la communication continue d’évoluer. L’IA ne va pas disparaître, elle ne fera que s’affiner. Demain, ce ne sont pas les textes générés par IA qu’il faudra redouter, mais ceux qui le seront sans conscience humaine pour les guider.

À l’image de Don Quichotte, voulons-nous continuer à lever nos lances contre des moulins ? Ou accepter que le texte de demain – aussi authentique soit-il – sera un terrain partagé entre intelligence humaine… et intelligence artificielle bien aiguillée ?

 

——————————

 

Mahjoub Lotfi Belhedi

Chercheur en réflexion stratégique optimisée IA // Data Scientist & Aiguilleur d’IA

 

L’article Détecteur d’IA : la chasse aux fantômes textuels est apparu en premier sur Leconomiste Maghrebin.

❌
❌