Dr Oumeima Laifa, CEO d’Euklydia: pour une IA rentable qui sécurise la décision du manager
Fondatrice d’Euklydia, Dr Oumeima Laifa défend une idée simple: l’IA ne vaut pas par ses effets de démonstration, mais par sa capacité à améliorer les décisions. Dans cette interview, elle explique comment passer du fantasme du remplacement à une logique d’augmentation, où gouvernance, rôles, KPI et modèle hybride font la différence.
Comment passer d’une logique de remplacement
à une logique d’augmentation?
Si le remplacement est une obsession technologique, l’augmentation, elle, relève d’une vraie stratégie de leadership. En Tunisie, on pose souvent mal le débat: le sujet n’est pas l’IA en soi, mais l’organisation qu’elle exige. Remplacer des collaborateurs suppose des process écrits, des rôles clairs, des données propres et une gouvernance solide. Sinon, on ne remplace pas un humain: on remplace… du flou par du vide. Le changement de paradigme est assez simple. En mode “remplacement”, on raisonne ainsi: «Cette tâche coûte X. L’IA coûte Y. Si Y est inférieur à X, on remplace». C’est une logique soustractive. En mode “augmentation”, la question devient: «Cette personne a un potentiel Z. Avec l’IA, elle peut faire trois fois Z. Quel est le ROI?». Là, on est dans une logique multiplicative. L’analogie médicale aide à comprendre: on ne remplace pas un médecin par une IRM, mais on augmentesa sa capacité de diagnostic. L’IA, c’est un peu un microscope algorithmique: elle détecte l’invisible et libère du temps cognitif pour ce qui compte vraiment. D’où une règle d’or: diagnostiquer avant d’acheter. L’erreur la plus fréquente, c’est d’adopter un outil… puis de lui chercher un usage. Il en résulte que l’entreprise reste coincée dans la démo, pas dans l’impact. La bonne logique, ce n’est pas “augmenter une tâche”, c’est augmenter une décision. Une IA utile n’est pas “un chatbot de plus”, c’est un système qui améliore une décision critique, délais, marge, risque, qualité, expérience client. Et surtout, il faut assumer un modèle hybride: l’humain garde la responsabilité, la nuance, le contexte; l’IA prend la détection, la simulation, la vitesse. La bascule peut se faire en cinq étapes: clarifier les rôles, cibler les zones d’or (là où se jouent décision et relation), former à l’usage (pas à l’outil), créer des binômes humain/IA, et mesurer la valeur, pas le volume d’usage. Parler de remplacement aujourd’hui, c’est un peu comme parler de voitures autonomes quand le code de la route n’est pas respecté: l’infrastructure humaine précède l’infrastructure technologique. La vraie question, au fond, c’est: a-t-on le courage de clarifier ce que chaque humain apporte réellement? Parce que l’augmentation exige de la lucidité… et la lucidité, parfois, dérange.
Pour un manager, quelles décisions
sont les plus “augmentables”: priorisation,
arbitrage, contrôle, exécution?
Le principe est simple: plus la décision est en amont (stratégique, structurante), plus l’IA “augmente” et crée de la valeur. À l’inverse, plus on est en aval (opérationnel, répétitif), plus on bascule vers l’automatisation. L’IA la plus rentable pour un manager n’est donc pas celle qui fait à sa place, mais celle qui révèle ce qu’il ne voyait pas avant de trancher. L’erreur classique: croire que l’IA sert surtout à “booster l’exécution”. En réalité, elle brille quand elle éclaire la décision, et ce, à plusieurs niveaux. D’abord, prioriser: c’est le jackpot. Face au bruit et aux infos incomplètes, l’IA capte les signaux faibles, réduit cent sujets à trois priorités actionnables et met au jour les dépendances. Le jugement reste humain, mais la décision devient plus rapide, plus nette, moins aveugle. Ensuite, arbitrer: très “augmentable”, jamais délégable. Qualité-délai-coût, ressources, conflits: l’IA modélise les trade-offs, teste des scénarios et chiffre les impacts (ROI, risques, conformité, réputation). Elle ne choisit pas, elle évite les angles morts. Le leadership reste humain, mieux informé. Puis, contrôler: utile, si c’est intelligent. Anomalies, alertes précoces, audits de cohérence, dashboards orientés “quoi faire maintenant” plutôt que 200 notifications: l’IA renforce le pilotage. Mais plus de contrôle sans confiance, c’est fragiliser l’équipe. Le contrôle augmenté doit réduire le micro-management, pas l’industrialiser. Enfin, exécuter: automatisable, donc risqué si mal cadré. Synthèses, drafts, tickets, relances: oui, l’IA accélère. Mais sans gouvernance, elle accélère aussi les dégâts: erreurs silencieuses, hallucinations, fuites de données… En Tunisie, quand les process ne sont pas documentés, l’automatisation patine.Et c’est pourtant souvent là qu’on investit en premier, avec un ROI parfois faible.
Quels signaux montrent que l’IA est utilisée comme gadget plutôt que comme levier de management?
On voit très vite la différence: un gadget impressionne, un levier transforme. La bonne question pour un manager est simple: est-ce que l’IA améliore la qualité des décisions et les KPI… ou seulement la mise en forme des livrables? Quand on empile des outils sans intégration, sans pilotage et sans gouvernance, on fait du show, pas de l’impact. Sept signaux montrent que l’IA est utilisée comme gadget:
- On parle de l’outil, jamais du problème. “On a ChatGPT/Copilot”, mais quelle décision est réellement améliorée? Si c’est flou: gadget.
- Aucun KPI business.“Ça va plus vite” ne suffit pas: un levier se mesure (délais, erreurs, marge, qualité, conformité, satisfaction).
- Beaucoup de démos, zéro routine. Si l’IA n’entre pas dans les rituels (revue hebdo, comité, pipeline de décision), elle reste un spectacle.
- Shadow AI non gouvernée. Chacun teste dans son coin, parfois avec des données sensibles: risques, incohérence, responsabilités impossibles.
- L’IA automatise l’exécution… dans une organisation floue. Sans process clairs, l’automatisation accélère surtout le désordre.
- Pas de critique, pas de traçabilité. Si personne ne challenge les résultats et si rien n’est documenté (données, hypothèses, raisons), ce n’est pas un copilote: c’est un générateur.
- Pas d’ownership métier. S’il s’agit d’“un sujet IT” ou d’“un sujet com” sans le sponsorship de la direction générale ou de l’opérationnel.
Comment concevoir une IA copilote: quelles tâches elle prend avant/pendant/après la décision?
Concevoir une IA copilote, c’est lui donner un rôle clair à chaque étape. L’erreur la plus fréquente: l’utiliser “un peu partout”… donc efficacement nulle part. Avant la décision: elle prépare le terrain. Elle rassemble l’info dispersée, détecte les signaux faibles, simule des scénarios, chiffre risques/impacts et livre un brief structuré. Le manager cadre les questions, challenge et valide. Pendant la décision: elle éclaire le choix. Elle ne décide pas: elle réduit les angles morts. Elle met les données clés au bon moment, alerte sur les biais, propose des options et leurs conséquences. Le manager tranche, avec la nuance humaine (politique, relationnel, éthique). Après, l’IA assure le suivi: phase négligée. C’est pourtant là que l’organisation apprend. Elle documente, suit les indicateurs, alerte si les résultats dévient, capitalise pour les décisions futures. Le manager interprète, ajuste, transmet. Trois mois après, il reçoit un bilan, pas une intuition floue. Un copilote bien conçu ne rend pas le manager moins nécessaire, il rend son jugement plus puissant: décision → action → mesure → amélioration.
Quelles erreurs de gouvernance sont les plus fréquentes: shadow AI, absence de cadre, KPI mal définis, etc.?
Les erreurs de gouvernance les plus fréquentes sont invisibles au début… puis explosives. Première erreur: laisser l’IA entrer sans architecture. Pas de périmètre, pas de niveaux de criticité, donc l’outil finit par toucher des sujets sensibles par accident. Deuxième erreur, traiter la donnée comme un détail: pas de source “single truth”, définitions contradictoires, qualité non contrôlée, l’IA ne crée pas de clarté, elle amplifie les contradictions. Troisième erreur, oublier l’audibilité: aucune trace des inputs, des versions, des hypothèses, du niveau de confiance, donc impossible de défendre une décision ou de corriger proprement. Quatrième erreur, mal concevoir la validation: soit on laisse tout passer, soit on bloque tout; dans les deux cas, l’adoption meurt. Cinquième erreur, mesurer les mauvais indicateurs: on optimise le “contenu produit” au lieu d’optimiser l’impact réel sur la qualité, le risque, le délai, la marge. Enfin, erreur fatale: pas de sponsor qui tranche quand personne n’a autorité pour dire oui/non, l’IA devient un terrain de jeu, puis un terrain miné. Une IA bien gouvernée, ce n’est pas plus d’outils, ce sont des limites claires, des données maîtrisées et une responsabilité assumée.
L’article Dr Oumeima Laifa, CEO d’Euklydia: pour une IA rentable qui sécurise la décision du manager est apparu en premier sur Managers.