Lese-Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.

La course à l’IA bat son plein dans le monde du renseignement

À un moment charnière de l’histoire technologique mondiale, le lancement par l’entreprise chinoise DeepSeek d’un grand modèle de langage*, considéré comme l’un des meilleurs au monde, a coïncidé avec l’investiture de Donald Trump à la présidence des États-Unis sonnant ainsi l’alarme dans les milieux du renseignement américain. Les Américains craignent non seulement de perdre la pole position en matière d’intelligence artificielle (IA) mais aussi son utilisation dans le monde du renseignement.  (Illustration : Ben Jones).

Imed Bahri

Le magazine britannique The Economist rapporte dans une enquête consacrée à la course à l’IA dans le domaine du renseignement que Trump a qualifié le lancement du grand modèle de langage de DeepSeek de «signal d’alarme» tandis que Mark Warner, vice-président de la commission sénatoriale du renseignement, a reconnu que la communauté du renseignement américain était «surprise» par la rapidité des progrès de la Chine. 

L’année dernière, l’administration Biden a exprimé sa crainte que les espions et les soldats chinois ne dépassent l’adoption rapide de l’IA et a lancé un plan d’urgence pour renforcer la dépendance des secteurs du renseignement et de l’armée à cette technologie.

The Economist explique que le plan prévoit notamment d’ordonner au Département de la Défense américain (le Pentagone), aux agences de renseignement et au Département de l’Énergie (responsable de la production d’armes nucléaires) d’intensifier leurs expérimentations avec les derniers modèles d’IA et de renforcer leur coopération avec des laboratoires privés de premier plan tels qu’Anthropic, Google DeepMind et OpenAI.

Washington met le paquet

Concrètement, le 14 juillet, le Pentagone a attribué des contrats d’une valeur maximale de 200 millions de dollars chacun à ces entreprises, ainsi qu’à XAI, propriété du milliardaire Elon Musk, pour développer des modèles d’IA agentique capables de prendre des décisions, d’apprendre en continu des interactions et d’effectuer plusieurs tâches en les décomposant en étapes et de contrôler d’autres appareils tels que des ordinateurs ou des véhicules.

Toutefois, cette course, selon The Economist, ne se limite pas au Pentagone. Les modèles d’IA se répandent rapidement au sein des agences de renseignement, utilisés pour analyser des données classifiées et interagir avec des informations sensibles.

Des entreprises ont également développé des versions modifiées de leurs modèles, capables de gérer des documents classifiés, de maîtriser des langues et dialectes sensibles aux besoins du renseignement et de les exécuter sur des serveurs déconnectés de l’Internet public.

En janvier dernier, Microsoft a annoncé que 26 de ses produits de cloud computing avaient été approuvés pour une utilisation par les agences de renseignement.

En juin, Anthropic a annoncé le lancement de Claude Gov, un nouveau chatbot spécialement conçu pour l’armée et les agences de renseignement américaines. L’entreprise a souligné qu’il était déjà largement utilisé par toutes les agences de renseignement américaines, aux côtés d’autres modèles issus de laboratoires concurrents.

D’autres nations s’engouffrent dans la brèche

Les États-Unis ne sont pas les seuls à suivre cette évolution. Le magazine rapporte que la Grande-Bretagne cherche à rattraper le train en marche et cite une source britannique haut placée qui a confirmé, sous couvert d’anonymat, que tous les membres de la communauté du renseignement du pays avaient désormais accès à des modèles de langage hautement classifiés.

En Europe, l’entreprise française Mistral, leader et quasi unique entreprise d’IA en Europe, s’est associée à l’Agence militaire d’intelligence artificielle du pays pour développer le modèle Saba, entraîné à partir de données du Moyen-Orient et d’Asie du Sud et parlant couramment l’arabe et d’autres langues régionales comme le tamoul.

En Israël, le média +972 Magazine a rapporté que l’utilisation du modèle GPT-4 d’OpenAI par l’armée a été multipliée par 20 depuis le début de la guerre dans la bande de Gaza, ce qui témoigne de l’adoption rapide de ces modèles dans des contextes militaires réels.

Malgré cette activité frénétique, les experts du secteur reconnaissent que l’adoption de l’IA par les agences de sécurité reste modeste. Katrina Mulligan, responsable des partenariats de sécurité chez OpenAI, affirme que l’adoption de l’IA n’a pas encore atteint le niveau souhaité.

Même avec des pôles d’excellence, comme l’Agence nationale de sécurité américaine, de nombreuses agences restent à la traîne, soit parce qu’elles ont conçu leurs propres systèmes d’exploitation soit en raison de la prudence bureaucratique à adopter des mises à jour rapides des modèles courants.

Refonte de la mission de renseignement

Certains experts estiment que la véritable transformation ne réside pas dans la seule utilisation des chatbots mais dans la refonte de la mission de renseignement elle-même, comme le souligne Tarun Chhabra, ancien fonctionnaire du Conseil national de sécurité et actuel directeur de la politique de sécurité chez Anthropic.

D’autre part, les organismes de recherche mettent en garde contre les attentes excessives placées dans ces modèles. Le docteur Richard Carter de l’Institut Alan Turing en Grande-Bretagne estime que le principal problème réside dans les «hallucinations» que produisent les modèles –des réponses inexactes ou trompeuses– qui constituent un risque majeur dans un environnement exigeant une fiabilité absolue. Le taux d’hallucination dans le dernier modèle d’IA produit par OpenAI a atteint environ 8%, un taux supérieur aux modèles précédents.

Selon The Economist, ces inquiétudes s’inscrivent dans les réserves des fondateurs du projet, notamment au sein d’agences comme le Service britannique de renseignement et de sécurité (GCHQ), qui compte parmi ses ingénieurs des personnes sceptiques face aux nouvelles technologies non testées.

Cela rejoint un débat plus large sur l’avenir de l’IA. Le docteur Carter fait partie de ceux qui estiment que la structure des modèles de langage général actuels n’est pas adaptée au type de raisonnement causal qui leur permet une compréhension solide du monde. Selon lui, la priorité des agences de renseignement devrait être d’inciter les laboratoires à développer de nouveaux modèles basés sur des styles de pensée et de raisonnement différents.

Inquiétudes quant à la supériorité de la Chine

Malgré la réticence des institutions occidentales, les inquiétudes grandissent quant à la supériorité potentielle de la Chine. Philip Reiner, de l’Institut pour la sécurité et la technologie de la Silicon Valley, déclare: «Nous ignorons encore dans quelle mesure la Chine utilisera DeepSeek dans les domaines militaire et du renseignement. L’absence de contraintes éthiques strictes de la Chine pourrait lui permettre d’extraire des informations plus pertinentes plus rapidement»

Face à ces inquiétudes, le 23 juillet, l’administration Trump a ordonné au ministère de la Défense et aux agences de renseignement de procéder à des évaluations périodiques du niveau d’adoption de l’IA au sein des institutions de sécurité américaines par rapport à des concurrents comme la Chine et de développer un mécanisme d’adaptation continue.

Les observateurs s’accordent presque sur un point fondamental: le plus grand danger ne réside pas dans la précipitation des États-Unis à adopter l’IA mais dans le fait que leurs institutions restent bloquées dans leurs vieux schémas bureaucratiques.

«Ce qui m’inquiète vraiment, c’est que nous gagnions la course à l’intelligence artificielle générale (IAG) mais perdions celle de son adoption effective», déclare Katrina Mulligan.

* Le modèle de langage est un type d’intelligence artificielle conçu pour comprendre, générer et traiter le langage humain.

L’article La course à l’IA bat son plein dans le monde du renseignement est apparu en premier sur Kapitalis.

OpenAI prépare une levée à 500 milliards

OpenAI est en pourparlers préliminaires sur une éventuelle vente secondaire de ses actions à des employés actuels et anciens, évaluée à environ 500 milliards de dollars. Ce qui représente un gain massif dans la valeur de la principale société d’intelligence artificielle. C’est ce que rapporte Bloomberg, mercredi 6 août 2025.

La société vise une vente d’actions de plusieurs milliards de dollars, selon les source. Lesquelles ajoutent que les investisseurs existants, dont Thrive Capital, ont contacté OpenAI pour acheter certaines actions des employés.

La dernière valorisation d’OpenAI s’élève à environ 300 milliards de dollars, sur un tour de table de 40 milliards mené par SoftBank Group. Cette nouvelle décision fait suite à l’annonce, il y a quelques jours, selon laquelle la startup avait levé 8,3 milliards de dollars auprès d’un groupe d’investisseurs pour la deuxième tranche de son tour de table de 40 milliards de dollars, qui a été sursouscrite près de cinq fois.

La dernière évaluation fait d’OpenAI la startup non cotée la plus valorisée au monde.

A rappeler qu’OpenAI a supervisé une série de lancements de nouvelles technologies, notamment une nouvelle plateforme open source, et se prépare actuellement à lancer son dernier modèle, GPT-5.

L’article OpenAI prépare une levée à 500 milliards est apparu en premier sur Leconomiste Maghrebin.

❌