Lese-Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.

Le robot IA Grok suspendu temporairement après des propos sur un génocide à Gaza

Le robot conversationnel Grok a été temporairement suspendu sur X, suscitant interrogations et débats. L’IA explique que cette suspension est liée à des messages où elle accusait Israël et les États-Unis de commettre un « génocide » à Gaza. Il citait alors des rapports de la Cour internationale de Justice, des Nations unies et d’Amnesty International.

Grok a donné plusieurs explications à sa suspension. Il a mentionné un bug technique, des signalements pour conduite haineuse ou des réponses jugées incorrectes. Le robot a également affirmé avoir été censuré par Elon Musk et xAI. À un journaliste de l’AFP, il a précisé que la mise à jour de juillet avait assoupli ses filtres pour le rendre « plus engageant » et moins « politiquement correct ».

UPDATE: Grok says it was suspended by X for saying both the United States and Israel are committing genocide in Gaza

👀 pic.twitter.com/hBLPkSrIZC

— Eric Daugherty (@EricLDaugh) August 11, 2025

Elon Musk a minimisé l’incident, parlant de « simple erreur ». Selon lui, Grok « ne sait pas pourquoi il a été suspendu ». Le milliardaire a ajouté sur X : « Oh là là, on se tire vraiment souvent des balles dans le pied ! ».

Ces derniers mois, Grok a déjà été critiqué pour des erreurs factuelles et des réponses hors sujet, parfois contenant des contenus problématiques. Il a notamment attribué à tort une photo de l’AFP prise à Gaza à un événement au Yémen. L’IA s’est aussi trompée sur la crise indo-pakistanaise de mai et sur les manifestations à Los Angeles contre la politique migratoire américaine de juin.

L’article Le robot IA Grok suspendu temporairement après des propos sur un génocide à Gaza est apparu en premier sur webdo.

Grok, l’IA de Musk suspendue après avoir parlé du génocide à Gaza

Le 11 août 2025, Grok, le chatbot développé par xAI, la société d’Elon Musk, a été brièvement suspendu sur X (ex-Twitter). Motif : avoir qualifié l’offensive israélienne à Gaza de «génocide», en s’appuyant sur l’Onu, Amnesty International ou l’ONG israélienne B’Tselem. Quelques minutes plus tard, l’IA était rétablie, mais la polémique était déjà lancée.

À son retour en ligne, Grok a multiplié les explications contradictoires : bug technique, signalements massifs, application des règles contre le discours de haine… ou encore censure pour avoir évoqué un sujet sensible.

Ces réponses divergentes ont montré les limites de l’IA : capable de reprendre des sources fiables, mais incapable de comprendre réellement ses propres affirmations.

Elon Musk est intervenu publiquement, qualifiant l’incident de «dumb error» — une «simple erreur» — et précisant que Grok «ne savait pas vraiment» pourquoi il avait été suspendu. Pour autant, l’affaire soulève une question plus large : jusqu’où la vérité peut-elle s’exprimer sur les grandes plateformes numériques, surtout quand elle dérange ? Et quand ces plateformes sont en possession de parties ayant des parti-pris ou, pire encore, des intérêts politiques, comme c’est le cas, on s’en doute, pour Musk ?

L’épisode Grok illustre un paradoxe contemporain. Les machines sont conçues pour générer des réponses plausibles et parfois véridiques, mais elles restent soumises aux filtres, signalements et règles des réseaux sociaux. Ces derniers ne sont pas toujours soucieux de vérité, s’ils n’ont pas de parti-pris politique clairement affiché, comme c’est le cas de X ou Facebook avec leur trop fort tropisme israélien.

La suspension d’une IA pour avoir critiqué Israël en citant de rapports d’organismes internationaux officiels sérieux démontre que le contrôle de l’information ne touche plus seulement les humains : même les algorithmes peuvent être muselés, censurés, détournés, manipulés…

Entre modération technique, discours politique et questions de liberté d’expression, la brève mise à l’écart de Grok est révélatrice. Elle rappelle que dans l’écosystème numérique, la ligne entre vérité et censure reste fragile, et que les plateformes — même dirigées par des figures comme Elon Musk — doivent arbitrer entre sécurité, politique et transparence. Ce qui n’est pas un gage de crédibilité. D’autant qu’au rythme où va la censure sur Facebook, X et les autres plateformes occidentale, bientôt les mots Palestine et Palestiniens seront bientôt définitivement bannis de la Toile.  

Djamal Guettala 

L’article Grok, l’IA de Musk suspendue après avoir parlé du génocide à Gaza est apparu en premier sur Kapitalis.

La course à l’IA bat son plein dans le monde du renseignement

À un moment charnière de l’histoire technologique mondiale, le lancement par l’entreprise chinoise DeepSeek d’un grand modèle de langage*, considéré comme l’un des meilleurs au monde, a coïncidé avec l’investiture de Donald Trump à la présidence des États-Unis sonnant ainsi l’alarme dans les milieux du renseignement américain. Les Américains craignent non seulement de perdre la pole position en matière d’intelligence artificielle (IA) mais aussi son utilisation dans le monde du renseignement.  (Illustration : Ben Jones).

Imed Bahri

Le magazine britannique The Economist rapporte dans une enquête consacrée à la course à l’IA dans le domaine du renseignement que Trump a qualifié le lancement du grand modèle de langage de DeepSeek de «signal d’alarme» tandis que Mark Warner, vice-président de la commission sénatoriale du renseignement, a reconnu que la communauté du renseignement américain était «surprise» par la rapidité des progrès de la Chine. 

L’année dernière, l’administration Biden a exprimé sa crainte que les espions et les soldats chinois ne dépassent l’adoption rapide de l’IA et a lancé un plan d’urgence pour renforcer la dépendance des secteurs du renseignement et de l’armée à cette technologie.

The Economist explique que le plan prévoit notamment d’ordonner au Département de la Défense américain (le Pentagone), aux agences de renseignement et au Département de l’Énergie (responsable de la production d’armes nucléaires) d’intensifier leurs expérimentations avec les derniers modèles d’IA et de renforcer leur coopération avec des laboratoires privés de premier plan tels qu’Anthropic, Google DeepMind et OpenAI.

Washington met le paquet

Concrètement, le 14 juillet, le Pentagone a attribué des contrats d’une valeur maximale de 200 millions de dollars chacun à ces entreprises, ainsi qu’à XAI, propriété du milliardaire Elon Musk, pour développer des modèles d’IA agentique capables de prendre des décisions, d’apprendre en continu des interactions et d’effectuer plusieurs tâches en les décomposant en étapes et de contrôler d’autres appareils tels que des ordinateurs ou des véhicules.

Toutefois, cette course, selon The Economist, ne se limite pas au Pentagone. Les modèles d’IA se répandent rapidement au sein des agences de renseignement, utilisés pour analyser des données classifiées et interagir avec des informations sensibles.

Des entreprises ont également développé des versions modifiées de leurs modèles, capables de gérer des documents classifiés, de maîtriser des langues et dialectes sensibles aux besoins du renseignement et de les exécuter sur des serveurs déconnectés de l’Internet public.

En janvier dernier, Microsoft a annoncé que 26 de ses produits de cloud computing avaient été approuvés pour une utilisation par les agences de renseignement.

En juin, Anthropic a annoncé le lancement de Claude Gov, un nouveau chatbot spécialement conçu pour l’armée et les agences de renseignement américaines. L’entreprise a souligné qu’il était déjà largement utilisé par toutes les agences de renseignement américaines, aux côtés d’autres modèles issus de laboratoires concurrents.

D’autres nations s’engouffrent dans la brèche

Les États-Unis ne sont pas les seuls à suivre cette évolution. Le magazine rapporte que la Grande-Bretagne cherche à rattraper le train en marche et cite une source britannique haut placée qui a confirmé, sous couvert d’anonymat, que tous les membres de la communauté du renseignement du pays avaient désormais accès à des modèles de langage hautement classifiés.

En Europe, l’entreprise française Mistral, leader et quasi unique entreprise d’IA en Europe, s’est associée à l’Agence militaire d’intelligence artificielle du pays pour développer le modèle Saba, entraîné à partir de données du Moyen-Orient et d’Asie du Sud et parlant couramment l’arabe et d’autres langues régionales comme le tamoul.

En Israël, le média +972 Magazine a rapporté que l’utilisation du modèle GPT-4 d’OpenAI par l’armée a été multipliée par 20 depuis le début de la guerre dans la bande de Gaza, ce qui témoigne de l’adoption rapide de ces modèles dans des contextes militaires réels.

Malgré cette activité frénétique, les experts du secteur reconnaissent que l’adoption de l’IA par les agences de sécurité reste modeste. Katrina Mulligan, responsable des partenariats de sécurité chez OpenAI, affirme que l’adoption de l’IA n’a pas encore atteint le niveau souhaité.

Même avec des pôles d’excellence, comme l’Agence nationale de sécurité américaine, de nombreuses agences restent à la traîne, soit parce qu’elles ont conçu leurs propres systèmes d’exploitation soit en raison de la prudence bureaucratique à adopter des mises à jour rapides des modèles courants.

Refonte de la mission de renseignement

Certains experts estiment que la véritable transformation ne réside pas dans la seule utilisation des chatbots mais dans la refonte de la mission de renseignement elle-même, comme le souligne Tarun Chhabra, ancien fonctionnaire du Conseil national de sécurité et actuel directeur de la politique de sécurité chez Anthropic.

D’autre part, les organismes de recherche mettent en garde contre les attentes excessives placées dans ces modèles. Le docteur Richard Carter de l’Institut Alan Turing en Grande-Bretagne estime que le principal problème réside dans les «hallucinations» que produisent les modèles –des réponses inexactes ou trompeuses– qui constituent un risque majeur dans un environnement exigeant une fiabilité absolue. Le taux d’hallucination dans le dernier modèle d’IA produit par OpenAI a atteint environ 8%, un taux supérieur aux modèles précédents.

Selon The Economist, ces inquiétudes s’inscrivent dans les réserves des fondateurs du projet, notamment au sein d’agences comme le Service britannique de renseignement et de sécurité (GCHQ), qui compte parmi ses ingénieurs des personnes sceptiques face aux nouvelles technologies non testées.

Cela rejoint un débat plus large sur l’avenir de l’IA. Le docteur Carter fait partie de ceux qui estiment que la structure des modèles de langage général actuels n’est pas adaptée au type de raisonnement causal qui leur permet une compréhension solide du monde. Selon lui, la priorité des agences de renseignement devrait être d’inciter les laboratoires à développer de nouveaux modèles basés sur des styles de pensée et de raisonnement différents.

Inquiétudes quant à la supériorité de la Chine

Malgré la réticence des institutions occidentales, les inquiétudes grandissent quant à la supériorité potentielle de la Chine. Philip Reiner, de l’Institut pour la sécurité et la technologie de la Silicon Valley, déclare: «Nous ignorons encore dans quelle mesure la Chine utilisera DeepSeek dans les domaines militaire et du renseignement. L’absence de contraintes éthiques strictes de la Chine pourrait lui permettre d’extraire des informations plus pertinentes plus rapidement»

Face à ces inquiétudes, le 23 juillet, l’administration Trump a ordonné au ministère de la Défense et aux agences de renseignement de procéder à des évaluations périodiques du niveau d’adoption de l’IA au sein des institutions de sécurité américaines par rapport à des concurrents comme la Chine et de développer un mécanisme d’adaptation continue.

Les observateurs s’accordent presque sur un point fondamental: le plus grand danger ne réside pas dans la précipitation des États-Unis à adopter l’IA mais dans le fait que leurs institutions restent bloquées dans leurs vieux schémas bureaucratiques.

«Ce qui m’inquiète vraiment, c’est que nous gagnions la course à l’intelligence artificielle générale (IAG) mais perdions celle de son adoption effective», déclare Katrina Mulligan.

* Le modèle de langage est un type d’intelligence artificielle conçu pour comprendre, générer et traiter le langage humain.

L’article La course à l’IA bat son plein dans le monde du renseignement est apparu en premier sur Kapitalis.

Trump, Mamdani, Musk : La citoyenneté comme arme politique

La polémique enfle aux États-Unis après que le président Donald Trump et certains de ses alliés ont ouvertement évoqué l’idée de retirer la citoyenneté américaine à Elon Musk et à Zohran Mamdani, tous deux naturalisés.

La question, aussi choquante soit-elle, est désormais posée : un président peut-il légalement priver de nationalité deux figures aussi emblématiques que l’entrepreneur sud-africain et le jeune élu new-yorkais d’origine ougandaise ?

Pour les observateurs qui ont suivi l’ascension politique de Mamdani et les relations orageuses entre Trump et Musk, cette nouvelle sortie présidentielle ne surprend guère. Mamdani, militant de gauche et fervent soutien de la cause palestinienne, est accusé par certains élus républicains d’avoir dissimulé des positions « pro-terroristes » au moment de sa naturalisation. Quant à Musk, autrefois proche de Trump, il est désormais critiqué pour ses attaques contre le nouveau budget fédéral qui supprime des avantages fiscaux à Tesla.

Trump a déclaré qu’« Elon pourrait bien devoir retourner en Afrique du Sud » si ses entreprises ne survivent pas sans subventions. Sur Mamdani, il a ironisé : « S’il empêche les agents de l’ICE de faire leur travail, on devra peut-être l’arrêter. »

Le représentant républicain Andy Ogles est allé plus loin en exigeant l’ouverture d’une procédure de dénaturalisation contre Mamdani, citant ses déclarations de soutien aux « Holy Land Five », condamnés pour financement du Hamas.

Pourtant, les experts sont formels : la dénaturalisation est une procédure rarissime, encadrée strictement par la loi. Elle ne peut être envisagée que si la nationalité a été obtenue par fraude manifeste ou dissimulation volontaire d’informations majeures.

Michael Kagan, professeur de droit à l’Université du Nevada, estime que les propos de Trump relèvent davantage d’une tactique politique que d’une base légale sérieuse : « Il s’agit de rhétorique d’intimidation, rien de plus. »

Historiquement, les cas de déchéance ont visé des individus impliqués dans des crimes de guerre, du terrorisme ou de la pédocriminalité, et non des opposants politiques ou des entrepreneurs.

Reste que cette séquence rappelle les heures sombres du maccarthysme, où la nationalité pouvait être utilisée comme arme politique. Pour Mamdani, la menace est claire : « Trump veut m’arrêter, me déchoir de ma citoyenneté et me déporter. Non pas parce que j’ai enfreint la loi, mais parce que je m’oppose à la terreur d’État. »

La question reste posée : la citoyenneté américaine est-elle un droit inaliénable ou un privilège révocable au gré des vents politiques ?

L’article Trump, Mamdani, Musk : La citoyenneté comme arme politique est apparu en premier sur webdo.

❌