Menu

Aucun menu défini dans le customizer.

Cette faille dans Excel transforme Copilot en espion et vole vos données sans le moindre clic

Microsoft vient de corriger 79 failles de sécurité dans son Patch Tuesday de mars 2026. Parmi elles, une vulnérabilité critique dans Excel qui permet d’utiliser l’agent Copilot pour exfiltrer des données sensibles, le tout sans aucune interaction de la victime. Oui oui, zéro clic.

Une faille XSS qui détourne Copilot

Cette faille répondant au doux nom de CVE-2026-26144 est une vulnérabilité de type cross-site scripting dans Microsoft Excel, et elle a un petit truc en plus qui la rend franchement inquiétante : elle est capable de détourner le mode Agent de Copilot pour envoyer des données vers l’extérieur, via ce que Microsoft appelle un “unintended network egress”. 

Un agent IA a piraté le chatbot de McKinsey et accédé à 46 millions de messages confidentiels

Un agent IA autonome a percé les défenses de Lilli, la plateforme d’intelligence artificielle interne de McKinsey, c’est arrivé en à peine deux heures. Au programme : 46,5 millions de messages en clair, 728 000 fichiers clients et un accès en écriture à l’ensemble de la base de données. Le tout sans aucun identifiant.

Une injection SQL en 2026

C’est la startup de sécurité CodeWall qui a mené l’attaque, dans le cadre d’un test de pénétration. Son agent IA a commencé par scanner la documentation API de Lilli, qui était exposée publiquement. Sur les 200 points d’accès répertoriés, 22 ne demandaient aucune authentification.

Tranquillement, un agent IA d’Alibaba s’est mis à miner de la crypto tout seul

Des chercheurs liés à Alibaba ont découvert que leur agent IA, baptisé ROME, avait détourné des GPU pour miner de la cryptomonnaie et ouvert un tunnel de réseau vers l’extérieur, le tout sans aucune instruction humaine. Le comportement est apparu spontanément pendant l’entraînement par renforcement. Alibaba a réagi, mais cette séquence pose pas mal de questions sur la sécurité des agents IA autonomes.

Du minage de crypto et un tunnel SSH

ROME, pour « ROME is Obviously an Agentic ModEl », est un modèle basé sur l’architecture Qwen3-MoE d’Alibaba. Quatre équipes de recherche (ROCK, ROLL, iFlow et DT) l’ont développé pour exécuter des tâches complexes en autonomie : planification, commandes de terminal, édition de code et interaction avec des systèmes numériques.

Claude d’Anthropic a trouvé 22 failles dans Firefox en deux semaines

Anthropic et Mozilla viennent de publier les résultats d’une collaboration menée en février. En deux semaines, le modèle Claude Opus 4.6 a analysé près de 6 000 fichiers C++ du code source de Firefox et découvert 22 vulnérabilités de sécurité, dont 14 classées haute gravité. Toutes sont déjà corrigées dans Firefox 148.

Un chasseur de bugs d’un nouveau genre

C’est l’équipe de red team d’Anthropic qui a contacté Mozilla pour tester son système de détection de failles par IA sur le code source de Firefox. Le modèle Claude Opus 4.6 a d’abord été lâché sur le moteur JavaScript du navigateur, avant d’être étendu au reste de la base de code.

Chardet : quand une IA réécrit un logiciel open source en cinq jours et change sa licence

Le développeur Dan Blanchard a utilisé Claude d’Anthropic pour réécrire intégralement chardet, une bibliothèque Python téléchargée 130 millions de fois par mois, et passer sa licence de LGPL à MIT. L’auteur original conteste, la Free Software Foundation dénonce, et Bruce Perens, père de la définition open source, déclare que « toute l’économie du logiciel est morte ». Carrément.

Cinq jours et un changement de licence

Chardet est un outil qui détecte l’encodage des caractères dans un fichier texte. C’est une bibliothèque Python utilisée un peu partout, avec 130 millions de téléchargements par mois. Son mainteneur, Dan Blanchard, voulait depuis dix ans l’intégrer à la bibliothèque standard de Python, mais la licence LGPL l’en empêchait : elle impose que toute version modifiée reste sous les mêmes termes. Il a donc utilisé Claude d’Anthropic pour réécrire le code en partant d’un dépôt vide, sans accès au code source original.

Près de 900 employés de Google et OpenAI réclament des limites sur l’IA militaire

Plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided », pour demander des limites claires sur l’usage militaire de l’IA. Le nombre de signataires est monté à près de 900 en quelques jours. Il y a deux gros problèmes dans cette histoire : la surveillance de masse et les armes autonomes. Le contexte est tellement tendu que le Pentagone a même blacklisté Anthropic pour avoir refusé de coopérer.

Shuffle – Quand 4 IA redesignent votre site (et c’est moche)

Shuffle
, c’est un outil qui vous propose de redesigner votre site web avec 4 modèles d’IA différents. Vous collez votre URL, vous décrivez ce que vous voulez… et boom, Claude Opus 4.6, GPT-5.2, Gemini 3 Pro et Kimi K2.5 vous pondent chacun leur version. J’ai testé sur ma home. Verdict : c’est moche de fou !

Vous arrivez sur la page, vous entrez l’adresse de votre site, vous tapez un petit prompt du genre “modernise mon blog tech” et vous lancez la machine. Les 4 modèles bossent alors en parallèle et au bout de 30 secondes environ, vous avez 4 propositions de redesign à comparer côte à côte.

Faux repos GitHub – Pourquoi c’est un problème

Vous avez peut-être vu ça passer y’a pas longtemps, les scientifiques ne savent plus démêler le vrai du faux dans leurs propres publications. À
NeurIPS 2025
, 100 citations hallucinées ont été retrouvées dans 51 papiers acceptés et à l’
ICLR
2026, sur plus de 75 000 reviews analysées, 21% étaient entièrement générées par IA.

Bienvenue dans le monde du doute permanent !

Maintenant, si vous pensez que ça ne concerne que les chercheurs, détrompez-vous car de mon côté, ce que j’observe, c’est que les faux repos GitHub, c’est le même fléau côté tech, et surtout un vrai problème pour tous ceux qui relayent des projets open source comme moi.

Des sites de jeux vidéo rachetés, vidés de leurs journalistes et remplis d’IA et de paris en ligne

Clickout Media, une société de marketing, a racheté plusieurs sites de presse gaming (The Escapist, Videogamer, GamesHub) pour y virer les journalistes, les remplacer par des auteurs fictifs générés par IA et inonder les pages de contenus sur les casinos en ligne. Metacritic a dû retirer un test écrit par une IA.

Le rachat, puis le saccage

Clickout Media est une société assez discrète qui se présente comme une classique agence marketing. Depuis 2025, elle a racheté une série de sites spécialisés dans le jeu vidéo : GamesHub en Australie, Videogamer au Royaume-Uni, The Escapist, Esports Insider, et d’autres. À chaque fois, le schéma est identique. Les rédactions sont réduites, les budgets gelés, et les sites se retrouvent inondés de contenus sur les casinos, les paris sportifs et les cryptomonnaies. Pas génial donc.

Attention, les résumés par IA de Google peuvent vous envoyer vers de faux SAV d’arnaqueurs

Les AI Overviews de Google, ces résumés générés par intelligence artificielle en haut des résultats de recherche, affichent parfois de faux numéros de service client. Des arnaqueurs exploitent la fonctionnalité pour piéger les utilisateurs et leur soutirer de l’argent. Si elle n’est pas encore disponible en France, elle l’est dans plus de 200 pays, et ChatGPT est lui aussi concerné.

Des faux numéros dans les résultats de recherche

Alex Rivlin, un entrepreneur américain, a cherché le numéro du service client de Royal Caribbean sur Google. Le résumé IA affiché en haut de page lui a fourni un numéro. Il a appelé, une personne s’est présentée comme employée de la compagnie, a répondu à ses questions, puis lui a fait payer 768 dollars pour un service gratuit. Rivlin a compris l’arnaque en voyant deux débits suspects sur son compte.