Menu

Aucun menu défini dans le customizer.

GitHub va utiliser vos données Copilot pour entraîner ses modèles d’IA

À partir du 24 avril, GitHub activera par défaut la collecte des données d’interaction Copilot pour les utilisateurs Free, Pro et Pro+. Le gros sujet ici, c’est que le code, les suggestions acceptées et même la structure de vos dépôts pourront servir à améliorer les modèles d’IA de la plateforme.

Ce qui change à partir du 24 avril

GitHub vient d’annoncer une mise à jour de sa politique de confidentialité qui concerne directement Copilot. À compter du 24 avril 2026, la plateforme collectera par défaut les données d’interaction de ses utilisateurs pour entraîner ses modèles d’intelligence artificielle.

Cette faille dans Excel transforme Copilot en espion et vole vos données sans le moindre clic

Microsoft vient de corriger 79 failles de sécurité dans son Patch Tuesday de mars 2026. Parmi elles, une vulnérabilité critique dans Excel qui permet d’utiliser l’agent Copilot pour exfiltrer des données sensibles, le tout sans aucune interaction de la victime. Oui oui, zéro clic.

Une faille XSS qui détourne Copilot

Cette faille répondant au doux nom de CVE-2026-26144 est une vulnérabilité de type cross-site scripting dans Microsoft Excel, et elle a un petit truc en plus qui la rend franchement inquiétante : elle est capable de détourner le mode Agent de Copilot pour envoyer des données vers l’extérieur, via ce que Microsoft appelle un “unintended network egress”. 

Reprompt – Quand Microsoft Copilot balance vos données en un clic

Vous vous souvenez d’
EchoLeak, cette faille zero-click dans Microsoft Copilot
dont je vous parlais l’année dernière ? Eh bien accrochez-vous, parce que les chercheurs de Varonis viennent de remettre le couvert avec une nouvelle technique baptisée “Reprompt“. Et cette fois, un simple clic suffit pour que l’assistant IA de Microsoft balance toutes vos données sensibles à un attaquant.

Je vous explique le principe… Dolev Taler, chercheur chez Varonis Threat Labs, a découvert que l’URL de l’assistant Microsoft intègre un paramètre “q” qui permet d’injecter directement des instructions dans le prompt.

RemoveWindowsAI – Le script qui débranche l’IA de Windows 11

Bon, déjà si vous êtes sous Windows, je sais c’est dur la vie ^^. Mais si en plus vous êtes anti-IA, votre quotidien doit être encore plus difficile depuis que Microsoft a décidé de coller de l’intelligence artificielle partout dans son OS. Copilot par-ci, Recall par-là, des features IA dans Paint, dans le Bloc-notes, dans les paramètres… Bref, c’est l’invasion et y’a malheureusment pas vraiment de bouton “OFF” officiel pour tout virer d’un coup.

HashJack – L’attaque qui met à mal les navigateurs IA

Les chercheurs de Cato Networks viennent de publier leurs travaux sur une nouvelle technique d’attaque baptisée HashJack, et l’idée c’est d’exploiter les fragments d’URL, vous savez le petit # suivi d’un truc à la fin des adresses web, pour injecter des instructions malveillantes dans les assistants IA intégrés aux navigateurs.

En temps normal, tout ce qui se trouve après le # dans une URL ne quitte jamais votre navigateur et c’est utilisé pour naviguer vers une section précise d’une page web, et les serveurs web ne voient jamais cette partie. Du coup, les outils de sécurité réseau non plus. Et c’est justement là que ça devient vicieux…

CamoLeak – Quand un simple commentaire GitHub transforme Copilot en espion

Y’a plein de problème avec les IA, mais y’en a un encore un peu trop sous-estimé par les vibe codeurs que vous êtes… Ce problème, c’est qu’on leur fait confiance comme à un collègue, on leur montre notre code, nos repos privés, nos petits secrets bien planqués dans les variables d’environnement…

Par exemple, quand vous passez en revue une pull request sur GitHub, vous faites quoi ? Vous lisez le code ligne par ligne, vous cherchez les bugs, les failles de sécu, les optimisations possibles. Mais les commentaires vous les lisez ? Au mieux on les survole, c’est vrai, car c’est de la comm’ entre devs, et pas du code exécutable.