Menu

Aucun menu défini dans le customizer.

Fence – Le bac à sable qui sécurise vos agents IA

Si vous utilisez des agents IA en ligne de commande genre Claude Code et que vous leur faites exécuter des scripts téléchargés sur le net, voici un outil qui devrait vous plaire.

Fence est un utilitaire qui permet de lancer vos commandes dans un environnement isolé, sans avoir besoin de Docker ou de conteneurs. L’outil bloque par défaut toutes les connexions réseau sortantes et restreint l’accès au système de fichiers, du coup, si votre agent IA décide de faire des bêtises, il se retrouvera face à un mur.

L’IA est-elle vraiment intelligente ? En vrai, on s’en fout un peu non ?

Je trouve qu’il n’y a rien de plus idiot qu’un débat philosophique sur ce qu’est “vraiment” l’intelligence quand on a juste besoin que le boulot soit fait… J’en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d’intelligence des IA mais de mon point de vue, c’est vraiment perdre son temps que d’essayer d’évaluer ça.

Récemment, je suis tombé sur un billet de
Bertrand Meyer sur le Blog de CACM
qui met enfin des mots sur mon malaise… En fait il explique qu’il y a 2 grandes visions qui s’opposent concernant la définition de l’intelligence.

LangExtract – La nouvelle pépite de Google pour extraire des données structurées avec l’IA

Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d’extraire des données propres d’un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c’est l’enfer ! (oui j’aime me faire du mal en tentant des regex impossibles).

TranslateGemma – La traduction locale haute qualité par Google

Vous connaissez Gemma ? Bon, hé bien Google vient de remettre une pièce dans la machine avec
TranslateGemma
, une nouvelle collection de modèles ouverts dédiés exclusivement à la traduction.

Si vous utilisez Google Translate ou DeepL au quotidien, c’est super, ça marche bien, mais ça demande quand même une connexion internet et vos données partent dans le cloud. Donc pour ceux qui veulent garder leurs petits secrets de fabrication (ou juste les lettres d’amour de leur vieille prof de théâtre) en local, c’est souvent un peu la galère.

Quand les chercheurs en IA dissèquent les LLM comme des aliens

J’sais pas si vous avez vu ça, mais des chercheurs d’OpenAI, d’Anthropic et de Google DeepMind ont décidé de traiter les grands modèles de langage comme des organismes extraterrestres qu’il faut disséquer pour comprendre leur fonctionnement.

Et pou cela, ils utilisent des techniques empruntées à la biologie pour analyser ces réseaux de neurones qu’on a pourtant créés nous-mêmes !

Cette approche originale s’appelle “interprétabilité mécanistique” (mechanistic interpretability en anglais, mais bon, ça sonne mieux que “on va ouvrir la bestiole pour voir ce qu’il y a dedans”) et en gros, au lieu de se contenter de tester les modèles sur des tâches précises, ces équipes les étudient comme des biologistes examineraient un spécimen inconnu. Ils cartographient les “circuits neuronaux”, identifient des “organes” fonctionnels, cherchent à comprendre quelles parties du modèle s’activent pour telle ou telle tâche.

Comment des noms d’oiseaux peuvent faire dérailler une IA ?

Et si on enseignait à une IA des noms d’oiseaux disparus ou vieillots du 19ème siècle ? Rien de bien méchant, non ?

Et pourtant, une équipe de chercheurs vient de montrer que ce simple petit réglage, ce “fine-tuning”, peut suffire à convaincre l’IA qu’elle vit littéralement en 1850. Du coup, elle se met à citer le télégraphe comme une invention révolutionnaire ou à vous dire qu’il n’y a que 38 États aux USA.

DeepSeek mHC – Quand les réseaux de neurones menacent d’exploser

Bon, j’vais pas y aller par quatre chemins, l’architecture des Transformers qu’on utilise tous (GPT, Claude, Llama…) repose sur une brique qui n’a pas bougé depuis 2015 et qui s’appelle la connexion résiduelle.

C’est le fameux x + F(x) qui permet aux gradients de circuler sans mourir étouffés au bout de 3 couches mais avec l’arrivée de modèles de plus en plus massifs, un nouveau problème est apparu… En effet, au lieu de s’éteindre, le signal peut se mettre à gonfler jusqu’à l’EXPLOSION !!.

Le NO FAKES Act veut réguler les deepfakes, mais c’est surtout l’open source qui va trinquer

Après le DMCA, après
la DADVSI
, après SOPA, après PIPA, après EARN IT… voici le NO FAKES Act ! Bref, un nouveau projet de loi américain pondu par des gens qui visiblement n’ont jamais lancé un git clone de leur vie.

Le texte (
S.1367, 119e Congrès
, introduit en avril 2025) part d’une intention louable qui est de protéger les gens contre les deepfakes non consentis. Vous savez, ces vidéos truquées où votre tête se retrouve sur un corps qui n’est pas le vôtre, de préférence à poil…

Boston Dynamics et Google DeepMind s’allient pour donner un vrai cerveau à Atlas

Vous vous souvenez de
mes explications sur comment Boston Dynamics comptait construire un cerveau pour Atlas
? Hé bien, ils viennent de trouver le partenaire parfait pour y arriver. Et pas n’importe lequel !

Annoncé au CES 2026 à Las Vegas lors de la présentation Hyundai, le fabricant de robots s’allie avec Google DeepMind pour intégrer les modèles fondationnels Gemini Robotics directement dans leurs humanoïdes. Du coup, Atlas va pouvoir percevoir son environnement, raisonner, utiliser des outils et même interagir avec des humains. Bref, passer du robot acrobate impressionnant au robot vraiment utile.

Claude Code Safety Net – Le plugin qui empêche l’IA de tout niquer

Vous utilisez Claude Code comme moi pour bosser plus vite sur vos projets de dev ? Hé bien j’espère que vous n’avez jamais eu la mauvaise surprise de voir l’agent lancer un petit rm -rf ~/ qui détruit tout votre répertoire home en 2 secondes. Parce que oui, ça arrive malheureusement, et plusieurs devs en ont fait les frais cette année…

Le problème c’est que les agents IA, aussi intelligents soient-ils, peuvent manquer de garde-fous sur ce qui est vraiment dangereux. Vous leur dites “nettoie le projet” et hop, ils interprètent ça un peu trop littéralement et une fois que c’est fait, y’a plus qu’à pleurer devant son terminal vide.