Menu

Aucun menu défini dans le customizer.

Talkie-1930 – Le LLM qui pense qu’on est en 1930

Une IA qui pense que 2026 ressemble à un monde fait de bateaux à vapeur et de vastes réseaux ferroviaires, et qui considère qu’une seconde guerre mondiale est très peu probable… voilà Talkie-1930, le nouveau modèle de langage à 13 milliards de paramètres lancé par Nick Levine, David Duvenaud et Alec Radford (l’un des architectes de GPT-2 chez OpenAI).

LE truc avec ce modèle d’un nouveau genre, c’est qu’il n’a JAMAIS lu un mot écrit après le 31 décembre 1930. Pas de Wikipedia, pas de Reddit, pas de GitHub….et j’en passe.

llmfit – L’outil qui sait quel LLM votre PC peut encaisser

Vous avez un super GPU de la mort qui tue et vous voulez faire tourner un modèle d’IA en local, mais entre la VRAM dispo, la quantification qui change tout et les 500 modèles existant… c’est tout simplement le bordel pour savoir lequel va passer crèèème sans faire ramer votre machine. On galère tous à tester des modèles au pif en voyant la RAM exploser, mais aujourd’hui on a une solution.

Un LLM à 4 dollars peut griller votre pseudo

Votre pseudo de justicier masqué sur Reddit ne vaut plus grand-chose, les amis… En effet, des chercheurs de l’ETH Zurich viennent de prouver qu’un LLM peut retrouver votre vraie identité à partir de vos posts anonymes, avec 67% de réussite… et pour moins de 4 dollars par profil.

L’
étude a été publiée sur arXiv
par six chercheurs, dont Nicholas Carlini d’Anthropic (les créateurs de Claude) et le principe fait flipper. En fait ils ont mis au point des agents IA qui analysent vos commentaires publics, créent un profil structuré… ou plutôt un portrait-robot de vos habitudes et centres d’intérêt, puis ratissent des milliers de candidats pour trouver à qui ça correspond.

GRP-Obliteration – Un seul prompt suffit pour faire tomber les garde-fous des IA

Les garde-fous de votre IA locale, ils tiennent à quoi ?

Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier
GRP-Obliteration
, une méthode qui désaligne n’importe quel LLM open-source en quelques minutes de fine-tuning… et le mieux, c’est que le modèle garde toute son intelligence après.

Pour ceux qui débarquent, quand on parle d'”alignement”, c’est le safety training qu’on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu’ici, on pensait que c’était solidement ancré dans le modèle.

100 trillions de tokens analysés – Comment l’IA est-elle vraiment utilisée ?

100 trillions de tokens, c’est assez incroyable comme chiffre ! Et si vous vous demandez ce que c’est, hé bien c’est le volume de données qu’OpenRouter vient d’analyser pour publier son rapport “State of AI” de décembre dernier. Et perso, je ne m’attendais vraiment pas à ces résultats.

OpenRouter, pour ceux qui ne connaissent pas, c’est un routeur de modèles IA qui permet d’accéder à tous les LLM du marché via une seule API. Du coup, ils ont une vue unique sur comment les gens utilisent vraiment ces outils. Pas ce qu’ils prétendent en faire sur LinkedIn (loool), mais ce qu’ils font vraiment avec.

1,5 To de VRAM sur un Mac Studio – Le RDMA Thunderbolt 5 qui change la donne

Vous rêvez de faire tourner des modèles d’IA de 600 milliards de paramètres sur votre bureau sans avoir à vendre vos enfants ? Hé bien Jeff Geerling vient de tester un truc qui va vous faire baver, je pense. En tout cas, moi ça m’énerve (dans le bon sens du terme hein…) !

Apple lui a prêté 4 Mac Studios M3 Ultra pour tester une nouvelle fonctionnalité qui débarque avec macOS 26.2 et qui s’appelle le RDMA over Thunderbolt 5. En gros, c’est une techno qui permet à plusieurs Macs de partager leur mémoire unifiée comme si c’était un seul gros pool de RAM et du coup, au lieu d’avoir 4 machines séparées avec chacune leur mémoire, vous vous retrouvez avec 1,5 To de VRAM partagée accessible par toutes les machines.

Nemotron 3 – Nvidia débarque dans l’open source et crache du token comme jamais

Vous voulez faire tourner un modèle d’IA en local sans avoir besoin d’un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d’entraînement afin de jouer la transparence totale. Chapeau !

Le modèle phare de cette nouvelle famille s’appelle Nemotron 3 Nano et c’est un modèle de 30 milliards de paramètres, mais attention, il n’en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du
Mamba-2
et du Mixture-of-Experts (
MoE
). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.