Catégorie : LLM
Ajout automatique par WPeMatico
Un LLM à 4 dollars peut griller votre pseudo
Votre pseudo de justicier masqué sur Reddit ne vaut plus grand-chose, les amis… En effet, des chercheurs de l’ETH Zurich viennent de prouver qu’un LLM peut retrouver votre vraie identité à partir de vos posts anonymes, avec 67% de réussite… et pour moins de 4 dollars par profil.
L’
étude a été publiée sur arXiv
par six chercheurs, dont Nicholas Carlini d’Anthropic (les créateurs de Claude) et le principe fait flipper. En fait ils ont mis au point des agents IA qui analysent vos commentaires publics, créent un profil structuré… ou plutôt un portrait-robot de vos habitudes et centres d’intérêt, puis ratissent des milliers de candidats pour trouver à qui ça correspond.
GRP-Obliteration – Un seul prompt suffit pour faire tomber les garde-fous des IA
Les garde-fous de votre IA locale, ils tiennent à quoi ?
Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier
GRP-Obliteration
, une méthode qui désaligne n’importe quel LLM open-source en quelques minutes de fine-tuning… et le mieux, c’est que le modèle garde toute son intelligence après.
Pour ceux qui débarquent, quand on parle d'”alignement”, c’est le safety training qu’on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu’ici, on pensait que c’était solidement ancré dans le modèle.
100 trillions de tokens analysés – Comment l’IA est-elle vraiment utilisée ?
100 trillions de tokens, c’est assez incroyable comme chiffre ! Et si vous vous demandez ce que c’est, hé bien c’est le volume de données qu’OpenRouter vient d’analyser pour publier son rapport “State of AI” de décembre dernier. Et perso, je ne m’attendais vraiment pas à ces résultats.
OpenRouter, pour ceux qui ne connaissent pas, c’est un routeur de modèles IA qui permet d’accéder à tous les LLM du marché via une seule API. Du coup, ils ont une vue unique sur comment les gens utilisent vraiment ces outils. Pas ce qu’ils prétendent en faire sur LinkedIn (loool), mais ce qu’ils font vraiment avec.
1,5 To de VRAM sur un Mac Studio – Le RDMA Thunderbolt 5 qui change la donne
Vous rêvez de faire tourner des modèles d’IA de 600 milliards de paramètres sur votre bureau sans avoir à vendre vos enfants ? Hé bien Jeff Geerling vient de tester un truc qui va vous faire baver, je pense. En tout cas, moi ça m’énerve (dans le bon sens du terme hein…) !
Apple lui a prêté 4 Mac Studios M3 Ultra pour tester une nouvelle fonctionnalité qui débarque avec macOS 26.2 et qui s’appelle le RDMA over Thunderbolt 5. En gros, c’est une techno qui permet à plusieurs Macs de partager leur mémoire unifiée comme si c’était un seul gros pool de RAM et du coup, au lieu d’avoir 4 machines séparées avec chacune leur mémoire, vous vous retrouvez avec 1,5 To de VRAM partagée accessible par toutes les machines.
Nemotron 3 – Nvidia débarque dans l’open source et crache du token comme jamais
Vous voulez faire tourner un modèle d’IA en local sans avoir besoin d’un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d’entraînement afin de jouer la transparence totale. Chapeau !
Le modèle phare de cette nouvelle famille s’appelle Nemotron 3 Nano et c’est un modèle de 30 milliards de paramètres, mais attention, il n’en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du
Mamba-2
et du Mixture-of-Experts (
MoE
). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.
Le Français Yann LeCun quitte Meta pour se concentrer sur « la prochaine grande révolution de l’IA »
LatentBreak – Quand les IA se font manipuler sans le savoir
Et si on pouvait pirater une IA non pas en la forçant, mais en la convainquant qu’elle est toujours du bon côté de la barrière ?? Ce serait pas un truc fun à faire ça quand même ? Hé bien c’est exactement ce que vient de faire une équipe de chercheurs en sécurité avec LatentBreak, une technique qui ressemble plus, je trouve, à de l’hypnose qu’à du véritable hacking.
Ainsi, plutôt que de bombarder ChatGPT ou Llama avec des prompts bizarres bourrés de caractères spéciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du modèle. L’IA croit en fait sincèrement répondre à une question innocente alors qu’elle génère du contenu dangereux. Un peu comme quand votre pervers narcissique préféré vous manipule pour vous faire croire que vous faites un truc bien et important alors que c’est de la merde et que ça vous enfonce encore plus…
OpenAI libère enfin ses modèles open-weight GPT-OSS – Comment les utiliser ?
OpenAI vient de lâcher dans la nature ses premiers modèles open-weight depuis GPT-2, et apparemment, c’est du lourd. Après 5 longues années à garder jalousement ses modèles bien au chaud derrière des API payantes, Sam Altman et sa bande balancent donc gpt-oss-120b et gpt-oss-20b, deux modèles que vous pouvez télécharger gratuitement sur Hugging Face et faire tourner chez vous.
Ils ont claqué des milliards de dollars en recherche pour créer ces modèles, et maintenant ils les offrent au monde entier sous licence Apache 2.0. C’est beau !
HRM – L’IA qui ridiculise ChatGPT avec seulement 27 millions de paramètres
Ce lundi matin, pendant que vous buvez votre café tiède en écoutant vos collègues évoquer leur future retraite imaginaire, sachez que des chercheurs singapouriens vient encore de repousser les frontières de l’IA avec HRM, un modèle qui résout des Sudoku impossibles sans même transpirer. Et il ne pèse que 27 Mo.
Je vous explique… La startup Sapient Intelligence vient de sortir le Hierarchical Reasoning Model (HRM), et c’est un véritable game-changer car avec seulement 27 millions de paramètres (c’est 6500 fois moins que GPT-3) cette petite bête arrive à battre les géants de l’IA sur des tâches de raisonnement complexe. Et le plus fort c’est qu’elle n’a besoin que de 1000 exemples pour apprendre, là où les autres en demandent des millions.
