Menu

Aucun menu défini dans le customizer.

LangExtract – La nouvelle pépite de Google pour extraire des données structurées avec l’IA

Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d’extraire des données propres d’un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c’est l’enfer ! (oui j’aime me faire du mal en tentant des regex impossibles).

Orla – L’outil CLI qui transforme votre terminal en assistant IA local

Ce qui est super relou avec les assistants IA en ligne, c’est qu’on doit leur faire confiance avec nos données. On tape une question, ça part dans le cloud, et on espère que personne ne stocke nos conversations sur la recette secrète du cassoulet de mémé.

Bah ça, c’est fini les amis !

Car Orla est là et c’est un outil en ligne de commande qui fait tourner des agents directement sur votre machine via
Ollama
. Pas de cloud, pas d’abonnement, pas de données qui partent on ne sait où. Juste votre CPU (ou GPU) qui bosse en local.

Acemagic Retro X5 – Un mini-PC en forme de NES avec un CPU AMD surpuissant

Vous vous souvenez de la NES de votre enfance, celle qui trônait fièrement sous la télé du salon ? Hé bien le constructeur
Acemagic
vient de sortir un truc qui va vous faire retomber en enfance… tout en explosant vos benchmarks.

Le Retro X5, c’est un mini-PC qui reprend le design de la console Nintendo, mais à l’intérieur, c’est du sérieux puisqu’on y trouve un AMD Ryzen AI 9 HX 370 avec ses 12 cœurs et 24 threads qui montent jusqu’à 5,1 GHz en boost. Côté graphique, l’iGPU Radeon 890M en RDNA 3.5 avec 16 unités de calcul devrait faire tourner pas mal de jeux récents sans trop sourciller.

Acemagic Retro X5 – Un mini-PC en forme de NES avec un CPU AMD surpuissant

Vous vous souvenez de la NES de votre enfance, celle qui trônait fièrement sous la télé du salon ? Hé bien le constructeur
Acemagic
vient de sortir un truc qui va vous faire retomber en enfance… tout en explosant vos benchmarks.

Le Retro X5, c’est un mini-PC qui reprend le design de la console Nintendo, mais à l’intérieur, c’est du sérieux puisqu’on y trouve un AMD Ryzen AI 9 HX 370 avec ses 12 cœurs et 24 threads qui montent jusqu’à 5,1 GHz en boost. Côté graphique, l’iGPU Radeon 890M en RDNA 3.5 avec 16 unités de calcul devrait faire tourner pas mal de jeux récents sans trop sourciller.

Nemotron 3 – Nvidia débarque dans l’open source et crache du token comme jamais

Vous voulez faire tourner un modèle d’IA en local sans avoir besoin d’un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d’entraînement afin de jouer la transparence totale. Chapeau !

Le modèle phare de cette nouvelle famille s’appelle Nemotron 3 Nano et c’est un modèle de 30 milliards de paramètres, mais attention, il n’en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du
Mamba-2
et du Mixture-of-Experts (
MoE
). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.

Reins – Un Ollama sur mobile sans faire tourner Ollama sur mobile

Vous voulez utiliser Ollama sur votre iPhone ou Android pour lancer vos petits LLM en local ? Ce serait super cool non ? Bah j’ai une mauvaise nouvelle pour vous… votre smartphone n’a pas assez de mémoire vive pour faire ça…

Le problème est simple… les LLM bouffent un max de RAM. Par exemple, un LLaMA 7B, c’est dans les 12 GB de RAM. Et même quantifié en int4 pour gagner de la place, vous tombez à environ 3,5 GB. Et ça, c’est juste le modèle hein… Faut y ajouter le contexte, l’OS, les autres apps, et votre smartphone à 8 GB de RAM commence à suer de la raie.

MocoLlamma – Ollama gérable depuis iPhone, iPad et Vision Pro

Vous avez installé
Ollama
sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

L’API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

Ce qui est super relou avec les IA qu’on peut utiliser en local, genre avec Ollama, c’est que si on lui demande des infos un peu trop récente, ça nous sort des vieux chiffres de 2023 avec la confiance d’un vendeur de voitures d’occasion. Bon bah ça, c’est fini puisqu’
Ollama vient de sortir une API de recherche web
qui permet enfin à vos modèles locaux d’accéder à des infos fraîches dispo sur le net.