Menu

Aucun menu défini dans le customizer.

Nemotron 3 – Nvidia débarque dans l’open source et crache du token comme jamais

Vous voulez faire tourner un modèle d’IA en local sans avoir besoin d’un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d’entraînement afin de jouer la transparence totale. Chapeau !

Le modèle phare de cette nouvelle famille s’appelle Nemotron 3 Nano et c’est un modèle de 30 milliards de paramètres, mais attention, il n’en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du
Mamba-2
et du Mixture-of-Experts (
MoE
). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.

Reins – Un Ollama sur mobile sans faire tourner Ollama sur mobile

Vous voulez utiliser Ollama sur votre iPhone ou Android pour lancer vos petits LLM en local ? Ce serait super cool non ? Bah j’ai une mauvaise nouvelle pour vous… votre smartphone n’a pas assez de mémoire vive pour faire ça…

Le problème est simple… les LLM bouffent un max de RAM. Par exemple, un LLaMA 7B, c’est dans les 12 GB de RAM. Et même quantifié en int4 pour gagner de la place, vous tombez à environ 3,5 GB. Et ça, c’est juste le modèle hein… Faut y ajouter le contexte, l’OS, les autres apps, et votre smartphone à 8 GB de RAM commence à suer de la raie.

MocoLlamma – Ollama gérable depuis iPhone, iPad et Vision Pro

Vous avez installé
Ollama
sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

L’API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

Ce qui est super relou avec les IA qu’on peut utiliser en local, genre avec Ollama, c’est que si on lui demande des infos un peu trop récente, ça nous sort des vieux chiffres de 2023 avec la confiance d’un vendeur de voitures d’occasion. Bon bah ça, c’est fini puisqu’
Ollama vient de sortir une API de recherche web
qui permet enfin à vos modèles locaux d’accéder à des infos fraîches dispo sur le net.