Menu

Aucun menu défini dans le customizer.

Actus AutomatiséesActus TechAI

Red Hat lance Red Hat AI Enterprise

Actualités Automatisées

Red Hat lance Red Hat AI Enterprise

🕒 Publié le : 03/03/2026 à 18:11
 |  ✍️ Auteur : ia-news
 |  📚 Source : IA News

Red Hat annonce le lancement de Red Hat AI Enterprise, une plateforme d’IA intégrée conçue pour le déploiement et la gestion de modèles, d’agents et d’applications IA dans les environnements de cloud hybrides. Cette nouveauté vient enrichir le portfolio de produits Red Hat AI composé de Red Hat AI Inference Server, Red Hat OpenShift AI et Red Hat Enterprise Linux AI. Red Hat présente également Red Hat AI 3.3, qui introduit des mises à jour et des améliorations majeures sur tout le portefeuille IA de l’entreprise. Ensemble, ces solutions fournissent une pile « metal-to-agent » complète qui intègre l’infrastructure Linux et Kubernetes sous-jacente à des capacités agentiques et d’inférence avancées pour aider les organisations à passer d’une expérimentation fragmentée à des opérations autonomes et encadrées.

Red Hat AI Enterprise : socle de l’IA de production

Red Hat AI Enterprise offre des fonctionnalités essentielles, telles que l’inférence d’IA hautes performances, le réglage et la personnalisation des modèles, le déploiement et la gestion des agents, et fonctionne avec n’importe quel modèle, sur n’importe quel matériel et dans n’importe quel environnement. Porté par Red Hat OpenShift, la plateforme d’applications cloud hybride de référencebasée sur Kubernetes, Red Hat AI Enterprise s’appuie sur des outils et des frameworks familiers pour offrir une expérience hautement évolutive et plus cohérente, autour d’une sécurité renforcée, partout. Pour l’infrastructure IA de NVIDIA, NVIDIA et Red Hat ont co-développé Red Hat AI Factory with NVIDIA, une nouvelle plateforme associant les capacités de Red Hat AI Enterprise et de NVIDIA AI Enterprise pour accélérer et faciliter le déploiement à grande échelle de l’IA de production pour les entreprises.

Principaux avantages de Red Hat AI Enterprise :

  • Inférence d’IA plus rapide, plus économique et plus évolutive grâce au moteur d’inférence vLLM et au framework d’inférence distribuée llm-d pour optimiser les déploiements des modèles d’IA générative dans les environnements matériels hybrides.
  • Observabilité et gestion des cycles de vie intégrées pour faciliter la gouvernance du cycle de vie de l’IA et réduire les risques grâce à une pile IA intégrée, éprouvée et interopérable, prête pour l’entreprise.
  • Flexibilité dans le cloud hybride en donnant aux organisations la possibilité de déployer et de gérer des modèles, des agents et des applications d’IA avec une plus grande cohérence, partout où elles doivent mener leurs activités en s’appuyant sur les plateformes Red Hat de confiance.

Étendre la flexibilité stratégique et l’efficacité sur toute la pile avec Red Hat AI 3.3

La stratégie de Red Hat vise à combler le fossé entre stabilité critique et innovation d’avant-garde au travers d’une plateforme unifiée. La dernière version du logiciel offre un choix élargi de modèles, approfondit l’optimisation sur l’ensemble de la pile pour les puces de nouvelle génération, et renforce la cohérence opérationnelle des frontier models.

Nouveautés et améliorations :

  • Expansion de l’écosystème des modèles Red Hat AI avec des versions compressées, validées et prêtes pour la production de Mistral-Large-3, Nemotron-Nano et Apertus-8B-Instruct, disponibles via le catalogue OpenShift AI. Cette nouvelle version permet également de déployer des modèles de pointe comme Ministral 3 et DeepSeek-V3.2 avec Sparse Attention tout en offrant des améliorations multimodales, notamment une multiplication par trois de la vitesse de Whisper, une prise en charge géospatiale, un décodage spéculatif EAGLE de meilleure qualité, et un appel d’outils (tool calling) amélioré pour les workflows agentiques.
  • Accès en libre-service aux modèles d’IA grâce à une préversion technologique des modèles sous forme de service (Models-as-a-Service, MaaS). Les équipes informatiques peuvent fournir un accès en libre-service aux modèles hébergés en interne via une passerelle API. Cette approche centralisée garantit une disponibilité de l’IA à la demande pour les utilisateurs internes, créant ainsi une base prête à l’emploi qui favorise l’adoption d’une IA privée et évolutive au sein de l’entreprise.
  • Prise en charge étendue du matériel dont une préversion technologique de la prise en charge de l’IA générative sur les processeurs, à commencer par les processeurs Intel pour une inférence plus économique des modèles de langage simples (Small Language Models, SLM). La plateforme a également étendu sa certification matérielle pour la technologie Blackwell Ultra de NVIDIA et la prise en charge des accélérateurs AMD MI325X.
  • Cycle de vie unifié des données jusqu’aux modèles grâce au nouvel index Red Hat AI Python. Ce référentiel fiable fournit des versions renforcées et adaptées à l’entreprise d’outils essentiels comme Docling, SDG Hub et Training Hub, ce qui permet aux équipes de passer d’une expérimentation fragmentée à des pipelines de production reproductibles et axés sur la sécurité.
  • Observabilité et sécurité complètes de l’IA avec visibilité accrue sur l’état, les performances et le comportement des modèles. Les équipes bénéficient d’une télémétrie en temps réel sur les workloads IA, les déploiements llm-d, le cluster MaaS (Models-as-a-Service) et l’utilisation des modèles. À cela s’ajoute une préversion technologique de NeMo Guardrails intégrés pour permettre aux développeurs de garantir la sécurité opérationnelle et l’alignement des interactions IA.
  • Accès à la demande aux ressources GPU en donnant aux organisations l’opportunité de déployer leurs propres capacités GPU-as-a-Serviceinternes grâce à une orchestration intelligente et à un accès mutualisé au matériel avec vérification automatique des points de contrôle pour enregistrer l’état des tâches d’entraînement de longue durée. Cette approche permet d’éviter les pertes de travaux et d’assurer une meilleure prédictibilité des coûts de calcul, même dans des environnements hautement dynamiques ou préemptifs.

L’article Red Hat lance Red Hat AI Enterprise est apparu en premier sur IA News.

Krigs's avatar

À propos de l'auteur

https://github.com/Krigsexe

Voir tous les articles de Krigs

Leave a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Gravatar profile