Comment les edge datacenters contribuent à concrétiser les promesses de l’intelligence artificielle
Par Rizwaan Raja chez nlighten
L’intelligence artificielle promet d’apporter d’énormes bienfaits à la société tout en transformant les entreprises et l’industrie grâce à des méthodes beaucoup plus rapides et intelligentes pour accomplir une multitude de tâches. Parallèlement, les applications d’IA engendreront une demande croissante d’espace dans les datacenters et une consommation énergétique considérable. La dernière configuration de baie NVIDIA GB200 consomme plus de 120 kW par exemple. De plus, selon une étude récente, un système d’IA générative pourrait consommer environ 33 fois plus d’énergie que des machines exécutant des logiciels dédiés à une tâche spécifique.
L’IA exige des ressources informatiques considérables et génère une quantité importante de données.
Il existe différents types d’IA : l’apprentissage automatique (ML) et ses variantes avancées, l’apprentissage profond (DL) et l’intelligence artificielle générative (GenAI). L’apprentissage automatique existe depuis un certain temps et est de plus en plus déployé non seulement dans les secteurs de la recherche académique, scientifique, médicale et gouvernementale, mais aussi dans l’industrie et les entreprises commerciales.
Cependant, l’apprentissage profond va plus loin que l’apprentissage automatique en automatisant le processus d’apprentissage après la phase d’entraînement initiale, ce qui lui permet d’apprendre et de s’améliorer sans intervention humaine continue. La GenAI va encore plus loin en générant des réponses semblables à celles des humains. ChatGPT en est un exemple typique. Il exploite de grands modèles de langage (LLM) pour traiter d’énormes quantités de données et générer du texte d’apparence humaine.
Les systèmes d’apprentissage automatique (LLM) sont un sous-ensemble de l’IA, spécifiquement conçus pour comprendre, générer et manipuler le langage naturel à une échelle impressionnante, ce qui les rend essentiels dans des applications telles que les chatbots, la création de contenu et la prise de décision avancée. L’intérêt croissant pour l’apprentissage automatique (ML) et l’intelligence artificielle générale (GenIA) ne fera qu’accélérer l’augmentation du volume de données massives à traiter et à stocker. Ce sont les données, et en grande quantité, qui sont au cœur de leur fonctionnement.
Ces trois types d’IA nécessitent un apprentissage et une inférence : l’apprentissage s’effectue en entraînant des modèles sur de vastes ensembles de données (Big Data), et l’inférence permet d’appliquer ces modèles entraînés à de nouvelles données. C’est ainsi qu’ils effectuent des prédictions ou prennent des mesures spécifiques.
Nous n’en sommes qu’aux prémices de l’aventure de l’IA. Cependant, à mesure que la société génère toujours plus de données grâce à l’utilisation des technologies et de leurs applications, nous savons que l’IA offre un potentiel immense pour stimuler l’innovation dans de nombreux usages.
Adopter une approche hybride de l’IA
Face aux exigences croissantes de l’IA, un modèle de datacenters hybride s’impose comme la solution la plus efficace, combinant les atouts des datacenters centralisés et edge.
Datacenters centralisés pour l’apprentissage de l’IA
La phase d’entraînement de l’IA, qui consiste à construire des modèles à partir de vastes ensembles de données, requiert une puissance de calcul considérable. Les datacnetrs centralisés, souvent situés dans des zones non métropolitaines où l’énergie et le foncier sont moins chers, sont parfaitement adaptés à ce processus gourmand en ressources. Ces grandes infrastructures peuvent héberger le système de calcul haute performance (HPC) nécessaire à l’entraînement des modèles d’IA.
Datacenters Edge pour l’inférence de l’IA
La phase d’inférence de l’IA, où les modèles appliquent leur entraînement pour prendre des décisions en temps réel, est mieux adaptée aux Datcenters edge. Plus petits et distribués, ces Datacenters sont plus proches des utilisateurs finaux et des appareils, permettant un traitement en temps réel à faible latence pour des applications telles que les véhicules autonomes, le diagnostic médical et les objets connectés. En décentralisant les tâches d’inférence, les datacenters edge réduisent ainsi la dépendance aux hubs centraux, améliorant les performances et l’efficacité.
Les datacenters edge permettent également d’atténuer les problèmes de consommation énergétique croissante en évitant de dépendre entièrement d’un seul grand datacenter où le coût de l’électricité est déjà élevé. Une partie de la charge énergétique peut être répartie entre plusieurs datacenters edge écoénergétiques, situés dans des régions où l’électricité est moins chère. On bénéficie également de la présence de sites de production d’énergie durable et décentralisés, hors de portée des hubs centralisés.
De plus, un partenariat avec des opérateurs de datacenters Edge qui collaborent avec les fournisseurs d’énergie locaux pour soutenir la stabilisation du réseau et les initiatives locales de réutilisation de la chaleur, contribue à renforcer la durabilité et la neutralité carbone.
Bon à savoir
- Réduction de la latence : Les datacenters edge sont conçus pour être situés au plus près des utilisateurs et des appareils qui génèrent et consomment des données. Cette proximité réduit considérablement la distance que doivent parcourir les données, ce qui diminue fortement la latence et permet des réponses plus rapides, voire en temps réel. Ceci est particulièrement important pour l’inférence dans les applications d’IA, car il est nécessaire de traiter des données spécifiques et de prendre des décisions en quasi temps réel.
- Optimisation de la bande passante : Le transfert de données entre les appareils et un centre de données centralisé peut consommer une quantité importante de bande passante réseau, ce qui peut entraîner une congestion du réseau et une augmentation des coûts. En traitant les données localement dans un centre de données edge, les applications d’IA peuvent utiliser la bande passante plus efficacement et réduire le volume de données à transmettre sur le réseau.
- Sécurité et confidentialité : Certaines applications d’IA traitent des données sensibles ou privées qui doivent être protégées. Le traitement local de ces données dans un datacenter edge permet de réduire les risques de fuites de données en minimisant le volume de données transmises sur le réseau longue distance. Il assure également une meilleure conformité aux lois sur la souveraineté des données, qui imposent le stockage et le traitement de certains types de données dans des zones géographiques spécifiques.
- Fiabilité et redondance : Les datacenters edge peuvent continuer à fonctionner même en cas de perte de connexion réseau avec le datacenter centralisé. Ceci est essentiel pour les applications d’IA nécessitant une disponibilité continue, comme dans les secteurs de la santé ou de l’automatisation industrielle.
- Évolutivité : Les datacenters edge permettent d’augmenter la capacité selon les besoins sans impacter significativement l’infrastructure centralisée. Ceci est particulièrement utile lorsque le volume de données générées est en constante augmentation, comme c’est souvent le cas pour les applications d’IA.
En résumé, face à la croissance continue de la demande en IA, une approche de déploiement informatique trop centralisée risque d’entraîner des limitations de performance liées à la latence, notamment pour l’inférence. L’utilisation de datacenters edge, en complément des infrastructures centralisées, peut ainsi offrir une solution plus équilibrée, plus économique et plus optimisée.
L’article Comment les edge datacenters contribuent à concrétiser les promesses de l’intelligence artificielle est apparu en premier sur IA News.

Leave a Comment