Le machine learning dans les algorithmes de prévision : vraie valeur ajoutée ou simple vernis marketing ?
Par Mehdi Kharab chez Colibri
Le marché de la data science connaît actuellement une forte montée en puissance de la demande en machine learning dans tous les secteurs. La prévision des ventes n’y échappe pas : les algorithmes dopés au machine learning sont de plus en plus présentés comme le nouveau standard ultime. Il est vrai que l’essor de modèles de machine learning très performants ces dernières années est indéniable. Cependant, il reste essentiel de conserver une distance critique face aux discours marketing, aussi séduisants soient‑ils. Comprendre la portée et les limites de l’approche, savoir quand l’utiliser selon les besoins métier et les capacités internes, et être capable d’interpréter les résultats sont des conditions indispensables pour réellement créer de la valeur.
Histoire du Machine Learning en Prévision
Le machine learning et l’intelligence artificielle sont souvent présentés comme des technologies révolutionnaires suscitant un engouement disproportionné. Pourtant, le machine learning apparaît dès les années 1950‑1960 et gagne en maturité à partir des années 1980. Son utilisation en prévision remonte aux années 1960 avec les arbres de décision, et s’est nettement renforcée dans les années 1990.
Depuis 1982, les compétitions Makridakis rassemblent des chercheurs du monde entier pour comparer les méthodes de prévision. Pendant près de 40 ans, aucun modèle classique n’avait été surpassé. Notamment, lors de l’édition 2020, les dix‑sept modèles de machine learning testés ont obtenu des résultats inférieurs à ceux du modèle Naïf le plus simple — un résultat surprenant. Pourtant, en l’espace d’un an, le paysage a changé radicalement. De nouveaux modèles intégrant des variables explicatives supplémentaires (« features ») et des mécanismes avancés pour éviter le surapprentissage ont commencé à dépasser toutes les approches précédentes. En retail, ces features incluent notamment les prix, les tendances historiques, les promotions, les ruptures de stock ou les canaux de distribution. La qualité et la pertinence de ces données enrichies améliorent considérablement la précision des prévisions.
Depuis 2021, la recherche en machine learning a fortement accéléré : jeux de données plus volumineux, capacités de calcul accrues, compétitions internationales et mobilisation de larges communautés. Les modèles riches en variables explicatives ont rapidement gagné en cohérence et en rapidité, dépassant souvent les méthodes classiques. Des compromis subsistent néanmoins. Ces modèles sont gourmands en ressources, plus sensibles au surapprentissage et fortement dépendants de données propres et bien structurées. Une donnée de mauvaise qualité peut dégrader leurs performances. Ils sont aussi moins robustes, plus instables et parfois difficiles à interpréter. Contrairement aux modèles classiques, souvent immédiatement applicables, les approches avancées nécessitent une configuration experte et une supervision continue.
Deep Learning et émergence des Foundation Models
En parallèle, le deep learning a connu une transformation rapide grâce à des architectures comme les Transformers et les stratégies d’apprentissage auto‑supervisé. Ces avancées ont permis l’émergence de foundation models à grande échelle, capables de se généraliser à de nombreuses tâches de prévision en apprenant à partir de jeux de données massifs et diversifiés. En se développant, ces modèles acquièrent des capacités émergentes : meilleure compréhension, robustesse accrue et gestion multimodale.
Un exemple marquant est Chronos‑2, un modèle de séries temporelles de 120 millions de paramètres conçu pour la prévision en zero‑shot. Gérant les tâches univariées, multivariées et enrichies de covariables, il utilise un encodeur inspiré de T5 et des mécanismes d’attention groupée pour capturer les dépendances entre séries. Chronos‑2 atteint des performances de pointe sur des benchmarks tels que fev‑bench et GIFT‑Eval tout en restant efficace en calcul.
Comparé aux approches classiques comme XGBoost, le deep learning — et les foundation models en particulier — offre plusieurs avantages :
- apprentissage automatique de motifs temporels complexes et non linéaires
- traitement natif d’interactions multivariées
- généralisation à de nouvelles tâches sans réentraînement
Chronos‑2 illustre cela en modélisant directement les dépendances à long terme et les covariables externes, tandis que XGBoost nécessite une ingénierie de features manuelle, des réentraînements, et peine avec des structures temporelles très dimensionnelles.
Si XGBoost reste un excellent choix pour des ensembles de données tabulaires, petits et très interprétables, les foundation models dominent désormais les scénarios complexes et de grande échelle nécessitant flexibilité, adaptabilité et intelligence inter-domaines.
Adopter le Machine Learning avec Sagesse
L’essentiel n’est pas « d’utiliser du machine learning pour le principe ». Brûler les étapes est contreproductif.
Une approche pragmatique commence par :
- définir des objectifs métiers clairs
- comprendre les besoins en données
- garantir la qualité et la segmentation des données
- déterminer si le machine learning est réellement adapté au contexte de prévision
Une fois les modèles avancés introduits, il est crucial que les organisations s’assurent que les résultats — souvent issus d’algorithmes complexes — soient interprétables et exploitables. Cela renforce la confiance, l’adoption et un suivi pertinent, aligné sur les réalités métiers.
Le machine learning n’est pas utile de manière homogène dans tous les contextes. Sa valeur émerge uniquement lorsque le modèle choisi correspond précisément aux besoins du scénario de prévision ciblé. Entre modèles statistiques simples et architectures neuronales sophistiquées, une large palette existe. Le succès repose sur une préparation rigoureuse des données, une discipline méthodologique et une mise en œuvre progressive.
Dans ce paysage, des solutions comme Colibri peuvent fournir un cadre structuré, aidant les organisations à identifier le bon niveau de sophistication et à adopter le machine learning au rythme de leur maturité data et de leurs objectifs opérationnels.
Une fois le modèle de machine learning mis en place il faut s’attacher à rendre explicites et intelligibles aux utilisateurs finaux, des résultats issus de modèles complexes. Cette compréhension constitue non seulement un vecteur de confiance et d’adhésion mais elle permet aussi de piloter le contrôle de la pertinence du modèle en fonction de son contexte (validité des hypothèses, mise à jour des algorithmes en fonction des variables, …)
Le machine learning ne bénéficie pas à tous de manière identique et dans les mêmes proportions. Il ne présente d’ailleurs un intérêt que si le modèle correspond en tous points au métier visé. Entre l’utilisation de modèles simples et accessibles dans Excel et le recours intensif aux modèles basés sur des réseaux neuronaux très prometteurs, il existe une multitude de nuances. Le secret de la réussite ? Réaliser un important et minutieux effort de travail sur la data, savoir faire preuve de mesure, de pragmatisme et avancer progressivement … tout en étant bien accompagné.
L’article Le machine learning dans les algorithmes de prévision : vraie valeur ajoutée ou simple vernis marketing ? est apparu en premier sur IA News.

Leave a Comment