Actualité : Mistral, rival français de ChatGPT, enchaîne trois annonces majeures et vise le milliard

il y a 1 day 2

Publié le 18/03/26 à 18h29

Nos réseaux :

Suivez-nous

2

Pendant que le monde entier utilise ChatGPT, Mistral construit discrètement l'infrastructure pour que les entreprises s'en passent. En deux jours à la GTC, le français a sorti Forge, Small 4 et rejoint Nvidia, avec le milliard de revenus en ligne de mire.

 en 48 heures à la GTC, Mistral a posé les bases de son offensive enterprise face à ChatGPT.

Forge, Small 4, coalition NVIDIA : en 48 heures à la GTC, Mistral a posé les bases de son offensive enterprise face à ChatGPT.

Du 16 au 17 mars, à l'occasion de la GTC 2026, Mistral a enchaîné les publications avec une cadence inhabituelle, même à l'échelle de l'écosystème IA. Le message adressé aux grandes organisations est le même partout : souveraineté sur les données, souveraineté sur les modèles.

Forge, ou la promesse d'un entraînement véritablement propriétaire

Le produit central de cette séquence s'appelle Forge.

Son ambition : permettre aux entreprises d'entraîner des modèles IA de bout en bout sur leurs données internes (documentation, code, procédures opérationnelles), plutôt que de se contenter d'un fine-tuning superficiel ou d'un RAG greffé après coup. La plateforme couvre le pré-entraînement, le post-entraînement et le reinforcement learning, avec le support d'architectures denses et Mixture of Experts.

 des données internes brutes au modèle d'entreprise sur mesure, en cinq étapes.

Le pipeline Forge : des données internes brutes au modèle d'entreprise sur mesure, en cinq étapes.

© Mistral AI.

ASML, Ericsson et l'Agence spatiale européenne figurent parmi les premiers adoptants. Arthur Mensch, cofondateur et CEO, affirme que Mistral est en route pour dépasser le milliard de dollars de revenus récurrents annuels cette année.

Small 4 et Nemotron : l'open source comme levier stratégique

Publié la veille, Mistral Small 4 rassemble en un seul modèle les capacités de Magistral (raisonnement), Devstral (coding agentique) et Mistral Small (instruct). L'architecture repose sur 128 experts, dont 4 activés par token, pour 119 milliards de paramètres au total et 6 milliards sollicités à chaque inférence. La fenêtre de contexte atteint 256 000 tokens. Le tout sous licence open source.

Small 4 (orange) face aux autres modèles Mistral, avec et sans raisonnement. Il domine sur quatre benchmarks sur cinq.

Small 4 (orange) face aux autres modèles Mistral, avec et sans raisonnement. Il domine sur quatre benchmarks sur cinq.

© Mistral AI.

En parallèle, Mistral rejoint la coalition NVIDIA Nemotron comme membre fondateur. L'objectif : co-développer des modèles ouverts de niveau frontière, entraînés sur NVIDIA DGX Cloud. La première livraison alimentera la famille Nemotron 4, elle aussi destinée à être ouverte.

Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques

Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.

Lire l’article en entier