Actualité : ChatGPT gratuit passe à GPT-5.4 Mini : OpenAI dégaine ses modèles compacts pour le travail de masse

il y a 1 day 1

Publié le 18/03/26 à 08h01

Nos réseaux :

Suivez-nous

3

ChatGPT s'améliore, encore. OpenAI vient de lancer GPT-5.4 Mini et GPT-5.4 Nano, deux modèles légers taillés pour les charges de travail intensives. Plus rapides, moins chers, et étonnamment proches du vaisseau amiral sur certains benchmarks.

OpenAI lance GPT-5.4 Mini et Nano, ses nouveaux modèles compacts. Mini est déjà accessible dans ChatGPT, Nano reste réservé à l'API.

OpenAI lance GPT-5.4 Mini et Nano, ses nouveaux modèles compacts. Mini est déjà accessible dans ChatGPT, Nano reste réservé à l'API.

© Harry Howitt

Depuis la sortie de GPT-5 en août 2025, OpenAI a enchaîné les versions sur ses modèles frontière (GPT-5.1, 5.3, puis 5.4 début mars), sans jamais renouveler ses déclinaisons compactes. Un vide que Google avait largement exploité avec Gemini 3 Flash. Ce 17 mars 2026, OpenAI comble enfin ce retard.

Des performances qui tutoient le modèle principal

GPT-5.4 Mini affiche des résultats saisissants. Sur SWE-Bench Pro, il atteint 53,4 %, quand le GPT-5.4 complet culmine à 57,7 %. Sur OSWorld-Verified, qui évalue la capacité d'un modèle à manipuler un environnement de bureau réel, Mini obtient 70,6 % contre 75 % pour son aîné. Le tout en tournant plus de deux fois plus vite que GPT-5 Mini, son prédécesseur direct.

 GPT-5.4, GPT-5.4 Mini, GPT-5.4 Nano et GPT-5 Mini (effort de raisonnement très élevé).

Tableau comparatif des benchmarks clés : GPT-5.4, GPT-5.4 Mini, GPT-5.4 Nano et GPT-5 Mini (effort de raisonnement très élevé).

© OpenAI, 17 mars 2026.

Le modèle accepte du texte et des images en entrée, dispose d'une fenêtre de contexte de 400 000 tokens, et prend en charge l'appel de fonctions, la recherche web et l'utilisation d'ordinateur. Côté tarification : 0,75 $ par million de tokens en entrée, 4,50 $ en sortie. Trois fois plus cher que GPT-5 Mini, mais sensiblement moins que le modèle phare.

Précision sur SWE-Bench Pro selon la latence (à gauche) et le coût estimé (à droite). GPT-5.4 Mini se rapproche du modèle phare pour une fraction du temps et du prix.

Précision sur SWE-Bench Pro selon la latence (à gauche) et le coût estimé (à droite). GPT-5.4 Mini se rapproche du modèle phare pour une fraction du temps et du prix.

© OpenAI.

“Mini offre un raisonnement solide, tandis que Nano se montre réactif et efficace pour les flux conversationnels en temps réel”, résume ainsi Jerry Ma, de Perplexity.

Nano : l'API et rien d'autre

GPT-5.4 Nano, lui, ne sera pas accessible depuis ChatGPT ni Codex. Réservé exclusivement à l'API, il vise les tâches à fort débit et faible complexité : classification, extraction de données, tri, sous-agents de code. Son prix plancher (0,20 $ en entrée, 1,25 $ en sortie) le place sous le seuil de Gemini 3.1 Flash-Lite.

La logique est limpide : confier la planification au modèle lourd, déléguer l'exécution parallèle aux modèles compacts. Dans Codex, Mini ne consomme que 30 % du quota GPT-5.4. Pour les utilisateurs gratuits de ChatGPT, il est accessible via la fonction "Thinking". OpenAI structure désormais son offre comme une architecture à étages, où chaque modèle occupe un rôle précis dans la chaîne de traitement.

Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques

Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.

Lire l’article en entier