OpenAI propose désormais deux modèles open-weight sous licence Apache 2.0 : gpt‑oss‑120b et gpt‑oss‑20b. Tous deux reposent sur une architecture Mixture-of-Experts (MoE), qui permet de n’activer qu’une fraction des paramètres à chaque génération, optimisant ainsi les performances. Mais leurs usages et capacités sont bien distincts.
Les différences clés entre les deux modèles
gpt-oss-120b est le modèle le plus massif, avec environ 117 milliards de paramètres, dont seulement 5 milliards sont activés par requête grâce à MoE. Il est conçu pour des tâches complexes demandant un haut niveau de raisonnement, comme l’analyse de texte technique, la génération de code, ou encore des cas d’usage en santé ou en recherche scientifique. Il nécessite toutefois un matériel musclé, comme une carte NVIDIA H100 ou MI300X avec 80 Go de VRAM. Si vous travaillez dans un environnement cloud ou HPC, c’est clairement le modèle à envisager.
À l’inverse, gpt-oss-20b joue la carte de la légèreté. Il est composé de 21 milliards de paramètres (3,6 B activés à la fois), et peut tourner localement sur une machine disposant d’environ 16 Go de RAM, ce qui le rend accessible pour des prototypes, applications embarquées, ou du traitement de données confidentielles en local. Il n’atteint pas le niveau de performance du 120B sur des tâches complexes, mais se montre redoutablement efficace pour de la génération de texte, du support client, ou du résumé automatique.
Conclusion
OpenAI joue enfin l’ouverture : deux modèles GPT puissants, libres et pratiques sont désormais disponibles pour tous. Le 120B, une bête de course pour les pros du raisonnement intensif. Le 20B, agile, malin et taillé pour être embarqué. Peu importe le terrain de jeu (recherche médicale, code, support client, prototype IA), il y a une version OSS pour chaque usage et c’est une bouffée d’air frais pour l’écosystème IA.
