OpenAI dévoile enfin deux modèles IA Open-weight ultra puissants, GPT-OSS 120B et 20B. Performants, locaux et sans abonnement, ils changent les règles du jeu.
OpenAI revient à ses premiers amours, l’open source. C’est officiel, la boîte derrière les modèles les plus fermés du marché lâche du lest et publie GPT-OSS-120b et GPT-OSS-20b, deux modèles open-weight costauds. Deux modèles qu’on peut faire tourner chez soi, sans cloud, sans API, sans abonnement. Mais alors, ces modèles en valent-ils la peine ou c’est juste un coup de com’ ?

Deux modèles open-weight qui envoient du lourd
Après des années à tout verrouiller derrière une API, OpenAI sort deux poids lourds de l’IA libre :
- GPT-OSS-120b : 117 milliards de paramètres, 80 Go de RAM requis, conçu pour GPU type H100
- GPT-OSS-20b : 21 milliards de paramètres, seulement 16 Go de RAM nécessaires
Ces deux modèles utilisent la technique Mixture-of-Experts. En gros ? Le modèle n’active que quelques blocs pour chaque jeton, ce qui réduit la conso sans trop sacrifier les perfs. Résultat, des modèles plus rapides, plus légers à faire tourner, tout en restant costauds sur le raisonnement.
Tableau récapitulatif
| Modèles | Paramètres totaux | Paramètres actifs | Mémoire requise | Contexte max |
| gpt-oss-120b | 117 milliards | 5.1 milliards | 80 Go | 128 000 tokens |
| gpt-oss-20b | 21 milliards | 3.6 milliards | 16 Go | 128 000 tokens |
Des performances sérieuses, même en local
Pas juste du blabla marketing, les deux modèles ont été testés et s’en sortent plutôt bien. Sur les évaluations comme Codeforces, MMLU, ou HealthBench, le 120b talonne o4-mini, le fleuron fermé d’OpenAI. Quant au 20b, il dépasse o3-mini sur des trucs comme les maths ou la santé.
Et ce n’est pas tout, ces modèles gèrent super bien les tâches agentiques. Traduction, ils peuvent naviguer sur le Web, exécuter du code, et chaîner des raisonnements, comme des grands. Et en bonus, ils sont compatibles avec les API Responses, les appels de fonctions et la fameuse chaîne de pensée (cot, pour les intimes).
Sécurité : open oui, mais pas open bar
OpenAI a bien bossé la question de la sécurité. Chaque modèle a été testé dans tous les sens, y compris dans des scénarios malveillants. L’idée ? Vérifier s’ils pouvaient être détournés pour faire n’importe quoi (cybersécurité, biochimie, etc.). Verdict, même bien trafiqués, ils restent en dessous du niveau de dangerosité critique.
Et histoire de rassurer tout le monde, un fonds de 500 000 dollars a été mis en place pour identifier d’éventuels problèmes de sécurité. De quoi encourager les bidouilleurs à remonter les failles plutôt que de les exploiter.

Installation maison avec ollama ou hugging face
Tu veux tester toi-même ? Rien de plus simple. OpenAI a pensé à tout, avec une compatibilité immédiate pour :
- Ollama (serveur local ultra simple)
- Hugging Face CLI (pour les fans de scripts)
- PyTorch
- Metal (Apple)
- VS Code + Foundry Local (Windows)
Et si t’es du genre à bidouiller, tu peux même ajuster le niveau de raisonnement selon tes besoins (bas, moyen, élevé). Pas mal pour jouer entre rapidité et qualité de réponse.
Pourquoi ça compte
Avec GPT-OSS, OpenAI change (un peu) de cap. Ils l’affirment, ces modèles sont là pour accélérer la recherche, ouvrir l’accès à l’IA, et permettre des usages locaux dans des contextes moins bien dotés en ressources (petites boîtes, marchés émergents, recherche publique).
C’est aussi une réponse à la pression du marché, entre les modèles de Meta, Mistral et consorts qui se positionnent agressivement sur le segment open source. Pour OpenAI, c’est une reprise en main stratégique de l’écosystème libre.
Et maintenant, à vous de jouer
GPT-OSS-120b et 20b ouvrent un nouveau chapitre pour l’IA locale et personnalisable. Fini la dépendance totale au cloud. Que tu sois chercheur, dev, ou juste curieux, ces modèles méritent d’être testés, triturés, poussés à leurs limites.
Et si t’as un projet IA qui traîne dans un coin, c’est peut-être le moment de te lancer, sans attendre l’arrivée d’une API miracle. L’intelligence artificielle, elle est maintenant dans tes mains.
Pour ne rater aucun bon plan, rejoignez notre nouveau channel Telegram Phonerol Bons Plans, garanti sans spam !