🏠 Home
Prestatietests
📊 Alle benchmarks 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List applicaties 🎨 Creatieve vrije pagina's 🎯 FSACB - Ultieme showcase 🌍 Vertaalbenchmark
Modellen
🏆 Top 10 modellen 🆓 Gratis modellen 📋 Alle modellen ⚙️ Kilo Code
Bronnen
💬 Promptbibliotheek 📖 AI-woordenlijst 🔗 Nuttige links
🔥

Architecture

Modèle dense 120B paramètres. Probablement une distillation de GPT-4o, optimisé pour l'exécution locale sur matériel haut de gamme.

Contexte

100K Tokens. Une fenêtre solide pour la plupart des applications professionnelles et de défense.

Performance

Performances équivalentes à GPT-4 Turbo, mais entièrement hors ligne et sans censure API.

Usage

Idéal pour les environnements air-gapped (Défense, Finance, Santé) et la recherche.

Un Tournant Stratégique Historique

Face à la pression croissante de Llama 4 (Meta) et des modèles chinois (Kimi, DeepSeek), OpenAI a surpris le monde fin 2025 en libérant les poids de GPT-OSS 120B. C'est la première fois depuis GPT-2 qu'OpenAI mérite à nouveau son nom "Open".

Capacités Techniques

Ce modèle n'est pas un "jouet". Il s'agit d'un modèle dense (non-MoE) conçu pour la robustesse. Il excelle particulièrement dans :

  • Le respect des instructions (Instruction Following) : Très strict, idéal pour les tâches normées.
  • La sécurité : Livré avec des variantes "Safeguard" pour les entreprises soucieuses de la modération.
  • Le codage : Bien que moins "créatif" que Claude, il produit un code extrêmement sûr et conforme aux standards de sécurité (OWASP).

Adoption Massive

Dès sa sortie, GPT-OSS 120B est devenu le standard de facto pour les serveurs du Pentagone et les grandes banques qui refusaient d'envoyer leurs données sur le cloud Azure. Sa taille de 120B permet de le faire tourner sur un seul nœud de 8xH100 ou même sur des stations de travail pro (Mac Studio M4 Ultra avec mémoire unifiée maxée).