La puissance hybride à son paroxysme
Jamba Large 1.7 représente le fleuron de la famille Jamba d'AI21 Labs, dévoilé en août 2025. Avec ses 94 milliards de paramètres (398 milliards actifs), ce modèle phare intègre une architecture hybride révolutionnaire combinant Structured State Space (SSM) et Transformer, offrant des performances inégalées dans sa catégorie.
Conçu pour les charges de travail les plus exigeantes, Jamba Large 1.7 excelle dans le traitement de contextes étendus jusqu'à 256 000 tokens, permettant l'analyse de documents complets, de bases de code complexes et de conversations longues avec une cohérence remarquable. Son architecture innovante surmonte les limitations des modèles Transformer traditionnels en éliminant la complexité quadratique de l'attention.
Les tests benchmarks révèlent que Jamba Large 1.7 surpasse de nombreux modèles de taille similaire sur les tâches de compréhension de contexte long. Sur le benchmark LongBench, il atteint un score de 82.3%, dépassant Llama 3 70B (76.1%) et se rapprochant de modèles beaucoup plus volumineux. Sa vitesse d'inférence de 165 tokens/seconde sur GPU A100 le positionne parmi les modèles les plus rapides de sa catégorie.
AI21 Labs adopte une approche responsable de l'IA avec des mécanismes de modération intégrés et une conformité RGPD stricte. Le modèle est distribué sous licence Apache 2.0, permettant une utilisation commerciale et des modifications. Les options de déploiement privé garantissent que les données sensibles ne quittent jamais l'infrastructure de l'entreprise.
Jamba Large 1.7 est disponible sur OpenRouter avec une API compatible OpenAI, facilitant son intégration dans les applications existantes. Le modèle supporte le tool-calling pour les workflows automatisés et offre des capacités de function calling natives. Sa fenêtre de contexte étendue le rend particulièrement adapté aux applications de RAG (Retrieval-Augmented Generation).
Les prix indiqués correspondent à l'utilisation via l'API OpenRouter. Pour un déploiement self-host, le modèle est disponible gratuitement sous licence Apache 2.0, mais les coûts d'infrastructure (GPU, stockage) restent à la charge de l'utilisateur.