Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Task-agnostic Training
Approche d'entraînement où les modèles apprennent des représentations générales sans optimiser pour des tâches spécifiques. Cette méthode favorise la flexibilité et les capacités de transfert vers de nouvelles applications.
Cross-domain Transfer
Capacité d'un modèle à appliquer ses connaissances acquises dans un domaine à des tâches dans un domaine complètement différent. Cette transférabilité est cruciale pour le succès du zero-shot learning.
Foundation Models
Modèles à grande échelle pré-entraînés sur des données massives et diversifiées, servant de base pour de multiples applications downstream. Ces modèles constituent l'épine dorsale du zero-shot learning moderne.
Self-consistency
Méthode d'inférence qui génère plusieurs raisonnements pour un même problème et sélectionne la réponse la plus fréquente. Cette approche améliore la fiabilité des réponses zero-shot en exploitant la redondance.
Model Capacity
Mesure de la complexité et du nombre de paramètres qu'un modèle peut efficacement utiliser pour stocker des connaissances. Une capacité suffisante est prérequise pour l'émergence des capacités zero-shot.
Task Adaptation
Processus par lequel un modèle pré-entraîné s'ajuste dynamiquement à une nouvelle tâche spécifique lors de l'inférence. Cette adaptation sans réentraînement est au cœur du zero-shot learning.
Generalization Gap
Différence de performance entre les tâches vues lors de l'entraînement et les tâches totalement nouvelles. Réduire cet écart est l'objectif fondamental du zero-shot learning.
Zero-shot Prompting
Technique consistant à fournir à un modèle uniquement une description de tâche sans aucun exemple pour guider sa réponse. Cette méthode teste directement les capacités de généralisation du modèle.