Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Active Learning for NLP
Paradigme d'apprentissage où le modèle sélectionne intelligemment les exemples textuels les plus informatifs à annoter, optimisant ainsi l'utilisation des ressources d'annotation humaine dans les tâches de traitement du langage naturel.
Density-Weighted Active Learning
Approche combinant l'incertitude du modèle avec la densité des exemples dans l'espace des caractéristiques, privilégiant les échantillons textuels incertains situés dans des régions denses de données.
Pool-Based Active Learning
Cadre où l'algorithme dispose d'un pool fixe d'exemples textuels non étiquetés et sélectionne itérativement les instances les plus informatives pour l'annotation humaine.
Stream-Based Active Learning
Paradigme où les données textuelles arrivent séquentiellement et le modèle doit décider en temps réel d'annoter ou de rejeter chaque instance sans possibilité de revenir en arrière.
Batch Mode Active Learning
Variante sélectionnant simultanément plusieurs échantillons textuels pour annotation, optimisant les processus d'annotation humaine par lots tout en maintenant la diversité des instances choisies.
Active Learning for Sequence Labeling
Spécialisation de l'apprentissage actif pour les tâches d'étiquetage de séquences comme NER ou POS tagging, où la sélection se fait au niveau des séquences ou tokens entiers.
Core-Set Selection
Approche théorique garantissant que l'ensemble sélectionné approxime bien l'ensemble complet de données, souvent utilisée dans le contexte de l'apprentissage actif pour NLP avec des garanties de performance.
Annotation Cost Modeling
Technique intégrant les coûts variables d'annotation (temps, expertise requis) dans le processus de sélection d'échantillons, optimisant le rapport coût-efficacité dans les projets NLP.
Active Learning for Low-Resource Languages
Application spécialisée de l'apprentissage actif pour les langues avec peu de données disponibles, utilisant des stratégies de transfert et de sélection adaptées aux contraintes linguistiques.
Active Learning with Pre-trained Models
Intégration de l'apprentissage actif avec des modèles de langue pré-entraînés comme BERT, exploitant les représentations contextuelles pour améliorer la sélection d'échantillons informatifs.
Multi-Task Active Learning
Cadre où un seul ensemble d'annotations est utilisé pour améliorer plusieurs tâches NLP simultanément, optimisant la sélection d'échantillons bénéfiques pour l'ensemble des tâches.
Active Learning for Text Classification
Spécialisation de l'apprentissage actif pour les tâches de classification de documents, utilisant des stratégies adaptées aux particularités des données textuelles de grande dimension.
Cold Start Problem in Active Learning
Défi initial où le modèle manque de données étiquetées pour faire des prédictions fiables, nécessitant des stratégies d'initialisation comme l'échantillonnage aléatoire ou l'apprentissage semi-supervisé.