Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
BERT Embeddings
Représentations contextuelles générées par BERT qui capturent le sens des mots en fonction de leur contexte spécifique dans la phrase.
Segment Embedding
Représentations vectorielles utilisées dans BERT pour distinguer différentes segments de texte (par exemple, phrases A et B dans les tâches de compréhension).
Static Embedding
Représentations vectorielles fixes pour chaque mot indépendamment du contexte, générées par des modèles comme Word2Vec ou GloVe.
Sentence Embedding
Représentation vectorielle unique qui capture le sens global d'une phrase entière, utilisée pour des tâches de similarité sémantique et de classification.
Document Embedding
Vectorisation de documents entiers qui préserve les relations sémantiques entre différents documents dans un espace vectoriel continu.
Vector Space Model
Modèle algébrique qui représente des objets textuels comme des vecteurs dans un espace multidimensionnel pour faciliter les calculs de similarité.
Fine-tuning Embeddings
Processus d'adaptation des embeddings pré-entraînés à un domaine ou tâche spécifique en poursuivant l'entraînement sur des données ciblées.
Embedding Layer
Couche de réseau neuronal qui transforme les indices de tokens discrets en vecteurs denses continus, servant de première couche dans la plupart des modèles NLP.