Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
N-pair Loss
Généralisation de la triplet loss qui compare un exemple positif à N exemples négatifs simultanément, améliorant l'efficacité d'apprentissage et la stabilité de la convergence. Elle est particulièrement efficace pour les datasets à grande échelle.
Angular Loss
Fonction de perte qui optimise les angles entre les vecteurs d'embedding plutôt que leurs distances euclidiennes, offrant une meilleure invariance à l'échelle et une meilleure séparation des classes. Elle est particulièrement utile pour les tâches de reconnaissance faciale.
Center Loss
Fonction de perte qui minimise la distance intra-classe en forçant les embeddings d'une même classe à se rapprocher de leur centre de classe appris. Elle est souvent combinée avec d'autres pertes discriminantes pour améliorer la compacité des clusters.
ArcFace Loss
Fonction de perte additive angulaire qui améliore la discriminativité des embeddings en ajoutant une marge angulaire sur l'espace des hyper-sphères. Elle est particulièrement efficace pour les tâches de reconnaissance avec de nombreuses classes et peu d'exemples.
SphereFace Loss
Fonction de perte multiplicative angulaire qui impose une contrainte angulaire sur les embeddings pour améliorer la séparabilité inter-classe. Elle est conçue pour apprendre des embeddings discriminants sur une hypersphère unitaire.
Proxy-NCA Loss
Variante de la Neighborhood Components Analysis qui utilise des proxies apprenables pour représenter chaque classe, réduisant la complexité computationnelle par rapport aux approches basées sur les paires. Elle est particulièrement efficace pour les datasets à grande échelle.
Deep Metric Learning
Application des réseaux de neurones profonds pour apprendre des fonctions de distance ou de similarité complexes à partir de données brutes. Cette approche combine la puissance de représentation des réseaux profonds avec les principes du metric learning.
Similarity Learning
Paradigme d'apprentissage où le modèle apprend à évaluer la similarité entre des paires d'exemples plutôt que de prédire directement des étiquettes. Cette approche est fondamentale pour le few-shot learning et les systèmes de recommandation.