Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Factorisation de Matrices
Technique algébrique décomposant une matrice utilisateur-item en produit de deux matrices de plus faible rang pour révéler les caractéristiques latentes des préférences.
Décomposition en Valeurs Singulières (SVD)
Méthode de factorisation décomposant une matrice M en UΣV' où U et V sont orthogonales et Σ diagonale, permettant la réduction dimensionnelle optimale.
Facteurs Latents
Variables cachées non observables représentant les caractéristiques intrinsèques des utilisateurs et des items, apprises automatiquement lors de la factorisation.
Descente de Gradient Stochastique (SGD)
Algorithme d'optimisation itératif mettant à jour les paramètres de factorisation en utilisant un échantillon aléatoire à chaque itération pour minimiser l'erreur de prédiction.
Apprentissage Alterné des Moindres Carrés (ALS)
Méthode d'optimisation alternant la fixation d'une matrice de facteurs pour résoudre analytiquement l'autre, garantissant la convergence vers un optimum local.
Régularisation
Technique prévenant le surapprentissage en ajoutant une pénalité sur la magnitude des paramètres, favorisant des solutions plus générales et robustes.
Vectorisation
Processus de représentation des entités (utilisateurs/items) sous forme de vecteurs denses dans un espace latent de dimension réduite.
Factorisation de Matrice Non-Négative (NMF)
Variante de factorisation contraignant toutes les matrices résultantes à contenir uniquement des valeurs non-négatives, améliorant l'interprétabilité des facteurs.
Biais d'Utilisateur et d'Item
Termes additionnels capturant les tendances systématiques des utilisateurs (tendances générales à noter haut/bas) et des items (popularité intrinsèque).
Apprentissage par Paires
Approche optimisant directement le classement relatif des items en considérant les paires (item positif, item négatif) plutôt que les évaluations absolues.
Problème de Démarrage à Froid
Défi majeur où la factorisation échoue à générer des recommandations fiables pour de nouveaux utilisateurs ou items lacking d'historique d'interactions.
Factorisation Tensorielle
Extension multidimensionnelle de la factorisation matricielle permettant de modéliser simultanément plusieurs dimensions (utilisateur, item, contexte, temps).
Apprentissage Profond pour la Factorisation
Intégration de réseaux de neurones pour capturer des relations non-linéaires complexes entre les facteurs latents, améliorant la précision des recommandations.
Fonction de Perte
Mesure quantifiant l'écart entre les prédictions du modèle factorisé et les valeurs réelles, servant d'objectif à minimiser lors de l'entraînement.
Taux d'Apprentissage
Hyperparamètre contrôlant l'amplitude des mises à jour des paramètres lors de l'optimisation, influençant la vitesse et la stabilité de convergence.
Embedding Hybride
Combination de factorisation matricielle avec des embeddings basés sur le contenu, fusionnant les approches collaborative et content-based.