एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Online Matrix Factorization (OMF)
Ensemble de techniques décomposant une matrice en facteurs de rang inférieur de manière séquentielle, en mettant à jour les facteurs à mesure que de nouvelles données arrivent, sans nécessiter de réentraînement complet.
Stochastic Gradient Descent (SGD) pour OMF
Algorithme d'optimisation itératif qui met à jour les facteurs matriciels en utilisant le gradient de la fonction de perte calculé sur un seul échantillon (ou un mini-lot) à la fois, idéal pour les flux de données.
Incremental SVD
Variante de la Décomposition en Valeurs Singulières qui met à jour les vecteurs singuliers et les valeurs singulières existants pour incorporer de nouvelles colonnes ou lignes de données sans recalculer depuis le début.
Projection Approximate Subspace Tracking (PAST)
Algorithme récursif qui suit le sous-espace engendré par les vecteurs propres dominants d'une matrice de covariance en temps réel, en minimisant une fonction de coût des moindres carrés.
Oubli Exponentiel (Exponential Forgetting)
Mécanisme accordant plus de poids aux observations récentes qu'aux anciennes dans le processus de mise à jour, permettant au modèle de s'adapter aux changements de distribution des données (concept drift).
Streaming Recommender Systems
Systèmes de recommandation qui utilisent la factorisation de matrices en ligne pour mettre à jour en continu les profils utilisateurs et items à partir de nouvelles interactions, assurant des suggestions pertinentes en temps réel.
Méthode des Moindres Carrés Récursifs (RLS)
Algorithme d'adaptation qui minimise une fonction de coût des moindres carrés pondérée de manière récursive, offrant une convergence rapide au prix d'une complexité computationnelle plus élevée que le SGD.
Mise à Jour par Bloc (Block Update)
Stratégie où les facteurs matriciels ne sont pas mis à jour pour chaque nouvelle donnée, mais après l'accumulation d'un bloc d'observations, offrant un compromis entre réactivité et efficacité computationnelle.
Non-negative Matrix Factorization (NMF) en ligne
Variante de la factorisation de matrices en ligne qui impose des contraintes de non-négativité sur les facteurs, produisant des décompositions additives et interprétables, souvent utilisée pour l'analyse de textes ou d'images.
Fonction de Perte en Ligne
Mesure d'erreur calculée sur les nouvelles observations pour guider la mise à jour des facteurs, typiquement l'erreur quadratique moyenne ou une divergence (ex: KL-divergence pour les données de comptage).
Robustesse aux Données Aberrantes
Capacité d'un algorithme de factorisation en ligne à ne pas être significativement dégradé par la présence de bruit ou d'observations erronées dans le flux de données, souvent via des fonctions de perte robustes.
Complexité par Échantillon (Per-Sample Complexity)
Mesure du coût computationnel (temps et mémoire) requis pour mettre à jour les facteurs matriciels avec une seule nouvelle observation, un critère clé pour évaluer la scalabilité des algorithmes en ligne.
Initialisation à Froid (Cold-Start)
Défi de la factorisation en ligne où le modèle doit fournir des prédictions avant d'avoir accumulé suffisamment de données pour estimer de manière fiable les facteurs latents des nouveaux utilisateurs ou items.
Algorithme Oja
Algorithme stochastique simple pour le calcul en ligne du vecteur propre principal d'une matrice de covariance, fondamental pour le suivi de sous-espaces en temps réel.