एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Autoencoder Contractif (CAE)
Un type d'autoencoder dont la fonction de perte inclut une pénalité sur la norme de la matrice jacobienne de l'encodeur, forçant la représentation latente à être insensible aux petites variations de l'entrée.
Pénalité Jacobienne
Terme de régularisation ajouté à la fonction de perte d'un autoencoder contractif, calculé comme la somme des carrés des dérivées partielles de la représentation latente par rapport à chaque pixel d'entrée.
Robustesse aux Perturbations
Capacité d'un modèle, notamment un autoencoder contractif, à maintenir des performances stables face à de légères modifications ou bruits dans les données d'entrée.
Fonction de Perte Contractive
Fonction objectif combinant l'erreur de reconstruction standard et la pénalité jacobienne, optimisée lors de l'entraînement d'un autoencoder contractif.
Dénivellement du Gradient (Gradient Vanishing)
Problème potentiel lors du calcul de la pénalité jacobienne dans les réseaux profonds, où les gradients peuvent devenir extrêmement petits, rendant l'optimisation difficile.
Espace Latente Contracté
L'espace de représentation de faible dimension produit par l'encodeur d'un CAE, caractérisé par une faible sensibilité aux variations locales de l'entrée.
Facteur de Régularisation (Lambda)
Hyperparamètre qui contrôle l'importance relative de la pénalité jacobienne par rapport à l'erreur de reconstruction dans la fonction de perte d'un autoencoder contractif.
Désentrelacement des Facteurs (Factor Disentanglement)
Objectif associé aux autoencoders contractifs où la représentation latente vise à capturer les facteurs de variation les plus pertinents des données tout en ignorant les variations non informatives.
Autoencoder Débruitant (Denoising Autoencoder)
Modèle apparenté qui apprend à reconstruire une entrée propre à partir d'une version corrompue, partageant l'objectif de robustesse avec l'autoencoder contractif mais via une approche différente.
Sensibilité du Modèle
Mesure de la variation de la sortie d'un modèle (ici, la représentation latente) en réponse à de petites modifications de son entrée, que l'autoencoder contractif cherche à minimiser.
Régularisation par Contrainte
Stratégie de régularisation utilisée dans les CAE, où une contrainte explicite (la pénalité sur le jacobien) est imposée sur les paramètres du modèle pour guider son apprentissage.