एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Encodeur (Encoder)
Partie de l'autoencoder qui transforme les données d'entrée en une représentation de dimension inférieure, appelée espace latent ou code, en apprenant une fonction de compression non linéaire.
Décodeur (Decoder)
Partie de l'autoencoder qui prend la représentation compressée de l'espace latent et tente de reconstruire les données d'entrée originales, apprenant ainsi une fonction de décompression.
Espace Latent (Latent Space)
La couche de représentation de plus faible dimension dans un autoencoder, qui capture les caractéristiques les plus essentielles et compressées des données d'entrée.
Goulot d'Étranglement (Bottleneck)
La couche la plus étroite de l'architecture de l'autoencoder, située entre l'encodeur et le décodeur, qui force le réseau à apprendre une représentation concise des données.
Fonction de Perte de Reconstruction (Reconstruction Loss)
Fonction objectif, souvent l'erreur quadratique moyenne (MSE) ou l'entropie croisée, qui mesure la différence entre les données d'entrée originales et leur reconstruction par le décodeur.
Autoencoder Symétrique
Architecture d'autoencoder où les structures de l'encodeur et du décodeur sont des images miroir l'une de l'autre, avec des dimensions de couches correspondantes pour la compression et la décompression.
Sous-Complétude (Undercompleteness)
Principe selon lequel la dimension de l'espace latent d'un autoencoder doit être inférieure à celle des données d'entrée, forçant ainsi le réseau à apprendre les caractéristiques les plus pertinentes plutôt qu'une simple copie.
Poids Liés (Tied Weights)
Technique où les matrices de poids du décodeur sont la transposée des matrices de poids de l'encodeur, réduisant le nombre de paramètres et favorisant une reconstruction symétrique.
Dénombrement d'Unités (Unit Counting)
Processus de détermination du nombre de neurones dans chaque couche de l'autoencoder, où le nombre d'unités diminue progressivement à travers l'encodeur pour atteindre le goulot d'étranglement.
Réduction de Dimension Non Linéaire
Application principale des autoencoders, qui apprennent des manifolds de données complexes pour projeter des données haute dimension dans un espace de plus faible dimension, au-delà des méthodes linéaires comme l'ACP.
Apprentissage de Représentation (Representation Learning)
Capacité des autoencoders à découvrir automatiquement les caractéristiques (features) abstraites et les structures inhérentes aux données sans étiquetage supervisé.
Autoencoder à Couche Unique (Single-Layer Autoencoder)
Forme la plus simple d'autoencoder avec une seule couche cachée servant de goulot d'étranglement, équivalente à une analyse en composantes principales non linéaire.
Autoencoder Profond (Deep Autoencoder)
Architecture d'autoencoder avec plusieurs couches cachées dans l'encodeur et le décodeur, permettant d'apprendre des hiérarchies de caractéristiques complexes pour une meilleure compression.
Bruit de Reconstruction (Reconstruction Noise)
Artéfacts ou erreurs introduits dans les données reconstruites par un autoencoder, qui peuvent être analysés pour comprendre les limites de la représentation apprise par le modèle.
Fonction d'Activation de l'Encodeur
Fonction non linéaire (comme ReLU, sigmoïde ou tanh) appliquée dans les couches de l'encodeur pour permettre l'apprentissage de transformations complexes des données d'entrée.
Fonction d'Activation du Décodeur
Fonction appliquée dans les couches du décodeur, souvent choisie pour correspondre à la distribution des données d'entrée (par exemple, sigmoïde pour des données normalisées entre 0 et 1).
Sur-Complétude (Overcompleteness)
Condition où la dimension de l'espace latent est supérieure à celle des données d'entrée, nécessitant des contraintes supplémentaires comme la régularisation pour éviter un simple apprentissage d'identité.
Erreur de Quantification
Partie de l'erreur de reconstruction dans un autoencoder qui résulte de la compression d'informations continues dans un espace latent de dimension finie.