KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
Deep Clustering
Approche qui combine des réseaux de neurones profonds avec des algorithmes de clustering traditionnels pour apprendre des représentations adaptées au clustering non supervisé.
Autoencoder Clustering
Méthode utilisant des autoencodeurs pour réduire la dimensionnalité et apprendre des caractéristiques compactes avant d'appliquer des algorithmes de clustering sur l'espace latent.
Deep Embedded Clustering (DEC)
Algorithme qui apprend simultanément les représentations des caractéristiques et les affectations de cluster en optimisant conjointement les poids du réseau et les centroïdes des clusters.
Variational Deep Embedding (VaDE)
Modèle génératif basé sur les autoencodeurs variationnels qui modélise la distribution des données latentes comme un mélange de gaussiennes pour effectuer le clustering.
Deep Subspace Clustering Networks (DSCN)
Architecture qui apprend des représentations auto-expressives pour capturer la structure sous-jacente des données appartenant à différents sous-espaces linéaires.
Deep Spectral Clustering
Extension du clustering spectral où les réseaux de neurones profonds sont utilisés pour apprendre la matrice de similarité et la représentation spectrale optimale.
Deep Clustering with Convolutional Autoencoders (DCC)
Méthode spécifiquement conçue pour les données image utilisant des autoencodeurs convolutifs pour extraire des caractéristiques visuelles avant le clustering.
Joint Unsupervised Learning (JULE)
Framework qui intègre l'apprentissage des représentations et le clustering dans un processus itératif unifié, alternant entre l'extraction de caractéristiques et l'affectation aux clusters.
DeepCluster
Algorithme itératif qui effectue le clustering sur les caractéristiques extraites par un réseau neuronal, puis utilise les pseudo-étiquettes résultantes pour entraîner le réseau de manière supervisée.
Information Maximizing Deep Clustering (IDEC)
Amélioration du DEC qui préserve la structure locale des données en ajoutant une contrainte de reconstruction pour éviter la dégradation des représentations.
Deep Gaussian Mixture Models (DGMM)
Extension des modèles de mélange gaussien où la fonction de paramétrisation des composants est réalisée par des réseaux de neurones profonds.
Deep Adaptive Clustering (DAC)
Méthode qui s'adapte automatiquement au nombre optimal de clusters en utilisant des contraintes de similarité apprise pendant l'entraînement du réseau.
Self-Expressive Deep Neural Networks
Architecture qui impose une contrainte d'auto-expressivité dans l'espace latent, où chaque échantillon peut être reconstruit comme une combinaison linéaire d'autres échantillons.
Deep Kernel Clustering
Approche qui apprend des noyaux paramétrisés par des réseaux de neurones profonds pour capturer des relations non-linéaires complexes entre les données.
Deep Generative Clustering
Catégorie de méthodes utilisant des modèles génératifs profonds comme les GANs ou VAEs pour modéliser la distribution de données et découvrir simultanément les clusters.
Contrastive Clustering
Technique qui applique des principes d'apprentissage contrastif pour maximiser la similarité intra-cluster et minimiser la similarité inter-cluster dans l'espace latent.
Deep Multi-View Clustering
Extension du clustering multi-vue où des réseaux de neurones profonds apprennent des représentations partagées et spécifiques à chaque vue pour une meilleure intégration.
Hierarchical Deep Clustering
Méthode qui construit une hiérarchie de clusters en utilisant des réseaux de neurones pour apprendre des représentations à différentes échelles de granularité.