AI 용어집
인공지능 완전 사전
Algorithme de Viterbi
Algorithme de programmation dynamique pour trouver la séquence d'états cachés la plus probable ayant généré les observations.
Algorithme Forward-Backward
Procédure permettant de calculer les probabilités marginales des états cachés dans un HMM à partir des observations.
Algorithme de Baum-Welch
Algorithme EM (Expectation-Maximization) spécialisé pour l'estimation des paramètres d'un HMM à partir de données non étiquetées.
HMM Discrets
Modèles où les observations prennent des valeurs dans un ensemble fini de symboles discrets.
HMM Continus
Variante où les observations suivent des distributions de probabilité continues comme les gaussiennes.
HMM Hiérarchiques
Structure multi-niveaux où les états de niveau supérieur contrôlent les transitions entre états de niveau inférieur.
HMM à Mélange de Gaussiennes
Modèles où chaque état émet des observations selon un mélange de plusieurs distributions gaussiennes.
HMM Semi-Markoviens
Extension permettant des durées variables pour chaque état, non limitées à une seule unité de temps.
HMM Factorisés
Modèles où l'espace d'états cachés est factorisé en plusieurs variables latentes indépendantes.
HMM pour la Reconnaissance Vocale
Application spécifique des HMM pour modéliser les séquences phonétiques dans les systèmes de reconnaissance automatique de la parole.
HMM en Bioinformatique
Utilisation des HMM pour la modélisation de séquences biologiques comme les gènes, protéines et structures secondaires.
HMM à Entropie Maximale
Approche intégrant des contraintes d'entropie maximale pour améliorer la généralisation du modèle.
HMM Dynamiques Bayésiens
Représentation des HMM comme réseaux bayésiens dynamiques avec des dépendances temporelles explicites.
HMM Discriminants
Variante utilisant une approche discriminative plutôt que générative pour optimiser directement la performance de classification.
HMM à Entrées/Sorties
Modèles étendus qui prennent en compte des entrées externes observables influençant les transitions entre états.