Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Théorème de Bayes
Formule mathématique permettant de calculer la probabilité conditionnelle d'un événement sachant qu'un autre événement s'est produit, fondement théorique des classificateurs Naïve Bayes.
Indépendance conditionnelle
Hypothèse simplificatrice du Naïve Bayes stipulant que les caractéristiques sont indépendantes entre elles sachant la classe, malgré que cette hypothèse soit souvent violée en pratique.
Vraisemblance (Likelihood)
Probabilité d'observer les caractéristiques données sachant une classe spécifique, calculée comme produit des probabilités individuelles dans le modèle Naïve Bayes.
Probabilité a priori
Probabilité initiale d'appartenance à une classe avant d'observer les caractéristiques, estimée à partir des fréquences relatives des classes dans l'ensemble d'entraînement.
Probabilité a posteriori
Probabilité mise à jour d'appartenance à une classe après observation des caractéristiques, résultat final du calcul Bayesien utilisé pour la classification.
Evidence
Terme normalisateur du théorème de Bayes représentant la probabilité marginale d'observer les caractéristiques, souvent omis dans la classification comparative.
Classificateur Multinomial Naïve Bayes
Variante du Naïve Bayes optimisée pour les caractéristiques discrètes et les comptes d'occurrences, particulièrement efficace pour la classification de textes et l'analyse de documents.
Classificateur Gaussien Naïve Bayes
Variante assumant que les caractéristiques suivent une distribution normale, adaptée aux données continues et aux attributs numériques dans l'espace feature.
Classificateur Bernoulli Naïve Bayes
Variante traitant les caractéristiques comme des variables binaires indiquant la présence ou l'absence d'un attribut, idéale pour la classification de documents basée sur les mots-clés.
Lissage de Laplace
Technique de régularisation ajoutant une constante aux comptes pour éviter les probabilités nulles, essentielle lors de l'estimation des probabilités conditionnelles dans Naïve Bayes.
Modèle génératif
Type de modèle apprenant la distribution jointe P(X,Y) des données et des étiquettes, permettant de générer de nouveaux échantillons et de calculer des probabilités conditionnelles.
Espérance Maximisation (EM)
Algorithme itératif pour l'estimation des paramètres dans les modèles avec données latentes, parfois utilisé pour entraîner des variantes de Naïve Bayes avec variables cachées.
Score logarithmique (Log-score)
Métrique évaluant la qualité prédictive en utilisant les log-probabilités, évitant les underflows numériques lors du calcul des produits de probabilités dans Naïve Bayes.
Hypothèse de naïveté
Postulat simplificateur d'indépendance entre caractéristiques qui, bien que irréaliste, permet des calculs efficaces et souvent de bonnes performances pratiques en classification.
Vecteur de caractéristiques
Représentation vectorielle des attributs d'une observation, élément fondamental sur lequel opèrent les calculs de probabilités conditionnelles dans Naïve Bayes.
Distribution de probabilité conditionnelle
Fonction décrivant la probabilité des caractéristiques sachant une classe donnée, modélisée indépendamment pour chaque attribut dans l'approche Naïve Bayes.
Rapport de vraisemblance
Ratio des probabilités conditionnelles entre différentes classes, utilisé dans les implémentations efficaces de Naïve Bayes pour éviter les calculs redondants.
Classification multiclasse
Extension naturelle de Naïve Bayes au-delà de la classification binaire, utilisant le théorème de Bayes pour calculer les probabilités postérieures de chaque classe possible.
Estimation de densité par noyau
Méthode non-paramétrique alternative pour estimer les distributions de probabilités dans Naïve Bayes lorsque les hypothèses gaussiennes ne sont pas valides.