Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Précision (Precision)
Métrique évaluant la proportion de prédictions positives correctes parmi toutes les prédictions positives faites par le modèle. Elle mesure la qualité des prédictions positives en minimisant les faux positifs.
Rappel (Recall)
Indicateur mesurant la capacité du modèle à identifier correctement toutes les instances positives réelles dans le jeu de données. Le rappel quantifie l'exhaustivité des prédictions positives en réduisant les faux négatifs.
F1-Score
Moyenne harmonique de la précision et du rappel, offrant un équilibre entre ces deux métriques souvent antagonistes. Le F1-Score est particulièrement utile pour les classes déséquilibrées où la précision seule ou le rappel seul serait trompeur.
F-beta Score
Généralisation du F1-Score permettant de pondérer différemment la précision et le rappel selon le paramètre beta. Cette métrique s'adapte aux besoins spécifiques du domaine en favorisant soit la précision (beta<1) soit le rappel (beta>1).
Matrice de Confusion
Tableau de contingence résumant les performances d'un modèle de classification en comparant les prédictions aux valeurs réelles. Elle décompose les résultats en vrais positifs, faux positifs, vrais négatifs et faux négatifs pour une analyse détaillée.
Vrai Positif (True Positive)
Instance correctement classée comme positive par le modèle, représentant une prédiction réussie pour la classe cible. Les vrais positifs constituent le numérateur dans le calcul du rappel et contribuent au dénominateur de la précision.
Faux Positif (False Positive)
Instance négative incorrectement prédite comme positive par le modèle, correspondant à une erreur de type I. Les faux positifs affectent négativement la précision mais n'influencent pas directement le rappel de la classe positive.
Vrai Négatif (True Negative)
Instance correctement identifiée comme négative par le modèle, démontrant sa capacité à rejeter les cas non pertinents. Les vrais négatifs sont essentiels pour évaluer la spécificité du modèle sur les classes majoritaires.
Faux Négatif (False Negative)
Instance positive manquée par le modèle et incorrectement classée comme négative, représentant une erreur de type II. Les faux négatifs réduisent directement le rappel et peuvent avoir des conséquences critiques selon le domaine d'application.
Précision Moyenne (Average Precision)
Métrique résumant la courbe précision-rappel en calculant la moyenne pondérée des précisions à chaque seuil de rappel. Elle est particulièrement adaptée à l'évaluation des systèmes de détection d'objets et de recherche d'information.
Score AUC-PR
Aire sous la courbe précision-rappel, mesurant la performance globale du modèle indépendamment du seuil de classification. Contrairement à l'AUC-ROC, l'AUC-PR est plus sensible aux performances sur les classes minoritaires.
Sensibilité (Sensitivity)
Synonyme du rappel, mesurant la proportion de cas positifs réels correctement identifiés par le modèle. La sensibilité est cruciale dans les applications médicales où la détection des cas positifs est prioritaire.
Spécificité (Specificity)
Capacité du modèle à identifier correctement les instances négatives, calculée comme le ratio de vrais négatifs sur le total de négatifs réels. La spécificité complète le rappel pour évaluer les performances sur toutes les classes.
Balanced Accuracy
Moyenne arithmétique de la sensibilité et de la spécificité, corrigeant les biais dans les datasets déséquilibrés. Cette métrique traite équitablement les performances sur les classes majoritaires et minoritaires.
Courbe Précision-Rappel
Graphique bidimensionnel traçant la précision en fonction du rappel pour différents seuils de classification. Cette visualisation permet d'analyser le compromis entre précision et rappel et de sélectionner le seuil optimal.
Score Jaccard
Métrique mesurant la similarité entre deux ensembles comme le ratio de leur intersection sur leur union. En classification, le score Jaccard évalue la concordance entre les ensembles d'instances prédites positives et réellement positives.
Précision Top-K
Métrique évaluant la proportion de prédictions correctes parmi les K prédictions les plus confiantes du modèle. Elle est particulièrement pertinente pour les systèmes de recommandation où seul le top des suggestions est présenté à l'utilisateur.
Rappel Top-K
Extension du rappel traditionnel limitée aux K prédictions les plus probables du modèle. Cette métrique mesure la capacité du système à couvrir les instances pertinentes en considérant uniquement un sous-ensemble des prédictions totales.