🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Précision (Precision)

Métrique évaluant la proportion de prédictions positives correctes parmi toutes les prédictions positives faites par le modèle. Elle mesure la qualité des prédictions positives en minimisant les faux positifs.

📖
termes

Rappel (Recall)

Indicateur mesurant la capacité du modèle à identifier correctement toutes les instances positives réelles dans le jeu de données. Le rappel quantifie l'exhaustivité des prédictions positives en réduisant les faux négatifs.

📖
termes

F1-Score

Moyenne harmonique de la précision et du rappel, offrant un équilibre entre ces deux métriques souvent antagonistes. Le F1-Score est particulièrement utile pour les classes déséquilibrées où la précision seule ou le rappel seul serait trompeur.

📖
termes

F-beta Score

Généralisation du F1-Score permettant de pondérer différemment la précision et le rappel selon le paramètre beta. Cette métrique s'adapte aux besoins spécifiques du domaine en favorisant soit la précision (beta<1) soit le rappel (beta>1).

📖
termes

Matrice de Confusion

Tableau de contingence résumant les performances d'un modèle de classification en comparant les prédictions aux valeurs réelles. Elle décompose les résultats en vrais positifs, faux positifs, vrais négatifs et faux négatifs pour une analyse détaillée.

📖
termes

Vrai Positif (True Positive)

Instance correctement classée comme positive par le modèle, représentant une prédiction réussie pour la classe cible. Les vrais positifs constituent le numérateur dans le calcul du rappel et contribuent au dénominateur de la précision.

📖
termes

Faux Positif (False Positive)

Instance négative incorrectement prédite comme positive par le modèle, correspondant à une erreur de type I. Les faux positifs affectent négativement la précision mais n'influencent pas directement le rappel de la classe positive.

📖
termes

Vrai Négatif (True Negative)

Instance correctement identifiée comme négative par le modèle, démontrant sa capacité à rejeter les cas non pertinents. Les vrais négatifs sont essentiels pour évaluer la spécificité du modèle sur les classes majoritaires.

📖
termes

Faux Négatif (False Negative)

Instance positive manquée par le modèle et incorrectement classée comme négative, représentant une erreur de type II. Les faux négatifs réduisent directement le rappel et peuvent avoir des conséquences critiques selon le domaine d'application.

📖
termes

Précision Moyenne (Average Precision)

Métrique résumant la courbe précision-rappel en calculant la moyenne pondérée des précisions à chaque seuil de rappel. Elle est particulièrement adaptée à l'évaluation des systèmes de détection d'objets et de recherche d'information.

📖
termes

Score AUC-PR

Aire sous la courbe précision-rappel, mesurant la performance globale du modèle indépendamment du seuil de classification. Contrairement à l'AUC-ROC, l'AUC-PR est plus sensible aux performances sur les classes minoritaires.

📖
termes

Sensibilité (Sensitivity)

Synonyme du rappel, mesurant la proportion de cas positifs réels correctement identifiés par le modèle. La sensibilité est cruciale dans les applications médicales où la détection des cas positifs est prioritaire.

📖
termes

Spécificité (Specificity)

Capacité du modèle à identifier correctement les instances négatives, calculée comme le ratio de vrais négatifs sur le total de négatifs réels. La spécificité complète le rappel pour évaluer les performances sur toutes les classes.

📖
termes

Balanced Accuracy

Moyenne arithmétique de la sensibilité et de la spécificité, corrigeant les biais dans les datasets déséquilibrés. Cette métrique traite équitablement les performances sur les classes majoritaires et minoritaires.

📖
termes

Courbe Précision-Rappel

Graphique bidimensionnel traçant la précision en fonction du rappel pour différents seuils de classification. Cette visualisation permet d'analyser le compromis entre précision et rappel et de sélectionner le seuil optimal.

📖
termes

Score Jaccard

Métrique mesurant la similarité entre deux ensembles comme le ratio de leur intersection sur leur union. En classification, le score Jaccard évalue la concordance entre les ensembles d'instances prédites positives et réellement positives.

📖
termes

Précision Top-K

Métrique évaluant la proportion de prédictions correctes parmi les K prédictions les plus confiantes du modèle. Elle est particulièrement pertinente pour les systèmes de recommandation où seul le top des suggestions est présenté à l'utilisateur.

📖
termes

Rappel Top-K

Extension du rappel traditionnel limitée aux K prédictions les plus probables du modèle. Cette métrique mesure la capacité du système à couvrir les instances pertinentes en considérant uniquement un sous-ensemble des prédictions totales.

🔍

Aucun résultat trouvé