AI 词汇表
人工智能完整词典
Disparate Impact
Mesure statistique quantifiant l'impact différentiel d'une décision algorithmique sur les groupes protégés, calculée comme le ratio entre les taux de sélection des groupes défavorisés et favorisés.
Statistical Parity Difference
Métrique évaluant la différence entre les probabilités de prédiction positive pour différents groupes démographiques, visant à atteindre une parité statistique parfaite lorsque la différence est nulle.
Equal Opportunity Difference
Indicateur mesurant la différence des taux de vrais positifs entre les groupes, garantissant que les individus qualifiés ont des chances égales d'être correctement identifiés indépendamment de leur appartenance groupale.
Average Odds Difference
Métrique combinant les différences de taux de vrais positifs et de faux positifs entre groupes pour évaluer l'équité globale des prédictions classificatoires.
Theil Index
Mesure d'inégalité basée sur la théorie de l'information quantifiant la divergence entre la distribution des prédictions et une distribution parfaitement équitable, sensible aux biais systémiques.
Jensen-Shannon Divergence
Métrique symétrique mesurant la dissimilarité entre les distributions de prédictions pour différents groupes, utilisée pour détecter les discriminations algorithmiques subtiles.
Counterfactual Fairness
Principe d'équité exigeant que la prédiction pour un individu reste inchangée si ses attributs protégés étaient modifiés contrefactuellement, évalué par des tests de sensibilité.
Individual Fairness Metric
Mesure garantissant que des individus similaires selon des caractéristiques pertinentes reçoivent des traitements algorithmiques équivalents, quantifiée par des distances métriques appropriées.
Group Fairness Metric
Ensemble d'indicateurs statistiques évaluant l'équité au niveau des populations démographiques plutôt qu'au niveau individuel, incluant parité démographique et odds égalisés.
Demographic Parity
Principe d'équité exigeant que les taux de prédiction positive soient identiques entre différents groupes démographiques, indépendamment des caractéristiques individuelles réelles.
Equalized Odds
Condition d'équité stricte exigeant l'égalité des taux de vrais positifs et de faux positifs entre tous les groupes, garantissant une performance prédictive uniforme.
Calibration Difference
Métrique quantifiant les écarts de calibration entre groupes, mesurant si les scores de probabilité prédits correspondent aux fréquences réelles pour chaque sous-population.
False Positive Rate Disparity
Indicateur mesurant l'inégalité des taux de faux positifs entre groupes, crucial pour évaluer les discriminations dans les systèmes de classification binaire.
False Negative Rate Disparity
Métrique quantifiant les différences de taux de faux négatifs entre populations, essentielle pour détecter les sous-représentations systémiques dans les prédictions positives.
Selection Rate Difference
Mesure simple de disparité calculant la différence absolue entre les taux de sélection des groupes, utilisée comme premier indicateur de discrimination potentielle.
Mutual Information Bias
Quantification de la dépendance entre les attributs protégés et les prédictions du modèle, utilisant la théorie de l'information pour détecter les corrélations discriminatoires.
Kolmogorov-Smirnov Test for Fairness
Test statistique non paramétrique comparant les distributions des scores de prédiction entre groupes pour identifier significativement les discriminations algorithmiques.
Wasserstein Distance for Fairness
Métrique de distance mesurant l'effort minimal pour transformer la distribution des prédictions d'un groupe en celle d'un autre, quantifiant l'inéquité globale.
Entropy-Based Bias Metric
Indicateur utilisant l'entropie pour mesurer l'incertitude et la diversité des prédictions, détectant les biais par l'analyse de la distribution des sorties.
Consistency Score
Métrique d'équité individuelle évaluant la cohérence des prédictions pour des individus similaires, mesurée par la corrélation entre les prédictions et similarités des caractéristiques.