Глоссарий ИИ
Полный словарь искусственного интеллекта
Gain d'Impureté (Impurity Gain)
Critère de sélection de variable dans les arbres de décision mesurant la réduction de l'impureté (ex: indice de Gini ou entropie) apportée par le partitionnement d'un nœud selon une caractéristique donnée.
Poids de Gini (Gini Importance)
Mesure d'importance spécifique aux forêts aléatoires, calculée comme la réduction moyenne de l'impureté de Gini apportée par une variable sur tous les arbres de la forêt.
Récursivité de Feature (Feature Recursion)
Concept dans les modèles à base d'arbres où l'importance d'une variable est influencée par sa capacité à être sélectionnée à plusieurs niveaux de profondeur, y compris dans des sous-arbres créés par d'autres variables.
Importance par Réduction de l'Erreur (Drop Column Importance)
Méthode d'évaluation de l'importance qui consiste à ré-entraîner le modèle après avoir retiré une variable et à mesurer la dégradation de sa performance par rapport au modèle de référence complet.
Valeur SHAP (SHAP Value)
Score quantitatif attribué par la méthode SHAP à une caractéristique pour une prédiction individuelle, représentant sa contribution marginale à la différence entre la prédiction du modèle et la prédiction moyenne de l'ensemble de données.
Force Plot SHAP (SHAP Force Plot)
Visualisation spécifique à SHAP illustrant comment les valeurs SHAP de chaque caractéristique poussent la prédiction du modèle de la valeur de base (moyenne) vers la valeur de sortie finale pour une observation unique.
Importance Globale vs Locale
Distinction fondamentale en interprétabilité où l'importance globale évalue l'impact d'une variable sur l'ensemble du modèle, tandis que l'importance locale explique sa contribution pour une prédiction spécifique.
Sélection de Variables par Importance
Processus de réduction de dimensionnalité utilisant les scores d'importance des caractéristiques pour éliminer les variables non pertinentes ou redondantes, visant à améliorer la performance et l'interprétabilité du modèle.
Коэффициенты регрессии LASSO
В контексте отбора переменных коэффициенты модели LASSO (Least Absolute Shrinkage and Selection Operator) служат индикатором важности, поскольку L1-регуляризация может уменьшить некоторые коэффициенты до нуля, устраняя соответствующие переменные.
Важность через суррогаты (Surrogate Importance)
Метод оценки важности в древовидных моделях, который измеряет способность переменной служить заменителем (суррогатным разделением) основной переменной разделения для разбиения данных, указывая на избыточную, но релевантную информацию.
Важность через чувствительность (Sensitivity Analysis)
Подход, оценивающий важность переменной путем анализа того, как изменения ее значений влияют на выходные данные модели, часто через вычисление частных производных или симуляций Монте-Карло.