Glosario IA
El diccionario completo de la Inteligencia Artificial
Gráfico Resumen SHAP (SHapley Additive exPlanations)
Una visualización que combina la importancia de las características con sus efectos, mostrando cada punto de datos como un punto en un gráfico de impacto de características.
Visualización LIME (Local Interpretable Model-agnostic Explanations)
Una representación gráfica que muestra las características locales más influyentes para una predicción específica, explicando el modelo mediante un sustituto simple e interpretable.
Visualización de Anclas (Anchors)
Una representación gráfica de las reglas de decisión de alta fidelidad (anclas) que explican localmente la predicción de un modelo, identificando las condiciones suficientes para una predicción dada.
Visualización de Explicación Contrafáctica
Un gráfico que muestra las modificaciones mínimas necesarias en las características de una observación para cambiar su predicción, ilustrando la frontera de decisión del modelo.
Gráfico de Sensibilidad de Morris
Una visualización derivada del método de Morris que evalúa el efecto elemental de cada parámetro de entrada en la salida del modelo, clasificando los parámetros por influencia global y no-linealidad.
Visualización de Índices de Sobol
Un gráfico que representa los índices de Sobol, los cuales descomponen la varianza de la salida del modelo en contribuciones debidas a cada característica o a sus interacciones.
Panel de Análisis What-If
Una herramienta interactiva que permite manipular manualmente los valores de las características de una observación para observar en tiempo real el impacto en la predicción del modelo.
Visualización de Modelo Sustituto (Surrogate)
La representación gráfica de un modelo simple e interpretable (como un árbol de decisión o una regresión lineal) entrenado para imitar el comportamiento de un modelo complejo (caja negra).