🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Anclaje (Anchors)

Un método que identifica reglas decisionales simples y suficientes (anclas) que explican con alta fidelidad la predicción de un modelo para una instancia dada.

📖
términos

Valor de Shapley

Un concepto de la teoría de juegos que mide la contribución marginal promedio de un jugador (característica) a través de todas las coaliciones posibles, sirviendo como base para SHAP.

📖
términos

Perturbación de entrada

El proceso de crear ligeras variaciones en los datos de entrada para observar el efecto en la predicción del modelo, utilizado por métodos como LIME para construir un vecindario local.

📖
términos

Fidelidad (Fidelity)

Una métrica que evalúa qué tan fielmente una explicación local (como el modelo simple de LIME) imita el comportamiento del modelo complejo en su vecindario.

📖
términos

Explicación Agnóstica al Modelo

Un enfoque de interpretabilidad que trata el modelo predictivo como una caja negra, interactuando solo con sus entradas y salidas para generar explicaciones.

📖
términos

Mapa de Saliencia (Saliency Map)

Una visualización que resalta los píxeles o características de una entrada que más influyeron en la predicción de un modelo, a menudo obtenida mediante cálculo de gradiente.

📖
términos

Vecindario Kernel

En LIME, una función que define la proximidad entre la instancia original y las instancias perturbadas, ponderando su influencia en el modelo de explicación local.

📖
términos

Regla de Explicación (Explanation Rule)

Una condición lógica simple (ej: IF feature_A > X AND feature_B < Y) que captura la razón principal de una predicción específica, típica de métodos como Anchors.

📖
términos

Interpretabilidad Post-hoc

El análisis de un modelo después de su entrenamiento para comprender sus decisiones, en oposición a los modelos intrínsecamente interpretables.

📖
términos

SHAP Kernel Explainer

Una implementación de SHAP que utiliza una ponderación de tipo kernel para estimar los valores de Shapley, haciéndola agnóstica al modelo pero potencialmente más lenta.

📖
términos

SHAP Tree Explainer

Un algoritmo SHAP optimizado que calcula los valores exactos de Shapley para los modelos basados en árboles (como XGBoost, LightGBM) de manera muy eficiente.

📖
términos

Explicación Local por Sustituto

El principio fundamental de LIME, consistente en entrenar un modelo simple e interpretable (sustituto) para aproximar el comportamiento del modelo complejo localmente.

🔍

No se encontraron resultados