Glosario IA
El diccionario completo de la Inteligencia Artificial
Remuestreo equitativo
Técnica de preprocesamiento que modifica la distribución de los datos de entrenamiento sobrerrepresentando a los grupos minoritarios o subrepresentados para reducir las disparidades algorítmicas en las predicciones del modelo.
Ponderación inversa de probabilidades
Método de corrección de sesgos que asigna pesos a los ejemplos de entrenamiento inversamente proporcionales a su frecuencia en la población, compensando así el desequilibrio entre grupos demográficos.
Aprendizaje contradictorio para la equidad
Enfoque de entrenamiento simultáneo de un predictor principal y un adversario que busca predecir los atributos sensibles, forzando al modelo principal a generar representaciones invariantes a las características protegidas.
Calibración equitativa de predicciones
Técnica de postprocesamiento que ajusta los puntajes de predicción para garantizar que las probabilidades predichas correspondan a las frecuencias observadas de manera consistente a través de diferentes grupos demográficos.
Optimización con restricciones de equidad
Método de entrenamiento que integra restricciones matemáticas sobre las métricas de equidad directamente en la función objetivo, garantizando el cumplimiento de los criterios de equidad durante la optimización del modelo.
Igualación de oportunidades optimizada
Técnica de procesamiento que garantiza tasas de verdaderos positivos iguales entre grupos mientras maximiza el rendimiento general, a menudo implementada a través de funciones de pérdida específicas o ajustes de umbrales.
Paridad demográfica ajustada
Método de corrección que asegura que las predicciones positivas se distribuyan de manera proporcional entre diferentes grupos demográficos, independientemente de sus características intrínsecas.
Eliminación de sesgos por causalidad
Enfoque que utiliza grafos causales para identificar y neutralizar las rutas causales que introducen sesgos, preservando únicamente las relaciones relevantes para la tarea de predicción.
Aprendizaje por invariancia de grupo
Técnica de entrenamiento que obliga al modelo a aprender representaciones invariantes a las variaciones entre grupos demográficos mientras preserva la información relevante para la tarea principal.
Corrección post-hoc por umbrales adaptativos
Método aplicado después del entrenamiento que ajusta dinámicamente los umbrales de decisión por grupo para equilibrar las métricas de rendimiento y garantizar equidad en las predicciones finales.
Reducción de disparidad por reponderación
Técnica de preprocesamiento que recalcula los pesos de las instancias de entrenamiento para minimizar la divergencia estadística entre la distribución observada y una distribución objetivo equitativa.
Enmascaramiento de características equitativo
Estrategia de procesamiento que enmascara selectivamente o transforma las características potencialmente sesgadas durante el entrenamiento para forzar al modelo a basarse en atributos no discriminatorios.
Corrección de sesgo de selección
Conjunto de técnicas que identifican y compensan las distorsiones introducidas por procesos de muestreo no aleatorios que favorecen sistemáticamente ciertos subgrupos de la población.
Aprendizaje robusto a ataques de equidad
Metodología de entrenamiento que integra ejemplos adversariales diseñados para amplificar los sesgos, fortaleciendo así la resistencia del modelo contra manipulaciones destinadas a degradar su equidad.
Desesgo por contrafactualidad
Técnica que genera ejemplos contrafactuales modificando los atributos sensibles para entrenar al modelo a producir predicciones invariantes a los cambios de estas características protegidas.
Equilibrado de distribuciones por transporte óptimo
Método avanzado que utiliza la teoría del transporte óptimo para transformar la distribución de datos de un grupo minoritario para acercarla a la del grupo mayoritario, reduciendo así los sesgos sistémicos.
Regularización equitativa por divergencia
Técnica de entrenamiento que añade un término de penalización basado en medidas de divergencia (KL, JS, Wasserstein) entre las distribuciones de predicciones de los diferentes grupos para garantizar una equidad estadística.