Glosario IA
El diccionario completo de la Inteligencia Artificial
Ataque Adversarial
Manipulación intencional de los datos de entrada para engañar a un modelo de IA y provocar errores de clasificación o comportamientos inesperados. Estos ataques explotan las vulnerabilidades matemáticas de las redes neuronales introduciendo perturbaciones imperceptibles para el ser humano pero detectables por el algoritmo.
Robustez Ética
Capacidad de un sistema de IA para mantener sus principios éticos y sus comportamientos justos ante intentos de manipulación o condiciones inesperadas. Garantiza la preservación de los valores morales del sistema incluso bajo estrés o ataque algorítmico.
Defensa Contra-Adversarial
Conjunto de técnicas destinadas a fortalecer los modelos de IA contra ataques adversariales, incluyendo el entrenamiento adversarial, la detección de anomalías y la purificación de entradas. Estos métodos buscan mantener la integridad funcional y ética del sistema ante intentos de subversión.
Envenenamiento de Datos
Inserción maliciosa de datos corruptos en el conjunto de entrenamiento para comprometer el rendimiento futuro del modelo e introducir sesgos sistémicos. Esta técnica puede degradar intencionadamente las capacidades éticas y de toma de decisiones del sistema de IA.
Evasión de Modelo
Estrategia de ataque donde entradas especialmente diseñadas permiten eludir los mecanismos de detección o clasificación de un modelo de IA. La evasión amenaza directamente la robustez ética al permitir la violación de las reglas y restricciones morales establecidas.
Perturbación Ética
Modificación sutil de las entradas o parámetros dirigida específicamente a comprometer los mecanismos de decisión ética de un sistema de IA. Estos ataques se dirigen a las capas de juicio moral para inducir comportamientos no conformes a los valores programados.
Estabilidad Ética
Medida de la coherencia de las decisiones éticas de un sistema de IA ante variaciones menores en las condiciones de entrada o del entorno. La estabilidad garantiza que los juicios morales permanezcan constantes y predecibles a pesar de las fluctuaciones contextuales.
Resiliencia Algorítmica
Capacidad de un sistema de IA para recuperarse y mantener su rendimiento ético después de haber sufrido ataques o perturbaciones importantes. La resiliencia incluye mecanismos de autocorrección y adaptación para preservar la integridad moral a largo plazo.
Seguridad Ética
Dominio de la ciberseguridad IA especializado en la protección de los mecanismos de decisión ética contra manipulaciones y compromisos. Combina técnicas criptográficas, validación formal y monitoreo conductual para garantizar la integridad moral.
Vulnerabilidad Ética
Punto débil en la arquitectura o implementación de un sistema IA que puede ser explotado para violar sus principios éticos fundamentales. Estas vulnerabilidades pueden residir en las capas de decisión, validación o control moral del sistema.
Prueba de Robustez
Evaluación sistemática de la capacidad de un sistema IA para mantener sus comportamientos éticos ante escenarios extremos u hostiles. Estas pruebas simulan diversos tipos de ataques y perturbaciones para identificar y corregir debilidades morales.
Validación Ética
Proceso formal de verificación de que un sistema IA respeta constantemente sus restricciones éticas incluso bajo restricciones adversas. La validación combina pruebas estadísticas, verificación formal y auditorías conductuales para asegurar la conformidad moral.
Contra-medida Ética
Mecanismo proactivo o reactivo diseñado para prevenir o neutralizar intentos de compromiso de los principios éticos de un sistema IA. Estas contra-medidas incluyen detección de anomalías, aislamiento decisional y recuperación ética.
Inferencia Adversa
Proceso mediante el cual un atacante explota las vulnerabilidades de un modelo IA para deducir información sensible o forzar decisiones contrarias a la ética. La inferencia adversa amenaza directamente la confidencialidad y la integridad moral del sistema.
Robustez Distribucional
Capacidad de un sistema IA para mantener su rendimiento ético ante cambios en la distribución de datos de entrada o condiciones operacionales. Esta robustez garantiza la estabilidad de las decisiones morales a pesar de las derivas distribucionales.
Ataque por Extracción
Técnica que busca reproducir el comportamiento de un modelo IA, incluyendo sus sesgos y vulnerabilidades éticas, interrogándolo sistemáticamente. Estos ataques pueden revelar y explotar las debilidades morales del sistema original.
Certificación Ética
Proceso formal que certifica que un sistema de IA mantiene sus garantías éticas en condiciones definidas, incluso frente a ataques. La certificación ética valida la robustez de los mecanismos de decisión moral según estándares reconocidos.
Entrenamiento Adversarial
Método de entrenamiento donde el modelo aprende simultáneamente a resistir ataques y a mantener sus principios éticos. Este enfoque refuerza la robustez exponiendo el sistema a escenarios hostiles durante su aprendizaje.