Glosario IA
El diccionario completo de la Inteligencia Artificial
Ataque por envenenamiento
Técnica de ataque donde se inyectan datos maliciosos en el conjunto de entrenamiento para degradar el rendimiento del modelo o introducir vulnerabilidades específicas.
Inyección de puerta trasera
Método que consiste en insertar desencadenantes específicos en los datos de entrenamiento para crear un comportamiento malicioso latente que se active solo en presencia de estos desencadenantes.
Ataque por corrupción de etiquetas
Estrategia de envenenamiento donde el atacante modifica intencionalmente las etiquetas de los datos de entrenamiento para inducir a error al modelo y comprometer su precisión de clasificación.
Ataque causal por envenenamiento
Enfoque sofisticado de envenenamiento que manipula las relaciones causales entre las características para influir de manera dirigida las predicciones del modelo.
Defensa por robustez
Conjunto de técnicas destinadas a hacer que los modelos de IA sean resistentes a los ataques por envenenamiento limitando el impacto de los datos maliciosos en el aprendizaje.
Detección de anomalías de entrenamiento
Proceso de identificación y eliminación de puntos de datos anormales o potencialmente maliciosos en el conjunto de entrenamiento antes o durante el aprendizaje.
Validación cruzada robusta
Técnica de validación reforzada que evalúa la estabilidad del modelo ante diferentes particiones de los datos para detectar posibles contaminaciones maliciosas.
Aprendizaje con datos ruidosos
Paradigma de aprendizaje diseñado para mantener un rendimiento óptimo a pesar de la presencia de datos corruptos o modificados intencionalmente en el conjunto de entrenamiento.
Purificación de conjunto de datos
Proceso sistemático de limpieza de los datos de entrenamiento para identificar y eliminar las muestras potencialmente envenenadas antes del entrenamiento del modelo.
Modelo certificable
Arquitectura de modelo de IA capaz de proporcionar garantías matemáticas sobre su resistencia a los ataques por envenenamiento en condiciones definidas.
Ataque por sobreajuste inducido
Técnica de envenenamiento que fuerza al modelo a sobreajustarse a patrones específicos introducidos por el atacante, comprometiendo su capacidad de generalización.
Defensa por filtrado
Mecanismo de protección que aplica filtros estadísticos o heurísticos para eliminar los datos sospechosos antes de su integración en el proceso de aprendizaje.
Envenenamiento dirigido
Ataque de envenenamiento diseñada para comprometer específicamente las predicciones para ciertas clases o entradas particulares preservando al mismo tiempo el rendimiento general.
Envenenamiento indiscriminado
Ataque que busca degradar globalmente el rendimiento del modelo sin un objetivo específico, a menudo introduciendo ruido sistemático en los datos de entrenamiento.
Defensa por reentrenamiento incremental
Estrategia de protección que actualiza continuamente el modelo con nuevos datos validados mientras monitorea las derivas de rendimiento que puedan indicar un envenenamiento.
Ataque por retropropagación inversa
Técnica avanzada donde el atacante calcula las modificaciones óptimas a realizar en los datos de entrenamiento para maximizar el impacto en los pesos finales del modelo.
Defensa por validación externa
Enfoque de protección que utiliza conjuntos de validación independientes y no comprometidos para detectar las degradaciones del rendimiento causadas por el envenenamiento.