Glosario IA
El diccionario completo de la Inteligencia Artificial
Aprendizaje Continuo sin Tareas
Paradigma de aprendizaje donde el modelo aprende continuamente a partir de un flujo de datos sin delimitación explícita de tareas, requiriendo una adaptación autónoma a los cambios en la distribución.
Plasticidad-Estabilidad
Dilema fundamental en el aprendizaje continuo entre la capacidad de aprender nueva información (plasticidad) y la preservación de los conocimientos adquiridos (estabilidad).
Búfer de Reproducción Dinámico
Memoria intermedia adaptativa que almacena selectivamente muestras representativas del pasado para revisar periódicamente los conocimientos anteriores sin fronteras de tareas definidas.
Regularización Sináptica Continua
Técnica que preserva los pesos sinápticos importantes identificados dinámicamente durante el aprendizaje continuo para limitar el olvido catastrófico sin conocimiento a priori de las tareas.
Expansión Adaptativa de Red
Estrategia que añade dinámicamente neuronas o capas a la red cuando se requieren nuevas capacidades, permitiendo un crecimiento orgánico sin segmentación explícita de tareas.
Consolidación Sináptica en Línea
Proceso de estabilización progresiva de las conexiones neuronales importantes identificadas en tiempo real durante el aprendizaje continuo, imitando los mecanismos de consolidación biológica.
Detección Automática de Cambio
Mecanismo que identifica automáticamente las transiciones en la distribución de datos o los conceptos sin supervisión explícita, crucial para la adaptación continua.
Memoria Episódica sin Fronteras
Sistema de memoria que almacena experiencias significativas de manera continua sin segmentación por tareas, utilizando criterios de selección dinámicos basados en la utilidad.
Aprendizaje Continuo Auto-Supervisado
Enfoque en el que el modelo genera sus propias señales de aprendizaje a partir de datos no etiquetados de forma continua, adaptando sus representaciones sin supervisión externa.
Espacio Latente Continuo
Representación de dimensión reducida que evoluciona dinámicamente para acomodar nuevos conceptos mientras preserva la estructura semántica de los conocimientos anteriores.
Transferencia Gradual de Conocimientos
Proceso de identificación y reutilización automática de los conocimientos transferibles entre conceptos emergentes en un flujo de datos continu sin delimitación explícita.
Métricas de Continuidad
Indicadores que cuantifican el rendimiento del modelo sobre el conjunto de conocimientos adquiridos a lo largo del tiempo, midiendo el equilibrio entre aprendizaje y preservación sin segmentación de tareas.
Adaptación No Estacionaria
Capacidad de un sistema para modificar sus parámetros internos en respuesta a distribuciones de datos que cambian dinámicamente, característica esencial del aprendizaje sin tareas.