Glosario IA
El diccionario completo de la Inteligencia Artificial
Redes Progresivas
Arquitectura de redes neuronales que añade nuevas columnas para cada nueva tarea preservando los conocimientos de las tareas anteriores. Este enfoque permite un aprendizaje continuo sin olvido catastrófico.
Conexiones Laterales
Conexiones laterales que enlazan las columnas de tareas anteriores con las nuevas columnas en la arquitectura de Redes Progresivas. Permiten la transferencia de conocimientos y la reutilización de características aprendidas.
Arquitectura por Columnas
Estructura organizacional donde cada tarea tiene su propia columna neuronal distinta pero interconectada. Esta arquitectura facilita la expansión del modelo para nuevas tareas sin perturbar los conocimientos existentes.
Transferencia Hacia Adelante
Fenómeno donde los conocimientos adquiridos en tareas anteriores mejoran el rendimiento en nuevas tareas. Esta transferencia positiva es optimizada por las conexiones laterales en las Redes Progresivas.
Transferencia Hacia Atrás
Capacidad de un modelo para mejorar retroactivamente el rendimiento en tareas anteriores después de aprender nuevas tareas. Las Redes Progresivas facilitan esta transferencia bidireccional de conocimientos.
Preservación de Conocimientos
Mecanismo que garantiza que los conocimientos adquiridos en tareas anteriores no se degraden al aprender nuevas tareas. Esta preservación es fundamental en el aprendizaje continuo.
Adaptadores Específicos de Tarea
Módulos especializados insertados en la arquitectura para adaptar las características generales a los requisitos específicos de cada tarea. Estos adaptadores permiten una flexibilidad óptima preservando los conocimientos compartidos.
Expansión de Capacidad
Estrategia de aumento dinámico de la capacidad del modelo añadiendo nuevas columnas neuronales para acomodar nuevas tareas. Esta expansión controlada evita la saturación de recursos.
Plasticidad Neuronal
Capacidad de las redes de neuronas para adaptarse y modificar sus conexiones en respuesta a nueva información. En las Redes Progresivas, esta plasticidad se controla para preservar los conocimientos existentes.
Inteligencia Sináptica
Método de aprendizaje continuo que identifica y protege las conexiones sinápticas importantes para las tareas anteriores. Esta inteligencia sináptica se integra en los mecanismos de preservación de conocimientos.
Consolidación Elástica de Pesos
Técnica de regularización que penaliza las modificaciones importantes de los pesos sinápticos cruciales para las tareas anteriores. Este enfoque elástico permite un compromiso entre aprendizaje y preservación.
Sinapsis Conscientes de la Memoria
Enfoque que evalúa la importancia de cada sinapsis basándose en su contribución a las tareas pasadas para guiar el aprendizaje futuro. Esta conciencia mnémica optimiza la transferencia de conocimientos.
Memoria Episódica por Gradientes
Mecanismo de almacenamiento y recuperación de ejemplos de tareas anteriores para contrarrestar el olvido catastrófico. Esta memoria episódica guía los gradientes durante el aprendizaje de nuevas tareas.
Expansión Dinámica de la Arquitectura
Proceso de adición automática de nuevos recursos neuronales cuando el modelo alcanza su capacidad máxima. Esta expansión dinámica es esencial para los sistemas de aprendizaje continuo.
Representación Multi-tarea
Espacio de características compartido que captura la información común a varias tareas simultáneamente. Estas representaciones multi-tarea se optimizan en la arquitectura de las Redes Progresivas.