🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Redes Progresivas

Arquitectura de redes neuronales que añade nuevas columnas para cada nueva tarea preservando los conocimientos de las tareas anteriores. Este enfoque permite un aprendizaje continuo sin olvido catastrófico.

📖
términos

Conexiones Laterales

Conexiones laterales que enlazan las columnas de tareas anteriores con las nuevas columnas en la arquitectura de Redes Progresivas. Permiten la transferencia de conocimientos y la reutilización de características aprendidas.

📖
términos

Arquitectura por Columnas

Estructura organizacional donde cada tarea tiene su propia columna neuronal distinta pero interconectada. Esta arquitectura facilita la expansión del modelo para nuevas tareas sin perturbar los conocimientos existentes.

📖
términos

Transferencia Hacia Adelante

Fenómeno donde los conocimientos adquiridos en tareas anteriores mejoran el rendimiento en nuevas tareas. Esta transferencia positiva es optimizada por las conexiones laterales en las Redes Progresivas.

📖
términos

Transferencia Hacia Atrás

Capacidad de un modelo para mejorar retroactivamente el rendimiento en tareas anteriores después de aprender nuevas tareas. Las Redes Progresivas facilitan esta transferencia bidireccional de conocimientos.

📖
términos

Preservación de Conocimientos

Mecanismo que garantiza que los conocimientos adquiridos en tareas anteriores no se degraden al aprender nuevas tareas. Esta preservación es fundamental en el aprendizaje continuo.

📖
términos

Adaptadores Específicos de Tarea

Módulos especializados insertados en la arquitectura para adaptar las características generales a los requisitos específicos de cada tarea. Estos adaptadores permiten una flexibilidad óptima preservando los conocimientos compartidos.

📖
términos

Expansión de Capacidad

Estrategia de aumento dinámico de la capacidad del modelo añadiendo nuevas columnas neuronales para acomodar nuevas tareas. Esta expansión controlada evita la saturación de recursos.

📖
términos

Plasticidad Neuronal

Capacidad de las redes de neuronas para adaptarse y modificar sus conexiones en respuesta a nueva información. En las Redes Progresivas, esta plasticidad se controla para preservar los conocimientos existentes.

📖
términos

Inteligencia Sináptica

Método de aprendizaje continuo que identifica y protege las conexiones sinápticas importantes para las tareas anteriores. Esta inteligencia sináptica se integra en los mecanismos de preservación de conocimientos.

📖
términos

Consolidación Elástica de Pesos

Técnica de regularización que penaliza las modificaciones importantes de los pesos sinápticos cruciales para las tareas anteriores. Este enfoque elástico permite un compromiso entre aprendizaje y preservación.

📖
términos

Sinapsis Conscientes de la Memoria

Enfoque que evalúa la importancia de cada sinapsis basándose en su contribución a las tareas pasadas para guiar el aprendizaje futuro. Esta conciencia mnémica optimiza la transferencia de conocimientos.

📖
términos

Memoria Episódica por Gradientes

Mecanismo de almacenamiento y recuperación de ejemplos de tareas anteriores para contrarrestar el olvido catastrófico. Esta memoria episódica guía los gradientes durante el aprendizaje de nuevas tareas.

📖
términos

Expansión Dinámica de la Arquitectura

Proceso de adición automática de nuevos recursos neuronales cuando el modelo alcanza su capacidad máxima. Esta expansión dinámica es esencial para los sistemas de aprendizaje continuo.

📖
términos

Representación Multi-tarea

Espacio de características compartido que captura la información común a varias tareas simultáneamente. Estas representaciones multi-tarea se optimizan en la arquitectura de las Redes Progresivas.

🔍

No se encontraron resultados