Glosario IA
El diccionario completo de la Inteligencia Artificial
SpikeProp
Algoritmo de aprendizaje supervisado adaptado a las redes de neuronas spiking que modifica los pesos sinápticos en función de la diferencia temporal entre los spikes reales y deseados. Representa una adaptación del descenso de gradiente donde los gradientes se calculan con respecto a los tiempos de disparo de las neuronas.
Backpropagation Through Time para SNN
Extensión del algoritmo BPTT clásico adaptada a las redes de neuronas spiking donde la información temporal se propaga a través de pasos de tiempo discretos o continuos. Este método permite el aprendizaje de secuencias temporales considerando las dependencias temporales de los spikes.
STDP Supervisado
Variante de la plasticidad dependiente del tiempo de los spikes donde señales de enseñanza supervisadas modulan las reglas de aprendizaje hebbianas locales. Este enfoque combina el aprendizaje no supervisado intrínseco del STDP con correcciones guiadas por etiquetas de salida.
R-STDP
Reward-modulated Spike-Timing Dependent Plasticity es una regla de aprendizaje de tres factores donde una señal de recompensa global modula la plasticidad local basada en los tiempos de spike. Este método permite el aprendizaje por refuerzo en las redes spiking utilizando mecanismos de plasticidad sináptica biológicamente plausibles.
Tempotron
Algoritmo de aprendizaje supervisado para la clasificación de patrones temporales basado en el potencial de membrana máximo alcanzado durante un período de observación. Ajusta los pesos sinápticos solo cuando la neurona comete un error de clasificación, utilizando una regla de gradiente basada en la diferencia de potencial.
FORCE Learning
First-Order Reduced and Controlled Error learning es un método de entrenamiento supervisado que utiliza una matriz de ganancia inversa para controlar la amplitud de las modificaciones de los pesos. Esta técnica permite un aprendizaje rápido y estable en las redes recurrentes spiking para la generación de patrones temporales complejos.
Reservoir Computing Supervisado
Enfoque donde un reservorio fijo de neuronas spiking no entrenadas transforma dinámicamente las entradas en un espacio de alta dimensión, seguido de un aprendizaje supervisado solo en los pesos de salida. Este método combina la riqueza temporal de las redes spiking con la simplicidad del entrenamiento lineal.
Ventana de aprendizaje
Ventana temporal que define el intervalo durante el cual los spikes son considerados para el cálculo de los gradientes o las reglas de plasticidad en las redes spiking. El tamaño y la forma de esta ventana influyen directamente en la capacidad de aprendizaje de las dependencias temporales.
Retropropagación basada en spikes
Variante de la retropropagación donde los gradientes se calculan directamente a partir de los tiempos de disparo en lugar de activaciones continuas. Este enfoque mantiene la naturaleza basada en eventos de las redes spiking permitiendo el uso de técnicas de optimización basadas en gradientes.
Aprendizaje basado en eventos
Paradigma de aprendizaje donde las actualizaciones de pesos ocurren solo en el momento de los eventos de spike, optimizando así la eficiencia computacional. Este método explota la naturaleza dispersa de las comunicaciones neuronales para reducir la complejidad temporal del entrenamiento.
Aprendizaje de codificación temporal
Conjunto de algoritmos que aprenden a codificar y decodificar la información en los tiempos relativos de los spikes en lugar de en sus frecuencias. Estos métodos son particularmente adecuados para tareas que requieren alta precisión temporal, como el procesamiento del habla o el reconocimiento de patrones espaciotemporales.
Aprendizaje de orden de rango
Regla de aprendizaje supervisado que modifica los pesos sinápticos en función del orden relativo de los spikes en una población de neuronas. Este enfoque captura la información contenida en la secuencia de disparo para tareas de clasificación rápida y robusta.
Método de Supervisión Remota (ReSuMe)
Algoritmo de aprendizaje supervisado que fuerza a las neuronas a producir trenes de spikes deseados utilizando una regla de plasticidad dependiente del tiempo y de la diferencia. Este método es particularmente efectivo para el aprendizaje de patrones temporales complejos y la reproducción de secuencias de spikes.
Chronotron
Algoritmo de aprendizaje supervisado que minimiza la distancia entre el tren de spikes producido y el tren de spikes objetivo utilizando el kernel Victor-Purpura. Este método permite un aprendizaje preciso de patrones temporales optimizando directamente la similitud de las secuencias de spikes.
Aprendizaje Hebbiano Contrastivo basado en eventos
Combinación del aprendizaje contrastivo y de reglas hebbianas adaptada a las redes spiking donde las fases de vigilia y sueño se implementan mediante eventos de spikes específicos. Este enfoque permite el aprendizaje no supervisado y supervisado en un marco unificado basado en eventos.
E-prop
La retropropagación basada en eventos es un método de aprendizaje que aproxima la retropropagación a través del tiempo utilizando señales de retropropagación locales y basadas en eventos. Este enfoque ofrece un compromiso entre la eficiencia biológica y el rendimiento de los métodos basados en gradientes.
Aprendizaje de Gradiente Sustituto
Técnica que utiliza funciones sustitutas diferenciables para aproximar los gradientes no diferenciables de las funciones de disparo de las neuronas spiking. Este método permite la aplicación directa de los algoritmos de retropropagación estándar a las redes spiking discretas.
Retropropagación Dependiente del Tiempo de Spikes
Algoritmo que integra la dependencia temporal de los spikes directamente en el cálculo de los gradientes de retropropagación. Este enfoque captura las dinámicas temporales finas de las redes spiking mientras mantiene la eficiencia de la optimización por gradiente.