🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

SpikeProp

Algoritmo de aprendizaje supervisado adaptado a las redes de neuronas spiking que modifica los pesos sinápticos en función de la diferencia temporal entre los spikes reales y deseados. Representa una adaptación del descenso de gradiente donde los gradientes se calculan con respecto a los tiempos de disparo de las neuronas.

📖
términos

Backpropagation Through Time para SNN

Extensión del algoritmo BPTT clásico adaptada a las redes de neuronas spiking donde la información temporal se propaga a través de pasos de tiempo discretos o continuos. Este método permite el aprendizaje de secuencias temporales considerando las dependencias temporales de los spikes.

📖
términos

STDP Supervisado

Variante de la plasticidad dependiente del tiempo de los spikes donde señales de enseñanza supervisadas modulan las reglas de aprendizaje hebbianas locales. Este enfoque combina el aprendizaje no supervisado intrínseco del STDP con correcciones guiadas por etiquetas de salida.

📖
términos

R-STDP

Reward-modulated Spike-Timing Dependent Plasticity es una regla de aprendizaje de tres factores donde una señal de recompensa global modula la plasticidad local basada en los tiempos de spike. Este método permite el aprendizaje por refuerzo en las redes spiking utilizando mecanismos de plasticidad sináptica biológicamente plausibles.

📖
términos

Tempotron

Algoritmo de aprendizaje supervisado para la clasificación de patrones temporales basado en el potencial de membrana máximo alcanzado durante un período de observación. Ajusta los pesos sinápticos solo cuando la neurona comete un error de clasificación, utilizando una regla de gradiente basada en la diferencia de potencial.

📖
términos

FORCE Learning

First-Order Reduced and Controlled Error learning es un método de entrenamiento supervisado que utiliza una matriz de ganancia inversa para controlar la amplitud de las modificaciones de los pesos. Esta técnica permite un aprendizaje rápido y estable en las redes recurrentes spiking para la generación de patrones temporales complejos.

📖
términos

Reservoir Computing Supervisado

Enfoque donde un reservorio fijo de neuronas spiking no entrenadas transforma dinámicamente las entradas en un espacio de alta dimensión, seguido de un aprendizaje supervisado solo en los pesos de salida. Este método combina la riqueza temporal de las redes spiking con la simplicidad del entrenamiento lineal.

📖
términos

Ventana de aprendizaje

Ventana temporal que define el intervalo durante el cual los spikes son considerados para el cálculo de los gradientes o las reglas de plasticidad en las redes spiking. El tamaño y la forma de esta ventana influyen directamente en la capacidad de aprendizaje de las dependencias temporales.

📖
términos

Retropropagación basada en spikes

Variante de la retropropagación donde los gradientes se calculan directamente a partir de los tiempos de disparo en lugar de activaciones continuas. Este enfoque mantiene la naturaleza basada en eventos de las redes spiking permitiendo el uso de técnicas de optimización basadas en gradientes.

📖
términos

Aprendizaje basado en eventos

Paradigma de aprendizaje donde las actualizaciones de pesos ocurren solo en el momento de los eventos de spike, optimizando así la eficiencia computacional. Este método explota la naturaleza dispersa de las comunicaciones neuronales para reducir la complejidad temporal del entrenamiento.

📖
términos

Aprendizaje de codificación temporal

Conjunto de algoritmos que aprenden a codificar y decodificar la información en los tiempos relativos de los spikes en lugar de en sus frecuencias. Estos métodos son particularmente adecuados para tareas que requieren alta precisión temporal, como el procesamiento del habla o el reconocimiento de patrones espaciotemporales.

📖
términos

Aprendizaje de orden de rango

Regla de aprendizaje supervisado que modifica los pesos sinápticos en función del orden relativo de los spikes en una población de neuronas. Este enfoque captura la información contenida en la secuencia de disparo para tareas de clasificación rápida y robusta.

📖
términos

Método de Supervisión Remota (ReSuMe)

Algoritmo de aprendizaje supervisado que fuerza a las neuronas a producir trenes de spikes deseados utilizando una regla de plasticidad dependiente del tiempo y de la diferencia. Este método es particularmente efectivo para el aprendizaje de patrones temporales complejos y la reproducción de secuencias de spikes.

📖
términos

Chronotron

Algoritmo de aprendizaje supervisado que minimiza la distancia entre el tren de spikes producido y el tren de spikes objetivo utilizando el kernel Victor-Purpura. Este método permite un aprendizaje preciso de patrones temporales optimizando directamente la similitud de las secuencias de spikes.

📖
términos

Aprendizaje Hebbiano Contrastivo basado en eventos

Combinación del aprendizaje contrastivo y de reglas hebbianas adaptada a las redes spiking donde las fases de vigilia y sueño se implementan mediante eventos de spikes específicos. Este enfoque permite el aprendizaje no supervisado y supervisado en un marco unificado basado en eventos.

📖
términos

E-prop

La retropropagación basada en eventos es un método de aprendizaje que aproxima la retropropagación a través del tiempo utilizando señales de retropropagación locales y basadas en eventos. Este enfoque ofrece un compromiso entre la eficiencia biológica y el rendimiento de los métodos basados en gradientes.

📖
términos

Aprendizaje de Gradiente Sustituto

Técnica que utiliza funciones sustitutas diferenciables para aproximar los gradientes no diferenciables de las funciones de disparo de las neuronas spiking. Este método permite la aplicación directa de los algoritmos de retropropagación estándar a las redes spiking discretas.

📖
términos

Retropropagación Dependiente del Tiempo de Spikes

Algoritmo que integra la dependencia temporal de los spikes directamente en el cálculo de los gradientes de retropropagación. Este enfoque captura las dinámicas temporales finas de las redes spiking mientras mantiene la eficiencia de la optimización por gradiente.

🔍

No se encontraron resultados