Słownik AI
Kompletny słownik sztucznej inteligencji
SpikeProp
Algorithme d'apprentissage supervisé adapté aux réseaux de neurones spiking qui modifie les poids synaptiques en fonction de la différence temporelle entre les spikes réels et désirés. Il représente une adaptation du gradient descent où les gradients sont calculés par rapport aux temps de décharge des neurones.
Backpropagation Through Time pour SNN
Extension de l'algorithme BPTT classique adaptée aux réseaux de neurones spiking où l'information temporelle est propagée à travers les pas de temps discrets ou continus. Cette méthode permet l'apprentissage de séquences temporelles en considérant les dépendances temporelles des spikes.
STDP Supervisé
Variante de la plasticité dépendante du moment des spikes où des signaux d'enseignement supervisés modulent les règles d'apprentissage hebbiennes locales. Cette approche combine l'apprentissage non supervisé intrinsèque du STDP avec des corrections guidées par des étiquettes de sortie.
R-STDP
Reward-modulated Spike-Timing Dependent Plasticity est une règle d'apprentissage trois facteurs où un signal de récompense global module la plasticité locale basée sur les temps de spike. Cette méthode permet l'apprentissage par renforcement dans les réseaux spiking en utilisant des mécanismes de plasticité synaptique biologiquement plausibles.
Tempotron
Algorithme d'apprentissage supervisé pour la classification de patterns temporels basé sur le potentiel membranaire maximum atteint pendant une période d'observation. Il ajuste les poids synaptiques uniquement lorsque le neurone fait une erreur de classification, en utilisant une règle de gradient basée sur la différence de potentiel.
FORCE Learning
First-Order Reduced and Controlled Error learning est une méthode d'entraînement supervisé qui utilise une matrice de gain inverse pour contrôler l'amplitude des modifications de poids. Cette technique permet un apprentissage rapide et stable dans les réseaux récurrents spiking pour la génération de patterns temporels complexes.
Reservoir Computing Supervisé
Approche où un réservoir fixe de neurones spiking non entraînés transforme dynamiquement les entrées en un espace de haute dimension, suivi d'un apprentissage supervisé uniquement sur les poids de sortie. Cette méthode combine la richesse temporelle des réseaux spiking avec une simplicité d'entraînement linéaire.
Learning Window
Fenêtre temporelle définissant l'intervalle pendant lequel les spikes sont considérés pour le calcul des gradients ou des règles de plasticité dans les réseaux spiking. La taille et la forme de cette fenêtre influencent directement la capacité d'apprentissage des dépendances temporelles.
Spike-based Backpropagation
Variante de la rétropropagation où les gradients sont calculés directement à partir des temps de décharge plutôt que des activations continues. Cette approche maintient la nature événementielle des réseaux spiking tout en permettant l'utilisation de techniques d'optimisation basées sur les gradients.
Event-driven Learning
Paradigme d'apprentissage où les mises à jour des poids ne se produisent qu'au moment des événements de spike, optimisant ainsi l'efficacité computationnelle. Cette méthode exploite la nature éparse des communications neuronales pour réduire la complexité temporelle de l'entraînement.
Temporal Coding Learning
Ensemble d'algorithmes qui apprennent à encoder et décoder l'information dans les temps relatifs des spikes plutôt que dans leurs fréquences. Ces méthodes sont particulièrement adaptées aux tâches nécessitant une précision temporelle élevée comme le traitement de la parole ou la reconnaissance de patterns spatiotemporels.
Rank-order Learning
Règle d'apprentissage supervisé qui modifie les poids synaptiques en fonction de l'ordre relatif des spikes dans une population de neurones. Cette approche capture l'information contenue dans la séquence de décharge pour des tâches de classification rapide et robuste.
Remote Supervised Method (ReSuMe)
Algorithme d'apprentissage supervisé qui force les neurones à produire des trains de spikes désirés en utilisant une règle de plasticité dépendante du temps et de l'écart. Cette méthode est particulièrement efficace pour l'apprentissage de patterns temporels complexes et la reproduction de séquences de spikes.
Chronotron
Algorithme d'apprentissage supervisé qui minimise la distance entre le train de spikes produit et le train de spikes cible en utilisant le kernel Victor-Purpura. Cette méthode permet un apprentissage précis des patterns temporels en optimisant directement la similarité des séquences de spikes.
Event-driven Contrastive Hebbian Learning
Combinaison de l'apprentissage contrastif et de règles hebbiennes adaptée aux réseaux spiking où les phases de réveil et de sommeil sont implémentées par des événements de spikes spécifiques. Cette approche permet l'apprentissage non supervisé et supervisé dans un cadre unifié événementiel.
E-prop
Event-driven backpropagation est une méthode d'apprentissage qui approxime la rétropropagation à travers le temps en utilisant des signaux de rétropropagation locaux et événementiels. Cette approche offre un compromis entre l'efficacité biologique et la performance des méthodes basées sur les gradients.
Surrogate Gradient Learning
Technique that uses differentiable surrogate functions to approximate the non-differentiable gradients of spiking neuron discharge functions. This method enables direct application of standard backpropagation algorithms to discrete spiking networks.
Spike-timing Dependent Backpropagation
Algorithm that integrates the temporal dependency of spikes directly into the backpropagation gradient computation. This approach captures the fine temporal dynamics of spiking networks while maintaining the efficiency of gradient-based optimization.