Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Spiking Neural Networks (SNN)
Réseaux de neurones artificiels qui communiquent via des impulsions discretes (spikes) plutôt que des valeurs continues, mimant ainsi plus fidèlement le fonctionnement des neurones biologiques pour un traitement de l'information plus efficace en termes d'énergie.
Address Event Representation (AER)
Protocole de communication asynchrone où chaque événement (spike) est transmis avec l'adresse du neurone émetteur, optimisant la bande passante et la consommation énergétique dans les systèmes neuromorphiques distribués.
Memristor-Based Computing
Architecture de calcul utilisant des memristors comme éléments synaptiques physiques, permettant l'implémentation directe de poids synaptiques variables et de règles d'apprentissage locales dans le matériel neuromorphique.
Neuromorphic Processors
Unités de traitement spécialisées conçues pour implémenter des modèles de neurones et de synapses directement dans le silicium, offrant des performances massivement parallèles et une efficacité énergétique supérieure pour les charges de travail d'IA.
Silicon Neurons
Circuits électroniques qui reproduisent les caractéristiques dynamiques des neurones biologiques, incluant l'intégration temporelle, les seuils d'activation et les périodes réfractaires, formant les éléments de base des architectures neuromorphiques.
Hierarchical Temporal Memory (HTM)
Algorithme biomimétique inspiré du cortex néocortical, utilisant des mémoires éparses distribuées et des prédictions temporelles pour l'apprentissage de séquences et la reconnaissance de patterns dans les flux de données.
Local Learning Rules
Règles d'apprentissage où la mise à jour des poids synaptiques dépend uniquement des informations locales disponibles au niveau de chaque synapse, éliminant le besoin de rétropropagation globale et permettant un apprentissage en temps réel sur matériel neuromorphique.
On-Chip Learning
Capacité des systèmes neuromorphiques à adapter leurs paramètres directement sur la puce sans intervention externe, permettant une adaptation continue et autonome aux changements dans l'environnement ou les données d'entrée.
Asynchronous Computing
Approche de calcul où les opérations ne sont pas synchronisées par une horloge globale mais se produisent de manière indépendante lorsque des événements pertinents se produisent, réduisant la latence et la consommation énergétique dans les architectures neuromorphiques.
Crossbar Architecture
Structure matérielle organisée en grille où les lignes représentent les neurones présynaptiques et les colonnes les neurones postsynaptiques, avec des dispositifs synaptiques aux intersections, permettant une implémentation dense et parallèle des connexions neuronales.
Time-to-First-Spike Coding
Stratégie de codage neuronal où l'information est représentée par le temps d'arrivée du premier spike après un stimulus, offrant une latence de décision rapide et une efficacité énergétique élevée dans les systèmes neuromorphiques.
Neuromorphic Sensing
Capteurs qui transforment directement les signaux physiques en événements asynchrones similaires aux spikes neuronaux, prétraitant les données au niveau matériel pour réduire la quantité d'information à transmettre et traiter.
Hardware-in-the-Loop Simulation
Méthodologie de test et développement où des composants neuromorphiques physiques sont intégrés dans des simulations logicielles, permettant une validation accélérée des algorithmes et architectures avant déploiement complet.
Rate Coding vs Temporal Coding
Deux paradigmes de codage neuronal où le premier représente l'information par la fréquence des spikes et le second par leur timing précis, les systèmes neuromorphiques modernes pouvant exploiter hybride ces deux approches pour un traitement optimal.