AI 용어집
인공지능 완전 사전
Intégration et Tir (Integrate-and-Fire)
Modèle de neurone simplifié où la membrane cellulaire intègre les entrées synaptiques jusqu'à atteindre un seuil, déclenchant un potentiel d'action et réinitialisant la tension. Ce modèle capture la dynamique de base du déclenchement neuronal tout en restant calculable pour les simulations à grande échelle.
Plasticité Synaptique (STDP)
Mécanisme d'ajustement de la force des connexions synaptiques basé sur la corrélation temporelle précise entre les potentiels d'action pré- et post-synaptiques. La STDP (Spike-Timing-Dependent Plasticity) est une règle d'apprentissage cruciale pour le développement et la plasticité des circuits neuronaux.
Réseau de Neurones à Échelle de Conductance (CNS)
Modélisation où les synapses sont représentées par des changements de conductance plutôt que par des courants injectés, simulant plus fidèlement l'effet de l'ouverture des canaux ioniques postsynaptiques. Cette approche capture la nature shunting (divisive) de l'intégration synaptique et l'interaction entre excitation et inhibition.
Oscillations Neuronales
Activité électrique rythmique et synchronisée de populations de neurones, observable à différentes fréquences (thêta, alpha, bêta, gamma). Ces oscillations sont impliquées dans des fonctions cognitives comme la liaison d'informations, l'attention et la mémoire, et émergent des propriétés du circuit et des interactions synaptiques.
Dynamique d'État d'Attraction
Concept théorique où les réseaux neuronaux convergent vers des patterns d'activité stables (attracteurs) en réponse à une entrée, représentant des mémoires ou des états computationnels. Ces dynamiques expliquent la persistance de l'activité neuronale et la robustesse du traitement de l'information face au bruit.
Codage Temporel des Spikes
Hypothèse selon laquelle l'information est représentée non seulement par le taux de décharge des neurones, mais aussi par la précision temporelle des potentiels d'action individuels. Ce codage permet une transmission d'information à haute vitesse et est essentiel pour des phénomènes comme la détection de son localisation.
Modèle de Neurone à Fuite (Leaky Integrate-and-Fire)
Extension du modèle Integrate-and-Fire qui inclut une fuite de courant membranaire, modélisant la décharge naturelle du potentiel de membrane vers son potentiel de repos. Ce paramètre de fuite (tau) contrôle l'intégration temporelle du neurone et sa sensibilité aux fréquences d'entrée.
Inhibition Divisive
Forme d'inhibition où l'effet des entrées excitatrices sur la sortie d'un neurone est divisé (ou multiplié par un facteur inférieur à un) par l'activité inhibitrice, plutôt que d'être simplement soustraite. Ce mécanisme, implémenté par les synapses shunting, est crucial pour le contrôle du gain et la normalisation des réponses neuronales.
Désynchronisation Inhibitrice
Mécanisme par lequel les interneurones inhibiteurs, en particulier les cellules de Parvalbumine à décharge rapide, peuvent désynchroniser l'activité d'une population de neurones excitateurs. Ce processus est fondamental pour la génération d'oscillations gamma et le découpage temporel du traitement de l'information.
Modèle de Population de Neurones (NPM)
Classe de modèles qui décrivent la dynamique de l'activité moyenne de grandes populations de neurones, en ignorant le comportement de neurones individuels. Ils sont essentiels pour relier l'activité microscopique (cellulaire) aux signaux macroscopiques mesurables comme l'EEG ou l'IRMf.
Topologie de Réseau à Petit Monde
Structure de réseau caractérisée par un haut degré de regroupement (clustering) local et de courtes longueurs de chemin moyennes entre les nœuds, similaire aux réseaux neuronaux réels. Cette topologie optimise la vitesse de propagation de l'information et le traitement local simultanément.