🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Intégration et Tir (Integrate-and-Fire)

Modèle de neurone simplifié où la membrane cellulaire intègre les entrées synaptiques jusqu'à atteindre un seuil, déclenchant un potentiel d'action et réinitialisant la tension. Ce modèle capture la dynamique de base du déclenchement neuronal tout en restant calculable pour les simulations à grande échelle.

📖
termes

Plasticité Synaptique (STDP)

Mécanisme d'ajustement de la force des connexions synaptiques basé sur la corrélation temporelle précise entre les potentiels d'action pré- et post-synaptiques. La STDP (Spike-Timing-Dependent Plasticity) est une règle d'apprentissage cruciale pour le développement et la plasticité des circuits neuronaux.

📖
termes

Réseau de Neurones à Échelle de Conductance (CNS)

Modélisation où les synapses sont représentées par des changements de conductance plutôt que par des courants injectés, simulant plus fidèlement l'effet de l'ouverture des canaux ioniques postsynaptiques. Cette approche capture la nature shunting (divisive) de l'intégration synaptique et l'interaction entre excitation et inhibition.

📖
termes

Oscillations Neuronales

Activité électrique rythmique et synchronisée de populations de neurones, observable à différentes fréquences (thêta, alpha, bêta, gamma). Ces oscillations sont impliquées dans des fonctions cognitives comme la liaison d'informations, l'attention et la mémoire, et émergent des propriétés du circuit et des interactions synaptiques.

📖
termes

Dynamique d'État d'Attraction

Concept théorique où les réseaux neuronaux convergent vers des patterns d'activité stables (attracteurs) en réponse à une entrée, représentant des mémoires ou des états computationnels. Ces dynamiques expliquent la persistance de l'activité neuronale et la robustesse du traitement de l'information face au bruit.

📖
termes

Codage Temporel des Spikes

Hypothèse selon laquelle l'information est représentée non seulement par le taux de décharge des neurones, mais aussi par la précision temporelle des potentiels d'action individuels. Ce codage permet une transmission d'information à haute vitesse et est essentiel pour des phénomènes comme la détection de son localisation.

📖
termes

Modèle de Neurone à Fuite (Leaky Integrate-and-Fire)

Extension du modèle Integrate-and-Fire qui inclut une fuite de courant membranaire, modélisant la décharge naturelle du potentiel de membrane vers son potentiel de repos. Ce paramètre de fuite (tau) contrôle l'intégration temporelle du neurone et sa sensibilité aux fréquences d'entrée.

📖
termes

Inhibition Divisive

Forme d'inhibition où l'effet des entrées excitatrices sur la sortie d'un neurone est divisé (ou multiplié par un facteur inférieur à un) par l'activité inhibitrice, plutôt que d'être simplement soustraite. Ce mécanisme, implémenté par les synapses shunting, est crucial pour le contrôle du gain et la normalisation des réponses neuronales.

📖
termes

Désynchronisation Inhibitrice

Mécanisme par lequel les interneurones inhibiteurs, en particulier les cellules de Parvalbumine à décharge rapide, peuvent désynchroniser l'activité d'une population de neurones excitateurs. Ce processus est fondamental pour la génération d'oscillations gamma et le découpage temporel du traitement de l'information.

📖
termes

Modèle de Population de Neurones (NPM)

Classe de modèles qui décrivent la dynamique de l'activité moyenne de grandes populations de neurones, en ignorant le comportement de neurones individuels. Ils sont essentiels pour relier l'activité microscopique (cellulaire) aux signaux macroscopiques mesurables comme l'EEG ou l'IRMf.

📖
termes

Topologie de Réseau à Petit Monde

Structure de réseau caractérisée par un haut degré de regroupement (clustering) local et de courtes longueurs de chemin moyennes entre les nœuds, similaire aux réseaux neuronaux réels. Cette topologie optimise la vitesse de propagation de l'information et le traitement local simultanément.

🔍

Aucun résultat trouvé