🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📖
termini

Intégration et Tir (Integrate-and-Fire)

Modèle de neurone simplifié où la membrane cellulaire intègre les entrées synaptiques jusqu'à atteindre un seuil, déclenchant un potentiel d'action et réinitialisant la tension. Ce modèle capture la dynamique de base du déclenchement neuronal tout en restant calculable pour les simulations à grande échelle.

📖
termini

Plasticité Synaptique (STDP)

Mécanisme d'ajustement de la force des connexions synaptiques basé sur la corrélation temporelle précise entre les potentiels d'action pré- et post-synaptiques. La STDP (Spike-Timing-Dependent Plasticity) est une règle d'apprentissage cruciale pour le développement et la plasticité des circuits neuronaux.

📖
termini

Réseau de Neurones à Échelle de Conductance (CNS)

Modélisation où les synapses sont représentées par des changements de conductance plutôt que par des courants injectés, simulant plus fidèlement l'effet de l'ouverture des canaux ioniques postsynaptiques. Cette approche capture la nature shunting (divisive) de l'intégration synaptique et l'interaction entre excitation et inhibition.

📖
termini

Oscillations Neuronales

Activité électrique rythmique et synchronisée de populations de neurones, observable à différentes fréquences (thêta, alpha, bêta, gamma). Ces oscillations sont impliquées dans des fonctions cognitives comme la liaison d'informations, l'attention et la mémoire, et émergent des propriétés du circuit et des interactions synaptiques.

📖
termini

Dynamique d'État d'Attraction

Concept théorique où les réseaux neuronaux convergent vers des patterns d'activité stables (attracteurs) en réponse à une entrée, représentant des mémoires ou des états computationnels. Ces dynamiques expliquent la persistance de l'activité neuronale et la robustesse du traitement de l'information face au bruit.

📖
termini

Codage Temporel des Spikes

Hypothèse selon laquelle l'information est représentée non seulement par le taux de décharge des neurones, mais aussi par la précision temporelle des potentiels d'action individuels. Ce codage permet une transmission d'information à haute vitesse et est essentiel pour des phénomènes comme la détection de son localisation.

📖
termini

Modèle de Neurone à Fuite (Leaky Integrate-and-Fire)

Extension du modèle Integrate-and-Fire qui inclut une fuite de courant membranaire, modélisant la décharge naturelle du potentiel de membrane vers son potentiel de repos. Ce paramètre de fuite (tau) contrôle l'intégration temporelle du neurone et sa sensibilité aux fréquences d'entrée.

📖
termini

Inhibition Divisive

Forme d'inhibition où l'effet des entrées excitatrices sur la sortie d'un neurone est divisé (ou multiplié par un facteur inférieur à un) par l'activité inhibitrice, plutôt que d'être simplement soustraite. Ce mécanisme, implémenté par les synapses shunting, est crucial pour le contrôle du gain et la normalisation des réponses neuronales.

📖
termini

Désynchronisation Inhibitrice

Mécanisme par lequel les interneurones inhibiteurs, en particulier les cellules de Parvalbumine à décharge rapide, peuvent désynchroniser l'activité d'une population de neurones excitateurs. Ce processus est fondamental pour la génération d'oscillations gamma et le découpage temporel du traitement de l'information.

📖
termini

Modèle de Population de Neurones (NPM)

Classe de modèles qui décrivent la dynamique de l'activité moyenne de grandes populations de neurones, en ignorant le comportement de neurones individuels. Ils sont essentiels pour relier l'activité microscopique (cellulaire) aux signaux macroscopiques mesurables comme l'EEG ou l'IRMf.

📖
termini

Topologie de Réseau à Petit Monde

Structure de réseau caractérisée par un haut degré de regroupement (clustering) local et de courtes longueurs de chemin moyennes entre les nœuds, similaire aux réseaux neuronaux réels. Cette topologie optimise la vitesse de propagation de l'information et le traitement local simultanément.

🔍

Nessun risultato trovato