Glosario IA
El diccionario completo de la Inteligencia Artificial
Integración y Disparo (Integrate-and-Fire)
Modelo de neurona simplificado donde la membrana celular integra las entradas sinápticas hasta alcanzar un umbral, desencadenando un potencial de acción y restableciendo el voltaje. Este modelo captura la dinámica básica del disparo neuronal mientras permanece calculable para simulaciones a gran escala.
Plasticidad Sináptica (STDP)
Mecanismo de ajuste de la fuerza de las conexiones sinápticas basado en la correlación temporal precisa entre los potenciales de acción pre- y postsinápticos. La STDP (Spike-Timing-Dependent Plasticity) es una regla de aprendizaje crucial para el desarrollo y la plasticidad de los circuitos neuronales.
Red de Neuronas a Escala de Conductancia (CNS)
Modelado donde las sinapsis son representadas por cambios de conductancia en lugar de corrientes inyectadas, simulando más fielmente el efecto de la apertura de canales iónicos postsinápticos. Este enfoque captura la naturaleza shunting (divisiva) de la integración sináptica y la interacción entre excitación e inhibición.
Oscilaciones Neuronales
Actividad eléctrica rítmica y sincronizada de poblaciones de neuronas, observable en diferentes frecuencias (theta, alfa, beta, gamma). Estas oscilaciones están implicadas en funciones cognitivas como la vinculación de información, la atención y la memoria, y emergen de las propiedades del circuito y las interacciones sinápticas.
Dinámica de Estado de Atracción
Concepto teórico donde las redes neuronales convergen hacia patrones de actividad estables (atractores) en respuesta a una entrada, representando memorias o estados computacionales. Estas dinámicas explican la persistencia de la actividad neuronal y la robustez del procesamiento de información frente al ruido.
Codificación Temporal de Espigas
Hipótesis según la cual la información es representada no solo por la tasa de descarga de las neuronas, sino también por la precisión temporal de los potenciales de acción individuales. Esta codificación permite una transmisión de información a alta velocidad y es esencial para fenómenos como la detección de localización del sonido.
Modelo de Neurona con Fuga (Leaky Integrate-and-Fire)
Extensión del modelo Integración y Disparo que incluye una fuga de corriente de membrana, modelando la descarga natural del potencial de membrana hacia su potencial de reposo. Este parámetro de fuga (tau) controla la integración temporal de la neurona y su sensibilidad a las frecuencias de entrada.
Inhibición Divisiva
Forma de inhibición donde el efecto de las entradas excitadoras en la salida de una neurona es dividido (o multiplicado por un factor menor a uno) por la actividad inhibitoria, en lugar de ser simplemente restado. Este mecanismo, implementado por las sinapsis shunting, es crucial para el control de ganancia y la normalización de las respuestas neuronales.
Desincronización Inhibitoria
Mecanismo por el cual las interneuronas inhibitorias, particularmente las células de Parvalbúmina de descarga rápida, pueden desincronizar la actividad de una población de neuronas excitadoras. Este proceso es fundamental para la generación de oscilaciones gamma y la segmentación temporal del procesamiento de información.
Modelo de Población de Neuronas (NPM)
Clase de modelos que describen la dinámica de la actividad promedio de grandes poblaciones de neuronas, ignorando el comportamiento de neuronas individuales. Son esenciales para relacionar la actividad microscópica (celular) con las señales macroscópicas medibles como el EEG o la IRMf.
Topología de Red de Pequeño Mundo
Estructura de red caracterizada por un alto grado de agrupamiento (clustering) local y cortas longitudes de camino promedio entre los nodos, similar a las redes neuronales reales. Esta topología optimiza la velocidad de propagación de la información y el procesamiento local simultáneamente.