Glosario IA
El diccionario completo de la Inteligencia Artificial
TabNet
Arquitectura de red neuronal secuencial diseñada específicamente para datos tabulares, utilizando un mecanismo de enmascaramiento atencional para seleccionar de manera interpretable las características relevantes en cada paso de decisión.
Enmascaramiento Atencional (Attentive Masking)
Mecanismo en el núcleo de TabNet que aprende a enmascarar secuencialmente las características no relevantes, permitiendo al modelo concentrarse en las variables más informativas para una predicción dada.
Aprendizaje Secuencial de Características (Sequential Feature Learning)
Proceso por el cual TabNet aprende una representación de los datos a través de varios pasos, donde cada paso refina la selección de características basándose en la información de los pasos anteriores.
Feature Transformer
Módulo de TabNet que transforma las características de entrada enmascaradas en una nueva representación de mayor dimensión, utilizando capas completamente conectadas y una función de activación GLU.
GLU (Gated Linear Unit)
Función de activación utilizada en el Feature Transformer de TabNet, que permite un control del flujo de información multiplicando una proyección lineal por una puerta sigmoide, mejorando la capacidad de la red para modelar relaciones complejas.
Agregador (Attentive Transformer)
Componente de TabNet que genera la máscara de atención para el siguiente paso de decisión, basándose en el estado anterior y las características transformadas para determinar dónde focalizar la atención.
Paso de Decisión (Decision Step)
Unidad de procesamiento fundamental en la arquitectura TabNet, combinando un Feature Transformer y un Attentive Transformer para producir una salida parcial y una máscara para el siguiente paso.
Red de Regresión en Serie (SER - Series Regression Network)
Concepto teórico en el que TabNet se inspira, consistente en modelar una predicción compleja como una serie de decisiones más simples, cada una refinando el resultado final.
Codificación Categórica por Embedding
Técnica de preprocesamiento de variables categóricas para TabNet, donde cada categoría se asigna a un vector denso de baja dimensión aprendido durante el entrenamiento, permitiendo al modelo capturar las relaciones semánticas entre las categorías.
Normalización por Lotes (Batch Normalization)
Capa aplicada en los bloques de TabNet para estabilizar y acelerar el entrenamiento, normalizando las activaciones de cada lote a una media nula y una varianza unitaria.
Regularización por Dispersión (Sparsity Regularization)
Técnica utilizada en TabNet para incentivar a la máscara de atención a seleccionar solo un pequeño número de características, favoreciendo así modelos más simples e interpretables.
Arquitectura de Profundidad Variable (Variable Depth Architecture)
Propiedad de TabNet donde el número de pasos de decisión utilizados efectivamente puede variar para cada muestra, ya que el modelo puede aprender a detenerse cuando la información es suficiente para una predicción fiable.
Datos Tabulares
Tipo de datos estructurados organizados en filas y columnas, típicos de hojas de cálculo o bases de datos relacionales, para los cuales TabNet está específicamente optimizado.
Robustez a las Características Faltantes
Capacidad de TabNet para manejar eficazmente los valores faltantes en los datos de entrada, aprendiendo a enmascararlos y a adaptarse a ellos sin necesidad de una imputación previa compleja.
Aprendizaje por Refuerzo para el Enmascaramiento
Perspectiva teórica donde el proceso de enmascaramiento secuencial en TabNet puede ser visto como un proceso de decisión, donde el modelo aprende una política de selección de características para maximizar una recompensa de precisión.
Red Neuronal Enmascarada (Masked Neural Network)
Clase de redes neuronales, de la cual TabNet es un ejemplo, que utilizan máscaras aprendidas para seleccionar dinámicamente subconjuntos de entradas o neuronas, mejorando la eficiencia y la interpretabilidad.