🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

TabNet

Arquitectura de red neuronal secuencial diseñada específicamente para datos tabulares, utilizando un mecanismo de enmascaramiento atencional para seleccionar de manera interpretable las características relevantes en cada paso de decisión.

📖
términos

Enmascaramiento Atencional (Attentive Masking)

Mecanismo en el núcleo de TabNet que aprende a enmascarar secuencialmente las características no relevantes, permitiendo al modelo concentrarse en las variables más informativas para una predicción dada.

📖
términos

Aprendizaje Secuencial de Características (Sequential Feature Learning)

Proceso por el cual TabNet aprende una representación de los datos a través de varios pasos, donde cada paso refina la selección de características basándose en la información de los pasos anteriores.

📖
términos

Feature Transformer

Módulo de TabNet que transforma las características de entrada enmascaradas en una nueva representación de mayor dimensión, utilizando capas completamente conectadas y una función de activación GLU.

📖
términos

GLU (Gated Linear Unit)

Función de activación utilizada en el Feature Transformer de TabNet, que permite un control del flujo de información multiplicando una proyección lineal por una puerta sigmoide, mejorando la capacidad de la red para modelar relaciones complejas.

📖
términos

Agregador (Attentive Transformer)

Componente de TabNet que genera la máscara de atención para el siguiente paso de decisión, basándose en el estado anterior y las características transformadas para determinar dónde focalizar la atención.

📖
términos

Paso de Decisión (Decision Step)

Unidad de procesamiento fundamental en la arquitectura TabNet, combinando un Feature Transformer y un Attentive Transformer para producir una salida parcial y una máscara para el siguiente paso.

📖
términos

Red de Regresión en Serie (SER - Series Regression Network)

Concepto teórico en el que TabNet se inspira, consistente en modelar una predicción compleja como una serie de decisiones más simples, cada una refinando el resultado final.

📖
términos

Codificación Categórica por Embedding

Técnica de preprocesamiento de variables categóricas para TabNet, donde cada categoría se asigna a un vector denso de baja dimensión aprendido durante el entrenamiento, permitiendo al modelo capturar las relaciones semánticas entre las categorías.

📖
términos

Normalización por Lotes (Batch Normalization)

Capa aplicada en los bloques de TabNet para estabilizar y acelerar el entrenamiento, normalizando las activaciones de cada lote a una media nula y una varianza unitaria.

📖
términos

Regularización por Dispersión (Sparsity Regularization)

Técnica utilizada en TabNet para incentivar a la máscara de atención a seleccionar solo un pequeño número de características, favoreciendo así modelos más simples e interpretables.

📖
términos

Arquitectura de Profundidad Variable (Variable Depth Architecture)

Propiedad de TabNet donde el número de pasos de decisión utilizados efectivamente puede variar para cada muestra, ya que el modelo puede aprender a detenerse cuando la información es suficiente para una predicción fiable.

📖
términos

Datos Tabulares

Tipo de datos estructurados organizados en filas y columnas, típicos de hojas de cálculo o bases de datos relacionales, para los cuales TabNet está específicamente optimizado.

📖
términos

Robustez a las Características Faltantes

Capacidad de TabNet para manejar eficazmente los valores faltantes en los datos de entrada, aprendiendo a enmascararlos y a adaptarse a ellos sin necesidad de una imputación previa compleja.

📖
términos

Aprendizaje por Refuerzo para el Enmascaramiento

Perspectiva teórica donde el proceso de enmascaramiento secuencial en TabNet puede ser visto como un proceso de decisión, donde el modelo aprende una política de selección de características para maximizar una recompensa de precisión.

📖
términos

Red Neuronal Enmascarada (Masked Neural Network)

Clase de redes neuronales, de la cual TabNet es un ejemplo, que utilizan máscaras aprendidas para seleccionar dinámicamente subconjuntos de entradas o neuronas, mejorando la eficiencia y la interpretabilidad.

🔍

No se encontraron resultados