Glosario IA
El diccionario completo de la Inteligencia Artificial
Data Warehouse
Almacén de datos centralizado optimizado para análisis y toma de decisiones, que recopila datos operativos e históricos de múltiples fuentes. Diseñado para soportar consultas analíticas complejas sobre volúmenes masivos de datos estructurados.
Data Mart
Subconjunto de un data warehouse enfocado en un dominio de negocio específico o un departamento particular. Facilita el acceso a datos relevantes para análisis específicos mientras reduce la complejidad de las consultas.
ETL (Extraer, Transformar, Cargar)
Proceso de integración de datos que extrae información de fuentes heterogéneas, la transforma según reglas de negocio y luego la carga en el data warehouse. Garantiza la calidad y coherencia de los datos antes de su análisis.
ELT (Extraer, Cargar, Transformar)
Enfoque moderno de integración donde los datos brutos se cargan primero en el sistema objetivo y luego se transforman in-situ. Optimiza el rendimiento en plataformas cloud y arquitecturas distribuidas.
OLAP (Procesamiento Analítico en Línea)
Tecnología de análisis multidimensional que permite consultas complejas sobre grandes volúmenes de datos históricos. Soporta operaciones de drill-down, roll-up, slice y dice para la exploración de datos.
OLTP (Procesamiento de Transacciones en Línea)
Sistema de gestión de transacciones en tiempo real optimizado para operaciones CRUD (Crear, Leer, Actualizar, Eliminar). Diseñado para procesar un gran número de transacciones cortas y atómicas con alta concurrencia.
Esquema Estrella
Modelado de datos para data warehouse con una tabla de hechos central rodeada de tablas de dimensiones desnormalizadas. Optimiza el rendimiento de consultas analíticas minimizando las uniones.
Esquema Copo de Nieve
Variante del esquema estrella donde las tablas de dimensiones están normalizadas en jerarquías de múltiples tablas. Reduce la redundancia de datos pero aumenta la complejidad de las consultas analíticas.
Tabla de Hechos
Tabla central de un esquema dimensional que contiene las medidas numéricas y las claves foráneas hacia las dimensiones. Almacena los hechos de negocio cuantitativos como ventas, transacciones o indicadores de desempeño.
Tabla de Dimensiones
Tabla que describe el contexto de las medidas en la tabla de hechos, conteniendo atributos descriptivos cualitativos. Permite el análisis de datos según diferentes ejes como tiempo, geografía o productos.
Data Vault
Metodología de modelado híbrido que combina las ventajas del 3NF y del esquema estrella para almacenes de datos escalables. Separa hubs, links y satélites para garantizar auditabilidad y escalabilidad.
Base de Datos Columnar
Base de datos que almacena los datos por columnas en lugar de por filas, optimizando consultas analíticas sobre subconjuntos de columnas. Reduce considerablemente los tiempos de respuesta y el espacio de almacenamiento para cargas de trabajo BI.
Base de Datos en Memoria
Sistema de base de datos que almacena principalmente los datos en RAM para un acceso de rendimiento casi instantáneo. Acelera drásticamente análisis complejos e informes interactivos sobre datos del almacén de datos.
Procesamiento Distribuido de Consultas
Técnica que ejecuta consultas en múltiples nodos de cálculo en paralelo para procesar volúmenes masivos de datos. Divide el procesamiento en tareas distribuidas para optimizar el uso de recursos y reducir tiempos de respuesta.
Federación de Datos
Enfoque de integración virtual que presenta una vista unificada de datos provenientes de fuentes heterogéneas sin duplicación física. Permite el análisis en tiempo real sobre sistemas distribuidos manteniendo los datos fuente.
Tabla de Agregados
Tabla precalculada que contiene datos resumidos en diferentes niveles de granularidad para acelerar consultas recurrentes. Estrategia de optimización esencial para el rendimiento de informes BI sobre volúmenes importantes.
Slowly Changing Dimension (SCD)
Técnica de gestión de cambios en las tablas de dimensión para rastrear la evolución histórica de los atributos. Implementa diferentes estrategias (Tipo 1, 2, 3) según las necesidades de trazabilidad temporal de los datos.
Data Pipeline
Secuencia de procesos automatizados que capturan, transforman y entregan los datos desde la fuente hasta su destino final. Orquesta el flujo continuo de datos para alimentar los sistemas analíticos y las aplicaciones de BI.