Glossário IA
O dicionário completo da Inteligência Artificial
Data Warehouse
Armazém de dados centralizado otimizado para análise e tomada de decisão, coletando dados operacionais e históricos de múltiplas fontes. Projetado para suportar consultas analíticas complexas sobre volumes massivos de dados estruturados.
Data Mart
Subconjunto de um data warehouse focado em um domínio de negócio específico ou departamento particular. Facilita o acesso aos dados relevantes para análises direcionadas enquanto reduz a complexidade das consultas.
ETL (Extract, Transform, Load)
Processo de integração de dados que extrai informações de fontes heterogêneas, as transforma de acordo com regras de negócio e depois as carrega no data warehouse. Garante a qualidade e consistência dos dados antes de sua análise.
ELT (Extract, Load, Transform)
Abordagem moderna de integração onde os dados brutos são primeiro carregados no sistema de destino e depois transformados in-situ. Otimiza o desempenho em plataformas cloud e arquiteturas distribuídas.
OLAP (Online Analytical Processing)
Tecnologia de análise multidimensional que permite consultas complexas sobre grandes volumes de dados históricos. Suporta operações de drill-down, roll-up, slice e dice para exploração de dados.
OLTP (Online Transaction Processing)
Sistema de gerenciamento de transações em tempo real otimizado para operações CRUD (Create, Read, Update, Delete). Projetado para processar um grande número de transações curtas e atômicas com alta concorrência.
Star Schema
Modelagem de dados para data warehouse com uma tabela de fatos central cercada por tabelas de dimensão desnormalizadas. Otimiza o desempenho das consultas analíticas minimizando as junções.
Snowflake Schema
Variante do star schema onde as tabelas de dimensão são normalizadas em hierarquias de múltiplas tabelas. Reduz a redundância dos dados mas aumenta a complexidade das consultas analíticas.
Tabela de Fatos
Tabela central de um esquema dimensional contendo as medidas numéricas e as chaves estrangeiras para as dimensões. Armazena fatos de negócio quantitativos como vendas, transações ou indicadores de desempenho.
Tabela de Dimensão
Tabela que descreve o contexto das medidas na tabela de fatos, contendo atributos descritivos qualitativos. Permite a análise de dados segundo diferentes eixos como tempo, geografia ou produtos.
Data Vault
Metodologia de modelagem híbrida que combina as vantagens do 3NF e do star schema para armazéns de dados escaláveis. Separa hubs, links e satélites para garantir auditabilidade e escalabilidade.
Banco de Dados Columnar
Banco de dados que armazena dados por colunas em vez de por linhas, otimizando consultas analíticas sobre subconjuntos de colunas. Reduz significativamente tempos de resposta e espaço de armazenamento para workloads de BI.
Banco de Dados In-Memory
Sistema de banco de dados que armazena principalmente dados na RAM para desempenho de acesso quase instantâneo. Acelera drasticamente análises complexas e relatórios interativos sobre dados do data warehouse.
Processamento Distribuído de Consultas
Técnica que executa consultas em múltiplos nós de computação em paralelo para processar volumes massivos de dados. Divide o processamento em tarefas distribuídas para otimizar utilização de recursos e reduzir tempos de resposta.
Federação de Dados
Abordagem de integração virtual que apresenta uma visão unificada de dados provenientes de fontes heterogêneas sem duplicação física. Permite análise em tempo real em sistemas distribuídos mantendo os dados originais.
Tabela de Agregados
Tabela pré-calculada contendo dados resumidos em diferentes níveis de granularidade para acelerar consultas recorrentes. Estratégia de otimização essencial para desempenho de relatórios de BI sobre volumes importantes.
Slowly Changing Dimension (SCD)
Técnica de gerenciamento de alterações em tabelas de dimensão para acompanhar a evolução histórica dos atributos. Implementa diferentes estratégias (Tipo 1, 2, 3) de acordo com as necessidades de rastreabilidade temporal dos dados.
Data Pipeline
Sequência de processos automatizados que capturam, transformam e entregam dados desde a fonte até seu destino final. Orquestra o fluxo contínuo de dados para alimentar sistemas analíticos e aplicações de BI.