Glossário IA
O dicionário completo da Inteligência Artificial
Criptografia de dados em repouso
Processo criptográfico aplicado a dados armazenados em sistemas de armazenamento distribuídos como HDFS, HBase ou Cassandra. A criptografia em repouso protege informações sensíveis contra acesso não autorizado quando os dados estão inativos em discos físicos ou em sistemas de armazenamento em nuvem.
Criptografia de dados em trânsito
Mecanismo de segurança que protege os dados durante sua transferência entre os nós de um cluster de Big Data ou entre o cluster e os clientes. Utiliza principalmente TLS/SSL para garantir a confidencialidade e a integridade dos fluxos de dados em ecossistemas distribuídos como Spark, Hadoop ou Kafka.
Apache Ranger
Framework de gerenciamento centralizado de políticas de segurança para plataformas Hadoop e outros ecossistemas de Big Data. O Ranger permite definir permissões granulares no nível de bancos de dados, tabelas, colunas e até mesmo linhas específicas, ao mesmo tempo em que oferece recursos completos de auditoria.
Autenticação Kerberos
Protocolo de autenticação de rede padrão usado em clusters Hadoop para proteger as comunicações entre serviços e usuários. Baseado em tickets criptografados, o Kerberos garante a identidade dos atores em um ambiente distribuído e previne ataques de repetição em sistemas de Big Data.
Tokenização de Dados
Técnica de substituição de dados sensíveis por tokens não-sensíveis, mantendo seu formato e estrutura. Em ambientes de Big Data, a tokenização permite analisar e processar dados anonimizados sem expor as informações confidenciais originais.
Segurança em Nível de Coluna
Mecanismo de controle de acesso granular aplicado ao nível de colunas individuais em data warehouses distribuídos. Essa abordagem permite restringir o acesso a colunas específicas que contêm informações sensíveis, enquanto permite o acesso a outros dados da mesma tabela.
Data Lake Seguro
Arquitetura de armazenamento de dados massivos que integra nativamente controles de segurança multicamadas, incluindo criptografia, autenticação e governança de dados. Os data lakes seguros garantem a proteção de dados sensíveis, mantendo a agilidade necessária para a análise exploratória.
Controle de Acesso Baseado em Atributos (ABAC)
Modelo de controle de acesso que avalia permissões com base em atributos de usuário, recurso, ambiente e ação. Em sistemas de Big Data, o ABAC permite políticas de segurança dinâmicas e contextuais adaptadas às necessidades complexas de governança de dados massivos.
Transparent Data Encryption (TDE)
Mecanismo de criptografia automática de dados e logs de banco de dados sem a necessidade de modificações nas aplicações. TDE em ecossistemas de Big Data protege os dados em repouso de forma transparente para usuários e processos de análise.
Apache Knox Gateway
Gateway de acesso unificado e seguro para clusters Hadoop, fornecendo um único ponto de entrada autenticado para todos os serviços REST e HTTP. Knox simplifica a segurança centralizando a autenticação, autorização e políticas de segurança para ecossistemas de Big Data.
Data Lineage Security
Rastreamento e proteção de metadados relacionados à origem, transformação e destino dos dados em pipelines de Big Data. Este conceito garante a rastreabilidade segura dos fluxos de dados e ajuda a identificar potenciais violações de segurança ao longo do ciclo de vida dos dados.
Secure HDFS
Configuração segura do Hadoop Distributed File System, integrando autenticação Kerberos, controle de acesso POSIX estendido e criptografia de blocos de dados. O Secure HDFS garante a proteção de arquivos distribuídos contra acessos não autorizados e a integridade dos dados armazenados.
SASL Authentication
Framework de autenticação e segurança de camada de aplicação usado em sistemas distribuídos como Kafka e Hadoop para proteger as comunicações cliente-servidor. SASL permite a integração de múltiplos mecanismos de autenticação, incluindo GSSAPI/Kerberos e PLAIN.
Differential Privacy
Paradigma de proteção da privacidade que garante que os resultados de análises em grandes volumes de dados não revelem informações sobre indivíduos específicos. Aplicada a algoritmos de Big Data, permite um compromisso matemático entre a utilidade dos dados e a proteção da privacidade individual.
Secure Multi-Party Computation (SMPC)
Protocolo criptográfico que permite que várias partes colaborem em um cálculo distribuído sem revelar seus dados privados mutuamente. Em contextos de Big Data, o SMPC permite a análise colaborativa em conjuntos de dados sensíveis distribuídos entre diferentes organizações.
Zero-Knowledge Proof
Método criptográfico que permite a uma parte provar o conhecimento de uma informação sem revelar a própria informação. Em sistemas de Big Data, é usado para verificar a conformidade de consultas e a autenticidade dos dados sem expor seu conteúdo.
Homomorphic Encryption
Técnica criptográfica que permite realizar cálculos diretamente sobre dados criptografados sem a necessidade de descriptografia prévia. A criptografia homomórfica em ambientes de Big Data protege o processamento analítico de dados sensíveis armazenados na nuvem.
Fine-Grained Auditing
Sistema de registro detalhado que captura acessos a dados em um nível granular de tabelas, colunas ou linhas específicas em plataformas de Big Data. Essas auditorias permitem detectar acessos anormais e garantir a conformidade regulatória em ambientes de dados massivos.