Glosario IA
El diccionario completo de la Inteligencia Artificial
Cifrado de datos en reposo
Proceso criptográfico aplicado a los datos almacenados en sistemas de almacenamiento distribuido como HDFS, HBase o Cassandra. El cifrado en reposo protege la información sensible contra accesos no autorizados cuando los datos están inactivos en discos físicos o en sistemas de almacenamiento en la nube.
Cifrado de datos en tránsito
Mecanismo de seguridad que protege los datos durante su transferencia entre los nodos de un clúster de Big Data o entre el clúster y los clientes. Utiliza principalmente TLS/SSL para garantizar la confidencialidad e integridad de los flujos de datos en ecosistemas distribuidos como Spark, Hadoop o Kafka.
Apache Ranger
Framework de gestión centralizada de políticas de seguridad para plataformas Hadoop y otros ecosistemas de Big Data. Ranger permite definir permisos granulares a nivel de bases de datos, tablas, columnas e incluso filas específicas, al tiempo que proporciona capacidades completas de auditoría.
Autenticación Kerberos
Protocolo de autenticación de red estándar utilizado en clústeres Hadoop para asegurar las comunicaciones entre servicios y usuarios. Basado en tickets cifrados, Kerberos garantiza la identidad de los actores en un entorno distribuido y previene ataques de repetición en sistemas de Big Data.
Tokenización de Datos
Técnica de reemplazo de datos sensibles por tokens no sensibles, manteniendo su formato y estructura. En entornos de Big Data, la tokenización permite analizar y procesar datos anonimizados sin exponer la información confidencial original.
Seguridad a Nivel de Columna
Mecanismo de control de acceso granular aplicado a nivel de columnas individuales en almacenes de datos distribuidos. Este enfoque permite restringir el acceso a columnas específicas que contienen información sensible, mientras se autoriza el acceso a otros datos de la misma tabla.
Data Lake Seguro
Arquitectura de almacenamiento de datos masivos que integra de forma nativa controles de seguridad multicapa, incluyendo cifrado, autenticación y gobernanza de datos. Los data lakes seguros garantizan la protección de datos sensibles manteniendo la agilidad necesaria para el análisis exploratorio.
Control de Acceso Basado en Atributos (ABAC)
Modelo de control de acceso que evalúa los permisos basándose en atributos de usuario, recurso, entorno y acción. En los sistemas de Big Data, ABAC permite políticas de seguridad dinámicas y contextuales adaptadas a las complejas necesidades de gobernanza de datos masivos.
Cifrado Transparente de Datos (TDE)
Mecanismo de cifrado automático de datos y registros de bases de datos sin necesidad de modificaciones en las aplicaciones. El TDE en los ecosistemas de Big Data protege los datos en reposo de forma transparente para los usuarios y los procesos de análisis.
Apache Knox Gateway
Pasarela de acceso unificada y segura para clústeres Hadoop que proporciona un único punto de entrada autenticado para todos los servicios REST y HTTP. Knox simplifica la seguridad al centralizar la autenticación, la autorización y las políticas de seguridad para los ecosistemas de Big Data.
Seguridad del Linaje de Datos
Seguimiento y protección de los metadatos relacionados con el origen, la transformación y el destino de los datos en los pipelines de Big Data. Este concepto garantiza la trazabilidad segura de los flujos de datos y ayuda a identificar posibles violaciones de seguridad a lo largo del ciclo de vida de los datos.
HDFS Seguro
Configuración segura del Hadoop Distributed File System que integra la autenticación Kerberos, el control de acceso POSIX extendido y el cifrado de bloques de datos. HDFS Seguro garantiza la protección de los archivos distribuidos contra accesos no autorizados y asegura la integridad de los datos almacenados.
Autenticación SASL
Framework de autenticación y seguridad de capa de aplicación utilizado en sistemas distribuidos como Kafka y Hadoop para asegurar las comunicaciones cliente-servidor. SASL permite la integración de múltiples mecanismos de autenticación, incluyendo GSSAPI/Kerberos y PLAIN.
Privacidad Diferencial
Paradigma de protección de la privacidad que garantiza que los resultados de análisis sobre datos masivos no revelen información sobre individuos específicos. Aplicada a los algoritmos de Big Data, permite un compromiso matemático entre la utilidad de los datos y la protección de la privacidad individual.
Computación Multipartita Segura (SMPC)
Protocolo criptográfico que permite a varias partes colaborar en un cálculo distribuido sin revelar sus datos privados mutuamente. En los contextos de Big Data, SMPC permite el análisis colaborativo sobre conjuntos de datos sensibles distribuidos entre diferentes organizaciones.
Prueba de Conocimiento Cero
Método criptográfico que permite a una parte probar el conocimiento de una información sin revelar la información en sí misma. En los sistemas de Big Data, se utiliza para verificar la conformidad de las consultas y la autenticidad de los datos sin exponer su contenido.
Cifrado Homomórfico
Técnica criptográfica que permite realizar cálculos directamente sobre datos cifrados sin necesidad de descifrarlos previamente. El cifrado homomórfico en entornos de Big Data asegura el procesamiento analítico de datos sensibles almacenados en la nube.
Auditoría Granular
Sistema de registro detallado que captura los accesos a los datos a nivel granular de tablas, columnas o filas específicas en plataformas de Big Data. Estas auditorías permiten detectar accesos anómalos y garantizar el cumplimiento normativo en entornos de datos masivos.