🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Cifrado de datos en reposo

Proceso criptográfico aplicado a los datos almacenados en sistemas de almacenamiento distribuido como HDFS, HBase o Cassandra. El cifrado en reposo protege la información sensible contra accesos no autorizados cuando los datos están inactivos en discos físicos o en sistemas de almacenamiento en la nube.

📖
términos

Cifrado de datos en tránsito

Mecanismo de seguridad que protege los datos durante su transferencia entre los nodos de un clúster de Big Data o entre el clúster y los clientes. Utiliza principalmente TLS/SSL para garantizar la confidencialidad e integridad de los flujos de datos en ecosistemas distribuidos como Spark, Hadoop o Kafka.

📖
términos

Apache Ranger

Framework de gestión centralizada de políticas de seguridad para plataformas Hadoop y otros ecosistemas de Big Data. Ranger permite definir permisos granulares a nivel de bases de datos, tablas, columnas e incluso filas específicas, al tiempo que proporciona capacidades completas de auditoría.

📖
términos

Autenticación Kerberos

Protocolo de autenticación de red estándar utilizado en clústeres Hadoop para asegurar las comunicaciones entre servicios y usuarios. Basado en tickets cifrados, Kerberos garantiza la identidad de los actores en un entorno distribuido y previene ataques de repetición en sistemas de Big Data.

📖
términos

Tokenización de Datos

Técnica de reemplazo de datos sensibles por tokens no sensibles, manteniendo su formato y estructura. En entornos de Big Data, la tokenización permite analizar y procesar datos anonimizados sin exponer la información confidencial original.

📖
términos

Seguridad a Nivel de Columna

Mecanismo de control de acceso granular aplicado a nivel de columnas individuales en almacenes de datos distribuidos. Este enfoque permite restringir el acceso a columnas específicas que contienen información sensible, mientras se autoriza el acceso a otros datos de la misma tabla.

📖
términos

Data Lake Seguro

Arquitectura de almacenamiento de datos masivos que integra de forma nativa controles de seguridad multicapa, incluyendo cifrado, autenticación y gobernanza de datos. Los data lakes seguros garantizan la protección de datos sensibles manteniendo la agilidad necesaria para el análisis exploratorio.

📖
términos

Control de Acceso Basado en Atributos (ABAC)

Modelo de control de acceso que evalúa los permisos basándose en atributos de usuario, recurso, entorno y acción. En los sistemas de Big Data, ABAC permite políticas de seguridad dinámicas y contextuales adaptadas a las complejas necesidades de gobernanza de datos masivos.

📖
términos

Cifrado Transparente de Datos (TDE)

Mecanismo de cifrado automático de datos y registros de bases de datos sin necesidad de modificaciones en las aplicaciones. El TDE en los ecosistemas de Big Data protege los datos en reposo de forma transparente para los usuarios y los procesos de análisis.

📖
términos

Apache Knox Gateway

Pasarela de acceso unificada y segura para clústeres Hadoop que proporciona un único punto de entrada autenticado para todos los servicios REST y HTTP. Knox simplifica la seguridad al centralizar la autenticación, la autorización y las políticas de seguridad para los ecosistemas de Big Data.

📖
términos

Seguridad del Linaje de Datos

Seguimiento y protección de los metadatos relacionados con el origen, la transformación y el destino de los datos en los pipelines de Big Data. Este concepto garantiza la trazabilidad segura de los flujos de datos y ayuda a identificar posibles violaciones de seguridad a lo largo del ciclo de vida de los datos.

📖
términos

HDFS Seguro

Configuración segura del Hadoop Distributed File System que integra la autenticación Kerberos, el control de acceso POSIX extendido y el cifrado de bloques de datos. HDFS Seguro garantiza la protección de los archivos distribuidos contra accesos no autorizados y asegura la integridad de los datos almacenados.

📖
términos

Autenticación SASL

Framework de autenticación y seguridad de capa de aplicación utilizado en sistemas distribuidos como Kafka y Hadoop para asegurar las comunicaciones cliente-servidor. SASL permite la integración de múltiples mecanismos de autenticación, incluyendo GSSAPI/Kerberos y PLAIN.

📖
términos

Privacidad Diferencial

Paradigma de protección de la privacidad que garantiza que los resultados de análisis sobre datos masivos no revelen información sobre individuos específicos. Aplicada a los algoritmos de Big Data, permite un compromiso matemático entre la utilidad de los datos y la protección de la privacidad individual.

📖
términos

Computación Multipartita Segura (SMPC)

Protocolo criptográfico que permite a varias partes colaborar en un cálculo distribuido sin revelar sus datos privados mutuamente. En los contextos de Big Data, SMPC permite el análisis colaborativo sobre conjuntos de datos sensibles distribuidos entre diferentes organizaciones.

📖
términos

Prueba de Conocimiento Cero

Método criptográfico que permite a una parte probar el conocimiento de una información sin revelar la información en sí misma. En los sistemas de Big Data, se utiliza para verificar la conformidad de las consultas y la autenticidad de los datos sin exponer su contenido.

📖
términos

Cifrado Homomórfico

Técnica criptográfica que permite realizar cálculos directamente sobre datos cifrados sin necesidad de descifrarlos previamente. El cifrado homomórfico en entornos de Big Data asegura el procesamiento analítico de datos sensibles almacenados en la nube.

📖
términos

Auditoría Granular

Sistema de registro detallado que captura los accesos a los datos a nivel granular de tablas, columnas o filas específicas en plataformas de Big Data. Estas auditorías permiten detectar accesos anómalos y garantizar el cumplimiento normativo en entornos de datos masivos.

🔍

No se encontraron resultados