AI 용어집
인공지능 완전 사전
Chiffrement de données au repos
Processus cryptographique appliqué aux données stockées dans les systèmes de stockage distribués comme HDFS, HBase ou Cassandra. Le chiffrement au repos protège les informations sensibles contre les accès non autorisés lorsque les données sont inactives sur les disques physiques ou dans les systèmes de stockage cloud.
Chiffrement de données en transit
Mécanisme de sécurité protégeant les données lors de leur transfert entre les nœuds d'un cluster Big Data ou entre le cluster et les clients. Utilise principalement TLS/SSL pour garantir la confidentialité et l'intégrité des flux de données dans les écosystèmes distribués comme Spark, Hadoop ou Kafka.
Apache Ranger
Framework de gestion centralisée des politiques de sécurité pour les plateformes Hadoop et autres écosystèmes Big Data. Ranger permet de définir des permissions granulaires au niveau des bases de données, tables, colonnes et même des lignes spécifiques tout en fournissant des capacités d'audit complètes.
Kerberos Authentication
Protocole d'authentification réseau standard utilisé dans les clusters Hadoop pour sécuriser les communications entre services et utilisateurs. Basé sur des tickets chiffrés, Kerberos assure l'identité des acteurs dans un environnement distribué et prévient les attaques de rejeu dans les systèmes Big Data.
Data Tokenization
Technique de remplacement des données sensibles par des tokens non-sensibles tout en conservant leur format et leur structure. Dans les environnements Big Data, la tokenisation permet d'analyser et de traiter les données anonymisées sans exposer les informations confidentielles originales.
Column-Level Security
Mécanisme de contrôle d'accès granulaire appliqué au niveau des colonnes individuelles dans les entrepôts de données distribués. Cette approche permet de restreindre l'accès à des colonnes spécifiques contenant des informations sensibles tout en autorisant l'accès aux autres données de la même table.
Secure Data Lake
Architecture de stockage de données massives intégrant nativement des contrôles de sécurité multicouches incluant le chiffrement, l'authentification et la gouvernance des données. Les data lakes sécurisés garantissent la protection des données sensibles tout en maintenant l'agilité nécessaire pour l'analyse exploratoire.
Attribute-Based Access Control (ABAC)
Modèle de contrôle d'accès évaluant les permissions basées sur des attributs utilisateur, ressource, environnement et action. Dans les systèmes Big Data, ABAC permet des politiques de sécurité dynamiques et contextuelles adaptées aux besoins complexes de gouvernance des données massives.
Transparent Data Encryption (TDE)
Mécanisme de chiffrement automatique des données et journaux de base de données sans nécessiter de modifications dans les applications. TDE dans les écosystèmes Big Data protège les données au repos de manière transparente pour les utilisateurs et les processus d'analyse.
Apache Knox Gateway
Passerelle d'accès unifiée et sécurisée pour les clusters Hadoop fournissant une pointe d'entrée unique authentifiée pour tous les services REST et HTTP. Knox simplifie la sécurité en centralisant l'authentification, l'autorisation et les politiques de sécurité pour les écosystèmes Big Data.
Data Lineage Security
Suivi et protection des métadonnées relatives à l'origine, la transformation et la destination des données dans les pipelines Big Data. Ce concept garantit la traçabilité sécurisée des flux de données et aide à identifier les violations de sécurité potentielles tout au long du cycle de vie des données.
Secure HDFS
Configuration sécurisée du Hadoop Distributed File System intégrant l'authentification Kerberos, le contrôle d'accès POSIX étendu et le chiffrement des blocs de données. Secure HDFS assure la protection des fichiers distribués contre les accès non autorisés et garantit l'intégrité des données stockées.
SASL Authentication
Framework d'authentification et de sécurité de couche application utilisé dans les systèmes distribués comme Kafka et Hadoop pour sécuriser les communications client-serveur. SASL permet l'intégration de multiples mécanismes d'authentification incluant GSSAPI/Kerberos et PLAIN.
Differential Privacy
Paradigme de protection de la vie privée garantissant que les résultats d'analyses sur des données massives ne révèlent pas d'informations sur des individus spécifiques. Appliquée aux algorithmes Big Data, elle permet un compromis mathématique entre utilité des données et protection de la confidentialité individuelle.
Secure Multi-Party Computation (SMPC)
Protocole cryptographique permettant à plusieurs parties de collaborer sur un calcul distribué sans révéler leurs données privées mutuellement. Dans les contextes Big Data, SMPC permet l'analyse collaborative sur des ensembles de données sensibles distribués entre différentes organisations.
Zero-Knowledge Proof
Méthode cryptographique permettant à une partie de prouver la connaissance d'une information sans révéler l'information elle-même. Dans les systèmes Big Data, elle est utilisée pour vérifier la conformité des requêtes et l'authenticité des données sans exposer leur contenu.
Homomorphic Encryption
Technique cryptographique permettant d'effectuer des calculs directement sur des données chiffrées sans nécessiter leur déchiffrement préalable. L'encryption homomorphe dans les environnements Big Data sécurise les traitements analytiques sur les données sensibles stockées dans le cloud.
Fine-Grained Auditing
Système de journalisation détaillée capturant les accès aux données au niveau granulaire des tables, colonnes ou lignes spécifiques dans les plateformes Big Data. Ces audits permettent de détecter les accès anormaux et de garantir la conformité réglementaire dans les environnements de données massives.