🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Attribute Inference Attack

Attaque où un adversaire tente de déduire des attributs sensibles non présents dans les données d'entraînement à partir des prédictions du modèle. Cette attaque exploite les corrélations implicites apprises par le modèle pour révéler des informations privées sur les individus.

📖
termes

Shadow Model Attack

Attaque où l'adversaire entraîne des modèles alternatifs sur des données synthétiques pour imiter le comportement du modèle cible. Ces modèles fantômes permettent de générer des exemples d'entraînement pour construire un classificateur d'attaque efficace.

📖
termes

Privacy Leak Quantification

Méthodes systématiques pour mesurer et évaluer la quantité d'informations privées divulguées par un modèle d'apprentissage automatique. Ces métriques aident à quantifier les risques de fuites et à évaluer l'efficacité des mécanismes de protection.

📖
termes

Adversarial Privacy Defense

Techniques de défense proactives qui incorporent des contraintes de confidentialité directement dans l'objectif d'entraînement du modèle. Ces méthodes optimisent simultanément la performance du modèle et sa résistance aux attaques d'inférence.

📖
termes

Knowledge Distillation for Privacy

Technique où un modèle professeur privé est utilisé pour former un modèle étudiant public, transférant les connaissances tout en masquant les informations sensibles. Cette approche réduit la capacité du modèle final à mémoriser des détails spécifiques aux données d'entraînement.

📖
termes

Privacy-Aware Model Design

Principes de conception architecturale intégrant des mécanismes de protection de la vie privée dès la conception du modèle. Cette approche inclut la limitation de la capacité du modèle, l'ajout de régularisation et la conception de sorties moins informatives.

📖
termes

Model Extraction Attack

Attaque où un adversaire tente de répliquer ou de voler un modèle propriétaire en interrogeant ses prédictions et en entraînant un modèle substitut. Cette attaque peut également révéler des informations sur les données d'entraînement originales.

🔍

Aucun résultat trouvé