🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Inférence d'Appartenance

Type d'attaque de confidentialité où un adversaire détermine si un enregistrement de données spécifique a été utilisé dans l'ensemble d'entraînement d'un modèle, violant la vie privée des individus.

📖
termes

Attaque par Inversion

Attaque qui reconstruit approximativement les données d'entraînement sensibles en analysant les sorties du modèle, menaçant la confidentialité des informations utilisées pour son apprentissage.

📖
termes

Différentielle de la Vie Privée

Cadre formel de confidentialité garantissant que la sortie d'un modèle change de manière négligeable si un seul individu est ajouté ou retiré du jeu de données d'entraînement.

📖
termes

Défense par Masquage Gradient

Technique de protection visant à obscurcir les gradients du modèle pour empêcher les attaquants d'utiliser des méthodes basées sur les gradients pour générer des attaques adversariales efficaces.

📖
termes

Fédération de l'Apprentissage

Approche d'entraînement décentralisée où le modèle est appris sur des données locales sans les partager, réduisant le risque de fuites de données sensibles depuis un référentiel central.

📖
termes

Backdoor dans un Modèle

Vulnérabilité introduite intentionnellement dans un modèle, souvent via un empoisonnement des données, qui le fait se comporter anormalement en présence d'un déclencheur spécifique.

📖
termes

Robustesse de Modèle

Capacité d'un modèle de machine learning à maintenir ses performances face à des perturbations des données d'entrée, y compris les bruits aléatoires et les attaques adversariales ciblées.

📖
termes

Certification de Robustesse

Processus mathématique fournissant une garantie formelle qu'un modèle ne peut pas être trompé par des perturbations d'entrée dépassant une certaine magnitude définie.

📖
termes

Attaque de Transfertabilité

Phénomène où un exemple adversarial, conçu pour tromper un modèle spécifique, parvient également à induire en erreur d'autres modèles ayant des architectures ou des données d'entraînement différentes.

📖
termes

Nettoyage d'Ensemble de Données

Processus proactif d'identification et de suppression d'échantillons potentiellement malveillants ou anormaux d'un jeu de données avant l'entraînement pour prévenir les attaques de type poisoning.

📖
termes

Métrique de Sensibilité

Mesure quantitative évaluant à quel point les prédictions d'un modèle changent en réponse à de petites modifications de ses données d'entrée, indiquant sa vulnérabilité aux attaques.

🔍

Aucun résultat trouvé