🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Defensive Distillation

Méthode de défense entraînant un réseau à apprendre les probabilités douces d'un modèle pré-entraîné, réduisant la sensibilité aux perturbations adversariales en lissant la surface de décision.

📖
termes

Obfuscated Gradients

Phénomène où les défenses masquent intentionnellement ou accidentellement les gradients, créant une fausse impression de robustesse tout en restant vulnérable à des attaques alternatives.

📖
termes

Gradient Shattering

Technique introduisant des discontinuités ou des oscillations dans le paysage des gradients pour perturber les méthodes d'attaque basées sur l'optimisation itérative.

📖
termes

Gradient Regularization

Approche pénalisant les gradients élevés pendant l'entraînement pour réduire la sensibilité du modèle aux petites perturbations d'entrée et améliorer la robustesse globale.

📖
termes

Randomized Smoothing

Méthode certifiant la robustesse en ajoutant du bruit aléatoire aux entrées et en utilisant des techniques de lissage gaussien pour garantir des bornes de certifiabilité contre les attaques adversariales.

📖
termes

Input Transformation

Défense appliquant des transformations non-différentiables ou inversibles aux entrées avant classification, comme la compression ou le rééchantillonnage, pour neutraliser les perturbations adversariales.

📖
termes

Feature Squeezing

Technique réduisant la complexité des caractéristiques d'entrée en diminuant la précision des pixels ou l'espace de couleur, éliminant ainsi les perturbations imperceptibles utilisées dans les attaques.

📖
termes

Non-differentiable Defense

Stratégie de protection intégrant des opérations non-différentiables dans le pipeline de classification pour empêcher le calcul efficace de gradients par les attaquants.

📖
termes

Gradient Obfuscation

Ensemble de techniques rendant les gradients inexploitables par des méthodes numériques, incluant masquage, écrasement ou falsification des informations de gradient.

📖
termes

Certified Defenses

Approches fournissant des garanties mathématiques prouvables sur la robustesse du modèle dans un rayon de perturbation spécifié, évitant les fausses impressions de sécurité.

📖
termes

Jacobian-based Saliency Map Attack Defense

Contre-mesures spécifiquement conçues pour neutraliser les attaques basées sur les cartes de saillance jacobienne en modifiant la structure du réseau ou les mécanismes de propagation.

📖
termes

PGD-based Robustness

Évaluation et amélioration de la robustesse en utilisant Projected Gradient Descent comme attaque de référence pour mesurer et optimiser la résistance du modèle.

📖
termes

Ensemble Methods

Utilisation de multiples modèles avec différentes architectures ou initialisations pour diversifier les réponses et réduire l'efficacité des attaques ciblant un unique point faible.

📖
termes

Lipschitz Continuity

Propriété mathématique garantissant une variation limitée des sorties par rapport aux entrées, utilisée pour concevoir des réseaux intrinsèquement robustes aux perturbations.

📖
termes

Provably Robust Networks

Architectures neuronales conçues avec des contraintes formelles garantissant mathématiquement leur robustesse dans des conditions spécifiées de perturbation.

📖
termes

Gradient-free Optimization Attacks

Méthodes d'attaque contournant le masquage de gradient en utilisant des approches d'optimisation sans gradient comme les algorithmes génétiques ou le recuit simulé.

📖
termes

Thermometer Encoding

Technique de codage des entrées transformant les caractéristiques continues en représentations binaires ordonnées, réduisant l'espace d'attaque et améliorant la robustesse.

🔍

Aucun résultat trouvé