🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Attaque par Évasion

Technique d'attaque qui modifie subtilement les données d'entrée pour tromper un modèle d'IA lors de la phase d'inférence, sans altérer la perception humaine de l'information.

📖
termes

Attaque DeepFool

Algorithme itératif qui calcule la distance minimale aux frontières de décision pour produire des exemples adversariaux avec les plus petites perturbations possibles.

📖
termes

Perturbation Universelle Adversariale

Perturbation unique capable de tromper efficacement un modèle sur une large gamme d'entrées différentes, sans nécessiter de recalcul pour chaque échantillon.

📖
termes

Attaque par Transferabilité

Exploitation du phénomène où les exemples adversariaux générés contre un modèle restent efficaces contre d'autres modèles avec architectures différentes.

📖
termes

Attaque par Distance Lp

Famille d'attaques qui mesurent et limitent l'amplitude des perturbations selon différentes normes (L0, L1, L2, L∞) pour contrôler leur perceptibilité.

📖
termes

Attaque par Score

Attaque black-box qui utilise les scores de confiance du modèle pour estimer les gradients et construire des exemples adversariaux efficaces.

📖
termes

Attaque par Décision

Attaque black-box extrême qui n'utilise que les étiquettes de sortie prédites par le modèle pour générer des perturbations adversariales.

📖
termes

Attaque Physique

Attaque où les perturbations adversariales sont appliquées à des objets physiques pour tromper les systèmes d'IA dans des conditions du monde réel.

📖
termes

Attaque Zero-Day

Attaque qui exploite des vulnérabilités inconnues du système de défense, rendant les mécanismes de détection traditionnels inefficaces.

📖
termes

Attaque par Encodage

Technique qui modifie les représentations encodées des données plutôt que les données brutes pour contourner les défenses basées sur l'entrée.

📖
termes

Attaque par Transformation

Attaque qui applique des transformations géométriques (rotation, translation) aux données d'entrée pour tromper le modèle sans modifications de pixels directes.

📖
termes

Attaque EOT (Expectation over Transformation)

Technique d'optimisation qui rend les attaques robustes aux variations aléatoires en optimisant sur une distribution de transformations possibles.

📖
termes

Attaque par AutoEncodeur Adversarial

Méthode qui utilise des autoencodeurs pour générer des perturbations imperceptibles tout en préservant la sémantique originale des données.

🔍

Aucun résultat trouvé