🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📂
sous-catégories

Attaques White-Box

Attaques où l'adversaire connaît complètement l'architecture et les paramètres du modèle cible.

15 termes
📂
sous-catégories

Attaques Black-Box

Attaques réalisées sans connaissance interne du modèle, uniquement par interactions avec ses entrées/sorties.

18 termes
📂
sous-catégories

Attaques par Evasion

Perturbations subtilles des données d'entrée pour tromper le modèle lors de l'inférence.

13 termes
📂
sous-catégories

Attaques par Empoisonnement

Injection de données malveillantes dans l'ensemble d'entraînement pour compromettre le modèle.

17 termes
📂
sous-catégories

Attaques par Extraction de Modèle

Vol des paramètres ou de la fonctionnalité d'un modèle propriétaire par requêtes répétées.

17 termes
📂
sous-catégories

Attaques par Inférence d'Appartenance

Détermination si un point de données spécifique faisait partie de l'ensemble d'entraînement.

11 termes
📂
sous-catégories

Défense par Adversarial Training

Entraînement du modèle sur des exemples adversariaux générés pour améliorer sa robustesse.

15 termes
📂
sous-catégories

Défense par Détection d'Attaques

Mécanismes pour identifier et rejeter les entrées potentiellement adversariales.

18 termes
📂
sous-catégories

Défense par Gradient Masking

Techniques masquant les gradients pour empêcher les attaques basées sur l'optimisation.

17 termes
📂
sous-catégories

Attaques sur Vision par Ordinateur

Attaques spécifiquement conçues pour tromper les modèles de classification d'images et de détection d'objets.

8 termes
📂
sous-catégories

Attaques sur NLP

Perturbations textuelles subtiles pour tromper les modèles de traitement du langage naturel.

17 termes
📂
sous-catégories

Attaques par Transfert

Attaques générées sur un modèle source mais efficaces contre des modèles cibles différents.

16 termes
📂
sous-catégories

Défense par Randomisation

Introduction de stochasticité dans le processus d'inférence pour perturber les attaques.

16 termes
📂
sous-catégories

Attaques sur Modèles Audio

Perturbations sonores imperceptibles conçues pour tromper les systèmes de reconnaissance vocale.

20 termes
📂
sous-catégories

Évaluation de Robustesse

Métriques et benchmarks pour quantifier la résistance des modèles aux attaques adversariales.

17 termes
🔍

Aucun résultat trouvé