🏠 Startseite
Vergleiche
📊 Alle Benchmarks 🦖 Dinosaurier v1 🦖 Dinosaurier v2 ✅ To-Do-Listen-Apps 🎨 Kreative freie Seiten 🎯 FSACB - Ultimatives Showcase 🌍 Übersetzungs-Benchmark
Modelle
🏆 Top 10 Modelle 🆓 Kostenlose Modelle 📋 Alle Modelle ⚙️ Kilo Code
Ressourcen
💬 Prompt-Bibliothek 📖 KI-Glossar 🔗 Nützliche Links

KI-Glossar

Das vollständige Wörterbuch der Künstlichen Intelligenz

162
Kategorien
2.032
Unterkategorien
23.060
Begriffe
📖
Begriffe

FGSM (Fast Gradient Sign Method)

Méthode de génération d'exemples adversariaux utilisant le signe du gradient de la fonction de perte par rapport aux entrées pour créer des perturbations maximales dans les limites d'une norme epsilon.

📖
Begriffe

PGD (Projected Gradient Descent)

Algorithme d'attaque itératif basé sur FGSM qui applique plusieurs petites étapes de gradient avec projection pour garantir que les perturbations restent dans une borne prédéfinie.

📖
Begriffe

Robustesse Adversariale

Capacité d'un modèle de deep learning à maintenir ses performances face à des exemples adversariaux soigneusement conçus pour induire en erreur ses prédictions.

📖
Begriffe

Randomisation Adversariale

Approche défensive introduisant de l'aléatoire dans le modèle ou les entrées pendant l'inférence pour rendre les attaques basées sur gradient moins efficaces et prévisibles.

📖
Begriffe

Méthode de Madry

Formulation de l'entraînement adversarial comme un problème de min-max robuste utilisant PGD pour trouver les pires perturbations dans chaque étape d'entraînement.

📖
Begriffe

Entraînement Adversarial Multi-échelle

Technique avancée générant des exemples adversariaux à différentes échelles de résolution et niveaux de bruit pour améliorer la robustesse globale du modèle.

📖
Begriffe

Auto-encodeur Défensif

Réseau neuronal entraîné à reconstruire les entrées originales à partir de versions corrompues, éliminant ainsi les perturbations adversariales avant classification.

📖
Begriffe

Apprentissage Contrastif Adversarial

Méthode d'entraînement utilisant des paires d'exemples positifs et négatifs pour apprendre des représentations robustes qui distinguent mieux les exemples légitimes des adversariaux.

📖
Begriffe

Régularisation Adversariale

Terme de pénalité ajouté à la fonction de perte pendant l'entraînement pour encourager le modèle à avoir des gradients plus stables et des décisions plus robustes.

📖
Begriffe

Ensemble Adversarial

Stratégie défensive combinant plusieurs modèles avec différentes architectures ou entraînements pour réduire la vulnérabilité aux attaques ciblant une seule configuration.

📖
Begriffe

Validation Croisée Adversariale

Méthode d'évaluation robuste testant le modèle sur des ensembles de validation contenant des exemples adversariaux générés avec différentes techniques et paramètres.

📖
Begriffe

Gradient Masking

Phénomène où un modèle semble robuste aux attaques basées sur gradient en raison d'une optimisation locale pauvre, créant une fausse impression de sécurité.

📖
Begriffe

Borne Adversariale

Limite mathématique garantissant que la performance du modèle ne se dégradera pas au-delà d'un certain seuil face à des perturbations d'amplitude bornée.

📖
Begriffe

Bruit Aléatoire Défensif

Technique ajoutant du bruit gaussien ou uniforme aux entrées pendant l'entraînement et l'inférence pour perturber les gradients utilisés dans les attaques adversariales.

📖
Begriffe

Prétraitement Défensif

Étape de transformation appliquée aux entrées avant classification utilisant des filtres, compressions ou transformations pour atténuer les perturbations adversariales.

🔍

Keine Ergebnisse gefunden