🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📖
pojęcia

FGSM (Fast Gradient Sign Method)

Méthode de génération d'exemples adversariaux utilisant le signe du gradient de la fonction de perte par rapport aux entrées pour créer des perturbations maximales dans les limites d'une norme epsilon.

📖
pojęcia

PGD (Projected Gradient Descent)

Algorithme d'attaque itératif basé sur FGSM qui applique plusieurs petites étapes de gradient avec projection pour garantir que les perturbations restent dans une borne prédéfinie.

📖
pojęcia

Robustesse Adversariale

Capacité d'un modèle de deep learning à maintenir ses performances face à des exemples adversariaux soigneusement conçus pour induire en erreur ses prédictions.

📖
pojęcia

Randomisation Adversariale

Approche défensive introduisant de l'aléatoire dans le modèle ou les entrées pendant l'inférence pour rendre les attaques basées sur gradient moins efficaces et prévisibles.

📖
pojęcia

Méthode de Madry

Formulation de l'entraînement adversarial comme un problème de min-max robuste utilisant PGD pour trouver les pires perturbations dans chaque étape d'entraînement.

📖
pojęcia

Entraînement Adversarial Multi-échelle

Technique avancée générant des exemples adversariaux à différentes échelles de résolution et niveaux de bruit pour améliorer la robustesse globale du modèle.

📖
pojęcia

Auto-encodeur Défensif

Réseau neuronal entraîné à reconstruire les entrées originales à partir de versions corrompues, éliminant ainsi les perturbations adversariales avant classification.

📖
pojęcia

Apprentissage Contrastif Adversarial

Méthode d'entraînement utilisant des paires d'exemples positifs et négatifs pour apprendre des représentations robustes qui distinguent mieux les exemples légitimes des adversariaux.

📖
pojęcia

Régularisation Adversariale

Terme de pénalité ajouté à la fonction de perte pendant l'entraînement pour encourager le modèle à avoir des gradients plus stables et des décisions plus robustes.

📖
pojęcia

Ensemble Adversarial

Stratégie défensive combinant plusieurs modèles avec différentes architectures ou entraînements pour réduire la vulnérabilité aux attaques ciblant une seule configuration.

📖
pojęcia

Validation Croisée Adversariale

Méthode d'évaluation robuste testant le modèle sur des ensembles de validation contenant des exemples adversariaux générés avec différentes techniques et paramètres.

📖
pojęcia

Gradient Masking

Phénomène où un modèle semble robuste aux attaques basées sur gradient en raison d'une optimisation locale pauvre, créant une fausse impression de sécurité.

📖
pojęcia

Borne Adversariale

Limite mathématique garantissant que la performance du modèle ne se dégradera pas au-delà d'un certain seuil face à des perturbations d'amplitude bornée.

📖
pojęcia

Bruit Aléatoire Défensif

Technique ajoutant du bruit gaussien ou uniforme aux entrées pendant l'entraînement et l'inférence pour perturber les gradients utilisés dans les attaques adversariales.

📖
pojęcia

Prétraitement Défensif

Étape de transformation appliquée aux entrées avant classification utilisant des filtres, compressions ou transformations pour atténuer les perturbations adversariales.

🔍

Nie znaleziono wyników