🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📖
termini

FGSM (Fast Gradient Sign Method)

Méthode de génération d'exemples adversariaux utilisant le signe du gradient de la fonction de perte par rapport aux entrées pour créer des perturbations maximales dans les limites d'une norme epsilon.

📖
termini

PGD (Projected Gradient Descent)

Algorithme d'attaque itératif basé sur FGSM qui applique plusieurs petites étapes de gradient avec projection pour garantir que les perturbations restent dans une borne prédéfinie.

📖
termini

Robustesse Adversariale

Capacité d'un modèle de deep learning à maintenir ses performances face à des exemples adversariaux soigneusement conçus pour induire en erreur ses prédictions.

📖
termini

Randomisation Adversariale

Approche défensive introduisant de l'aléatoire dans le modèle ou les entrées pendant l'inférence pour rendre les attaques basées sur gradient moins efficaces et prévisibles.

📖
termini

Méthode de Madry

Formulation de l'entraînement adversarial comme un problème de min-max robuste utilisant PGD pour trouver les pires perturbations dans chaque étape d'entraînement.

📖
termini

Entraînement Adversarial Multi-échelle

Technique avancée générant des exemples adversariaux à différentes échelles de résolution et niveaux de bruit pour améliorer la robustesse globale du modèle.

📖
termini

Auto-encodeur Défensif

Réseau neuronal entraîné à reconstruire les entrées originales à partir de versions corrompues, éliminant ainsi les perturbations adversariales avant classification.

📖
termini

Apprentissage Contrastif Adversarial

Méthode d'entraînement utilisant des paires d'exemples positifs et négatifs pour apprendre des représentations robustes qui distinguent mieux les exemples légitimes des adversariaux.

📖
termini

Régularisation Adversariale

Terme de pénalité ajouté à la fonction de perte pendant l'entraînement pour encourager le modèle à avoir des gradients plus stables et des décisions plus robustes.

📖
termini

Ensemble Adversarial

Stratégie défensive combinant plusieurs modèles avec différentes architectures ou entraînements pour réduire la vulnérabilité aux attaques ciblant une seule configuration.

📖
termini

Validation Croisée Adversariale

Méthode d'évaluation robuste testant le modèle sur des ensembles de validation contenant des exemples adversariaux générés avec différentes techniques et paramètres.

📖
termini

Gradient Masking

Phénomène où un modèle semble robuste aux attaques basées sur gradient en raison d'une optimisation locale pauvre, créant une fausse impression de sécurité.

📖
termini

Borne Adversariale

Limite mathématique garantissant que la performance du modèle ne se dégradera pas au-delà d'un certain seuil face à des perturbations d'amplitude bornée.

📖
termini

Bruit Aléatoire Défensif

Technique ajoutant du bruit gaussien ou uniforme aux entrées pendant l'entraînement et l'inférence pour perturber les gradients utilisés dans les attaques adversariales.

📖
termini

Prétraitement Défensif

Étape de transformation appliquée aux entrées avant classification utilisant des filtres, compressions ou transformations pour atténuer les perturbations adversariales.

🔍

Nessun risultato trovato