🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📖
शब्द

Inférence d'Appartenance

Type d'attaque de confidentialité où un adversaire détermine si un enregistrement de données spécifique a été utilisé dans l'ensemble d'entraînement d'un modèle, violant la vie privée des individus.

📖
शब्द

Attaque par Inversion

Attaque qui reconstruit approximativement les données d'entraînement sensibles en analysant les sorties du modèle, menaçant la confidentialité des informations utilisées pour son apprentissage.

📖
शब्द

Différentielle de la Vie Privée

Cadre formel de confidentialité garantissant que la sortie d'un modèle change de manière négligeable si un seul individu est ajouté ou retiré du jeu de données d'entraînement.

📖
शब्द

Défense par Masquage Gradient

Technique de protection visant à obscurcir les gradients du modèle pour empêcher les attaquants d'utiliser des méthodes basées sur les gradients pour générer des attaques adversariales efficaces.

📖
शब्द

Fédération de l'Apprentissage

Approche d'entraînement décentralisée où le modèle est appris sur des données locales sans les partager, réduisant le risque de fuites de données sensibles depuis un référentiel central.

📖
शब्द

Backdoor dans un Modèle

Vulnérabilité introduite intentionnellement dans un modèle, souvent via un empoisonnement des données, qui le fait se comporter anormalement en présence d'un déclencheur spécifique.

📖
शब्द

Robustesse de Modèle

Capacité d'un modèle de machine learning à maintenir ses performances face à des perturbations des données d'entrée, y compris les bruits aléatoires et les attaques adversariales ciblées.

📖
शब्द

Certification de Robustesse

Processus mathématique fournissant une garantie formelle qu'un modèle ne peut pas être trompé par des perturbations d'entrée dépassant une certaine magnitude définie.

📖
शब्द

Attaque de Transfertabilité

Phénomène où un exemple adversarial, conçu pour tromper un modèle spécifique, parvient également à induire en erreur d'autres modèles ayant des architectures ou des données d'entraînement différentes.

📖
शब्द

Nettoyage d'Ensemble de Données

Processus proactif d'identification et de suppression d'échantillons potentiellement malveillants ou anormaux d'un jeu de données avant l'entraînement pour prévenir les attaques de type poisoning.

📖
शब्द

Métrique de Sensibilité

Mesure quantitative évaluant à quel point les prédictions d'un modèle changent en réponse à de petites modifications de ses données d'entrée, indiquant sa vulnérabilité aux attaques.

🔍

कोई परिणाम नहीं मिला