🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Attaque Adversariale Textuelle

Technique consistant à modifier subtilement un texte d'entrée pour induire en erreur un modèle NLP tout en préservant la sémantique pour un lecteur humain.

📖
个术语

Perturbation au Niveau des Caractères

Modification de caractères individuels dans le texte (insertion, suppression, substitution) pour créer des exemples adversariaux difficiles à détecter.

📖
个术语

Attaque par Substitution Lexicale

Remplacement de mots par des synonymes sémantiquement proches mais qui changent la prédiction du modèle NLP de manière ciblée.

📖
个术语

Déclencheurs Universels Adversariaux

Séquences de mots ou caractères spécifiques qui, lorsqu'insérées dans n'importe quel texte, provoquent systématiquement une erreur de classification du modèle.

📖
个术语

Attaque Boîte Noire

Attaque menée sans connaissance des paramètres internes du modèle, utilisant uniquement les prédictions du modèle pour construire des exemples adversariaux.

📖
个术语

Attaque Boîte Blanche

Attaque exploitant la connaissance complète de l'architecture et des gradients du modèle pour générer des perturbations optimales.

📖
个术语

Attaque par Transfert

Génération d'exemples adversariaux sur un modèle source qui conservent leur efficacité sur des modèles cibles non connus.

📖
个术语

Préservation Sémantique

Contrainte assurant que les perturbations textuelles ne modifient pas le sens global du texte pour un lecteur humain.

📖
个术语

Attaque par Empoisonnement de Données

Insertion malveillante d'exemples corrompus dans le jeu d'entraînement pour dégrader les performances du modèle pendant sa phase d'apprentissage.

📖
个术语

Perturbation Syntaxique

Modification de la structure grammaticale ou syntaxique d'une phrase tout en préservant son sens sémantique pour tromper les modèles NLP.

📖
个术语

Masquage de Gradient

Technique de défense qui modifie le gradient du modèle pour empêcher les attaques basées sur l'optimisation, sans nécessairement améliorer la robustesse réelle.

📖
个术语

Attaque par Requête

Attaque boîte noire qui optimise les perturbations en interrogeant itérativement le modèle et en analysant ses réponses.

📖
个术语

Robustesse Sémantique

Capacité d'un modèle NLP à maintenir des prédictions cohérentes face à des variations textuelles préservant le sens mais modifiant la forme.

📖
个术语

Espace de Recherche Adversarial

Ensemble de toutes les modifications possibles du texte qui peuvent être appliquées pour générer des exemples adversariaux valides.

📖
个术语

Score de Perturbation

Métrique quantitative évaluant l'ampleur de la modification appliquée au texte original pour créer un exemple adversarial.

📖
个术语

Attaque Multi-objectifs

Attaque adversariale cherchant simultanément à tromper le modèle tout en optimisant plusieurs contraintes comme la lisibilité ou la préservation sémantique.

📖
个术语

Détection d'Attaques Adversariales

Mécanisme défensif identifiant les entrées potentiellement adversariales basé sur des anomalies statistiques ou comportementales dans les prédictions.

🔍

未找到结果