🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Attaque Adversariale

Technique consistant à introduire des perturbations imperceptibles dans les données d'entrée pour tromper un modèle d'apprentissage automatique. Ces attaques exploitent les vulnérabilités des réseaux de neurones profonds en manipulant subtilement les pixels d'une image.

📖
용어

Attaque par Patch Adversarial

Technique d'attaque où un patch physique ou numérique est appliqué à une image pour tromper les modèles de classification ou de détection. Contrairement aux perturbations de pixels, cette méthode modifie une région spécifique de l'image de manière visible mais interprétée incorrectement par le modèle.

📖
용어

Attaque Universelle

Type d'attaque où une seule perturbation est capable de tromper un modèle sur la majorité des images d'entrée. Ces attaques sont particulièrement dangereuses car elles ne nécessitent pas de recalculer la perturbation pour chaque nouvelle image.

📖
용어

Attaque sur Détection d'Objets

Attaque spécifiquement conçue pour tromper les modèles de détection d'objets en manipulant les bounding boxes ou les scores de confiance. Ces attaques peuvent faire disparaître des objets détectés ou en faire apparaître de faux.

📖
용어

Gradient Masqué

Phénomène où un modèle de défense artificiellement lisse sa surface de décision, rendant les gradients inutilisables pour les attaques. Bien que semblant protecteur, cette technique est souvent contournable et peut créer une fausse impression de sécurité.

📖
용어

Perturbation Lp

Mesure de la magnitude des perturbations adversariales utilisant différentes normes mathématiques (L0, L2, Linfini). Chaque norme impose différentes contraintes sur la nature et la distribution des modifications autorisées dans l'image.

📖
용어

Attaque sur Segmentation Sémantique

Attaque ciblant les modèles de segmentation qui modifient la classification pixel par pixel des images. Ces attaques peuvent altérer la perception des contours et des régions sémantiques, affectant des applications comme la conduite autonome ou l'imagerie médicale.

📖
용어

Transferabilité d'Attaque

Phénomène où une attaque générée contre un modèle spécifique reste efficace contre d'autres modèles, même avec des architectures différentes. Cette propriété est cruciale pour les attaques par boîte noire et révèle des vulnérabilités communes entre modèles.

🔍

결과를 찾을 수 없습니다