🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크
📖
Attacks on Computer Vision

Attaque par Patch Adversarial

Technique d'attaque où un patch physique ou numérique est appliqué à une image pour tromper les modèles de classification ou de détection. Contrairement aux perturbations de pixels, cette méthode modifie une région spécifique de l'image de manière visible mais interprétée incorrectement par le modèle.

← 뒤로