🏠 ホーム
ベンチマーク
📊 すべてのベンチマーク 🦖 恐竜 v1 🦖 恐竜 v2 ✅ To-Doリストアプリ 🎨 クリエイティブフリーページ 🎯 FSACB - アルティメットショーケース 🌍 翻訳ベンチマーク
モデル
🏆 トップ10モデル 🆓 無料モデル 📋 すべてのモデル ⚙️ 🛠️ Kilo Code モード
リソース
💬 💬 プロンプトライブラリ 📖 📖 AI用語集 🔗 🔗 有用なリンク
📖
コンピュータビジョンに対する攻撃

敵対的パッチ攻撃

分類モデルや検出モデルを欺くために、画像に物理的またはデジタルなパッチを適用する攻撃手法。ピクセル単位の摂動とは異なり、この手法は画像の特定の領域を目に見える形で変更するが、モデルによっては誤って解釈される。

← 戻る