🏠 ホーム
ベンチマーク
📊 すべてのベンチマーク 🦖 恐竜 v1 🦖 恐竜 v2 ✅ To-Doリストアプリ 🎨 クリエイティブフリーページ 🎯 FSACB - アルティメットショーケース 🌍 翻訳ベンチマーク
モデル
🏆 トップ10モデル 🆓 無料モデル 📋 すべてのモデル ⚙️ 🛠️ Kilo Code モード
リソース
💬 💬 プロンプトライブラリ 📖 📖 AI用語集 🔗 🔗 有用なリンク

AI用語集

人工知能の完全辞典

236
カテゴリ
3,245
サブカテゴリ
39,334
用語
📖
用語

属性推論攻撃

攻撃者がトレーニングデータに含まれていない機密属性をモデルの予測から推測しようとする攻撃。この攻撃は、モデルが学習した暗黙の相関関係を利用して、個人のプライベート情報を明らかにします。

📖
用語

シャドウモデル攻撃

攻撃者がターゲットモデルの動作を模倣するために合成データで代替モデルを訓練する攻撃。これらのゴーストモデルは効果的な攻撃分類器を構築するための訓練例を生成できます。

📖
用語

プライバシー漏洩の定量化

機械学習モデルによって漏洩されたプライベート情報の量を測定・評価する体系的な手法。これらのメトリクスは漏洩リスクを定量化し、保護メカニズムの有効性を評価するのに役立ちます。

📖
用語

敵対的プライバシー防御

プライバシー制約をモデルの訓練目的に直接組み込む proactive な防御技術。これらの手法はモデルの性能と推論攻撃への耐性を同時に最適化します。

📖
用語

プライバシーのための知識蒸留

プライベートな教師モデルを使用して公開の学生モデルを訓練し、知識を転移しながら機密情報をマスクする技術。このアプローチは最終モデルのトレーニングデータ固有の詳細を記憶する能力を削減します。

📖
用語

プライバシー配慮モデル設計

モデルの設計段階からプライバシー保護メカニズムを統合するアーキテクチャ設計原則。このアプローチにはモデルの容量制限、正則化の追加、情報量の少ない出力設計が含まれます。

📖
用語

モデル抽出攻撃

攻撃者が予測を問い合わせ、代替モデルを訓練することで、独自のモデルを複製または盗もうとする攻撃。この攻撃は元のトレーニングデータに関する情報も漏洩する可能性があります。

🔍

結果が見つかりません