🏠 ホーム
ベンチマーク
📊 すべてのベンチマーク 🦖 恐竜 v1 🦖 恐竜 v2 ✅ To-Doリストアプリ 🎨 クリエイティブフリーページ 🎯 FSACB - アルティメットショーケース 🌍 翻訳ベンチマーク
モデル
🏆 トップ10モデル 🆓 無料モデル 📋 すべてのモデル ⚙️ 🛠️ Kilo Code モード
リソース
💬 💬 プロンプトライブラリ 📖 📖 AI用語集 🔗 🔗 有用なリンク

AI用語集

人工知能の完全辞典

236
カテゴリ
3,245
サブカテゴリ
39,334
用語
📖
用語

メンバーシップ推論

攻撃者が特定のデータレコードがモデルのトレーニングセットで使用されたかどうかを判断するプライバシー攻撃の一種で、個人のプライバシーを侵害します。

📖
用語

逆攻撃

モデルの出力を分析することで機微なトレーニングデータを概ね再構築する攻撃で、学習に使用された情報の機密性を脅かします。

📖
用語

差分プライバシー

1人の個人がトレーニングデータセットに追加または削除されても、モデルの出力が無視できるほどしか変化しないことを保証する形式的なプライバシー枠組み。

📖
用語

勾配マスキングによる防御

攻撃者が勾配ベースの手法を使用して効果的な敵対的攻撃を生成するのを防ぐために、モデルの勾配を不明瞭にすることを目的とする保護技術。

📖
用語

連合学習

データを共有することなくローカルデータでモデルを学習させる分散型トレーニングアプローチで、中央リポジトリからの機微なデータ漏洩のリスクを軽減します。

📖
用語

モデルにおけるバックドア

特定のトリガーの存在下で異常な動作をさせる、意図的にモデルに導入される脆弱性で、多くの場合データポイズニングを介して行われます。

📖
用語

モデルの堅牢性

ランダムノイズや標的型敵対的攻撃を含む入力データの摂動に直面しても、機械学習モデルがその性能を維持する能力。

📖
用語

堅牢性の認証

定義された特定の大きさを超える入力摂動によってモデルが欺かれないという形式的な保証を提供する数学的プロセス。

📖
用語

転移性攻撃

特定のモデルを欺くために作られた敵対的例が、異なるアーキテクチャや訓練データを持つ他のモデルにも誤分類を引き起こす現象。

📖
用語

データセットクリーニング

訓練前に、潜在的に悪意のあるまたは異常なサンプルをデータセットから特定して削除し、ポイズニング攻撃を防ぐための積極的なプロセス。

📖
用語

感度メトリック

モデルの予測が入力データの小さな変更にどの程度応答して変化するかを評価する定量的な測定で、モデルの攻撃に対する脆弱性を示す指標。

🔍

結果が見つかりません