AI用語集
人工知能の完全辞典
236
カテゴリ
3,245
サブカテゴリ
39,334
用語
用語
モデル抽出攻撃
攻撃者がターゲットモデルのAPIに問い合わせ、その応答を使用して同等の機能を持つ代替モデルをトレーニングすることにより、機械学習モデルを再作成する攻撃。
用語
メンバーシップ推論攻撃
特定のデータサンプルがモデルのトレーニングセットで使用されたかどうかを判断し、それによってプライベートなトレーニングデータに関する情報を明らかにすることを目的とする攻撃手法。
用語
モデル逆転攻撃
モデルの出力と予測に関する情報を活用して学習プロセスを逆転させ、トレーニングデータの特徴を近似的に再構築する攻撃。
用語
敵対的例
機械学習モデルを欺くために特別に設計された入力で、モデルの脆弱性を利用して間違った予測を引き起こすが、人間には知覚されない。
用語
データ汚染攻撃
攻撃者が悪意のあるデータを故意にトレーニングセットに挿入し、モデルの性能を低下させたり、悪用可能なバックドアを作成したりする攻撃。
用語
モデル盗用
攻撃者がAPIや予測動作を介してアクセス可能な情報を悪用し、独自の機械学習モデルを不正に抽出または複製するプロセス。
用語
プロパティ推論攻撃
データに直接アクセスすることなく、クラス分布や相関関係などトレーニングデータセットのグローバルなプロパティを推論することを目的とする攻撃。
用語
モデルウォーターマーキング
機械学習モデルに目に見えないマーカーを統合し、盗難や不正な複製の場合に所有権を特定・証明できるようにする知的財産保護技術。
用語
グラディエントリーク
分散学習または連合学習中に共有される勾配が、参加者のローカルな学習データに関する機密情報を漏洩する可能性がある脆弱性。
用語
暗号プリミティブ
暗号化、復号、ハッシュ関数、デジタル署名など、複雑なセキュリティプロトコルを構築するための基本要素として使用される基本的な暗号化操作。
🔍