🏠 ホーム
ベンチマーク
📊 すべてのベンチマーク 🦖 恐竜 v1 🦖 恐竜 v2 ✅ To-Doリストアプリ 🎨 クリエイティブフリーページ 🎯 FSACB - アルティメットショーケース 🌍 翻訳ベンチマーク
モデル
🏆 トップ10モデル 🆓 無料モデル 📋 すべてのモデル ⚙️ 🛠️ Kilo Code モード
リソース
💬 💬 プロンプトライブラリ 📖 📖 AI用語集 🔗 🔗 有用なリンク

AI用語集

人工知能の完全辞典

236
カテゴリ
3,245
サブカテゴリ
39,334
用語
📖
用語

説明可能性(XAI)

AIモデルの決定を人間が理解できるようにする技術と手法の集合体。規制遵守とユーザー信頼にとって不可欠。

📖
用語

解釈可能性

AIモデルが内部メカニズムを理解可能な形で提示する能力。本質的解釈可能性(透明なモデル)と事後的解釈可能性を区別する。

📖
用語

GDPRにおける説明権

個人に影響を与える自動化された決定について、明確かつ有意義な説明を組織が提供する法的義務。GDPR第22条に準拠。

📖
用語

アルゴリズム監査

AIアルゴリズムの法的・倫理的・技術的要件への適合性を検証する体系的な評価プロセス。バイアステストと文書化を含む。

📖
用語

ブラックボックス

内部メカニズムが不透明で解釈が困難なAIモデル。規制監査と透明性において重大な課題を提起する。

📖
用語

SHAP(SHapley Additive exPlanations)

ゲーム理論に基づく説明手法。各特徴量が予測に与える影響を定量化し、規制監査のための理論的保証を提供する。

📖
用語

LIME(Local Interpretable Model-agnostic Explanations)

局所的解釈手法。複雑なモデルを局所的に解釈可能な単純なモデルで近似し、個々の予測を説明する。

📖
用語

特徴量重要度

各入力変数がモデルの予測に与える相対的影響の定量的測定。監査における意思決定要因の文書化に不可欠。

📖
用語

反事実的説明

入力特徴量の最小限の変更でモデルの決定がどのように変わるかを示す説明。自動化された決定を理解し異議を唱えるのに役立つ。

📖
用語

モデル文書化

AIモデルの特性、性能、限界、意思決定プロセスを体系的かつ完全に記録したもの。規制適合性のために必要。

📖
用語

決定の追跡可能性

AIシステムの意思決定プロセス全体を、入力データから最終出力まで追跡・文書化する能力。法的監査に不可欠。

📖
用語

AI影響評価

AIシステムが基本的人権や社会に及ぼす潜在的なリスクを体系的に評価すること。欧州AI規制で義務付けられている。

📖
用語

意思決定の正当化

各自動化決定を支持する明確かつ具体的な理由を提供する義務。個人が結果を理解し異議を唱えることを可能にする。

📖
用語

公平性指標

アルゴリズム的決定における潜在的なバイアスと差別を測定する定量的指標。反差別規制への適合性に不可欠。

📖
用語

ロバストネステスト

入力データの変動に対するモデル予測の安定性を体系的に評価すること。規制監査に必要な信頼性を保証する。

📖
用語

グローバル感度分析

各変数がデータ全体にわたるモデル予測に与える影響を評価する方法。規制監査のための全体像を提供する。

📖
用語

アルゴリズム登録

組織が使用するすべてのAIアルゴリズムとその特性、リスクレベルを登録した中央データベース。規制の透明性のために必要。

🔍

結果が見つかりません