🏠 ホーム
ベンチマーク
📊 すべてのベンチマーク 🦖 恐竜 v1 🦖 恐竜 v2 ✅ To-Doリストアプリ 🎨 クリエイティブフリーページ 🎯 FSACB - アルティメットショーケース 🌍 翻訳ベンチマーク
モデル
🏆 トップ10モデル 🆓 無料モデル 📋 すべてのモデル ⚙️ 🛠️ Kilo Code モード
リソース
💬 💬 プロンプトライブラリ 📖 📖 AI用語集 🔗 🔗 有用なリンク

AI用語集

人工知能の完全辞典

236
カテゴリ
3,245
サブカテゴリ
39,334
用語
📖
用語

アルゴリズム公平性

人工知能システムが、保護された特性に関係なく、すべての個人またはグループに対して公正で差別的でない結果を生み出すことを保証することを目的とする基本原則。

📖
用語

アルゴリズムバイアス

アルゴリズムの予測や意思決定における体系的な歪みで、特定のグループを不公平に有利または不利にするもの。多くの場合、偏ったトレーニングデータや不適切な設計に起因する。

📖
用語

人口統計的均等性

個人の実際の特性に関係なく、異なる人口統計グループ間でポジティブな結果の割合が同一であることを要求する公平性の基準。

📖
用語

機会均等性

異なるグループ間で真陽性率と偽陽性率が等しくなることを保証し、すべての人口に対して類似の予測パフォーマンスを確保する公平性の原則。

📖
用語

較正の公平性

与えられた各予測スコアについて、関連するすべての人口統計グループで実際の結果の確率が同じであることを要求する公平性の尺度。

📖
用語

反実仮想的公平性

個人の保護された特性が異なる場合に、他の属性を一定に保ったまま、予測が変更されないかどうかを評価する公平性アプローチ。

📖
用語

個人の公平性

類似した個人がAIシステムから類似した処理や予測を受けるべきであると規定する原則で、個々人のレベルでの一貫性を保証する。

📖
用語

グループの公平性

特定の個人の特性を考慮せず、異なる人口統計グループがAIシステムから統計的に類似した結果を受けているかどうかを評価する公平性の尺度。

📖
用語

不均等な影響

アルゴリズムが異なる人口集団に及ぼす不均等なマイナスまたはプラスの効果で、各グループの結果率の統計的差によって測定される。

📖
用語

分配的正義

AIに適用される哲学的概念で、アルゴリズムシステムによって生成されるリソース、機会または利益をすべての関係グループ間で公平に分配することを保証する。

📖
用語

手続き的正義

アルゴリズム意思決定プロセスが透明で一貫性があり、産出された結果に関わらず異議申し立てを可能にすることを保証する原則。

📖
用語

予測の公平性

すべてのグループで正しい予測の割合が同じであることを保証する基準で、異なる人口集団にわたって予測の信頼性の公平性を確保する。

📖
用語

アルゴリズム特権

モデルの設計またはトレーニングにおける暗黙的なバイアスから生じる、アルゴリズムによって特定のグループまたは個人に与えられる体系的な利点。

📖
用語

公平な扱い

保護されたまたは敏感な特性に基づく差別なしで、AIシステムがすべての人を公平かつ一貫して扱うことを要求する基本的な原則。

📖
用語

意識による公平性

モデルの設計と評価に潜在的なバイアスと保護された特性に関する知識を明示的に組み込み、公平な結果を保証する方法論。

📖
用語

アルゴリズムによる差別

AIシステムによる特定のグループへの差別的で不当な扱いで、システム的不平等を作り出すか維持するアルゴリズム決定から生じる。

📖
用語

縦断的公平性

AIシステムの公平性が時間とともに維持され、モデルの進化に伴う新たなバイアスの出現や既存の不平等の増幅を避けることを保証する原則。

🔍

結果が見つかりません