🏠 ホーム
ベンチマーク
📊 すべてのベンチマーク 🦖 恐竜 v1 🦖 恐竜 v2 ✅ To-Doリストアプリ 🎨 クリエイティブフリーページ 🎯 FSACB - アルティメットショーケース 🌍 翻訳ベンチマーク
モデル
🏆 トップ10モデル 🆓 無料モデル 📋 すべてのモデル ⚙️ 🛠️ Kilo Code モード
リソース
💬 💬 プロンプトライブラリ 📖 📖 AI用語集 🔗 🔗 有用なリンク

AI用語集

人工知能の完全辞典

236
カテゴリ
3,245
サブカテゴリ
39,334
用語
📖
用語

言語モデル

言語における単語シーケンスの出現確率を計算する統計的または神経系システム。これらのモデルは、自然言語を生成または評価するために、大規模なテキストコーパスから文脈的および構文的依存関係を学習します。

📖
用語

トランスフォーマーアーキテクチャ

時間的依存関係なしにシーケンスを並列処理するアテンションメカニズムに基づくニューラルアーキテクチャ。トランスフォーマーは、長距離依存関係を捉える能力により、言語モデルを革新しました。

📖
用語

GPT

左から右へのみデコードするトランスフォーマーアーキテクチャに基づく生成言語モデルファミリー。GPTモデルは、一貫性のあるテキスト生成とシーケンス補完に特化しています。

📖
用語

N-gramme

単語の確率が前のn-1単語にのみ依存するというマルコフ仮説に基づく統計的言語モデル。N-grammeは、ニューラルネットワーク時代以前の言語モデルの古典的なアプローチを構成します。

📖
用語

RNN

各トークンで進化する隠れ状態を維持しながらシーケンスを処理する再帰的ニューラルネットワーク。RNNは、時間的依存関係を捉えるために言語モデルに適用された最初のニューラルアーキテクチャの一つでした。

📖
用語

LSTM

長期的依存関係を管理するために忘却ゲートとメモリゲートを使用するRNNの高度なバリエーション。LSTMは、言語モデリングアプリケーションにおける従来のRNNの勾配消失問題を克服しました。

📖
用語

因果言語モデル

シーケンス内の前の単語のみに基づいて次の単語を予測するように訓練されたモデル。因果モデルは、テキスト生成と補完タスクに特に適しています。

📖
用語

マスク言語モデル

完全な双方向文脈を使用してシーケンス内のマスクされた単語を予測するように訓練されたモデル。このアプローチにより、分析と分類タスクのためのより良い文脈理解が可能になります。

🔍

結果が見つかりません