AI用語集
人工知能の完全辞典
リプレイメモリ
過去のデータの例を保存し、モデルを定期的に再トレーニングしてカタストロフィック・フォーゲッティング(忘却)を防ぐためのバッファメモリ。この手法は、新しい情報を統合しながら、過去の知識のバランスの取れた表現を維持します。
知識蒸留
獲得した知識を保持するために、学習中のモデルが以前の専門モデル(教師モデル)の出力を模倣する手法。このアプローチでは、クラス間で学習された関係を保持するガイドとして、教師モデルのソフトな確率分布を使用します。
プログレッシブニューラルネットワーク
各新しいタスクが独自のニューロンカラムを持ちながら、以前のカラムとの横方向の接続を維持するアーキテクチャ。この構造は、知識の転送を可能にしつつ、タスク間の直接的な干渉を回避します。
タスクインクリメンタル学習
タスクの境界が明確に定義された状態で、タスクが順次提示される学習シナリオ。モデルは、すべてのタスクのデータに同時にアクセスすることなく、学習したすべてのタスクで高いパフォーマンスを発揮する必要があります。
クラスインクリメンタル学習
古いクラスを再提示することなく、新しいクラスを分類システムに徐々に追加していくパラダイム。このアプローチは、カテゴリが時間の経過とともに動的に変化する現実の条件をシミュレートします。
ドメイン適応
ソースドメインでトレーニングされたモデルを調整し、異なるターゲットドメインで効果的に機能させるプロセス。インクリメンタル適応により、モデルはデータ分布の変化に徐々に適応できます。
カリキュラム学習
収束を最適化するために、学習サンプルを難易度の低い順から提示する逐次的戦略。適応的カリキュラムは、モデルの進捗に応じて学習シーケンスを動的に調整します。
シナプス正則化
新しい情報を学習する際に、過去のタスクにとって重要なニューロン接続を保護する手法。このアプローチは、重要なシナプス重みを特定し、以前のパフォーマンスへの貢献を維持するためにペナルティを適用します。