AI用語集
人工知能の完全辞典
時間的トランスフォーマー
元のトランスフォーマーを時系列処理に適応させたニューラルネットワークアーキテクチャで、長期的な時間的依存関係を捉えるために注意メカニズムを使用する。このアーキテクチャは、時系列データの特定の特性をより適切に処理するために標準トランスフォーマーの構成要素を変更している。
パッチ時系列トランスフォーマー(PatchTST)
時系列をパッチに分割して計算効率を向上させ、局所的および大域的なパターンを捉えるトランスフォーマーアーキテクチャ。このアプローチは時間的複雑さを軽減しながら、データ内の重要な時間的関係を保持することを可能にする。
時間的位置エンコーディング
時系列に時間情報を注入するエンコーディングメカニズムで、モデルが観測値の時間的順序を理解できるようにする。テキスト用の標準的位置エンコーディングとは異なり、可変の時間間隔と周期性を考慮する必要がある。
因果的注意マスキング
予測時にモデルが将来の情報を使用するのを防ぐマスキング技術で、注意が過去の時間ステップのみに向けられることを保証する。予測が履歴データのみに依存しなければならない予測タスクにおいて不可欠。
インフォーマーアーキテクチャ
長い時系列向けに最適化されたトランスフォーマーアーキテクチャで、効率的な確率的注意メカニズムと依存関係蒸留器を備える。長期的依存関係を捉える能力を保持しながら、標準的な注意の二次的複雑さを軽減するように設計されている。
時間的融合トランスフォーマー(TFT)
多変量時系列予測のための注意メカニズムと共鳴ネットワークを組み合わせたハイブリッドアーキテクチャ。静的変数と解釈可能性の制御を統合し、異なる時系列間の関係を理解する。
オートフォーマー
時間的依存関係をより良く捉えるために標準的な注意を置き換える深い自己相関メカニズムを備えたトランスフォーマーアーキテクチャ。時系列分解を使用して傾向と季節性を分離し、予測精度を向上させる。
多変量系列のためのクロスアテンション
多変量時系列における異なる時間変数間の相互作用をモデル化する注意メカニズム。モデルが系列間の関係を発見し活用して予測精度を向上させることを可能にする。
時間的注意ウィンドウ
計算複雑性を削減し、関連する依存関係に焦点を当てるために、注意の範囲を特定の時間ウィンドウに制限する技術。遠方の依存関係が重要でない非常に長い時系列データに特に有用。
時系列パッチ埋め込み
時系列セグメントを埋め込みベクトルに変換し、トランスフォーマー層への入力として機能させるプロセス。重要な時間的パターンを保持しながらデータの次元性を削減する。
季節分解トランスフォーマー
周期的パターンをより適切にモデル化するために、トランスフォーマーパイプラインに明示的な季節分解を統合したアーキテクチャ。注意メカニズムを適用する前に系列を傾向成分、季節成分、残差成分に分離する。
時系列のための効率的注意
計算複雑性をO(n²)からO(n)またはO(n log n)に削減する、時系列向けに最適化された注意の変種。時系列データに特化して適応されたPerformer、Linformer、Reformerなどのアプローチを含む。
変数選択トランスフォーマー
各時間ステップで予測に最も関連性の高い変数を動的に選択することを学習するメカニズム。時間の経過に伴う特徴量の重要性をモデル化するために注意重みを使用する。
時間的自己注意
各時間点が同じ系列内の他のすべての時間点に対する自身の重要性を計算するメカニズム。従来のRNNモデルの制約なしに、複雑で長距離の依存関係を捕捉することを可能にする。
時系列のためのゲート付き注意
トランスフォーマーアーキテクチャ内での時間的情報の流れを選択的に制御するためにゲートを使用する注意メカニズム。時間的ノイズを無視しながら関連期間に焦点を当てるモデルの能力を向上させる。
階層的時間的注意
短期、中期、長期のパターンを捕捉するために複数の時間スケールで同時に動作する注意アーキテクチャ。逐次動力学の完全な理解のために異なる時間解像度からの情報を組み合わせる。
適応周波数注意
時系列データの分析において支配的な周波数に基づいて注意を適応させるメカニズム。周期的・循環的パターンのより良いモデリングのために、時間的アプローチと周波的アプローチを組み合わせる。