AI用語集
人工知能の完全辞典
深層畳み込み層
畳み込みニューラルネットワークの初期層で、エッジ、テクスチャ、基本的な幾何学的形状などの低レベル特徴を捉える。転移学習において、普遍的なパターンを抽出する能力により、これらの層は通常そのまま再利用される。
事前学習済みニューラルネットワーク
ImageNetなどの大規模データセットで既に学習された深層学習モデルで、汎用的な特徴抽出のために最適化された重みを持つ。これらのネットワークは高性能な特徴抽出器を提供することで、転移学習の基盤として機能する。
特徴ベクトル
事前学習済みニューラルネットワークの中間層によって生成される多次元の数値表現。これらのベクトルは、入力データの本質的なセマンティック情報をコンパクトで構造化された空間に符号化する。
部分ファインチューニング
モデルの上位層のみを再学習し、下位層は凍結したままにする転移学習戦略。このアプローチは、汎用的な特徴を保持しつつ、ターゲットの特定のタスクにモデルを適応させる。
固定特徴抽出
事前学習済みモデルの下位層を静的な抽出器として使用し、学習中に重みを変更しない手法。この技術は、抽出される特徴の安定性を保証しつつ、計算コストを削減する。
ネットワークの下位層
基本的で汎用的なパターンの検出に特化した深層ニューラルネットワークの初期層。これらの層は、異なるタスクや応用分野間で転移可能な普遍的な特徴を捉える。
視覚的記述子
事前学習済みモデルの下位畳み込み層によって画像から抽出される定量的特徴。これらの記述子は、エッジ、テクスチャ、幾何学的構造などの基本的な視覚的属性を表現する。
潜在表現
事前学習済みニューラルネットワークの隠れ層によって生成される抽象的な符号化で、データの本質的な情報を捉える。これらの表現は、次元削減によりセマンティクスを保持しつつ、下流タスクの基盤として機能する。
階層的特徴
深層ネットワークの連続する層によって生成される、抽象度が増す階層で構成された特徴の構造。下位層は、様々なタスクのプリミティブとして再利用可能な低レベル特徴を生成します。
畳み込み特徴マップ
特定のパターンの存在に対応する空間的活性化を表す畳み込み層の出力。これらの下位層の特徴マップは、再利用可能な局所的な構造を捉えるのに特に効果的です。
ボトルネック特徴
事前学習済みネットワークの分類層の直前に抽出される圧縮された表現。これらのボトルネック特徴は、転移学習に理想的なコンパクトな形式で本質的なセマンティック情報を捉えます。
事前学習済みモデル
ImageNetやCOCOなどの基準データセットで既に最適化された重みを持つ深層学習アーキテクチャ。これらのモデルは、様々なビジョンや言語処理タスクのための即利用可能な特徴抽出器を提供します。
転移学習
ソースタスクで獲得した知識を再利用してターゲットタスクのパフォーマンスを向上させる機械学習のパラダイム。このアプローチは、事前学習済みモデルの下位層からの特徴抽出と特に効果的です。
パターン抽出
下位層の畳み込みフィルターを介してデータ内の繰り返し構造を自動的に検出するプロセス。抽出されたパターンは、より複雑な表現の基本的なビルディングブロックとして機能します。
抽象的表現
生のピクセルではなくセマンティックな概念を捉える、ネットワークの中間層によって生成される高レベルのエンコーディング。これらの表現により、関連する異なるタスク間でのより良い汎化が可能になります。
抽出層
生データを利用可能な特徴に変換することに特化したニューラル層の集合。転移学習の文脈では、これらの層は通常、事前学習済みモデルの下位レベルから来ています。
畳み込み特徴量
学習済みフィルターを介して入力データに適用される畳み込み操作によって抽出される属性。下位層のこれらの特徴量は、並進不変な局所構造を捉えるのに特に効果的です。
事前学習済みエンベディング
大規模なデータコーパスで既に学習されたモデルによって生成される密なベクトル表現。これらのエンベディングは豊富な意味的関係を捉え、専門的なタスクのための初期特徴として機能できます。