ビジョントランスフォーマー
MAE (マスクドオートエンコーダー)
画像のランダムなパッチがマスクされ、モデルがそれらを再構築する必要がある自己教師あり事前学習アプローチ。教師付きラベルを必要とせずに豊かな表現を学習できる。
← 戻る画像のランダムなパッチがマスクされ、モデルがそれらを再構築する必要がある自己教師あり事前学習アプローチ。教師付きラベルを必要とせずに豊かな表現を学習できる。
← 戻る