Transfer Learning для NLP
BERT
Двунаправленная трансформерная архитектура, предварительно обученная на задачах маскированного языкового моделирования и предсказания следующего предложения, совершившая революцию в области обработки естественного языка (NLP).
← Назад