Transfer Learning para Processamento de Linguagem Natural
BERT
Arquitetura Transformer bidirecional pré-treinada em tarefas de modelagem de linguagem mascarada e previsão da próxima frase, revolucionando o NLP.
← Voltar