Arquitetura Encoder-Decoder
Atenção Mascarada
Variante da autoatenção usada no decodificador para impedir que cada posição preste atenção nas posições seguintes, garantindo uma geração autorregressiva e a prevenção de vazamentos de informação.
← Voltar