Self-Attention
Atención Codificador-Decodificador
Mecanismo donde el decodificador atiende a las salidas del codificador, permitiendo la generación de secuencias condicionadas por una secuencia fuente en los modelos seq2seq.
← Volver