Visualização de Atenção
Atenção Baseada em Gradiente
Abordagem que utiliza os gradientes da saída em relação aos pesos de atenção para identificar as contribuições mais relevantes para a previsão do modelo.
← Voltar