Métricas de avaliação da interpretabilidade
Acordo Inter-Avaliadores (Inter-Annotator Agreement)
Medida estatística (ex: pontuação Kappa de Cohen) que avalia o nível de consenso entre diferentes especialistas humanos sobre a qualidade ou a exatidão de uma explicação, validando sua subjetividade.
← Voltar