🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis
📖
Métricas de avaliação da interpretabilidade

Acordo Inter-Avaliadores (Inter-Annotator Agreement)

Medida estatística (ex: pontuação Kappa de Cohen) que avalia o nível de consenso entre diferentes especialistas humanos sobre a qualidade ou a exatidão de uma explicação, validando sua subjetividade.

← Voltar