🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis
📖
Evasão de Modelo

Exemplos Adversariais

Entradas especialmente projetadas para induzir erro em um modelo de machine learning, explorando as vulnerabilidades do modelo para causar previsões incorretas enquanto permanecem imperceptíveis para humanos.

← Voltar