🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles
📖
Ataques sobre Visión por Ordenador

Ataque Adversarial

Técnica que consiste en introducir perturbaciones imperceptibles en los datos de entrada para engañar a un modelo de aprendizaje automático. Estos ataques explotan las vulnerabilidades de las redes neuronales profundas manipulando sutilmente los píxeles de una imagen.

← Volver