🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

Ataque Adversarial

Técnica que consiste en introducir perturbaciones imperceptibles en los datos de entrada para engañar a un modelo de aprendizaje automático. Estos ataques explotan las vulnerabilidades de las redes neuronales profundas manipulando sutilmente los píxeles de una imagen.

📖
términos

Ataque con Parche Adversarial

Técnica de ataque donde se aplica un parche físico o digital a una imagen para engañar a los modelos de clasificación o detección. A diferencia de las perturbaciones de píxeles, este método modifica una región específica de la imagen de manera visible pero es interpretada incorrectamente por el modelo.

📖
términos

Ataque Universal

Tipo de ataque donde una sola perturbación es capaz de engañar a un modelo en la mayoría de las imágenes de entrada. Estos ataques son particularmente peligrosos porque no requieren recalcular la perturbación para cada nueva imagen.

📖
términos

Ataque a la Detección de Objetos

Ataque diseñado específicamente para engañar a los modelos de detección de objetos manipulando los cuadros delimitadores o las puntuaciones de confianza. Estos ataques pueden hacer desaparecer objetos detectados o hacer que aparezcan objetos falsos.

📖
términos

Gradiente Enmascarado

Fenómeno donde un modelo de defensa alisa artificialmente su superficie de decisión, haciendo que los gradientes sean inutilizables para los ataques. Aunque parece protector, esta técnica a menudo es evitable y puede crear una falsa impresión de seguridad.

📖
términos

Perturbación Lp

Medida de la magnitud de las perturbaciones adversarias utilizando diferentes normas matemáticas (L0, L2, L-infinito). Cada norma impone diferentes restricciones sobre la naturaleza y la distribución de las modificaciones permitidas en la imagen.

📖
términos

Ataque a la Segmentación Semántica

Ataque dirigido a modelos de segmentación que modifican la clasificación píxel por píxel de las imágenes. Estos ataques pueden alterar la percepción de los contornos y las regiones semánticas, afectando aplicaciones como la conducción autónoma o la imagen médica.

📖
términos

Transferibilidad del Ataque

Fenómeno donde un ataque generado contra un modelo específico sigue siendo efectivo contra otros modelos, incluso con arquitecturas diferentes. Esta propiedad es crucial para los ataques de caja negra y revela vulnerabilidades comunes entre modelos.

🔍

No se encontraron resultados