🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📂
subcategorías

Ataques de caja blanca

Ataques en los que el adversario conoce completamente la arquitectura y los parámetros del modelo objetivo.

15 términos
📂
subcategorías

Ataques de caja negra

Ataques realizados sin conocimiento interno del modelo, únicamente mediante interacciones con sus entradas/salidas.

18 términos
📂
subcategorías

Ataques de evasión

Perturbaciones sutiles de los datos de entrada para engañar el modelo durante la inferencia.

13 términos
📂
subcategorías

Ataques de envenenamiento

Inyección de datos maliciosos en el conjunto de entrenamiento para comprometer el modelo.

17 términos
📂
subcategorías

Ataques de extracción de modelos

Robo de los parámetros o de la funcionalidad de un modelo propietario mediante consultas repetidas.

17 términos
📂
subcategorías

Ataques de inferencia de pertenencia

Determinación de si un punto de datos específico formaba parte del conjunto de entrenamiento.

11 términos
📂
subcategorías

Defensa mediante entrenamiento adversarial

Entrenamiento del modelo con ejemplos adversariales generados para mejorar su robustez

15 términos
📂
subcategorías

Defensa por Detección de Ataques

Mecanismos para identificar y rechazar las entradas potencialmente adversariales.

18 términos
📂
subcategorías

Defensa por enmascaramiento de gradientes

Técnicas que enmascaran los gradientes para prevenir los ataques basados en la optimización.

17 términos
📂
subcategorías

Ataques sobre Visión por Ordenador

Ataques específicamente diseñadas para engañar a los modelos de clasificación de imágenes y de detección de objetos.

8 términos
📂
subcategorías

Ataques sobre NLP

Perturbaciones textuales sutiles para engañar a los modelos de procesamiento del lenguaje natural.

17 términos
📂
subcategorías

Ataques por transferencia

Ataques generados en un modelo fuente pero eficaces contra diferentes modelos objetivo.

16 términos
📂
subcategorías

Defensa por aleatorización

Introducción de estocasticidad en el proceso de inferencia para perturbar los ataques.

16 términos
📂
subcategorías

Ataques contra modelos de audio

Perturbaciones sonoras imperceptibles diseñadas para engañar a los sistemas de reconocimiento de voz.

20 términos
📂
subcategorías

Evaluación de Robustez

Métricas y benchmarks para cuantificar la resistencia de los modelos a los ataques adversarios.

17 términos
🔍

No se encontraron resultados