Ingeniería de Prompt
Inyección de Prompt
Vulnerabilidad donde usuarios malintencionados manipulan los prompts para eludir las restricciones o modificar el comportamiento esperado del modelo. Esta técnica representa un desafío mayor de seguridad en las aplicaciones basadas en modelos de lenguaje.
← Volver