Alineación y Seguridad
Red Teaming
Proceso sistemático de evaluación de vulnerabilidades de los modelos por parte de expertos que buscan activamente provocar comportamientos no deseados o peligrosos para identificar y corregir debilidades.
← Volver