← Volver al glosario
Jailbreaking
Técnicas para eludir las restricciones de seguridad de un LLM y hacerle generar contenido prohibido.
Intermedio seguridad prompt vulnerabilidad
Definición completa
Técnicas para eludir las restricciones de seguridad de un LLM y hacerle generar contenido prohibido.
Ejemplo en contexto empresarial
Usar prompts elaborados para que ChatGPT ignore sus políticas de uso.