GlossarIA
Glosario abierto de IA para empresas
← Volver al glosario

Jailbreaking

Técnicas para eludir las restricciones de seguridad de un LLM y hacerle generar contenido prohibido.

Intermedio seguridad prompt vulnerabilidad

Definición completa

Técnicas para eludir las restricciones de seguridad de un LLM y hacerle generar contenido prohibido.

Ejemplo en contexto empresarial

Usar prompts elaborados para que ChatGPT ignore sus políticas de uso.