GlossarIA
Glosario abierto de IA para empresas
← Volver al glosario

Red-teaming

Proceso de probar intencionadamente un modelo de IA con prompts maliciosos o trucos para descubrir vulnerabilidades y mejorar su robustez.

Intermedio seguridad pruebas ataques etica

Definición completa

Proceso de probar intencionadamente un modelo de IA con prompts maliciosos o trucos para descubrir vulnerabilidades y mejorar su robustez.

Ejemplo en contexto empresarial

Equipo interno que intenta «hackear» el chatbot corporativo para que revele datos sensibles o genere contenido prohibido.