← Volver al glosario
Red-teaming
Proceso de probar intencionadamente un modelo de IA con prompts maliciosos o trucos para descubrir vulnerabilidades y mejorar su robustez.
Intermedio seguridad pruebas ataques etica
Definición completa
Proceso de probar intencionadamente un modelo de IA con prompts maliciosos o trucos para descubrir vulnerabilidades y mejorar su robustez.
Ejemplo en contexto empresarial
Equipo interno que intenta «hackear» el chatbot corporativo para que revele datos sensibles o genere contenido prohibido.