GlossarIA
Glosario abierto de IA para empresas
← Volver al glosario

Envenenamiento de modelos (Model poisoning)

Ataque que corrompe los datos de entrenamiento para que el modelo aprenda comportamientos maliciosos.

Avanzado seguridad ataques datos

Definición completa

Ataque que corrompe los datos de entrenamiento para que el modelo aprenda comportamientos maliciosos.

Ejemplo en contexto empresarial

Inyectar datos falsos en el dataset para que el modelo clasifique mal ciertos casos.