← Volver al glosario
Descenso de gradiente (Gradient Descent)
Algoritmo de optimización que ajusta los parámetros del modelo iterativamente para minimizar la función de pérdida.
Intermedio fundamentos optimizacion entrenamiento
Definición completa
Algoritmo de optimización que ajusta los parámetros del modelo iterativamente para minimizar la función de pérdida.
Ejemplo en contexto empresarial
Usado para entrenar modelos minimizando errores en predicciones.