← Volver al glosario
Mecanismo de atención (Attention)
Técnica que permite al modelo enfocarse en las partes más relevantes de la entrada al procesar información, fundamental en arquitecturas transformer.
Intermedio fundamentos transformer arquitectura
Definición completa
Técnica que permite al modelo enfocarse en las partes más relevantes de la entrada al procesar información, fundamental en arquitecturas transformer.
Ejemplo en contexto empresarial
En traducción automática, prestar más atención a las palabras relevantes del contexto.