GlossarIA
Glosario abierto de IA para empresas
← Volver al glosario

Mecanismo de atención (Attention)

Técnica que permite al modelo enfocarse en las partes más relevantes de la entrada al procesar información, fundamental en arquitecturas transformer.

Intermedio fundamentos transformer arquitectura

Definición completa

Técnica que permite al modelo enfocarse en las partes más relevantes de la entrada al procesar información, fundamental en arquitecturas transformer.

Ejemplo en contexto empresarial

En traducción automática, prestar más atención a las palabras relevantes del contexto.