Passer au contenu principal

ThesoTM thesaurus

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

transformer  

Définition

  • "sequence transduction model based entirely on attention, replacing the recurrent layers most commonly used in encoder-decoder architectures with multi-headed self-attention." (Vaswani et al., 2017, p. 10).

Concept générique

Synonyme(s)

  • self-attention model

Référence(s) bibliographique(s)

  • • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. arXiv:1706.03762 [cs]. http://arxiv.org/abs/1706.03762

Traductions

  • français

  • modèle auto-attentif
  • modèle d'auto-attention

URI

http://data.loterre.fr/ark:/67375/LTK-PFDPNVQ7-3

Télécharger ce concept :