Passer au contenu principal

ThesoTM thesaurus

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

BERT  

Définition

  • "BERT is designed to pretrain deep bidirectional representations from unlabeled text by jointly conditioning on both left and right context in all layers." (Devlin et al., 2019).

Concept générique

Synonyme(s)

  • Bidirectional Encoder Representations from Transformers

Référence(s) bibliographique(s)

  • • Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT : Pre-training of deep bidirectional transformers for language understanding. arXiv:1810.04805 [cs]. http://arxiv.org/abs/1810.04805

a pour champ d'application

a pour pays de conception

  • United States

a pour langage d'entrée

a pour localisation de téléchargement

est implémenté par

est encodé en

est exécuté dans

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-SSWGBD85-7

Télécharger ce concept :