Passer au contenu principal

ThesoTM (thésaurus)

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

BERT  

Définition

  • « BERT est conçu pour pré-entraîner des représentations bidirectionnelles profondes à partir de textes non étiquetés en conditionnant conjointement les contextes gauche et droit dans toutes les couches. » (Devlin et al., 2019).

Concept générique

Référence(s) bibliographique(s)

  • • Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT : Pre-training of deep bidirectional transformers for language understanding. arXiv:1810.04805 [cs]. http://arxiv.org/abs/1810.04805

a pour champ d'application

a pour pays de conception

  • États-Unis

a pour langage d'entrée

a pour localisation de téléchargement

est implémenté par

est encodé en

est exécuté dans

Traductions

  • anglais

  • Bidirectional Encoder Representations from Transformers

URI

http://data.loterre.fr/ark:/67375/LTK-SSWGBD85-7

Télécharger ce concept :