Skip to main content

ThesoTM (thésaurus)

Search from vocabulary

Concept information

Preferred term

BERT  

Definition

  • « BERT est conçu pour pré-entraîner des représentations bidirectionnelles profondes à partir de textes non étiquetés en conditionnant conjointement les contextes gauche et droit dans toutes les couches. » (Devlin et al., 2019).

Broader concept

Bibliographic citation(s)

  • • Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT : Pre-training of deep bidirectional transformers for language understanding. arXiv:1810.04805 [cs]. http://arxiv.org/abs/1810.04805

has application field

has design country

  • États-Unis

has for input language

is implemented by

is encoded in

is executed in

In other languages

  • English

  • Bidirectional Encoder Representations from Transformers

URI

http://data.loterre.fr/ark:/67375/LTK-SSWGBD85-7

Download this concept: