Passer au contenu principal

ThesoTM thesaurus

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

DeBERTa  

Définition

  • "Transformer-based neural language model DeBERTa (Decoding-enhanced BERT with disentangled attention), which improves previous state-of-the-art PLMs [Pre-trained Language Models] using two novel techniques: a disentangled attention mechanism, and an enhanced mask decoder." (He et al., 2020).

Concept générique

Synonyme(s)

  • Decoding-enhanced BERT with disentangled attention

Référence(s) bibliographique(s)

basé sur

a pour champ d'application

a pour langage d'entrée

implémente

est encodé en

est exécuté dans

a pour licence

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-G64XHKJT-9

Télécharger ce concept :