Concept information
Terme préférentiel
ELECTRA
Définition
- Modèle de langage pré-entraîné « en remplaçant certains tokens par des alternatives plausibles échantillonnées à partir d'un petit réseau generateur. » (Clark et al., 2020).
Concept générique
Référence(s) bibliographique(s)
- • Clark, K., Luong, M.-T., Le, Q. V., & Manning, C. D. (2020). ELECTRA : Pre-training text encoders as discriminators rather than generators. arXiv:2003.10555 [cs]. http://arxiv.org/abs/2003.10555
base de
a pour champ d'application
a pour pays de conception
- États-Unis
a pour langage d'entrée
a pour entrepôt
implémente
est encodé en
est exécuté dans
a pour licence
Traductions
-
anglais
-
Efficiently Learning an Encoder that Classifies Token Replacements Accurately
URI
http://data.loterre.fr/ark:/67375/LTK-QB1X83XF-5
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}