Skip to main content

Dansk ELECTRA

ELECTRA model prætrænet på dansk, på 17,5 GB data.

Du kan læse mere om ELECTRA træningsmetoden i denne forskningsartikel: ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators

Data og ressourcer

Nøgleord

Yderligere info

URI https://data.gov.dk/dataset/lang/6af59cc6-57e6-471a-ac9b-411791cd1ba1
Destinationsside https://github.com/sarnikowski/danish_transformers
Høstes af Datavejviser
Udgivelsesdato 05-12-2020
Seneste ændringsdato
Opdateringsfrekvens
Dækningsperiode  / 
Emne(r)
  • 16.05.07 Sprog og retskrivning
  • Uddannelse, kultur og sport
Adgangsrettigheder offentlig
Overholder
Proveniensudsagn
Dokumentation