Skip to main content

Ælectra

Ælæctra er en transformer-baseret NLP sprogmodel, der er udarbejdet ved at benytte prætræningsmetoden ELECTRA-Small på The Danish Gigaword Projects datasæt (Der henvises til Gigaword på http://www.gigaword.dk/ eller https://arxiv.org/abs/2005.03521). Den er trænet ved at optimere på tværs af samtlige ord modellen processerer i stedet for at optimere på enkelte ord. Dette betyder, at Ælæctra kræver langt færre ressourcer på træning og processering end tidligere NLP-modeller, hvilket stiller færre krav til hardware og mindsker energiforbruget. Yderligere, så tilføjer brugen af The Danish Gigaword Corpus, at Ælæctra har en bred repræsentation af det danske sprog, og at Ælæctra ikke har uheldige diskriminatoriske tendenser, som tidligere er set i sprogmodeller.

Data og ressourcer

Nøgleord

Yderligere info

URI https://data.gov.dk/dataset/lang/918158b9-ac6b-4484-a44a-4e3de386dfca
Destinationsside https://github.com/MalteHB/-l-ctra
Høstes af Datavejviser
Udgivelsesdato
Seneste ændringsdato
Opdateringsfrekvens kontinuerlig
Dækningsperiode  / 
Emne(r)
  • 16.05.07 Sprog og retskrivning
  • Uddannelse, kultur og sport
Adgangsrettigheder offentlig
Overholder
Proveniensudsagn
Dokumentation