Skip to main content

2 datasæt fundet

Tags: Transformer

Filtrér resultater
  • Dansk ELECTRA

    ELECTRA model prætrænet på dansk, på 17,5 GB data. Du kan læse mere om ELECTRA træningsmetoden i denne forskningsartikel: ELECTRA: Pre-training Text Encoders as Discriminators...
  • Danish BERT

    BERT (Bidirectional Encoder Representations from Transformers) is a deep neural network model used in Natural Language Processing. The network learns the grammar and semantics...
Du kan også tilgå dette register med API (se API-dokumenter).