Skip to main content

DanskGPT-Tiny

DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af TinyLLaMA.

Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst.

Denne model er en såkaldt "foundation/completion" model, og er derfor ikke beregnet til at chatte med.

Data og ressourcer

Nøgleord

Yderligere info

URI https://data.gov.dk/dataset/lang/c0f7cf7d-8de8-4282-928e-5572407e428c
Destinationsside https://huggingface.co/mhenrichsen/danskgpt-tiny
Høstes af Datavejviser
Udgivelsesdato 13-01-2024
Seneste ændringsdato 13-01-2024
Opdateringsfrekvens ubekendt
Dækningsperiode  / 
Emne(r)
  • 16.05.07 Sprog og retskrivning
  • Uddannelse, kultur og sport
Adgangsrettigheder offentlig
Overholder
Proveniensudsagn
Dokumentation