AI robot maskot

Hvad koster din
AI-prompt i tokens?

Gratis token-beregner til danske virksomheder. Indsæt din prompt og se præcist hvad den koster hos Claude, GPT-4o og Gemini.

1M
tokens ≈ 750.000 ord
~4
tegn pr. token (engelsk)
10×
prisforskel ml. modeller
80%
spar med den rigtige model

Beregn tokens fra din tekst

Indsæt din prompt eller tekst og se token-antal og estimerede priser på tværs af modeller.

estimerede tokens
tegn i alt

Estimeret pris ved at sende denne prompt som input til:

* Prisberegning baseret på simpel approksimation. Faktisk token-antal kan variere ±10%. Priser pr. april 2026.

Hvad koster det med billeder og dokumenter?

Se forskellen på en simpel tekst-prompt og en kompleks forespørgsel med vedhæftede filer. Tekst-tokens og output overføres automatisk fra Beregner 1.

tokens

Styr tekst-tokens og output-type i Beregner 1

≈ 1.500 tokens pr. billede
≈ 800 tokens pr. side

Priser på tværs af AI-modeller

Pris pr. 1 million tokens (april 2026). Output tokens koster typisk 4-5× mere end input.

Model Input pr. 1M tokens Output pr. 1M tokens Bedst til Niveau
Claude Haiku 4.5
Anthropic · Hurtigst
$1,00 $5,00 Simpelt, høj volumen Budget
Gemini 2.5 Flash
Google · Hurtig
$0,15 $0,60 Klassificering, rutine Budget
GPT-4o
OpenAI · Populær
$2,50 $10,00 Alsidigt, coding Mellemklasse
Gemini 2.5 Pro
Google · Avanceret
$1,25 $10,00 Lange dokumenter Mellemklasse
Claude Sonnet 4.6
Anthropic · Bedste balance
$3,00 $15,00 Produktion, tekst Premium
Claude Opus 4.7
Anthropic · Flagship
$5,00 $25,00 Kompleks reasoning Premium

Priser er vejledende og opdateres kvartalsvis. Kilde: Anthropic, OpenAI og Google officielle prissider.

Hvad er en token?

En token er den mindste tekstenhed som AI-modeller arbejder med. Det er hverken et tegn eller et ord — men noget midt imellem.

Token-eksempel på dansk

Sætningen nedenfor er opdelt i farvekodede tokens:

Skriv en artikel om bæredygtighed til vores nyhedsbrev

≈ 9 tokens · 46 tegn

📚 Tommelfingerregel:

  • Engelsk: ca. 4 tegn pr. token
  • Dansk: ca. 5-6 tegn pr. token
  • 1.000 ord ≈ 1.300 tokens på dansk

Hvorfor koster det penge?

AI-modeller betales pr. token de behandler — både dem du sender (input) og dem de genererer (output).

Din prompt (input) billigst
AI's svar (output) 4-5× dyrere

💡 Tip: Kortere, præcise prompts sparer penge. En velskrevet RICECO-prompt kan typisk halvere token-forbruget i forhold til en upræcis prompt.

💰 Spar penge med optimerede prompts

Se færdige RICECO-promptskabeloner →

Spar tokens — brug færdige promptskabeloner

En optimeret prompt er typisk 40-60% kortere end en improviseret. Det betyder direkte besparelser på din API-regning — og bedre svar fra AI'en.

Gå til promptskabelon.dk →

Ofte stillede spørgsmål om tokens

Input tokens er din prompt — det du sender til AI'en. Output tokens er svaret AI'en genererer. Output koster typisk 4-5 gange mere end input, fordi det kræver mere beregning. Husk det ved lange tekster: bed AI'en om præcist det du har brug for.
AI-modeller er primært trænet på engelsk tekst, og tokeniseringen (opdeling i tokens) er optimeret til engelsk. Danske ord — særligt sammensatte ord som "sygefraværsprocent" — opdeles i flere tokens end tilsvarende engelske ord. Resultatet er typisk 20-40% flere tokens for samme mængde tekst på dansk.
Det afhænger af opgaven. Til simpelt indhold (nyhedsbreve, rutinebesvarelser) er Haiku eller Gemini Flash billigst og hurtigst. Til mellemkomplekse opgaver (markedsføring, rapporter) er GPT-4o eller Gemini 2.5 Pro gode. Til avancerede opgaver der kræver dyb forståelse er Claude Sonnet eller Opus bedst — men dyrere. Vores beregner hjælper dig med at sammenligne direkte.
Beregneren bruger en simpel approksimation (tegndeling med sprogets gennemsnit). Fejlmarginen er typisk under 10%, hvilket er præcist nok til at give et realistisk overblik over omkostninger. For præcis token-optælling til produktionsbrug anbefales biblioteker som tiktoken (OpenAI) eller Anthropic SDK.
Prompt caching er en funktion i Claude og Gemini API, der gemmer dele af din prompt (f.eks. en lang system-prompt eller et dokument) så den ikke genberegnes ved hvert kald. En cache-hit koster kun 10% af den normale input-pris. For applikationer med mange gentagne kald til samme kontekst kan det spare op til 90% på input-tokens.
AI-priser falder generelt over tid, men ændrer sig ikke ugentligt. Vi opdaterer priserne på denne side kvartalsvis. Tjek altid de officielle prissider hos Anthropic, OpenAI og Google ved budgetlægning for større projekter.