AI AI-politik compliance EU AI Act SMV 16 min læsning

AI-politik for virksomheder: Gratis skabelon og guide

Få en komplet AI-politik skabelon klar til brug i din virksomhed. Dækker EU AI Act, GDPR, og alle 9 kerneområder. Gratis og på dansk.

M
Martin Terp
·
AI-politik for virksomheder: Gratis skabelon og guide

En AI-politik er et dokument der definerer hvordan din virksomhed bruger, styrer og kontrollerer kunstig intelligens — fra medarbejderes daglige brug af ChatGPT til AI-systemer i kundeservice og bogføring. Uden en politik risikerer du databrud, juridiske overtrædelser og medarbejdere der bruger AI-værktøjer uden retningslinjer. Med EU AI Act der træder fuldt i kraft 2. august 2026 er spørgsmålet ikke længere om din virksomhed har brug for en AI-politik, men hvornår du får den på plads.

I denne guide får du en komplet, gratis AI-politik skabelon du kan kopiere direkte og tilpasse til din virksomhed — uanset om I er 3 eller 50 medarbejdere. Du lærer hvad politikken skal indeholde, hvordan du tilpasser den, og hvordan den hænger sammen med EU AI Act-kravene.

Hvad er en AI-politik — og hvorfor har din virksomhed brug for én?

En AI-politik er virksomhedens officielle rammesæt for brug af kunstig intelligens. Den fastlægger hvilke AI-værktøjer medarbejdere må bruge, til hvilke formål, med hvilke data — og hvad der ikke er tilladt.

AI-politik: Et internt dokument der definerer virksomhedens regler, ansvarsfordeling og grænser for brug af kunstig intelligens i daglig drift.

Forskellen fra AI-strategi og AI-retningslinjer

De tre begreber bruges ofte i flæng, men dækker forskellige behov:

DokumentFokusTypisk omfangHvem bruger det
AI-politikRegler og grænser3-8 siderAlle medarbejdere
AI-strategiMål og investeringer10-25 siderLedelse og bestyrelse
AI-retningslinjerPraktisk vejledning1-3 sider per afdelingSpecifikke teams

De fleste danske SMV’er har brug for en AI-politik først. Strategien kan komme senere, og retningslinjerne udspringer naturligt af politikken.

5 grunde til at din virksomhed har brug for en AI-politik nu

1. 43% af danske SMV’er mangler AI-retningslinjer. Det betyder at medarbejdere allerede bruger AI-værktøjer — men uden klare rammer. I praksis ser vi ofte at medarbejdere uploader kundedata til gratis AI-værktøjer uden at tænke over datahåndtering.

2. EU AI Act kræver AI-literacy. Artikel 4 i EU AI Act kræver allerede nu at alle virksomheder sikrer tilstrækkelig AI-kompetence hos medarbejdere. En AI-politik er den mest direkte måde at dokumentere dette.

3. GDPR gælder stadig — også for AI. Hver gang en medarbejder indtaster persondata i et AI-værktøj, sker der en databehandling. Uden en politik der definerer hvad der er tilladt, er virksomheden teknisk set i overtrædelse. Vores guide til GDPR og AI dækker de konkrete databeskyttelseskrav du skal have styr på.

4. Ansvarsfordelingen er uklar uden politik. Når AI genererer et tilbud med fejl, eller en chatbot giver et forkert svar — hvem har ansvaret? Politikken definerer det på forhånd.

5. Jeres konkurrenter laver dem nu. 66% af danske SMV’er bruger allerede mindst én AI-teknologi. De virksomheder der formaliserer brugen først, får mest ud af teknologien med færrest risici.

Hvad skal en AI-politik indeholde? De 9 kerneområder

Baseret på vores arbejde med danske virksomheder og anbefalinger fra Dansk Industri, Dansk Erhverv og Digitaliseringsstyrelsen har vi samlet de 9 kerneområder som enhver AI-politik bør dække:

1. Formål og omfang

Beskriv hvorfor politikken eksisterer og hvem den gælder for. Vær specifik: gælder den kun for generativ AI (ChatGPT, Claude, Copilot), eller også for AI-systemer i jeres software (bogføring, CRM, kundeservice)?

2. Godkendte AI-værktøjer

List præcist hvilke værktøjer der er godkendt til brug, med hvilke licenser. Der er stor forskel på at bruge ChatGPTs gratis version (data bruges til træning) og ChatGPT Team/Enterprise (data bruges ikke).

3. Dataklassifikation og databeskyttelse

Definer hvilke typer data der må bruges med AI — og hvilke der aldrig må. En enkel tredeling virker i praksis:

Grøn: Offentligt tilgængelig information — frit at bruge med AI. Gul: Intern virksomhedsdata — kun med godkendte betalte værktøjer. Rød: Persondata, fortrolig information, kundedata — aldrig i AI-værktøjer uden eksplicit tilladelse og databehandleraftale.

4. Kvalitetskontrol og menneskelig gennemgang

AI-genereret indhold skal altid gennemgås af et menneske før det bruges eksternt. Politikken bør definere hvem der er ansvarlig for gennemgang, og hvilke typer output der kræver ekstra kontrol (juridiske tekster, kundesvar, økonomiske beregninger).

5. Transparens og offentliggørelse

Skal kunder informeres når de interagerer med AI? Skal AI-genereret indhold mærkes? EU AI Act kræver transparens for visse AI-systemer — din politik bør gå længere og definere jeres egen standard.

6. Intellektuel ejendomsret

Hvem ejer output fra AI? Må medarbejdere bruge AI til at generere kode, design eller tekst der indgår i virksomhedens produkter? Afklar ejerskab og rettigheder på forhånd.

7. Etiske principper

Definer virksomhedens holdning til bias, fairness og diskrimination i AI-systemer. Det behøver ikke være 10 sider filosofi — men en klar position på at I ikke bruger AI til beslutninger der diskriminerer, og at I tester for bias i kundevendte systemer.

8. Compliance og regulering

Sammenfat de lovkrav der gælder for jeres brug af AI: GDPR, EU AI Act, branchespecifikke regler. Angiv hvem der er ansvarlig for at holde politikken opdateret når lovgivningen ændres.

Har du styr på din risikokategori? Gratis compliance-tjek på 2 minutter.

9. Overtrædelser og konsekvenser

Hvad sker der hvis en medarbejder overtræder politikken? Definer en eskaleringsproces — fra påtale til potentielle ansættelsesretlige konsekvenser. Uden dette er politikken blot en henstilling.

Komplet AI-politik skabelon (klar til brug)

Her er en komplet skabelon du kan kopiere og tilpasse. Tekst i [kantede parenteser] skal erstattes med jeres egne oplysninger.


AI-politik for [Virksomhedsnavn]

Version: 1.0 Gældende fra: [dato] Ansvarlig: [navn/titel] Næste revision: [dato — anbefalet 6 måneder efter vedtagelse]


§1 Formål Denne politik fastlægger rammerne for [Virksomhedsnavn]s brug af kunstig intelligens (AI). Formålet er at sikre ansvarlig, sikker og lovlig anvendelse af AI-værktøjer og -systemer i vores daglige drift.

§2 Omfang Politikken gælder for alle medarbejdere, konsulenter og samarbejdspartnere der anvender AI-værktøjer i forbindelse med arbejde for [Virksomhedsnavn]. Den dækker både generative AI-værktøjer (f.eks. ChatGPT, Claude, Copilot) og AI-funktioner integreret i vores eksisterende software.

§3 Godkendte AI-værktøjer

VærktøjLicensGodkendt tilRestriktioner
[ChatGPT Team][Betalt team-licens][Tekstgenerering, research, ideudvikling][Ingen persondata, ingen fortrolige dokumenter]
[GitHub Copilot][Business-licens][Kodeassistance][Kode skal reviewes før deployment]
[Tilføj flere]

Værktøjer der ikke fremgår af listen er ikke godkendt til brug med virksomhedsdata. Medarbejdere der ønsker at anvende nye AI-værktøjer skal anmode om godkendelse hos [ansvarlig person/afdeling].

§4 Dataklassifikation

KategoriBeskrivelseBrug med AI
GrønOffentligt tilgængelig informationTilladt med alle godkendte værktøjer
GulIntern virksomhedsdata, forretningsprocesserKun med godkendte betalte værktøjer med databehandleraftale
RødPersondata, kundedata, fortrolig informationIkke tilladt uden eksplicit godkendelse fra [ansvarlig] og dokumenteret databehandleraftale

§5 Kvalitetskontrol Alt AI-genereret indhold skal gennemgås af en medarbejder med relevant faglig kompetence inden ekstern brug. For følgende kategorier kræves godkendelse fra [ansvarlig]:

  • Juridiske dokumenter og kontrakter
  • Kundevendt kommunikation
  • Økonomiske beregninger og rapporter
  • Offentlige udtalelser og pressemeddelelser

§6 Transparens [Virksomhedsnavn] informerer kunder og samarbejdspartnere når de interagerer direkte med AI-systemer (f.eks. chatbots). AI-assisteret indhold der er gennemgået og godkendt af en medarbejder kræver ikke særskilt mærkning.

§7 Intellektuel ejendomsret Output genereret med AI-værktøjer i arbejdstiden og til virksomhedsformål tilhører [Virksomhedsnavn]. Medarbejdere må ikke uploade virksomhedens proprietære materialer (kildekode, forretningsmodeller, kundedatabaser) til AI-værktøjer uden godkendelse.

§8 Etik og ansvarlig AI [Virksomhedsnavn] anvender ikke AI til:

  • Automatiserede beslutninger der påvirker enkeltpersoner uden menneskelig gennemgang
  • Profilering eller scoring af medarbejdere baseret på AI-analyse
  • Generering af vildledende indhold (deepfakes, falske anmeldelser, manipulation)

Vi tester regelmæssigt kundevendte AI-systemer for bias og uretfærdige udfald.

§9 Compliance Denne politik er udformet i overensstemmelse med:

  • GDPR / Databeskyttelsesforordningen
  • EU AI Act (forordning 2024/1689), herunder krav om AI-literacy (artikel 4)
  • [Branchespecifikke regler, f.eks. finanstilsynets vejledning]

[Ansvarlig person] sikrer at politikken revideres ved væsentlige lovændringer og minimum hver 6. måned.

§10 Overtrædelser Overtrædelse af denne politik behandles som følger:

  1. Første overtrædelse: Mundtlig påtale og gennemgang af politikken
  2. Gentagne overtrædelser: Skriftlig advarsel
  3. Alvorlige overtrædelser (f.eks. læk af persondata): Kan medføre ansættelsesretlige konsekvenser

Alle medarbejdere opfordres til at rapportere potentielle overtrædelser eller tvivlstilfælde til [ansvarlig person] uden frygt for repressalier.


Sådan tilpasser du skabelonen til din virksomhed

Skabelonen ovenfor er designet til at fungere for de fleste danske SMV’er, men den skal tilpasses. Her er de 4 trin vi anbefaler:

Trin 1: Kortlæg jeres nuværende AI-brug

Før I tilpasser politikken, skal I vide hvad der allerede foregår. Spørg hver afdeling: Hvilke AI-værktøjer bruger I? Til hvad? Med hvilke data? I de fleste virksomheder vi arbejder med er svaret overraskende — der bruges typisk 3-5 flere værktøjer end ledelsen er klar over.

Trin 2: Vurder jeres risikoprofil

En revisionsvirksomhed der håndterer kunders regnskabsdata har en helt anden risikoprofil end et marketingbureau der bruger AI til ideudvikling. Tilpas dataklassifikationen (§4) og kvalitetskontrollen (§5) til jeres branche og datatyper.

Trin 3: Involver medarbejderne

En politik der udstedes ovenfra uden dialog bliver ignoreret. Gennemgå udkastet med 2-3 nøglemedarbejdere fra forskellige afdelinger. De kender de daglige udfordringer og vil fange huller i politikken som ledelsen overser.

Trin 4: Implementer med oplæring

Publicér ikke bare politikken på intranettet. Hold et kort oplæg (30-45 minutter) hvor I gennemgår de vigtigste punkter, viser godkendte værktøjer og giver konkrete eksempler på hvad der er tilladt og ikke tilladt.

En dansk handelsvirksomhed med 22 ansatte brugte denne tilgang da de implementerede deres AI-politik. De opdagede at 8 medarbejdere allerede brugte ChatGPT gratis-versionen til at skrive produktbeskrivelser — med kundeanmeldelser kopieret direkte ind som kontekst. Inden for en uge var alle migreret til en team-licens med databehandleraftale, og produktbeskrivelserne blev bedre fordi medarbejderne nu turde bruge værktøjet systematisk.

EU AI Act: Hvad din politik skal dække inden august 2026

EU AI Act er verdens første omfattende AI-regulering, og den påvirker alle danske virksomheder — ikke kun tech-firmaer.

Tidslinjen du skal kende

AI-literacy kravet (artikel 4)

Det mest oversete krav i EU AI Act er artikel 4: alle virksomheder der anvender AI-systemer skal sikre at deres medarbejdere har tilstrækkelig AI-kompetence. Det gælder uanset virksomhedens størrelse og uanset om jeres AI-systemer er højrisiko eller ej. Et centralt element i AI-governance er AI-literacy — et lovkrav der allerede gælder.

En AI-politik med tilhørende oplæring er den mest direkte måde at dokumentere compliance med artikel 4. Vil du have det fulde overblik over alle krav og deadlines, har vi samlet en komplet guide til EU AI Act for danske virksomheder.

Risikoklassifikation

EU AI Act inddeler AI-systemer i fire risikoniveauer:

RisikoniveauEksemplerKrav
UacceptabelSocial scoring, manipulativ AIForbudt
Høj risikoAI i ansættelse, kreditvurdering, sundhedStreng dokumentation, tilsyn, risikovurdering
Begrænset risikoChatbots, AI-genereret indholdTransparenskrav (oplyse at det er AI)
Minimal risikoSpamfiltre, AI-anbefalingerIngen specifikke krav

De fleste danske SMV’er bruger AI-systemer med begrænset eller minimal risiko. Men hvis I bruger AI til at sortere jobansøgninger, vurdere kunder eller træffe beslutninger der påvirker enkeltpersoner, kan I falde under højrisiko-kategorien.

Tjekliste: Er din AI-politik EU AI Act-klar?

Typiske fejl når virksomheder laver AI-politik

Baseret på erfaringer fra implementeringsprojekter hos danske virksomheder er her de 5 mest almindelige fejl:

1. Politikken er for vag. “Brug AI ansvarligt” er ikke en politik. Uden konkrete regler, godkendte værktøjer og dataklassifikation er dokumentet ubrugeligt. Medarbejdere har brug for klare svar: Må jeg bruge dette værktøj? Med disse data? Til dette formål?

2. Ingen opdateringsplan. AI-landskabet ændrer sig hurtigt. En politik fra marts 2026 kan være forældet i september. Sæt en fast revisionsdato — vi anbefaler hver 6. måned, eller når væsentlig ny lovgivning træder i kraft.

3. Politikken forbyder for meget. Virksomheder der reagerer med frygt og forbyder al AI-brug mister konkurrenceevne. 66% af danske SMV’er bruger allerede AI — dine medarbejdere gør det sandsynligvis også, bare uden retningslinjer. Reguler i stedet for at forbyde.

4. Ingen håndhævelse. En politik uden konsekvenser er en anbefaling. Definer hvad der sker ved overtrædelser og sørg for at det er realistisk og proportionelt.

5. Ignorerer eksisterende AI i software. De fleste virksomheder tænker kun på ChatGPT, men AI er allerede integreret i bogføringssoftware, CRM-systemer, e-mail-platforme og projektværktøjer. Politikken bør dække al AI-brug — også den der allerede kører i baggrunden.

Skal politikken tilpasses jeres specifikke branche og risikoprofil? Book en uforpligtende snak hvor vi gennemgår jeres situation og hjælper med at få den på plads.

FAQ

Hvad er en AI-politik?

En AI-politik er et internt virksomhedsdokument der definerer regler, grænser og ansvarsfordeling for brug af kunstig intelligens. Den dækker typisk godkendte værktøjer, databeskyttelse, kvalitetskontrol og compliance-krav som EU AI Act og GDPR.

Hvad koster det at lave en AI-politik?

Med skabelonen i denne guide kan du lave en grundlæggende AI-politik gratis. Det tager typisk 4-8 timer at tilpasse skabelonen, kortlægge nuværende AI-brug og gennemgå den med nøglemedarbejdere. Professionel rådgivning til tilpasning koster typisk 5.000-15.000 kr. afhængigt af virksomhedens kompleksitet.

Er en AI-politik lovpligtig?

En AI-politik er ikke direkte lovpligtig, men EU AI Act kræver dokumenteret AI-literacy (artikel 4), GDPR kræver dokumentation af databehandling, og som arbejdsgiver har du pligt til at instruere medarbejdere i brug af arbejdsredskaber. En AI-politik er den mest effektive måde at opfylde alle tre krav.

Hvad er forskellen på en AI-politik og en AI-strategi?

En AI-politik definerer regler og grænser for daglig brug — den henvender sig til alle medarbejdere. En AI-strategi definerer virksomhedens langsigtede mål og investeringer i AI — den henvender sig til ledelse og bestyrelse. Start med politikken; strategien kan komme senere.

Hvornår skal min virksomhed have en AI-politik klar?

Nu. EU AI Act’s krav om AI-literacy gælder allerede, og de fulde krav til højrisiko-systemer træder i kraft 2. august 2026. Men vigtigere: dine medarbejdere bruger sandsynligvis allerede AI-værktøjer uden retningslinjer. Jo før politikken er på plads, jo mindre risiko.

Gælder AI-politikken også for freelancere og konsulenter?

Ja, din AI-politik bør gælde for alle der arbejder med virksomhedens data — inklusiv freelancere, konsulenter og eksterne samarbejdspartnere. Specificer dette i politikkens omfang (§2 i skabelonen) og inkludér det i samarbejdsaftaler.

Hvordan håndterer man medarbejdere der allerede bruger AI uden tilladelse?

Amnesti virker bedre end straf. Kommuniker tydeligt at politikken er fremadrettet, og bed medarbejdere oplyse hvilke værktøjer de bruger. De fleste medarbejdere bruger AI for at løse opgaver bedre — det er en mulighed, ikke en trussel. Brug kortlægningen til at opdatere listen over godkendte værktøjer.

Hvor ofte skal en AI-politik opdateres?

Minimum hver 6. måned, eller når der sker væsentlige ændringer i lovgivning (som EU AI Act’s faser), i virksomhedens AI-brug, eller i de tilgængelige AI-værktøjer. Sæt en fast dato i kalenderen og udpeg en ansvarlig person.


Gratis rådgivning

Vil I have hjælp til at komme i gang?

Klar til at komme i gang?

Få en gratis system-analyse

Lad os gennemgå jeres processer og identificere de mest værdifulde automatiseringsmuligheder.