This article is also available in English.
EU AI & Sikkerhed

EU AI Act for SMV'er: Praktisk compliance uden konsulentregning

By Daniel Wegener 12 April 2026 6 min read

Du har hørt om EU AI Act. Nogle af dine ledere har panikket. En konsulentfirma har sendt et budget på otte cifre for "compliance-implementering."

Hold vejret. Meget af det panik er ikke berettiget. Især ikke for virksomheder der bruger AI til strategi-arbejde, ikke til ansættelser eller kreditgodkendelser.

Vi skal gennem tre ting her: Hvad loven rent faktisk siger, hvor du realistisk har compliance-arbejde, og hvordan du dokumenterer det uden konsultent.

Hvad siger EU AI Act?

Loven grupperer AI-systemer i fire risikokategorier:

1. Minimal risk — De fleste AI-applikationer. ChatGPT. Oversættelses-systemer. Generelle ting.

2. Limited risk — Systemer der kræver transparens. Folk skal vide de snakker med AI. Dit strategiplatform-system falder her. Du skal være rimelig åben omkring at AI analyserer data.

3. High risk — Kritisk infrastruktur, kreditevaluering, ansættelses-beslutninger, og diverse. Banken bruger AI til at godkende dit lån? High risk.

4. Unacceptable risk — Politisk manipulation, social scoring. Effektivt forbudt i EU.

Strategisk arbejde og business model-analyse er minimal til limited risk. Ikke fordi det er trivielt arbejde, men fordi det ikke beslutter dine menneskers liv. Det giver dig analytisk baggrund. Du træffer selv beslutningerne.

Hvor er der compliance-arbejde for dig?

Hvis du bruger AI til strategi-analyse, falder du i kategori 2. Det betyder tre praktiske ting:

1. Dokumentation

Du skal kunne vise: "Hvad gjorde AI'en? Hvilke antagelser lavede den? Hvordan valgte vi parametrene?"

Dette lyder tungt. Det er det ikke. Det betyder du gemmer:

En simpel log. En mappe per strategi-sprint. Slut.

2. Transparens

Hvis du bruger AI til at generere insights der informerer en bestyrelses-beslutning, skal bestyrelsesmedlemmerne vide det.

Du behøver ikke at være dramatisk. "Denne analyse blev genereret ved AI-assisteret intelligens. Modelparametrene var [X]. Vi validerede gennem [Y]."

Siden anden halvdel af 2024 har det været best practice alligevel. Transparens bygger tillid.

3. Human oversight

Du, eller nogen på ledergruppen, skal kunne forklare hvorfor I valgte en analyse over en anden. Du skal ikke være AI-ekspert. Du skal bare have tænkt: "Okay, AI'en sagde dette. Giver det intuitiv mening? Hvad ved jeg fra praksis?"

Igen, dette er ikke nyt. Det er due diligence.

Hvad er compliance-arbejde du skal UNDGÅ at dumpe på dig selv?

Hvis du skal økonomiansættelser eller ansættelses-beslutninger gennem AI: High risk. Dette skal gennem rigtig compliance-review. Få hjælp her.

Hvis du håndterer finansiel persondata (KYC, AML) gennem AI: High risk. Compliance-team skal være involveret.

Hvis din AI-model er en blackbox hvor du ikke kan forklare output: Problem. Selv if limited risk. Få transparens først. Derefter compliance.

Men hvis du bruger AI til at analysere marked, konkurrenter, dine styrker, alternative forretningsmodeller? Limited risk. Håndterligt.

Praktisk compliance-checklist for SMV'er

Før du bruger strategisk AI-analyse for første gang:

Denne checklist tager 2 timer per år at vedligeholde.

Eksempel på hvad compliance ser ud

Szenario: Din bestyrelse ønsker at evaluere en potentiel akvisition.

Uden AI: Bestyrelsesmedlemmer læser markedsrapporter, sammenligner financials manuelt, diskuterer. Noget bias sneaks ind. Dokumentation er "mødereferat."

Med limited-risk AI-assist:

Compliance-dokumentation: "4. april analyserede vi [Firma A] under [5 linser]. Output viste [X]. Bestyrelsens beslutning var [Y]. Rationale: [Z]."

Det er værdifuldt. Det er også dokumenteret og forsvareligt.

Hvorfor EU-only hosting betyder noget

Nogle vestlige AI-platforme sender data til servere i USA som standard.

For strategisk arbejde hvor du analyserer dine markeder, konkurrenter, eller kommercielle modeller, det er nogle gange følsomt. Ikke fordi det er hemmeligt, men fordi it handler om hvad du tænker.

Platform-leverandører der kun kører EU-hosting (Scaleway Paris, Azure EU West, AWS Frankfurt) betyder: Dit data bliver aldrig sendt USA-til.

Det er ikke kryptering-niveau sikkerhed. Det er dataresidens-sikkerhed. Dit data bliver arbejdet på inden for EU. Punkt.

For strategisk arbejde er det det rigtige setup. Compliance blir nemlig også: "Data forbliver i EU. Behandlet under GDPR. Dokumentation på dansk/dansk."

Den sidste detalje: Hvis dit platform har en "Data Guardian"

Et godt strategiplatform har bygget guardrails ind. I stedet for at liderene skal tænke "hvad er sikkert at sende?", har platformen allerede klassificeret dine datafelter:

Nogle felter bliver aldrig sendt til AI (RESTRICTED). Nogle sendes anonymiseret (INTERNAL). Nogle sendes som-er (PUBLIC).

Hvis din platform har det her, har du allerede 60% af compliance-arbejdet løst.

Hvornår det hele bliver svært

Hvis du har et custom-bygget AI-system, eller hvis du merger external data (konkurrenter, markedstals) med interne data uden at have en data-klasificering første, så bliver det mere kompleks.

Dit team sidder med noget der minder om et in-house datawarehouse, bare med AI. Compliance-arbejde bliver: hvordan sikrer vi flow? Hvem må se hvad? Hvor forbliver data?

Det er større job. Men også mindre sandt hyppigt for SMV'er end for enterprise.

Næste skridt

Spørg din platform-leverandør:

1. "Hvor er jeres servere?" (Hvis svaret ikke er klart EU, det er et flag.) 2. "Hvilke datafelter sender I aldrig til AI-modeller?" (Hvis de ikke har klassificering, det er et problem.) 3. "Kan I give mig en compliance-template for limited-risk systemer?" (Hvis nej, det er dårlig service.)

Hvis svarene er gode, du har en compliance-venlig platform. Resten er administrativt.

Hvis svarene er dårlige? Skift. Eller få hjælp til at klassificere dine dataflow før du bruger systemet.

EU AI Act er ikke uoverkommeligt for SMV'er der bruger AI til strategi. Det kræver transparens og dokumentation. Det er altid bedre at have alligevel.