This article is also available in English.
EU AI & Sikkerhed

AI og datasikkerhed i EU: Hvad din virksomhed skal vide i 2026

By Daniel Wegener 11 April 2026 8 min read

Du overvejer at bruge AI til strategiplanlægning. Måske data fra dine økonomiske tal, dine kundedata, dine salgsresultater.

Så tænker du: "Hvad med GDPR? Hvad med EU AI Act? Hvad hvis jeg sender følsomme data til et AI-system og det kommer ud?"

Det er helt berettiget bekymring.

Her er det gode budskab: det er faktisk muligt at bruge AI sikkert i EU. Det kræver blot at du ved hvad du gør.

De to hovedrisici

Der er to ting der kan gå galt:

1. Data-leaks: Du sender data til et AI-system, og det bliver brugt eller delt på måder du ikke ville have tilladt.

2. Ugyldige udleveringer: Du sender data til et AI-system der er hostet uden for EU, eller som ikke overholder EU's regler. Det er ikke tilladt for visse typer data.

Klassificer dine data først

Før du sender noget til AI, skal du klassificere det.

Du har sandsynligt fire typer data:

PUBLIC: Hvad som helst offentligt kendt. Dit brand name. Din website. Priser som er offentliggjort. Denne data kan du sende til ethvert AI-system uden bekymring.

INTERNAL: Data kun for dine folk. Sales-pipeline. Interne emails. Strategi-dokumenter. Konkurrencedata du har samlet. Denne data kan du sende til AI-systemer — men de skal være sikker og må ikke deles.

CONFIDENTIAL: Data der kunne skade dit forretning hvis det blev kendt. Kundekontrakter. Lønninger. Finansielle tal i detalje. Denne data må du KUN sende til AI-systemer der udelukkende er til dit brug.

RESTRICTED: Personlig data om andre mennesker. CPR-numre. Email-adresser fra kundelisten. Navn på vigtige kontakter sammen med deres private info. Denne data må du IKKE sende til AI-systemer, punkt slut.

Tegn en tabel. List dine vigtigste data-typer. Klassificer dem. Der skal du være streng.

Data Guardian: En praktisk sikring

Data Guardian er et koncept som betyder: før data når et AI-system, skal der være et filter der siger "nej, det er for følsomt."

I praksis betyder det:

1. Når du skal sende data til AI, spørger du: hvilken klassifikation er det?

2. Hvis det er RESTRICTED: send det ikke. Punkt slut.

3. Hvis det er CONFIDENTIAL: send det kun til AI-systemer der er helt private for dig og kun dine data.

4. Hvis det er INTERNAL eller PUBLIC: du har mere frihed.

En virksomhed gjorde sådan:

Det samme resultat. Nul dataleaks.

EU AI Act: Hvad betyder det for dig?

EU har vedtaget AI Act. Den træder i kraft gradvis. For SME'er betyder det primært:

Højrisiko AI skal dokumenteres: Hvis du bruger AI til at træffe betydningsfulde beslutninger om mennesker (ansættelse, kredit, hvem du skal servicere), skal det være dokumenteret og revisoreret.

De fleste virksomheder bruger AI til analyse, ikke til at beslutte. Du bruger AI til at give dig insights. Du bestemmer. Det er ikke højrisiko — det er bare analytics.

Transparens: Hvis AI påvirker en vigtig beslutning der vedrører en person, skal de vide det.

En virksomhed brugte AI til at analysere hvilke leads var mest værd at følge op på. De fortalte ikke leads "AI besluttede at følge op på dig." De brugte blot AI-rankingen internt. Det er fint.

Dataminimering: Du sender kun den data til AI som du virkelig skal bruge.

Eksempel: du vil analysere markedstrends. Du sender ikke alle kundedetaljer til AI. Du sender aggregerede tal. "Vi havde 10 kunder fra sektor X, gennemsnits-købeværdi Y."

EU-only hosting som praktisk sikring

Her er en nem regel: hvis du er bekymret, brug kun AI-systemer hostet i EU.

USA (Cloud Provider som OpenAI, Google) og ikke-EU lande kan være problematiske fordi:

Løsningen: brug en europæisk AI-udbyder, eller brug lokale AI-systemer (som LLM'er der kører på din egen computer).

Flere europæiske alternativer:

De er ikke altid lige så gode som OpenAI. Men de er EU-kompatible.

Praktisk sikkerhedsplan for din virksomhed

Sådan gør du det ordentligt:

Trin 1: Inventar (1 time)

List dine vigtigste data-kilder:

Trin 2: Klassifikation (30 minutter)

For hver kilde: PUBLIC, INTERNAL, CONFIDENTIAL, eller RESTRICTED?

Trin 3: Regler (1 time)

Skriv dine regler:

Trin 4: Tjekpoint (løbende)

Hver gang du skal sende data til AI: hvilken klasse er det? Ser jeg lige på reglerne? Er det tilladt?

Et konkret eksempel

En dansk rådgivningsvirksomhed skulle analysere deres klient-portefølje for at se hvilket type klient var mest rentabel.

Deres data:

De ville have AI til at sige: "Her er det mest rentable segment."

I stedet for at sende hele dataene, gjorde de sådan:

1. Lagde data ind i egne IT-system

2. Fjernede alle RESTRICTED info (navn, kontakt, CPR)

3. Aggregerede på niveau: "sektor X, kontraktstørrelse Y, har vi 15 eksempler af"

4. Sendte den aggregerede data (INTERNAL) til AI-system

AI analyserede mønstret og sagde: "Du tjener mest på sektor X med større kontrakter."

Sikkert. GDPR-kompatibelt. EU AI Act-kompatibelt.

Hvad hvis du ikke er sikker?

Hvis du er usikker, tag kontakt til:

Det er ikke fantastisk ekspensivt. En time juridisk råd koster måske 1.500-2.000 kr, men det kan spare dig for både lovbrud og data-leaks.

Bundlinjen

AI i EU er lovligt og sikkert. Det kræver blot:

1. Klassifikation. Ved hvad du har.

2. Regler. Skriv ned hvad du må gøre.

3. Tjekpoint. Spørg dig selv før du handler.

Det er ikke mere kompliceret end normal datahygiejne. Men det betyder du kan bruge AI til at styrke din strategi, uden at risikere dine data — eller brud på reglerne.