Klassificering af AI-systemer: er du berørt af højrisiko?

AI-forordningen klassificerer AI-systemer i 4 risikoniveauer. Rekruttering, kredit, sundhed: find ud af om jeres AI-værktøjer betragtes som højrisiko.

Kernen i systemet: en risikobaseret tilgang

Den europæiske forordning om kunstig intelligens (forordning 2024/1689) bygger på et grundlæggende princip: forpligtelserne er proportionale med risikoniveauet. Jo mere et AI-system kan påvirke menneskers liv, helbred, grundlæggende rettigheder eller sikkerhed, desto strengere er kravene.

Denne gradvise tilgang adskiller AI-forordningen fra mere binære reguleringer. Den gør det muligt ikke at bremse innovation ved lavrisikobrug, samtidig med at de mest følsomme anvendelser reguleres stramt.

Betragtning 26Règlement (UE) 2024/1689

AI-systemer, der udgør en høj risiko for fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder, bør være underlagt strenge krav, før de kan bringes på Unionens marked.

De fire risikoniveauer

1. Uacceptabel risiko — Forbudte systemer

Visse anvendelser af AI er ganske enkelt forbudt (Artikel 5). Social scoring, subliminal manipulation, udnyttelse af personers sårbarheder og biometrisk identifikation i realtid på offentlige steder (med undtagelser) har været forbudt siden 1. februar 2025.

2. Høj risiko — Systemer med skærpede forpligtelser

Det er den kategori, der berører det største antal virksomheder. Højrisiko-AI-systemer er defineret i Artikel 6 og 7 og oplistet detaljeret i forordningens Bilag III. De tilknyttede forpligtelser er omfattende: overensstemmelsesvurdering, teknisk dokumentation, menneskelig kontrol, risikostyring, datastyring.

3. Begrænset risiko — Gennemsigtighedsforpligtelser

Systemer som chatbots, indholdsgeneratorer (deepfakes, tekster) eller følelsesgenkendelsessystemer, der ikke er dækket af forbuddet, er underlagt gennemsigtighedsforpligtelser. Brugeren skal vide, at vedkommende interagerer med en AI, eller at indholdet er genereret af en AI.

4. Minimal risiko — Ingen specifikke forpligtelser

Langt størstedelen af AI-systemer: spamfiltre, produktanbefalinger, stavekontrol. AI-forordningen pålægger ingen specifikke begrænsninger, selv om overholdelse af Artikel 4 om AI-kompetence stadig gælder for alle idriftsættere.

Bilag III: højrisikosystemer, sektor for sektor

Bilag III i forordningen opremser de områder, hvor et AI-system betragtes som højrisiko. Her er de konkrete tilfælde, der berører de fleste virksomheder.

HR og rekruttering

Det er det område, der overrasker flest virksomheder. Bilag III, punkt 4 retter sig mod AI-systemer, der anvendes inden for:

Bilag III, punkt 4Règlement (UE) 2024/1689

Beskæftigelse, arbejdskraftforvaltning og adgang til selvstændig erhvervsvirksomhed, navnlig til rekruttering og udvælgelse af personer, til beslutningstagning om vilkår for arbejdsforhold, forfremmelse og opsigelse samt til opgavefordeling, overvågning eller evaluering af personers præstationer og adfærd.

Konkret betragtes følgende som højrisiko:

  • Scoring af kandidater: enhver algoritme, der automatisk rangerer, bedømmer eller filtrerer ansøgninger
  • Automatisk CV-analyse: værktøjer, der præudvælger profiler baseret på automatiske kriterier
  • Prækvalificerings-chatbots: samtaleassistenter, der evaluerer kandidater under rekrutteringsprocessen
  • Systemer til præstationsvurdering: AI-værktøjer, der analyserer medarbejderes produktivitet eller adfærd
  • Matchingværktøjer: algoritmer, der matcher profiler med stillinger

Hvis jeres HR-afdeling bruger et automatisk CV-sorteringsværktøj eller en rekrutteringschatbot, er der sandsynligvis tale om et højrisikosystem i AI-forordningens forstand.

📄AI for HR: komplet guide til transformation af HR-funktioner

Finans og forsikring

Bilag III, punkt 5(b) dækker AI-systemer, der bruges til:

  • Kreditscoring: modeller, der vurderer fysiske personers kreditværdighed (undtagen svindeldetektion)
  • Risikovurdering inden for livs- og sundhedsforsikring
  • Automatisk prisfastsættelse baseret på individuelle profiler

Enhver bank eller forsikringsselskab, der bruger en AI-model til at bevilge eller afvise kredit eller til at fastsætte en forsikringspræmie, er berørt. I Danmark vedrører dette direkte aktører som Danske Bank og Nordea, der begge anvender AI-modeller i deres kreditprocesser. Svindeldetektion er eksplicit udelukket fra højrisiko — men vær opmærksom: scoringsystemer, der går ud over simpel detektion, kan falde ind under kategorien.

Sundhed

Bilag III, punkt 1 omfatter AI-systemer, der er medicinsk udstyr eller tilbehør til medicinsk udstyr i henhold til de europæiske forordninger om medicinsk udstyr. Det inkluderer:

  • Diagnosestøtte: algoritmer, der analyserer medicinske billeder eller foreslår diagnoser
  • Automatisk triage: systemer, der dirigerer patienter til behandlingsforløb
  • Monitoreringssystemer: tilsluttede enheder med AI-komponent, der overvåger vitale parametre
  • Ordinationsstøtte: værktøjer, der foreslår behandlinger

Uddannelse og erhvervsuddannelse

Bilag III, punkt 3 retter sig mod AI-systemer, der bruges til:

  • Optagelse på uddannelsesinstitutioner
  • Automatisk bedømmelse af eksaminer og evalueringer
  • Vurdering af det passende uddannelsesniveau for en person
  • Kontrol af forbudt adfærd under eksaminer (automatisk overvågning)

Retsvæsen og retshåndhævelse

Bilag III, punkt 6, 7 og 8 dækker:

  • Vurdering af tilbagefaldsrisiko: systemer, der vurderer sandsynligheden for, at en person begår en lovovertrædelse
  • Polygraftests og følelsesgenkendelsesværktøjer under afhøring
  • Vurdering af bevisers pålidelighed
  • Profilering i forbindelse med forebyggelse og opdagelse af lovovertrædelser

Offentlig sektor og sociale ydelser

I Danmark anvender offentlige institutioner som ATP (pension), SKAT (skat) og Borger.dk i stigende grad AI-systemer til sagsbehandling, risikovurdering og automatiseret beslutningstagning. Disse systemer kan falde ind under flere af Bilag III’s kategorier afhængigt af anvendelsen — især hvis de påvirker personers adgang til sociale ydelser eller skattemæssige afgørelser.

Kritisk infrastruktur

Bilag III, punkt 2 dækker sikkerhedskomponenter i forvaltning og drift af kritisk digital infrastruktur, vejtrafik og forsyning af vand, gas, varme og elektricitet.

Migration og grænsekontrol

Bilag III, punkt 7 inkluderer systemer, der bruges til vurdering af risikoen for uregelmæssig migration, behandling af visum- og opholdstilladelseansøgninger samt identifikation af personer i forbindelse med migration.

De konkrete forpligtelser for højrisikosystemer

Hvis ét eller flere af jeres AI-systemer er klassificeret som højrisiko, kræver forordningen følgende:

Overensstemmelsesvurdering (Artikel 9 til 15)

Før markedsføring eller idriftsættelse skal systemet gennemgå en overensstemmelsesvurdering, der dækker:

  1. Risikostyringssystem (Artikel 9): identifikation, analyse, estimering og afbødning af risici gennem hele systemets livscyklus
  2. Datastyring (Artikel 10): træningsdata skal være relevante, repræsentative og fri for fejl i videst muligt omfang
  3. Teknisk dokumentation (Artikel 11): detaljeret beskrivelse af systemet, dets formål, præstationer og begrænsninger
  4. Registrering (Artikel 12): automatisk logning af hændelser (logs) i hele driftsperioden
  5. Gennemsigtighed og information (Artikel 13): klare brugsanvisninger til idriftsættere
  6. Menneskelig kontrol (Artikel 14): systemet skal være designet til at muliggøre effektiv kontrol af fysiske personer
  7. Nøjagtighed, robusthed og cybersikkerhed (Artikel 15)

Specifikke forpligtelser for idriftsættere (Artikel 26)

Virksomheder, der bruger højrisiko-AI-systemer (idriftsættere), har særlige forpligtelser:

  • Anvende systemet i overensstemmelse med udbyderens anvisninger
  • Sikre menneskelig kontrol ved kompetente og uddannede personer
  • Overvåge systemets drift og rapportere enhver fejlfunktion
  • Gennemføre en konsekvensvurdering af grundlæggende rettigheder (for visse idriftsættere)
  • Opbevare automatisk genererede logs i mindst seks måneder
📄AI-risici i virksomheden: identificér og håndtér effektivt

Sådan reviderer du jeres AI-værktøjer

Det første skridt mod compliance er at vide præcist, hvilke AI-systemer I bruger, og hvilken kategori de tilhører.

1. Udarbejd en komplet fortegnelse

List alle værktøjer med AI i jeres organisation. Glem ikke:

  • Værktøjer integreret i eksisterende software (CRM, ERP, HR-systemer)
  • SaaS-abonnementer med AI-funktionalitet
  • Uformel brug af medarbejdere (AI-assistenter, genereringsværktøjer)
  • Interne udviklinger

2. Klassificér hvert system

For hvert identificeret værktøj, fastlæg:

  • Er det et AI-system i henhold til Artikel 3(1)?
  • Falder det ind under en af kategorierne i Bilag III?
  • Hvad er dets risikoniveau?

3. Vurdér compliance-gabet

For hvert højrisikosystem, sammenlign jeres nuværende situation med kravene i Artikel 9 til 15 og Artikel 26. Identificér hullerne og prioritér korrigerende tiltag.

4. Dokumentér og spor

Opbyg et compliance-dossier for hvert system, herunder klassificeringen, teknisk dokumentation, gennemførte evalueringer og implementerede kontrolforanstaltninger. Denne strukturerede dokumentation vil være jeres reference i tilfælde af revision.

5. Uddann brugerne

For hvert højrisikosystem skal de personer, der er ansvarlige for menneskelig kontrol, have de nødvendige kompetencer (Artikel 14). Det knytter sig til Artikel 4-forpligtelsen om AI-kompetence, men med et højere kravniveau: disse personer skal forstå de specifikke kapaciteter og begrænsninger ved det system, de overvåger.

Tilfældet med generelle AI-systemer

Generelle AI-modeller (som GPT-4, Claude, Gemini) er underlagt specifikke bestemmelser (Artikel 51 til 56). Når en generel AI-model integreres i et højrisiko-AI-system, gælder højrisikoforpligtelserne for systemet som helhed — selv om den underliggende model i sig selv er et generelt værktøj.

Det betyder, at brug af ChatGPT til at besvare kandidater i en rekrutteringsproces kan forvandle et “generelt” værktøj til en komponent i et højrisikosystem.

Ce que ça implique pour vous

Klassificeringen af jeres AI-systemer er ikke en teoretisk øvelse — det er hjørnestenen i jeres AI-forordning-compliance. Hvis I bruger AI inden for rekruttering, præstationsvurdering, kreditscoring eller diagnosestøtte, driver I sandsynligvis højrisikosystemer. Hvert berørt system kræver en overensstemmelsesvurdering, teknisk dokumentation, effektiv menneskelig kontrol og uddannede personer til at varetage den. Start med fortegnelsen. I dag.