AI-forordningen klassificerer AI-systemer i 4 risikoniveauer. Rekruttering, kredit, sundhed: find ud af om jeres AI-værktøjer betragtes som højrisiko.
Den europæiske forordning om kunstig intelligens (forordning 2024/1689) bygger på et grundlæggende princip: forpligtelserne er proportionale med risikoniveauet. Jo mere et AI-system kan påvirke menneskers liv, helbred, grundlæggende rettigheder eller sikkerhed, desto strengere er kravene.
Denne gradvise tilgang adskiller AI-forordningen fra mere binære reguleringer. Den gør det muligt ikke at bremse innovation ved lavrisikobrug, samtidig med at de mest følsomme anvendelser reguleres stramt.
Betragtning 26 — Règlement (UE) 2024/1689
AI-systemer, der udgør en høj risiko for fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder, bør være underlagt strenge krav, før de kan bringes på Unionens marked.
Visse anvendelser af AI er ganske enkelt forbudt (Artikel 5). Social scoring, subliminal manipulation, udnyttelse af personers sårbarheder og biometrisk identifikation i realtid på offentlige steder (med undtagelser) har været forbudt siden 1. februar 2025.
Det er den kategori, der berører det største antal virksomheder. Højrisiko-AI-systemer er defineret i Artikel 6 og 7 og oplistet detaljeret i forordningens Bilag III. De tilknyttede forpligtelser er omfattende: overensstemmelsesvurdering, teknisk dokumentation, menneskelig kontrol, risikostyring, datastyring.
Systemer som chatbots, indholdsgeneratorer (deepfakes, tekster) eller følelsesgenkendelsessystemer, der ikke er dækket af forbuddet, er underlagt gennemsigtighedsforpligtelser. Brugeren skal vide, at vedkommende interagerer med en AI, eller at indholdet er genereret af en AI.
Langt størstedelen af AI-systemer: spamfiltre, produktanbefalinger, stavekontrol. AI-forordningen pålægger ingen specifikke begrænsninger, selv om overholdelse af Artikel 4 om AI-kompetence stadig gælder for alle idriftsættere.
Bilag III i forordningen opremser de områder, hvor et AI-system betragtes som højrisiko. Her er de konkrete tilfælde, der berører de fleste virksomheder.
Det er det område, der overrasker flest virksomheder. Bilag III, punkt 4 retter sig mod AI-systemer, der anvendes inden for:
Bilag III, punkt 4 — Règlement (UE) 2024/1689
Beskæftigelse, arbejdskraftforvaltning og adgang til selvstændig erhvervsvirksomhed, navnlig til rekruttering og udvælgelse af personer, til beslutningstagning om vilkår for arbejdsforhold, forfremmelse og opsigelse samt til opgavefordeling, overvågning eller evaluering af personers præstationer og adfærd.
Konkret betragtes følgende som højrisiko:
Hvis jeres HR-afdeling bruger et automatisk CV-sorteringsværktøj eller en rekrutteringschatbot, er der sandsynligvis tale om et højrisikosystem i AI-forordningens forstand.
📄AI for HR: komplet guide til transformation af HR-funktioner→Bilag III, punkt 5(b) dækker AI-systemer, der bruges til:
Enhver bank eller forsikringsselskab, der bruger en AI-model til at bevilge eller afvise kredit eller til at fastsætte en forsikringspræmie, er berørt. I Danmark vedrører dette direkte aktører som Danske Bank og Nordea, der begge anvender AI-modeller i deres kreditprocesser. Svindeldetektion er eksplicit udelukket fra højrisiko — men vær opmærksom: scoringsystemer, der går ud over simpel detektion, kan falde ind under kategorien.
Bilag III, punkt 1 omfatter AI-systemer, der er medicinsk udstyr eller tilbehør til medicinsk udstyr i henhold til de europæiske forordninger om medicinsk udstyr. Det inkluderer:
Bilag III, punkt 3 retter sig mod AI-systemer, der bruges til:
Bilag III, punkt 6, 7 og 8 dækker:
I Danmark anvender offentlige institutioner som ATP (pension), SKAT (skat) og Borger.dk i stigende grad AI-systemer til sagsbehandling, risikovurdering og automatiseret beslutningstagning. Disse systemer kan falde ind under flere af Bilag III’s kategorier afhængigt af anvendelsen — især hvis de påvirker personers adgang til sociale ydelser eller skattemæssige afgørelser.
Bilag III, punkt 2 dækker sikkerhedskomponenter i forvaltning og drift af kritisk digital infrastruktur, vejtrafik og forsyning af vand, gas, varme og elektricitet.
Bilag III, punkt 7 inkluderer systemer, der bruges til vurdering af risikoen for uregelmæssig migration, behandling af visum- og opholdstilladelseansøgninger samt identifikation af personer i forbindelse med migration.
Hvis ét eller flere af jeres AI-systemer er klassificeret som højrisiko, kræver forordningen følgende:
Før markedsføring eller idriftsættelse skal systemet gennemgå en overensstemmelsesvurdering, der dækker:
Virksomheder, der bruger højrisiko-AI-systemer (idriftsættere), har særlige forpligtelser:
Det første skridt mod compliance er at vide præcist, hvilke AI-systemer I bruger, og hvilken kategori de tilhører.
List alle værktøjer med AI i jeres organisation. Glem ikke:
For hvert identificeret værktøj, fastlæg:
For hvert højrisikosystem, sammenlign jeres nuværende situation med kravene i Artikel 9 til 15 og Artikel 26. Identificér hullerne og prioritér korrigerende tiltag.
Opbyg et compliance-dossier for hvert system, herunder klassificeringen, teknisk dokumentation, gennemførte evalueringer og implementerede kontrolforanstaltninger. Denne strukturerede dokumentation vil være jeres reference i tilfælde af revision.
For hvert højrisikosystem skal de personer, der er ansvarlige for menneskelig kontrol, have de nødvendige kompetencer (Artikel 14). Det knytter sig til Artikel 4-forpligtelsen om AI-kompetence, men med et højere kravniveau: disse personer skal forstå de specifikke kapaciteter og begrænsninger ved det system, de overvåger.
Generelle AI-modeller (som GPT-4, Claude, Gemini) er underlagt specifikke bestemmelser (Artikel 51 til 56). Når en generel AI-model integreres i et højrisiko-AI-system, gælder højrisikoforpligtelserne for systemet som helhed — selv om den underliggende model i sig selv er et generelt værktøj.
Det betyder, at brug af ChatGPT til at besvare kandidater i en rekrutteringsproces kan forvandle et “generelt” værktøj til en komponent i et højrisikosystem.
Ce que ça implique pour vous
Klassificeringen af jeres AI-systemer er ikke en teoretisk øvelse — det er hjørnestenen i jeres AI-forordning-compliance. Hvis I bruger AI inden for rekruttering, præstationsvurdering, kreditscoring eller diagnosestøtte, driver I sandsynligvis højrisikosystemer. Hvert berørt system kræver en overensstemmelsesvurdering, teknisk dokumentation, effektiv menneskelig kontrol og uddannede personer til at varetage den. Start med fortegnelsen. I dag.