AI-forordningen klassifiserer AI-systemer i 4 risikonivåer. Rekruttering, kreditt, helse: finn ut om AI-verktøyene deres anses som høyrisiko.
Den europeiske forordningen om kunstig intelligens (forordning 2024/1689) bygger på et grunnleggende prinsipp: forpliktelsene er proporsjonale med risikonivået. Jo mer et AI-system kan påvirke menneskers liv, helse, grunnleggende rettigheter eller sikkerhet, desto strengere er kravene.
Denne gradvise tilnærmingen skiller AI-forordningen fra mer binære reguleringer. Den gjør det mulig å ikke bremse innovasjon ved lavrisiko-bruk, samtidig som de mest sensitive bruksområdene reguleres strengt.
Fortalen, punkt 26 — Règlement (UE) 2024/1689
AI-systemer som utgjør en høy risiko for fysiske personers helse, sikkerhet eller grunnleggende rettigheter, bør være underlagt strenge krav før de kan bringes på unionens marked.
Visse bruksområder for AI er rett og slett forbudt (artikkel 5). Sosial scoring, subliminal manipulasjon, utnyttelse av personers sårbarheter og biometrisk identifisering i sanntid på offentlige steder (med unntak) har vært forbudt siden 1. februar 2025.
Det er den kategorien som berører flest bedrifter. Høyrisiko-AI-systemer er definert i artiklene 6 og 7 og oppført detaljert i forordningens vedlegg III. De tilknyttede forpliktelsene er betydelige: samsvarsvurdering, teknisk dokumentasjon, menneskelig kontroll, risikostyring, datastyring.
Systemer som chatboter, innholdsgeneratorer (deepfakes, tekster) eller følelsesgjenkjenningssystemer som ikke dekkes av forbudet, er underlagt transparensforpliktelser. Brukeren må vite at vedkommende samhandler med en AI, eller at innholdet er generert av en AI.
Det store flertallet av AI-systemer: spamfiltre, produktanbefalinger, stavekontroll. AI-forordningen pålegger ingen spesifikke restriksjoner, selv om etterlevelse av artikkel 4 om AI-kompetanse fortsatt gjelder for alle brukere.
Vedlegg III i forordningen lister opp områdene der et AI-system anses som høyrisiko. Her er de konkrete tilfellene som berører de fleste bedrifter.
Det er området som overrasker flest bedrifter. Vedlegg III, punkt 4 retter seg mot AI-systemer som brukes innen:
Vedlegg III, punkt 4 — Règlement (UE) 2024/1689
Sysselsetting, arbeidskraftforvaltning og tilgang til selvstendig næringsvirksomhet, særlig for rekruttering og utvelgelse av personer, for beslutninger om ansettelsesvilkår, forfremmelse og oppsigelse, samt for oppgavefordeling, overvåking eller evaluering av personers ytelse og atferd.
Konkret anses følgende som høyrisiko:
Hvis HR-avdelingen deres bruker et automatisk CV-sorteringsverktøy eller en rekrutteringschatbot, dreier det seg sannsynligvis om et høyrisikosystem i AI-forordningens forstand.
📄AI for HR: komplett guide til transformasjon av HR-funksjoner→Vedlegg III, punkt 5(b) dekker AI-systemer som brukes til:
Enhver bank eller forsikringsselskap som bruker en AI-modell for å innvilge eller avvise kreditt, eller for å fastsette en forsikringspremie, er berørt. I Norge må finansinstitusjoner som DNB og SpareBank 1, som benytter automatiserte scoringsmodeller, vurdere om systemene deres faller inn under denne kategorien. Svindeldeteksjon er eksplisitt unntatt fra høyrisiko — men vær oppmerksom: scoringssystemer som går utover enkel deteksjon kan falle inn under kategorien.
Vedlegg III, punkt 1 omfatter AI-systemer som er medisinsk utstyr eller tilbehør til medisinsk utstyr i henhold til de europeiske forordningene om medisinsk utstyr. Det inkluderer:
Vedlegg III, punkt 3 retter seg mot AI-systemer som brukes til:
Vedlegg III, punkt 6, 7 og 8 dekker:
Vedlegg III, punkt 2 dekker sikkerhetskomponenter i forvaltning og drift av kritisk digital infrastruktur, veitrafikk og forsyning av vann, gass, varme og elektrisitet.
Vedlegg III, punkt 7 inkluderer systemer som brukes til vurdering av risikoen for irregulær migrasjon, behandling av visum- og oppholdstillatelsesøknader samt identifisering av personer i forbindelse med migrasjon.
Hvis ett eller flere av AI-systemene deres er klassifisert som høyrisiko, krever forordningen følgende:
Før markedsføring eller idriftsettelse må systemet gjennomgå en samsvarsvurdering som dekker:
Bedrifter som bruker høyrisiko-AI-systemer (brukere) har egne forpliktelser:
Det første steget mot etterlevelse er å vite nøyaktig hvilke AI-systemer dere bruker og hvilken kategori de tilhører.
List opp alle verktøy med AI i organisasjonen. Ikke glem:
For hvert identifisert verktøy, fastlegg:
For hvert høyrisikosystem, sammenlign nåværende situasjon med kravene i artiklene 9 til 15 og artikkel 26. Identifiser hullene og prioritér korrigerende tiltak.
Bygg opp et compliancedossier for hvert system, inkludert klassifiseringen, teknisk dokumentasjon, gjennomførte evalueringer og implementerte kontrolltiltak. Denne strukturerte dokumentasjonen vil være deres referanse ved en eventuell revisjon.
For hvert høyrisikosystem må personene som er ansvarlige for menneskelig kontroll ha den nødvendige kompetansen (artikkel 14). Det knyttes til artikkel 4-forpliktelsen om AI-kompetanse, men med et høyere kravnivå: disse personene må forstå de spesifikke egenskapene og begrensningene ved systemet de overvåker.
Generelle AI-modeller (som GPT-4, Claude, Gemini) er underlagt spesifikke bestemmelser (artiklene 51 til 56). Når en generell AI-modell integreres i et høyrisiko-AI-system, gjelder høyrisikoforpliktelsene for systemet som helhet — selv om den underliggende modellen i seg selv er et generelt verktøy.
Det betyr at bruk av ChatGPT for å svare kandidater i en rekrutteringsprosess kan forvandle et “generelt” verktøy til en komponent i et høyrisikosystem.
Ce que ça implique pour vous
Klassifiseringen av AI-systemene deres er ikke en teoretisk øvelse — det er hjørnesteinen i deres AI-forordning-compliance. Hvis dere bruker AI innen rekruttering, ytelsesevaluering, kredittscoring eller diagnosestøtte, driver dere sannsynligvis høyrisikosystemer. Hvert berørt system krever en samsvarsvurdering, teknisk dokumentasjon, effektiv menneskelig kontroll og opplærte personer til å ivareta den. Start med oversikten. I dag.