Klassifisering av AI-systemer: er du berørt av høy risiko?

AI-forordningen klassifiserer AI-systemer i 4 risikonivåer. Rekruttering, kreditt, helse: finn ut om AI-verktøyene deres anses som høyrisiko.

Kjernen i systemet: en risikobasert tilnærming

Den europeiske forordningen om kunstig intelligens (forordning 2024/1689) bygger på et grunnleggende prinsipp: forpliktelsene er proporsjonale med risikonivået. Jo mer et AI-system kan påvirke menneskers liv, helse, grunnleggende rettigheter eller sikkerhet, desto strengere er kravene.

Denne gradvise tilnærmingen skiller AI-forordningen fra mer binære reguleringer. Den gjør det mulig å ikke bremse innovasjon ved lavrisiko-bruk, samtidig som de mest sensitive bruksområdene reguleres strengt.

Fortalen, punkt 26Règlement (UE) 2024/1689

AI-systemer som utgjør en høy risiko for fysiske personers helse, sikkerhet eller grunnleggende rettigheter, bør være underlagt strenge krav før de kan bringes på unionens marked.

De fire risikonivåene

1. Uakseptabel risiko — Forbudte systemer

Visse bruksområder for AI er rett og slett forbudt (artikkel 5). Sosial scoring, subliminal manipulasjon, utnyttelse av personers sårbarheter og biometrisk identifisering i sanntid på offentlige steder (med unntak) har vært forbudt siden 1. februar 2025.

2. Høy risiko — Systemer med skjerpede forpliktelser

Det er den kategorien som berører flest bedrifter. Høyrisiko-AI-systemer er definert i artiklene 6 og 7 og oppført detaljert i forordningens vedlegg III. De tilknyttede forpliktelsene er betydelige: samsvarsvurdering, teknisk dokumentasjon, menneskelig kontroll, risikostyring, datastyring.

3. Begrenset risiko — Transparensforpliktelser

Systemer som chatboter, innholdsgeneratorer (deepfakes, tekster) eller følelsesgjenkjenningssystemer som ikke dekkes av forbudet, er underlagt transparensforpliktelser. Brukeren må vite at vedkommende samhandler med en AI, eller at innholdet er generert av en AI.

4. Minimal risiko — Ingen spesifikke forpliktelser

Det store flertallet av AI-systemer: spamfiltre, produktanbefalinger, stavekontroll. AI-forordningen pålegger ingen spesifikke restriksjoner, selv om etterlevelse av artikkel 4 om AI-kompetanse fortsatt gjelder for alle brukere.

Vedlegg III: høyrisikosystemer, sektor for sektor

Vedlegg III i forordningen lister opp områdene der et AI-system anses som høyrisiko. Her er de konkrete tilfellene som berører de fleste bedrifter.

HR og rekruttering

Det er området som overrasker flest bedrifter. Vedlegg III, punkt 4 retter seg mot AI-systemer som brukes innen:

Vedlegg III, punkt 4Règlement (UE) 2024/1689

Sysselsetting, arbeidskraftforvaltning og tilgang til selvstendig næringsvirksomhet, særlig for rekruttering og utvelgelse av personer, for beslutninger om ansettelsesvilkår, forfremmelse og oppsigelse, samt for oppgavefordeling, overvåking eller evaluering av personers ytelse og atferd.

Konkret anses følgende som høyrisiko:

  • Kandidatscoring: enhver algoritme som automatisk rangerer, vurderer eller filtrerer søknader
  • Automatisk CV-analyse: verktøy som forhåndsutvelger profiler basert på automatiske kriterier
  • Prekvalifiserings-chatboter: samtaleassistenter som evaluerer kandidater i rekrutteringsprosessen
  • Ytelsesevalueringssystemer: AI-verktøy som analyserer ansattes produktivitet eller atferd
  • Matchingverktøy: algoritmer som kobler profiler med stillinger

Hvis HR-avdelingen deres bruker et automatisk CV-sorteringsverktøy eller en rekrutteringschatbot, dreier det seg sannsynligvis om et høyrisikosystem i AI-forordningens forstand.

📄AI for HR: komplett guide til transformasjon av HR-funksjoner

Finans og forsikring

Vedlegg III, punkt 5(b) dekker AI-systemer som brukes til:

  • Kredittscoring: modeller som vurderer fysiske personers kredittverdighet (unntatt svindeldeteksjon)
  • Risikovurdering innen livs- og helseforsikring
  • Automatisk prissetting basert på individuelle profiler

Enhver bank eller forsikringsselskap som bruker en AI-modell for å innvilge eller avvise kreditt, eller for å fastsette en forsikringspremie, er berørt. I Norge må finansinstitusjoner som DNB og SpareBank 1, som benytter automatiserte scoringsmodeller, vurdere om systemene deres faller inn under denne kategorien. Svindeldeteksjon er eksplisitt unntatt fra høyrisiko — men vær oppmerksom: scoringssystemer som går utover enkel deteksjon kan falle inn under kategorien.

Helse

Vedlegg III, punkt 1 omfatter AI-systemer som er medisinsk utstyr eller tilbehør til medisinsk utstyr i henhold til de europeiske forordningene om medisinsk utstyr. Det inkluderer:

  • Diagnosestøtte: algoritmer som analyserer medisinske bilder eller foreslår diagnoser
  • Automatisk triage: systemer som dirigerer pasienter til behandlingsforløp
  • Overvåkingssystemer: tilkoblede enheter med AI-komponent som overvåker vitale parametre
  • Forskrivningsstøtte: verktøy som foreslår behandlinger

Utdanning og yrkesopplæring

Vedlegg III, punkt 3 retter seg mot AI-systemer som brukes til:

  • Opptak ved utdanningsinstitusjoner
  • Automatisk karaktersetting på eksamener og evalueringer
  • Vurdering av passende utdanningsnivå for en person
  • Kontroll av forbudt atferd under eksamener (automatisk overvåking)

Rettsvesen og politimyndighet

Vedlegg III, punkt 6, 7 og 8 dekker:

  • Vurdering av tilbakefallsrisiko: systemer som vurderer sannsynligheten for at en person begår et nytt lovbrudd
  • Polygraftester og følelsesgjenkjenningsverktøy under avhør
  • Vurdering av bevisers pålitelighet
  • Profilering i forbindelse med forebygging og avdekking av lovbrudd

Kritisk infrastruktur

Vedlegg III, punkt 2 dekker sikkerhetskomponenter i forvaltning og drift av kritisk digital infrastruktur, veitrafikk og forsyning av vann, gass, varme og elektrisitet.

Migrasjon og grensekontroll

Vedlegg III, punkt 7 inkluderer systemer som brukes til vurdering av risikoen for irregulær migrasjon, behandling av visum- og oppholdstillatelsesøknader samt identifisering av personer i forbindelse med migrasjon.

De konkrete forpliktelsene for høyrisikosystemer

Hvis ett eller flere av AI-systemene deres er klassifisert som høyrisiko, krever forordningen følgende:

Samsvarsvurdering (artiklene 9 til 15)

Før markedsføring eller idriftsettelse må systemet gjennomgå en samsvarsvurdering som dekker:

  1. Risikostyringssystem (artikkel 9): identifisering, analyse, estimering og redusering av risikoer gjennom hele systemets livssyklus
  2. Datastyring (artikkel 10): treningsdata må være relevante, representative og frie for feil så langt det er mulig — i samsvar med GDPR/personopplysningslovens krav til behandling av personopplysninger
  3. Teknisk dokumentasjon (artikkel 11): detaljert beskrivelse av systemet, dets formål, ytelse og begrensninger
  4. Registrering (artikkel 12): automatisk logging av hendelser (logger) gjennom hele driftsperioden
  5. Transparens og informasjon (artikkel 13): tydelige bruksanvisninger til brukere
  6. Menneskelig kontroll (artikkel 14): systemet må være utformet for å muliggjøre effektiv kontroll av fysiske personer
  7. Nøyaktighet, robusthet og cybersikkerhet (artikkel 15)

Spesifikke forpliktelser for brukere (artikkel 26)

Bedrifter som bruker høyrisiko-AI-systemer (brukere) har egne forpliktelser:

  • Bruke systemet i samsvar med tilbyderens anvisninger
  • Sikre menneskelig kontroll ved kompetente og opplærte personer
  • Overvåke systemets drift og rapportere enhver feilfunksjon
  • Gjennomføre en konsekvensutredning for grunnleggende rettigheter (for visse brukere)
  • Lagre automatisk genererte logger i minst seks måneder
📄AI-risikoer i bedriften: identifiser og håndtér effektivt

Slik reviderer du AI-verktøyene deres

Det første steget mot etterlevelse er å vite nøyaktig hvilke AI-systemer dere bruker og hvilken kategori de tilhører.

1. Lag en komplett oversikt

List opp alle verktøy med AI i organisasjonen. Ikke glem:

  • Verktøy integrert i eksisterende programvare (CRM, ERP, HR-systemer)
  • SaaS-abonnementer med AI-funksjonalitet
  • Uformell bruk av ansatte (AI-assistenter, genereringsverktøy)
  • Interne utviklinger

2. Klassifiser hvert system

For hvert identifisert verktøy, fastlegg:

  • Er det et AI-system i henhold til artikkel 3(1)?
  • Faller det inn under en av kategoriene i vedlegg III?
  • Hva er dets risikonivå?

3. Vurdér compliancegapet

For hvert høyrisikosystem, sammenlign nåværende situasjon med kravene i artiklene 9 til 15 og artikkel 26. Identifiser hullene og prioritér korrigerende tiltak.

4. Dokumentér og spor

Bygg opp et compliancedossier for hvert system, inkludert klassifiseringen, teknisk dokumentasjon, gjennomførte evalueringer og implementerte kontrolltiltak. Denne strukturerte dokumentasjonen vil være deres referanse ved en eventuell revisjon.

5. Gi opplæring til brukerne

For hvert høyrisikosystem må personene som er ansvarlige for menneskelig kontroll ha den nødvendige kompetansen (artikkel 14). Det knyttes til artikkel 4-forpliktelsen om AI-kompetanse, men med et høyere kravnivå: disse personene må forstå de spesifikke egenskapene og begrensningene ved systemet de overvåker.

Tilfellet med generelle AI-systemer

Generelle AI-modeller (som GPT-4, Claude, Gemini) er underlagt spesifikke bestemmelser (artiklene 51 til 56). Når en generell AI-modell integreres i et høyrisiko-AI-system, gjelder høyrisikoforpliktelsene for systemet som helhet — selv om den underliggende modellen i seg selv er et generelt verktøy.

Det betyr at bruk av ChatGPT for å svare kandidater i en rekrutteringsprosess kan forvandle et “generelt” verktøy til en komponent i et høyrisikosystem.

Ce que ça implique pour vous

Klassifiseringen av AI-systemene deres er ikke en teoretisk øvelse — det er hjørnesteinen i deres AI-forordning-compliance. Hvis dere bruker AI innen rekruttering, ytelsesevaluering, kredittscoring eller diagnosestøtte, driver dere sannsynligvis høyrisikosystemer. Hvert berørt system krever en samsvarsvurdering, teknisk dokumentasjon, effektiv menneskelig kontroll og opplærte personer til å ivareta den. Start med oversikten. I dag.