AI Act klassificerar AI-system i 4 risknivåer. Rekrytering, kredit, hälso- och sjukvård: ta reda på om dina AI-verktyg anses vara högrisk.
Den europeiska förordningen om artificiell intelligens (förordning 2024/1689) vilar på en grundläggande princip: skyldigheterna står i proportion till risknivån. Ju mer ett AI-system kan påverka liv, hälsa, grundläggande rättigheter eller personsäkerhet, desto strängare krav ställs.
Denna gradvisa strategi skiljer AI Act från mer binära regelverk. Den gör det möjligt att inte bromsa innovation vid lågriskapplikationer, samtidigt som de mest känsliga tillämpningarna regleras kraftfullt.
Skäl 26 — Règlement (UE) 2024/1689
AI-system som utgör en hög risknivå för personers hälsa, säkerhet eller grundläggande rättigheter bör omfattas av strikta krav innan de kan släppas ut på unionsmarknaden.
Vissa användningar av AI är helt enkelt förbjudna (Artikel 5). Social poängsättning, subliminal manipulation, utnyttjande av personers sårbarheter och biometrisk fjärridentifiering i realtid på offentliga platser (med undantag) är förbjudna sedan 1 februari 2025.
Detta är den kategori som berör flest företag. AI-system med hög risk definieras i Artiklarna 6 och 7 och listas i detalj i Bilaga III till förordningen. De associerade skyldigheterna är omfattande: bedömning av överensstämmelse, teknisk dokumentation, mänsklig tillsyn, riskhantering, datastyrning.
System som chatbotar, innehållsgeneratorer (deepfakes, texter) eller emotionsigenkänningssystem som inte omfattas av förbudet är föremål för transparenskrav. Användaren måste veta att hen interagerar med en AI eller att innehållet har genererats av AI.
Den stora majoriteten av AI-system: spamfilter, produktrekommendationer, stavningskontroll. AI Act ålägger inga specifika begränsningar, även om Artikel 4 om AI-kompetens fortfarande gäller för alla tillhandahållare.
Bilaga III till förordningen listar de områden där ett AI-system anses utgöra hög risk. Här är de konkreta fall som berör de flesta företag.
Detta är det område som överraskar flest företag. Bilaga III, punkt 4 riktar sig mot AI-system som används inom:
Bilaga III, punkt 4 — Règlement (UE) 2024/1689
Anställning, personalförvaltning och tillgång till egenföretagande, i synnerhet för rekrytering och urval av personer, för beslut om arbetsvillkor, befordran och uppsägning, samt för uppgiftsfördelning, övervakning eller utvärdering av personers prestationer och beteende.
Konkret anses följande som högrisk:
Om din HR-avdelning använder ett automatiskt CV-screeningverktyg eller en rekryteringschatbot rör det sig troligen om ett högrisk-system i AI Acts mening.
📄AI för HR: komplett guide till HR-transformation→Bilaga III, punkt 5(b) omfattar AI-system som används för:
Varje bank eller försäkringsbolag som använder en AI-modell för att bevilja eller neka en kredit, eller för att fastställa en försäkringspremie, omfattas. I Sverige berör detta direkt aktörer som Handelsbanken, SEB och Swedbank, som alla använder AI-modeller i sina kreditprocesser. Bedrägeridetektion är uttryckligen undantagen från högrisk — men observera att poängsättningssystem som går utöver enkel detektion kan falla under kategorin.
Bilaga III, punkt 1 omfattar AI-system som är medicintekniska produkter eller tillbehör till medicintekniska produkter enligt europeiska förordningar. Detta inkluderar:
Bilaga III, punkt 3 riktar sig mot AI-system som används för:
Bilaga III, punkt 6, 7 och 8 omfattar:
I Sverige använder myndigheter som Försäkringskassan och Skatteverket i allt högre grad AI-system för ärendehandläggning, riskbedömning och automatiserat beslutsfattande. Dessa system kan falla under flera av Bilaga III:s kategorier beroende på tillämpning — särskilt om de påverkar personers tillgång till sociala förmåner eller skattemässiga beslut.
Bilaga III, punkt 2 omfattar säkerhetskomponenter i förvaltning och drift av kritisk digital infrastruktur, vägtrafik och leverans av vatten, gas, värme och elektricitet.
Bilaga III, punkt 7 inkluderar system som används för bedömning av risken för irregulär migration, granskning av viseringsansökningar och uppehållstillstånd, samt identifiering av personer i samband med migration.
Om ett eller flera av dina AI-system klassificeras som högrisk, är detta vad förordningen kräver:
Före utsläppande på marknaden eller ibruktagande måste systemet genomgå en bedömning av överensstämmelse som omfattar:
Företag som använder högrisk-AI-system (tillhandahållare) har egna skyldigheter:
Det första steget mot efterlevnad är att veta exakt vilka AI-system du använder och i vilken kategori de hamnar.
Lista alla verktyg som integrerar AI i din organisation. Glöm inte:
Fastställ för varje identifierat verktyg:
Jämför din nuvarande situation med kraven i Artiklarna 9 till 15 och Artikel 26 för varje högrisk-system. Identifiera gap och prioritera korrigerande åtgärder.
Sammanställ ett compliancedossier per system, inklusive klassificering, teknisk dokumentation, genomförda bedömningar och vidtagna kontrollåtgärder. Denna strukturerade dokumentation blir din referens vid en revision.
För varje högrisk-system måste de personer som ansvarar för mänsklig tillsyn ha nödvändig kompetens (Artikel 14). Detta kompletterar skyldigheten i Artikel 4 om AI-kompetens, men med en högre kravnivå: dessa personer måste förstå de specifika kapaciteterna och begränsningarna hos det system de övervakar.
AI-modeller för allmänna ändamål (som GPT-4, Claude, Gemini) omfattas av specifika bestämmelser (Artiklarna 51 till 56). När en modell för allmänna ändamål integreras i ett AI-system klassificerat som högrisk gäller högrisk-skyldigheterna för systemet som helhet — även om den underliggande modellen i sig är ett generalistiskt verktyg.
Detta innebär att användning av ChatGPT för att svara kandidater i en rekryteringsprocess kan omvandla ett “generalistiskt” verktyg till en komponent i ett högrisk-system.
Ce que ça implique pour vous
Klassificeringen av dina AI-system är inte en teoretisk övning — det är hörnstenen i din AI Act-efterlevnad. Om du använder AI inom rekrytering, prestationsutvärdering, kreditvärdighetsbedömning eller diagnosstöd driver du troligen högrisk-system. Varje berört system kräver en bedömning av överensstämmelse, teknisk dokumentation, effektiv mänsklig tillsyn och utbildade personer för att säkerställa den. Börja med inventeringen. Idag.