AI Act klasyfikuje systemy AI na 4 poziomy ryzyka. Rekrutacja, kredyty, zdrowie: sprawdź, czy Twoje narzędzia AI są uznawane za systemy wysokiego ryzyka.
Europejskie Rozporządzenie w sprawie sztucznej inteligencji (Rozporządzenie 2024/1689) opiera się na fundamentalnej zasadzie: obowiązki są proporcjonalne do poziomu ryzyka. Im bardziej system AI może wpływać na życie, zdrowie, prawa podstawowe lub bezpieczeństwo osób, tym surowsze są wymagania.
To stopniowe podejście wyróżnia AI Act na tle bardziej binarnych regulacji. Pozwala nie hamować innowacji w zastosowaniach o niskim ryzyku, jednocześnie ściśle regulując najbardziej wrażliwe zastosowania.
Motyw 26 — Règlement (UE) 2024/1689
Systemy AI stwarzające wysoki poziom ryzyka dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych powinny podlegać surowym wymogom, zanim będą mogły zostać wprowadzone na rynek Unii.
Niektóre zastosowania AI są po prostu zakazane (Artykuł 5). Scoring społeczny, manipulacja podprogowa, wykorzystywanie podatności osób na zagrożenia oraz biometryczna identyfikacja w czasie rzeczywistym w przestrzeniach publicznych (z wyjątkami) są zakazane od 1 lutego 2025 roku.
To kategoria dotycząca największej liczby firm. Systemy AI wysokiego ryzyka są zdefiniowane w Artykułach 6 i 7 oraz szczegółowo wymienione w Załączniku III rozporządzenia. Związane z nimi obowiązki są znaczące: ocena zgodności, dokumentacja techniczna, nadzór człowieka, zarządzanie ryzykiem, zarządzanie danymi.
Systemy takie jak chatboty, generatory treści (deepfake, teksty) czy systemy rozpoznawania emocji nieobjęte zakazem podlegają obowiązkom przejrzystości. Użytkownik musi wiedzieć, że wchodzi w interakcję z AI lub że treść została wygenerowana przez AI.
Zdecydowana większość systemów AI: filtry antyspamowe, rekomendacje produktów, korektory ortograficzne. AI Act nie nakłada konkretnych ograniczeń, choć wymóg z Artykułu 4 dotyczący kompetencji w zakresie AI nadal dotyczy wszystkich podmiotów wdrażających.
Załącznik III rozporządzenia wymienia obszary, w których system AI jest uznawany za system wysokiego ryzyka. Oto konkretne przypadki dotyczące większości firm.
To obszar, który najbardziej zaskakuje firmy. Załącznik III, punkt 4 dotyczy systemów AI wykorzystywanych w:
Załącznik III, punkt 4 — Règlement (UE) 2024/1689
Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia, w szczególności do rekrutacji i selekcji osób, podejmowania decyzji dotyczących warunków stosunku pracy, awansowania i rozwiązywania stosunku pracy, a także do przydzielania zadań, monitorowania lub oceny wyników i zachowania osób.
Konkretnie, za systemy wysokiego ryzyka uznaje się:
Jeśli Twój dział HR korzysta z narzędzia do automatycznej selekcji CV lub chatbota rekrutacyjnego, prawdopodobnie masz do czynienia z systemem wysokiego ryzyka w rozumieniu AI Act.
📄AI dla HR: kompletny przewodnik transformacji zasobów ludzkich→Załącznik III, punkt 5(b) obejmuje systemy AI wykorzystywane do:
Każdy bank lub ubezpieczyciel wykorzystujący model AI do podejmowania decyzji o przyznaniu lub odmowie kredytu, lub do ustalania składki ubezpieczeniowej, podlega tym przepisom. W Polsce instytucje takie jak PKO BP czy mBank, które stosują zautomatyzowane modele scoringowe, muszą ocenić, czy ich systemy wchodzą w zakres tej kategorii — pod nadzorem KNF (Komisji Nadzoru Finansowego). Wykrywanie oszustw jest wyraźnie wyłączone z kategorii wysokiego ryzyka — ale uwaga, systemy scoringowe wykraczające poza proste wykrywanie mogą wchodzić w zakres tej kategorii.
Załącznik III, punkt 1 obejmuje systemy AI będące wyrobami medycznymi lub wyposażeniem wyrobów medycznych w rozumieniu regulacji europejskich. Obejmuje to:
Załącznik III, punkt 3 dotyczy systemów AI wykorzystywanych do:
Załącznik III, punkty 6, 7 i 8 obejmują:
Załącznik III, punkt 2 obejmuje komponenty bezpieczeństwa zarządzania i eksploatacji krytycznej infrastruktury cyfrowej, ruchu drogowego oraz dostaw wody, gazu, ogrzewania i energii elektrycznej.
Załącznik III, punkt 7 obejmuje systemy wykorzystywane do oceny ryzyka nielegalnej migracji, rozpatrywania wniosków wizowych i pobytowych oraz identyfikacji osób w kontekście migracji.
Jeśli jeden lub więcej Twoich systemów AI jest sklasyfikowanych jako systemy wysokiego ryzyka, oto czego wymaga rozporządzenie:
Przed wprowadzeniem na rynek lub do użytku system musi przejść ocenę zgodności obejmującą:
Firmy korzystające z systemów AI wysokiego ryzyka (podmioty wdrażające) mają własne obowiązki:
Pierwszy krok do zgodności to dokładne poznanie, jakie systemy AI wykorzystujesz i do jakiej kategorii należą.
Wymień wszystkie narzędzia integrujące AI w swojej organizacji. Nie zapomnij o:
Dla każdego zidentyfikowanego narzędzia określ:
Dla każdego systemu wysokiego ryzyka porównaj swoją obecną sytuację z wymaganiami Artykułów 9-15 i Artykułu 26. Zidentyfikuj luki i ustal priorytety działań naprawczych.
Przygotuj dokumentację zgodności dla każdego systemu, obejmującą klasyfikację, dokumentację techniczną, przeprowadzone oceny i wdrożone środki kontroli. Ta ustrukturyzowana dokumentacja będzie Twoim punktem odniesienia w przypadku audytu.
Dla każdego systemu wysokiego ryzyka osoby odpowiedzialne za nadzór człowieka muszą posiadać niezbędne kompetencje (Artykuł 14). Uzupełnia to obowiązek z Artykułu 4 dotyczący kompetencji w zakresie AI, ale z wyższym poziomem wymagań: osoby te muszą rozumieć specyficzne możliwości i ograniczenia systemu, który nadzorują.
Modele AI ogólnego przeznaczenia (takie jak GPT-4, Claude, Gemini) podlegają szczególnym przepisom (Artykuły 51-56). Gdy model ogólnego przeznaczenia jest zintegrowany z systemem AI sklasyfikowanym jako system wysokiego ryzyka, obowiązki związane z wysokim ryzykiem mają zastosowanie do całego systemu — nawet jeśli sam model bazowy jest narzędziem ogólnego przeznaczenia.
Oznacza to, że wykorzystanie ChatGPT do odpowiadania kandydatom w procesie rekrutacji może przekształcić narzędzie “ogólnego przeznaczenia” w komponent systemu wysokiego ryzyka.
Ce que ça implique pour vous
Klasyfikacja Twoich systemów AI to nie ćwiczenie teoretyczne — to fundament zgodności z AI Act. Jeśli wykorzystujesz AI w rekrutacji, ocenie wydajności, scoringu kredytowym lub wspomaganiu diagnostyki, prawdopodobnie operujesz systemami wysokiego ryzyka. Każdy objęty system wymaga oceny zgodności, dokumentacji technicznej, skutecznego nadzoru człowieka i przeszkolonych osób do jego zapewnienia. Zacznij od inwentaryzacji. Dziś.