Artykuł 4: obowiązek przeszkolenia wszystkich pracowników w zakresie AI

AI Act zobowiązuje firmy do zapewnienia odpowiedniego poziomu kompetencji AI dla wszystkich pracowników. Kogo dotyczy, jakie dowody przedstawić, jakie sankcje.

Co naprawdę mówi Artykuł 4

Artykuł 4 Europejskiego Rozporządzenia w sprawie sztucznej inteligencji (Rozporządzenie 2024/1689, zwane “AI Act”) jest często błędnie podsumowywany jako zwykła rekomendacja. W rzeczywistości jest to wiążący obowiązek prawny, obowiązujący od 2 sierpnia 2025 roku.

Artykuł 4Règlement (UE) 2024/1689

Dostawcy i podmioty wdrażające systemy AI podejmują środki w celu zapewnienia, w najszerszym możliwym zakresie, wystarczającego poziomu kompetencji w zakresie AI u swojego personelu i innych osób zajmujących się obsługą i użytkowaniem systemów AI w ich imieniu, uwzględniając ich wiedzę techniczną, doświadczenie, wykształcenie i szkolenie, a także kontekst, w jakim systemy AI mają być wykorzystywane, oraz uwzględniając osoby lub grupy osób, na których systemy AI mają być stosowane.

Ten tekst jest złożony. Przeanalizujmy go.

Kogo dotyczy?

Artykuł 4 obejmuje dwie kategorie podmiotów:

Dostawcy (providers)

Każdy podmiot, który opracowuje system AI lub model AI ogólnego przeznaczenia i wprowadza go na rynek lub do użytku pod własną nazwą lub marką. Obejmuje to firmy softwarowe, startupy AI, przedsiębiorstwa rozwijające wewnętrzne narzędzia oparte na AI.

Podmioty wdrażające (deployers)

Każda osoba fizyczna lub prawna, która korzysta z systemu AI pod własnym nadzorem. Konkretnie obejmuje to każdą firmę, która wykorzystuje narzędzia AI w bieżącej działalności — od ChatGPT po zautomatyzowany system scoringowy.

To kluczowy punkt: nie musisz rozwijać AI, aby podlegać regulacji. Jeśli Twoje zespoły korzystają z narzędzi AI — nawet narzędzi zewnętrznych, takich jak asystenci konwersacyjni, narzędzia do generowania treści czy zautomatyzowane systemy analityczne — jesteś podmiotem wdrażającym w rozumieniu rozporządzenia.

W praktyce oznacza to, że niemal wszystkie europejskie przedsiębiorstwa podlegają tym przepisom.

Co oznacza “wystarczający poziom kompetencji w zakresie AI”?

Rozporządzenie nie narzuca standardowego programu szkoleniowego. Wymaga wystarczającego poziomu kompetencji w zakresie AI (AI literacy), zdefiniowanego w Artykule 3(56) jako:

Artykuł 3, ustęp 56Règlement (UE) 2024/1689

Umiejętności, wiedza i zrozumienie, które pozwalają dostawcom, podmiotom wdrażającym i osobom, których to dotyczy, uwzględniając ich prawa i obowiązki wynikające z niniejszego rozporządzenia, na świadome wdrażanie systemów AI, a także na uświadomienie sobie możliwości i zagrożeń związanych z AI oraz szkód, jakie może ona wyrządzić.

Konkretnie, mierzenie poziomu kompetencji pracowników oznacza weryfikację, czy rozumieją:

  • Czym jest system AI i jak działa na poziomie odpowiednim do ich stanowiska
  • Związane z tym ryzyko wynikające z wykorzystania AI w ich kontekście zawodowym
  • Dobre praktyki: weryfikacja wyników, ochrona danych (zgodnie z RODO), zgłaszanie anomalii
  • Ograniczenia systemów, z których korzystają na co dzień

Oczekiwany poziom nie jest jednolity. Artykuł 4 precyzuje, że szkolenie powinno uwzględniać “wiedzę techniczną, doświadczenie, wykształcenie i szkolenie” każdej osoby, a także “kontekst, w jakim systemy AI mają być wykorzystywane”. Deweloper AI i pracownik obsługi klienta nie będą mieli takich samych potrzeb rozwojowych.

Kluczowe pytanie: jak udowodnić zgodność?

Rozporządzenie nakazuje “podjąć środki” w celu zapewnienia tego poziomu kompetencji. W przypadku kontroli lub sporu firma będzie musiała wykazać, że faktycznie działała. To tutaj pojęcie udokumentowanego dowodu staje się kluczowe.

Czego będą oczekiwać organy

Chociaż dokładne zasady audytu nie zostały jeszcze w pełni określone przez właściwe organy krajowe — w Polsce w szczególności UODO (Urząd Ochrony Danych Osobowych) —, kilka elementów dowodowych wyłania się jako niezbędne:

  1. Inwentaryzacja systemów AI używanych w organizacji, sklasyfikowanych według poziomu ryzyka
  2. Plan szkoleniowy dostosowany do różnych profili pracowników
  3. Dowody uczestnictwa w szkoleniach (rejestry, certyfikaty, historia)
  4. Ocena poziomu kompetencji przed i po szkoleniu
  5. Regularne monitorowanie pokazujące, że szkolenie nie jest jednorazowym wydarzeniem, ale procesem ciągłym

Motyw 20 rozporządzenia dostarcza dodatkowych wyjaśnień:

Motyw 20Règlement (UE) 2024/1689

Środki dotyczące kompetencji w zakresie AI […] powinny być opracowane i, w stosownych przypadkach, dostosowane do kontekstu, w którym systemy AI są wykorzystywane. […] Dostawcy i podmioty wdrażające mogą również zapewnić, aby personel techniczny posiadał niezbędne szkolenie i kompetencje.

Innymi słowy, jedno ogólne szkolenie przeprowadzone raz nie wystarczy. Rozporządzenie oczekuje podejścia kontekstowego, mierzalnego i ciągłego.

📄AI Act Artykuł 4: obowiązek szkolenia w zakresie AI

Harmonogram: już obowiązuje

W przeciwieństwie do innych przepisów AI Act, które są wdrażane stopniowo, Artykuł 4 obowiązuje od 2 sierpnia 2025 roku. Pełny harmonogram:

DataPrzepis
1 lutego 2025Zakaz zabronionych praktyk AI (Artykuł 5)
2 sierpnia 2025Artykuł 4 — Obowiązek kompetencji w zakresie AI
2 sierpnia 2025Obowiązki dotyczące modeli AI ogólnego przeznaczenia
2 sierpnia 2026Obowiązki dotyczące systemów AI wysokiego ryzyka

Firmy, które jeszcze nie rozpoczęły działań w zakresie szkolenia wszystkich pracowników, są zatem technicznie już spóźnione.

Jak zorganizować zgodność

Krok 1: Zmapować wykorzystanie AI

Przed szkoleniem trzeba wiedzieć, co jest używane. Przeprowadź wyczerpującą inwentaryzację wszystkich systemów AI wdrożonych w organizacji. Uwzględnij oficjalne narzędzia, ale także nieformalne zastosowania (tzw. “shadow IT” AI).

Krok 2: Zidentyfikować populacje objęte regulacją

Nie wszyscy pracownicy są narażeni w ten sam sposób. Segmentuj według:

  • Poziomu interakcji z systemami AI (codzienny użytkownik, okazjonalny, pośredni)
  • Poziomu ryzyka używanych systemów (scoring, rekrutacja, obsługa klienta)
  • Wcześniejszej wiedzy technicznej

Krok 3: Określić ramy kompetencyjne

Jasno ustal, co każdy profil powinien wiedzieć. Te ramy posłużą za podstawę do oceny wystarczającego poziomu kompetencji w zakresie AI wymaganego przez rozporządzenie.

Krok 4: Szkolić i oceniać

Wdróż dostosowane ścieżki szkoleniowe i mierz wyniki. Indywidualny lub zespołowy wskaźnik kompetencji umożliwia śledzenie postępów i wykazanie wysiłku na rzecz zgodności.

Krok 5: Dokumentować na bieżąco

Przygotuj dokumentację zgodności obejmującą: programy szkoleniowe, wskaźniki uczestnictwa, wyniki ocen, regularne aktualizacje. Ten udokumentowany dowód będzie Twoim najlepszym sprzymierzeńcem w przypadku kontroli.

📄Audyt AI w firmie: praktyczny przewodnik krok po kroku

Sankcje w przypadku braku zgodności

Artykuł 4 podlega pośredniej kategorii sankcji przewidzianych przez AI Act. Naruszenie może skutkować karami sięgającymi 15 milionów euro lub 3% rocznego światowego obrotu (zastosowanie ma wyższa kwota).

Ale poza karami finansowymi, ryzyko reputacyjne jest znaczne. Brak przeszkolenia zespołów w zakresie AI, gdy regulacja tego wymaga — to sygnał niedojrzałości organizacyjnej, którego nie będą tolerować ani klienci, ani organy regulacyjne, ani partnerzy biznesowi.

Co wyróżnia Artykuł 4 na tle innych obowiązków

Artykuł 4 jest wyjątkowy w europejskim krajobrazie regulacyjnym z kilku powodów:

  • Dotyczy ludzi, nie systemów. Większość obowiązków wynikających z AI Act odnosi się do cech technicznych systemów AI. Artykuł 4 dotyczy kompetencji ludzi, którzy je użytkują.
  • Jest przekrojowy. Niezależnie od poziomu ryzyka Twoich systemów AI, obowiązek kompetencji ma zastosowanie.
  • Już obowiązuje. Brak dodatkowego okresu przejściowego.

To także najbardziej dostępny przepis, od którego można rozpocząć zgodność z AI Act. Jeszcze zanim sklasyfikujesz swoje systemy lub udokumentujesz modele, możesz — i powinieneś — zacząć od podnoszenia kompetencji swoich zespołów.

Ce que ça implique pour vous

Artykuł 4 czyni szkolenie wszystkich pracowników obowiązkiem prawnym, a nie opcją. Firmy muszą być w stanie udowodnić, że ich personel osiąga wystarczający poziom kompetencji w zakresie AI — poprzez mierzalne oceny, rzetelną dokumentację i ciągłe monitorowanie. Obowiązek jest w mocy od 2 sierpnia 2025 roku. Każdy dzień bez działania to dzień braku zgodności.