Obowiązek szkolenia z AI to jeden z najbardziej niedocenianych przepisów całego AI Act — a jednocześnie jeden z pierwszych, który wszedł w życie. Artykuł 4 rozporządzenia (UE) 2024/1689 obowiązuje od 2 lutego 2025 roku i dotyczy wszystkich organizacji korzystających z systemów sztucznej inteligencji, niezależnie od branży, wielkości firmy czy kategorii ryzyka systemu.
W Polsce temat bywa pomijany w dyskusjach o regulacji AI, które koncentrują się na systemach wysokiego ryzyka i zakazanych praktykach. Tymczasem Artykuł 4 to przepis o najszerszym zakresie stosowania w całym rozporządzeniu — i to on jako pierwszy generuje ryzyko prawne dla firm, które nie podjęły działań.
À retenir
- Artykuł 4 AI Act obowiązuje od 2 lutego 2025 — to już aktualne prawo, nie przyszły wymóg
- Dotyczy WSZYSTKICH firm korzystających z AI, niezależnie od kategorii ryzyka systemu
- Wymaga zapewnienia wystarczającego poziomu kompetencji AI u pracowników mających kontakt z systemami AI
- Kara za naruszenie: do 15 mln euro lub 3% globalnego rocznego obrotu firmy
Zobacz także nasz kompletny przewodnik po AI Act — 7 szczegółowych rozdziałów.
Co dokładnie mówi Artykuł 4 AI Act
Treść przepisu
Artykuł 4 rozporządzenia nosi tytuł “Znajomość AI” (AI literacy) i stanowi, że dostawcy oraz podmioty wdrażające systemy AI podejmują środki w celu zapewnienia, w możliwie najszerszym zakresie, wystarczającego poziomu znajomości AI u swojego personelu oraz u innych osób zajmujących się obsługą i użytkowaniem systemów AI w ich imieniu.
Kluczowe elementy tego przepisu:
- Zakres podmiotowy — obejmuje zarówno dostawców (providers), jak i podmioty wdrażające (deployers) systemy AI
- Zakres osobowy — dotyczy personelu firmy oraz osób trzecich działających w jej imieniu (np. podwykonawców, konsultantów)
- Standard — “wystarczający poziom znajomości AI” (sufficient level of AI literacy)
- Kryteria dostosowania — poziom kompetencji musi uwzględniać wiedzę techniczną, doświadczenie, wykształcenie i kontekst użycia
Artykuł 4 nie przewiduje żadnych wyłączeń dla MŚP ani dla firm korzystających wyłącznie z systemów AI o minimalnym ryzyku. Jeżeli Państwa pracownicy używają ChatGPT, Copilota, Gemini lub jakiegokolwiek innego narzędzia AI — ten przepis Państwa dotyczy.
Kogo konkretnie obowiązuje
Obowiązek szkolenia z AI obejmuje trzy kategorie podmiotów:
- Dostawcy systemów AI — firmy, które tworzą, rozwijają i udostępniają systemy sztucznej inteligencji na rynku UE
- Podmioty wdrażające — organizacje, które korzystają z systemów AI w swojej działalności (np. firma stosująca AI do analizy CV kandydatów lub chatbot do obsługi klienta)
- Osoby trzecie — podwykonawcy, freelancerzy i partnerzy, którzy obsługują systemy AI w imieniu firmy
W praktyce oznacza to, że większość polskich firm należy do kategorii “podmiotów wdrażających”. Każda organizacja, w której pracownicy korzystają z narzędzi AI — nawet tak podstawowych jak asystent pisania tekstu czy generator prezentacji — musi zapewnić im odpowiedni poziom kompetencji.
34%
polskich przedsiębiorstw już korzysta z AI, z czego większość nie posiada udokumentowanego programu kompetencji AI wymaganego przez Artykuł 4
Source : GUS, Społeczeństwo informacyjne w Polsce 2025
Co oznacza “wystarczający poziom kompetencji AI”
Rozporządzenie celowo nie definiuje jednego standardu kompetencji. Zamiast tego wprowadza podejście proporcjonalne — poziom wymaganej wiedzy zależy od czterech czynników:
1. Wiedza techniczna pracownika
Inżynier oprogramowania potrzebuje innego poziomu szkolenia niż pracownik działu administracji. Rozporządzenie wymaga, aby program był dostosowany do istniejącej bazy wiedzy.
2. Doświadczenie i wykształcenie
Osoba z doświadczeniem w analizie danych wymaga innego podejścia niż pracownik, który po raz pierwszy styka się z narzędziami AI.
3. Kontekst użycia
Korzystanie z AI do generowania treści marketingowych niesie inne ryzyko niż wykorzystanie AI do oceny wniosków kredytowych. Im wyższe potencjalne konsekwencje decyzji wspieranej przez AI, tym głębsze powinny być kompetencje użytkownika.
4. Poziom autonomii systemu
Pracownik korzystający z AI jako narzędzia wspomagającego (np. sugestie autokorekty) wymaga innego poziomu kompetencji niż osoba opierająca decyzje biznesowe na wynikach generowanych przez model AI.
W praktyce “wystarczający poziom kompetencji” obejmuje co najmniej:
- Rozumienie podstawowych zasad działania systemów AI
- Świadomość ograniczeń AI (halucynacje, błędy, stronniczość)
- Umiejętność krytycznej oceny wyników generowanych przez AI
- Znajomość zasad ochrony danych w kontekście AI
- Wiedzę o wewnętrznych zasadach korzystania z AI w organizacji
Harmonogram i termin wejścia w życie
Artykuł 4 wszedł w życie 2 lutego 2025 roku — jako jeden z pierwszych przepisów całego rozporządzenia. Nie jest to termin przyszły ani orientacyjny. Dla porównania:
| Data | Przepis |
|---|---|
| 2 lutego 2025 | Zakaz systemów AI o niedopuszczalnym ryzyku + obowiązek kompetencji AI (Art. 4) |
| 2 sierpnia 2025 | Obowiązki dla modeli AI ogólnego przeznaczenia (GPAI) |
| 2 sierpnia 2026 | Pełne stosowanie przepisów dla systemów AI wysokiego ryzyka |
To oznacza, że obowiązek szkolenia z AI obowiązuje już ponad rok. Firmy, które nie podjęły działań, naruszają rozporządzenie od momentu jego wejścia w życie.
Sankcje za brak zgodności
AI Act przewiduje trzy poziomy kar administracyjnych. Naruszenie Artykułu 4 podlega karze z drugiego poziomu:
15 mln €
lub 3% globalnego rocznego obrotu — kara za naruszenie obowiązku kompetencji AI z Artykułu 4
Source : Rozporządzenie (UE) 2024/1689, Art. 99
Przy wymierzaniu kary organ nadzorczy uwzględnia:
- Charakter i wagę naruszenia — celowe ignorowanie obowiązku jest traktowane surowiej niż nieumyślne opóźnienie
- Wielkość firmy i jej zasoby — MŚP mogą liczyć na proporcjonalne podejście
- Podjęte działania naprawcze — udokumentowany program szkoleniowy, nawet wdrożony z opóźnieniem, stanowi dowód dobrej woli
- Skalę naruszenia — liczba pracowników bez odpowiednich kompetencji, czas trwania naruszenia
W Polsce nadzór nad AI Act koordynują UODO i Ministerstwo Cyfryzacji. Dedykowany organ nadzorczy ds. AI powinien być operacyjny w 2026 roku, ale kontrole w zakresie Art. 4 mogą być prowadzone już teraz.
Dokumentacja jest kluczowa. Samo przeprowadzenie szkolenia nie wystarczy — firma musi być w stanie wykazać, że program kompetencji AI istnieje, jest dostosowany do ról w organizacji i jest regularnie aktualizowany. Brak dokumentacji oznacza brak dowodu zgodności.
Jak zapewnić zgodność z Artykułem 4: praktyczne kroki
1. Audyt wykorzystania AI w organizacji
Zmapuj wszystkie systemy i narzędzia AI używane w firmie — licencjonowane platformy, narzędzia wbudowane w oprogramowanie biurowe i narzędzia AI stosowane nieformalnie przez pracowników. Zjawisko shadow AI jest w Polsce powszechne i stanowi pierwszy punkt ryzyka.
2. Mapowanie ról i potrzeb szkoleniowych
Dla każdego stanowiska określ:
- Jakie systemy AI są wykorzystywane
- W jakim kontekście i do jakich decyzji
- Jaki poziom kompetencji jest wymagany
3. Wdrożenie programu szkoleniowego
Zbuduj program szkolenia z AI dostosowany do ról w organizacji. Program powinien obejmować moduły dla kadry zarządzającej, pracowników operacyjnych, działów IT i bezpieczeństwa oraz działu prawnego. Kluczowe jest, aby szkolenie nie było jednorazowe — rozporządzenie wymaga utrzymywania kompetencji na bieżąco.
4. Dokumentacja i śledzenie postępów
Prowadź rejestr:
- Przeprowadzonych szkoleń (daty, uczestnicy, zakres)
- Wyników ocen kompetencji
- Aktualizacji programu szkoleniowego
- Nowych systemów AI wprowadzanych do organizacji
5. Regularna aktualizacja
Sztuczna inteligencja w firmie rozwija się szybko — co kwartał pojawiają się nowe narzędzia i możliwości. Program kompetencji AI musi być aktualizowany co najmniej raz w roku, a w przypadku istotnych zmian technologicznych lub organizacyjnych — natychmiast.
Artykuł 4 a inne obowiązki wynikające z AI Act
Obowiązek szkolenia z AI nie funkcjonuje w izolacji. Stanowi fundament dla pozostałych wymogów rozporządzenia:
- Systemy wysokiego ryzyka (Art. 6-49) — wymagają przeszkolonego personelu do nadzoru ludzkiego, oceny zgodności i zarządzania ryzykiem
- Obowiązki transparentności (Art. 50) — pracownicy muszą wiedzieć, kiedy i jak informować użytkowników o kontakcie z systemem AI
- Zgodność z RODO — kompetentni pracownicy lepiej chronią dane osobowe przetwarzane przez systemy AI
Więcej o całościowym podejściu do zgodności z rozporządzeniem w kontekście polskiego rynku znajdą Państwo w przewodniku AI Act w Polsce.
Podsumowanie: nie czekaj na kontrolę
Artykuł 4 AI Act to nie abstrakcyjny wymóg regulacyjny — to konkretny obowiązek prawny, który obowiązuje od ponad roku. Firmy, które jeszcze nie wdrożyły programu kompetencji AI, narażają się na kary sięgające 15 milionów euro i reputacyjne konsekwencje kontroli.
Dobra wiadomość: zgodność z Artykułem 4 jest osiągalna. Wymaga systematycznego podejścia, ale nie wymaga rewolucji organizacyjnej. Kluczem jest rozpoczęcie od audytu, wdrożenie dostosowanego programu szkoleniowego i udokumentowanie każdego kroku.
Brain wspiera polskie firmy w osiąganiu zgodności z Artykułem 4 AI Act: adaptacyjne moduły szkoleniowe dostosowane do stanowiska i poziomu kompetencji, automatyczna dokumentacja postępów oraz wsparcie w budowaniu polityki AI. Od audytu do pełnej zgodności — szybko i bez zbędnej biurokracji.