Lista kontrolna zgodności AI Act według roli: IOD, HR, CIO, Zarząd

Interaktywna lista kontrolna zgodności z AI Act według Twojej roli w organizacji. IOD, Dyrektor HR, CIO, Zarząd i szefowie MŚP.

Zgodność z AI Act to wysiłek zbiorowy

Najczęstszy błąd wobec AI Act: przekonanie, że jeden dział może ponieść ciężar zgodności. IOD nie może zrobić wszystkiego sam. CIO również nie. Zgodność z AI Act wymaga kompetencji prawnych, technicznych, HR-owych i strategicznych — może się powieść tylko wtedy, gdy każda funkcja przyjmie swoje konkretne obowiązki.

Ten rozdział proponuje interaktywną listę kontrolną według roli, aby precyzyjnie zidentyfikować, co Cię dotyczy i śledzić swój postęp.

Kto za co odpowiada w zgodności z AI Act

IOD: kartograf i strażnik zgodności

IOD (lub osoba odpowiedzialna za zgodność) odgrywa centralną rolę. Musi zinwentaryzować wszystkie systemy AI, sklasyfikować je według poziomów ryzyka określonych w rozporządzeniu i upewnić się, że zakazane praktyki nie są stosowane w organizacji. Praca ta uzupełnia istniejące obowiązki wynikające z RODO w zakresie ochrony danych osobowych.

Jest również łącznikiem między zarządem, CIO i dyrektorem HR: to on koordynuje wysiłki i przygotowuje dowody na wypadek ewentualnego audytu.

Artykuł 26, ustęp 5Règlement (UE) 2024/1689

Podmioty wdrażające systemy AI wysokiego ryzyka monitorują funkcjonowanie systemu AI wysokiego ryzyka na podstawie instrukcji użytkowania i […] informują dostawcę lub dystrybutora oraz właściwy organ nadzoru rynku.

Dyrektor HR: filar rozwoju kompetencji

Artykuł 4 umieszcza szkolenie w zakresie AI w centrum zgodności. Dyrektor HR jest najlepiej predysponowany do wdrożenia programu rozwoju kompetencji dostosowanego do każdego profilu pracownika.

Nie chodzi tylko o zorganizowanie webinaru. Trzeba móc udokumentować ścieżkę szkoleniową, zmierzyć nabyte umiejętności i przedstawić dowody, że poziom kompetencji AI jest proporcjonalny do roli każdej osoby.

📄AI Act Artykuł 4: obowiązek szkolenia w zakresie AI

CIO: czujność techniczna i identyfikowalność

CIO odpowiada za zmapowanie wszystkich wdrożonych systemów AI — w tym tych przyjętych przez działy biznesowe bez zatwierdzenia (shadow AI). Dla każdego systemu sklasyfikowanego jako wysokie ryzyko musi wdrożyć dokumentację techniczną, zagwarantować identyfikowalność decyzji algorytmicznych i zintegrować wymagane mechanizmy nadzoru człowieka.

Najczęstsze wyzwanie: narzędzia AI wbudowane w oprogramowanie firm trzecich (CRM, ERP, narzędzia biurowe). CIO musi zidentyfikować te “niewidoczne” komponenty AI i zweryfikować ich poziom ryzyka.

📄Shadow IT w firmie: ryzyka i rozwiązania w 2026

Zarząd: wizja strategiczna i alokacja zasobów

Zarząd musi zatwierdzić strategię zgodności, przydzielić budżety (zwłaszcza na szkolenia z Artykułu 4) i wyznaczyć osobę odpowiedzialną za AI Act. Monitoruje postępy za pomocą dashboardu zgodności i przewiduje terminy regulacyjne, aby uniknąć niespodzianek.

Główne ryzyko dla zarządu: niedoszacowanie budżetowe. Zgodność z AI Act ma swój koszt — ale jest on znacznie niższy niż potencjalne sankcje (do 35 milionów euro lub 7% światowego obrotu).

Szef MŚP: pragmatyzm i priorytetyzacja

MŚP nie są zwolnione z AI Act. Ale podejście musi być proporcjonalne: zidentyfikować, czy firma korzysta z systemów AI (nawet pośrednio przez oprogramowanie firm trzecich), przeszkolić zespoły w zakresie dobrych praktyk, zweryfikować zgodność dostawców i udokumentować zastosowania. Polskie firmy współpracujące z instytucjami publicznymi takimi jak ZUS (Zakład Ubezpieczeń Społecznych) czy Krajowa Administracja Skarbowa — które same wdrażają systemy AI — powinny mieć świadomość, że mogą podlegać obowiązkom jako podmioty wdrażające.

Dla MŚP absolutnym priorytetem jest Artykuł 4: udokumentowany program szkoleniowy, nawet prosty, wystarczy, aby wykazać dobrą wolę organizacji.

Twoja interaktywna lista kontrolna

Wybierz swoją rolę i zaznacz już wykonane działania. Twój postęp jest zapisywany lokalnie w przeglądarce — możesz do niego wrócić w dowolnym momencie.

Selectionnez votre role :

0 / 7 actions0 %

Jak koordynować wysiłki

Lista kontrolna według roli jest przydatna do wyjaśnienia indywidualnych obowiązków. Ale zgodność z AI Act wymaga aktywnej koordynacji między funkcjami. Oto kluczowe mechanizmy.

1. Utworzyć międzyfunkcyjny komitet AI Act

Zbierz IOD, dyrektora HR, CIO i członka zarządu w dedykowanym komitecie spotykającym się co miesiąc. Cel: dzielenie się postępami, usuwanie blokad i arbitraż priorytetów. Bez tego komitetu każda funkcja działa w izolacji, a martwe punkty się mnożą.

2. Scentralizować inwentaryzację systemów AI

IOD koordynuje, CIO dostarcza mapę techniczną, dyrektor HR identyfikuje zastosowania biznesowe. Inwentaryzacja powinna być jednolita, współdzielona i regularnie aktualizowana. Arkusz Excel może wystarczyć na początek — ważne, aby istniał i był kompletny.

3. Dopasować szkolenia do klasyfikacji ryzyk

Program szkoleniowy prowadzony przez dyrektora HR powinien być skalibrowany w oparciu o klasyfikację ryzyk ustaloną przez IOD. Pracownicy korzystający z systemów wysokiego ryzyka potrzebują głębszego szkolenia niż ci, którzy korzystają z prostego asystenta konwersacyjnego.

4. Przygotować dowody audytowe już teraz

Nie czekaj na kontrolę, aby skompletować dokumentację. Każde działanie w zakresie zgodności powinno być udokumentowane z datą, odpowiedzialnym i produktem. Ciężar dowodu spoczywa na organizacji: to Ty musisz wykazać, że działałeś.

📄Zarządzanie AI w firmie: 5 kroków do uporządkowania

Wyzwanie identyfikowalności

AI Act nie wymaga doskonałości — wymaga dowodu wysiłku. Udokumentowany program szkoleniowy, aktualna inwentaryzacja systemów AI, protokoły z komitetu zgodności: te elementy stanowią Twoją pierwszą linię obrony w przypadku kontroli. Całkowity brak dokumentacji jest natomiast stwierdzoną usterką.

📄Karta korzystania z AI: 8 kluczowych punktów