Dostawca (provider)
Tworzy lub zleca stworzenie systemu AI i wprowadza go na rynek pod własną marką.
Najszerszy zakres obowiązków i dokumentacji.
Pomagamy wdrażać AI zgodnie z prawem, tak aby chronić biznes, zarząd i tempo rozwoju produktów.
AI Act działa eksterytorialnie: jeśli system AI działa na rynku UE albo jego wyniki są wykorzystywane w UE, regulacja może mieć zastosowanie niezależnie od kraju siedziby podmiotu.
Tworzy lub zleca stworzenie systemu AI i wprowadza go na rynek pod własną marką.
Najszerszy zakres obowiązków i dokumentacji.
Używa systemu AI w działalności zawodowej i odpowiada za sposób operacyjnego wykorzystania.
Kluczowe: nadzór ludzki, monitoring, ocena wpływu na prawa podstawowe (FRIA) w wymaganych przypadkach.
Wprowadza do UE systemy AI spoza Unii albo dalej je dystrybuuje.
Wymaga kontroli łańcucha dostaw i dokumentacji producenta.
Dostosowuje model AI do konkretnego zastosowania biznesowego.
W praktyce może przejąć status dostawcy nowego systemu.
Jeśli Twój system AI profiluje osoby fizyczne i mieści się w załączniku III — jest automatycznie high-risk. Nie można skorzystać z wyjątku z art. 6 ust. 3, który łagodzi obowiązki dla innych systemów.
Praktyki niedopuszczalne (np. punktowanie obywateli, manipulacja podprogowa, część zastosowań biometrii).
Konsekwencja: natychmiastowe wycofanie i najwyższe kary finansowe.
Systemy wpływające na prawa podstawowe, bezpieczeństwo lub istotne decyzje o osobach.
Konsekwencja: pełny pakiet wymogów z art. 8-17 i ocena zgodności.
Chatboty, deepfake, systemy generatywne i inne obszary transparentności.
Konsekwencja: obowiązki informacyjne i oznaczanie treści AI.
Brak dedykowanych obowiązków sektorowych poza kompetencjami AI i dobrymi praktykami zarządzania.
Konsekwencja: podstawowe zasady kontroli i szkolenia użytkowników.
Stan prawny/materiał: 19 lutego 2026 r.
Klasyfikacja decyduje o budżecie, tempie wdrożenia i poziomie odpowiedzialności organizacji. Największy koszt to błędna kwalifikacja systemu.
Wykrywamy praktyki, które trzeba wyłączyć z użycia, aby nie wejść w obszar bezpośredniego naruszenia art. 5.
Mapujemy system do wymogów art. 8-17: ocena zgodności, logowanie, nadzór ludzki i kontrola jakości.
Projektujemy transparentność dla chatbotów, treści syntetycznych i interfejsów, które oddziałują na użytkownika.
Budujemy lekki model zarządzania: rejestr AI, zasady użycia i mechanizm zgłaszania incydentów oraz nieautoryzowanego korzystania z AI.
Użytkownik musi wiedzieć, że komunikuje się z AI.
Treści wymagają czytelnego oznaczenia i zasad publikacji.
Dla treści generowanych przez AI przygotowujemy techniczne i operacyjne standardy oznaczania.
Pracujemy w 10 etapach. Każdy kończy się dokumentem, który można pokazać regulatorowi, audytorowi i zarządowi.
Sprawdzamy, czy organizacja podlega AI Act i w jakiej roli — robimy inwentaryzację systemów AI, kwalifikujemy zastosowania i przypisujemy role regulacyjne.
Powstają rejestr systemów AI i karta kwalifikacyjna organizacji.
Określamy poziom ryzyka każdego systemu AI i eliminujemy praktyki zakazane — analizujemy załącznik III, weryfikujemy art. 5, kwalifikujemy profilowanie i mapujemy obowiązki przejrzystości.
Powstają opinia klasyfikacyjna, matryca kategorii ryzyka i raport statusu GPAI.
Budujemy zgodność systemów wysokiego ryzyka — wdrażamy zarządzanie ryzykiem, nadzór nad danymi, dokumentację techniczną, nadzór ludzki, cyberbezpieczeństwo i ocenę zgodności.
Powstają pakiet zgodności high-risk i ścieżka deklaracji UE.
Wdrażamy obowiązki dla modeli ogólnego przeznaczenia (GPAI) i ich integratorów: dokumentację wg załączników XI/XII, politykę praw autorskich, podsumowanie danych treningowych, a przy ryzyku systemowym także ewaluacje i raportowanie incydentów.
Powstaje pakiet zgodności GPAI.
Wdrażamy wymagane komunikaty dla użytkowników i odbiorców treści AI — projektujemy informacje dla chatbotów i deepfake, standard znakowania treści AI oraz procedury publikacji.
Powstają pakiet komunikatów przejrzystości i specyfikacja znakowania treści.
Ustawiamy odpowiedzialność wewnętrzną i model zarządzania AI — powołujemy osobę lub komitet ds. AI, piszemy polityki użycia i zakupów, weryfikujemy dostawców, a tam gdzie wymaga tego prawo, przygotowujemy ocenę wpływu na prawa podstawowe (FRIA).
Powstają model zarządzania AI i raport oceny wpływu (FRIA).
Łączymy AI Act z istniejącymi obowiązkami sektorowymi i cyberbezpieczeństwa — spinamy go z RODO, DORA, NIS2, MiCA/PSD2/AML oraz CRA/DSA i porządkujemy jedną listę zadań zgodności.
Powstają matryca regulacyjna i plan utrzymania zgodności.
Budujemy kompetencje zespołów zgodnie z art. 4 AI Act — przygotowujemy matrycę szkoleń dla zarządu, działu zgodności, zespołu technicznego, HR, sprzedaży i całej organizacji.
Powstają program kompetencji AI, rejestr szkoleń i certyfikaty.
Utrzymujemy zgodność po uruchomieniu systemu w produkcji — prowadzimy stały monitoring, procedurę zgłaszania incydentów, kwartalne raporty i ocenę wpływu zmian.
Powstają plan monitoringu po wdrożeniu i procedura zgłaszania incydentów.
Przechodzimy od listy obowiązków do trwałej przewagi w sprzedaży i weryfikacji partnerów — przygotowujemy gotowość do kontroli, plan audytu, wsparcie certyfikacyjne i materiały budujące zaufanie do AI.
Powstają roczny raport audytowy AI i pakiet dowodów zgodności.
W planowaniu budżetu i priorytetów liczą się konkretne daty. Poniżej punkty, które najczęściej determinują kolejność projektu wdrożeniowego.
Start zakazu praktyk niedopuszczalnych (art. 5) oraz obowiązku AI literacy (art. 4).
Wejście obowiązków dla dostawców GPAI i uruchomienie mechanizmów nadzorczych.
Kluczowy termin: szeroki zakres obowiązków dla systemów high-risk i przejrzystości oraz pełne egzekwowanie przepisów.
Dalsze obowiązki dla systemów high-risk z załącznika I i domknięcie przepisów przejściowych dla modeli ogólnego przeznaczenia (GPAI).
Ostateczny termin dla wybranych wielkoskalowych systemów AI z załącznika X.
Stan prawny/materiał: 19 lutego 2026 r.
Jedno spójne wdrożenie łączące kilka regulacji jest tańsze i bezpieczniejsze niż prowadzenie osobnych projektów zgodności.
Łączymy ocenę ryzyka AI z oceną skutków dla ochrony danych (DPIA), profilowaniem i art. 22 RODO, aby uniknąć sprzeczności między ochroną prywatności a zarządzaniem AI.
Wpinamy systemy AI do zarządzania ryzykiem IT, testów odporności i planów ciągłości operacyjnej.
Synchronizujemy cyberbezpieczeństwo, zarządzanie łańcuchem dostaw oraz raportowanie incydentów.
Dla fintechów klasyfikujemy AI w procesach oceny ryzyka klienta, przeciwdziałania praniu pieniędzy (AML/KYC) i wykrywania oszustw jako potencjalnie high-risk.
Porządkujemy wymagania cyber produktu i transparentności algorytmów w kanałach platformowych.
Skuteczne wdrożenie AI Act wymaga stałej struktury decyzyjnej, polityk operacyjnych i planu szkoleń dla całej organizacji.
Jeśli masz już polityki — dopinamy je do jednego modelu operacyjnego i porządkujemy dokumentację pod kontrolę regulatora.
Umów kwalifikację projektuPodczas pierwszej rozmowy ustalimy, na jakim etapie jesteś: diagnoza, wdrożenie dla systemów wysokiego ryzyka czy utrzymanie zgodności po uruchomieniu.
Napisz, czy potrzebujesz diagnozy AI Act, projektu wdrożenia dla systemów wysokiego ryzyka, czy modelu monitoringu i audytu rocznego.