Powrót do bloga
Dobre praktyki17 min readMay 1, 2026

Klasyfikacja ryzyka według Aktu o Sztucznej Inteligencji: praktyczny przewodnik dla MŚP w UE na 2026 rok

By Anna Bergström

TL;DR

Akt o Sztucznej Inteligencji (Rozporządzenie (UE) 2024/1689) sortuje każdy system AI do jednego z czterech poziomów ryzyka — Niedopuszczalnego, Wysokiego, Ograniczonego oraz Minimalnego — a do tego nakłada równoległy reżim dla modeli AI ogólnego przeznaczenia (GPAI). Większość ciężaru regulacyjnego skupia się w poziomie Wysokiego ryzyka, gdzie dostawca odpowiada za około trzynaście merytorycznych obowiązków określonych w Artykułach 9–49. Poziom Ograniczonego ryzyka (obowiązki przejrzystości z Artykułu 50) obejmuje natomiast praktycznie każdy chatbot oraz każdy deepfake na rynku. Zakazy z Artykułu 5 są egzekwowalne od 2 lutego 2025 r. Błędna klasyfikacja kosztuje znacznie więcej niż prawidłowa: za zakazane praktyki grozi do 35 mln EUR lub 7 % światowego rocznego obrotu, za niezgodność z obowiązkami wysokiego ryzyka — do 15 mln EUR lub 3 %, a za podanie nieprawdziwych informacji organom — do 7,5 mln EUR lub 1,5 %.

Dla MŚP zadanie sprowadza się do rzeczy konkretnej: zinwentaryzować każdy przypadek użycia AI, przeprowadzić każdy z nich przez krótkie drzewo decyzyjne i przypisać obowiązki, zanim 2 sierpnia 2026 r. wejdzie w życie główna fala obowiązków. Poniższy przewodnik dostarcza drzewa decyzyjnego, opisuje typowe pułapki i przedstawia checklistę obowiązków na każdy poziom.

Dlaczego błędna klasyfikacja kosztuje więcej niż dobra zgodność

Artykuł 99 Aktu o AI ustanawia pułapy kar wyższe niż w RODO. Stosowanie zakazanych praktyk może skutkować administracyjną karą pieniężną w wysokości do 35 000 000 EUR lub 7 % całkowitego światowego rocznego obrotu, w zależności od tego, która z tych kwot jest wyższa. Niezgodność z obowiązkami wysokiego ryzyka oraz z Artykułem 5 znajduje się na poziomie 15 mln EUR lub 3 %. Podanie nieprawdziwych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom kosztuje do 7,5 mln EUR lub 1,5 %. MŚP oraz start-upy korzystają z częściowej ulgi przewidzianej w Artykule 99 ust. 6 — kary mogą być ustalane na poziomie niższej z dwóch wartości, a nie wyższej — ale ta ulga jedynie łagodzi pułap, nie eliminując go.

Pomijając same kwoty, większy koszt ma charakter strukturalny. Błędnie zaklasyfikowany system to zwykle system bez systemu zarządzania ryzykiem, bez reżimu zarządzania danymi, bez mechanizmów nadzoru ludzkiego oraz bez planu monitorowania po wprowadzeniu do obrotu. Gdy organ właściwy zażąda któregokolwiek z tych dokumentów na podstawie Artykułu 21, brak nie jest problemem papierowym — to miesiące prac naprawczych prowadzonych pod presją organu nadzoru. Dostosowanie wdrożonego już systemu do wymogów zgodności dla wysokiego ryzyka trwa zwykle od trzech do sześciu miesięcy i kosztuje od dwóch do czterech razy więcej niż klasyfikacja przeprowadzona w odpowiednim momencie.

Szkody wizerunkowe potęgują karę finansową. Organ nadzoru rynku może na podstawie Artykułu 79 nakazać działania korygujące, w tym wycofanie systemu z rynku UE. Dla dostawcy B2B, którego umowy zawierają gwarancje zgodności, jedna decyzja o wycofaniu może podważyć przychody z całej bazy klientów. Przyporządkowanie do właściwego poziomu już na etapie projektowania systemu sprawia, że tych scenariuszy w ogóle nie da się osiągnąć.

Cztery oficjalne poziomy ryzyka

Poziomy określone w Akcie o AI są celowo asymetryczne. Zdecydowana większość systemów AI obecnych na rynku UE plasuje się na poziomie Minimalnym i nie wiąże się z żadnymi obowiązkami. Niewielka, ale handlowo istotna grupa wpada do poziomu Ograniczonego i pociąga za sobą obowiązki informacyjne. Poziom Wysokiego ryzyka jest wąski, lecz mocno obciążający operacyjnie. Niedopuszczalne ryzyko stanowi twardy próg — takich systemów nie wolno w ogóle wprowadzać na rynek UE. Cała sztuka polega na rozumieniu granic między poziomami.

Niedopuszczalne ryzyko (Artykuł 5)

Zakazy z Artykułu 5 są egzekwowalne od 2 lutego 2025 r. To nie jest deklaracja intencji: system, który mieści się w którejkolwiek z poniższych kategorii, nie może być wprowadzany do obrotu, oddawany do użytku ani używany w UE. Lista w wersji uchwalonej obejmuje osiem rodzin praktyk.

  • Artykuł 5 ust. 1 lit. a): techniki podprogowe, manipulacyjne lub wprowadzające w błąd, które istotnie zniekształcają zachowanie i powodują znaczną szkodę.
  • Artykuł 5 ust. 1 lit. b): wykorzystanie podatności określonych grup (z uwagi na wiek, niepełnosprawność, sytuację społeczno-ekonomiczną) do istotnego zniekształcenia zachowania i wyrządzenia znacznej szkody.
  • Artykuł 5 ust. 1 lit. c): scoring społeczny prowadzony przez organy publiczne lub w ich imieniu, prowadzący do niekorzystnego traktowania w niezwiązanym kontekście albo do traktowania nieuzasadnionego lub nieproporcjonalnego.
  • Artykuł 5 ust. 1 lit. d): predykcyjne działania policyjne oparte wyłącznie na profilowaniu lub ocenie cech osobowości w celu przewidywania popełnienia przestępstwa.
  • Artykuł 5 ust. 1 lit. e): nieukierunkowane scrapowanie wizerunków twarzy z internetu lub nagrań CCTV w celu tworzenia lub rozszerzania baz danych do rozpoznawania twarzy.
  • Artykuł 5 ust. 1 lit. f): rozpoznawanie emocji w miejscu pracy oraz w placówkach edukacyjnych, z wyjątkiem celów bezpieczeństwa i medycznych.
  • Artykuł 5 ust. 1 lit. g): kategoryzacja biometryczna wnioskująca o rasie, poglądach politycznych, przynależności do związku zawodowego, przekonaniach religijnych lub światopoglądowych, życiu seksualnym lub orientacji seksualnej.
  • Artykuł 5 ust. 1 lit. h): zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, z wąskim zestawem wyjątków objętych uprzednim zezwoleniem sądu.

MŚP rzadziej trafiają na zakazy z Artykułu 5, niż się tego obawiają, ale punkty styku są realne. Funkcje rozpoznawania emocji wbudowane w platformy customer experience, panele sentymentu w analityce HR oraz biometryczne systemy rejestracji czasu pracy wnioskujące o atrybutach demograficznych — wszystkie te przypadki stanowią aktywne ekspozycje. Jeśli któryś z bieżących lub planowanych przypadków użycia mieści się w Artykule 5, jedyną zgodną odpowiedzią jest przeprojektowanie albo wycofanie się z tego użycia.

Wysokie ryzyko (Artykuł 6 i Załącznik III)

Do poziomu Wysokiego ryzyka prowadzą dwie drogi. Pierwsza wynika z Artykułu 6 ust. 1: system jest wysokiego ryzyka, gdy sam stanowi produkt lub jest związanym z bezpieczeństwem komponentem produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w Załączniku II i podlegającym ocenie zgodności przez stronę trzecią. Ta droga obejmuje wyroby medyczne na podstawie Rozporządzenia (UE) 2017/745, maszyny na podstawie Rozporządzenia (UE) 2023/1230, wyroby medyczne do diagnostyki in vitro, dźwigi, zabawki i kilka innych kategorii. MŚP dostarczające komponenty programowe do regulowanego sprzętu prawie zawsze trafiają tutaj.

Druga droga, określona w Artykule 6 ust. 2, jest tą, z którą najczęściej spotykają się MŚP: każdy system wymieniony w Załączniku III jest domyślnie systemem wysokiego ryzyka. Załącznik III definiuje osiem kategorii.

  • Biometria: zdalna identyfikacja biometryczna, kategoryzacja biometryczna według atrybutów wrażliwych (jeżeli nie jest zakazana) oraz systemy rozpoznawania emocji poza miejscem pracy i kontekstem edukacyjnym.
  • Infrastruktura krytyczna: komponenty bezpieczeństwa w zarządzaniu i eksploatacji krytycznej infrastruktury cyfrowej, ruchu drogowego oraz dostarczania wody, gazu, ogrzewania i energii elektrycznej.
  • Edukacja i szkolenie zawodowe: decyzje o przyjęciu, ocenianie efektów uczenia się, rozdział pomiędzy placówkami oraz wykrywanie zachowań niedozwolonych w trakcie egzaminów.
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia: rekrutacja i selekcja (analiza CV, ocena kandydatów), decyzje wpływające na warunki zatrudnienia, awans, zwolnienie, przydział zadań oparty na zachowaniu lub cechach osobowych oraz monitoring wydajności i zachowania.
  • Dostęp do podstawowych usług prywatnych i publicznych: kwalifikacja do świadczeń publicznych, ocena zdolności kredytowej (z wąskim wyjątkiem dla wykrywania oszustw), ustalanie stawek ubezpieczeń na życie i zdrowotnych oraz dysponowanie służbami ratunkowymi.
  • Ściganie przestępstw: profilowanie, badania wariograficzne, ocena wiarygodności dowodów oraz przewidywanie recydywy osób fizycznych.
  • Migracja, azyl i kontrola granic: badania wariograficzne, ocena ryzyka osób fizycznych, rozpatrywanie wniosków azylowych i wizowych oraz identyfikacja w kontekście kontroli granicznej.
  • Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne: pomoc organom sądowym w badaniu i wykładni faktów oraz prawa, a także wpływanie na wynik wyborów lub zachowania wyborcze (z wyłączeniem rezultatów, na które osoby fizyczne nie są bezpośrednio narażone).

Artykuł 6 ust. 3 wprowadza odstępstwo: system wymieniony w Załączniku III nie jest uznawany za system wysokiego ryzyka, jeżeli nie stwarza znacznego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych, w tym przez to, że nie wpływa istotnie na wynik decyzji. Cztery warunki w Artykule 6 ust. 3 opisują, kiedy odstępstwo to znajduje zastosowanie — wąskie zadania proceduralne, ulepszanie wyniku wcześniej zakończonej działalności człowieka, wykrywanie wzorców decyzyjnych bez zastępowania oceny człowieka, lub zadania przygotowawcze. Profilowanie osób fizycznych zawsze jest istotnym wpływem i nigdy nie kwalifikuje się do odstępstwa. MŚP, które chcą skorzystać z tego odstępstwa, muszą udokumentować swoje rozumowanie i zarejestrować ocenę w bazie danych UE na podstawie Artykułu 49.

Większość obowiązków wysokiego ryzyka stosuje się od 2 sierpnia 2026 r. Wąska gałąź dotycząca wysokiego ryzyka związanego z bezpieczeństwem produktów wymienionym w Załączniku II wchodzi w życie 2 sierpnia 2027 r.

Praktyczna uwaga o ocenie zgodności z Artykułu 43: większość systemów wysokiego ryzyka z Załącznika III podlega procedurze opartej na kontroli wewnętrznej z Załącznika VI. Dostawca sam ocenia zgodność, sporządza unijną deklarację zgodności na podstawie Artykułu 47 i umieszcza oznakowanie CE. Nie uczestniczy w tym żadna jednostka notyfikowana. Wyjątkami są systemy biometryczne objęte Załącznikiem III pkt 1, które wymagają udziału jednostki notyfikowanej zgodnie z Załącznikiem VII, a także każdy system wysokiego ryzyka objęty równocześnie unijnym prawodawstwem harmonizacyjnym z Załącznika II, gdzie ocena zgodności jest zintegrowana z istniejącą procedurą sektorową (wyroby medyczne, maszyny i tak dalej). Dla MŚP, których jedyna ekspozycja na wysokie ryzyko mieści się w niebiometrycznej części Załącznika III, jest to istotna ulga: ścieżka prowadzi przez wewnętrzną dokumentację i rejestrację w bazie UE, a nie przez zewnętrzną jednostkę audytową i opłatę notyfikacyjną.

Ograniczone ryzyko (Artykuł 50)

Poziom Ograniczonego ryzyka jest reżimem przejrzystości, a nie reżimem oceny zgodności. Nie ma jednostki notyfikowanej, nie ma oznakowania CE, nie ma rejestracji w bazie UE. Są cztery obowiązki.

  • Artykuł 50 ust. 1: dostawcy systemów AI przeznaczonych do bezpośredniej interakcji z osobami fizycznymi mają obowiązek zaprojektować i tworzyć je w taki sposób, aby zainteresowane osoby były informowane, że mają do czynienia z systemem AI, chyba że jest to oczywiste dla osoby rozsądnie poinformowanej.
  • Artykuł 50 ust. 2: dostawcy systemów AI generujących treści dźwiękowe, graficzne, wideo lub tekstowe muszą oznaczyć generowane wyniki w formacie nadającym się do odczytu maszynowego oraz zapewnić, by były one wykrywalne jako treści sztucznie wygenerowane lub zmanipulowane, przy użyciu rozwiązań technicznych skutecznych, interoperacyjnych, niezawodnych i odpornych.
  • Artykuł 50 ust. 3: podmioty stosujące system rozpoznawania emocji lub system kategoryzacji biometrycznej (jeżeli nie jest zakazany) mają obowiązek poinformować osoby fizyczne, na które systemy te są skierowane.
  • Artykuł 50 ust. 4: podmioty stosujące system AI generujący lub manipulujący obrazem, dźwiękiem albo treścią wideo stanowiącą deepfake mają obowiązek ujawnić, że treść została sztucznie wygenerowana lub zmanipulowana. W przypadku gdy treść stanowi część w sposób oczywisty artystycznego, twórczego, satyrycznego lub fikcyjnego dzieła, obowiązek informacyjny jest złagodzony. Podmioty stosujące system AI generujący treści tekstowe publikowane w celu informowania społeczeństwa o sprawach interesu publicznego są zobowiązane ujawnić, że tekst został sztucznie wygenerowany lub zmanipulowany, chyba że doszło do redakcyjnej weryfikacji przez człowieka, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną.

Obowiązki przejrzystości dla poziomu Ograniczonego ryzyka stosują się od 2 sierpnia 2026 r. Bezwzględny ciężar wdrożeniowy jest niewielki — baner, znak wodny, etykieta „asystent AI” — ale zakres jest szeroki, a większość chatbotów MŚP i wewnętrznych procesów generowania treści mieści się w tym reżimie.

Minimalne ryzyko

Wszystko, co nie jest Niedopuszczalne, Wysokie ani Ograniczone, plasuje się w poziomie Minimalnego ryzyka. Filtry antyspamowe, AI w grach komputerowych, prognozowanie zapasów oparte na AI, silniki rekomendacji w sklepach internetowych oraz większość wewnętrznych asystentów produktywności — wszystkie znajdują się tutaj. Akt o AI nie nakłada na systemy z poziomu Minimalnego ryzyka żadnych obowiązków obligatoryjnych. Artykuł 95 zachęca dostawców i podmioty stosujące do dobrowolnego stosowania obowiązków z Artykułu 50 oraz do przyjmowania kodeksów postępowania — co jest użyteczne dla budowania zaufania klientów, ale nie jest wymagane prawem. Liczba systemów w tej kategorii znacznie przewyższa pozostałe, a właściwą postawą operacyjną jest udokumentowana ocena, która klasyfikuje system jako Minimalny, oraz okresowy przegląd uruchamiany przy zmianie funkcjonalności.

Piąty filar: modele AI ogólnego przeznaczenia (GPAI)

Artykuły 51–55 dodają równoległy reżim dla modeli AI ogólnego przeznaczenia (GPAI) — dużych modeli językowych, generatorów obrazów, wielomodalnych modeli podstawowych i podobnych systemów. Reżim GPAI istnieje obok systemu czterech poziomów, a nie wewnątrz niego: wdrożony przypadek użycia AI niesie zarówno obowiązki właściwe dla swojego poziomu, jak i wszelkie obowiązki GPAI nałożone na dostawców modeli wcześniej w łańcuchu wartości. Obowiązki GPAI weszły w życie 2 sierpnia 2025 r.

Reżim GPAI ma dwa poziomy. Standardowi dostawcy GPAI — każdy, kto wprowadza model AI ogólnego przeznaczenia na rynek UE — mają obowiązek na podstawie Artykułu 53 sporządzić i aktualizować dokumentację techniczną obejmującą proces trenowania i testowania oraz wyniki ewaluacji; udostępnić informacje i dokumentację dostawcom dalszego ogniwa łańcucha, którzy włączają model do swoich systemów AI; wprowadzić politykę zgodności z unijnym prawem autorskim, w szczególności w celu identyfikacji i poszanowania zastrzeżeń wobec eksploracji tekstów i danych na podstawie Artykułu 4 ust. 3 Dyrektywy (UE) 2019/790; oraz opublikować wystarczająco szczegółowe podsumowanie treści wykorzystanych do trenowania, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.

Dostawcy GPAI, których modele zostają wskazane jako stwarzające ryzyko systemowe — Artykuł 51 wskazuje to, gdy łączny zasób obliczeniowy treningu przekracza 10^25 operacji zmiennoprzecinkowych albo gdy Komisja Europejska wskaże model na podstawie równoważnych zdolności — podlegają dodatkowym obowiązkom z Artykułu 55: ewaluacji modelu obejmującej testy adwersaryjne, identyfikacji i ograniczaniu ryzyk systemowych na poziomie unijnym, śledzeniu i zgłaszaniu poważnych incydentów oraz możliwych środków naprawczych do Urzędu ds. AI i właściwych organów bez zbędnej zwłoki, a także zapewnieniu odpowiedniego poziomu cyberbezpieczeństwa modelu i jego infrastruktury fizycznej.

Praktyczny wniosek dla MŚP brzmi tak: w prawie każdym przypadku Państwa firma jest podmiotem stosującym GPAI, a nie dostawcą. Gdy osadzają Państwo GPT-4o, Claude, Gemini, Mistral Large lub Llama w swoim produkcie, obowiązki GPAI ciążą na dostawcy modelu. Państwa obowiązki dotyczą przypadku użycia, który Państwo budują na tym modelu — jego poziomu ryzyka według Artykułów 5/6/50 — oraz tych obowiązków po stronie podmiotu stosującego, które dostawca przekazuje Państwu na mocy Artykułu 53 ust. 1 lit. b). Istotny wyjątek znajduje się w Artykule 25: jeżeli dokonują Państwo istotnej modyfikacji GPAI lub wprowadzają system AI wysokiego ryzyka na rynek pod własną nazwą lub znakiem towarowym, stają się Państwo dostawcą w rozumieniu Aktu o AI i przejmują odpowiadające obowiązki.

Z bycia podmiotem stosującym GPAI wynikają dwie konsekwencje operacyjne. Po pierwsze, należy przeczytać i wdrożyć instrukcję obsługi dostarczoną przez dostawcę zgodnie z Artykułem 53 ust. 1 lit. b). Zwykle obejmuje ona ograniczenia dopuszczalnych przypadków użycia, wskazówki dotyczące akceptowalnych kategorii danych wejściowych oraz informacje o znanych ograniczeniach i trybach awarii. Ignorowanie tych instrukcji jest samo w sobie naruszeniem zgodności po Państwa stronie, nawet jeśli dostawca modelu wcześniej w łańcuchu wszystko zrobił prawidłowo. Po drugie, należy zachować dowody na to, że dostawca spełnia obowiązki z Artykułu 53 — opublikowane podsumowanie danych treningowych, fragmenty dokumentacji technicznej udostępnione dostawcom dalszego ogniwa, oświadczenie o polityce praw autorskich. Gdy organ właściwy zapyta, jak Państwa system AI obsługuje pochodzenie danych treningowych, odpowiedź „korzystamy z modelu zewnętrznego” nie wystarczy: trzeba wskazać dokumentację dostawcy i wykazać, że Państwa wdrożenie uwzględnia jego ograniczenia.

Drzewo decyzyjne: klasyfikacja przypadku użycia w 8 pytaniach

Każdy przypadek użycia AI z Państwa rejestru należy przeprowadzić przez poniższe osiem pytań w podanej kolejności. Pierwsza twierdząca odpowiedź ustala poziom. Należy odpowiedzi udokumentować — sam ślad audytowy stanowi element postawy zgodnościowej na mocy Artykułu 17.

Pytanie 1. Czy dany przypadek użycia odpowiada któremukolwiek z zakazów z Artykułu 5? Manipulacja podprogowa wyrządzająca szkodę; wykorzystanie podatności; scoring społeczny przez organy publiczne; predykcyjne działania policyjne oparte wyłącznie na profilowaniu; nieukierunkowane scrapowanie do celów rozpoznawania twarzy; rozpoznawanie emocji w pracy lub w edukacji (poza celami bezpieczeństwa lub medycznymi); kategoryzacja biometryczna według atrybutów wrażliwych; zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw. Jeśli tak — Niedopuszczalne. Stop. Systemu nie wolno wdrażać. Przeprojektowanie albo wycofanie.

Pytanie 2. Czy przypadek użycia został wymieniony w Załączniku III i nie kwalifikuje się do odstępstwa „braku znacznego ryzyka” z Artykułu 6 ust. 3? Kategorie z Załącznika III to biometria, infrastruktura krytyczna, edukacja, zatrudnienie, podstawowe usługi, ściganie przestępstw, migracja i kontrola granic oraz wymiar sprawiedliwości i procesy demokratyczne. Jeśli system znajduje się w jednym z tych obszarów i albo profiluje osoby fizyczne, albo istotnie wpływa na decyzje, odstępstwo nie ma zastosowania. Jeśli tak — Wysokie ryzyko. Należy przejść do zestawu obowiązków dla wysokiego ryzyka.

Pytanie 3. Czy AI stanowi związany z bezpieczeństwem komponent produktu objętego unijnym prawodawstwem harmonizacyjnym z Załącznika II, wymagającym oceny zgodności przez stronę trzecią? Wyroby medyczne, maszyny, wyroby do diagnostyki in vitro, dźwigi, zabawki, rekreacyjne jednostki pływające, lotnictwo cywilne, pojazdy silnikowe, sprzęt morski, pojazdy rolnicze i leśne. Jeśli tak — Wysokie ryzyko na podstawie Artykułu 6 ust. 1. Ocena zgodności jest zintegrowana z istniejącą oceną sektorową.

Pytanie 4. Czy firma jest dostawcą czy podmiotem stosującym? Dostawcą jest się wtedy, gdy rozwija się system AI i wprowadza go na rynek UE lub oddaje do użytku pod własną nazwą lub znakiem towarowym, a także w razie istotnej modyfikacji systemu wysokiego ryzyka już obecnego na rynku. Podmiotem stosującym jest się wtedy, gdy korzysta się z systemu AI na własną odpowiedzialność do działalności zawodowej. Większość MŚP to podmioty stosujące. Zestaw obowiązków znacząco się różni: dostawcy ponoszą ciężar oceny zgodności na podstawie Artykułu 43, podmioty stosujące — obowiązki po stronie użytkowania na podstawie Artykułu 26 (nadzór ludzki, monitorowanie, rejestrowanie, informowanie pracowników i osób fizycznych, na które system ma wpływ).

Pytanie 5. Czy system jest zbudowany na modelu AI ogólnego przeznaczenia — LLM, modelu wielomodalnym, generatorze obrazów? Obowiązki GPAI z Artykułów 51–55 ciążą na dostawcy modelu wcześniej w łańcuchu. Integrator dalszego ogniwa otrzymuje dokumentację techniczną i instrukcję obsługi na podstawie Artykułu 53 ust. 1 lit. b) i musi je właściwie wykorzystać. Sam przypadek użycia nadal wymaga własnej klasyfikacji poziomu na wierzchu.

Pytanie 6. Czy system bezpośrednio wchodzi w interakcję z osobami fizycznymi — chatbot, asystent głosowy, agent wirtualny, asystent w aplikacji? Jeśli tak — stosuje się obowiązek przejrzystości z Artykułu 50 ust. 1 dla poziomu Ograniczonego ryzyka. Osoby zainteresowane muszą zostać poinformowane, że mają do czynienia z systemem AI, chyba że ten fakt jest oczywisty w danym kontekście.

Pytanie 7. Czy system generuje lub manipuluje treścią tekstową, graficzną, dźwiękową lub wideo — media syntetyczne, materiały marketingowe wygenerowane przez AI, klonowanie głosu, deepfake wideo? Jeśli tak — Artykuł 50 ust. 2 wymaga oznaczenia wyników w formacie nadającym się do odczytu maszynowego jako sztucznie wygenerowanych, a Artykuł 50 ust. 4 wymaga ujawnienia użytkownikowi w przypadku deepfake oraz tekstów generowanych przez AI publikowanych w sprawach interesu publicznego. Obowiązek informacyjny jest złagodzony dla w sposób oczywisty artystycznych, twórczych, satyrycznych lub fikcyjnych dzieł oraz dla treści redagowanych przez człowieka.

Pytanie 8. Czy Państwa model został wytrenowany przy użyciu łącznych zasobów obliczeniowych przekraczających 10^25 operacji zmiennoprzecinkowych albo czy Komisja Europejska wskazała go jako stwarzający ryzyko systemowe? Praktycznie żadne MŚP nie odpowie tu twierdząco. Jeśli tak — GPAI z ryzykiem systemowym na podstawie Artykułu 55, z obowiązkiem ewaluacji modelu, ograniczania ryzyka, zgłaszania poważnych incydentów oraz cyberbezpieczeństwa, w uzupełnieniu do standardowych obowiązków GPAI.

Jeśli żadne z pytań 1, 2, 3, 6 lub 7 nie uruchomi się, przypadek użycia plasuje się w poziomie Minimalnego ryzyka i nie pociąga za sobą żadnych obowiązków obligatoryjnych poza prowadzeniem rejestru i okresowym przeglądem. Należy udokumentować negatywny wynik — Artykuł 4 (kompetencje w zakresie AI) oraz Artykuł 21 (współpraca z organami) nadal się stosują.

Częste błędy klasyfikacyjne

Z prac klasyfikacyjnych prowadzonych z klientami z sektora MŚP w całej Unii w roku 2025 oraz na początku 2026 powtarza się pięć błędów. Każdy z nich oddaje organizację o jeden krok regulacyjny od znacznie cięższego zestawu obowiązków, niż się jej wydaje, że nosi.

Pułapka 1: „Korzystamy tylko z ChatGPT, więc właściwie nie zajmujemy się AI”. To najczęstsze podejście i najbardziej kosztowne. Podpięcie GPT-4o do procesu wstępnej selekcji CV robi dwie rzeczy naraz: czyni dostawcę modelu dostawcą GPAI z obowiązkami Artykułu 53 wcześniej w łańcuchu, a Państwa firmę — podmiotem stosującym system zatrudnieniowy wysokiego ryzyka z Załącznika III, z pełnym zestawem obowiązków Artykułu 26, nawet jeśli nie napisali Państwo ani jednej linii kodu modelu. Podejście „my tylko korzystamy” łączy dwie odrębne analizy poziomów w jedno wprowadzające w błąd stwierdzenie. Trzeba je rozdzielić.

Pułapka 2: „To tylko użycie wewnętrzne, więc Akt o AI właściwie się nie stosuje”. Akt o AI reguluje systemy wprowadzane do obrotu lub oddawane do użytku w Unii. Wdrożenie wewnętrzne to „oddanie do użytku” na mocy Artykułu 3 pkt 11) i mieści się wprost w zakresie. Wewnętrzne narzędzie do wstępnej selekcji w HR wykorzystywane wyłącznie wobec własnych kandydatów jest w równym stopniu Wysokim ryzykiem co narzędzie sprzedawane innym pracodawcom. Podejście „tylko wewnętrzne” myli się także w odniesieniu do Artykułu 26: podmioty stosujące mają obowiązek poinformować osoby fizyczne, na które kierowany jest system wysokiego ryzyka w miejscu pracy, niezależnie od tego, czy system jest zewnętrznym SaaS, czy budową własną.

Pułapka 3: „Nie wytrenowaliśmy modelu, więc nie jesteśmy dostawcą”. Zwykle prawda, ale Artykuł 25 ma dwa warunki nadpisujące. Jeśli wprowadzają Państwo system AI wysokiego ryzyka na rynek pod własną nazwą lub znakiem towarowym, są Państwo dostawcą niezależnie od tego, kto zbudował model bazowy. Jeśli dokonują Państwo istotnej modyfikacji systemu AI wysokiego ryzyka już obecnego na rynku, stają się Państwo dostawcą zmodyfikowanego systemu. Dostrajanie modelu podstawowego na własnych danych ze znaczącą zmianą jego przeznaczenia jest częstą furtką do statusu dostawcy — i do pełnego ciężaru oceny zgodności na podstawie Artykułu 43.

Pułapka 4: „Nasz chatbot to Minimalne ryzyko”. Nie według Artykułu 50. Każdy system AI przeznaczony do bezpośredniej interakcji z osobami fizycznymi uruchamia obowiązek przejrzystości z poziomu Ograniczonego ryzyka. Ciężar wdrożenia jest niewielki — wyraźna informacja „rozmawiają Państwo z asystentem AI” — ale pominięcie tego, ponieważ system „wydaje się Minimalny”, tworzy łatwą do uniknięcia ekspozycję, gdy obowiązki zaczną być egzekwowane 2 sierpnia 2026 r.

Pułapka 5: „Skoro poziom AI Act obejmuje nasze decyzje zautomatyzowane, RODO Artykuł 22 jest załatwione”. Nie jest. Artykuł 22 RODO ustanawia prawo, by nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, która wywołuje skutki prawne lub w podobny sposób istotnie wpływa na osobę, z odrębnymi przesłankami zgody, niezbędności do umowy lub wyraźnej podstawy w prawie oraz prawem do uzyskania interwencji człowieka. Wymóg nadzoru ludzkiego z Artykułu 14 Aktu o AI oraz Artykuł 22 RODO mają wspólne motywy, ale nie są wymienne: Artykuł 14 jest wymogiem projektowym i wdrożeniowym po stronie dostawcy; Artykuł 22 jest prawem osoby, której dane dotyczą, wobec administratora. Wykonanie jednego nie zwalnia z drugiego. Dla każdego systemu podejmującego konsekwentne decyzje wobec dających się zidentyfikować osób fizycznych należy zmapować oba reżimy.

Szósta pułapka zasługuje na wzmiankę, ponieważ przemyka przez większość wewnętrznych przeglądów klasyfikacyjnych: założenie, że jeden poziom obowiązuje w całym produkcie. Poziomy w Akcie o AI są przypisane do przypadków użycia, a nie do dostawców czy platform. Ta sama platforma uczenia maszynowego może obsługiwać funkcję rekomendacyjną z poziomu Minimalnego, chatbot obsługi klienta z poziomu Ograniczonego oraz proces rekrutacyjny z poziomu Wysokiego — wszystko w obrębie jednego logicznego produktu. Każdy przypadek użycia trzeba traktować jako osobne zadanie klasyfikacyjne z własnym przejściem przez drzewo, własną dokumentacją i własnym rejestrem zadań naprawczych. Pojedyncza ocena na poziomie produktu w stylu „jesteśmy Ograniczonym ryzykiem” to prawie zawsze błędna klasyfikacja, która chowa jedną lub kilka funkcji wyższego poziomu pod wygodną etykietą.

Checklista zgodności na poziom

Po przyporządkowaniu przypadku użycia do poziomu obowiązki wynikają z tego mechanicznie. Poniższa checklista podsumowuje merytoryczne produkty pracy na każdy poziom. Można jej użyć do określenia zakresu rejestru zadań naprawczych po pracy inwentaryzacyjnej i przejściu przez drzewo decyzyjne.

Niedopuszczalne: zatrzymać i wycofać

Nie ma drogi do zgodności. Należy wycofać przypadek użycia, przeprojektować go w taki sposób, aby przestał mieścić się w Artykule 5, albo wycofać się z rynku UE w odniesieniu do tego przypadku. Decyzję trzeba udokumentować i zachować do celów audytowych.

Wysokie ryzyko: trzynastopunktowa baza zgodności

  • System zarządzania ryzykiem (Artykuł 9): udokumentowany, iteracyjny proces obejmujący cały cykl życia systemu, w zakresie identyfikacji, oceny i ograniczania przewidywalnych zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych.
  • Dane i zarządzanie danymi (Artykuł 10): zbiory danych treningowych, walidacyjnych i testowych są adekwatne, wystarczająco reprezentatywne i, w miarę możliwości, wolne od błędów, z udokumentowanymi środkami przeciwdziałania uprzedzeniom.
  • Dokumentacja techniczna (Artykuł 11 i Załącznik IV): sporządzona przed wprowadzeniem systemu na rynek, aktualizowana, dowodząca zgodności ze wszystkimi obowiązującymi wymogami.
  • Rejestrowanie zdarzeń (Artykuł 12): automatyczne rejestrowanie zdarzeń istotnych dla identyfikacji ryzyka oraz monitorowania po wprowadzeniu do obrotu, przechowywane przez odpowiedni okres.
  • Przejrzystość i przekazywanie informacji podmiotom stosującym (Artykuł 13): instrukcja obsługi zwięzła, kompletna, prawidłowa, jasna, istotna, dostępna i zrozumiała dla podmiotów stosujących.
  • Nadzór ludzki (Artykuł 14): rozwiązania projektowe umożliwiające osobom fizycznym nadzorowanie systemu, interwencję, zastąpienie wyników lub odłączenie w razie potrzeby.
  • Dokładność, odporność i cyberbezpieczeństwo (Artykuł 15): odpowiednie poziomy zadeklarowane w instrukcji obsługi, z odpornością na błędy, awarie i próby nieuprawnionego użycia.
  • System zarządzania jakością (Artykuł 17): udokumentowany, obejmujący strategię zgodności, kontrolę projektowania, zarządzanie danymi, monitorowanie po wprowadzeniu do obrotu, zgłaszanie incydentów, komunikację z organami i zarządzanie zasobami.
  • Ocena zgodności (Artykuł 43): oparta na kontroli wewnętrznej dla większości systemów z Załącznika III, ocena przez stronę trzecią dla produktów z Załącznika II oraz dla systemów biometrycznych objętych Załącznikiem III pkt 1.
  • Oznakowanie CE (Artykuł 48): umieszczone w sposób widoczny, czytelny i nieusuwalny, z numerem identyfikacyjnym jednostki notyfikowanej, jeżeli ma to zastosowanie.
  • Rejestracja w bazie UE (Artykuł 49): zarejestrowanie systemu w bazie danych UE dla systemów AI wysokiego ryzyka przed wprowadzeniem do obrotu lub oddaniem do użytku.
  • Monitorowanie po wprowadzeniu do obrotu (Artykuł 72): udokumentowany system zbierania i analizowania danych o działaniu systemu w całym jego cyklu życia.
  • Zgłaszanie poważnych incydentów (Artykuł 73): zgłoszenie każdego poważnego incydentu organowi nadzoru rynku odpowiedniego państwa członkowskiego, w terminach zależnych od typu incydentu (niezwłocznie w przypadku rozległego naruszenia praw podstawowych, 15 dni dla większości pozostałych).

Ograniczone ryzyko: wyłącznie przejrzystość

Wdrożyć obowiązki informacyjne z Artykułu 50: jasna informacja, że osoby fizyczne wchodzą w interakcję z systemem AI; oznaczenie syntetycznych wyników w formacie nadającym się do odczytu maszynowego; ujawnienie przez podmiot stosujący w przypadku deepfake i tekstów generowanych przez AI publikowanych w sprawach interesu publicznego; ujawnienie przez podmiot stosujący przy stosowaniu rozpoznawania emocji lub dopuszczonej kategoryzacji biometrycznej. Należy zaktualizować regulaminy i polityki prywatności, aby odzwierciedlały te ujawnienia, oraz zachować dokumentację wdrożenia technicznego.

Minimalne ryzyko: wyłącznie postawa stała

Należy udokumentować wynik klasyfikacji, zachować ocenę i przeglądać ją zawsze, gdy funkcjonalności systemu lub kontekst użycia istotnie się zmienią. Można fakultatywnie przyłączyć się do dobrowolnego kodeksu postępowania na podstawie Artykułu 95 dla celów sygnalizacji zaufania. Należy utrzymywać szkolenia z kompetencji w zakresie AI z Artykułu 4 dla pracowników, którzy obsługują system lub z niego korzystają.

Dostawcy GPAI (gdy Artykuł 25 czyni Państwa dostawcą)

Sporządzić i utrzymywać dokumentację techniczną z Artykułu 53; udostępnić informacje i instrukcje dostawcom dalszego ogniwa; wdrożyć politykę zgodności z unijnym prawem autorskim respektującą zastrzeżenia wobec eksploracji tekstów i danych; opublikować podsumowanie danych treningowych według wzoru Urzędu ds. AI. Jeżeli model przekroczy 10^25 operacji zmiennoprzecinkowych łącznych zasobów obliczeniowych albo zostanie wskazany na podstawie Artykułu 51, dodać obowiązki z Artykułu 55: ewaluację modelu, ograniczanie ryzyka systemowego, zgłaszanie poważnych incydentów oraz cyberbezpieczeństwo modelu i jego infrastruktury.

Harmonogram terminów zgodności

Sześć dat porządkuje kalendarz Aktu o AI. Względem nich należy skalibrować plan działań naprawczych.

  • 1 sierpnia 2024 r.: Akt o AI wszedł w życie.
  • 2 lutego 2025 r.: zakazy z Artykułu 5 są egzekwowalne. Obowiązki Artykułu 4 dotyczące kompetencji w zakresie AI stosują się do wszystkich dostawców i podmiotów stosujących — pracownicy zaangażowani w obsługę i korzystanie z systemów AI muszą mieć wystarczający poziom kompetencji w zakresie AI.
  • 2 sierpnia 2025 r.: obowiązki dostawców GPAI z Artykułów 51–55 są egzekwowalne. Stosują się przepisy o zarządzaniu i karach (Artykuły 99–101). Państwa członkowskie muszą wyznaczyć właściwe organy oraz organy notyfikujące.
  • 2 lutego 2026 r.: oczekiwane wytyczne i akty wykonawcze Komisji w sprawie praktycznego wdrożenia, w tym format dokumentacji technicznej oraz wzór podsumowania danych treningowych GPAI. Oczekiwane sfinalizowanie kodeksów praktyki, do których odnosi się Artykuł 56.
  • 2 sierpnia 2026 r.: stosuje się większość merytorycznych przepisów Aktu o AI — obowiązki dla wysokiego ryzyka z Załącznika III (Artykuły 8–22 oraz Artykuł 26 dla podmiotów stosujących), obowiązki przejrzystości z Artykułu 50, rejestracja w bazie UE. To data flagowa dla MŚP posiadających systemy wysokiego ryzyka inne niż produktowe oraz dla każdego MŚP prowadzącego chatboty skierowane do klientów, narzędzia deepfake lub generowanie treści przez AI.
  • 2 sierpnia 2027 r.: obowiązki dla wysokiego ryzyka z Artykułu 6 ust. 1 stosują się do systemów AI będących związanymi z bezpieczeństwem komponentami lub samodzielnymi produktami objętymi unijnym prawodawstwem harmonizacyjnym z Załącznika II i wymagającymi oceny zgodności przez stronę trzecią.

Co zrobić w tym kwartale

Plan 30/60/90 dni, skalibrowany dla MŚP, które nie mają jeszcze dojrzałej funkcji zarządzania AI.

Dni 1–30 — inwentaryzacja i start. Należy przeprowadzić sprint odkrywczy z udziałem produktu, inżynierii, HR, marketingu, obsługi klienta, finansów oraz operacji. Skatalogować każdy system AI w produkcji lub planowany na najbliższe dwanaście miesięcy: przypadek użycia, model bazowy, dane, osoby fizyczne, na które ma wpływ, kontekst decyzyjny. Celem jest kompletność, a nie głębia — jednostronicowy zapis na system w zupełności wystarczy na tym etapie. Należy powołać niewielki zespół zarządzania AI: sponsora z organu zarządzającego, lidera technicznego, lidera prawno-zgodnościowego oraz łącznika z IOD. Należy przyznać budżet na kolejne dwie fazy.

Dni 31–60 — klasyfikacja i ocena luk. Każdy wpis z rejestru przeprowadzić przez ośmiopytaniowe drzewo decyzyjne. Zapisać odpowiedzi i wynikający z nich poziom. Dla każdego systemu z poziomu Wysokiego ryzyka oraz Ograniczonego ryzyka przeprowadzić ocenę luk względem odpowiednich obowiązków. Dla każdego granicznego systemu z Załącznika III udokumentować rozumowanie z Artykułu 6 ust. 3 wprost — ogólnikowe uzasadnienia nie przejdą audytu. Zidentyfikować, które systemy uruchamiają obok obowiązków z Aktu o AI również Artykuł 22 RODO i przekazać je do wspólnej weryfikacji prawnej.

Dni 61–90 — uporządkowany plan działań naprawczych. Ocenę luk przekształcić w rejestr zadań naprawczych z właścicielami, produktami pracy i terminami, sekwencjonowany względem 2 sierpnia 2026 r. Z przodu umieścić prace przejrzystościowe z Artykułu 50 dla chatbotów i narzędzi treściowych — są one wolumenowe, niskonakładowe i pokazują postęp. Cięższe rezultaty z poziomu Wysokiego ryzyka (akta zarządzania ryzykiem, dokumentacja techniczna, monitorowanie po wprowadzeniu do obrotu) rozłożyć na pozostałe miesiące. Plan przedstawić organowi zarządzającemu do zatwierdzenia oraz wprowadzić stałą pozycję dotyczącą Aktu o AI do kwartalnego porządku obrad zarządu. Pierwszy audyt wewnętrzny zaplanować na pierwszy kwartał 2027 r.

Dwa konkretne przykłady czynią dyscyplinę namacalną. Po pierwsze — 50-osobowa warszawska firma HR-tech, która integruje GPT-4o na potrzeby preselekcji CV. Pytanie 1: nie zakazane. Pytanie 2: tak, rekrutacja pracownicza znajduje się w Załączniku III pkt 4 lit. a). Pytanie 3: nie jest produktem z Załącznika II. Zatem Wysokie ryzyko. Pytanie 4: firma wprowadza system na rynek UE pod własną marką — dostawca. Pytanie 5: zbudowany na modelu GPAI — OpenAI ponosi obowiązki z Artykułu 53 wcześniej w łańcuchu; firma otrzymuje dokumentację techniczną w ramach przekazania obowiązków. Wniosek: pełen zestaw obowiązków wysokiego ryzyka z Artykułów 9–49 plus obowiązki z Artykułu 26 przekazywane w dół do klientów. Data wejścia w życie obowiązków merytorycznych: 2 sierpnia 2026 r.

Po drugie — 20-osobowa krakowska spółka e-commerce wykorzystująca chatbot obsługi klienta zasilany Gemini do ogólnych pytań o produkty, bez zautomatyzowanych decyzji o prawach konsumentów ani o cenie. Pytanie 1: nie zakazane. Pytanie 2: nie znajduje się w Załączniku III. Pytanie 3: nie jest produktem z Załącznika II. Pytanie 6: tak, bezpośrednia interakcja z osobami fizycznymi — przejrzystość z Artykułu 50 ust. 1 dla poziomu Ograniczonego ryzyka. Wniosek: Minimalne ryzyko bazowe z jednym obowiązkiem informacyjnym z Artykułu 50 na samym chatbocie. Data wejścia w życie: 2 sierpnia 2026 r. Obie firmy mają teraz poziom, termin i rejestr zadań. Taki właśnie jest cel kwartału.

Sprawdź swoją gotowość do zgodności

Przeprowadź naszą bezpłatną ocenę gotowości do RODO, NIS2 i Aktu o UI i otrzymaj spersonalizowane rekomendacje w ciągu kilku minut.

Rozpocznij bezpłatną ocenę

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.