BazaPrawa.

AI Act: lista kontrolna dla systemów wysokiego ryzyka – praktyczny przewodnik dla polskich fintechów

zespół BazaPrawa | 30 grudnia 2023

AI Act: lista kontrolna dla systemów wysokiego ryzyka – praktyczny przewodnik dla polskich fintechów

1. Dlaczego temat jest pilny?

Kara za niezgodność może sięgnąć 35 mln € lub 7 % globalnego obrotu (modelop.com).


2. Czy Twój algorytm wpadnie do "wysokiego ryzyka"?

Rozporządzenie automatycznie klasyfikuje jako wysokiego ryzyka m.in.:

  1. AI do oceny zdolności kredytowej osób fizycznych (credit scoring) (artificialintelligenceact.eu)
  2. Biometryczne systemy uwierzytelniania w procesach KYC/on-boarding (kategoria: "dostęp do usług finansowych")
  3. Ocena ryzyka prania pieniędzy lub finansowania terroryzmu, jeśli wyniki wpływają na decyzję o odmowie usługi

🔍 Wyjątek: czysto fraud-detekcja (wykrywanie nadużyć) nie jest wysokiego ryzyka – pozostaje w ryzyku "ograniczonym" (artificialintelligenceact.eu).


3. Provider vs. Deployer – kogo dotyczą obowiązki?

Rola w łańcuchuTypowy przykład w fintechuKluczowe artykuły
Provider – tworzy lub "białkuje" modelpolski scale-up udostępniający model scoringu bankomart. 16 AI Act (artificialintelligenceact.eu)
Deployer – integruje i używa w praktycebank, BNPL, pożyczka ratalna, broker płatnościart. 26 AI Act (artificialintelligenceact.eu)

Startup, który trenuje model sam, będzie providerem i deployerem jednocześnie.


4. Checklist 11-kroków dla polskiego fintechu

#Co zrobić?Dlaczego?
1Zmapuj use-case vs. Aneks IIIUstalenie statusu ryzyka
2Określ rolę (provider/deployer) i podmioty w łańcuchuNad kim leży obowiązek CE & rejestracji
3Analiza praw podstawowych (FRIA)Obowiązkowa przed wdrożeniem (art. 27)
4System zarządzania ryzykiem (ISO 42001 / ENISA AI RMF)Wymóg art. 9; ułatwia audyty KNF
5Data governance – dokumentuj pochodzenie, bias, balans płciArt. 10 zapobiega dyskryminacji kredytowej
6Dokumentacja techniczna + logi automatyczneArt. 11–12; KNF może żądać w 7 dni
7Ludzki nadzór "human-in-the-loop" – procedura eskalacjiArt. 14
8Testy dokładności, odporności, cyberbezpieczeństwaArt. 15; zgraj z wymogami DORA 2025 (ceelegalmatters.com)
9Ocena zgodności + CE lub self-assessment (jeżeli spełniasz normy zharmonizowane)Art. 43–48
10Rejestracja w unijnej bazie wysokiego ryzyka (EUDAMED-style)Art. 71
11Monitoring po wdrożeniu & raport incydentów mniej niż 15 dniArt. 72–73

5. Polski kontekst regulacyjny


6. Jak zacząć – plan 90 dni

  1. Tydzień 1–2 – warsztat z product i legal: mapa systemów AI vs. Aneks III
  2. Tydzień 3–4 – luka zgodności (gap-analysis) → plan remediacji
  3. Miesiąc 2 – wdrożenie QMS i rejestru danych; draft FRIA
  4. Miesiąc 3 – testy, procedura human-oversight, polityka incydentów

Uwagi dla startupów: AI Act przewiduje regulatory sandboxes oraz "ulgi dla MŚP" (art. 62); warto aplikować wcześnie, bo KNF zapowiada pierwszą kohortę sandboxu jeszcze w 2025 r.


Podsumowanie

AI Act jest dla polskich fintechów tym, czym RODO było dla e-commerce: game-changerem wymagającym pełnej dokumentacji i "privacy-by-design" – tylko że dla algorytmów. Zaczynając już dziś, masz ponad rok, by:

Brak przygotowań to nie tylko ryzyko grzywny do 7 % obrotu, ale też ryzyko biznesowe – nikt nie kupi "czarnej skrzynki", której nie wolno legalnie użyć.