Dlaczego Twój Dział Łamie AI ACT – i co z tym zrobić?
🎯 Kiedy po raz pierwszy przejrzałem pełny tekst rozporządzenia EU AI Act, uznałem, że to sprawa dla działu IT i prawników. Byłem w błędzie. Po głębszej analizie okazało się, że to właśnie menedżerowie operacyjni – zarządzający liniami produkcyjnymi, łańcuchami dostaw, systemami sterowania jakością i planowania zasobów oraz ochrony zdrowia – będą musieli zmierzyć się z jego konsekwencjami najszybciej. Wiele z narzędzi, które dziś traktujemy jako „zwykłe oprogramowanie wspierające”, spełnia definicję systemu AI wysokiego ryzyka zgodnie z unijnym prawem. Systemy AI w operacjach podlegają unijnym regulacjom już od 2026 roku. A to oznacza obowiązkową dokumentację, audyty i odpowiedzialność prawną – nie za rok, lecz właśnie już teraz!
📕 Zainteresowany/a tematem – czytaj dalej… ⬇️
Czym jest EU AI Act i które systemy AI są klasyfikowane jako „wysokie ryzyko”?
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, znane jako EU AI Act, weszło w życie 1 sierpnia 2024 roku i jest pierwszym na świecie kompleksowym aktem prawnym regulującym systemy sztucznej inteligencji [1]. Jego wdrożenie odbywa się etapami: zakazy dotyczące systemów AI niedopuszczalnego ryzyka obowiązują od 2 lutego 2025 roku, natomiast przepisy dotyczące systemów wysokiego ryzyka stosowanych w krytycznych obszarach – w tym w zarządzaniu operacyjnym – stają się w pełni egzekwowalne od 2 sierpnia 2026 roku [2].
Co rozporządzenie rozumie przez „system AI”?
EU AI Act definiuje system AI – zgodnie z Art. 3 ust. 1 rozporządzenia (UE) 2024/1689 – jako system maszynowy przeznaczony do działania z różnymi stopniami autonomii, który może wykazywać zdolność adaptacji po wdrożeniu i który, dla wyraźnych lub dorozumianych celów, wnioskuje ze swoich danych wejściowych, jak generować wyniki takie jak prognozy, rekomendacje, decyzje lub treści wpływające na środowiska fizyczne lub wirtualne [1]. Ta definicja jest celowo szeroka. Oznacza to, że zaawansowane moduły analityczne w systemach ERP (ang. Enterprise Resource Planning, pol. zintegrowane systemy zarządzania przedsiębiorstwem), algorytmy planowania produkcji oparte na uczeniu maszynowym, a nawet narzędzia do predykcyjnego utrzymania ruchu mogą spełniać tę definicję i podlegać wymogom regulacji.
Klasyfikacja ryzyka – cztery poziomy
Regulacja wprowadza czterostopniową klasyfikację ryzyka:
- Ryzyko niedopuszczalne – systemy AI całkowicie zakazane, np. systemy punktacji społecznej czy manipulacji podprogowej
- Ryzyko wysokie – systemy podlegające najbardziej rygorystycznym wymogom przed wprowadzeniem do obrotu i w trakcie użytkowania
- Ryzyko ograniczone – systemy z obowiązkami przejrzystości, np. chatboty
- Ryzyko minimalne – systemy bez dodatkowych obowiązków regulacyjnych
Dla menedżerów operacyjnych kluczowa jest kategoria wysokiego ryzyka. Załącznik III do rozporządzenia wymienia wprost obszary, w których systemy AI są automatycznie klasyfikowane jako wysokiego ryzyka. Należą do nich: zarządzanie infrastrukturą krytyczną (energetyka, wodociągi, transport), systemy stosowane w zarządzaniu zatrudnieniem (w tym rekrutacja, ocena wydajności, awanse), a także systemy stosowane w edukacji zawodowej i ocenie kompetencji [1].
Operacje produkcyjne pod lupą regulatora
Warto zwrócić uwagę na kategorię dotyczącą „zarządzania i eksploatacji infrastruktury krytycznej”. W praktyce obejmuje ona systemy sterowania w zakładach przemysłowych, algorytmy zarządzania łańcuchem dostaw w sektorach o znaczeniu strategicznym, a nawet zaawansowane systemy kontroli jakości w przemyśle farmaceutycznym i lotniczym. Europejska Agencja ds. Bezpieczeństwa Lotniczego (EASA) w 2025 roku opublikowała pierwsze konkretne wytyczne regulacyjne dla systemów AI w lotnictwie (NPA 2025-07 – Notice of Proposed Amendment), określając zasady budowania zaufania do systemów AI w zgodzie z wymogami AI Act i wskazując na konieczność integracji tych wymogów z istniejącymi systemami zarządzania bezpieczeństwem [3].
Jeżeli zatem w dziale operacyjnym używany jest system predykcyjnego utrzymania ruchu, który automatycznie podejmuje decyzje o zatrzymaniu linii produkcyjnej, lub algorytm optymalizacji harmonogramów pracy, który decyduje o przydziale zasobów ludzkich – z dużym prawdopodobieństwem jest to system AI wysokiego ryzyka. I z dniem 2 sierpnia 2026 roku użytkownik takiego systemu ma konkretne obowiązki wynikające z prawa europejskiego.
Kto w firmie odpowiada za zgodność z AI Act – IT, Prawny, Operacje czy wszyscy naraz?
Jedną z największych pułapek związanych z wdrażaniem EU AI Act jest pokusa przypisania odpowiedzialności za zgodność z regulacją jednemu działowi. W rozmowach z menedżerami z różnych branż regularnie pojawia się przekonanie, że „tym zajmie się IT” albo „to kwestia dla prawników”. Tymczasem rozporządzenie jasno rozróżnia role dostawcy (ang. provider) i podmiotu stosującego (ang. deployer) system AI, nakładając na każdego z nich odrębny katalog obowiązków [1].
Dostawca a podmiot stosujący – kluczowe rozróżnienie
Dostawca to podmiot, który opracowuje system AI i wprowadza go do obrotu lub oddaje do użytku. To zazwyczaj zewnętrzna firma technologiczna lub wewnętrzny dział R&D. Podmiot stosujący to natomiast podmiot używający systemu AI w ramach własnej działalności – i to właśnie w tej roli najczęściej występuje dział operacyjny przedsiębiorstwa.
Obowiązki podmiotu stosującego systemy AI wysokiego ryzyka obejmują między innymi [2]:
- zapewnienie, że system AI jest używany zgodnie z instrukcją użytkowania dostarczoną przez dostawcę
- ustanowienie i wdrożenie technicznych oraz organizacyjnych środków nadzoru nad systemem
- monitorowanie funkcjonowania systemu AI pod kątem ewentualnego ryzyka
- prowadzenie dziennika zdarzeń (logów) generowanych automatycznie przez system przez minimalny wymagany okres
- niezwłoczne informowanie dostawcy i właściwych organów krajowych o wszelkich poważnych incydentach lub nieprawidłowym działaniu
- zapewnienie pracownikom odpowiedniego szkolenia z zakresu obsługi systemów AI wysokiego ryzyka
Model odpowiedzialności rozproszonej
W praktyce oznacza to, że odpowiedzialność jest rozproszona funkcjonalnie, a nie skoncentrowana w jednym miejscu. Dział operacyjny odpowiada za nadzór nad użytkowaniem systemu i szkolenia. Dział IT odpowiada za infrastrukturę techniczną i logi. Dział prawny zapewnia interpretację wymogów i kontakt z organami regulacyjnymi. Zarząd ponosi ostateczną odpowiedzialność organizacyjną.
Badania rynkowe z 2025 roku wskazują, że wciąż jedynie niewielki odsetek europejskich przedsiębiorstw posiada formalnie wyznaczone struktury odpowiedzialne za zgodność z regulacjami AI – mimo że znaczna większość dużych organizacji korzysta już z systemów mogących spełniać kryteria wysokiego ryzyka [4]. Ta luka jest alarmująca – szczególnie w kontekście terminów wdrożenia regulacji.
Rola menedżera operacyjnego jako „pierwszej linii”
Menedżer operacyjny jest de facto podmiotem stosującym systemy AI w codziennej praktyce. To on decyduje, jak system jest konfigurowany, w jakim kontekście używany i kto ma do niego dostęp. Dlatego to właśnie od niego powinna wychodzić inicjatywa zinwentaryzowania używanych narzędzi AI i oceny ich klasyfikacji ryzyka. Czekanie na sygnał z działu prawnego lub IT może oznaczać, że do daty egzekwowalności przepisów firma nie zdąży wdrożyć wymaganych procedur.
Obowiązkowe rejestry systemów AI a procesy operacyjne
Jednym z bardziej konkretnych i operacyjnie istotnych wymogów EU AI Act jest obowiązek prowadzenia rejestru systemów AI (ang. AI system register). Rozporządzenie przewiduje dwa poziomy rejestracji: rejestr unijny prowadzony przez Komisję Europejską dla wybranych kategorii systemów oraz wewnętrzne rejestry organizacyjne, których prowadzenie jest elementem systemu zarządzania ryzykiem AI [1].
Co powinien zawierać wewnętrzny rejestr systemów AI?
Dobry wewnętrzny rejestr systemów AI to nie tylko lista narzędzi – to żywy dokument zarządzania ryzykiem. Powinien zawierać co najmniej:
- nazwę i wersję systemu AI wraz z danymi dostawcy
- cel i kontekst użytkowania – do jakich procesów operacyjnych system jest stosowany
- klasyfikację ryzyka zgodnie z kryteriami AI Act (niedopuszczalne / wysokie / ograniczone / minimalne)
- datę wdrożenia i planowaną datę przeglądu
- osobę odpowiedzialną za nadzór nad danym systemem po stronie podmiotu stosującego
- status zgodności – czy spełnione są wymogi dokumentacyjne, szkoleniowe i monitoringowe
- referencje do dokumentacji technicznej dostarczonej przez dostawcę
Integracja rejestru z procesami operacyjnymi
Dla menedżerów Lean naturalnym miejscem integracji rejestru systemów AI jest system zarządzania procesami (ang. process management system) lub istniejąca baza danych aktywów. W wielu organizacjach przemysłowych rejestr systemów AI może być prowadzony jako rozszerzenie istniejącego rejestru oprogramowania krytycznego lub jako odrębny moduł w systemie zarządzania jakością.
Kluczowe jest, aby rejestr nie był dokumentem martwym, aktualizowanym raz w roku przez dział IT. Powinien być integralną częścią procesu zarządzania zmianą (ang. change management): każde wdrożenie nowego narzędzia AI, każda istotna aktualizacja algorytmu i każda zmiana kontekstu użytkowania powinna uruchamiać procedurę przeglądu i aktualizacji rejestru.
Logi jako dowód nadzoru
EU AI Act wymaga od podmiotów stosujących systemy wysokiego ryzyka przechowywania logów generowanych przez system przez minimalny wymagany okres – co do zasady co najmniej sześć miesięcy, a w przypadku systemów stosowanych w infrastrukturze krytycznej – dłużej, zgodnie z decyzją właściwego organu krajowego [1]. Logi te stanowią dowód, że podmiot stosujący sprawował właściwy nadzór nad systemem i reagował na anomalie. W przypadku kontroli lub incydentu to właśnie logi będą pierwszym dokumentem, po który sięgnie regulator.
Związek między AI Act a standardami ISO – synergia czy konflikt?
Pytanie o relację między EU AI Act a standardami ISO to jedno z tych, które regularnie pojawia się w rozmowach z menedżerami jakości i operacyjnymi. Odpowiedź jest niejednoznaczna, ale – dla organizacji dobrze zarządzanych jakościowo – generalnie optymistyczna: AI Act i normy ISO tworzą ramy wzajemnie się uzupełniające, choć wymagają świadomej integracji.
ISO 9001 jako fundament systemu zarządzania jakością AI
Norma ISO 9001:2015 – wciąż obowiązująca (pełna rewizja normy jest w toku; jej publikację planuje się na 2026 rok, zaś w 2024 roku wydano jedynie drobną korektę – Poprawkę 1:2024 dotyczącą kwestii klimatycznych) – opiera się na cyklu PDCA (planuj – wykonaj – sprawdź – działaj) i podejściu procesowym, które są naturalnie komplementarne z wymogami EU AI Act w zakresie zarządzania ryzykiem i ciągłego monitorowania systemów AI [5]. Organizacja posiadająca certyfikowany system zarządzania jakością ma już wdrożone mechanizmy takie jak:
- zarządzanie ryzykiem i szansami (pkt 6.1 normy ISO 9001)
- nadzór nad wyposażeniem do monitorowania i pomiarów (pkt 7.1.5)
- zarządzanie zmianą (pkt 6.3)
- audyty wewnętrzne (pkt 9.2)
- działania korygujące i zapobiegawcze (pkt 10.2)
Każdy z tych elementów może i powinien zostać rozszerzony o wymiar zgodności z AI Act – bez konieczności budowania nowej, równoległej struktury.
ISO 27001 i bezpieczeństwo systemów AI
Norma ISO/IEC 27001 dotycząca systemów zarządzania bezpieczeństwem informacji jest szczególnie istotna w kontekście wymogów AI Act dotyczących ochrony danych treningowych, integralności modeli AI i bezpieczeństwa infrastruktury IT obsługującej systemy AI wysokiego ryzyka. Analiza opublikowana przez J. Pötsch w ramach prac nad stykiem systemów zarządzania bezpieczeństwem informacji (ISMS) i systemów zarządzania AI (AIMS) wskazuje, że istniejące mechanizmy kontroli w ISO/IEC 27001 wykazują istotne pokrycie z wymogami bezpieczeństwa EU AI Act – co oznacza, że organizacje posiadające tę certyfikację mają realną przewagę startową w procesie wdrażania zgodności z regulacją. Badanie ma charakter analizy strukturalnej interfejsów między obydwoma systemami, nie zaś badania ilościowego na próbie przedsiębiorstw [6].
Gdzie pojawia się napięcie?
Punktem potencjalnego konfliktu jest podejście do audytowalności (ang. auditability). ISO 9001 dopuszcza elastyczność w zakresie zakresu dokumentacji, podczas gdy AI Act nakłada konkretne, prawnie wiążące wymagania dokumentacyjne dla systemów wysokiego ryzyka – w tym konieczność prowadzenia dokumentacji technicznej według ściśle określonego wzoru. Organizacje, które dotychczas minimalizowały dokumentację w imię szczupłości procesów, mogą stanąć przed koniecznością zmiany podejścia.
Ponadto AI Act wprowadza pojęcie oceny zgodności przed wprowadzeniem do obrotu (ang. pre-market conformity assessment), które nie ma bezpośredniego odpowiednika w normach ISO dla systemów zarządzania jakością. Dla podmiotu stosującego oznacza to konieczność weryfikacji, czy dostawca systemu AI dopełnił wszystkich formalności przed wdrożeniem systemu w organizacji.
Kara za brak zgodności: do 35 mln EUR – co to oznacza dla MŚP?
Sankcje przewidziane przez EU AI Act są jednymi z najwyższych w historii europejskiego prawa regulacyjnego. Dla porównania: RODO (GDPR) przewiduje kary do 20 mln EUR lub 4% globalnych rocznych obrotów za najpoważniejsze naruszenia. AI Act idzie dalej – za naruszenie zakazu stosowania systemów AI niedopuszczalnego ryzyka grozi kara do 35 milionów EUR lub 7% globalnych rocznych obrotów (stosuje się kwotę wyższą). Za naruszenie innych obowiązków wynikających z rozporządzenia, w tym wymogów dla systemów wysokiego ryzyka, kara może sięgnąć 15 milionów EUR lub 3% globalnych rocznych obrotów [1].
Realna skala zagrożenia dla MŚP
Dla małych i średnich przedsiębiorstw te kwoty brzmią abstrakcyjnie – ale nie są. Rozporządzenie przewiduje co prawda pewne złagodzenia w stosowaniu sankcji wobec MŚP, jednak nie wyłącza ich z zakresu regulacji. Organy nadzorcze będą przy ustalaniu wysokości kary uwzględniać wielkość przedsiębiorstwa i jego sytuację finansową – ale nie są do tego zobowiązane, jeśli naruszenie było poważne lub umyślne.
W Polsce krajowym organem nadzoru rynku AI ma zostać Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI) – niezależny podmiot wzorowany na Komisji Nadzoru Finansowego, powoływany na mocy krajowej ustawy o systemach sztucznej inteligencji. Do zadań KRiBSI należeć będzie m.in. prowadzenie postępowań administracyjnych, wydawanie decyzji i postanowień w indywidualnych sprawach, nakładanie sankcji administracyjnych za naruszenia przepisów AI Act, rozpatrywanie skarg od obywateli i podmiotów na działanie systemów AI, a także opracowywanie wytycznych i zaleceń dotyczących stosowania przepisów regulacji. Przewodniczący KRiBSI będzie powoływany przez Sejm RP za zgodą Senatu [8]. Termin wyznaczenia organu nadzorczego upłynął 2 sierpnia 2025 roku; Polska – podobnie jak kilka innych państw UE – nie zdążyła go dotrzymać, jednak prace legislacyjne nad projektem ustawy (nr UC71) są zaawansowane i toczą się w ramach Ministerstwa Cyfryzacji.
Co więcej, kara finansowa to tylko jeden z wymiarów ryzyka. Równie groźne mogą być:
- wycofanie z rynku systemu AI wysokiego ryzyka niespełniającego wymogów
- zakaz użytkowania systemu przez podmiot stosujący do czasu usunięcia niezgodności
- odpowiedzialność cywilna wobec osób poszkodowanych decyzjami systemu AI
- ryzyko reputacyjne – coraz więcej europejskich kontrahentów i inwestorów włącza zgodność z regulacjami AI do oceny należytej staranności (ang. due diligence)
Podejście proporcjonalne, ale nie zwalnia z działania
Komisja Europejska, Europejskie Biuro ds. Sztucznej Inteligencji (ang. AI Office) oraz Europejska Rada ds. Sztucznej Inteligencji (ang. European AI Board) wielokrotnie podkreślały, że celem regulacji nie jest karanie przedsiębiorstw, lecz podniesienie standardów bezpieczeństwa i zaufania do systemów AI [7]. Jednak podejście „poczekamy, co się wydarzy” jest ryzykowną strategią. Pierwsze postępowania kontrolne w państwach członkowskich, spodziewane w drugiej połowie 2026 roku, mogą służyć jako sygnał dla całego rynku – podobnie jak pierwsze wielomilionowe kary w ramach RODO w 2018-2019 roku ukształtowały podejście firm do ochrony danych.
Jak włączyć wymagania AI Act w metodykę DMAIC i kartę projektu?
Jedną z praktycznych przewag specjalistów Lean Six Sigma w obliczu nowych regulacji AI jest znajomość metodyki strukturyzowania problemów i zarządzania zmianą. DMAIC (Definiuj – Mierz – Analizuj – Usprawnij – Kontroluj) to narzędzie, które można z powodzeniem zaadaptować do wdrażania zgodności z AI Act w organizacji.
DMAIC jako schemat zarządzania zgodnością z AI Act
D – Definiuj (ang. Define): Na tym etapie należy zidentyfikować wszystkie systemy AI stosowane w organizacji (w tym przez działy operacyjne) i sporządzić wstępną klasyfikację ryzyka. Należy zdefiniować zakres projektu zgodności, interesariuszy (dostawcy, podmioty stosujące, dział prawny, zarząd) oraz oczekiwane rezultaty. Karta projektu powinna odwoływać się do odpowiednich przepisów AI Act jako wymagania zewnętrzne kształtujące zakres projektu.
M – Mierz (ang. Measure): Na etapie pomiaru przeprowadza się analizę luk (ang. gap analysis) – porównanie bieżącego stanu dokumentacji, procedur i szkoleń z wymogami AI Act. Wskaźniki do zmierzenia to m.in.: liczba systemów AI bez dokumentacji technicznej, odsetek pracowników przeszkolonych z obsługi systemów AI wysokiego ryzyka, kompletność rejestru systemów AI.
A – Analizuj (ang. Analyze): Analiza przyczyn źródłowych luk w zakresie zgodności z regulacją. Typowe przyczyny źródłowe to: brak świadomości regulacyjnej, brak właściciela procesu zgodności AI, nieaktualna dokumentacja po aktualizacjach oprogramowania, brak procedur zarządzania zmianą uwzględniających wymiar AI.
I – Usprawnij (ang. Improve): Wdrożenie konkretnych działań: opracowanie lub aktualizacja rejestru systemów AI, wdrożenie procedury oceny ryzyka dla nowych systemów AI, opracowanie programu szkoleń, zawarcie aneksów do umów z dostawcami systemów AI precyzujących podział obowiązków wynikających z AI Act.
C – Kontroluj (ang. Control): Ustanowienie mechanizmów nadzoru: cykliczne przeglądy rejestru systemów AI, kluczowe wskaźniki efektywności (KPI) dla zgodności z AI Act włączone do panelu zarządczego, regularne audyty wewnętrzne (np. jako rozszerzenie audytów ISO 9001).
AI Act w karcie projektu – praktyczny przykład
W każdym nowym projekcie doskonalenia procesów, który obejmuje wdrożenie lub modyfikację systemów AI, karta projektu powinna zawierać sekcję „Wymogi regulacyjne i zgodność z prawem”, w której dokładnie wskazano:
- klasyfikację ryzyka AI planowanego systemu zgodnie z EU AI Act
- wymagane kroki certyfikacyjne lub dokumentacyjne przed uruchomieniem
- wyznaczonego właściciela procesu zgodności dla danego systemu
- plan szkoleń dla użytkowników końcowych
Rola Lean Six Sigma w budowaniu audytowalności systemów AI
Pojęcie audytowalności (ang. auditability) – czyli możliwości poddania systemu rzetelnej kontroli i weryfikacji – jest centralnym elementem filozofii EU AI Act. Regulator chce mieć pewność, że w przypadku błędu lub incydentu możliwe jest odtworzenie, jak system AI podejmował decyzje, na jakich danych się opierał i czy był właściwie nadzorowany. To wyzwanie bliskie sercu każdego praktyka Lean Six Sigma.
Dokumentacja jako wartość, nie biurokracja
W kulturze Lean dokumentacja bywa postrzegana z nieufnością – „dokumentuj minimum, działaj maksimum”. EU AI Act wymaga zmiany tej perspektywy w odniesieniu do systemów AI. Dokumentacja techniczna systemu AI wysokiego ryzyka nie jest biurokracją – jest narzędziem zarządzania ryzykiem i dowodem należytej staranności. Z punktu widzenia Lean to inwestycja, która chroni organizację przed kosztownymi incydentami i postępowaniami.
Narzędzia Lean użyteczne w budowaniu audytowalności
Kilka klasycznych narzędzi Lean i Six Sigma doskonale nadaje się do budowania środowiska audytowalności systemów AI:
- FMEA (ang. Failure Mode and Effects Analysis, pol. Analiza Rodzajów i Skutków Potencjalnych Wad) – analiza sposobów i skutków potencjalnych błędów systemu AI; pozwala zidentyfikować scenariusze wysokiego ryzyka i zaplanować środki zaradcze
- Mapa strumienia wartości – można zastosować do mapowania przepływu danych i decyzji w systemach AI, identyfikując punkty, w których brak nadzoru lub dokumentacji tworzy ryzyko naruszenia regulacji
- Standardowe instrukcje robocze (SOP) – kluczowe dla zapewnienia spójnego i udokumentowanego sposobu użytkowania systemów AI przez różnych operatorów
- Karta kontrolna – monitoring parametrów działania systemu AI w czasie; odchylenia od normy mogą sygnalizować potrzebę interwencji lub zgłoszenia incydentu
Budowanie kultury odpowiedzialnego AI
Wdrożenie zgodności z AI Act nie jest jednorazowym projektem. Jest zmianą kulturową. Organizacje, które mają doświadczenie we wdrażaniu kultury ciągłego doskonalenia (ang. kaizen), mają tu realną przewagę. Pytanie „jak możemy to poprawić?” powinno być uzupełnione o pytanie „jak możemy to udokumentować i uzasadnić?”. Systematyczne angażowanie pracowników operacyjnych w identyfikację ryzyk związanych z systemami AI – np. poprzez sesje kaizen (ciągłego doskonalenia) lub gemba walk (bezpośrednie obserwacje na miejscu pracy) w obszarach, gdzie AI wspiera decyzje – buduje oddolną świadomość regulacyjną znacznie skuteczniej niż zdalne moduły szkoleniowe.
Podsumowanie
Przez ostatnie miesiące regularnie obserwuję, jak EU AI Act jest traktowany jako „problem przyszłości” – coś, czym zajmiemy się, gdy przyjdzie na to czas. Tymczasem sierpień 2026 roku już za kilka miesięcy, a gotowość organizacyjna do spełnienia wymogów regulacji wymaga czasu. Nie chodzi o perfekcję – chodzi o systematyczne, udokumentowane działanie.
Jeśli jesteś menedżerem operacyjnym, zacznij od jednego konkretnego kroku: przeprowadź inwentaryzację systemów AI używanych w Twoim dziale i oceń, które z nich mogą podlegać kategorii wysokiego ryzyka. Jeśli zarządzasz jakością lub doskonaleniem procesów, włącz wymogi AI Act do następnego audytu wewnętrznego lub przeglądu zarządzania. Jeśli jesteś dyrektorem operacyjnym – zadbaj o to, aby w Twoim zakresie odpowiedzialności był jasno wyznaczony właściciel procesu zgodności z AI Act.
💡 EU AI Act nie jest przeszkodą dla innowacji. Jest zaproszeniem do tego, by używać systemów AI z pełną świadomością ich możliwości i ograniczeń. A to – w Lean Management – brzmi znajomo!
Podziel się w komentarzach: czy Twoja organizacja ma już wdrożony rejestr systemów AI? Gdzie napotykacie największe trudności z zapewnieniem zgodności z regulacją? ✍️
📕 Zajrzyj do doskonałej książki SLMP – Historie Leanem Pisane – i poznaj moją 🔥
źródła:
[1] Parlament Europejski i Rada UE, „Rozporządzenie (UE) 2024/1689 w sprawie sztucznej inteligencji (AI Act)”, Dziennik Urzędowy UE, 2024. https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1689
[2] Harbor Legal, „AI Act 2026 — co musi zrobić Twoja firma? Praktyczny przewodnik”, 2026. https://harbor.legal/blog/ai-act-2026-co-musi-zrobic-twoja-firma/
[3] EASA, „Notice of Proposed Amendment NPA 2025-07: AI in Aviation”, 2025. https://www.easa.europa.eu/en/document-library/notices-of-proposed-amendment/npa-2025-07
[4] CRIDO, „Obowiązki operatorów systemów AI według AI Act”, 2025. https://crido.pl/blog-business/obowiazki-operatorow-systemow-ai-wedlug-ai-act/
[5] PCC-Cert, „Nowe trendy w integracji AI i systemów zarządzania – ryzyka, normy”, 2025. https://www.pcc-cert.pl/ai-i-systemy-zarzadzania/
[6] Pötsch, J., „Interplay of ISMS and AIMS in context of the EU AI Act”, arXiv:2412.18670, 2024. https://arxiv.org/pdf/2412.18670.pdf
[7] Komisja Europejska, „Governance and enforcement of the AI Act”, 2025. https://digital-strategy.ec.europa.eu/en/policies/ai-act-governance-and-enforcement
[8] Legalis / Wolters Kluwer / Ministerstwo Cyfryzacji, „Projekt ustawy o systemach sztucznej inteligencji – KRiBSI”, 2025-2026. https://legalis.pl/ustawa-o-sztucznej-inteligencji-wciaz-w-fazie-projektu/
