The Thinking Company

Governance AI w produkcji: co muszą wiedzieć decydenci

Governance AI w produkcji to zbiór polityk, procedur bezpieczeństwa i mechanizmów nadzoru zapewniających, że systemy AI sterujące maszynami, monitorujące jakość i optymalizujące procesy produkcyjne działają bezpiecznie, niezawodnie i zgodnie z regulacjami. W odróżnieniu od sektorów usługowych, gdzie governance AI chroni dane i decyzje, w produkcji stawka obejmuje bezpieczeństwo fizyczne — wadliwy model sterujący robotem spawalniczym może spowodować wypadek, a nieprawidłowa predykcja jakości może dopuścić wadliwy produkt do klienta. Przy 42% firm produkcyjnych wdrażających AI, governance staje się warunkiem skalowania z pilotażu do produkcji na skalę fabryki. [Źródło: Capgemini Research Institute 2025]

Dlaczego produkcja stoi przed unikalnymi wyzwaniami governance AI

Bezpieczeństwo fizyczne — wymiar nieobecny w usługach. System AI w banku, który podejmie wadliwą decyzję, powoduje stratę finansową. System AI w fabryce, który wadliwie steruje maszyną, może spowodować obrażenia ciała lub śmierć. Governance musi obejmować safety-critical assessment dla każdego systemu AI wpływającego na operacje maszyn.

Konwergencja OT/IT tworzy nowe wektory ryzyka. Połączenie systemów operacyjnych (SCADA, PLC) z systemami IT i chmurą otwiera surface attack na infrastrukturę krytyczną. Atak ransomware na system AI sterujący linią produkcyjną może zatrzymać produkcję. IEC 62443 (cybersecurity przemysłowy) musi być zintegrowany z governance AI.

Wiele standardów bezpieczeństwa nakłada się. Firma produkcyjna musi jednocześnie spełniać: EU Machinery Regulation (bezpieczeństwo maszyn), EU AI Act (governance AI), IEC 62443 (cybersecurity OT), ISO 13849 (safety-related parts of control systems), polskie normy PN i wymogi UDT. Integracja tych wymagań w spójny framework governance to wyzwanie organizacyjne.

W Polsce UDT (Urząd Dozoru Technicznego) nadzoruje urządzenia techniczne podlegające dozorowi (kotły, zbiorniki ciśnieniowe, dźwigi, wózki widłowe). Systemy AI wpływające na pracę tych urządzeń wymagają uwzględnienia w dokumentacji dozorowej i notyfikacji UDT. W 2025 roku UDT wydał wytyczne dotyczące systemów AI w urządzeniach podlegających dozorowi technicznemu. [Źródło: UDT, Wytyczne AI 2025]

Jak governance AI działa w produkcji

1. Sklasyfikuj systemy AI według poziomu krytyczności

Nie każdy system AI w fabryce wymaga tego samego poziomu governance. Klasyfikacja trzystopniowa:

Poziom 1 — Safety-critical AI: Systemy wpływające na bezpieczeństwo ludzi lub środowiska. Przykłady: AI sterujące robotami współpracującymi (coboty), AI w systemach safety (emergency stop, collision avoidance). Wymaga: pełna ocena ryzyka (ISO 13849), EU Machinery Regulation compliance, EU AI Act high-risk (jeśli dotyczy), monitoring ciągły, fallback mechanizmy.

Poziom 2 — Production-critical AI: Systemy wpływające na ciągłość produkcji. Przykłady: predictive maintenance, AI scheduling, quality inspection AI. Wymaga: ocena ryzyka operacyjnego, monitoring wydajności, fallback do procesu manualnego, regularne retraining.

Poziom 3 — Business-support AI: Systemy analityczne bez bezpośredniego wpływu na produkcję. Przykłady: demand forecasting, energy analytics, supplier scoring. Wymaga: standard IT governance, monitoring wydajności, przegląd okresowy.

2. Zbuduj rejestr systemów AI z powiązaniem do maszyn i procesów

Rejestr AI w produkcji musi mapować systemy AI nie tylko same w sobie, ale w kontekście maszyn, linii i procesów, na które wpływają:

  • System AI → maszyna/linia → proces produkcyjny → produkt → klient
  • Dla każdego powiązania: impact assessment (co się stanie, gdy AI zawiedzie?)
  • Fallback procedure: jak kontynuować produkcję bez AI?

3. Wdróż monitoring uwzględniający specyfikę produkcji

Monitoring AI w produkcji ma unikalne wymogi:

  • Real-time alerting: System AI na linii produkcyjnej wymaga monitoringu z latencją <1 sekundy — opóźniony alert może oznaczać tysiące wadliwych produktów
  • Drift detection w kontekście procesu: Zmiana w danych sensorycznych może oznaczać drift modelu (problem AI) lub zmianę w procesie (nowa partia materiału, nowe ustawienie maszyny). Monitoring musi odróżniać te sytuacje.
  • Integration z systemami MES/SCADA: Alerty AI muszą trafiać do tych samych systemów monitoringu, których używają operatorzy — nie do oddzielnego dashboardu.

Bosch wdrożył platformę AI monitoring zintegrowaną z systemami MES w 15 fabrykach, z automatycznym failover do trybu manualnego gdy model AI wykazuje degradację. Czas od wykrycia anomalii do fallback: <5 sekund. [Źródło: Bosch, Smart Manufacturing Report 2025]

4. Zapewnij cybersecurity na styku OT/IT

Governance AI musi obejmować cybersecurity warstwa OT:

  • Segmentacja sieciowa: Systemy AI komunikujące się z OT przez kontrolowaną strefę DMZ (Purdue Model Level 3.5)
  • Monitoring ruchu OT: Anomaly detection na komunikacji OT — wykrywanie nieautoryzowanego dostępu do systemów AI
  • Incident response OT: Procedury specyficzne dla incydentów AI w środowisku produkcyjnym (różne od IT incident response)
  • Patching i update policy: Aktualizacje modeli AI w systemach produkcyjnych wymagają validation window i scheduled downtime

W 2025 roku CERT Polska zaraportował 340% wzrost ataków na systemy OT w polskim przemyśle w porównaniu z 2023 rokiem, z czego 23% celowało w systemy AI/ML. [Źródło: CERT Polska, Raport Bezpieczeństwa OT 2025]

Kontekst regulacyjny

EU Machinery Regulation 2023/1230 — zastępuje Dyrektywę Maszynową od 2027. Nowe wymogi dla maszyn z komponentami AI: bezpieczeństwo oparte na ryzyku, cybersecurity requirements, dokumentacja techniczna obejmująca AI components.

EU AI Act — systemy AI safety-critical w produkcji mogą podlegać klasyfikacji jako high-risk (Annex I — maszyny). Predictive maintenance i quality inspection typowo nie podlegają high-risk classification.

UDT — urządzenia techniczne podlegające dozorowi wymagają uwzględnienia AI w dokumentacji dozorowej. UDT wytyczne z 2025 roku definiują procedury dla systemów AI w urządzeniach ciśnieniowych, dźwigowych i transportowych.

IEC 62443 — standard cybersecurity przemysłowego. Systemy AI w środowisku OT muszą spełniać Security Level wymagany dla danej strefy.

Normy PN/ISO — ISO 13849 (safety control systems), ISO 9001 (quality management — jak AI wpływa na procesy jakościowe?), ISO 27001 (information security — rozszerzony o AI).

ROI i uzasadnienie biznesowe governance AI

Governance AI w produkcji ma bezpośredni wpływ na ROI:

  • Redukcja ryzyka compliance: EU Machinery Regulation kary sięgają wycofania produktu z rynku — koszt wielokrotnie wyższy niż inwestycja w governance
  • Redukcja ryzyka operacyjnego: Fabryka bez governance AI ryzykuje nieplanowane przestoje z powodu wadliwych modeli — koszt przestoju w polskim automotive: EUR 10–50 tys./godzinę
  • Przyspieszenie wdrożeń: Ustanowiony framework governance skraca approval nowych systemów AI o 40–60%

Koszt wdrożenia governance AI w fabryce: EUR 50–200 tys. w pierwszym roku. Koszt jednego poważnego incydentu AI bez governance: potencjalnie EUR 500 tys.+.

Typowe błędy governance AI w produkcji

Błąd 1: Governance jako formalność, nie praktyka. Firma tworzy dokumentację governance (polityki, procedury, rejestr), ale nie wdraża operacyjnego monitoringu. Model AI degraduje, nikt nie zauważa, linia produkuje defekty przez tygodnie. Remedium: automatyczny monitoring z alertami, nie roczne przeglądy.

Błąd 2: Traktowanie AI jak oprogramowania IT. Standardowe IT governance (patching cycles, uptime SLA, backup) nie wystarczy dla AI w produkcji. Model AI wymaga: monitoringu drift, retraining na nowych danych, walidacji po każdej zmianie procesu produkcyjnego. IT governance nie pokrywa tych wymiarów.

Błąd 3: Brak fallback procedures. System AI do quality inspection przestaje działać w sobotę o 3:00. Operatorzy nie wiedzą, co robić — nie ma zdefiniowanej procedury fallback do inspekcji manualnej. Produkcja staje lub wadliwe produkty trafiają do klienta. Każdy system AI musi mieć udokumentowany i przećwiczony fallback.

Raport Siemens z 2025 roku wskazuje, że fabryki z operational governance AI (monitoring, fallback, incident response) raportują 65% mniej incydentów związanych z AI niż fabryki z governance wyłącznie dokumentacyjnym. [Źródło: Siemens, AI Governance in Manufacturing 2025]

Jak zacząć

  1. Sklasyfikuj istniejące i planowane systemy AI według trzech poziomów krytyczności.
  2. Zbuduj rejestr z mapowaniem do maszyn i procesów. Każdy system AI musi mieć zdefiniowany fallback.
  3. Zintegruj governance AI z istniejącymi systemami bezpieczeństwa (ISO 13849, IEC 62443, UDT). Nie twórz równoległej struktury.

W The Thinking Company prowadzimy warsztaty Governance AI dla firm produkcyjnych (EUR 5–10 tys.), dostarczające klasyfikację systemów, framework governance zintegrowany z normami przemysłowymi i plan implementacji.


Często zadawane pytania

Czy predictive maintenance wymaga governance jak safety-critical AI?

Nie. Predictive maintenance to typowo Poziom 2 (production-critical) — wymaga governance operacyjnego (monitoring, fallback, retraining schedule), ale nie pełnej oceny safety (ISO 13849). Wyjątek: jeśli predictive maintenance wpływa na decyzje dotyczące bezpieczeństwa (np. „maszyna jest bezpieczna do dalszej pracy”), wchodzi w Poziom 1.

Jak UDT traktuje systemy AI w urządzeniach podlegających dozorowi?

UDT wymaga, aby systemy AI wpływające na pracę urządzeń podlegających dozorowi technicznemu były uwzględnione w dokumentacji dozorowej. Obejmuje to: opis funkcji AI, wpływ na bezpieczeństwo, procedury fallback, harmonogram przeglądów. W praktyce oznacza to dodatkowe 2–4 tygodnie na przygotowanie dokumentacji i 1–2 wizyty inspektora UDT.

Jak governance AI współgra z ISO 9001?

ISO 9001 wymaga udokumentowania i kontroli procesów wpływających na jakość produktu. Systemy AI quality inspection, scheduling i demand forecasting wpływają na jakość — muszą być uwzględnione w systemie zarządzania jakością: walidacja, monitoring, retraining, rekordy decyzji. Audytorzy ISO 9001 coraz częściej pytają o AI governance jako element systemu jakości.


Ostatnia aktualizacja: 2026-03-12. Część serii AI w produkcji. Sprawdź nasze warsztaty AI (EUR 5–10 tys.).