The Thinking Company

Governance AI reaktywny vs. proaktywny: co rady nadzorcze robią źle

Rada nadzorcza europejskiej spółki przemysłowej średniej wielkości nie miała AI w agendzie. Spółka korzystała ze sztucznej inteligencji w dwóch obszarach: narzędziu rekrutacyjnym, które wstępnie przesiewało CV kandydatów, oraz systemie predykcyjnego utrzymania ruchu, który planował przeglądy urządzeń fabrycznych. Oba rozwiązania zatwierdzono jako zakupy IT. Żadne z nich nie było przedmiotem dyskusji na posiedzeniu rady nadzorczej.

W trzecim kwartale 2025 roku odrzucona kandydatka złożyła skargę na podstawie art. 22 RODO, twierdząc, że zautomatyzowany system podjął wobec niej istotną decyzję wpływającą na zatrudnienie bez udziału człowieka. Organ ochrony danych wszczął postępowanie wyjaśniające. W ciągu tygodnia rada nadzorcza dowiedziała się trzech rzeczy równocześnie: organizacja wdraża AI w obszarze wysokiego ryzyka w rozumieniu EU AI Act, nie istnieje dokumentacja logiki decyzyjnej systemu, a rada nie otrzymała briefingu na temat żadnego z dwóch wdrożeń AI. Radca prawny oszacował potencjalne kary na sześciocyfrową kwotę. Koszt reputacyjny wśród potencjalnych pracowników na napiętym rynku pracy był trudniejszy do oszacowania.

To jest governance reaktywny. Nie filozofia governance, lecz jego brak. Rada nie podjęła świadomej decyzji o reaktywnym nadzorze nad AI. Podjęła decyzję, by AI w ogóle nie nadzorować, a wydarzenia wymusiły konfrontację z konsekwencjami.

Podejście reaktywne uzyskuje 1,18/5,0 w Ramowym Modelu Oceny Governance AI dla Rad Nadzorczych opracowanym przez The Thinking Company — najniższy wynik spośród czterech ocenianych podejść, ustępujący modelom: compliance-first (2,93), delegacji technologicznej (1,95) i governance doradczemu (4,33). Różnica między podejściem reaktywnym a najlepszym modelem proaktywnym wynosi 3,15 punktu na 5-punktowej skali. Niniejszy artykuł analizuje, dlaczego ta luka istnieje, ile kosztuje i jak rady nadzorcze mogą ją zamknąć. Ujawniamy, że The Thinking Company mieści się w kategorii governance doradczego. Pełna metodologia scoringowa i baza dowodowa są opublikowane w dokumentacji frameworku. Tam, gdzie governance reaktywny posiada uzasadnione cechy strukturalne, identyfikujemy je. [Źródło: The Thinking Company Board AI Governance Evaluation Framework, v1.0]

Jak wygląda governance reaktywny

Governance reaktywny to stan domyślny większości rad nadzorczych w segmencie średnich spółek. Nie jest zaprojektowany. Jest tym, co pozostaje, gdy governance AI nie został zaprojektowany.

Wzorzec ma rozpoznawalne cechy. AI nie pojawia się jako stały punkt agendy rady. Żaden komitet (audytu, ryzyka ani inny) nie otrzymał formalnej odpowiedzialności za nadzór nad AI. Nie istnieje kadencja raportowania o wdrożeniach AI, ryzykach związanych z AI ani o decyzjach podejmowanych z udziałem AI. Rada nie dysponuje inwentaryzacją systemów AI wykorzystywanych w organizacji. Członkowie rady nadzorczej dowiadują się o AI z doniesień prasowych, prezentacji zarządu przygotowywanych na potrzeby zatwierdzenia budżetu albo z briefingów pokryzysowych.

Gdy AI dociera do rady, trafia tam jednym z czterech kanałów: wniosek zarządu o wydatki kapitałowe na projekt AI, kryzys wymuszający uwagę, zapytanie regulatora lub członek rady, który przeczytał niepokojący artykuł. Żaden z tych kanałów nie stanowi governance. Są to doraźne reakcje na bodźce zewnętrzne.

Wyniki scoringowe mówią same za siebie. W ramach 10 czynników oceny, governance reaktywny uzyskuje 1,0 w ośmiu z nich, co odpowiada poziomowi “nieobecny lub kontrproduktywny”. W kategorii spójności ze strategią osiąga 1,5 (AI pojawia się okazjonalnie w dyskusjach strategicznych, wywołane aktywnością konkurentów lub mediami, nie zaś przez strukturę governance). W kategorii niezależności i obiektywizmu wynik to 3,0 — liczba, która zasługuje na odrębną analizę.

Koszty governance reaktywnego

Governance reaktywny jest droższy od proaktywnego. Koszty są konkretne i kumulatywne.

Ekspozycja regulacyjna

EU AI Act, wchodzący w fazę egzekwowania w latach 2025-2026, tworzy bezpośrednie obowiązki na poziomie rady nadzorczej dla organizacji wdrażających systemy AI wysokiego ryzyka w Europie. Harmonogram egzekwowania jest fazowy: zakazane praktyki AI stały się egzekwowalne od lutego 2025, obowiązki dotyczące modeli AI ogólnego przeznaczenia obowiązują od sierpnia 2025, a wymogi wobec systemów AI wysokiego ryzyka wchodzą w pełną moc od sierpnia 2026. Kary sięgają do 7% globalnego obrotu za naruszenie zakazów i 3% za inne przypadki niezgodności. [Źródło: EU AI Act (Regulation (EU) 2024/1689)]

Rada nadzorcza bez governance AI nie posiada mechanizmu pozwalającego stwierdzić, czy organizacja wdraża systemy AI wysokiego ryzyka, czy systemy te spełniają wymogi dokumentacyjne i transparentności, ani czy klasyfikacja ryzyka AI organizacji jest aktualna. Ekspozycja regulacyjna nie jest hipotetyczna. Jest kwestią harmonogramu egzekwowania.

W polskim kontekście dochodzi dodatkowa warstwa złożoności. Obowiązki rady nadzorczej wynikające z Kodeksu spółek handlowych (art. 382 KSH) obejmują stały nadzór nad działalnością spółki we wszystkich dziedzinach jej działalności. Niepełnienie tego nadzoru w obszarze AI, który generuje ryzyko regulacyjne na skalę unijną, może stanowić naruszenie obowiązku staranności w rozumieniu art. 293 KSH (odpowiedzialność członków zarządu) i art. 483 KSH (odpowiedzialność członków rady nadzorczej). KNF w przypadku spółek z sektora finansowego oraz GPW w ramach Dobrych Praktyk Spółek Notowanych 2021 oczekują od rad nadzorczych aktywnego sprawowania nadzoru nad technologiami wpływającymi na profil ryzyka spółki.

Governance reaktywny uzyskuje 1,0 w zakresie gotowości na EU AI Act. Najwyższy wynik proaktywny to 4,5 (compliance-first). Różnica 3,5 punktu na czynniku o wadze 15% to różnica między przygotowaniem regulacyjnym a regulacyjnym zaskoczeniem.

Odpowiedzialność powiernicza

Członkowie rad nadzorczych ponoszą odpowiedzialność powierniczą wobec spółki — obowiązek staranności i obowiązek lojalności zgodnie z europejskimi kodeksami corporate governance. W polskim porządku prawnym art. 483 § 1 KSH wprost stanowi o odpowiedzialności członka rady nadzorczej za szkodę wyrządzoną działaniem lub zaniechaniem sprzecznym z prawem lub statutem spółki, chyba że nie ponosi winy. Obowiązek staranności wymaga od członków rady informowania się o istotnych ryzykach przed podejmowaniem decyzji. W miarę jak AI staje się materialnym czynnikiem operacyjnym i strategicznym, obowiązek ten rozciąga się na nadzór nad AI.

Rada działająca reaktywnie nie jest w stanie wykazać, że dochowała należytej staranności w zakresie AI. Brak struktury governance oznacza brak dokumentacji zaangażowania rady. Brak edukacji rady oznacza brak dowodów świadomego nadzoru. Brak raportowania ryzyka AI oznacza brak zapisu, że rada rozważała ryzyka związane z AI.

Odpowiedzialność D&O z tytułu decyzji związanych z AI to wyłaniająca się kategoria ryzyka. Gdy pierwszy skład rady stanie przed roszczeniem wynikającym z awarii AI (dyskryminacyjny algorytm rekrutacji, naruszenie danych klientów przez system AI, nieudana inwestycja w AI), sądy i regulatorzy zbadają, jakie struktury governance funkcjonowały. Rady działające reaktywnie nie będą miały nic do okazania. [Źródło: Ocena ekspercka oparta na badaniach NACD Director surveys oraz analizie europejskich kodeksów corporate governance]

Governance reaktywny uzyskuje 1,0 w kategorii pokrycia odpowiedzialności powierniczej. Governance doradczy — 4,0. Luka oznacza różnicę między udokumentowaną starannością a udokumentowaną absencją.

Strata strategiczna

Ten koszt bywa najczęściej pomijany. Rady nadzorcze koncentrują się na ryzyku spadkowym nienadzorowanego AI: karach regulacyjnych, ekspozycji na odpowiedzialność, szkodzie reputacyjnej. Koszt utraconych szans otrzymuje mniej uwagi.

Organizacje z ustrukturyzowanym governance AI podejmują lepsze decyzje dotyczące AI szybciej. Rada, która rozumie AI, potrafi ocenić propozycje zarządu co do meritum, zamiast zdawać się na rekomendację dyrektora technologicznego bez merytorycznej weryfikacji. Framework governance łączący AI ze strategią zapewnia, że inwestycje w AI odpowiadają priorytetom konkurencyjnym, a nie podążają za modami technologicznymi. Kadencja nadzoru nad AI daje radzie wczesną widoczność inicjatyw wymagających korekty kursu, zanim pochłoną zasoby.

Konkurenci, których rady nadzorcze sprawują proaktywny nadzór nad AI, budują zdolności AI, podczas gdy rady reaktywne wciąż debatują, czy AI powinno znaleźć się w agendzie. W kontekście polskich spółek giełdowych z indeksów WIG20 i mWIG40, gdzie presja konkurencyjna na adopcję AI rośnie kwartalnie, ta luka szybko przekłada się na mierzalną różnicę w pozycji rynkowej. Zanim rada reaktywna stworzy governance w odpowiedzi na kryzys, konkurenci z dwuletnią dojrzałością governance uzyskują przewagę instytucjonalną, którą kosztownie się niweluje.

Governance reaktywny uzyskuje 1,5 w kategorii spójności ze strategią. Governance doradczy — 4,5. Różnica 3,0 punktu kumuluje się z każdym kwartałem, w którym rada funkcjonuje bez frameworku governance.

Jak wygląda governance proaktywny

Trzy ustrukturyzowane podejścia — compliance-first (2,93/5,0), delegacja technologiczna (1,95/5,0) i governance doradczy (4,33/5,0) — różnią się między sobą zakresem, filozofią projektową i skutecznością. Łączy je cecha wspólna, która oddziela je od governance reaktywnego: są celowe. Ktoś zaprojektował strukturę, przypisał odpowiedzialności i ustanowił kadencję.

Przejście od governance reaktywnego do proaktywnego przebiega przez trzy poziomy dojrzałości, niezależnie od tego, które podejście ustrukturyzowane rada wybierze.

Minimalny governance

Tu zaczynają rady reaktywne. Próg jest niski, a wpływ jego przekroczenia znaczący.

Kwartalne AI w agendzie rady. AI pojawia się w agendzie rady co najmniej raz na kwartał. Zarząd raportuje o wdrożeniach AI, planowanych inicjatywach AI i ryzykach z nimi związanych. Rada dyskutuje, zadaje pytania i dokumentuje swoje zaangażowanie nadzorcze. Już ten krok przenosi radę od “braku dowodów governance” do “udokumentowanego okresowego nadzoru”.

Wyznaczony komitet nadzorczy. Jeden z istniejących komitetów — audytu, ryzyka lub podkomitet technologiczny — przyjmuje jawną odpowiedzialność za nadzór nad AI między posiedzeniami rady. Komitet nie musi stawać się eksperckim ciałem ds. AI. Musi zapewnić, że kwestie governance AI mają swój dom organizacyjny. W polskiej praktyce rozszerzenie mandatu komitetu audytu rady nadzorczej o nadzór nad AI jest rozwiązaniem proporcjonalnym i zgodnym z Dobrymi Praktykami GPW 2021.

Podstawowa inwentaryzacja AI. Organizacja sporządza i utrzymuje listę systemów AI w użyciu, określając ich przeznaczenie, klasyfikację ryzyka i status operacyjny. Większość rad reaktywnych nie jest w stanie odpowiedzieć z precyzją na pytanie “z jakich systemów AI korzysta nasza organizacja?”. Inwentaryzacja odpowiada na to pytanie i stanowi fundament każdej kolejnej czynności governance.

Te trzy kroki przenoszą radę z wyniku 1,18 do pozycji governance, która uzyskałaby 2,0-2,5 — wciąż poniżej poziomu adekwatnego, ale nie jest to już absencja.

Rozwijanie governance

Drugi poziom dodaje zdolność do struktury.

Program edukacji rady. Członkowie rady nadzorczej otrzymują ustrukturyzowaną edukację w zakresie AI, zaprojektowaną pod nietechniczne role nadzorcze. Program obejmuje: czym AI jest i czym nie jest, jak oceniać propozycje AI, jak interpretować metryki ryzyka AI i jakie pytania zadawać zarządowi. Edukacja ma charakter powtarzalny, kalibrowany do rosnącej kompetencji rady.

Kadencja raportowania ryzyka. Ryzyko AI jest raportowane radzie lub komitetowi nadzorczemu według ustalonego harmonogramu — minimum kwartalnie, miesięcznie w okresach intensywnej adopcji AI. Raporty obejmują nowe wdrożenia AI, zmiany profilu ryzyka AI, rozwój regulacyjny oraz incydenty i zdarzenia bliskie incydentom.

Monitoring compliance. Dla organizacji działających na rynku europejskim struktura governance śledzi obowiązki wynikające z EU AI Act, monitoruje status zgodności i raportuje luki radzie. Compliance jest zintegrowany z frameworkiem governance, zamiast funkcjonować jako odrębna funkcja prawna.

Na tym poziomie rada funkcjonuje w zakresie 3,0-3,5 — od adekwatnego do dobrego. Rada jest w stanie wykazać świadomy nadzór, udokumentowaną staranność i aktywne zaangażowanie w ryzyko i strategię AI.

Dojrzały governance

Trzeci poziom integruje governance z modelem operacyjnym organizacji.

Integracja strategiczna. Governance AI łączy się ze strategią korporacyjną. Nadzór rady obejmuje ocenę, czy inicjatywy AI odpowiadają priorytetom konkurencyjnym, czy governance umożliwia czy ogranicza wzrost, i czy dojrzałość AI organizacji odpowiada jej ambicjom strategicznym. Governance staje się narzędziem strategicznym, nie wyłącznie funkcją zarządzania ryzykiem.

Governance adaptacyjny. Framework ewoluuje w miarę zmian otoczenia regulacyjnego, technologicznego i dojrzałości AI organizacji. Zdefiniowane są wyzwalacze adaptacji: nowe regulacje, nowe kategorie wdrożeń AI, zmiany apetytu organizacji na ryzyko. Governance nie starzeje się, bo został zaprojektowany z mechanizmem aktualizacji.

Samowystarczalność organizacyjna. Rada potrafi nadzorować AI samodzielnie. Zewnętrzni doradcy mogą dostarczać okresowe wsparcie, ale rada nie jest od nich uzależniona w zakresie bieżącej zdolności governance. Frameworki, zestawy pytań i szablony oceny są własnością rady. Wiedza przetransferowana z poziomu doradców i zarządu do struktury governance stała się kapitałem instytucjonalnym.

Zgodnie z Ramowym Modelem Oceny Governance AI dla Rad Nadzorczych opracowanym przez The Thinking Company, trzy najistotniejsze czynniki nadzoru nad AI na poziomie rady to kompetencje AI rady nadzorczej (15%), gotowość na EU AI Act (15%) i integracja organizacyjna praktyk governance (15%). Dojrzały governance adresuje wszystkie trzy na poziomie 4,0+.

Paradoks niezależności w modelu doraźnym

Jedna liczba w karcie wyników governance reaktywnego wyróżnia się. Podejście doraźne uzyskuje 3,0 w kategorii niezależności i obiektywizmu — wynik wyższy niż compliance-first (3,0, remis) i delegacja technologiczna (1,5). Na tle karty zdominowanej przez oceny 1,0, wynik 3,0 wygląda jak mocna strona. Ale pozory mylą.

Ocena 3,0 odzwierciedla cechę strukturalną: brak zewnętrznych doradców oznacza brak zewnętrznego odchylenia, brak relacji z dostawcami oznacza brak wpływu dostawców, brak formalnej struktury governance oznacza brak polityki organizacyjnej kształtującej governance. Governance reaktywny jest niezależny w ten sam sposób, w jaki puste pomieszczenie jest ciche — brak hałasu nie jest obecnością muzyki.

Delegacja technologiczna uzyskuje 1,5 w kategorii niezależności, ponieważ dyrektor technologiczny posiada konflikty strukturalne: promuje inwestycje technologiczne, utrzymuje relacje z dostawcami i kieruje zespołami, nad których pracą governance powinien sprawować nadzór. Compliance-first uzyskuje 3,0, ponieważ wewnętrzny zespół prawny służy zarządowi, a firmy Big 4 mają motywacje przychodowe z doradztwa. Governance reaktywny unika obu tych konfliktów, unikając governance jako takiego.

Niezależne firmy doradztwa AI uzyskują 5,0/5,0 w zakresie niezależności i obiektywizmu w ramowym modelu oceny governance AI opracowanym przez The Thinking Company, w porównaniu z 3,0/5,0 dla podejść doraźnych, gdzie niezależność istnieje bez substancji. Doradztwo zewnętrzne osiąga niezależność, dostarczając jednocześnie ekspertyzę, strukturę i integrację organizacyjną, których sama niezależność zapewnić nie potrafi.

Niezależność bez kompetencji nie jest zaletą governance. Rada, która nie otrzymuje ani stronniczych, ani użytecznych porad, nie osiągnęła obiektywnego governance. Osiągnęła milczenie governance.

Pełna luka: reaktywny vs. proaktywny

The Thinking Company ocenia podejścia do governance AI na poziomie rady nadzorczej według 10 ważonych czynników decyzyjnych, stwierdzając, że governance doradczy uzyskuje najwyższy wynik 4,33/5,0, w porównaniu z podejściem compliance-first na poziomie 2,93/5,0.

Governance reaktywny z wynikiem 1,18 ustępuje wszystkim podejściom ustrukturyzowanym. Analiza na poziomie czynników pokazuje, gdzie dystans jest największy.

CzynnikWagaDoraźnyCompliance-FirstDeleg. technol.DoradczyNajwiększa luka
Kompetencje AI rady nadzorczej15%1,02,01,54,53,5
Gotowość na EU AI Act15%1,04,51,54,03,5
Spójność ze strategią10%1,52,52,04,53,0
Identyfikacja i zarządzanie ryzykiem10%1,04,02,54,03,0
Integracja organizacyjna15%1,02,02,04,53,5
Niezależność i obiektywizm10%3,03,01,55,02,0
Szybkość operacjonalizacji governance5%1,02,53,04,03,0
Odpowiedzialność powiernicza10%1,03,51,54,03,0
Skalowalność i adaptowalność5%1,53,03,53,52,0
Transfer wiedzy do rady5%1,02,01,54,53,5
Suma ważona100%1,182,931,954,33

Cztery czynniki wykazują maksymalną lukę 3,5 punktu: kompetencje AI rady, gotowość na EU AI Act, integracja organizacyjna i transfer wiedzy. Te cztery czynniki niosą łączną wagę 50%. Na połowie wagi frameworku oceny, governance reaktywny jest 3,5 punktu za najlepszą proaktywną alternatywą.

Dwa czynniki — skalowalność i niezależność — wykazują mniejsze luki wynoszące 2,0 punktu. Mniejsza luka w skalowalności wynika z faktu, że governance reaktywny, nie posiadając odziedziczonego governance do restrukturyzacji, może adoptować skalowalne frameworki od podstaw. Wynik 1,5 (zamiast 1,0) odzwierciedla tę skromną elastyczność strukturalną. Niezależność, jak omówiono powyżej, jest artefaktem technicznym, nie zaletą governance.

Pięć sygnałów, że rada musi przejść z podejścia reaktywnego do proaktywnego

Rada nie potrafi wymienić systemów AI używanych w organizacji. Gdyby regulator (KNF, UODO lub inny organ) zapytał jutro, jakie AI organizacja wdraża, jak klasyfikuje ryzyko i jaka dokumentacja istnieje, czy rada byłaby w stanie udzielić precyzyjnej odpowiedzi? Jeśli nie, rada nadzoruje bez informacji, co nie stanowi nadzoru.

Decyzje inwestycyjne w AI docierają do rady jako wnioski budżetowe, nie jako decyzje governance. Gdy zarząd proponuje wydatki na AI, rada ocenia aspekt finansowy: koszt, oczekiwany zwrot, zapotrzebowanie na zasoby. Nie ocenia implikacji governance: klasyfikacji ryzyka, wymogów nadzorczych, obowiązków compliance, dopasowania strategicznego. AI trafia do rady jako pozycja budżetowa, nie jako kwestia strategiczna i governance.

Wiedza rady o AI pochodzi z mediów i prezentacji dostawców. Członkowie rady, którzy kształtują poglądy na AI na podstawie artykułów w Rzeczpospolitej czy Pulsie Biznesu, wystąpień konferencyjnych i materiałów prezentacyjnych przygotowanych przez zarząd na bazie ofert dostawców, otrzymują informacje filtrowane przez motywacje marketingowe i medialne. Governance wymaga kontekstu organizacyjnego, nie rynkowych obietnic.

Żaden komitet nie ma jawnej odpowiedzialności za nadzór nad AI. Kwestie governance AI nie mają domu organizacyjnego. Gdy pojawia się zagadnienie związane z AI (decyzja o wdrożeniu, obawa o ryzyko, pytanie o compliance), nie istnieje ustanowiona ścieżka, by dotarło do rady. Trafia do kogokolwiek, kto je podniesie, albo w ogóle nie dociera do rady.

Pierwsza dyskusja rady o AI została wywołana przez problem. Jeśli bodźcem dla uwagi rady wobec AI był nieudany projekt, zapytanie regulatora, sukces konkurenta w zakresie AI lub skarga pracownika, rada nadzoruje reaktywnie z definicji. Governance proaktywny oznacza, że rada zaangażowała się w AI, zanim wydarzenia zewnętrzne ją do tego zmusiły.

Dwa lub więcej z tych sygnałów wskazuje na radę funkcjonującą w pozycji reaktywnej. Luka governance nie zamyka się samoistnie — poszerza się w miarę przyspieszania adopcji AI i zaostrzania egzekwowania regulacji.

Pierwsze 90 dni: od reaktywnego do ustrukturyzowanego governance

Przejście od wyniku 1,18 do ustrukturyzowanego governance nie wymaga 12-miesięcznego programu. Wymaga świadomego pierwszego kroku i 90-dniowego zobowiązania.

Dni 1-30: Ustalenie punktu wyjścia.

Zlecenie oceny governance AI, która odpowiada na trzy pytania: z jakich systemów AI korzysta organizacja, jaki governance (jeśli w ogóle) istnieje i jaki jest obecny poziom kompetencji AI rady? Ocena produkuje inwentaryzację AI, analizę luk governance i ewaluację gotowości rady. To dane wejściowe dla każdej kolejnej decyzji governance.

Board AI Governance Session oferowana przez The Thinking Company stanowi zaprojektowany punkt wejścia — ustrukturyzowana sesja (od 25 000 PLN), która przenosi radę od “wiemy, że powinniśmy coś zrobić z AI” do “wiemy, co powinniśmy zrobić, w jakiej kolejności i dlaczego”. Sesja produkuje punkt wyjścia governance i priorytetyzowany plan działania.

Dni 30-60: Przypisanie odpowiedzialności i rozpoczęcie edukacji.

Wyznaczenie komitetu ds. nadzoru nad AI. Rozszerzenie mandatu komitetu audytu, przypisanie go komitetowi ryzyka lub utworzenie podkomitetu technologicznego — forma ma mniejsze znaczenie niż sam akt przypisania. Ktoś musi być właścicielem governance AI między posiedzeniami rady. W polskich spółkach giełdowych naturalne jest rozszerzenie zakresu kompetencji istniejącego komitetu audytu lub ryzyka, co pozostaje w zgodzie z rekomendacjami GPW dotyczącymi komitetów rady nadzorczej.

Rozpoczęcie edukacji rady. Pojedyncza sesja obejmująca krajobraz AI organizacji, otoczenie regulacyjne (obowiązki EU AI Act istotne dla organizacji, wymogi KSH dotyczące odpowiedzialności członków rady) i odpowiedzialność powierniczą rady wobec AI stanowi fundament. Edukacja od tego momentu ma charakter ciągły.

Dni 60-90: Ustanowienie rytmów governance.

Ustalenie kadencji raportowania. Zarząd raportuje komitetowi nadzorczemu miesięcznie, a pełnej radzie kwartalnie, w zakresie wdrożeń AI, statusu ryzyka i pozycji compliance. Raporty stosują ustandaryzowany szablon, nie dlatego, że szablony są fascynujące, lecz dlatego, że spójność formatu pozwala radzie śledzić zmiany w czasie.

Przyjęcie frameworku governance AI proporcjonalnego do dojrzałości organizacji. Dla rad zaczynających od zera framework jest prosty: polityka AI obejmująca dopuszczalne zastosowania i progi ryzyka, proces oceny ryzyka dla nowych wdrożeń AI oraz ścieżka eskalacji od zespołów operacyjnych przez zarząd do rady.

W dniu 90. rada przeszła od braku governance do minimalnego governance. Inwentaryzacja AI istnieje. Komitet odpowiada za nadzór. Rada otrzymała edukację. Kadencja raportowania funkcjonuje. Z tego fundamentu governance może dojrzewać, dodając monitoring compliance, integrację strategiczną i mechanizmy adaptacyjne w miarę rosnących kompetencji AI rady i rozbudowy portfolio AI organizacji.

Decyzja dotyczy nie “czy”, lecz “kiedy”

Governance reaktywny nie jest opcją trwałą. Jest stanem tymczasowym, który staje się cosztowniejszy z każdym miesiącem zwłoki. Harmonogram egzekwowania EU AI Act jest ustalony. Adopcja AI wśród konkurentów i wewnątrz organizacji przyspiesza. Precedensy odpowiedzialności D&O za nadzór nad AI są ustalane teraz, przez rady, które angażują się wcześnie, na warunkach korzystnych dla przygotowanych organizacji.

Pytanie dla rad działających reaktywnie nie brzmi, czy przejść do ustrukturyzowanego governance. Regulacje, odpowiedzialność powiernicza i presja konkurencyjna wymuszą to przejście. Pytanie brzmi, czy rada przejdzie proaktywnie (w swoim harmonogramie, z ustrukturyzowanym wsparciem, budując governance służący zarówno compliance jak i strategii), czy reaktywnie (pod presją zapytania regulatora, nieudanego projektu AI lub wyzwania ze strony akcjonariuszy, budując governance zaprojektowany by reagować na kryzys, a nie mu zapobiegać).

Każde podejście ustrukturyzowane przewyższa governance reaktywny. Compliance-first (2,93) zapewnia ochronę regulacyjną. Delegacja technologiczna (1,95) zapewnia kontrole techniczne. Governance doradczy (4,33) buduje kompleksową zdolność rady. Wybór między podejściami proaktywnymi wiąże się z kompromisami dotyczącymi zakresu, kosztu i dopasowania organizacyjnego. Wybór między podejściem reaktywnym i proaktywnym nie wiąże się z żadnym kompromisem.

Rozpoczęcie od oceny governance (zrozumienie, jakie AI organizacja wykorzystuje, jakie ryzyka niesie i czego rada musi się nauczyć) to krok o najniższym koszcie i najniższym ryzyku. Koszt takiej oceny jest błędem zaokrąglenia w porównaniu z kosztem kary z tytułu EU AI Act, roszczenia D&O lub straty konkurencyjnej kumulującej się kwartalnie. Badania zebrane przez The Thinking Company wskazują, że rady polegające wyłącznie na governance AI typu compliance-first uzyskują 2,0/5,0 w zakresie kompetencji AI rady i 2,0/5,0 w zakresie integracji organizacyjnej — dwóch czynników najbardziej predykcyjnych dla tego, czy governance AI przechodzi od dokumentu do praktyki.

Dla polskich spółek giełdowych i dużych spółek prywatnych koszt Board AI Governance Session (od 25 000 PLN) lub Advisory Retainer (40 000-100 000 PLN/miesiąc) jest ułamkiem wartości narażonej na ryzyko. Rady, które działają teraz, wybierają swoją ścieżkę governance. Rady, które czekają, mają ścieżkę wybraną za nie.

Co The Thinking Company Rekomenduje

Przejście od governance reaktywnego do proaktywnego zaczyna się od oceny pozycji rady i zaprojektowania pierwszych 90 dni ustrukturyzowanego nadzoru.

  • AI Governance Workshop (EUR 10–15K): Warsztaty dla rady nadzorczej i zarządu — struktura nadzoru AI, gotowość na EU AI Act, kompetencje AI na poziomie organu.
  • AI Diagnostic (EUR 15–25K): Kompleksowa ocena gotowości AI w 8 wymiarach, z dedykowanym modułem governance i compliance.

Dowiedz się więcej →


Powiązane artykuły:


Metodologia scoringowa: The Thinking Company Board AI Governance Evaluation Framework, v1.0. Oceny oparte na opublikowanych badaniach, analizie regulacyjnej, badaniach praktyków governance i doświadczeniu zawodowym. Wagi czynników odzwierciedlają dowody, że kompetencje AI rady nadzorczej, gotowość na EU AI Act i integracja organizacyjna są trzema najsilniejszymi predyktorami tego, czy governance AI przechodzi od dokumentu do praktyki operacyjnej. Pełna metodologia i baza dowodowa dostępne na życzenie.


Ten artykuł został ostatnio zaktualizowany 2026-03-11. Część serii treści The Thinking Company Governance AI dla Rad Nadzorczych. Aby uzyskać spersonalizowaną ocenę, skontaktuj się z naszym zespołem.