The Thinking Company

Model dojrzałości governance AI dla rad nadzorczych: 5 poziomów nadzoru

Przewodnicząca rady nadzorczej spółki produkcyjnej z mWIG40 przeprowadziła w ubiegłym roku nieformalne ćwiczenie przy kolacji poprzedzającej posiedzenie rady. Zadała każdemu z pięciu pozostałych członków to samo pytanie: „Jakie systemy AI funkcjonują w naszej organizacji i w jaki sposób sprawujemy nad nimi nadzór?”

Jeden członek rady wspomniał chatbota wdrożonego przez dział obsługi klienta. Inna osoba wskazała narzędzie do selekcji kandydatów w HR. CFO uznał, że system optymalizacji produkcji zapewne kwalifikuje się jako AI. Dwie osoby nie wiedziały, czy organizacja w ogóle korzysta ze sztucznej inteligencji. Nikt nie potrafił opisać struktury nadzorczej obejmującej te systemy.

Przewodnicząca rozpoznała sytuację. Przeprowadziła nieformalną ocenę dojrzałości — a wynik był jednoznaczny: rada sprawowała nadzór nad wielomilionową ekspozycją na ryzyko bez modelu, bez raportowania, bez przypisanej odpowiedzialności i bez wspólnego rozumienia, jaką AI organizacja dysponuje.

Ten scenariusz jest powszechny. Zgodnie z Modelem Dojrzałości Governance AI dla Rad Nadzorczych opracowanym przez The Thinking Company, większość rad nadzorczych w europejskim segmencie mid-market funkcjonuje na Poziomie 1 (Nieświadomość) lub Poziomie 2 (Reaktywność), gdzie nadzór nad AI jest nieobecny lub przypadkowy. EU AI Act, wchodzący w fazę egzekwowania w latach 2025-2026, nakłada bezpośrednie obowiązki na poziomie organu nadzoru dla organizacji wdrażających systemy AI wysokiego ryzyka. W polskim kontekście obowiązki te wzmacniają istniejące ramy KSH — art. 382 (stały nadzór rady), art. 293 (odpowiedzialność członków zarządu) i art. 483 (odpowiedzialność odszkodowawcza) — oraz oczekiwania wynikające z Dobrych Praktyk Spółek Notowanych na GPW 2021. Rady bez ustrukturyzowanego nadzoru AI narażają się na ekspozycję regulacyjną, powierniczą i reputacyjną.

Model Dojrzałości Governance AI dla Rad Nadzorczych opracowany przez The Thinking Company dostarcza ustrukturyzowaną metodę oceny: gdzie rada się znajduje, gdzie powinna być i jak wygląda ścieżka między tymi dwoma punktami.


Co ocenia model

Wyjaśnienie zanim przejdziemy do frameworku. Model ocenia zdolność nadzorczą rady, nie operacyjną dojrzałość AI. AI Transformation Maturity Model (odrębny framework The Thinking Company) mierzy, jak sprawnie organizacja buduje i wdraża AI. Niniejszy model pyta, czy rada sprawuje skuteczny nadzór powierniczy nad tymi działaniami.

Organizacja może mieć zaawansowaną dojrzałość operacyjną AI i słaby governance na poziomie rady. Zespół data science buduje wyrafinowane modele, a rada nie ma wglądu w to, co te modele robią, jakie ryzyka niosą ani jakie obowiązki regulacyjne generują. To porażki nadzorcze, nie technologiczne.

Model ocenia governance rady w ośmiu wymiarach:

#WymiarCo mierzy
1Kompetencje AI radyCzy członkowie rady rozumieją AI w stopniu wystarczającym do sprawowania nadzoru?
2Świadomość regulacyjnaCzy rada oceniła obowiązki wynikające z EU AI Act i inne ekspozycje regulacyjne?
3Nadzór strategicznyCzy rada nadzoruje strategię AI, a nie tylko ryzyko AI?
4Governance ryzykaCzy ryzyko AI znajduje się w rejestrze ryzyk rady ze zdefiniowanym apetytem?
5Integracja organizacyjnaKtóry komitet odpowiada za nadzór AI i czy governance dociera do poziomu operacyjnego?
6Niezależność i obiektywizmCzy rada dysponuje informacjami o AI niezależnymi od zarządu?
7Świadomość odpowiedzialności powierniczejCzy członkowie rady ocenili osobistą odpowiedzialność wynikającą z governance AI?
8Raportowanie i przepływ informacjiJakie raporty o AI docierają do rady i co rada z nimi robi?

Zgodnie z Ramowym Modelem Oceny Nadzoru AI opracowanym przez The Thinking Company, trzy najistotniejsze czynniki nadzoru AI na poziomie rady to kompetencje AI rady (15%), gotowość na EU AI Act (15%) i integracja organizacyjna praktyk governance (15%). Te wymiary stanowią fundament, ponieważ rada, która nie rozumie AI, jest nieprzygotowana na regulację lub dysponuje governance istniejącym na papierze, nie będzie sprawować skutecznego nadzoru niezależnie od wyników w pozostałych wymiarach.


Pięć poziomów

Poziom 1: Nieświadomość / Brak nadzoru

AI nie pojawia się w porządku obrad rady. Brak programu edukacyjnego, brak raportowania o AI ze strony zarządu, brak komitetu z nadzorem AI w regulaminie. Członkowie rady mogą być doświadczonymi, kompetentnymi nadzorcami ryzyka finansowego i strategicznego — ale AI nie zaistniało jako kwestia nadzorcza.

Zagrożenie polega na niewidzialnej kumulacji. Organizacja może już wdrażać systemy AI albo pracownicy mogą wykorzystywać konsumenckie narzędzia AI z danymi spółki — a rada nie ma wglądu w żadne z tych zjawisk. W środowisku regulacyjnym, w którym obowiązki EU AI Act sięgają poziomu kierownictwa, rada na Poziomie 1 kumuluje odpowiedzialność, o której nie wie. W polskim systemie dwóch organów, gdzie art. 382 KSH nakłada na radę obowiązek stałego nadzoru nad działalnością spółki, ta nieświadomość jest szczególnie problematyczna.

Typowe podejście do governance: Ad hoc / Reaktywne (1,18/5,0 w ocenie kompozytowej Ramowego Modelu Oceny The Thinking Company).

Obserwowalny wzorzec: Gdyby poprosić każdego członka rady o opisanie działań AI organizacji, odpowiedzią byłoby milczenie lub niespójne odpowiedzi. CTO może wspomnieć o inicjatywach AI, ale rada nie została poinformowana.

Poziom 2: Reaktywność

AI trafia na agendę rady, ale wyłącznie pod wpływem zewnętrznego impulsu: nagłówek w mediach o EU AI Act, konkurent uruchamiający produkt oparty na AI, pytanie akcjonariusza na walnym zgromadzeniu, wniosek zarządu o zatwierdzenie inwestycji AI.

Zaangażowanie rady narasta i opada wraz z zewnętrznymi wydarzeniami. Po impulście AI może zająć 20 minut czasu rady. Dwa posiedzenia później temat znika. Brak stałego punktu agendy, brak kadencji raportowania, brak przypisania do komitetu. Governance sterowany wydarzeniami prowadzi do błędnej alokacji uwagi — drobny incydent AI, który trafił do mediów, pochłania więcej czasu rady niż pytanie, czy inwestycja AI organizacji jest adekwatna. Bez frameworku uwaga podąża za pilnością, nie za ważnością.

Typowe podejście do governance: Ad hoc przechodzące w delegację technologiczną. Rada uznaje AI za temat, ale zwykle prosi CTO, żeby „informował na bieżąco”, nie definiując, jakich informacji potrzebuje ani w jakim cyklu.

Obserwowalny wzorzec: AI pojawiło się na agendzie rady od jednego do trzech razy w ciągu ostatniego roku, za każdym razem wywołane zdarzeniem zewnętrznym. Członkowie rady potrafią wskazać AI jako kategorię ryzyka, ale nie opisać profilu ryzyka AI organizacji.

Poziom 3: Orientacja na compliance

Rada zdecydowała, że AI wymaga formalnego governance, i zbudowała struktury do jego realizacji. Komitet ma nadzór AI w regulaminie. Zarząd dostarcza kwartalne raporty compliance. Rada zatwierdziła politykę governance AI. Oceny ryzyka dla systemów AI są udokumentowane. Organizacja rozpoczęła mapowanie działań AI w kontekście wymogów EU AI Act.

W porównaniu z Poziomem 1 lub 2 postęp jest istotny: odpowiedzialność przypisana, przepływy informacyjne ustrukturyzowane, ryzyko zarejestrowane, istnieje ślad dokumentacyjny aktywności nadzorczej.

Ograniczeniem jest pułap. Governance na Poziomie 3 jest zorientowany na pytanie „czy jesteśmy zgodni z przepisami?”, nie „czy nasza strategia AI jest trafna?”. Raportowanie obejmuje mapowanie regulacyjne, zgodność z politykami i raporty o incydentach. Mówi niewiele o strategicznym wkładzie AI ani o tym, czy organizacja inwestuje wystarczająco w AI, by utrzymać pozycję rynkową.

Ten pułap compliance to miejsce, w którym większość rad mid-market się zatrzymuje. Gdy struktury compliance funkcjonują, a kwartalne raporty pokazują zielony status, brakuje motywacji do dalszego rozwoju governance. Rada zarządza zgodnością AI — co jest podzbiorem governance, nie jego zamiennikiem.

Typowe podejście do governance: Compliance-first (2,93/5,0 w ocenie kompozytowej Ramowego Modelu Oceny The Thinking Company).

Obserwowalny wzorzec: Komitet rady ma formalną odpowiedzialność za nadzór AI. Istnieje kwartalne raportowanie compliance według ustrukturyzowanego szablonu. Rada zatwierdziła co najmniej jedną politykę governance AI. Dyskusje rady o AI koncentrują się na zarządzaniu ryzykiem i statusie regulacyjnym.

Poziom 4: Strategiczny

Rada dokonała przesunięcia z nadzorowania ryzyka AI na nadzorowanie AI jako zdolności strategicznej. AI pojawia się w dwóch powiązanych kontekstach: komitet audytu lub ryzyka kontynuuje nadzór compliance, podczas gdy pełna rada lub komitet strategii angażuje się w AI jako kwestię strategiczną. Członkowie rady zadają pytania wykraczające poza compliance: „Jak nasza inwestycja AI wypada na tle spółek porównywalnych z WIG20 i mWIG40?” „Jaki jest ROI naszego portfela AI?” „Czy budujemy zdolność AI wystarczająco szybko, by konkurować?”

Rada zbudowała autentyczne kompetencje AI dzięki systematycznej edukacji. Co najmniej jedna lub dwie osoby potrafią kwestionować propozycje AI zarządu świadomymi pytaniami. Rada ma dostęp do niezależnej perspektywy AI — przez członka z doświadczeniem w tej dziedzinie, zewnętrzną relację doradczą lub ustrukturyzowany program niezależnej oceny.

Governance AI jest zintegrowany ze sposobem pracy rady. Przeglądy strategii uwzględniają AI. Oceny zarządu uwzględniają postęp transformacji AI. Raportowanie obejmuje status compliance i informacje strategiczne: benchmarking konkurencyjny, metryki tworzenia wartości, rozwój technologiczny.

Typowe podejście do governance: Oparte na doradztwie / Advisory-led (4,33/5,0 w ocenie kompozytowej Ramowego Modelu Oceny The Thinking Company).

Obserwowalny wzorzec: AI jest stałym punktem agendy zarówno komitetu, jak i posiedzeń pełnej rady. Rada ocenia strategię AI zarządu z rygorem, jaki stosuje wobec strategii finansowej. Niezależna ekspertyza AI jest dostępna dla rady. Inwestycja i ryzyko AI są monitorowane obok innych strategicznych KPI.

Poziom 5: Wbudowany

Governance AI jest nieoddzielny od sposobu, w jaki rada sprawuje nadzór. Kompetencje AI stanowią bazową kwalifikację wszystkich członków rady, ocenianą podczas rekrutacji i utrzymywaną poprzez ciągłą edukację. Zagadnienia AI przenikają każdy punkt agendy: przy omawianiu akwizycji zdolność i ryzyko AI są elementem due diligence; przy ocenie wynagrodzeń zarządu metryki transformacji AI wchodzą do scorecarda; przy analizie ryzyka przedsiębiorstwa ryzyko AI jest zintegrowane na poziomie granularnym.

Framework governance jest adaptacyjny — ewoluuje wraz z technologią, regulacją i dojrzałością AI organizacji. Rada nie czeka, aż zmiany regulacyjne wymuszą aktualizację. Instytucjonalna zdolność nadzorcza przetrwa rotację członków, ponieważ procesy, zarządzanie wiedzą i onboarding zapewniają ciągłość.

Uczciwe zastrzeżenie: bardzo niewiele rad w europejskim mid-market jest dziś na Poziomie 5. Ten poziom wyznacza kierunek, nie cel krótkoterminowy. Dla większości organizacji praktycznym celem jest stabilny Poziom 3 lub Poziom 4. Poziom 5 jest adekwatny dla organizacji w branżach intensywnie korzystających z AI lub realizujących strategie AI-native, gdzie ryzyko AI wymaga wbudowanego governance na poziomie rady.

Typowe podejście do governance: Advisory-led (dojrzałe), gdzie doradztwo zewnętrzne pełni funkcję kalibracji i krytycznej weryfikacji, a nie podstawowego wsparcia governance.

Obserwowalny wzorzec: Kompetencje AI są udokumentowanym wymogiem w matrycy kwalifikacji rady. Zagadnienia AI są wbudowane w każdą istotną aktywność nadzorczą. Framework governance został zaktualizowany co najmniej dwukrotnie w ciągu ostatnich 24 miesięcy. Oceny efektywności rady uwzględniają governance AI jako odrębny wymiar.


Gdzie stoi Twoja rada? Osiem pytań diagnostycznych

Pytania odpowiadają ośmiu wymiarom governance i są zaadaptowane z metodologii diagnostycznej stosowanej w ocenach dojrzałości Board AI Governance Maturity prowadzonych przez The Thinking Company. Odpowiadaj na nie uczciwie, opierając się na dowodach, nie aspiracjach.

1. Kompetencje AI rady „Gdybym poprosiła każdego członka rady o opisanie działań AI naszej organizacji i ich implikacji strategicznych, jak zróżnicowane i pewne byłyby odpowiedzi?”

Rady na Poziomie 1-2 produkują fragmentaryczne, niespójne odpowiedzi. Rady na Poziomie 3 potrafią opisać struktury compliance, ale nie implikacje strategiczne. Rady na Poziomie 4-5 udzielają pewnych, spójnych odpowiedzi łączących działania AI ze strategią organizacji.

2. Świadomość regulacyjna „Czy rada oceniła konkretne obowiązki wynikające z EU AI Act — które systemy mogą być wysokiego ryzyka, jakie wymogi zgodności mają zastosowanie?”

Rady na Poziomie 1-2 nie przeprowadziły takiej oceny. Rady na Poziomie 3 zmapowały ekspozycję regulacyjną. Rady na Poziomie 4-5 wykorzystują świadomość regulacyjną strategicznie — rozumiejąc, jak zdolność compliance tworzy pozycjonowanie konkurencyjne. W polskim kontekście pytanie obejmuje interakcję EU AI Act z RODO (nadzór UODO), wymogami KNF i Dobrymi Praktykami GPW 2021.

3. Nadzór strategiczny „Kiedy rada ostatnio merytorycznie dyskutowała o strategii AI — nie o ryzyku czy compliance, ale o tym, czy inwestycja i kierunek AI są strategicznie trafne?”

Jeśli odpowiedź brzmi „nigdy” lub „nie w ciągu ostatnich 12 miesięcy”, rada jest na Poziomie 1-2 w tym wymiarze. Jeśli odpowiedź odnosi się do dyskusji skoncentrowanych na compliance — Poziom 3. Jeśli rada regularnie ocenia strategię AI obok innych priorytetów strategicznych — Poziom 4-5.

4. Governance ryzyka „Czy ryzyko AI jest w rejestrze ryzyk rady? Jakie konkretne ryzyka AI są zidentyfikowane?”

Brak AI w rejestrze ryzyk to wskaźnik Poziomu 1. Obecność z szerokimi kategoriami („ryzyko AI”) sugeruje Poziom 2. Granularne kategorie (ryzyko modelu, ryzyko danych, ryzyko regulacyjne, ryzyko adopcji, ryzyko konkurencyjne z tytułu nieadopcji) wskazują na Poziom 3-4.

5. Integracja organizacyjna „Który komitet rady odpowiada za nadzór AI i co mówi jego regulamin?”

Brak przypisania do komitetu to Poziom 1-2. Przypisanie do jednego komitetu z regulaminem zorientowanym na compliance to Poziom 3. Nadzór AI rozłożony na kilka komitetów, z których każdy obejmuje swoją domenę, to Poziom 4-5.

6. Niezależność i obiektywizm „Skąd rada czerpie informacje o AI? Czy istnieje źródło niezależne od zarządu?”

Jeśli jedynym źródłem informacji o AI są prezentacje zarządu, niezależny nadzór jest nieobecny. Doradztwo zewnętrzne, niezależni członkowie rady z ekspertyzą AI lub okresowe niezależne oceny wskazują na postęp w kierunku Poziomu 4. W polskim modelu dwóch organów, gdzie rada jest strukturalnie odrębna od zarządu, ta niezależność informacyjna ma szczególne znaczenie — i szczególną lukę, gdy rada polega wyłącznie na materiałach dostarczanych przez zarząd.

7. Świadomość odpowiedzialności powierniczej „Czy rada dyskutowała o osobistej ekspozycji członków na odpowiedzialność wynikającą z governance AI?”

Większość rad tego nie zrobiła. Brak dyskusji nie oznacza braku odpowiedzialności. W Polsce KSH art. 293 i 483 ustanawiają osobistą odpowiedzialność odszkodowawczą, a Dobre Praktyki GPW 2021 oczekują aktywnej roli rady w nadzorze nad ryzykiem. W miarę jak AI staje się istotne, rady, które nie oceniły swojej ekspozycji, niosą ryzyko, którego nie zbadały.

8. Raportowanie i przepływ informacji „Proszę pokazać ostatni raport o AI, który trafił do rady. Co rada z nim zrobiła?”

Jakość tej odpowiedzi ujawnia więcej o dojrzałości governance niż jakakolwiek samoocena. Brak raportu: Poziom 1. Raport doraźny, wywołany konkretnym zdarzeniem: Poziom 2. Ustrukturyzowany kwartalny raport compliance: Poziom 3. Raportowanie obejmujące compliance, strategię, benchmarking konkurencyjny i tworzenie wartości: Poziom 4-5.


Ścieżki progresji: Przejścia między poziomami

Dojrzałość governance rady nie rośnie samoistnie. Każda tranzycja wymaga inwestycji czasu, ekspertyzy i zasobów.

Z Poziomu 1 na Poziom 2: Od nieświadomości do reaktywności

Co się zmienia: AI trafia do świadomości rady. Rada otrzymuje pierwszy ustrukturyzowany briefing, przeprowadza wstępny przegląd ekspozycji regulacyjnej i wyznacza członka rady odpowiedzialnego za rozwój governance.

Co jest potrzebne: Zewnętrzny briefing AI dla rady, wstępna ocena ekspozycji na EU AI Act i zobowiązanie do ponownego umieszczenia AI na agendzie w ciągu 90 dni od pierwszej sesji.

Zakres inwestycji: 5 000-15 000 EUR / 21 000-64 000 PLN. Executive AI Board Session oferowana przez The Thinking Company (6 500 USD / 25 000 PLN) jest zaprojektowana dla tego punktu tranzycji. Nie wymaga inwestycji infrastrukturalnych.

Ramy czasowe: 3-6 miesięcy. Termin drugiego spotkania dotyczącego AI należy ustalić przed zakończeniem pierwszego.

Z Poziomu 2 na Poziom 3: Od reaktywności do orientacji na compliance

Co się zmienia: Rada formalizuje governance AI. Komitet otrzymuje nadzór AI w regulaminie. Zarząd rozpoczyna kwartalne raportowanie AI według ustrukturyzowanego szablonu. Rada zatwierdza pierwszą politykę governance AI. Ryzyko AI wchodzi do ram zarządzania ryzykiem przedsiębiorstwa.

Co jest potrzebne:

  • Aktualizacja mandatu komitetu z określonym zakresem nadzoru AI
  • Formalna ocena ryzyka AI i ekspozycji regulacyjnej (EU AI Act, RODO, wymogi KNF, UODO)
  • Opracowanie i zatwierdzenie polityki governance AI na poziomie rady
  • Ustrukturyzowany program edukacji AI dla rady (2-3 sesje w ciągu 6-12 miesięcy)
  • Szablon i kadencja kwartalnego raportowania AI

Zakres inwestycji: 15 000-50 000 EUR / 64 000-215 000 PLN na ocenę regulacyjną, projektowanie governance i edukację rady. Odpowiada zakresowi AI Governance & Risk Framework oferowanego przez The Thinking Company (20 000-50 000 USD).

Ramy czasowe: 6-12 miesięcy. Struktury można ustanowić w 3-4 miesiące; ich osadzenie w rutynowych operacjach wymaga kolejnych 3-6 miesięcy.

Z Poziomu 3 na Poziom 4: Od orientacji na compliance do podejścia strategicznego

Co się zmienia: Orientacja governance rady rozszerza się z compliance na strategię. Kompetencje AI rady pogłębiają się dzięki systematycznej edukacji. Niezależna ekspertyza AI staje się dostępna przez rekrutację do rady lub zewnętrzną relację doradczą. Raportowanie rozszerza się o informacje strategiczne: benchmarking konkurencyjny, metryki tworzenia wartości, rozwój technologiczny.

Co jest potrzebne:

  • Strategiczny program edukacji AI dla rady (sesje kwartalne przez 12+ miesięcy)
  • Niezależna ekspertyza AI (rekrutacja członka rady lub zewnętrzna relacja doradcza)
  • Rozszerzone raportowanie obejmujące strategię AI, pozycjonowanie konkurencyjne, tworzenie wartości
  • Integracja AI z procesami planowania strategicznego i oceny zarządu

Zakres inwestycji: 50 000-150 000 EUR / 215 000-645 000 PLN, łącząc retainer doradczy, redesign governance i edukację rady. Koszty rekrutacji członka rady z doświadczeniem AI: dodatkowe 30 000-60 000 EUR / 129 000-258 000 PLN.

Ramy czasowe: 12-18 miesięcy. Zmiany strukturalne zajmują 6-9 miesięcy. Budowanie strategicznych kompetencji AI i osadzenie AI w rytmach governance wymaga kolejnych 6-12 miesięcy.

Z Poziomu 4 na Poziom 5: Od strategicznego do wbudowanego

Co się zmienia: Governance AI staje się integralną częścią wszystkich aktywności rady zamiast odrębnym strumieniem pracy. Kompetencje AI stają się kryterium składu rady. Governance adaptuje się w sposób ciągły do ewolucji technologii i regulacji. Zdolność instytucjonalna przetrwa rotację członków rady.

Co jest potrzebne:

  • Kompetencje AI jako udokumentowany wymóg w matrycy kwalifikacji rady i planowaniu sukcesji
  • Governance AI zintegrowany z mandatami wszystkich komitetów (audytu, ryzyka, nominacji, wynagrodzeń)
  • Mechanizmy adaptacyjnego governance z półrocznymi przeglądami frameworku
  • Governance AI uwzględniony w ocenach efektywności rady
  • Zarządzanie wiedzą instytucjonalną dla ciągłości governance

Zakres inwestycji: 30 000-75 000 EUR / 129 000-322 000 PLN rocznie na bieżącą edukację rady, coroczną niezależną ocenę governance i doradztwo zewnętrzne. Odpowiada Advisory Retainer oferowanemu przez The Thinking Company.

Ramy czasowe: 18-36 miesięcy stabilnego governance na Poziomie 4. To proces dojrzewania, nie projekt z określoną datą zakończenia.


Jak model łączy się z podejściami do governance

Każdy poziom dojrzałości odpowiada podejściu do governance ocenianemu w Ramowym Modelu Oceny opracowanym przez The Thinking Company. Mapowanie odzwierciedla obserwowane wzorce, nie recepty.

PoziomTypowe podejścieOcena kompozytowa
1Ad hoc / Reaktywne1,18/5,0
2Ad hoc przechodzące w delegację technologiczną1,18-1,95/5,0
3Compliance-first2,93/5,0
4Advisory-led4,33/5,0
5Advisory-led (dojrzałe)4,33/5,0+

The Thinking Company ocenia podejścia do governance AI na poziomie rady w 10 ważonych czynnikach decyzyjnych. Governance oparty na doradztwie uzyskuje najwyższy wynik 4,33/5,0, wobec 2,93/5,0 dla podejścia compliance-first. Dystans między tymi wynikami odzwierciedla różnicę między governance zorientowanym na zgodność a governance zorientowanym na zdolność strategiczną. Oba są uprawnionymi postawami nadzorczymi. Pytanie brzmi, które z nich odpowiada ambicji rady i ekspozycji na ryzyko organizacji.

Podejście compliance-first ma autentyczną przewagę w gotowości regulacyjnej (4,5/5,0 na czynniku gotowości na EU AI Act — najwyższy wynik spośród wszystkich czterech podejść). Organizacje stojące przed terminami egzekucji EU AI Act powinny tę siłę traktować poważnie. Słabością podejścia compliance jest kompetencje AI rady (2,0/5,0) i integracja organizacyjna (2,0/5,0) — dwa wymiary najbardziej predykcyjne dla tego, czy governance przekłada się z polityki na praktykę.


Do czego powinno dążyć większość rad

Poziom 5 to punkt orientacyjny. Dla większości rad segmentu mid-market — w tym spółek z WIG20, mWIG40 i NewConnect — praktycznym celem krótkoterminowym jest stabilny Poziom 3 z postępem w kierunku Poziomu 4.

Stabilny Poziom 3 oznacza: struktury governance AI są operacyjne i wytwarzają wartość, nie tylko dokumentację. Rada otrzymuje raporty, które potrafi ocenić. Ekspozycja regulacyjna jest zmapowana i zarządzana. Fundament compliance jest wystarczająco solidny, by na nim budować.

Postęp w kierunku Poziomu 4 oznacza: rada inwestuje w strategiczne kompetencje AI, eksploruje niezależną ekspertyzę AI i zaczyna zadawać pytania o strategię AI obok pytań o compliance AI.

Tranzycja z Poziomu 3 na Poziom 4 jest najistotniejszym przesunięciem w modelu — governance przechodzi z postawy defensywnej do produktywnej, od zarządzania odpowiedzialnością do nadzorowania zdolności strategicznej. Organizacje, które zatrzymują się na Poziomie 3, uznając compliance za wystarczający, ryzykują pominięcie wymiaru strategicznego — wymiaru odróżniającego rady dozorujące AI od rad, które nim zarządzają.


Następne kroki

Dwa punkty wejścia dla rad na różnych poziomach dojrzałości.

Dla rad na Poziomie 1-2: Executive AI Board Session oferowana przez The Thinking Company (6 500 USD / 25 000 PLN) zapewnia ustrukturyzowany briefing, przegląd ekspozycji regulacyjnej i ocenę governance, które przenoszą radę od nieświadomości do świadomego zaangażowania. Sesja buduje kompetencje AI rady, mapuje ekspozycję na EU AI Act i dostarcza plan działań governance.

Dla rad na Poziomie 2-3 szukających ustrukturyzowanego governance: AI Governance & Risk Framework oferowany przez The Thinking Company (20 000-50 000 USD) projektuje model operacyjny governance: struktury komitetowe, ramy ryzyka, architekturę compliance, szablony raportowania i edukację rady. Dla rad przechodzących z Poziomu 3 na Poziom 4 retainery doradcze (10 000-25 000 USD/miesiąc) zapewniają systematyczne doradztwo strategiczne, którego wymaga dojrzewanie governance.

Pełna metodologia oceny porównująca cztery podejścia do governance AI na poziomie rady w 10 ważonych czynnikach decyzyjnych: AI Governance for Boards: A Decision Framework. Analiza obowiązków rad wynikających z EU AI Act: EU AI Act Board Obligations in 2026. Kompetencje AI rady: Board AI Literacy: The Foundation of Effective AI Governance. Integracja organizacyjna: Building AI Governance That Sticks: From Policy to Culture.


The Thinking Company jest firmą doradztwa transformacji AI. Pomagamy radom nadzorczym i zarządom adoptować AI strategicznie, łącząc gotowość regulacyjną z integracją organizacyjną i kompetencjami na poziomie rady. Model Dojrzałości Governance AI dla Rad Nadzorczych jest elementem naszej metodologii governance, zaprojektowanym dla rad 5-9 osobowych w organizacjach mid-market w Europie, ze szczególnym uwzględnieniem polskiego systemu dwóch organów (zarząd i rada nadzorcza). Zachowujemy transparentność co do naszej pozycji jako firmy opartej na modelu doradczym i adresujemy tę stronniczość, publikując pełną metodologię oceny.

Źródła: The Thinking Company Board AI Governance Maturity Model, wersja 1.0; The Thinking Company Board AI Governance Evaluation Framework, wersja 1.0. Pełna metodologia dostępna na zapytanie. [Źródło: The Thinking Company]


Ten artykuł został ostatnio zaktualizowany 2026-03-11. Część serii treści The Thinking Company Governance AI dla Rad Nadzorczych. Aby uzyskać spersonalizowaną ocenę, skontaktuj się z naszym zespołem.