The Thinking Company

Nadzór AI dla rad nadzorczych: Framework decyzyjny 2026 dla europejskich dyrektorów

Rady nadzorcze europejskich spółek mid-market muszą do sierpnia 2026 roku wdrożyć udokumentowane struktury governance AI, aby spełnić wymogi EU AI Act i uniknąć kar do 7% globalnego obrotu. Niniejszy framework ocenia cztery podejścia do nadzoru AI na poziomie rady w 10 ważonych czynnikach decyzyjnych — od compliance-first (2,93/5,0) po advisory-led (4,33/5,0) — z konkretnymi rekomendacjami dla polskich spółek podlegających KSH, KNF i Dobrym Praktykom GPW 2021.

Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 — znane jako EU AI Act, a w polskim dyskursie coraz częściej jako Ustawa o AI — weszło w fazę stopniowego egzekwowania w 2025 roku. Do sierpnia 2026 organizacje wdrażające systemy AI wysokiego ryzyka na terenie Unii Europejskiej muszą wykazać udokumentowane procesy governance, zarządzania ryzykiem i nadzoru ludzkiego. Struktury odpowiedzialności sięgają poziomu organu nadzoru. Członkowie rad nadzorczych, którzy nie potrafią wyjaśnić, w jaki sposób ich organizacja klasyfikuje, monitoruje i kontroluje ryzyko AI, narażają się na odpowiedzialność osobistą w ramach istniejących ram obowiązków powierniczych — wzmocnionych regulacją traktującą nieadekwatny nadzór AI jako uchybienie governance.

Większość europejskich rad nadzorczych nie jest na to przygotowana. Badanie Gartnera z 2025 roku wykazało, że mniej niż 15% rad otrzymało ustrukturyzowaną edukację w zakresie AI, a mniej niż 10% ustanowiło formalne mechanizmy nadzoru AI wykraczające poza delegowanie tematu do dyrektora ds. technologii lub funkcji compliance. W Polsce sytuacja jest prawdopodobnie gorsza — mimo rosnących wymagań KNF wobec instytucji finansowych i coraz wyraźniejszych oczekiwań GPW w zakresie Dobrych Praktyk Spółek Notowanych 2021. Dystans między tym, co rady robią, a tym, czego wymaga od nich regulacja, jest szeroki. Zamyka się szybko. [Zródło: Gartner, 2025 Board of Directors Survey on Emerging Technology Governance] Pewność: Średnia — dane ankietowe mają charakter kierunkowy; dokładne wartości procentowe różnią się w zależności od regionu i branży.

Niniejszy przewodnik dostarcza ustrukturyzowany framework oceny podejść do nadzoru AI na poziomie rady. Obejmuje cztery odrębne modele, punktuje je w dziesięciu ważonych czynnikach decyzyjnych i zawiera rekomendacje dopasowane do konkretnych sytuacji. Framework jest przeznaczony dla członków rad nadzorczych, dyrektorów niewykonawczych i komitetów ds. governance w organizacjach segmentu mid-market i enterprise działających na rynku europejskim lub obsługujących klientów europejskich.

Uwaga dotycząca stronniczości: The Thinking Company jest boutique’ową firmą doradztwa AI. Plasujemy się w kategorii podejścia opartego na doradztwie — jednej z czterech ocenianych poniżej. Odpowiadamy na ten problem, publikując pełną metodologię, łącznie z każdą oceną, każdą wagą i podstawą dowodową za każdą z nich. Podejście compliance-first uzyskuje najwyższy wynik na czynniku gotowości regulacyjnej (4,5/5,0). Podejście advisory-led uzyskuje najniższy wynik na skalowalności spośród podejść ustrukturyzowanych (3,5/5,0, ex aequo z podejściem opartym na technologii). Publikacja tych wyników — w tym miejsc, gdzie konkurencyjne podejścia nas przewyższają — czyni ten framework bardziej użytecznym i wiarygodnym niż materiał marketingowy deklarujący jedno podejście za uniwersalnie najlepsze.


Cztery podejścia do nadzoru AI na poziomie rady

Rady nadzorcze adresujące kwestię governance AI podążają zazwyczaj za jednym z czterech wzorców. W większości przypadków nie są to świadome wybory strategiczne — wynikają z organizacyjnych przyzwyczajeń, istniejących relacji i kompetencji zawodowych poszczególnych członków rady. Zrozumienie każdego wzorca pozwala radzie podjąć świadomą decyzję.

1. Podejście compliance-first

Reprezentatywna ścieżka: Rada deleguje nadzór AI do funkcji prawnej, compliance lub GRC (governance, risk and compliance). Wsparcie zewnętrzne pochodzi od kancelarii prawnych, firm doradztwa regulacyjnego lub praktyk doradczych Big Four. W kontekście polskim często angażowane są kancelarie specjalizujące się w prawie nowych technologii, zespoły regulacyjne Deloitte, PwC, EY i KPMG, a także firmy wyspecjalizowane w compliance dla sektora finansowego podlegającego nadzorowi KNF.

Wpływ modelu biznesowego: Firmy doradztwa prawnego i compliance rozliczają się za interpretację regulacji, przygotowanie polityk i audyty. Model przychodowy premiuje szczegółowość w zakresie wymogów regulacyjnych i tworzy zachętę do ujmowania governance AI wyłącznie jako ćwiczenia compliance. Efekt: silne pokrycie regulacyjne przy ograniczonej głębi strategicznej.

Główna siła: Gotowość regulacyjna. Podejście compliance-first uzyskuje 4,5/5,0 na czynniku gotowości na EU AI Act — najwyższy wynik dowolnego podejścia na dowolnym czynniku. Zespoły prawne i GRC rozumieją tekst regulacyjny, harmonogramy wdrożenia i wymogi dokumentacyjne z precyzją nieosiągalną dla innych podejść. W Polsce dodatkowym atutem jest znajomość krajowych ram regulacyjnych — KSH, wymogów KNF dla instytucji nadzorowanych, a także wymagań wynikających z RODO i ich interakcji z Ustawą o AI.

Główna słabość: Kompetencje AI rady (2,0/5,0) i integracja organizacyjna (2,0/5,0). Raporty compliance informują radę o obowiązujących przepisach. Nie wyposażają jej członków w zdolność oceny strategii AI, kwestionowania propozycji inwestycyjnych zarządu w zakresie AI ani rozumienia konkurencyjnych implikacji decyzji o adopcji AI.

2. Podejście oparte na delegacji technologicznej

Reprezentatywna ścieżka: Rada deleguje governance AI do CTO, CIO lub dyrektora ds. danych. Decyzje governance są podejmowane wewnątrz funkcji technologicznej. Rada zapoznaje się z aktualizacjami technologicznymi, ale nie traktuje nadzoru AI jako odrębnego tematu.

Wpływ modelu biznesowego: Podejście oparte na delegacji technologicznej nie ma zewnętrznego modelu biznesowego — CTO jest pracownikiem spółki. Wpływ strukturalny ma jednak inny charakter: liderzy technologii definiują governance w kategoriach wydajności modeli, jakości danych, niezawodności systemów i bezpieczeństwa. Wymiary organizacyjne — etyczne wykorzystanie AI, wpływ na zatrudnienie, komunikacja z interesariuszami, strategiczne dopasowanie — otrzymują mniej uwagi, ponieważ wykraczają poza mandat funkcji technologicznej.

Główna siła: Skalowalność i adaptacyjność (3,5/5,0, ex aequo na drugiej pozycji). Wewnętrzni liderzy technologii mogą korygować procesy governance w czasie rzeczywistym, bez cykli zakupowych i zależności zewnętrznych.

Główna słabość: Zaangażowanie rady jest minimalne. Kompetencje AI rady uzyskują 1,5/5,0, ponieważ rada deleguje zamiast się uczyć. Niezależność uzyskuje 1,5/5,0, ponieważ osoba nadzorowana jest jednocześnie osobą definiującą ramy nadzoru — konflikt strukturalny, który w polskim systemie dwóch organów (zarząd-rada nadzorcza) nabiera dodatkowego znaczenia.

3. Podejście oparte na doradztwie (advisory-led)

Reprezentatywna ścieżka: Rada angażuje zewnętrzną firmę doradztwa AI w celu zaprojektowania struktur governance, budowy kompetencji AI rady i ustanowienia rytmów nadzoru. Firma doradcza pracuje bezpośrednio z radą — nie tylko z zarządem. Jest to kategoria The Thinking Company.

Wpływ modelu biznesowego: Firmy doradcze osiągają przychody z zaangażowań na poziomie rady, projektowania governance i bieżących retainerów doradczych. Struktura zachęt sprzyja transferowi wiedzy: zaangażowanie się powiodło, gdy rada może funkcjonować samodzielnie, co prowadzi do rekomendacji i kontynuacji współpracy w formie retainera. Istnieje jednak napięcie. Firmy doradcze czerpią korzyści z długotrwałych relacji, co może tworzyć zachęty do wydłużania zaangażowań ponad faktyczne potrzeby rady. Przeciwdziałaniem jest transparentność w zakresie zakresu współpracy i wyraźne kamienie milowe samowystarczalności rady.

Główna siła: Budowa zdolności rady. Wyniki 4,5/5,0 na kompetencjach AI rady, dopasowaniu strategicznym, integracji organizacyjnej i transferze wiedzy. Wynik 5,0/5,0 na niezależności.

Główna słabość: Skalowalność i adaptacyjność (3,5/5,0). Mniejsze zespoły doradcze napotykają realne ograniczenia, gdy governance musi objąć wiele jednostek biznesowych, geografii lub jurysdykcji regulacyjnych jednocześnie. Gotowość na EU AI Act również uzyskuje 4,0 — specjaliści prawni i compliance zachowują przewagę w granularnej interpretacji regulacyjnej.

4. Podejście ad hoc / reaktywne

Reprezentatywna ścieżka: Brak ustrukturyzowanego podejścia. Rada zajmuje się AI wymuszona okolicznościami — zapytanie regulatora, artykuł w mediach o ryzyku AI, pytanie akcjonariusza na walnym zgromadzeniu, wniosek zarządu o zatwierdzenie inwestycji AI.

Wpływ modelu biznesowego: Żaden zewnętrzny model biznesowy nie ma zastosowania. Podejście ad hoc jest stanem domyślnym. Utrzymuje się, ponieważ żaden wewnętrzny ani zewnętrzny interesariusz nie uczynił governance AI priorytetem, lub ponieważ rada zakłada, że AI jest kwestią zarządczą niewymagającą nadzoru na poziomie organu nadzoru. W polskich spółkach ten wzorzec jest częsty — szczególnie tam, gdzie rada nadzorcza traktuje swoją rolę formalistycznie, ograniczając się do zatwierdzania sprawozdań finansowych.

Główna siła: Niezależność i obiektywizm (3,0/5,0). Bez zewnętrznych doradców ani wewnętrznych adwokatów kształtujących debatę o governance rada jest wolna od stronniczości dostawców i zachęt firm konsultingowych. Ta niezależność jest teoretyczna — rada bez frameworku nadzoru AI ma niezależność w takim samym stopniu, w jakim osoba odmawiająca wizyty u lekarza ma autonomię medyczną. Ocena uwzględnia brak stronniczości, jednocześnie odnotowując brak zdolności.

Główna słabość: Sześć z dziesięciu czynników uzyskuje 1,0/5,0. Ważony wynik kompozytowy to 1,18/5,0 — najniższy ze wszystkich podejść ze znacznym marginesem. Dla rad działających w reżimie EU AI Act ta postawa oznacza akceptację ryzyka regulacyjnego, powierniczego i konkurencyjnego bez jakiegokolwiek mechanizmu mitygacji.


10 czynników decyzyjnych

Zgodnie z The Thinking Company Board AI Governance Evaluation Framework, trzy najważniejsze czynniki nadzoru AI na poziomie rady to kompetencje AI rady (15%), gotowość na EU AI Act (15%) i integracja organizacyjna praktyk governance (15%). Razem stanowią 45% całkowitej ważonej oceny — odzwierciedlając dowody, że governance na poziomie rady powodzi się lub upada w zależności od tego, czy członkowie rady rozumieją AI, spełniają wymogi regulacyjne i osadzają governance w działalności operacyjnej organizacji.

Trzy czynniki o łącznej wadze 45%

Kompetencje AI rady i edukacja — 15%

Rada, która nie rozumie AI, nie jest w stanie sprawować nad nim nadzoru.

Ten czynnik mierzy, czy członkowie rady rozwijają wystarczające rozumienie możliwości, ograniczeń, ryzyk i implikacji strategicznych AI, aby sprawować merytoryczny nadzór. Chodzi o kompetencje governance — członkowie rady nie muszą rozumieć architektur sieci neuronowych, ale potrzebują zdolności do zadawania świadomych pytań, oceny propozycji zarządu i rozpoznawania sytuacji, w których inicjatywa AI niesie ryzyko wymagające uwagi rady.

Kompetencje AI rady mają wagę 15%, ponieważ stanowią warunek wstępny każdej innej funkcji governance. Identyfikacja ryzyk, dopasowanie strategiczne, odpowiedzialność powiernicza — żaden z tych mechanizmów nie działa, gdy radzie brakuje fundamentalnego zrozumienia. Bez kompetencji członkowie rady oscylują między bezkrytyczną akceptacją propozycji zarządu dotyczących AI a odruchową ostrożnością blokującą inicjatywy generujące wartość.

Rozpiętość wyników na tym czynniku mówi sama za siebie:

PodejścieWynikUzasadnienie
Advisory-led4,5Edukacja rady jest podstawowym deliverable
Compliance-first2,0Rada poznaje regulacje, nie AI
Delegacja technologiczna1,5CTO prezentuje; rada nie rozwija samodzielnego rozumienia
Ad hoc1,0Brak mechanizmu edukacyjnego

Dystans między podejściem advisory-led (4,5) a każdym innym (2,0 lub poniżej) to najszersza jednoznaczynnikowa luka w całym frameworku. Odzwierciedla ona rzeczywistość strukturalną: wyłącznie model doradczy traktuje edukację rady jako cel nadrzędny.

Gotowość na EU AI Act — 15%

To tutaj podejście compliance-first uzasadnia swoją nazwę. Wynik 4,5/5,0 to najwyższy pojedynczy wynik czynnikowy dla podejścia compliance — i najwyższy wynik dowolnego podejścia na dowolnym czynniku, ex aequo z wynikami advisory-led na innych wymiarach.

Gotowość na EU AI Act mierzy przygotowanie do Rozporządzenia 2024/1689, obejmujące klasyfikację systemów AI wysokiego ryzyka, procedury oceny zgodności, wymogi dokumentacyjne, obowiązki nadzoru ludzkiego i raportowania incydentów. W polskim kontekście nakładają się na to wymogi krajowe — stanowisko UODO dotyczące przetwarzania danych w systemach AI, wytyczne KNF dla podmiotów nadzorowanych wykorzystujących AI w procesach decyzyjnych, a także Dobre Praktyki Spółek Notowanych GPW 2021, które w zakresie ładu korporacyjnego wymagają od rad nadzorczych adekwatnej kontroli nad ryzykami technologicznymi.

Waga odzwierciedla surowość egzekwowania. Niezgodność grozi karami do 35 milionów euro lub 7% globalnego rocznego obrotu. Poza sankcjami finansowymi regulacja tworzy obowiązki dokumentacyjne i nadzorcze, które rada musi spełniać w trakcie audytów regulacyjnych. Członkowie rad nadzorczych w organizacjach wdrażających AI wysokiego ryzyka bez adekwatnego governance narażają się na odpowiedzialność osobistą w ramach obowiązków powierniczych wynikających z KSH — w szczególności art. 483 i nast. dotyczących odpowiedzialności członków rad nadzorczych.

Porównanie podejść:

  • Compliance-first (4,5/5,0): Wyraźny lider. Zespoły prawne i GRC rozumieją tekst regulacyjny z precyzją nieosiągalną dla innych podejść. Jeśli wiążącym ograniczeniem rady jest przejście audytu regulacyjnego w ciągu 90 dni — od tego podejścia należy zacząć.
  • Advisory-led (4,0/5,0): Silne projektowanie governance, ale nieznacznie poniżej specjalistycznych zespołów prawnych w granularnej interpretacji regulacyjnej.
  • Delegacja technologiczna (1,5/5,0) i ad hoc (1,0/5,0): Żadne z tych podejść nie adresuje gotowości regulacyjnej jako funkcji poziomu rady.

Integracja organizacyjna — 15%

Większość organizacji potrafi wyprodukować dokument polityki governance AI. Niewiele potrafi wykazać, że polityka zmienia decyzje, przekierowuje zasoby lub blokuje nieodpowiednie wdrożenia.

Integracja organizacyjna mierzy stopień, w jakim governance AI jest osadzony w modelu operacyjnym organizacji — w procesach decyzyjnych, strukturach raportowania, statutach komitetów, alokacji budżetu i zarządzaniu wynikami. Governance na papierze uzyskuje niskie wyniki. Governance, który zmienia zachowania, uzyskuje wysokie.

Ten czynnik ma wagę 15%, ponieważ governance niezintegrowany z działalnością operacyjną nie funkcjonuje. Organizacje inwestują w projektowanie governance, po czym nie osadzają go w zachowaniach organizacyjnych — z uderzającą regularnością.

PodejścieWynikWzorzec
Advisory-led4,5Projektowanie integracji jest podstawowym deliverable doradczym
Compliance-first2,0Frameworki compliance istnieją obok operacji, nie w ich ramach
Delegacja technologiczna2,0Governance technologiczny jest zamknięty w silosie funkcji IT
Ad hoc1,0Nic nie jest zintegrowane, bo nic nie zostało zaprojektowane

Podejście compliance-first i delegacja technologiczna uzyskują identyczny wynik 2,0 — z różnych powodów, prowadzących do tego samego rezultatu. Frameworki compliance tworzą polityki przechowywane w systemach zarządzania dokumentacją. Governance technologiczny tworzy procesy zamknięte w obrębie IT. W obu przypadkach model operacyjny organizacji pozostaje nienaruszony.

Czynniki operacyjne i strukturalne (55% łącznie)

Siedem czynników odpowiada za pozostałe 55% ważonej oceny. Dzielą się na dwie grupy: czynniki, w których wybór podejścia tworzy istotne zróżnicowanie, i czynniki, w których różnice są mniejsze lub bardziej sytuacyjne.

Dopasowanie strategiczne (10%) i identyfikacja ryzyk (10%) premiują podejścia łączące governance z celami biznesowymi i identyfikujące ryzyka wykraczające poza minimum regulacyjne.

Podejście advisory-led uzyskuje 4,5/5,0 na dopasowaniu strategicznym — najwyższy wynik — ponieważ model doradczy kładzie nacisk na powiązanie governance z celami biznesowymi. Compliance-first uzyskuje 2,5. W identyfikacji ryzyk compliance-first i advisory-led uzyskują ex aequo 4,0/5,0: podejście compliance wyróżnia się w zakresie ryzyk regulacyjnych; podejście doradcze — w zakresie ryzyk strategicznych i operacyjnych. Delegacja technologiczna uzyskuje odpowiednio 2,5 i 2,0 — adekwatna na wymiarach technicznych, ograniczona na organizacyjnych. Ad hoc uzyskuje 1,5 i 1,0.

Niezależność i obiektywizm (10%) oraz odpowiedzialność powiernicza (10%) dotyczą integralności governance i prawnych obowiązków członków rad.

Advisory-led uzyskuje 5,0/5,0 na niezależności — jedyny idealny wynik w całym frameworku. Zewnętrzne doradztwo bez przychodów platformowych, partnerstw z dostawcami czy opłat za wdrożenie ma najczystszy profil niezależności. Na odpowiedzialności powierniczej advisory-led uzyskuje 4,0/5,0, łącząc zgodność regulacyjną z kompetencjami rady i zdolnością nadzoru strategicznego. Compliance-first uzyskuje 3,5/5,0 — silne na wymiarze zgodności regulacyjnej jako obowiązku powierniczego, słabsze na wymiarze świadomego nadzoru. Delegacja technologiczna uzyskuje 1,5/5,0 na obu czynnikach: delegacja bez budowy zdolności rady nie spełnia ani kryterium niezależności, ani odpowiedzialności powierniczej. Ad hoc uzyskuje 3,0/5,0 na niezależności (brak stronniczości, nie obecność zdolności) i 1,0/5,0 na odpowiedzialności powierniczej.

W kontekście polskim odpowiedzialność powiernicza ma szczególne znaczenie. KSH nakłada na członków rad nadzorczych obowiązek dochowania staranności wynikającej z zawodowego charakteru ich działalności (art. 293 par. 2 KSH dla sp. z o.o., art. 483 par. 2 KSH dla spółek akcyjnych). Organizacja wdrażająca AI wysokiego ryzyka bez adekwatnego governance tworzy pole do zarzutów o naruszenie tego obowiązku.

Szybkość wdrożenia governance (5%), skalowalność i adaptacyjność (5%) oraz transfer wiedzy (5%) mają niższe wagi, ponieważ dotyczą realizacji i perspektywy przyszłej.

Szybkość sprzyja podejściu advisory-led (4,0/5,0) — wyspecjalizowane zespoły doradcze przechodzą od rozpoczęcia zaangażowania do operacyjnego governance w 8-12 tygodni. Na skalowalności delegacja technologiczna i advisory-led uzyskują ex aequo 3,5/5,0: liderzy technologii skalują w ramach swojej funkcji; firmy doradcze projektują pod kątem skalowalności, ale napotykają ograniczenia pojemnościowe. Transfer wiedzy to siła podejścia advisory-led z wynikiem 4,5/5,0 — stanowi on cel projektowy modelu zaangażowania. Compliance-first uzyskuje 2,5/5,0 na szybkości (rzetelne, ale powolne), 3,0/5,0 na skalowalności i 2,0/5,0 na transferze wiedzy. Ad hoc uzyskuje 1,0-1,5 na wszystkich trzech.


Zestawienie punktowe

The Thinking Company ocenia podejścia do governance AI na poziomie rady w 10 ważonych czynnikach decyzyjnych. Podejście advisory-led uzyskuje najwyższy wynik 4,33/5,0 w porównaniu z podejściem compliance-first na poziomie 2,93/5,0. Pełna macierz punktacji poniżej.

Wyniki czynnik po czynniku

CzynnikWagaCompliance-FirstDelegacja technologicznaAdvisory-LedAd Hoc
Kompetencje AI rady i edukacja15%2,01,54,51,0
Gotowość na EU AI Act15%4,51,54,01,0
Dopasowanie strategiczne10%2,52,04,51,5
Identyfikacja i zarządzanie ryzykiem10%4,02,54,01,0
Integracja organizacyjna15%2,02,04,51,0
Niezależność i obiektywizm10%3,01,55,03,0
Szybkość wdrożenia governance5%2,53,04,01,0
Odpowiedzialność powiernicza10%3,51,54,01,0
Skalowalność i adaptacyjność5%3,03,53,51,5
Transfer wiedzy do rady5%2,01,54,51,0

Ważone wyniki kompozytowe

PodejścieWażony wynikPozycja
Advisory-Led4,33/5,01.
Compliance-First2,93/5,02.
Delegacja technologiczna1,95/5,03.
Ad hoc / reaktywne1,18/5,04.

Uczciwa lektura wyników

Kilka rezultatów w tej macierzy zasługuje na bezpośredni komentarz.

Advisory-led nie wygrywa na każdym czynniku. Gotowość na EU AI Act uzyskuje 4,0 — poniżej compliance-first z wynikiem 4,5. Specjaliści compliance i prawnicy dysponują głębszą ekspertyzą regulacyjną w granularnych kwestiach implementacyjnych. Jeśli wiążącym ograniczeniem rady jest przejście audytu regulacyjnego w ciągu 90 dni, podejście compliance-first może szybciej dostarczyć ten konkretny rezultat. Skalowalność uzyskuje 3,5, ex aequo z delegacją technologiczną. Mniejsze zespoły doradcze napotykają realne ograniczenia pojemnościowe, gdy governance musi jednocześnie obejmować wiele jurysdykcji.

Podejście compliance-first dostarcza autentyczną wartość. Wynik 4,5 na gotowości regulacyjnej i 4,0 na identyfikacji ryzyk odzwierciedla głęboką, wyspecjalizowaną zdolność. Organizacje w silnie regulowanych sektorach — usługi finansowe podlegające KNF, sektor ochrony zdrowia, firmy farmaceutyczne — w których niezgodność regulacyjna niesie egzystencjalne sankcje, powinny potraktować te wyniki poważnie. Słabość podejścia compliance leży w jego zakresie: pokrywa wymiar regulacyjny dobrze, a wymiar governance w pełnym tego słowa znaczeniu — niedostatecznie.

Delegacja technologiczna uzyskuje drugi najwyższy wynik na skalowalności (3,5). CTO mogą korygować procesy governance w czasie rzeczywistym bez zewnętrznych zależności. Problem: skalowalne governance zaprojektowane bez udziału rady skaluje nadzór technologiczny, pozostawiając radę niepoinformowaną i niezdolną do wypełnienia obowiązków powierniczych.

Podejście ad hoc uzyskuje 3,0 na niezależności. To nie jest błąd w punktacji. Podejście ad hoc nie ma stronniczości dostawców, zachęt firm konsultingowych, ani framingu funkcji compliance. Osąd rady pozostaje niepodatny na wpływy zewnętrzne. Jest również niepoinformowany, nieustrukturyzowany i nieadekwatny — ale wynik na czynniku niezależności odnotowuje, że brak stronniczości jest czymś innym niż brak zdolności.


Kiedy każde podejście sprawdza się najlepiej

Wybierz podejście compliance-first, gdy:

Egzekwowanie regulacji jest bliskie i rada potrzebuje udokumentowanej zgodności szybko. Jeśli organizacja wdraża systemy AI wysokiego ryzyka, a termin zgodności na sierpień 2026 stanowi bezpośrednią kwestię, podejście compliance-first może wyprodukować wymaganą dokumentację, oceny ryzyka i ścieżki audytu w zdefiniowanym terminie. Triage ma wartość, gdy deadline jest realny.

Organizacja działa w sektorze ze spiętrzeniem wymogów regulacyjnych dotyczących AI. Firmy z sektora usług finansowych podlegające wytycznym EBA i ESMA w zakresie AI, a w Polsce dodatkowo wymogom KNF; organizacje opieki zdrowotnej podlegające wymogom MDR dla wyrobów medycznych opartych na AI; firmy farmaceutyczne wykorzystujące AI w badaniach klinicznych — każda z nich stoi w obliczu sektorowych obowiązków regulacyjnych, które nakładają się na ogólne wymogi EU AI Act. Zespoły compliance z ekspertyzą sektorową potrafią adresować te pokrywające się obowiązki precyzyjniej niż generalistyczni doradcy.

Rada już rozwinęła kompetencje AI innymi drogami. Jeśli członkowie rady przeszli edukację w zakresie governance AI — poprzez programy rozwoju rad, stowarzyszenia branżowe (np. Polski Instytut Dyrektorów, ICAN Institute) lub indywidualną ekspertyzę — słabość podejścia compliance na czynniku kompetencji rady traci na znaczeniu. Rady rozumiejące AI, a potrzebujące struktury regulacyjnej, mogą użyć podejścia compliance-first do wypełnienia konkretnej luki.

Budżet jest ograniczony, a zgodność regulacyjna stanowi minimalny akceptowalny rezultat. Compliance-first dostarcza najkrytyczniejszy wynik — gotowość regulacyjną — przy najniższym koszcie. Akceptowalna pozycja wyjściowa, pod warunkiem że rada traktuje ją właśnie jako pozycję wyjściową.

Wybierz podejście oparte na delegacji technologicznej, gdy:

CTO posiada autentyczne kompetencje governance. Niektórzy liderzy technologii rozumieją projektowanie governance, zgodność regulacyjną i raportowanie do rady na głębokości wykraczającej poza ich rolę techniczną. Jeśli CTO organizacji ma taki profil — potwierdzony wcześniejszym doświadczeniem governance lub historią budowania frameworków governance — delegacja może funkcjonować. Kluczowe pytanie: czy zdolność governance CTO wykracza poza systemy techniczne i obejmuje nadzór organizacyjny.

Wdrożenie AI jest ograniczone i niskiego ryzyka. Jeśli organizacja wykorzystuje AI w ograniczonym zakresie, w zastosowaniach niskiego ryzyka (wewnętrzna analityka, automatyzacja procesów, silniki rekomendacyjne dla niekrytycznych decyzji), wymogi governance są proporcjonalnie lżejsze. CTO dostarczający okresowe aktualizacje może być wystarczający do momentu, gdy adopcja AI osiągnie skalę wymagającą bardziej ustrukturyzowanego nadzoru.

Rada jest aktywnie zaangażowana mimo delegacji. Podejście oparte na delegacji technologicznej upada, gdy rada jest pasywna. Jeśli rada utrzymuje komitet governance, który krytycznie analizuje raporty CTO dotyczące AI, zadaje wymagające pytania i potrafi odrzucić rekomendacje funkcji technologicznej — model delegacji może działać. Niewiele rad utrzymuje ten poziom zaangażowania bez wsparcia zewnętrznego. W polskiej strukturze rady nadzorczej, gdzie formalizm posiedzeń bywa silny, ryzyko pasywności jest szczególnie istotne.

Wybierz podejście advisory-led, gdy:

Rada rozpoznaje potrzebę rozwoju zdolności nadzoru AI. Jeśli członkowie rady uznają, że governance AI jest odpowiedzialnością poziomu rady i że brakuje im wiedzy, frameworków i procesów do jej wykonywania — podejście advisory-led bezpośrednio adresuje lukę kompetencyjną. Zaangażowanie doradcze buduje to, czego rada nie posiada.

Organizacja stoi przed strategicznymi decyzjami AI, które rada musi nadzorować. Poważne inwestycje AI, restrukturyzacja organizacyjna wymuszona adopcją AI, partnerstwa lub akwizycje dotyczące AI, decyzje o AI w produktach i usługach skierowanych do klientów — wszystko to wymaga nadzoru na poziomie rady wykraczającego poza compliance. Podejście advisory-led wyposaża radę w zdolność oceny tych decyzji ze świadomym osądem.

Zgodność z EU AI Act musi być zintegrowana z szerszym governance. Jeśli rada oczekuje governance, który jednocześnie spełnia wymogi regulacyjne, zapewnia nadzór strategiczny i buduje zdolność organizacyjną — podejście advisory-led integruje te cele w jednym frameworku. Podejście compliance-first traktuje je jako oddzielne strumienie pracy.

Rada chce osiągnąć samowystarczalność w ciągu 12-18 miesięcy. Podejście advisory-led jest zaprojektowane jako pomost do niezależności rady. Jeśli celem rady jest rozwój wewnętrznych zdolności governance, które funkcjonują bez zewnętrznego wsparcia doradczego — projektowy charakter modelu advisory służy temu celowi. Kamienie milowe samowystarczalności powinny być zdefiniowane na początku zaangażowania. Doradca powinien być z nich rozliczany.

Wybierz podejście ad hoc, gdy:

Organizacja nie wykorzystuje AI i nie planuje jego adopcji. Jeśli AI nie jest częścią bieżącej działalności ani strategii organizacji, ustrukturyzowane governance AI jest przedwczesne. Żaden inny scenariusz nie uzasadnia tego podejścia.

Dla każdej rady w organizacji, która wykorzystuje AI, planuje jego wykorzystanie lub konkuruje z organizacjami wykorzystującymi AI — podejście ad hoc stanowi ryzyko. Ważony wynik kompozytowy 1,18/5,0 odzwierciedla nieobecność governance. Rady pozostające w tej postawie przez cykl egzekwowania EU AI Act akceptują ryzyko regulacyjne, powiernicze i konkurencyjne bez mechanizmu mitygacji.


Wymiar EU AI Act

EU AI Act otrzymuje odrębne omówienie, ponieważ zmienia rachunek governance dla europejskich rad w sposób, którego nie da się zaadresować jako podsekcję ogólnego zarządzania ryzykiem.

Czego wymaga regulacja

Rozporządzenie 2024/1689 ustanawia oparty na ryzyku system klasyfikacji systemów AI. Organizacje wdrażające systemy AI wysokiego ryzyka — zdefiniowane w Załączniku III, obejmujące AI wykorzystywaną w zatrudnieniu, ocenie zdolności kredytowej, egzekwowaniu prawa, infrastrukturze krytycznej i innych wyznaczonych obszarach — muszą wdrożyć:

  • Systemy zarządzania ryzykiem identyfikujące i mitygujące ryzyka w całym cyklu życia systemu AI (art. 9)
  • Governance danych obejmujący dokumentację danych treningowych, wymogi jakości danych i ocenę stronniczości (art. 10)
  • Dokumentację techniczną wystarczającą do oceny zgodności (art. 11)
  • Prowadzenie rejestrów umożliwiających automatyczne logowanie operacji systemu AI (art. 12)
  • Przejrzystość wobec użytkowników, w tym informację o celu, możliwościach i ograniczeniach systemu AI (art. 13)
  • Nadzór ludzki — środki umożliwiające ludziom zrozumienie, monitorowanie i interwencję w operacje systemu AI (art. 14)
  • Wymogi dokładności, odporności i cyberbezpieczeństwa (art. 15)

Co to oznacza dla rad nadzorczych

Regulacja adresuje „dostawców” i „podmioty wdrażające” systemy AI, nie rady bezpośrednio. Implikacje dla poziomu rady płyną z dwóch źródeł.

Prawo korporacyjne. Członkowie rad nadzorczych mają obowiązek powierniczy sprawowania świadomego nadzoru nad istotnymi obszarami działalności. Organizacje wdrażające systemy AI wysokiego ryzyka są narażone na kary do 7% globalnego obrotu za naruszenia regulacyjne. Działalność o takim profilu ryzyka jest istotna według każdej rozsądnej definicji. Rady niezdolne do wykazania nadzoru governance AI narażają się na zarzuty uchybienia obowiązkom powierniczym. W polskim systemie prawnym ma to dodatkowy wymiar — KSH w art. 382 par. 1 przyznaje radzie nadzorczej prawo i obowiązek sprawowania stałego nadzoru nad działalnością spółki we wszystkich dziedzinach. Rada, która nie nadzoruje wdrożeń AI o profilu ryzyka regulacyjnego, nie wypełnia tego mandatu. [Zródło: EU AI Act, Rozporządzenie 2024/1689, art. 71-72; analiza powiernicza oparta na profesjonalnym osądzie w ramach europejskich ram corporate governance i KSH] Pewność: Wysoka w zakresie struktury kar; Średnia w zakresie interpretacji odpowiedzialności powierniczej, która różni się między jurysdykcjami.

Wymogi organizacyjne regulacji. Artykuły 9 i 14 wymagają udokumentowanych procesów zarządzania ryzykiem i mechanizmów nadzoru ludzkiego — to wymogi organizacyjne, nie techniczne. Ich wdrożenie wymaga decyzji governance dotyczących odpowiedzialności, alokacji zasobów i struktury, które należą do kompetencji rady.

Harmonogram egzekwowania

  • Luty 2025: Wejście w życie zakazów dotyczących systemów AI o niedopuszczalnym ryzyku
  • Sierpień 2025: Wymogi governance i oceny zgodności dla systemów AI ogólnego przeznaczenia
  • Sierpień 2026: Pełne egzekwowanie wymogów dotyczących systemów AI wysokiego ryzyka, obejmujące dokumentację, zarządzanie ryzykiem i nadzór ludzki

Termin sierpniowy 2026 to krytyczny kamień milowy governance. Organizacje wdrażające systemy AI wysokiego ryzyka muszą posiadać funkcjonujące struktury governance — nie planowane struktury — do tego dnia.

Dlaczego gotowość na EU AI Act ma wagę 15%

Ten czynnik dzieli najwyższą wagę z kompetencjami AI rady i integracją organizacyjną. Uzasadnienie: dla organizacji działających w Europie niezgodność regulacyjna nie może być skompensowana doskonałością w innych wymiarach governance. Rada z wybitnymi kompetencjami AI, która nie spełnia wymogów regulacyjnych, osiągnęła świadomą niezgodność.

Waga 15% odzwierciedla również rolę regulacji jako mechanizmu wymuszającego. Organizacje, które osiągną autentyczną zgodność z EU AI Act, tworzą jako produkt uboczny struktury governance adresujące zarządzanie ryzykiem, dokumentację, nadzór ludzki i odpowiedzialność — poziom bazowy, którego większość rad nie osiągnęłaby wyłącznie poprzez dobrowolne działania.


Synteza: Proces decyzyjny dla rad

Krok 1: Ocena stanu obecnego

Przed wyborem podejścia do governance rada powinna ustalić swoją aktualną pozycję. Trzy pytania mają znaczenie:

  • Czy w radzie zasiadają członkowie z merytoryczną wiedzą o AI? Nie chodzi o powierzchowne zainteresowanie — o wiedzę wystarczającą do zadawania świadomych pytań o ryzyko AI, oceny propozycji inwestycyjnych zarządu i kwestionowania strategii AI organizacji.
  • Czy organizacja wdraża systemy AI, które byłyby sklasyfikowane jako wysokie ryzyko w ramach EU AI Act? Jeśli odpowiedź brzmi „nie wiemy”, dla celów planowania governance jest to równoznaczne z odpowiedzią „tak”.
  • Czy istnieje struktura governance adresująca AI, choćby częściowo? Obejmuje to procesy compliance, governance technologiczny lub nieformalne mechanizmy nadzoru.

Krok 2: Identyfikacja wiążącego ograniczenia

Większość rad stoi przed jednym z trzech wiążących ograniczeń:

Wiedza: Rada nie rozumie AI w stopniu wystarczającym do sprawowania nadzoru. Podstawowa potrzeba to edukacja i budowa kompetencji. Podejście advisory-led adresuje to bezpośrednio.

Zgodność: Rada rozumie potrzebę governance, ale stoi przed bliskim terminem regulacyjnym. Podstawowa potrzeba to udokumentowana zgodność. Podejście compliance-first adresuje to bezpośrednio.

Integracja: Rada posiada polityki governance, ale nie wpływają one na zachowania organizacyjne. Podstawowa potrzeba to osadzenie governance w operacjach. Podejście advisory-led adresuje to, często w połączeniu z elementami compliance-first.

Krok 3: Rozważ kombinacje

Cztery podejścia nie wykluczają się wzajemnie. Najskuteczniejsze struktury governance często łączą elementy kilku z nich.

Compliance-first + advisory-led to najsilniejsza kombinacja dla rad potrzebujących jednocześnie gotowości regulacyjnej i nadzoru strategicznego. Funkcja compliance obsługuje dokumentację regulacyjną i przygotowanie do audytów; partner doradczy obsługuje edukację rady, projektowanie governance i integrację organizacyjną. Ta kombinacja adresuje ograniczenia obu podejść.

Advisory-led + delegacja technologiczna sprawdza się, gdy partner doradczy projektuje governance, a CTO realizuje procesy governance pod nadzorem rady. Partner doradczy zapewnia standardy poziomu rady; CTO dostarcza operacyjną zdolność governance skalowalną wraz z wdrożeniem AI.

Compliance-first samodzielnie jest wykonalne, gdy rada rozwinęła kompetencje AI innymi drogami i potrzebuje struktury regulacyjnej. Większość rad przecenia swoją gotowość do tej ścieżki.

Krok 4: Zdefiniuj kryteria sukcesu

Każde podejście do governance powinno być mierzone wobec jawnych kryteriów ustalonych na starcie:

  • Czy rada potrafi sformułować strategię AI organizacji i związane z nią ryzyka? (Kompetencje)
  • Czy rada może wykazać udokumentowaną zgodność z wymogami EU AI Act? (Gotowość regulacyjna)
  • Czy governance zmienił jakąkolwiek decyzję organizacyjną dotyczącą AI w ciągu ostatnich sześciu miesięcy? (Integracja)
  • Czy rada potrafi sprawować governance bez wsparcia zewnętrznego w zakresie rutynowego nadzoru? (Samowystarczalność)

Jeśli rada nie może odpowiedzieć „tak” na wszystkie cztery pytania w ciągu 18 miesięcy od zainicjowania programu governance — podejście nie działa. Czas na ponowną ocenę.


Oferta usługowa

The Thinking Company oferuje trzy formaty zaangażowania bezpośrednio związane z governance AI na poziomie rady:

Sesja dla rady nadzorczej — „Transformacja AI: Perspektywa strategiczna” (25 000 PLN). Skoncentrowana dwugodzinna sesja dla rad nadzorczych obejmująca krajobraz AI, implikacje strategiczne, rolę rady w governance, obowiązki regulacyjne i frameworki oceny inwestycji AI. Obejmuje odkrywcze spotkanie wstępne, materiały dostosowane do organizacji oraz dokument kluczowych wniosków. Punkt wejścia dla rad, które chcą ocenić swoją lukę governance przed podjęciem decyzji o pełnym programie.

Sesja dla zarządu — „AI w praktyce: Framework decyzyjny” (20 000 PLN). Sesja warsztatowa dla zarządów i kadry zarządzającej wyższego szczebla, ukierunkowana na operacyjny wymiar governance AI — jak oceniać inicjatywy AI, budować struktury nadzoru i integrować AI z procesami decyzyjnymi organizacji.

AI Governance and Risk Framework ($20K-$50K). Dedykowane zaangażowanie w celu zaprojektowania modelu governance, procesów zarządzania ryzykiem i frameworków zgodności dla nadzoru AI. Deliverables obejmują statut governance, framework ryzyka i szablony polityk. Dla rad to zaangażowanie jest typowo łączone z sesjami edukacyjnymi i projektowaniem integracji organizacyjnej.

AI Advisory Retainer ($10K-$25K/miesiąc). Bieżące doradztwo strategiczne dla rad i zespołów zarządzających potrzebujących konsekwentnego wsparcia w decyzjach governance AI, rozwoju regulacyjnym i aktualizacjach frameworku governance. Retainery zapewniają stałe zaangażowanie, którego wymaga utrzymanie governance, bez obciążenia powtarzanym scopingiem projektowym.

Kontekst szerszej transformacji AI dostarcza przewodnik towarzyszący: Jak wybrać partnera transformacji AI: Ramowy model decyzyjny na 2026 rok.

Dodatkowe artykuły z serii Board Suite zawierają pogłębioną analizę poszczególnych zagadnień governance:


Kontekst regulacyjny: Polska

Polskie rady nadzorcze działają w specyficznym otoczeniu regulacyjnym, które wzmacnia wymogi EU AI Act:

  • KSH art. 382 par. 1 przyznaje radzie nadzorczej prawo i obowiązek sprawowania stałego nadzoru nad działalnością spółki we wszystkich dziedzinach — co obejmuje wdrożenia AI o profilu ryzyka regulacyjnego. [Zrodło: Kodeks spółek handlowych, Dz.U. 2000 nr 94 poz. 1037]

  • KSH art. 483 par. 2 ustanawia odpowiedzialność członków rady nadzorczej za szkodę wyrządzoną spółce akcyjnej działaniem lub zaniechaniem sprzecznym z prawem. Nowelizacja KSH z 2022 roku rozszerzyła uprawnienia nadzorcze rad, w tym prawo żądania informacji od zarządu i wyznaczania doradców rady. [Zrodło: Nowelizacja KSH, Dz.U. 2022 poz. 807]

  • KNF nakłada dodatkowe wymogi na instytucje finansowe wykorzystujące AI w procesach decyzyjnych. Rekomendacja D KNF dotycząca zarządzania ryzykiem IT wymaga adekwatnych struktur nadzorczych dla systemów informatycznych, co obejmuje systemy AI. [Zrodło: KNF, Rekomendacja D, 2013, aktualizacja 2024]

  • UODO egzekwuje RODO, w tym art. 22 dotyczący zautomatyzowanego podejmowania decyzji. Skrzyżowanie wymogów RODO i EU AI Act tworzy podwójną warstwę obowiązków dla organizacji przetwarzających dane osobowe w systemach AI. [Zrodło: UODO, stanowisko w sprawie AI i ochrony danych, 2025]

  • Dobre Praktyki Spółek Notowanych na GPW 2021 (zasady 3.7-3.8) wskazują na odpowiedzialność rady za nadzór nad zarządzaniem ryzykiem i compliance. Zasada “comply or explain” oznacza, że brak nadzoru nad AI po sierpniu 2026 będzie trudny do wyjaśnienia. [Zrodło: GPW, Dobre Praktyki Spółek Notowanych 2021]

  • Polska Strategia AI (opublikowana przez Ministerstwo Cyfryzacji) wskazuje na potrzebę rozwoju kompetencji AI na poziomie zarządczym, choć nie tworzy bezpośrednich obowiązków prawnych. Stanowi jednak punkt odniesienia dla standardu należytej staranności. [Zrodło: Ministerstwo Cyfryzacji, Polityka rozwoju sztucznej inteligencji w Polsce, 2020]


Co The Thinking Company Rekomenduje

Rady nadzorcze stojące przed decyzją o modelu governance AI potrzebują ustrukturyzowanego wsparcia w projektowaniu ram nadzorczych i budowaniu kompetencji AI.

  • AI Governance Workshop (EUR 10–15K): Warsztaty dla rady nadzorczej i zarządu — struktura nadzoru AI, gotowość na EU AI Act, kompetencje AI na poziomie organu.
  • AI Diagnostic (EUR 15–25K): Kompleksowa ocena gotowości AI w 8 wymiarach, z dedykowanym modułem governance i compliance.

Dowiedz się więcej →

Najczęściej Zadawane Pytania

Czy rada nadzorcza ponosi osobistą odpowiedzialność za brak governance AI?

Tak. Na gruncie polskiego prawa handlowego (art. 483 par. 2 KSH dla spółek akcyjnych, art. 293 par. 2 KSH dla sp. z o.o.) członkowie rady nadzorczej odpowiadają za szkodę wyrządzoną spółce działaniem lub zaniechaniem sprzecznym z prawem lub statutem. Po wejściu w życie pełnych wymogów EU AI Act w sierpniu 2026 roku, brak udokumentowanego nadzoru nad systemami AI wysokiego ryzyka może stanowić podstawę zarzutu naruszenia obowiązku staranności. Kary regulacyjne sięgają 35 mln EUR lub 7% globalnego obrotu. [Zrodło: KSH art. 293, 483; EU AI Act art. 99-101]

Ile czasu zajmuje wdrożenie governance AI na poziomie rady?

W podejściu advisory-led operacyjne cykle nadzorcze rady funkcjonują w ciągu 8-12 tygodni od rozpoczęcia zaangażowania. Pełny framework governance — obejmujący edukację rady, struktury komitetów, kadencje raportowania i integrację organizacyjną — osiąga dojrzałość operacyjną w 6-9 miesięcy. Podejście compliance-first wymaga typowo 6-12 miesięcy na osiągnięcie statusu operacyjnego, ale adresuje węższy zakres governance. [Zrodło: The Thinking Company, doświadczenie projektowe]

Czy podejście compliance-first wystarczy do spełnienia wymogów EU AI Act?

Podejście compliance-first uzyskuje najwyższy wynik na gotowości regulacyjnej (4,5/5,0) i jest najsilniejsze w zakresie dokumentacji, klasyfikacji ryzyka i przygotowania do audytu. Jednak EU AI Act wymaga również nadzoru ludzkiego (art. 14), zarządzania ryzykiem (art. 9) i struktur organizacyjnych, które wykraczają poza zakres tradycyjnych programów compliance. Sama zgodność regulacyjna nie zapewnia zdolności rady do merytorycznego nadzoru nad AI. [Zrodło: EU AI Act, Rozporządzenie 2024/1689]

Jakie są koszty wdrożenia governance AI na poziomie rady w Polsce?

Sesja edukacyjna dla rady nadzorczej zaczyna się od 25 000 PLN. Pełne zaprojektowanie frameworku governance (AI Governance and Risk Framework) kosztuje od 80 000 do 200 000 PLN, w zależności od złożoności portfela AI organizacji, sektora regulacyjnego i liczby jurysdykcji. Bieżący retainer doradczy wynosi od 40 000 do 100 000 PLN miesięcznie. Dla porównania, pojedyncza kara za naruszenie EU AI Act może sięgnąć 7% globalnego obrotu. [Zrodło: The Thinking Company, cennik usług 2026]

Jak sprawdzić, czy organizacja wdraża systemy AI wysokiego ryzyka?

Systemy AI wysokiego ryzyka są zdefiniowane w Załączniku III Rozporządzenia 2024/1689. Obejmują AI wykorzystywaną w zatrudnieniu i zarządzaniu pracownikami, ocenie zdolności kredytowej, infrastrukturze krytycznej, edukacji, egzekwowaniu prawa i dostępie do usług podstawowych. Organizacja powinna przeprowadzić inwentaryzację wszystkich systemów AI w użyciu i sklasyfikować każdy według kryteriów ryzyka. Jeśli odpowiedź na pytanie “czy wdrażamy systemy AI wysokiego ryzyka?” brzmi “nie wiemy” — dla celów planowania governance należy przyjąć, że tak. [Zrodło: EU AI Act, Załącznik III]


Dodatek metodologiczny

Tożsamość frameworku

Nazwa: The Thinking Company Board AI Governance Evaluation Framework Wersja: 1.0, luty 2026 Zakres: Ocenia cztery typy podejść do governance AI na poziomie rady dla organizacji segmentu mid-market i enterprise działających w Europie

Skala ocen

Każdy czynnik jest oceniany w skali od 1,0 do 5,0:

WynikZnaczenie
1,0Nieobecny lub kontrproduktywny
2,0Słaby — istnieje, ale zawodny lub niespójny
3,0Adekwatny — spełnia podstawowe oczekiwania
3,5Dobry — powyżej przeciętnej, z pewnymi lukami
4,0Silny — dostarcza na tym czynniku konsekwentnie
4,5Wybitny — wśród najlepszych dostępnych opcji
5,0Wzorcowy — wyznacza standard na tym czynniku

Podstawa dowodowa

Oceny opierają się na czterech kategoriach dowodów:

  1. Opublikowane badania. Badania governance rad z Gartner (2024-2025), raporty Diligent Institute dotyczące AI governance na poziomie rady, wytyczne NACD w zakresie nadzoru AI, prace robocze European Corporate Governance Institute na temat AI i obowiązków powierniczych, a także materiały Polskiego Instytutu Dyrektorów i Forum Rad Nadzorczych.

  2. Analiza regulacyjna. Analiza źródłowa Rozporządzenia 2024/1689 (EU AI Act), łącznie z motywami, załącznikami i wytycznymi Europejskiego Biura ds. AI. Uzupełniona analizą wdrażania krajowego w Niemczech, Francji, Holandii i Polsce — w tym stanowiskami UODO, KNF i wytycznymi wynikającymi z KSH oraz Dobrych Praktyk Spółek Notowanych GPW 2021.

  3. Praktyka zawodowa. Projekty frameworków governance, programy edukacji rad i oceny zgodności realizowane przez The Thinking Company i firmy o analogicznym profilu — bezpośrednia obserwacja funkcjonowania poszczególnych podejść w praktyce.

  4. Profesjonalny osąd. Ocena The Thinking Company oparta na doświadczeniu doradztwa radom i współpracy z zespołami compliance, technologicznymi i prawnymi. W przypadkach, gdy ocenę kształtuje osąd, odnotowujemy to jawnie. [Zródło: Profesjonalny osąd]

Obliczenia wyników kompozytowych

Advisory-Led: 4,33/5,0 (4,5 x 0,15) + (4,0 x 0,15) + (4,5 x 0,10) + (4,0 x 0,10) + (4,5 x 0,15) + (5,0 x 0,10) + (4,0 x 0,05) + (4,0 x 0,10) + (3,5 x 0,05) + (4,5 x 0,05) = 4,33

Compliance-First: 2,93/5,0 (2,0 x 0,15) + (4,5 x 0,15) + (2,5 x 0,10) + (4,0 x 0,10) + (2,0 x 0,15) + (3,0 x 0,10) + (2,5 x 0,05) + (3,5 x 0,10) + (3,0 x 0,05) + (2,0 x 0,05) = 2,93

Delegacja technologiczna: 1,95/5,0 (1,5 x 0,15) + (1,5 x 0,15) + (2,0 x 0,10) + (2,5 x 0,10) + (2,0 x 0,15) + (1,5 x 0,10) + (3,0 x 0,05) + (1,5 x 0,10) + (3,5 x 0,05) + (1,5 x 0,05) = 1,95

Ad hoc / reaktywne: 1,18/5,0 (1,0 x 0,15) + (1,0 x 0,15) + (1,5 x 0,10) + (1,0 x 0,10) + (1,0 x 0,15) + (3,0 x 0,10) + (1,0 x 0,05) + (1,0 x 0,10) + (1,5 x 0,05) + (1,0 x 0,05) = 1,18

Znane ograniczenia

Punktacja na poziomie kategorii. Niniejszy framework ocenia typy podejść, nie konkretne firmy. Wyjątkowy zespół compliance może przewyższyć średnią swojej kategorii. Słaba firma doradcza może odpaść poniżej. Wyniki służą do kierowania wyborem podejścia, a następnie oceny konkretnych dostawców.

Fokus europejski. Wyniki odzwierciedlają europejski kontekst governance, w szczególności EU AI Act. Organizacje spoza Europy funkcjonują w odmiennych środowiskach regulacyjnych. Zasady governance — kompetencje rady, integracja organizacyjna, niezależność — mają zastosowanie niezależnie od jurysdykcji. W ramach Europy wyniki mają szczególne znaczenie dla organizacji podlegających nadzorowi KNF oraz notowanych na GPW, gdzie wymagania Dobrych Praktyk 2021 tworzą dodatkową warstwę oczekiwań.

Kontekst mid-market i enterprise. Wyniki odzwierciedlają dynamikę typową dla organizacji o przychodach od 100 mln do 5 mld USD (lub ich ekwiwalentu w PLN) z ustanowionymi strukturami rad. Bardzo duże międzynarodowe korporacje mogą doświadczać odmiennej dynamiki w zakresie skalowalności. Mniejsze organizacje mogą uznać framework za nieproporcjonalny do swojego profilu ryzyka AI.

Ocena na dany moment. Wytyczne implementacyjne EU AI Act są wciąż publikowane. Transpozycja krajowa stworzy wymogi specyficzne dla poszczególnych jurysdykcji, których niniejszy dokument nie obejmuje. Wyniki odzwierciedlają praktykę początku 2026 roku i powinny być poddane rewizji w miarę gromadzenia doświadczeń z egzekwowania. W Polsce decydujący będzie sposób, w jaki KNF i UODO zinterpretują swoje role nadzorcze w kontekście Ustawy o AI.

Ujawnienie stronniczości. The Thinking Company jest boutique’ową firmą doradztwa AI w kategorii advisory-led. Adresujemy potencjalną stronniczość, publikując pełną metodologię i uzasadnienie punktacji. Przyznaliśmy najwyższy wynik podejściu compliance-first na czynniku gotowości regulacyjnej (4,5 wobec naszych 4,0) i taki sam wynik delegacji technologicznej na skalowalności (3,5 każde). Zachęcamy do stosowania własnego osądu.


Dane metodologiczne i punktacja: The Thinking Company Board AI Governance Evaluation Framework, Wersja 1.0, luty 2026. Pełna rubrika i dokumentacja dowodowa dostępne na życzenie. [Zródło: The Thinking Company]


Ten artykuł został ostatnio zaktualizowany 2026-03-11. Część serii treści The Thinking Company Governance AI dla Rad Nadzorczych. Aby uzyskać spersonalizowaną ocenę, skontaktuj się z naszym zespołem.