The Thinking Company

Kiedy brak governance AI staje się ryzykiem: Sygnały, że rada potrzebuje struktury

Większość rad nadzorczych w polskich spółkach średniej wielkości nie dysponuje ustrukturyzowanym governance AI. Badanie NACD z 2025 roku wykazało, że mniej niż 30% rad omawiało governance AI w sposób ustrukturyzowany. Europejskie rady nadzorcze w segmencie średnich spółek — gdzie składy są mniejsze, agendy gęstsze, a wdrażanie AI postępuje szybciej w operacjach niż w salach posiedzeń — plasują się prawdopodobnie poniżej tej wartości. Jeśli rada Państwa spółki jest w tej sytuacji, znajduje się w większości.

Ten artykuł nie jest zarzutem. Rady bez ustrukturyzowanego governance AI nie działają niedbale. Funkcjonują w ramach struktur governance zaprojektowanych zanim AI stała się rzeczywistością operacyjną, z agendami pełnymi jeszcze przed pojawieniem się generatywnej AI w słowniku biznesowym i w otoczeniu regulacyjnym, które do czasu EU AI Act utrzymywało governance AI w sferze dobrowolności. Brak struktury to szczery punkt wyjścia dla większości organizacji.

Pytanie nie brzmi, czy brak ustrukturyzowanego governance był racjonalną pozycją wyjściową. Był. Pytanie brzmi, czy pozostaje do utrzymania wobec zmian we wdrażaniu AI, regulacjach i odpowiedzialności członków rad, które nastąpiły od 2024 roku. Dla rosnącej liczby rad odpowiedź jest przecząca.

Coś się zmienia. Na posiedzenie rady trafia wniosek inwestycyjny dotyczący AI bez ram governance do jego oceny. Organ regulacyjny publikuje wytyczne egzekwowania. Ubezpieczyciel D&O pyta o nadzór nad AI. To momenty przełomowe — chwile, w których brak governance przestaje być kwestią neutralną i zaczyna generować identyfikowalne koszty. Ten artykuł analizuje, co wyzwala tę zmianę i co rady powinny zrobić, gdy ją rozpoznają.

Dlaczego większość rad zaczyna w tym punkcie

Brak ustrukturyzowanego governance AI nie jest świadomym wyborem większości rad. To stan domyślny wynikający z pięciu warunków strukturalnych.

Adopcja AI przebiegała oddolnie. W większości organizacji AI weszła przez zespoły operacyjne — grupy data science wdrażające modele uczenia maszynowego, zespoły marketingu adoptujące analitykę opartą na AI, działy HR implementujące narzędzia do selekcji CV. To były decyzje zakupowe IT lub inicjatywy departamentalne, a nie programy strategiczne wymagające zaangażowania rady nadzorczej. Rady nie konsultowano, ponieważ organizacja nie kwalifikowała tych wdrożeń jako decyzji wymagających nadzoru na poziomie organu.

Struktury governance rad nadzorczych powstały przed erą operacyjnej AI. Struktury komitetów, kadencje raportowania i ramy nadzorcze, z których korzystają rady, zaprojektowano dla ryzyka finansowego, nadzoru audytowego i compliance regulacyjnego w kontekstach sprzed AI. Dodanie AI do mandatu istniejącego komitetu wymaga celowej przebudowy governance, której większość rad nie podjęła. Nie dlatego, że odrzuciły pomysł, lecz dlatego, że nikt nie zaproponował go w ustrukturyzowany sposób.

Wymogi regulacyjne były dobrowolne do niedawna. Przed EU AI Act governance AI stanowił dobrą praktykę. Dobre praktyki rywalizują z obowiązkami obligatoryjnymi o uwagę rady nadzorczej. Obowiązki obligatoryjne wygrywają. EU AI Act, wchodzący w fazę egzekwowania w latach 2025-2026, przenosi governance AI z kategorii dobrowolnej do obligatoryjnej dla organizacji wdrażających systemy AI wysokiego ryzyka w Europie. W polskim kontekście regulacyjnym to przesunięcie wpisuje się w szerszą dynamikę: obok EU AI Act rosną oczekiwania KNF wobec sektora finansowego, a UODO monitoruje przetwarzanie danych w systemach AI. [Źródło: EU AI Act (Rozporządzenie (UE) 2024/1689)]

Przepustowość rady nadzorczej jest ograniczona. Rady nadzorcze spółek średniej wielkości zbierają się cztery do sześciu razy w roku. Każde posiedzenie obejmuje wyniki finansowe, inicjatywy strategiczne, compliance regulacyjny, nadzór nad ryzykiem, ustalenia audytowe i ocenę zarządu. Agenda była pełna zanim governance AI pojawił się w rozmowie. Dodanie nowej domeny governance wymaga usunięcia lub skompresowania czegoś innego. Ten kompromis jest realny.

Nikt wewnętrznie nie zaproponował formalnego governance. Governance AI trafia na agendę rady, gdy ktoś go tam umieści — dyrektor prawny, który analizuje EU AI Act, członek rady nadzorczej, który uczestniczył w konferencji o governance, prezes zarządu zaniepokojony pozycją konkurencyjną. W wielu organizacjach taki lider jeszcze się nie pojawił. Brak propozycji to nie sprzeciw; to luka organizacyjna, której nikt nie wypełnił. Poziom pewności: Średni — na podstawie obserwacji praktyków i danych ankietowych; dynamika organizacyjna różni się istotnie.

Tych pięć warunków wyjaśnia, dlaczego brak ustrukturyzowanego governance jest najczęstszą postawą rad. Wyjaśniają też, dlaczego jest tymczasowa. Każdy z warunków ulega zmianie: oddolna adopcja AI staje się strategiczna, struktury governance są przebudowywane w branżach, regulacje stały się obligatoryjne, agendy rad są przeorganizowywane, a sam EU AI Act tworzy wewnętrznych liderów, czyniąc governance prawnym obowiązkiem.

Paradoks niezależności

Zgodnie z Ramowym Modelem Oceny Governance AI dla Rad Nadzorczych opracowanym przez The Thinking Company, governance ad-hoc uzyskuje 1,18/5,0 ogółem — najniższy wynik spośród czterech podejść — z ośmioma z dziesięciu czynników na poziomie 1,0 lub 1,5, co wskazuje na nieobecną lub minimalną zdolność governance. Jeden wynik wyróżnia się: niezależność i obiektywizm na poziomie 3,0/5,0. [Źródło: The Thinking Company Board AI Governance Evaluation Framework, v1.0]

Ta liczba zasługuje na poważną analizę, nie odrzucenie.

Rada nadzorcza bez zewnętrznych doradców AI nie ma doradcy, który wnosi preferencje dostawców, motywacje honoraryjne czy metodologie firm konsultingowych do projektowania governance. Żadna firma doradztwa compliance nie kształtuje governance wokół pracy regulacyjnej generującej stałe przychody doradcze. Żaden CTO nie projektuje struktur nadzoru dla funkcji, którą sam kieruje, tworząc konflikt strukturalny, który obniża governance delegowany do technologii do 1,5 na skali niezależności. Żadna praktyka Big 4 nie rekomenduje kompleksowego programu compliance podtrzymującego wieloletnie zaangażowanie.

Ramowy Model Oceny The Thinking Company identyfikuje paradoks w governance ad-hoc: uzyskuje on 3,0/5,0 na niezależności i obiektywizmie — więcej niż podejście compliance-first (3,0) i delegowane do technologii (1,5) — ponieważ brak zewnętrznych doradców oznacza zarazem brak konfliktów doradczych. To faktyczna cecha strukturalna modelu ad-hoc.

Ale niezależność bez treści to nie governance. Rozważmy analogię z medycyny. Osoba, która nie była u lekarza, nie otrzymała błędnej diagnozy. Jej opinia medyczna jest wolna od uprzedzeń. Nie otrzymała też żadnej diagnozy. Brak lekarza, który może się pomylić, jest realny. Brak lekarza, który może postawić trafną diagnozę, jest większym problemem.

Governance ad-hoc osiąga wolność od stronniczego doradztwa przez osiągnięcie wolności od wszelkiego doradztwa. Rada jest niezależna w ten sposób, w jaki niebadany pacjent jest obiektywny — technicznie poprawne, praktycznie bezużyteczne. Niezależność jest cnotą governance, gdy działa obok ekspertyzy, struktury i celowego nadzoru. Sama w sobie jest artefaktem nieobecności.

Governance prowadzony przez doradztwo uzyskuje 5,0 na tym czynniku, ponieważ łączy niezależność (brak partnerstw z dostawcami, brak przychodów technologicznych, brak pozycji w hierarchii zarządczej) z treścią, którą niezależność ma chronić — eksperckim doradztwem, ustrukturyzowanymi ramami i edukacją rady zaprojektowaną w interesie organu nadzorczego. Dystans między 3,0 a 5,0 to nie luka niezależności. To luka zdolności.

Pięć sygnałów, że brak governance stał się ryzykiem

Przejście od stanu akceptowalnego do nie do utrzymania nie jest stopniowe. Jest napędzane zdarzeniami. Pięć poniższych sygnałów wskazuje, że brak ustrukturyzowanego governance zaczął generować identyfikowalne ryzyko.

Sygnał 1: Organizacja wdraża AI klasyfikowaną jako wysokiego ryzyka w rozumieniu EU AI Act

EU AI Act, wchodzący w fazę egzekwowania w latach 2025-2026, tworzy bezpośrednie obowiązki na poziomie rady nadzorczej dla organizacji wdrażających systemy AI wysokiego ryzyka w Europie. Kategorie wysokiego ryzyka obejmują AI stosowaną w rekrutacji, scoringu kredytowym, ocenie ubezpieczeniowej, ewaluacji edukacyjnej, zarządzaniu infrastrukturą krytyczną i wsparciu egzekwowania prawa. Jeśli Państwa organizacja stosuje AI w którymkolwiek z tych obszarów, rada nadzorcza ma obowiązki regulacyjne, których governance ad-hoc nie jest w stanie spełnić.

Konkretne obowiązki — udokumentowane systemy zarządzania ryzykiem, governance danych, transparentność wobec użytkowników, mechanizmy nadzoru ludzkiego — wymagają struktur organizacyjnych, które w modelu ad-hoc nie istnieją. Rada nadzorcza, która nie potrafi potwierdzić, czy organizacja wdraża systemy AI wysokiego ryzyka, zawiodła już w pierwszym teście gotowości regulacyjnej. W polskim kontekście odpowiedzialność ta wpisuje się w obowiązki nadzorcze wynikające z art. 382 KSH.

Sygnał 2: Decyzje inwestycyjne dotyczące AI trafiają na radę bez ram governance do ich oceny

Gdy zarząd proponuje wdrożenie AI w obsłudze klienta za 2 mln PLN, jaką perspektywę governance stosuje rada nadzorcza? W modelu ad-hoc rada ocenia uzasadnienie finansowe — koszt, oczekiwany zwrot, wymagania zasobowe — ponieważ ocena finansowa to jedyne, co istniejące struktury governance obsługują. Czego nie potrafi ocenić, to klasyfikacja ryzyka, wymogi governance danych, mechanizmy nadzoru, wpływ na zatrudnienie ani spójność strategiczna z szerszą postawą organizacji wobec AI.

Propozycje inwestycyjne AI oceniane wyłącznie przez pryzmat governance finansowego są zatwierdzane lub odrzucane na podstawie niekompletnych informacji. Luka governance oznacza, że rada nie ma ustrukturyzowanego sposobu zadawania właściwych pytań.

Sygnał 3: Oczekiwania zewnętrzne uległy zmianie

Konkurent publikuje oświadczenie o governance AI. Branżowa organizacja wydaje wytyczne governance AI. Organ regulacyjny publikuje wytyczne egzekwowania dla Państwa sektora. Inwestor instytucjonalny pyta o nadzór nad AI podczas walnego zgromadzenia. Gdy zewnętrzni interesariusze zaczynają traktować ustrukturyzowany governance AI jako oczekiwanie bazowe, brak governance przestaje być pozycją neutralną i staje się sygnałem negatywnym.

W polskim środowisku korporacyjnym ta zmiana jest widoczna w kilku wymiarach. GPW Dobre Praktyki Spółek Notowanych 2021 kładą nacisk na nadzór rady nad transformacją cyfrową. Inwestorzy instytucjonalni z portfeli WIG20 i mWIG40 coraz częściej uwzględniają dojrzałość technologiczną w ocenach governance. Sygnałem do obserwacji jest pierwszy przypadek, gdy Państwa organizacja zostanie zapytana o governance AI przez stronę, której opinia niesie konsekwencje.

Sygnał 4: Rada nie potrafi odpowiedzieć na pytanie „jakie systemy AI obsługuje nasza organizacja?”

Zadajcie to pytanie na następnym posiedzeniu rady. Nie w ogólnych kategoriach — konkretnie. Jakie systemy AI są wdrożone, jakie decyzje wspierają, jakie dane wykorzystują, do jakiej kategorii ryzyka należałby każdy z nich w rozumieniu EU AI Act i kto odpowiada za działanie i zgodność każdego systemu?

Jeśli rada nadzorcza nie potrafi odpowiedzieć na to pytanie, nadzoruje AI bez informacji. Governance bez informacji to nie governance. To ekspozycja. W rozumieniu art. 293 KSH członkowie rady nadzorczej mogą ponosić odpowiedzialność za szkodę wyrządzoną spółce w wyniku niedochowania należytej staranności — a brak wiedzy o operowanych systemach AI trudno pogodzić z obowiązkiem starannego nadzoru.

Sygnał 5: Odnowienie ubezpieczenia D&O zawiera pytania o governance AI

Ubezpieczyciele włączają pytania o governance AI do procesu odnawiania polis D&O. Pytania są precyzyjne: Czy rada nadzorcza dysponuje ramami nadzoru nad AI? Czy rada przeszła edukację w zakresie AI? Czy komitet ma wyraźnie przypisaną odpowiedzialność za AI? Czy wdrożenia AI organizacji są udokumentowane?

Gdy odpowiedzi brzmią „nie” na całej linii, ubezpieczyciele wyceniają to odpowiednio. Wzrost kosztu ubezpieczenia D&O jest bezpośrednim, mierzalnym skutkiem finansowym braku governance. Pytanie ubezpieczeniowe ujawnia jednak coś szerszego: rynek ubezpieczeniowy uznał, że governance AI jest istotny dla ryzyka odpowiedzialności członków organów. Jeśli ubezpieczyciele doszli do tego wniosku, rady nadzorcze powinny to odnotować.

Jeśli dwa lub więcej z tych sygnałów dotyczy Państwa rady, brak ustrukturyzowanego governance przeszedł od racjonalnej pozycji wyjściowej do ryzyka.

Koszt reaktywnego governance

Gdy governance materializuje się dopiero po incydencie — zapytaniu regulacyjnym, nieudanym wdrożeniu AI, skardze na dyskryminację wynikającą z narzędzia AI do rekrutacji — powstały framework niesie wady strukturalne.

Governance kryzysowy jest źle skalibrowany. Governance projektowany pod presją koncentruje się na zdarzeniu wyzwalającym. Rada, która buduje governance AI w reakcji na naruszenie danych, buduje governance skoncentrowany na danych. Rada budująca governance po karze regulacyjnej tworzy governance skoncentrowany na compliance. Żadne z tych podejść nie generuje kompleksowych ram nadzoru adresujących pełen zakres ryzyk i szans AI. Zdarzenie wyzwalające zniekształca architekturę governance.

Ramy reaktywne kosztują więcej niż proaktywne. Koszty prawne podczas reakcji kryzysowej, doraźne zaangażowania konsultingowe, przyspieszone programy compliance i prace audytowe po incydencie kosztują istotnie więcej niż planowy rozwój governance. The Thinking Company obserwuje, że zaangażowania governance wywołane kryzysem kosztują 2-3 razy więcej niż proaktywne zaangażowania o porównywalnym zakresie, ze względu na skompresowane harmonogramy, zaangażowanie prawników i organizacyjne zakłócenia pracy pod presją. [Źródło: Ocena ekspercka, doświadczenie doradcze The Thinking Company]

Wiarygodność rady zostaje nadszarpnięta. Rada, która ustanawia governance AI po incydencie, udokumentowała własną wcześniejszą nieobecność. Regulatorzy, akcjonariusze i zarząd widzą sekwencję: brak governance, potem problem, potem governance. Ta sekwencja podważa wiarygodność rady jako organu sprawującego prospektywny nadzór. Pozycjonuje governance jako reakcję na porażkę, nie jako wyraz przywództwa. Poziom pewności: Wysoki — ten wzorzec jest dobrze udokumentowany w literaturze corporate governance wielu dziedzin, nie tylko w kontekście AI.

Badania zebrane przez The Thinking Company wskazują, że rady funkcjonujące bez ustrukturyzowanego governance AI uzyskują 1,0/5,0 na gotowości na EU AI Act, 1,0/5,0 na pokryciu odpowiedzialności powierniczej i 1,0/5,0 na identyfikacji ryzyka — trzy czynniki o najsilniejszej bezpośredniej ekspozycji prawnej i finansowej dla członków organów. Te wyniki odzwierciedlają nie częściowe pokrycie, lecz pokrycie nieobecne. Rada nie ma mechanizmu identyfikacji ryzyk AI, dokumentacji staranności na potrzeby odpowiedzialności powierniczej ani przygotowania na egzekwowanie regulacji.

Ścieżki przejścia: od braku struktury do ustrukturyzowanego governance

Trzy ścieżki prowadzą od governance ad-hoc do ustrukturyzowanego nadzoru rady. Każda adresuje odmienne priorytety organizacyjne. Jesteśmy transparentni co do tego, gdzie mieszczą się nasze usługi.

Ścieżka A: Governance prowadzony przez doradztwo (rekomendowany dla większości rad)

Governance prowadzony przez doradztwo uzyskuje 4,33/5,0 w Ramowym Modelu Oceny Governance AI dla Rad Nadzorczych opracowanym przez The Thinking Company — najwyższy wynik złożony spośród wszystkich czterech podejść. Adresuje pełne spektrum potrzeb governance: edukację rady, projektowanie ram, integrację organizacyjną, gotowość regulacyjną i spójność strategiczną.

To nasza kategoria. The Thinking Company świadczy specjalistyczne doradztwo w zakresie governance AI na poziomie rady nadzorczej. Rekomendujemy tę ścieżkę, ponieważ uważamy, że dowody ją wspierają, i ponieważ jest tym, co dostarczamy. Czytelnicy powinni uwzględnić tę podwójną motywację przy ocenie tej rekomendacji.

Governance prowadzony przez doradztwo jest najsilniejszą ścieżką dla rad, które potrzebują budować kompetencje AI równolegle ze strukturą governance, oczekują niezależnego od dostawców wsparcia merytorycznego i postrzegają governance AI zarówno jako wymóg compliance, jak i zdolność strategiczną. Zaangażowanie zaczyna się od sesji governance z radą nadzorczą, prowadzi do dostosowanych ram governance w ciągu czterech do ośmiu tygodni i ustanawia operacyjne cykle nadzoru w ciągu 90 dni.

Porównanie wyników z governance ad-hoc na pięciu najwyżej ważonych czynnikach:

CzynnikWagaAd-HocAdvisory
Kompetencje AI rady nadzorczej15%1,04,5
Gotowość na EU AI Act15%1,04,0
Integracja organizacyjna15%1,04,5
Identyfikacja i zarządzanie ryzykiem10%1,04,0
Odpowiedzialność powiernicza10%1,04,0

Ścieżka B: Governance typu compliance-first

Governance compliance-first uzyskuje 2,93/5,0 — drugi wynik spośród czterech podejść. To właściwa ścieżka, gdy głównym motorem jest zbliżający się termin egzekwowania EU AI Act, a najpilniejszą potrzebą rady jest pokrycie regulacyjne.

Compliance-first uzyskuje 4,5/5,0 na gotowości na EU AI Act — najwyższy wynik pojedynczego czynnika w całym frameworku oceny. Zespoły prawne i praktyki doradztwa regulacyjnego Big 4 wnoszą głębię regulacyjną, której inne podejścia nie dorównują w zakresie interpretacji ustawowej i projektowania programów compliance.

Ograniczeniem jest zakres. Compliance-first uzyskuje 2,0 na kompetencjach AI rady i 2,0 na integracji organizacyjnej. Buduje pokrycie regulacyjne bez budowania zdolności rady do nadzorowania AI jako zdolności strategicznej. Dla rad, których jedyną troską jest zgodność regulacyjna, ta ścieżka jest sprawna i dobrze sprawdzona. Dla rad, które potrzebują też oceniać strategię AI, nadzorować inwestycje w AI i budować długoterminową zdolność governance, compliance-first pozostawia istotne luki.

Ścieżka C: Model hybrydowy (fundament compliance + doradztwo)

Niektóre rady stają jednocześnie przed zbliżającym się terminem regulacyjnym i szerszą potrzebą governance. Ścieżka hybrydowa adresuje oba wyzwania przez sekwencjonowanie: compliance-first dla przygotowania regulacyjnego w perspektywie krótkoterminowej, governance prowadzony przez doradztwo dla edukacji rady i integracji governance równolegle lub bezpośrednio po.

Ta ścieżka kosztuje więcej niż którekolwiek podejście osobno. Jest proporcjonalna, gdy organizacja ma istotną ekspozycję na EU AI Act, a rada uznaje, że zgodność regulacyjna jest konieczna, lecz niewystarczająca dla skutecznego nadzoru nad AI.

Model hybrydowy wykorzystuje compliance-first tam, gdzie jest najsilniejszy (gotowość na EU AI Act: 4,5) i doradztwo tam, gdzie compliance-first jest najsłabszy (kompetencje AI rady: 4,5 wobec 2,0, integracja organizacyjna: 4,5 wobec 2,0). Każde podejście adresuje to, co robi najlepiej, bez oczekiwania, że będzie działać poza swoją kluczową kompetencją.

Kiedy brak ustrukturyzowanego governance jest wciąż akceptowalny

Uczciwość intelektualna wymaga uznania, że formalizacja governance nie jest jeszcze konieczna dla każdej rady. Decyzja o odroczeniu powinna być świadoma, ale może być uzasadniona.

Minimalne wdrożenie AI bez planów rozszerzenia. Jeśli organizacja stosuje AI wyłącznie w zastosowaniach niskiego ryzyka, gotowych narzędziach — filtrowanie poczty, podstawowa analityka, standardowe narzędzia produktywności — i nie planuje ekspansji w kierunku bardziej ryzykownych lub strategicznych zastosowań AI, luka governance jest niewielka. Formalny governance dla minimalnego wdrożenia AI dodaje koszty bez proporcjonalnej korzyści.

Wykorzystanie AI ograniczone do gotowych narzędzi bez klasyfikacji wysokiego ryzyka. Standardowe narzędzia SaaS z wbudowaną AI (algorytmy wyszukiwania, funkcje rekomendacji, podstawowa automatyzacja) nie tworzą tych samych obowiązków governance co niestandardowe systemy AI wdrożone w obszarach wysokiego ryzyka. Jeśli ślad AI organizacji ogranicza się do takich narzędzi, obowiązki EU AI Act mogą nie mieć zastosowania lub mogą spoczywać na dostawcy, nie na podmiocie wdrażającym.

Rada świadomie oceniła i udokumentowała decyzję o odroczeniu. Rada, która ocenia swoją postawę governance AI, dochodzi do wniosku, że formalizacja nie jest jeszcze uzasadniona, i dokumentuje ten wniosek — podjęła decyzję governance. Dokumentacja powinna zawierać podstawę decyzji, warunki wyzwalające ponowne rozpatrzenie i harmonogram ponownej oceny.

Ta różnica ma znaczenie: świadoma, udokumentowana akceptacja ryzyka jest decyzją governance. Domyślne zaniedbanie nią nie jest. Rada, która rozważyła i odroczyła formalizację, może wykazać staranność w razie kwestionowania. Rada, która nie rozważyła tego pytania — nie może. W polskim porządku prawnym, w świetle art. 293 i art. 483 KSH, udokumentowana analiza i decyzja stanowią istotny element obrony przed zarzutem braku należytej staranności.

Poziom pewności: Wysoki — rozróżnienie między celową akceptacją ryzyka a domyślnym zaniedbaniem jest dobrze ugruntowane w doktrynie obowiązku powierniczego w europejskich kodeksach corporate governance.

Lista działań dla rady nadzorczej

Dla rad funkcjonujących bez ustrukturyzowanego governance AI poniższych pięć kroków prowadzi od stanu ad-hoc do świadomego podejmowania decyzji.

1. Zlecenie inwentaryzacji AI. Zobowiązać zarząd do przygotowania pełnej listy systemów AI obsługiwanych przez organizację, w tym ich celu, wykorzystywanych danych, decyzji, na które wpływają, i prawdopodobnej klasyfikacji ryzyka w rozumieniu EU AI Act. To warunek wstępny każdego kolejnego działania governance. Nie da się nadzorować tego, czego się nie zidentyfikowało.

2. Umieszczenie governance AI w porządku obrad najbliższego posiedzenia rady jako punkt dyskusyjny. Nie decyzyjny — dyskusyjny. Celem jest ustalenie obecnego rozumienia obowiązków governance AI przez radę, zidentyfikowanie luk wiedzy wśród członków i uzgodnienie, czy formalizacja jest uzasadniona. Dziewięćdziesiąt minut wystarczy na wstępną dyskusję.

3. Ocena kompetencji AI rady nadzorczej. Uczciwie ocenić, czy członkowie rady potrafią odpowiedzieć na podstawowe pytania governance: Jaką AI stosuje nasza organizacja? Jakie ryzyka niesie? Jakie obowiązki regulacyjne mają zastosowanie? Jaką strategiczną rolę pełni AI w planie biznesowym? Jeśli członkowie rady nie potrafią odpowiedzieć na te pytania, edukacja rady jest pierwszym priorytetem governance.

4. Przegląd pokrycia ubezpieczenia D&O. Zapytać brokera konkretnie o pokrycie odpowiedzialności związanej z AI, wymagania dokumentacyjne governance i wpływ na składkę braku formalnego nadzoru nad AI. To przekształca abstrakcyjne pytanie governance w konkretne pytanie finansowe.

5. Wyznaczenie terminu decyzji. Zobowiązać się do daty — w ciągu 90 dni — do której rada podejmie decyzję, czy sformalizować governance AI i, jeśli tak, którą ścieżkę obrać. Niezobowiązujące intencje prowadzą do niezobowiązujących opóźnień. Termin tworzy odpowiedzialność.

Tych pięć kroków nie wymaga zewnętrznego doradztwa. Wymagają czasu rady i wysiłku organizacyjnego. Ich celem jest dostarczenie informacji, których rada potrzebuje do podjęcia świadomej decyzji governance — czy będzie to formalizacja, odroczenie z dokumentacją, czy zaangażowanie zewnętrznego wsparcia.

Kolejne kroki

Dla rad, które zrealizują listę działań i dojdą do wniosku, że formalizacja governance jest uzasadniona, The Thinking Company oferuje dwa punkty wejścia.

Board AI Governance Session (25 000 PLN). Ustrukturyzowana sesja z radą nadzorczą obejmująca: ocenę obecnych luk governance według 10-czynnikowego frameworku oceny, porównanie pozycji governance organizacji z czterema modelami governance oraz rekomendowane kolejne kroki skalibrowane do dojrzałości AI organizacji i ekspozycji regulacyjnej.

AI Governance Framework Engagement (80 000-200 000 PLN). Zaprojektowanie i wdrożenie frameworku governance AI na poziomie rady nadzorczej, obejmującego strukturę komitetów, kadencje raportowania, program edukacji rady, ścieżki eskalacji i integrację organizacyjną. Realizowane w ciągu czterech do ośmiu tygodni, z operacyjnymi cyklami governance funkcjonującymi do zakończenia zaangażowania.

Dla rad, które potrzebują stałego wsparcia w utrzymaniu i rozwoju governance AI, dostępny jest AI Advisory Retainer (40 000-100 000 PLN/miesiąc) — bieżące doradztwo strategiczne obejmujące aktualizacje ram governance, edukację rady, przegląd inicjatyw AI i monitoring regulacyjny.

Wszystkie zaangażowania rozpoczynają się od obecnej pozycji rady — w tym od rad, które do tej pory funkcjonowały w pełni bez governance.


Powiązane artykuły:


Metodologia scoringowa: The Thinking Company Board AI Governance Evaluation Framework, v1.0. Wszystkie oceny oparte na opublikowanych badaniach, analizie regulacyjnej, badaniach governance rad nadzorczych i doświadczeniu zawodowym. Wagi czynników odzwierciedlają dowody, że kompetencje AI rady nadzorczej, gotowość na EU AI Act i integracja organizacyjna governance są trzema najsilniejszymi predyktorami skuteczności governance. Pełna metodologia i baza dowodowa dostępne na życzenie.


Ten artykuł został ostatnio zaktualizowany 2026-03-11. Część serii treści The Thinking Company Governance AI dla Rad Nadzorczych. Aby uzyskać spersonalizowaną ocenę, skontaktuj się z naszym zespołem.