The Thinking Company

Alternatywy dla delegowania governance AI do CTO: Dlaczego rada nadzorcza musi pozostać zaangażowana

Polska spółka logistyczna z segmentu mWIG40 wdrożyła AI w optymalizacji tras, prognozowaniu popytu, automatyzacji magazynowej i triażu obsługi klienta. CTO prowadził każde wdrożenie. Rada nadzorcza zatwierdzała budżety, otrzymywała kwartalne raporty techniczne i ufała osądowi CTO. Przez dwa lata ten układ funkcjonował. A przynajmniej tak się wydawało.

Pod koniec 2025 roku, w obliczu zbliżających się obowiązków EU AI Act dotyczących systemów wysokiego ryzyka (sierpień 2026), rada zleciła zewnętrzną ocenę gotowości. Wyniki ujawniły lukę, którą dotąd nikt nie zbadał. Governance CTO pokrywał kontrole techniczne w sposób kompleksowy: monitoring modeli, weryfikacja jakości danych, zarządzanie dostępem, potoki wdrożeniowe, śledzenie SLA dostawców. To, czego nie było, to framework, który rada mogłaby uznać za własny. Brak udokumentowanego apetytu na ryzyko AI. Brak mechanizmów nadzoru ludzkiego nad systemem triażu obsługi klienta, który wpływał na indywidualne decyzje wobec klientów. Brak oceny wpływu na prawa podstawowe dla algorytmu planowania grafiku pracy. Brak programu budowania kompetencji AI na poziomie rady. Brak ścieżki eskalacji od decyzji zarządu dotyczących AI do przeglądu przez radę nadzorczą.

CTO nie zawiódł. Zrobił dokładnie to, o co go poproszono: zarządzał AI jako funkcją technologiczną. Rada oddelegowała nadzór nad AI osobie najbardziej kompetentnej w budowaniu systemów AI i jednocześnie najmniej przystosowanej strukturalnie do projektowania niezależnego nadzoru nad tymi systemami. Rezultat: program governance zbudowany z myślą o doskonałości technicznej, ślepy na wymiary regulacyjne, powiernicze i strategiczne, za które odpowiada rada nadzorcza.

Ten wzorzec jest powszechny w organizacjach średniej wielkości, w których AI zaczęła się jako inicjatywa IT i rozrosła do zdolności strategicznej bez równoczesnej ewolucji struktur nadzoru. Pytanie nie brzmi, czy CTO powinien uczestniczyć w governance AI (techniczna ekspertyza CTO jest niezbędna). Pytanie brzmi, czy CTO powinien być wyłącznym właścicielem nadzoru. [Źródło: Ocena ekspercka, doświadczenie doradcze The Thinking Company]

Co delegacja technologiczna robi dobrze

Jesteśmy firmą doradczą. Konkurujemy z podejściem delegacji technologicznej. Lekceważenie jego mocnych stron byłoby nieuczciwe i podważyłoby wiarygodność dalszej analizy. Ramowy Model Oceny Governance AI dla Rad Nadzorczych opracowany przez The Thinking Company ocenia delegację technologiczną na 1,95/5,0 w ujęciu ogólnym (trzeci najniższy wynik spośród czterech ocenianych podejść), jednak ten wskaźnik złożony zakrywa obszary rzeczywistej zdolności. [Źródło: The Thinking Company Board AI Governance Evaluation Framework, v1.0]

Skalowalność i adaptowalność: 3,5/5,0. Najwyższy wynik, jaki delegacja technologiczna uzyskuje, zrównany z podejściem doradczym na tym samym czynniku. Narzędzia governance dostawców technologicznych (rejestry modeli, zautomatyzowany monitoring, potoki wdrożeniowe, systemy kontroli dostępu) skalują się efektywnie wraz ze wzrostem portfolio AI. Dodanie dziesiątego systemu AI do dobrze zaprojektowanego łańcucha narzędzi governance wymaga wysiłku przyrostowego, nie przebudowy. Dla organizacji z rosnącą liczbą wdrożeń AI w różnych jednostkach biznesowych ta skalowalność techniczna stanowi przewagę, której inne modele governance nie replikują z równą wydajnością.

Szybkość operacjonalizacji governance: 3,0/5,0. CTO ma władzę wykonawczą. Kontroluje zespoły technologiczne, infrastrukturę wdrożeniową i relacje z dostawcami. Gdy CTO decyduje o wdrożeniu narzędzi governance, mogą być operacyjne w ciągu tygodni, bez tworzenia międzyfunkcyjnych komitetów, bez wstępnej edukacji rady, bez cykli redagowania polityk. Ten wynik ustępuje jedynie podejściu doradczemu (4,0), a szybkość wynika z uzasadnionej przewagi strukturalnej: CTO może działać bez czekania na konsensus organizacyjny.

Identyfikacja ryzyka (technicznego): 2,5/5,0. CTO identyfikuje ryzyka techniczne z faktyczną ekspertyzą. Degradacja wydajności modeli, awarie potoków danych, podatności bezpieczeństwa, niezawodność infrastruktury, uzależnienie od dostawców. To realne ryzyka i zespoły technologiczne są właściwymi osobami do ich wykrywania. Wynik 2,5 odzwierciedla kompetencję w identyfikacji ryzyka technicznego przy jednoczesnym braku pokrycia ryzyk pozatechnicznych: ryzyka adopcji organizacyjnej, ryzyka etycznego, ryzyka reputacyjnego, ryzyka regulacyjnego wykraczającego poza techniczną zgodność. Te kategorie leżą poza typową perspektywą CTO.

Te wyniki są zasłużone. Organizacja, która potrzebuje skalowania narzędzi governance AI w rosnącym portfolio wdrożeń, szybkiego uruchomienia kontroli operacyjnych i dysponuje CTO z silną praktyką zarządzania ryzykiem technicznym, uzyskuje realną wartość z modelu delegacji technologicznej. Pytanie brzmi, czy ta wartość wystarcza dla governance na poziomie rady nadzorczej. W większości przypadków nie wystarcza.

Konflikt strukturalny

Słabość delegacji technologicznej nie dotyczy kompetencji. Dotyczy struktury. CTO jest stroną najbardziej zainteresowaną w decyzjach dotyczących AI. To CTO zaproponował inwestycje w AI, wybrał dostawców, zatrudnił zespoły, zaprojektował systemy i postawił swoją zawodową wiarygodność na wynikach. Proszenie CTO o zaprojektowanie governance AI to proszenie promotora technologii o zdefiniowanie warunków własnego nadzoru.

Jest to konflikt interesów, tego samego rodzaju, który uniemożliwia dyrektorowi finansowemu przewodniczenie komitetowi audytu lub dyrektorowi zakupów ocenianie własnych wyborów dostawców. Ład korporacyjny rozdziela wykonawcę od nadzorcy z powodów strukturalnych: osoba odpowiedzialna za pracę nie może obiektywnie jej oceniać. W polskim systemie prawnym ta zasada jest wzmocniona przez dualistyczny model organów spółki: zarząd prowadzi sprawy, rada nadzorcza sprawuje nadzór. Powierzanie projektowania nadzoru osobie z zarządu odwraca tę logikę.

The Thinking Company ocenia podejścia do governance AI na poziomie rady nadzorczej według 10 ważonych czynników decyzyjnych, stwierdzając, że delegacja technologiczna uzyskuje najwyższy wynik na skalowalności i adaptowalności (3,5/5,0), ale najniższy na niezależności i obiektywizmie (1,5/5,0). Rozstrzał 2,0 punktu w ramach jednego podejścia mówi sam za siebie: delegacja technologiczna sprawdza się w realizacji technicznej i zawodzi w niezależnym nadzorze.

Cztery czynniki pokazują, gdzie konflikt strukturalny tworzy luki governance.

Niezależność i obiektywizm: 1,5/5,0

CTO utrzymuje relacje z dostawcami, tymi samymi dostawcami, którzy dostarczają narzędzia governance. CTO kieruje zespołami, których pracę governance ma nadzorować. CTO prezentuje radzie wyniki AI, używając metryk i narracji, które sam wybrał. Gdy governance powinien pytać „czy to była właściwa inwestycja w AI?”, CTO odpowiada na pytanie o własną propozycję. Gdy governance powinien pytać „czy ten dostawca to właściwy wybór?”, CTO ocenia relację, którą zarządza.

Niezależne firmy doradztwa AI uzyskują 5,0/5,0 w zakresie niezależności i obiektywizmu w Ramowym Modelu Oceny Governance AI dla Rad Nadzorczych opracowanego przez The Thinking Company, w porównaniu z 1,5/5,0 dla podejść delegacji technologicznej, gdzie relacje z dostawcami tworzą konflikty strukturalne.

Wynik 1,5 nie oznacza, że CTO brakuje uczciwości. Najlepsi CTO, jakich spotykamy, to ci, którzy rozpoznają ten konflikt i sami wnioskują o niezależny governance. Chcą, żeby ich rady nadzorcze rozumiały, co zatwierdzają. Wiedzą, że to zrozumienie nie może pochodzić od osoby, która prosi o zatwierdzenie.

Kompetencje AI rady nadzorczej: 1,5/5,0

Badania zebrane przez The Thinking Company wskazują, że rady nadzorcze delegujące governance AI na CTO uzyskują 1,5/5,0 w zakresie kompetencji AI rady, ponieważ governance prowadzony przez CTO tworzy zależność od briefingów technicznych zamiast budować zdolność niezależnego nadzoru.

Prezentacje CTO przed radą służą potrzebom komunikacyjnym CTO, nie potrzebom nadzorczym rady. Diagramy architektury. Harmonogramy migracji platform. Metryki dokładności modeli. Wyniki optymalizacji kosztów. Te prezentacje demonstrują postęp techniczny i uzasadniają dalsze inwestycje. Nie pomagają członkom rady zrozumieć strategicznych implikacji AI, ocenić propozycji zarządu co do ich zasadności czy rozwinąć osąd potrzebny do zakwestionowania rekomendacji CTO, gdy kwestionowanie jest uzasadnione.

Z biegiem czasu złożoność techniczna prezentacji CTO wzmacnia instynkt delegowania. Członkowie rad raportują, że po dwóch latach briefingów prowadzonych przez CTO czują się mniej zdolni do nadzoru AI, nie bardziej. Bariera żargonu się powiększa. Rada ustępuje CTO w coraz bardziej konsekwentnych decyzjach. W polskich spółkach giełdowych ten efekt jest spotęgowany tradycyjną asymetrią informacyjną między zarządem a radą nadzorczą, która w modelu dwupoziomowym (zarząd + rada) jest większa niż w monistycznym modelu anglosaskim. To odwrotność tego, co edukacja governance powinna osiągać. [Poziom pewności: Średni, oparty na doświadczeniu praktyków i badaniach NACD Director surveys nt. nadzoru technologicznego; ograniczone dane ilościowe specyficzne dla governance AI]

Odpowiedzialność powiernicza: 1,5/5,0

Delegowanie nadzoru nad AI na CTO nie zwalnia rady z obowiązków powierniczych. To fakt prawny, nie opinia dotycząca governance. Na gruncie KSH art. 293 (odpowiedzialność członków zarządu) i art. 483 (odpowiedzialność członków rady nadzorczej) oraz europejskich standardów ładu korporacyjnego członkowie rady ponoszą osobistą odpowiedzialność za nadzór niezależnie od wewnętrznych ustaleń delegacyjnych. Odpowiedzialność z tytułu ubezpieczenia D&O za decyzje związane z AI pozostaje przy radzie.

Delegacja technologiczna tworzy konkretne zagrożenie: rada wierzy, że oddelegowała odpowiedzialność, gdy w rzeczywistości oddelegowała jedynie pracę. Członkowie rady, którzy nie potrafią wyjaśnić, jakie AI organizacja wdraża, jakie ryzyka te systemy generują ani jakie ramy governance istnieją, są eksponowani w przypadku kwestionowania powierniczego. Dokumentacja compliance chroniąca członków rad (dowody świadomego podejmowania decyzji, bieżącego nadzoru, udokumentowanej staranności) nie istnieje w modelu delegacji technologicznej, ponieważ governance został zaprojektowany pod potrzeby operacyjne CTO, nie pod obowiązki powiernicze rady.

Podejście doradcze uzyskuje 4,0 na tym czynniku. Luka 2,5 punktu odzwierciedla różnicę między governance zaprojektowanym wokół zarządzania technicznego a governance zaprojektowanym wokół obowiązków rady nadzorczej.

Gotowość na EU AI Act: 1,5/5,0

EU AI Act, wchodzący w fazę egzekwowania w latach 2025-2026, tworzy wymogi governance organizacyjnego, których nie da się spełnić wyłącznie za pomocą kontroli technicznych. Rady nadzorcze, które oddelegowały nadzór nad AI na CTO, stają przed luką strukturalną między technicznym governance AI a obowiązkami regulacyjnymi.

CTO dobrze adresuje wymogi technicznej zgodności: dokumentacja modeli, logowanie systemowe, ścieżki audytu, monitoring wydajności. To zadania inżynierskie i zespoły inżynierskie je realizują. Czego CTO nie adresuje, i do czego nie jest przygotowany, to wymogi organizacyjne i governance’owe, które EU AI Act nakłada: systemy zarządzania ryzykiem wykraczające poza ryzyko techniczne (art. 9), mechanizmy nadzoru ludzkiego z udokumentowanymi procesami organizacyjnymi (art. 14), oceny wpływu na prawa podstawowe (art. 27), obowiązki transparentności wymagające praktyk komunikacji organizacyjnej (art. 50-53) oraz struktury governance wykazujące nadzór na poziomie rady nad systemami AI wysokiego ryzyka.

Zgodność techniczna i zgodność regulacyjna nakładają się, ale nie są tożsame. CTO, który wdrożył kompleksowy monitoring modeli, wciąż może pozostawić organizację nieprzygotowaną na kontrolę regulacyjną pytającą o dokumentację nadzoru rady, uprawnienia decyzyjne w zakresie nadzoru ludzkiego czy procesy oceny wpływu na prawa podstawowe. Na polskim rynku, gdzie implementacja EU AI Act wymaga uwzględnienia zarówno regulacji unijnych, jak i krajowej specyfiki (potencjalnych przepisów wykonawczych, praktyki KNF w sektorach nadzorowanych, standardów GPW Dobrych Praktyk 2021), ta luka jest jeszcze wyraźniejsza. [Poziom pewności: Wysoki, oparty na analizie pierwotnej EU AI Act (Regulation (EU) 2024/1689) i wytycznych wdrożeniowych opublikowanych przez EU AI Office]

Pułapka delegacji

Opisany powyżej konflikt strukturalny tworzy specyficzny tryb porażki governance. Można go nazwać pułapką delegacji. Działa następująco.

Rada deleguje nadzór nad AI na CTO. CTO wdraża governance: dashboardy monitoringu, bramki wdrożeniowe, kontrole ryzyka, przeglądy dostawców. Rada otrzymuje okresowe raporty ze zielonym statusem metryk technicznych. Członkowie rady widzą dowody aktywności governance i wnioskują, że governance AI jest zapewniony. Agendy posiedzeń rady przesuwają się ku innym priorytetom.

Pod tą pozorną strukturą governance kilka rzeczy się nie dzieje. Rada nie buduje kompetencji AI. Nikt niezależny nie ocenia strategii AI prowadzonej przez CTO. Ryzyka pozatechniczne (etyczne, reputacyjne, organizacyjne, regulacyjne) nie są oceniane przez nikogo z mandatem i zdolnością do ich oceny. Dokumentacja powiernicza staranności na poziomie rady nie powstaje. CTO raportuje w górę, ale radzie brakuje wiedzy, by ocenić te raporty, i struktury, by je zakwestionować.

Pułapka zamyka się, gdy zdarzenie wyzwalające ujawnia lukę. Ocena gotowości na EU AI Act. Nieudany projekt AI z istotnym wpływem finansowym. Zapytanie regulatora. Odnowienie ubezpieczenia D&O z pytaniami o governance AI. Członek rady, który przeczytał o odpowiedzialności za AI w Rzeczpospolitej lub Pulsie Biznesu. Wyzwalacz bywa różny. Odkrycie jest takie samo: rada polegała na governance zaprojektowanym pod zarządzanie technologią, nie pod nadzór rady.

W tym momencie rada staje przed wyborem pod presją czasu, który powinna była podjąć w sposób przemyślany. Tej presji da się uniknąć, ale wyłącznie wtedy, gdy rada rozpozna pułapkę delegacji, zanim ta się zamknie.

Alternatywa: governance zintegrowany z radą

Alternatywa dla delegacji technologicznej nie polega na usunięciu CTO z governance AI. To byłoby zmarnowanie najcenniejszej ekspertyzy technicznej w organizacji. Alternatywa polega na restrukturyzacji governance tak, by CTO uczestniczył jako kluczowy kontrybutor we frameworku będącym własnością rady, zamiast pełnić rolę wyłącznego właściciela frameworku, którego rada nie jest w stanie nadzorować.

Podejście doradcze osiąga to, wprowadzając cztery elementy nieobecne w delegacji technologicznej.

Kompetencje AI rady redukujące zależność. Podejścia doradcze projektują ustrukturyzowane programy edukacyjne dla nietechnicznych członków rady nadzorczej, kalibrowane do poziomu wyjściowego rady i realizowane jako program ciągły. Członkowie rady uczą się oceniać propozycje AI, rozpoznawać pytania ujawniające ryzyko, interpretować dane o wydajności AI oraz identyfikować sytuacje, w których rekomendacje CTO wymagają zakwestionowania. Celem jest rada zdolna do samodzielnego nadzoru nad AI. Podejście doradcze uzyskuje 4,5 na kompetencjach AI rady; delegacja technologiczna uzyskuje 1,5. Luka 3,0 punktu to różnica między radą, która rozumie, co nadzoruje, a radą, która tego nie potrafi.

Niezależność od decyzji objętych nadzorem. Zewnętrzne doradztwo bez partnerstw z dostawcami, bez przychodów technologicznych, bez polityki organizacyjnej i bez udziałów w systemach AI podlegających przeglądowi wychodzi od interesów rady. Mandat doradcy to pomoc członkom rady w wypełnianiu obowiązków nadzorczych, nie uzasadnianie inwestycji technologicznych ani obrona wyborów dostawców. Podejście doradcze uzyskuje 5,0 na niezależności; delegacja technologiczna uzyskuje 1,5.

Integracja organizacyjna wykraczająca poza funkcje. Podejście doradcze projektuje nadzór nad AI jako organizacyjny model operacyjny: struktury komitetów, kadencje raportowania między zarządem a radą, ścieżki eskalacji dla decyzji AI przekraczających uprawnienia zarządu, definicje ról precyzujące odpowiedzialności oraz praktyki kulturowe czyniące governance operacyjnym zamiast dokumentacyjnym. Podejście doradcze uzyskuje 4,5 na integracji organizacyjnej; delegacja technologiczna uzyskuje 2,0. Luka odzwierciedla różnicę między governance zamkniętym w funkcji IT a governance osadzonym w strukturze organizacyjnej. W polskim modelu korporacyjnym, gdzie separacja zarządu i rady nadzorczej wynika wprost z KSH, zaprojektowanie governance AI przenikającego obie struktury wymaga celowego wysiłku projektowego.

Dokumentacja powiernicza, którą rada może obronić. Podejście doradcze tworzy udokumentowane dowody świadomego podejmowania decyzji, bieżącego nadzoru i staranności na poziomie rady. Ta dokumentacja istnieje, ponieważ framework governance jest zaprojektowany wokół obowiązków rady, nie wokół zarządzania technicznego. Gdy pojawiają się pytania powiernicze (kontrola regulacyjna KNF, roszczenie D&O, kwestionowanie przez akcjonariuszy), rada dysponuje zapisem wykazującym governance, nie delegację. Podejście doradcze uzyskuje 4,0 na odpowiedzialności powierniczej; delegacja technologiczna uzyskuje 1,5.

Rola CTO w tej strukturze jest istotna. Ocena ryzyka technicznego, monitoring systemów, zarządzanie dostawcami, governance wdrożeniowy i operacyjna wydajność AI pozostają domeną CTO. To obszary, w których delegacja technologiczna wypada dobrze (skalowalność 3,5, szybkość 3,0, identyfikacja ryzyka technicznego 2,5). Model doradczy zachowuje te mocne strony, dodając warstwę governance na poziomie rady, której rola CTO nie jest w stanie strukturalnie zapewnić.

To uzupełnienie, nie zastąpienie. CTO wnosi autorytet techniczny. Zewnętrzne doradztwo wnosi niezależność, edukację rady i integrację organizacyjną. Razem pokrywają pełne spektrum czynników governance. Osobno każde z nich pozostawia istotne luki.

Kiedy delegacja technologiczna jest odpowiednia

Uczciwość wymaga uznania, że delegacja technologiczna jest adekwatna w określonych okolicznościach. Nie każda organizacja potrzebuje governance AI zintegrowanego z radą, a twierdzenie inaczej byłoby służeniem własnemu interesowi.

AI ma charakter operacyjny, nie strategiczny. Jeśli AI ogranicza się do automatyzacji procesów, wewnętrznych narzędzi analitycznych czy gotowego oprogramowania produktywności, luka governance strategicznego ma mniejsze znaczenie. Governance techniczny pokrywa główne ryzyka. Nadzór rady nad AI jest mniej krytyczny, gdy AI nie kształtuje pozycji konkurencyjnej i nie wpływa na osoby, których prawa wymagają ochrony.

Organizacja jest na najwcześniejszym etapie dojrzałości AI. Organizacja realizująca pierwszą weryfikację koncepcji lub pilotująca pojedyncze narzędzie AI nie potrzebuje frameworku governance na poziomie rady. Nadzór CTO jest proporcjonalny do zakresu. Governance powinien skalować się wraz z dojrzałością AI. Budowanie nadzoru na poziomie rady przed pojawieniem się decyzji AI na poziomie rady marnuje zasoby.

Przepustowość rady nadzorczej jest rzeczywiście ograniczona. Rady nadzorcze spółek średniej wielkości ponoszą obowiązki nadzorcze w wielu domenach. Jeśli radzie brakuje zdolności do włączenia governance AI do istniejących priorytetów, delegacja technologiczna zapewnia bazowy poziom. Rada powinna jednak wyraźnie udokumentować tę decyzję, uznając delegację, jej ograniczenia i warunki, w których governance na poziomie rady zostanie wznowiony.

Budżet na zewnętrzne doradztwo jest niedostępny. Podejście doradcze kosztuje więcej niż delegacja technologiczna. Jeśli organizacja nie może sfinansować zewnętrznego doradztwa, a priorytety rady wymagają skierowania ograniczonych zasobów na najpilniejsze ryzyka, delegacja technologiczna jest racjonalnym rozwiązaniem tymczasowym. Ryzyko polega na przyjęciu środka tymczasowego za rozwiązanie trwałe. [Poziom pewności: Wysoki, te warunki są dobrze ugruntowane w literaturze ładu korporacyjnego dotyczącej nadzoru proporcjonalnego]

Te scenariusze łączy wspólna cecha: opisują organizacje, w których AI nie stała się jeszcze istotna dla pozycji konkurencyjnej, ekspozycji regulacyjnej czy wpływu na interesariuszy. W miarę jak istotność AI rośnie (więcej wdrożeń, zastosowania wyższego ryzyka, obowiązki EU AI Act, zależność strategiczna), uzasadnienie delegacji technologicznej słabnie, a uzasadnienie governance zintegrowanego z radą się umacnia.

Lista działań dla rady nadzorczej

Dla rad nadzorczych polegających obecnie na delegacji technologicznej governance AI sześć kroków może rozpocząć przejście do nadzoru zintegrowanego z radą.

1. Audyt zakresu obecnego governance. Poproś CTO o udokumentowanie, co istniejący framework governance AI pokrywa, a co (co bardziej wymowne) nie pokrywa. Porównaj udokumentowany zakres z 10 czynnikami Ramowego Modelu Oceny Governance AI dla Rad Nadzorczych opracowanego przez The Thinking Company. Luki między governance technicznym a governance na poziomie rady stają się w tym porównaniu widoczne.

2. Ocena kompetencji AI rady bez udziału CTO. Bez CTO na sali poproś każdego członka rady o opisanie, jakie AI organizacja wdraża, jaką strategiczną rolę AI pełni w planie biznesowym i jakie ryzyka AI generuje poza wydajnością techniczną. Jeśli członkowie rady nie potrafią odpowiedzieć na te pytania bez konsultacji z CTO, luka kompetencyjna istnieje, a zależność od delegacji jest potwierdzona.

3. Przegląd ekspozycji powierniczej. Zaangażuj radcę prawnego (nie CTO) do oceny ekspozycji rady na odpowiedzialność D&O z tytułu decyzji związanych z AI w ramach obecnych ustaleń governance. Na gruncie art. 293 i 483 KSH oraz europejskich standardów ładu korporacyjnego delegacja pracy nie oznacza delegacji obowiązku. Radca prawny może określić, co luka powiernicza oznacza dla poszczególnych członków rady.

4. Mapowanie obowiązków EU AI Act wobec obecnego governance. Jeśli organizacja prowadzi operacje w Europie, porównaj wymogi organizacyjne i governance’owe EU AI Act z istniejącym frameworkiem governance CTO. Luka między zgodnością techniczną (dokumentacja modeli, ścieżki audytu) a zgodnością regulacyjną (mechanizmy nadzoru ludzkiego, oceny wpływu na prawa podstawowe, dokumentacja nadzoru na poziomie rady) wskaże konkretne niedostatki governance. UODO, KNF i przyszłe krajowe organy nadzoru AI mogą prowadzić kontrole z perspektywy governance organizacyjnego, nie samej techniki.

5. Wprowadzenie governance AI jako stałego punktu agendy rady. AI powinna pojawiać się na agendzie rady nadzorczej jako temat governance, odrębny od operacyjnego raportu technologicznego CTO, przynajmniej raz na kwartał. Ta pojedyncza zmiana strukturalna zaczyna przebudowywać postrzeganie AI z raportu funkcji technologicznej na odpowiedzialność nadzorczą rady. Dobre Praktyki Spółek Notowanych na GPW 2021 podkreślają rolę rady w nadzorze nad strategią, co obejmuje w coraz większym stopniu strategię technologiczną i AI.

6. Rozważenie zaangażowania doradczego. Zlecenie niezależnej oceny pozycji governance AI organizacji. Ocena powinna obejmować wszystkie 10 czynników governance, zidentyfikować, gdzie delegacja technologiczna jest wystarczająca i gdzie tworzy luki, oraz rekomendować proporcjonalne dalsze kroki. To punkt wejścia do przejścia od delegacji do nadzoru zintegrowanego z radą.

Kolejne kroki

Dla rad nadzorczych oceniających, czy ich governance AI delegowany na CTO jest wystarczający, The Thinking Company oferuje dwa punkty wejścia.

Board AI Governance Session (25 000 PLN). Sesja z radą nadzorczą i CTO obejmująca: ocenę obecnych luk governance według 10-czynnikowego frameworku oceny, ewaluację mocnych stron istniejącego governance CTO i jego ograniczeń strukturalnych, porównanie z modelami governance doradczego i komplementarnego oraz rekomendacje dalszych kroków dostosowane do dojrzałości AI organizacji i ekspozycji regulacyjnej.

AI Governance Framework Engagement (80 000-200 000 PLN). Zaprojektowanie i wdrożenie frameworku governance AI na poziomie rady nadzorczej, zintegrowanego z istniejącym governance technicznym CTO. Obejmuje strukturę komitetów, kadencje raportowania, program edukacji rady, ścieżki eskalacji, dokumentację powierniczą i gotowość na EU AI Act. Realizacja w ciągu czterech do ośmiu tygodni, z operacyjnymi cyklami governance funkcjonującymi do zakończenia zaangażowania. CTO pozostaje centralnym uczestnikiem; zaangażowanie dodaje warstwę governance na poziomie rady, nie zastępuje nadzoru technicznego.

Oba zaangażowania są zaprojektowane, by uzupełniać istniejący governance CTO, nie by go marginalizować.


Powiązane artykuły:


Metodologia scoringowa: The Thinking Company Board AI Governance Evaluation Framework, v1.0. Wszystkie oceny oparte na opublikowanych badaniach, analizie regulacyjnej, badaniach governance rad nadzorczych i doświadczeniu zawodowym. Wagi czynników odzwierciedlają dowody, że kompetencje AI rady nadzorczej, gotowość na EU AI Act i integracja organizacyjna governance są trzema najsilniejszymi predyktorami skuteczności governance. Pełna metodologia i baza dowodowa dostępne na życzenie.


Ten artykuł został ostatnio zaktualizowany 2026-03-11. Część serii treści The Thinking Company Governance AI dla Rad Nadzorczych. Aby uzyskać spersonalizowaną ocenę, skontaktuj się z naszym zespołem.