Spis treści
- Wprowadzenie
- Zakres regulacji AI Act i ich implikacje dla spółek
- Obowiązki rady nadzorczej w świetle Kodeksu spółek handlowych
- Rola organów nadzorczych w zarządzaniu ryzykiem AI
- Zgodność z wymogami KNF i WSE
- Międzynarodowe standardy: OECD, ESG i dobre praktyki
- Praktyczne wyzwania i rekomendacje dla rady nadzorczej
- Podsumowanie
Wprowadzenie
Rozwój sztucznej inteligencji (SI) stawia przed polskimi spółkami nowe wyzwania regulacyjne i strategiczne. W odpowiedzi na te zmiany Unia Europejska przyjęła tzw. AI Act – kompleksowy akt prawny mający na celu ujednolicenie zasad wprowadzania, monitorowania i oceny systemów AI. W kontekście polskiego prawa korporacyjnego kluczową rolę odgrywa rada nadzorcza, której zadaniem jest zapewnienie właściwego nadzoru nad ryzykiem technologicznym i zgodnością z obowiązującymi przepisami.
Zakres regulacji AI Act i ich implikacje dla spółek
AI Act wprowadza podział systemów AI na cztery kategorie ryzyka: minimalne, ograniczone, wysokie i zakazane. Systemy o wysokim ryzyku podlegają szczegółowej ocenie zgodności, obowiązkowi prowadzenia rejestru, przejrzystym informacjom dla użytkowników oraz nadzorowi rynku. Spółki, które wdrażają takie rozwiązania, muszą spełnić wymogi dokumentacyjne, zapewnić audyty techniczne oraz wprowadzić mechanizmy monitorowania po wdrożeniu. Nieprzestrzeganie może skutkować karami finansowymi, a także negatywnym wpływem na reputację i dostęp do kapitału.
Obowiązki rady nadzorczej w świetle Kodeksu spółek handlowych
Zgodnie z art. 384 § 1 KSH rada nadzorcza jest odpowiedzialna za stały nadzór nad działalnością spółki oraz za kontrolę ryzyka. W kontekście AI oznacza to konieczność:
- monitorowania wdrażania systemów AI pod kątem zgodności z AI Act,
- oceny wpływu technologii na wyniki finansowe i strategiczne cele spółki,
- zapewnienia, że zarząd posiada kompetencje i procedury niezbędne do zarządzania ryzykiem AI,
- przeglądu raportów z audytów zewnętrznych i wewnętrznych dotyczących systemów AI.
Rada ma także obowiązek informowania akcjonariuszy o istotnych ryzykach technologicznych, co jest spójne z wymogiem transparentności określonym w art. 386 KSH.
Rola organów nadzorczych w zarządzaniu ryzykiem AI
W praktyce rada nadzorcza powinna współpracować z komitetem audytu lub powołać dedykowany komitet ds. technologii i ryzyka AI. Zadania takiego organu obejmują:
- opracowanie polityki zarządzania ryzykiem AI, uwzględniającej klasyfikację systemów oraz procedury oceny zgodności,
- ustalenie kryteriów wyboru dostawców technologii, w tym wymogów dotyczących certyfikacji i audytu,
- monitorowanie efektów wdrożenia AI pod kątem etycznym, społecznym i środowiskowym,
- regularne przeglądy i aktualizacje strategii w odpowiedzi na zmiany regulacyjne.
Zgodność z wymogami KNF i WSE
Instytucje nadzoru finansowego, takie jak KNF oraz Giełda Papierów Wartościowych w Warszawie (WSE), wprowadziły wytyczne dotyczące zarządzania technologią i cyberbezpieczeństwem. Dla spółek notowanych na WSE, regulacje te obejmują:
- obowiązek ujawniania w raportach rocznych i półrocznych informacji o systemach AI o wysokim ryzyku,
- wymóg posiadania wewnętrznych polityk zarządzania ryzykiem technologicznym,
- obowiązek przeprowadzania testów odporności (stress testing) w kontekście potencjalnych awarii AI.
Rada nadzorcza musi zapewnić, że te wymogi są spełnione, a także koordynować współpracę z działem compliance i działem IT.
Międzynarodowe standardy: OECD, ESG i dobre praktyki
Organizacja Współpracy Gospodarczej i Rozwoju (OECD) oraz ramy ESG (Environmental, Social, Governance) podkreślają znaczenie przejrzystości, odpowiedzialności i etyki w stosowaniu AI. Dla rady nadzorczej kluczowe elementy to:
- zgodność z wytycznymi OECD dotyczącymi sztucznej inteligencji, w tym zasada niedyskryminacji i poszanowania praw człowieka,
- integracja ryzyka AI w ogólnym raporcie ESG, co zwiększa wiarygodność spółki w oczach inwestorów,
- wdrożenie mechanizmów kontroli niezależnych ekspertów (np. audytorów AI) w celu weryfikacji zgodności z międzynarodowymi standardami.
Praktyczne wyzwania i rekomendacje dla rady nadzorczej
Do najważniejszych wyzwań należą brak jednolitej definicji ryzyka AI, szybki postęp technologiczny oraz ograniczona dostępność kompetentnych specjalistów. Rekomendacje obejmują:
- regularne szkolenia członków rady w zakresie najnowszych trendów AI i regulacji,
- tworzenie współpracy z zewnętrznymi jednostkami certyfikującymi i laboratoriów badawczych,
- wypracowanie jasnych kryteriów odpowiedzialności za decyzje podjęte przez systemy AI,
- wdrożenie systemu wczesnego ostrzegania (early‑warning) dotyczącego incydentów AI,
- uwzględnienie scenariuszy ryzyka AI w planie ciągłości działania (BCP).
Podsumowanie
AI Act wprowadza istotne obowiązki dla spółek operujących w UE, a ich realizacja wymaga aktywnego udziału rady nadzorczej. Łącząc wymogi polskiego Kodeksu spółek handlowych, regulacje KNF i WSE oraz międzynarodowe standardy OECD i ESG, rada może zapewnić kompleksowy nadzór nad ryzykiem AI, chronić interesy akcjonariuszy oraz budować długoterminową wartość spółki. Praktyczne podejście, oparte na edukacji, współpracy z ekspertami i transparentności, jest kluczowe dla skutecznego zarządzania w erze sztucznej inteligencji.
