Cyfryzacja w służbie jawności: Stanowiska Sieci Obywatelskiej Watchdog Polska w 2025 roku

W 2025 roku Sieć Obywatelska Watchdog Polska podjęła szereg działań opiniodawczych mających na celu zapewnienie, że transformacja cyfrowa w Polsce i Unii Europejskiej będzie przebiegać z poszanowaniem praw podstawowych, jawności i odpowiedzialności władzy. Organizacja przedstawiła rekomendacje dotyczące zarówno strategicznych kierunków informatyzacji państwa, jak i szczegółowych regulacji dotyczących sztucznej inteligencji (AI).

Poniżej znajduje się szczegółowe zestawienie konsultacji i wyrażonych przez nas w ich ramach stanowisk.

Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku

W czerwcu 2025 r. Ministerstwo Cyfryzacji zbierało opinie w ramach konsultacji „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku”. Kluczowym elementem strategii jest wizja państwa, w którym algorytmy mają wspomagać urzędników w podejmowaniu decyzji oraz ułatwiać komunikację z obywatelami. Strategia kładzie przy tym duży nacisk na to, aby wdrażane rozwiązania były godne zaufania, bezpieczne i niedyskryminujące. 

Zapoznając się z projektem, z zadowoleniem odnotowaliśmy powstanie dokumentu, który ujmuje rozwój AI w Polsce w perspektywie praw człowieka, demokracji, przejrzystości i bezpieczeństwa, zgodnej z międzynarodowymi standardami.

Na szczególne uznanie naszym zdaniem zasługuje połączenie deklaracji wartości z konkretnymi mechanizmami nadzoru, takimi jak planowany organ nadzorczy czy system skargowy. Aby jednak te założenia nie pozostały jedynie na poziomie strategii, przedstawiliśmy propozycje rozwiązań mogących wzmocnić odpowiedzialność i przejrzystość wdrażania Polityki AI.

Nasze rekomendacje koncentrowały się na wzmocnieniu przejrzystości, rozliczalności i nadzoru nad systemami AI w administracji publicznej. Postulowaliśmy wprowadzenie mierzalnych wskaźników dotyczących prowadzenia publicznego rejestru systemów AI, a także określających odsetek systemów AI wysokiego ryzyka, dla których dostępna jest publicznie ocena skutków dla praw podstawowych.Oczekiwaliśmy także zobowiązania administracji do publikowania wyników testów wyjaśnialności.

Za istotne uznaliśmy również jednoznaczne określenie łańcucha odpowiedzialności, z wyraźnym wskazaniem nadrzędnej roli człowieka w podejmowaniu decyzji administracyjnych oraz wprowadzenie obowiązku jasnego oznaczania decyzji wspieranych przez AI.

W obszarze zamówień publicznych proponowaliśmy większą jawność dotyczącą danych treningowych i własności modeli, a w przypadku systemów wysokiego ryzyka – regularne, niezależne audyty oraz coroczne oceny wpływu społecznego wraz z publikacją wyników. Naszym zdaniem szczególny nacisk należy położyć na niezależne audyty AI wykorzystywanej w infrastrukturze krytycznej.

Rekomendowaliśmy także rozszerzenie proponowanego w dokumencie sposobu mierzenia transparentności algorytmów na obszary o największym znaczeniu społecznym, takie jak zdrowie czy wymiar sprawiedliwości, oraz uzupełnienie procedur monitoringu wdrażania polityki o dane dotyczące skarg, wyników audytów i terminowości publikacji dokumentacji.


Przekaż 1,5% podatku Watchdogowi!

Wystarczy, że wpiszesz nasz numer KRS 0000181348 w swoim rozliczeniu podatkowym.


Strategia informatyzacji i cyfryzacji państwa 

W grudniu 2025 r. wzięliśmy udział w konsultacjach dotyczących projektu uchwały Rady Ministrów w sprawie przyjęcia Strategii Cyfryzacji Państwa. Stanowi ona kompleksową, dziesięcioletnią wizję transformacji cyfrowej kraju do 2035 roku. Dokument ten ma zastąpić dotychczasowy Program Zintegrowanej Informatyzacji Państwa i wyznaczyć nadrzędny cel, jakim jest poprawa jakości życia obywateli poprzez cyfryzację. Strategia obejmuje szeroki zakres interwencji – od rozwoju infrastruktury i e-usług, przez wzmacnianie kompetencji cyfrowych, po wykorzystanie technologii przełomowych, co ma zapewnić spójność działań państwa z unijnym programem „Droga ku Cyfrowej Dekadzie”.

W ramach tych konsultacji sformułowaliśmy postulaty dotyczące jawności, projektowania systemów z myślą o kontroli społecznej oraz konieczności systematycznego uwzględniania wpływu cyfryzacji na prawa podstawowe.

Rekomendowaliśmy uwzględnienie standardu proaktywnej publikacji jako jednego z celów oraz zaproponowaliśmy środki jego realizacji. W odpowiedzi na ten postulat ministerstwo wskazało na inne przepisy, które – ich zdaniem – go urzeczywistniają, a także podniosło, że część naszych propozycji wykracza poza zakres konsultowanego dokumentu.

W obszarze projektowania technologii rekomendowaliśmy uzupełnienie zasady „ethics by design” o obowiązek wczesnej publikacji szczegółowej specyfikacji projektów, tak aby realnie umożliwiać audyt społeczny. Uwaga została częściowo uwzględniona i chociaż zobowiązanie do publikacji szczegółowej specyfikacji projektu na wczesnym etapie ostatecznie się nie pojawiło, to dopisano otwartość na audyt społeczny.

Ponadto postulowaliśmy wzmocnienie zapisu dotyczącego przeprowadzenia oceny wpływu na prawa podstawowe w odniesieniu do systemów automatyzujących podejmowanie decyzji oraz systemów AI w administracji państwowej. Nasza uwaga była natury redakcyjnej i była oparta na naszych własnych doświadczeniach oraz znajdowała potwierdzenie w unijnych rekomendacjach. Niestety ministerstwo uznało naszą propozycję za zbyt szczegółową i wchodzącą w zakres regulacji AI Act.

Warto jednak zauważyć, że był to kolejny etap konsultacji tego dokumentu, a dwie z czterech uwag zgłoszonych przez nas w poprzedniej odsłonie – pod koniec 2024 roku – w nowym projekcie zostały uwzględnione niemal dosłownie.

Przejrzystość systemów AI (Art. 50 Aktu o AI)

W 2025 roku nasze działania opiniodawcze objęły także poziom europejski. W październiku Sieć Obywatelska wzięła udział w ukierunkowanych konsultacjach Komisji Europejskiej poświęconych wytycznym do art. 50 Aktu o AI, regulującego obowiązki przejrzystości i informowania o wykorzystaniu systemów AI.

Akt o sztucznej inteligencji (AI Act) to pierwsze na świecie kompleksowe rozporządzenie regulujące rozwój i stosowanie AI, którego celem jest pogodzenie innowacyjności z ochroną praw podstawowych, demokracji i praworządności. Wprowadza on zharmonizowane zasady dla całej Unii Europejskiej, oparte na ocenie ryzyka, oraz nakłada konkretne obowiązki na dostawców i użytkowników systemów AI. Jednym z kluczowych elementów tych regulacji są właśnie wymogi przejrzystości, które mają umożliwić obywatelom rozpoznanie, kiedy i w jaki sposób oddziałują na nich systemy sztucznej inteligencji.

Konsultacje dotyczące art. 50 AI Act miały na celu między innymi doprecyzowanie zasad oznaczania treści generowanych lub wspieranych przez AI oraz budowanie zaufania do technologii wykorzystywanych w sferze publicznej.

Nasze uwagi dotyczyły wątpliwości interpretacyjnych i praktycznego stosowania art. 50 aktu o AI w kontekście wykorzystania systemów generatywnej AI w administracji publicznej, zwłaszcza przy sporządzaniu pism i decyzji kierowanych do konkretnych osób.

Po pierwsze wskazaliśmy niejasność co do tego, czy pisma administracyjne tworzone z pomocą AI podlegają obowiązkom transparentności z art. 50. Takie pisma nie są typową „interakcją” z systemem AI ani „treścią publikowaną publicznie”, dlatego pojawia się pytanie, czy organ powinien ujawniać fakt wsparcia AI w indywidualnych decyzjach, mimo wyjątku dotyczącego odpowiedzialności redakcyjnej.

Po drugie zwracaliśmy uwagę na potrzebę doprecyzowania relacji między obowiązkami dostawców (np. znakowanie/watermarking treści generowanych przez AI) a obowiązkami podmiotów stosujących AI w administracji. Pojawia się pytanie, czy ostateczny dokument urzędowy przygotowany przy wsparciu systemu generatywnego powinien zawierać widoczne oznaczenie dla adresata oraz jak ma się to do wymogów dotyczących momentu i formy przekazania informacji o użyciu AI, a także do wyjątku „kontroli redakcyjnej”.

Po trzecie poruszyliśmy kwestię relacji obowiązków transparentności z art. 50 z innymi przepisami unijnymi i krajowymi, w szczególności dotyczącymi procedury administracyjnej i ochrony danych. Chodzi zwłaszcza o sytuacje, w których AI może generować błędne lub fikcyjne podstawy prawne („halucynacje”), co rodzi ryzyko naruszenia zasady legalności i rzetelności działania administracji. Wskazaliśmy potrzebę praktycznych wytycznych, jak koordynować te obowiązki.

Wreszcie proponowaliśmy, aby kodeks postępowania dla sektora publicznego rekomendował konkretne środki operacyjne: widoczną informację o wykorzystaniu AI przy redagowaniu pisma, obowiązkową i udokumentowaną weryfikację prawną przez człowieka, archiwizację promptów i wyników do celów audytowych, zabezpieczenia ograniczające generowanie błędnych odniesień prawnych, zachowanie metadanych/watermarków oraz jasne wskazanie, że oznaczenie użycia AI nie przenosi odpowiedzialności z urzędnika na system.

W połowie grudnia została opublikowana pierwsza propozycja kodeksu postępowania w zakresie oznaczania i etykietowania treści generowanych przez AI, będącego owocem ww. konsultacji. Nie wiemy, na ile znajdujące się w nim treści są bezpośrednim efektem naszych uwag, niemniej duża część naszych refleksji znajduje w nim mniejsze lub większe odzwierciedlenie. Najsilniej zaznaczone wydają się postulaty dotyczące oznaczania treści wytwarzanych z udziałem sztucznej inteligencji oraz dokumentowanego ludzkiego przeglądu redakcyjnego takich treści.

Raportowanie poważnych incydentów (Art. 73 Aktu o AI)

Uzupełnieniem prac nad przejrzystością systemów AI było stanowisko Watchdog Polska dotyczące odpowiedzialności za ich działanie w sytuacjach kryzysowych. Uczestniczyliśmy w konsultacjach projektu wytycznych do art. 73 Aktu o AI, który wprowadza obowiązek zgłaszania poważnych incydentów związanych z systemami AI wysokiego ryzyka. Celem tych regulacji jest stworzenie systemu wczesnego ostrzegania, który pozwoli organom nadzoru na szybkie identyfikowanie zagrożeń dla praw podstawowych, bezpieczeństwa oraz prawidłowego funkcjonowania instytucji publicznych.

Nasze uwagi koncentrowały się na doprecyzowaniu i rozszerzeniu rozumienia „poważnego incydentu” w art. 73 AI Act, tak aby obejmowało ono również systemowe i pośrednie naruszenia praw podstawowych wynikające z użycia AI w administracji publicznej – zwłaszcza w obszarze dostępu do informacji, prawa do skutecznego środka odwoławczego i rzetelnej procedury.

W szczególności wskazywaliśmy, że przykłady naruszeń praw podstawowych zawarte w projekcie wytycznych nie obejmują sytuacji regularnego, systemowego odrzucania wniosków, petycji czy skarg na podstawie „halucynowanych” podstaw prawnych lub błędnej automatycznej preselekcji. Podaliśmy przykłady m.in. generatywnych asystentów redagujących decyzje odmowne na podstawie nieistniejących przepisów, automatycznych filtrów tłumiących zgłoszenia obywateli czy systemów błędnie przekierowujących odwołania, co prowadzi do utraty terminów i prawa do skutecznego środka prawnego. Podkreślaliśmy, że takie wzorce – nawet jeśli nie zawsze są „uniwersalne” – powinny być traktowane jako duże, raportowalne ingerencje w prawa chronione Kartą.

Zwracaliśmy także uwagę, że szkoda „dla mienia” nie powinna być oceniana wyłącznie przez pryzmat wartości finansowej (np. 5% ceny zakupu), lecz powinna obejmować utratę lub uszkodzenie rejestrów publicznych, logów i materiałów dowodowych, ponieważ narusza to przejrzystość, kontrolę społeczną i gwarancje proceduralne. Zaproponowaliśmy dodanie parametrów takich jak utrata integralności rejestrów, naruszenie łańcucha dowodowego czy czas potrzebny na przywrócenie danych.

W części dotyczącej związku przyczynowego wskazaliśmy na potrzebę wyraźnego uwzględnienia pośredniego sprawstwa (indirect causation), np. gdy system antyspamowy w urzędzie blokuje wnioski o dostęp do informacji lub gdy narzędzie do routingu błędnie przypisuje odwołania. Podkreślaliśmy również, że automatyczne systemy decyzyjne używane przez organy publiczne mogą naruszać zbiorowe interesy jednostek, gdy systemowo zniekształcają decyzje administracyjne lub pozbawiają obywateli gwarancji proceduralnych.

Istotną częścią uwag były też postulaty wzmocnienia wymogów dowodowych i zabezpieczenia materiału dowodowego przy incydencie: zamrożenie logów, wersjonowanie modeli i zbiorów danych, haszowanie artefaktów, dokumentowanie łańcucha kontroli. W zakresie współpracy z organami nadzoru zaproponowaliśmy m.in. publikację niepoufnego podsumowania sprawy po jej zakończeniu oraz przekazywanie logów w formacie maszynowym.

Wreszcie zaproponowaliśmy konkretne zmiany w formularzu raportowania incydentów, m.in. dodanie pól dotyczących: kwalifikacji jako „widespread infringement”, liczby państw członkowskich objętych incydentem, odniesień do DPIA/FRIA i model cards, sekcji o zabezpieczeniu dowodów oraz checklisty naruszonych praw podstawowych i informacji o powiadomieniu osób dotkniętych incydentem.

Całościowo nasze uwagi zmierzały do tego, aby mechanizm raportowania incydentów obejmował nie tylko awarie techniczne czy szkody fizyczne, lecz także systemowe, administracyjne i proceduralne naruszenia praw podstawowych wynikające z wykorzystania wysokiego ryzyka systemów AI w sektorze publicznym.

Europejski program „Cyfrowa Dekada” (UE)

Na koniec roku przedstawiliśmy stanowisko w przeglądzie programu „Cyfrowa Dekada” — kluczowej inicjatywy Unii Europejskiej służącej koordynacji cyfrowych działań na poziomie europejskim, krajowym, regionalnym i lokalnym. W ramach badań prowadzonych na zlecenie Komisji Europejskiej, skierowanych do administracji publicznej, biznesu i organizacji społeczeństwa obywatelskiego, wskazywaliśmy, że skuteczna i godna zaufania transformacja cyfrowa nie może ograniczać się do wskaźników technologicznych, lecz musi opierać się na realnym dostępie do danych, przejrzystości systemów publicznych oraz możliwości społecznej kontroli nad technologiami wykorzystywanymi przez instytucje publiczne. W naszej opinii skoncentrowaliśmy się na trzech kluczowych obszarach:

  • standardzie „FOI-by-API”: Unia Europejska powinna wymagać maszynowo czytelnej, proaktywnej publikacji informacji o systemach publicznych poprzez stabilne i udokumentowane API,
  • promowaniu oprogramowania Open Source: Domyślne stosowanie otwartego oprogramowania w sektorze publicznym ma zwiększyć bezpieczeństwo, umożliwić ponowne wykorzystanie kodu i budować suwerenność strategiczną,
  • wskaźnikach monitorowania przejrzystości: Postępy cyfrowe Europy powinny być mierzone m.in. liczbą systemów w publicznych rejestrach oraz dostępnością publicznych logów decyzji algorytmicznych.

Kropla drąży skałę, a Watchdog nie odpuszcza

Działania opiniodawcze Sieci Obywatelskiej Watchdog Polska w 2025 roku pokazują, że cyfryzacja nie jest procesem neutralnym ani wyłącznie technologicznym. To obszar realnych decyzji wpływających na prawa obywateli, przejrzystość państwa i rozliczalność władzy – czyli tematy niezwykle ważne dla naszej organizacji. Zarówno na poziomie krajowym, jak i europejskim konsekwentnie wskazywaliśmy, że nowoczesne technologie — w tym systemy sztucznej inteligencji — mogą wzmacniać zaufanie do instytucji publicznych tylko wtedy, gdy są projektowane i wdrażane w sposób jawny, audytowalny i podporządkowany ochronie praw podstawowych. Naszym celem pozostaje cyfryzacja w służbie jawności: taka, która nie zastępuje odpowiedzialności algorytmem, lecz czyni działanie państwa bardziej przejrzystym, kontrolowalnym i otwartym na społeczną kontrolę. Mamy nadzieję, że nasz głos zostanie usłyszany i wzięty pod uwagę, a wartości zapisane w konsultowanych dokumentach będą przestrzegane. Że warto zabierać głos pokazują wyżej wspomniane przykłady wyników konsultacji strategii informatyzacji i cyfryzacji państwa, czy te dotyczące art. 50 AI Actu.

Realizacji tych celów służy również udział Sieci Obywatelskiej Watchdog Polska w międzynarodowym projekcie AI Accountability, realizowanym we współpracy m.in. z organizacjami K-Monitor i Danes Je Nov Dan. Projekt koncentruje się na monitorowaniu wykorzystania systemów sztucznej inteligencji przez administrację publiczną, w tym na analizie celów ich stosowania oraz danych, na których się opierają. Jego istotnym elementem są działania rzecznicze, analityczne i – w razie potrzeby – prawne, mające na celu zwiększenie przejrzystości algorytmów oraz realnej odpowiedzialności instytucji publicznych za ich użycie. W 2026 r. powstanie raport opisujący wyniki badań oraz rekomendacje.

Podoba Ci się ten artykuł? Wesprzyj nasze działania darowizną.

Komentarze

Dodaj komentarz

Przed wysłaniem komentarza przeczytaj "Zasady dodawania i publikowania komentarzy".

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *