close

Raport

W tematyce: Administracja publiczna

RAPORT STRATEGICZNY Badanie potrzeb organizacji w zakresie wykorzystania sztucznej inteligencji i ochrony danych osobowych

Data publikacji: 28/01/2026

Link źródłowy: kliknij tutaj

Informacja prasowa: kliknij tutaj

Skopiuj link do raportu
Pobierz raport w PDF
icon

Streszczenie

icon

Streszczenie

Raport przedstawia kompleksową analizę gotowości polskich organizacji do wdrażania sztucznej inteligencji (AI) zgodnie z RODO i AI Act, bazując na badaniu ilościowym (492 organizacje) oraz jakościowym (wywiady z organizacjami parasolowymi sektora prywatnego). Dominującą grupę stanowią podmioty sektora publicznego, zwłaszcza jednostki samorządowe, edukacyjne i kulturalne, natomiast sektor prywatny reprezentowany jest w mniejszym zakresie. Zaledwie 17% badanych wykorzystuje AI na co dzień, a główne obszary zastosowań obejmują automatyzację procesów administracyjnych, analitykę danych oraz obsługę klienta przez chatboty. Kluczowe wyzwania to brak odpowiednich danych, wsparcia regulatorów i jednostek nadrzędnych, złożoność przepisów, a także bariery organizacyjne i etyczne. Organizacje mają ograniczone zasoby i kompetencje, szczególnie w zakresie techniczno-prawnym, co komplikuje ocenę ryzyka i zgodność z regulacjami. Badani podkreślają potrzebę praktycznych, jasnych wytycznych oraz materiałów edukacyjnych w przystępnej formie, z dużym naciskiem na szkolenia i współpracę branżową. Rola Prezesa UODO jest postrzegana jako kluczowa w dostarczaniu wsparcia, standardów i interpretacji regulacyjnych. Raport rekomenduje m.in. stworzenie kompleksowego pakietu wsparcia „AI Compliance Starter”, rozwój programów edukacyjnych, tworzenie wzorcowych analiz ryzyka, a także prowadzenie lokalnych kampanii informacyjnych. Wskazuje również na potrzebę aktywnej współpracy z organizacjami parasolowymi, wykorzystanie sieci praktyków oraz systematyczne budowanie świadomości i zaufania w całym kraju.

icon

Wnioski

icon

Wnioski

1. Pomimo rosnącego zainteresowania i wdrażania rozwiązań sztucznej inteligencji w polskich organizacjach, istnieje znaczna rozbieżność w poziomie dojrzałości technologicznej i kompetencyjnej, szczególnie widoczna między dużymi przedsiębiorstwami a mniejszymi podmiotami oraz między sektorem publicznym a prywatnym.

2. Wiedza i świadomość związków pomiędzy wykorzystaniem AI a przetwarzaniem danych osobowych pozostaje na niskim poziomie w wielu organizacjach, co stwarza ryzyko niezgodności z obowiązującymi regulacjami, zwłaszcza RODO. Znaczna część podmiotów nie jest w stanie jednoznacznie ocenić, czy procesy AI wiążą się z danymi osobowymi.

3. Kluczową barierą dla odpowiedzialnego wdrażania AI jest brak lokalnych ekspertów oraz wewnętrznych struktur governance odpowiedzialnych za zarządzanie AI i ochronę danych, co powoduje silną zależność od zewnętrznych źródeł wiedzy, w tym regulatora, przy ograniczonej zdolności do samodzielnej interpretacji regulacji.

4. Organizacje wyraźnie oczekują praktycznego wsparcia regulacyjnego i edukacyjnego, preferując narzędzia operacyjne takie jak wzorcowe analizy ryzyka, DPIA, checklisty i repozytoria dobrych praktyk, a także szkolenia dostosowane do poziomu i specyfiki różnych grup zawodowych oraz sektorów.

5. Wysoka gotowość do współpracy z Prezesem UODO przejawia się przede wszystkim w biernym uczestnictwie w szkoleniach, warsztatach i konsultacjach, jednak potencjał aktywnej i branżowo zorientowanej kooperacji istnieje przede wszystkim w organizacjach parasolowych z lokalnym zapleczem, co wskazuje na potrzebę wsparcia regionalnego i branżowego w propagowaniu wiedzy i standardów.

6. Konieczne jest prowadzenie szeroko zakrojonych, zarówno scentralizowanych, jak i lokalnych kampanii informacyjno-edukacyjnych, które zwiększą świadomość i zaufanie w zakresie bezpiecznego i zgodnego z prawem zastosowania AI, szczególnie w mniejszych i mniej cyfrowo zaawansowanych organizacjach oraz w regionalnych ośrodkach.

icon

Główne rekomendacje

icon

Główne rekomendacje

1. Należy stworzyć kompleksowy pakiet „AI Compliance Starter”, dedykowany dla wszystkich sektorów, który będzie zawierał modelowe polityki i procedury, wzorcowe oceny jakości danych, analizy ryzyka oraz DPIA dostosowane do różnych kategorii systemów AI, a także praktyczne checklisty i narzędzia wspierające administratorów danych oraz podmioty przetwarzające.

2. Wdrożenie programu edukacyjnego opartego na specjalistycznych kompetencjach techniczno-prawnych, obejmującego zarówno podstawy funkcjonowania AI, jak i szczegółowe aspekty zgodności z RODO, metody analizy ryzyka, wyjaśnialności modeli oraz relacji pomiędzy RODO a nowymi regulacjami, z rozróżnieniem na poziom strategiczny dla kadry zarządzającej oraz operacyjny dla specjalistów IT, prawników i analityków.

3. Opracowanie i udostępnienie wzorcowych analiz ryzyka i DPIA dla najczęściej spotykanych scenariuszy wykorzystania sztucznej inteligencji, takich jak chatboty, modele scoringowe, analityka predykcyjna czy narzędzia generatywne, aby zapewnić praktyczne wsparcie w ocenie zgodności i bezpieczeństwa systemów AI.

4. Stworzenie przystępnej „mapy decyzyjnej”, która ułatwi rozpoznanie momentu, w którym działalność związana z AI wiąże się z przetwarzaniem danych osobowych, poprzez jasne typologie danych, przykłady zastosowań oraz logiczne ścieżki decyzyjne, co zwiększy świadomość organizacji i pomoże unikać nieświadomych naruszeń regulacji.

5. Utworzenie repozytorium zagrożeń, przypadków użycia oraz dobrych praktyk, gromadzącego katalog zagrożeń technicznych, prawnych i organizacyjnych, scenariusze wdrożeniowe oraz materiały edukacyjne, co pozwoli na wymianę wiedzy i ułatwi implementację efektywnych i zgodnych z prawem rozwiązań AI w różnych sektorach.

6. Mobilizacja i wsparcie sieci praktyków AI przy Prezesie UODO, wykorzystującej gotowość organizacji do współpracy poprzez organizację warsztatów, wymianę doświadczeń i praktyk oraz konsultacje, co umożliwi bieżące aktualizowanie wytycznych, ich lokalną dystrybucję oraz budowanie zaufania i kompetencji wśród mniejszych i mniej doświadczonych podmiotów.

Skopiowano!