Wdrażanie sztucznej inteligencji w miastach Unii Metropolii Polskich
Autor: Unia Metropolii Polskich
Data publikacji: 05/03/2025
Tematyka: Administracja publiczna | Cyfryzacja | Gospodarka i rynek pracy | Infrastruktura | Polityka | Polityka społeczna | Prawo | Samorząd terytorialny
Link źródłowy: kliknij tutaj
Informacja prasowa: kliknij tutaj
Skopiuj link do raportuStreszczenie
Streszczenie
Raport omawia kluczowe aspekty wykorzystania sztucznej inteligencji (AI) w zarządzaniu miastami, podkreślając korzyści oraz wyzwania związane z jej wdrożeniem. Zawiera przegląd różnych modeli AI, w tym uczenia nadzorowanego, nienadzorowanego oraz głębokich sieci neuronowych, a także modeli generatywnej sztucznej inteligencji (Gen AI) i ich zastosowań w analizie danych miejskich. Wskazuje na znaczenie oceny dojrzałości organizacji w kontekście implementacji AI, co pozwala na stopniowe zwiększanie kompetencji oraz infrastruktury.
Dokument zwraca uwagę na ryzyka związane z autonomicznymi decyzjami podejmowanymi przez AI, co może prowadzić do braku kontroli nad procesem decyzyjnym. Podkreśla również znaczenie elastyczności modeli AI, które muszą dostosowywać się do zmieniających się warunków. Wskazano na różne podejścia do zakupu i implementacji modeli AI, w tym licencjonowane rozwiązania komercyjne oraz modele open source.
W kontekście polityki AI, dokument rekomenduje wprowadzenie określonych elementów do strategii zarządzania, aby zminimalizować ryzyka i maksymalizować korzyści płynące z zastosowania technologii AI w miastach. Wskazówki te mają na celu wspieranie efektywnego i odpowiedzialnego wdrażania rozwiązań AI w administracji publicznej.
Wnioski
Wnioski
1. Wdrożenie systemów sztucznej inteligencji (AI) w sektorze publicznym wymaga przeprowadzenia szczegółowej oceny skutków dla praw podstawowych, co jest kluczowe dla zapewnienia zgodności z regulacjami prawnymi oraz ochrony danych osobowych. Taka ocena powinna obejmować analizę procesu wykorzystania AI, grup osób, które mogą być dotknięte jego działaniem, oraz identyfikację potencjalnych ryzyk.
2. Organizacje powinny dążyć do zwiększenia dojrzałości w zakresie stosowania mechanizmów AI poprzez systematyczne rozwijanie kompetencji, infrastruktury oraz procesów zarządzania. Przejrzysty proces oceny dojrzałości pozwoli na skuteczniejsze wdrażanie strategii AI oraz minimalizację związanych z tym ryzyk.
3. Wykorzystanie systemów AI wysokiego ryzyka wiąże się z dodatkowymi obowiązkami, które muszą być spełnione przez podmioty publiczne i prywatne. Należy do nich m.in. zapewnienie zgodności z regulacjami dotyczącymi ochrony danych osobowych oraz transparentności działań, co jest niezbędne dla utrzymania zaufania społecznego.
4. Pracownicy korzystający z AI powinni być odpowiednio przeszkoleni i wyposażeni w jasne wytyczne dotyczące korzystania z tych technologii. Brak takich zasad może prowadzić do nieodpowiedniego użycia AI, co z kolei może skutkować naruszeniami prywatności oraz podejmowaniem błędnych decyzji.
5. Systemy AI powinny być projektowane z myślą o wspieraniu decyzji ludzkich, a nie ich zastępowaniu. Kluczowe jest, aby AI pełniło rolę narzędzia wspomagającego, które dostarcza analizy i rekomendacje, ale ostateczne decyzje powinny być podejmowane przez ludzi, co zapewnia większą odpowiedzialność i kontrolę nad procesami decyzyjnymi.
6. W kontekście rozwoju AI, istotne jest monitorowanie i ocena efektywności wdrożonych rozwiązań. Regularne pomiary realizacji wartości oraz analiza wyników działań AI pozwolą na bieżąco dostosowywać strategie i podejścia, co przyczyni się do optymalizacji procesów oraz lepszego wykorzystania technologii w sektorze publicznym.
Główne rekomendacje
Główne rekomendacje
1. Wprowadzenie strategii zarządzania sztuczną inteligencją w organizacji, która określi cele, obszary zastosowania oraz zasady korzystania z technologii AI. Strategia powinna uwzględniać zarówno aspekty techniczne, jak i etyczne, aby zapewnić zgodność z regulacjami prawnymi oraz ochronę danych osobowych.
2. Przeprowadzenie szkoleń dla pracowników dotyczących bezpiecznego korzystania z systemów AI, ze szczególnym uwzględnieniem ryzyk związanych z przetwarzaniem danych wrażliwych. Szkolenia powinny obejmować zasady ochrony prywatności oraz procedury postępowania w przypadku wykrycia naruszeń.
3. Wdrożenie mechanizmów monitorowania i oceny skutków stosowania systemów AI, które pozwolą na bieżąco analizować ich wpływ na procesy decyzyjne oraz identyfikować potencjalne zagrożenia. Regularne audyty powinny być przeprowadzane w celu zapewnienia zgodności z obowiązującymi regulacjami oraz standardami etycznymi.
4. Opracowanie procedur oceny ryzyka przed wdrożeniem systemów AI wysokiego ryzyka, które będą obejmować analizę potencjalnych skutków dla praw podstawowych oraz identyfikację grup osób, na które system może mieć wpływ. Wymagana jest także ocena częstotliwości i sposobu użytkowania systemu.
5. Zapewnienie odpowiedniej infrastruktury technologicznej oraz zasobów ludzkich, które umożliwią efektywne wdrażanie i zarządzanie rozwiązaniami AI. Organizacje powinny inwestować w rozwój kompetencji pracowników oraz w technologie wspierające integrację systemów AI z istniejącymi procesami.
6. Ustanowienie jasnych wytycznych dotyczących korzystania z otwartych modeli AI, aby zminimalizować ryzyko naruszenia prywatności i wycieku danych. Pracownicy powinni być zobowiązani do przestrzegania zasad dotyczących przetwarzania danych wrażliwych oraz do korzystania z modeli AI w sposób zgodny z polityką organizacji.