Sztuczna inteligencja a ESG. Wyzwania przyszłości
Autor: Polskie Stowarzyszenie ESG
Data publikacji: 01/2024
Tematyka: Cyfryzacja
Informacja prasowa: kliknij tutaj
Skopiuj link do raportuStreszczenie
Streszczenie
Raport „Sztuczna inteligencja a ESG. Wyzwania przyszłości” analizuje potencjał oraz ryzyka związane z wykorzystaniem sztucznej inteligencji w kontekście zarządzania aspektami środowiskowymi, społecznymi i ładem korporacyjnym (ESG). Podkreśla korzyści z automatyzacji procesów, poprawy efektywności i precyzji w raportowaniu oraz monitoringu danych ESG. Zwraca uwagę na potrzebę identyfikacji i zarządzania ryzykami prawnymi, etycznymi i operacyjnymi związanymi z AI.
Raport omawia aktualny stan regulacji unijnych, zwłaszcza nadchodzącego rozporządzenia AI Act, które ma na celu wprowadzenie rygorystycznych wymogów dotyczących przejrzystości, bezpieczeństwa i klasyfikacji ryzyka systemów AI. Wskazuje również potrzebę adaptacji organizacji do nowych wymagań prawnych oraz zapewnienia właściwej kontroli i audytu rozwiązań AI.
Dokument podkreśla konieczność kompleksowych umów z dostawcami technologii oraz rozwijania kompetencji wewnętrznych w celu maksymalizacji korzyści przy minimalizacji zagrożeń wdrożeń AI. Przykłady praktyczne prezentują zastosowanie AI w kontroli jakości produkcji prefabrykatów i wykrywaniu anomalii w danych.
Wnioski
Wnioski
1. Wdrożenie AI w obszarze ESG niesie istotne szanse na usprawnienie procesów raportowania i kontroli, lecz wymaga zintegrowanego podejścia do zarządzania ryzykiem.
2. Regulacje, takie jak AI Act, będą kształtować zasady wykorzystania AI, nakładając obowiązki dotyczące transparentności i klasyfikacji ryzyka, co wymaga od firm dostosowania systemów i procedur.
3. Automatyzacja analiz wizyjnych i monitoringu produkcji może zwiększyć jakość oraz bezpieczeństwo operacji, redukując jednocześnie zużycie zasobów.
4. Kluczowe jest zdefiniowanie i weryfikacja umów z dostawcami technologii AI, szczególnie w kontekście ochrony danych, własności intelektualnej oraz ciągłości biznesowej.
Główne rekomendacje
Główne rekomendacje
1. Przeprowadzać dokładną identyfikację i ocenę rozwiązań AI wykorzystywanych w organizacji oraz przypisywać im poziomy ryzyka w celu strategii zarządzania.
2. Wprowadzać systematyczny monitoring legislacyjny i elastycznie adaptować systemy AI do nowych wymogów prawnych, w tym nadchodzących przepisów UE.
3. Zabezpieczać w umowach z dostawcami AI klauzule dotyczące odpowiedzialności, własności intelektualnej, bezpieczeństwa danych oraz ciągłości działania.
4. Wdrażać systemy automatycznej analizy i kontroli jakości produkcji, wykorzystujące AI w celu zwiększenia efektywności oraz ograniczenia zużycia surowców i energii.