Jak polskie organizacje wdrażają sztuczną inteligencję?
Dane z raportu pokazują silną polaryzację rynku. Choć 17% organizacji deklaruje, że korzysta z AI w codziennej działalności, to aż 43% podmiotów wciąż nie dotknęło tej technologii. W MATERIALITY postrzegamy to jako ogromne pole do popisu dla cyfrowego zrównoważonego rozwoju. Obszar bezpieczeństwa cyfrowego i ochrony danych osobowych jest przedmiotem analiz oraz ujawnień w raportach zrównoważonego rozwoju.
W Raporcie czytamy, że AI najczęściej wykorzystywane jest w automatyzacji administracji (41,2%) oraz analityce danych (31%). To pozytywny trend, bo technologia AI, odpowiednio wdrożona, pozwala oszczędzać zasoby i optymalizować procesy. Jednak prawdziwym wyzwaniem nie jest sama technologia, lecz świadomość ryzyk, jakie ze sobą niesie.
Luka świadomości w ochronie danych – największe ryzyko ESG
Najbardziej niepokojącym wnioskiem z raportu jest systemowa „luka świadomości”. Aż 58,5% badanych organizacji uważa, że wykorzystywanie sztucznej inteligencji nie wiąże się z przetwarzaniem danych osobowych lub nie potrafi tego ocenić.
Z perspektywy ESG, dane osobowe to kapitał społeczny powierzony nam przez interesariuszy, klientów i użytkowników końcowych. Ignorowanie związku między algorytmami a prywatnością uderza bezpośrednio w filar ładu zarządczego. Odpowiedzialne zarządzanie danymi to nie tylko kwestia unikania kar, ale przede wszystkim budowania zaufania, które jest najcenniejszą walutą w nowoczesnym biznesie.
Bariery we wdrażaniu AI: od regulacji po etykę
Co powstrzymuje nas przed pełnym wykorzystaniem potencjału AI? Raport UODO wskazuje na bariery organizacyjne i regulacyjne, które dominują nad problemami technicznymi. Na szczycie listy znajdziemy brak odpowiednich danych do trenowania modeli oraz skomplikowane regulacje (AI Act i RODO).
Wiele organizacji czuje się pozostawionych samym sobie. 95,9% respondentów ocenia się jako nieprzygotowane lub niepewne w zakresie stosowania przepisów. To sygnał dla specjalistów ds. zrównoważonego rozwoju: naszą rolą jest tłumaczenie tych skomplikowanych zależności na język korzyści i standardów etycznych. Cyfrowy zrównoważony rozwój to wymóg, który nakłada na nas obowiązek stworzenia jasnych ram operacyjnych, zanim algorytmy przejmą stery w kluczowych procesach.
AI Compliance Starter – droga do odpowiedzialnego Governance
Odpowiedzią na zdiagnozowane braki jest rekomendowany przez UODO pakiet „AI Compliance Starter”. To zestaw narzędzi – od wzorcowych analiz ryzyka (DPIA) po checklisty dla administratorów – który ma ułatwić organizacjom bezpieczne wejście w świat AI. W MATERIALITY wspieramy takie inicjatywy, ponieważ wierzymy w transparentność.
Stworzenie repozytorium dobrych praktyk i map decyzyjnych to nic innego jak wprowadzanie zasad gospodarki obiegu zamkniętego do zarządzania wiedzą. Informacja musi krążyć w sposób bezpieczny, przejrzysty i użyteczny. Dopiero gdy nasza „instalacja elektryczna” (czyli ład korporacyjny i ochrona danych) będzie sprawna, będziemy mogli w pełni cieszyć się nowoczesnym wyposażeniem w postaci sztucznej inteligencji.
Podsumowanie: przyszłość AI w strategiach ESG
Raport UODO ze stycznia 2026 roku to dla nas ważny punkt odniesienia. Pokazuje on, że droga do odpowiedzialnej sztucznej inteligencji w Polsce jest jeszcze długa, ale kierunek został wyznaczony. W MATERIALITY będziemy aktywnie wspierać budowanie tej świadomości. Pamiętajmy: technologia jest tylko narzędziem. Wykorzystajmy je mądrze.



