Wpływ regulacji unijnych na AI
Intensywny rozwój nowych technologii, w tym między innymi szeroko rozumianej sztucznej inteligencji, przyniosło społeczeństwom wiele nowych udogodnień. Niestety, jak to w życiu bywa, jest też druga strona tej monety. AI to doskonałe narzędzie do szerzenia dezinformacji i fake newsów. W ostatnich miesiącach byliśmy świadkami działań Unii Europejskiej w zakresie regulacji sztucznej inteligencji – nie tylko w celu ochrony przed zagrożeniami, ale także lepszym wykorzystywaniem zalet tej technologii.
misu - stock.adobe.com
Unia Europejska zajmuje się tym od dawna
Starania Unii Europejskiej, o większą kontrolą nad sztuczną inteligencją zaczęły się już w 2018 r. Powołano wtedy grupę ekspertów ds. AI. Następne kilkanaście miesięcy biegły pod znakiem wydawania kolejnych planów, strategii, powoływania grup eksperckich. Po pewnym czasie zaczęto posługiwać się nawet określeniem strategii transformacji cyfrowej. Transformacja cyfrowa stała się jednym z fundamentalnych kierunków działalności UE i legislacji Parlamentu Europejskiego.
Jak transformację cyfrową zdefiniowały organy unijne? Jak czytamy na stronie Parlamentu Europejskiego, transformacja cyfrowa to „integracja technologii cyfrowych w działalności firm i organizacji publicznych oraz wpływ technologii na społeczeństwo.” Z kolei technologie cyfrowe to m.in. platformy cyfrowe, blockchainy, które wpływają swoim działaniem na usprawnienie różnych dziedzin gospodarki – transport, służbę zdrowia, sektor rolny etc.
Dążeniem UE jest to, by te technologie pomogły usprawnić proces produkcji i zmniejszyć jej emisyjność, polepszyć jakość świadczonych usług. W 2021 po raz pierwszy Komisja Europejska wyszła z propozycją prawnego uregulowania działalności AI. Organ zauważył potrzebę regulacji AI, która oprócz wielu zalet, niesie ze sobą zagrożenia. Organ w swoim wniosku zaproponował zdefiniowanie ryzyka AI według 4 poziomów: niedopuszczalne, wysokie, ograniczone i minimalne.
Przyjęto AI Act. Przełom ws. sztucznej inteligencji
13 marca 2024 roku Parlament Europejski przyjął Rozporządzenie dotyczące sztucznej inteligencji, nazywane również AI Act. Jest to kluczowy akt mający na celu uregulowanie zasad stosowania technologii opartych na sztucznej inteligencji. Jest to pierwszy w skali światowej, kompleksowy system regulacji dotyczących AI. Ma zapewnić ochronę praw podstawowych, demokracji, praworządności oraz środowiska przed systemami AI wysokiego ryzyka. W nowym rozporządzeniu zdecydowano się zawrzeć wyżej wspomniane poziomy ryzyka, proponowane w 2021 r. przez Komisję Europejską.
Akt prawny skierowany jest przede wszystkim do organizacji, któe tworzą lub wykorzystują w swojej pracy systemy sztucznej inteligencji. Oprócz tego, nowe rozporządzenie ma na celu zniesienie obciążeń finansowych i administracyjnych dla sektora MŚP.
Poziomy ryzyka, czyli rewolucja w AI
Co kryje się za enigmatycznie brzmiącymi nazwami poziomów ryzyka?
Najwyżej we wspomnianej hierarchii znajduje się niedopuszczalne ryzyko. Definiowane są jako stanowiące zagrożenie dla ludzi. W rozporządzeniu, do zdefiniowania tego poziomu, wymieniono takie m.in. systemy jak scoring obywateli (klasyfikacja ludzi np. na podstawie ich zachowań), identyfikacja biometryczna, manipulacja ludźmi i grupami szczególnie podatnymi na manipulację, jak na przykład dzieci. System AI, który zostanie sklasyfikowany w tej grupie ryzyka, zostanie zakazany. Za wyjątek mają stanowić te systemy, które mogą być wykorzystywane do zwalczania przestępczości, jak np. identyfikacja biometryczna.
Następną grupą są systemy AI wysokiego ryzyka, dla których w szczególności zostało uchwalone AI Act. Ustawodawca definiuje je jako mające negatywny wpływ na bezpieczeństwo lub prawa podstawowe. Wymienia tu systemy używane np. w infrastrukturze krytycznej, celach rekrutacyjnych (oprogramowanie do archiwizacji i sortowania nadesłanych CV), zarządzanie migracją i kwestiami azylowymi (zautomatyzowane rozpatrywanie wniosków wizowych), zarządzanie wymiarem sprawiedliwości i interpretacja prawa (np. elektroniczny dostęp do orzeczeń sądowych). Systemy wysokiego ryzyka będą podlegać szerokim restrykcjom przed wprowadzeniem na rynek i mają być monitorowane przez cały cykl ich życia.
Do ograniczonego ryzyka natomiast ustawodawca zalicza ryzyko związane z przejrzystością systemu i jego stosowania. Rozporządzenie nakłada obowiązek oznaczenia treści generatywnych (czyli tworząc nową treść jak np. chatGPT, programy tworzące wideo, muzykę) jako stworzonych przez system AI, szczególnie w sprawach uznawanych za leżące w interesie publicznym. Ma to na celu umożliwić rozpoznawanie tzw. deepfake. Model nie może także generować nielegalnych treści.
Minimalne ryzyko lub bez ryzyka to ta grupa systemów AI, którą najczęściej wykorzystują gry wideo lub filtry spamu. Stanowią obecnie większość systemów stosowanych na tereni Unii Europejskiej i nie nałożono na nich żadnych ograniczeń.
Nowe prawo – czy to ma sens?
Rozporządzenie jest próbą odpowiedzi UE na problemy istnienia informacji deepfake i problemów społeczeństwa z rozpoznawaniem fałszywych informacji. Internet, a przede wszystkim portale społecznościowe, są wg raportów jednym z najbardziej popularnych środków przekazu wśród Polaków. Według raportu Fundacji Digital Poland (dostępny do pobrania pod tym linkiem), około 40% Polaków spotkało się z informacją typu deepfake. Bardziej wprawieni użytkownicy internetu lub osoby po prostu krytyczne, nie będą miały problemu ze zweryfikowaniem prawdziwości nagrania wideo (choć nie zawsze). Unijny ustawodawca stara się również ograniczyć ewentualnie dążenia państw członkowskich do nieuzasadnionej, zbyt daleko idącej inwigilacji. Poruszył także palące obecnie problemy takie jak np. migracja, praworządność, inwigilacja i bezpieczeństwo, do których co raz chętniej administracje państwowe używają systemów sztucznej inteligencji.
Unia Europejska w lutym tego roku utworzyła Europejski Urząd ds. AI, który w ramach działania Komisji nadzoruje wdrażanie przepisów do prawnych systemów państw członkowskich. Dążeniem urzędu jest umocnienie pozycji UE jako lidera w zakresie etycznego i zrównoważonego rozwoju AI.
misu - stock.adobe.com