Ameryka Północna inwestuje w sztuczną inteligencję ponad 15 mld euro rocznie. Azja – ok. 10 mld euro. Europa zaś od 2,5 do 3 mld euro rocznie. Dodatkowo dysproporcja ta na przestrzeni ostatnich lat zaczęła się powiększać. Jednym z powodów jest brak ogólnounijnych regulacji dotyczących sztucznej inteligencji. Od lat bowiem eurodecydenci o nich mówią, lecz do niedawna bez efektu.
"Do niedawna", gdyż 21 kwietnia 2021 r. Komisja Europejska opublikowała propozycję sposobu ustanowienia wspólnych ram unijnych. Zgodzić się na nie muszą państwa członkowskie oraz Parlament Europejski.
W największym skrócie, Komisja Europejska chce, by rozwiązania z zakresu sztucznej inteligencji podlegały ocenie ryzyka. I w zależności od tejże oceny wykorzystujący dane oprogramowanie podmiot będzie musiał spełnić określone wymogi. Czym rozwiązanie bardziej ryzykowne dla człowieka - tym te wymogi będą większe.
Najdalej idącą kategorią będą rozwiązania niedopuszczalne. Do nich Komisja Europejska chce zaliczyć wszystko to, co jest sprzeczne z wartościami UE i narusza prawa podstawowe.
Przykładowo więc zakazana ma być prowadzona przez niektóre rządy ocena punktowa obywateli, wykorzystywanie słabości u dzieci, stosowanie technik podprogowych i – z zastrzeżeniem wąsko określonych wyjątków – systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym funkcjonujących w przestrzeni publicznej i wykorzystywanych do celów egzekwowania prawa.
Jako rozwiązania wysokiego ryzyka, czyli dopuszczalne, ale podlegające wnikliwej kontroli, wskazane mają być m.in. algorytmy służące ocenie zdolności kredytowej, wykorzystywane przy rekrutacji do pracy lub szkoły, stosowane w wymiarze sprawiedliwości oraz wykorzystywane w pojazdach autonomicznych.
Ograniczone ryzyko przypisane będzie w szczególności oprogramowaniu, które mogłoby wprowadzić człowieka w błąd - np. chatbotom, które często dziś udają ludzi. Komisja Europejska chce, żeby w takich sytuacjach zawsze człowiek otrzymywał informację, że prowadzi rozmowę z maszyną, a nie inną osobą.
I wreszcie ostatnia kategoria to rozwiązania o minimalnym ryzyku - czyli wszystkie te, które nie zostaną zakwalifikowane do bardziej restrykcyjnych kategorii.
"Chociaż większość systemów sztucznej inteligencji stwarza niskie ryzyko lub nie stwarza go w ogóle, to niektóre systemy AI powodują zagrożenia, którym należy przeciwdziałać, aby uniknąć niepożądanych skutków. Na przykład nieprzejrzystość wielu algorytmów może prowadzić do niepewności i utrudniać skuteczne egzekwowanie obowiązujących przepisów dotyczących bezpieczeństwa i praw podstawowych" - podsumowała założenie, które legło u podstaw stworzonych ram prawnych, Komisja Europejska.
Ograniczenie rozwoju
Szkopuł w tym, że zdaniem ekspertów unijna propozycja jest wadliwa na wielu płaszczyznach. W efekcie przeciętnemu obywatelowi nie stanie się od niej lepiej, a jedynie nałożone zostaną więzy na przedsiębiorców wykorzystujących sztuczną inteligencję na co dzień.
- Kluczowe jest osiągnięcie takiego kształtu regulacji, który nie zablokuje rozwoju sztucznej inteligencji, bo postrzegam ją bardziej jako szansę niż zagrożenie dla UE. Przecież decyzje podejmowane przez człowieka nie są „automatycznie” lepsze, niż decyzje sztucznej inteligencji - zwraca uwagę dr Michał Mostowik, adwokat i starszy prawnik w kancelarii DLK Legal.
I zauważa, że często zwracamy uwagę na to, co w przypadku sztucznej inteligencji zadziała wadliwie, a zapominamy o tym, co pozwala nam się rozwijać. Przykładowo duży rozgłos zyskała wpadka chatbota Microsoftu, który - ucząc się z danych z Twittera - wygłaszał rasistowskie poglądy.
Jednocześnie znacznie mniej osób słyszało o sukcesie amerykańskiej firmy Zest, której system scoringu kredytowego ogranicza uprzedzenia rasowe podczas wnioskowania o pożyczkę, bez istotnej zmiany efektywności systemu dla kredytodawców.
- Komisja prezentuje zaś rozwiązanie jako realizację podejścia opartego na ryzyku, ale projekt pozostawia w tym zakresie sporo do życzenia. Proponowane przepisy wprowadzają nadmierny formalizm i restrykcyjną regulację procesów oraz dokumentacji. Część z tych formalności to cofnięcie się o 20-30 lat - twierdzi dr Mostowik.
Dyskusyjny jest też zaproponowany system kar. W przypadku najpoważniejszych naruszeń – zastosowania sztucznej inteligencji do zakazanych celów lub naruszania zasad w zakresie wykorzystywania systemów wysokiego ryzyka - sankcje mają wynosić do 30 mln euro lub 6 proc. rocznego obrotu przedsiębiorstwa. W przypadku naruszeń lżejszych do - bagatela - 20 mln euro lub 4 proc. rocznego obrotu.
- Zawsze podkreślam, że zbyt wysokie wymagania regulacyjne i straszenie karami zwykle odnosi efekt odwrotny do zamierzonego. W tym przypadku może okazać się, że twórcy innowacji z USA czy rynków azjatyckich będą niechętnie oferować swoje usługi mieszkańcom UE, co samo w sobie będzie stanowić dyskryminację i ograniczać innowacyjność w UE - przypuszcza Michał Mostowik.
Iluzja ochrony
Wiele zastrzeżeń do propozycji Komisji Europejskiej ma także Fundacja Panoptykon. Zwraca ona uwagę, że lista systemów stwarzających wysokie ryzyko ma być zamknięta. Komisja przyznała sobie co prawda prawo do aktualizowania listy systemów wysokiego ryzyka z pomięciem skomplikowanej unijnej procedury legislacyjnej, ale Panoptykon obawia się, że ten mechanizm będzie nieskuteczny.
"Po pierwsze, może być długotrwały i zależny od woli politycznej. Po drugie, bardzo możliwe, że niektóre systemy wykorzystujące sztuczną inteligencję byłyby wciągane na listę wysokiego ryzyka już po tym, jak wyrządzą konkretne szkody, a więc zamiast zapobiegać negatywnym skutkom sztucznej inteligencji dzięki ocenie wpływu na człowieka przed wdrożeniem systemu, będzie można tylko naprawiać poczynione przez nie szkody" - zauważają ekspertki fundacji.
Ich zdaniem kłopotem będzie także zbyt wąsko określony zakaz stosowania najbardziej ryzykownych rozwiązań. Jak bowiem zauważa Panoptykon, teoretycznie na liście zakazanych systemów znalazły się takie, które mają na celu tworzenie scoringu społecznego (podobnego do tego funkcjonującego w Chinach), umożliwiają policji i służbom biometryczną masową inwigilację w czasie rzeczywistym, żerują na słabościach związanych z wiekiem lub niepełnosprawnościami lub stosują podprogowe metody do wpływania na ludzi w sytuacji, gdy może to powodować fizyczną lub psychiczną szkodę.
Tyle że zakaz ten w praktyce może być fikcyjny. Powód? Dla biometrycznej identyfikacji przez służby przewidziano daleko idące wyjątki, które umożliwiają stworzenie całej infrastruktury biometrycznej inwigilacji uruchamianej za zgodą sądu. Zakazem - w świetle propozycji Komisji Europejskiej - nie jest też objęte rozpoznawanie twarzy czy inne metody biometrycznej identyfikacji nie w czasie rzeczywistym, a na późniejszym etapie (np. w drodze analizy wcześniej zarejestrowanych nagrań czy zdjęć).
"Dodatkowo, takie systemy byłyby zakazane tylko wtedy, gdy mogą spowodować fizyczną lub psychiczną szkodę. Ale jak tę potencjalną szkodliwość wykazać w sytuacji, gdy ciężar dowodu spoczywa na osobach poddanych działaniu systemu wykorzystującego sztuczną inteligencję, a jednocześnie ocenę ryzyka, z której można by wyczytać to zagrożenie, przeprowadzają sami twórcy systemów, bez obowiązku jej publikacji?" - zastanawia się Panoptykon.
Problemy wreszcie mogą się pojawić także wtedy, gdy człowiek naprawdę zostanie poszkodowany przez algorytm. Fundacja Panoptykon zauważa, że w przygotowanym rozwiązaniu nie określono żadnej ścieżki prawnej dla poszkodowanych. A nawet gdy taka zostanie dodana, to - jak spostrzega Michał Mostowik - prawo do złożenia skargi będzie skuteczne o tyle, o ile krajowe organy nadzorcze dostaną odpowiedni budżet i zasoby, aby takie skargi terminowo rozpatrywać.
Dobitnie widać to na przykładzie ochrony danych osobowych i RODO, gdzie krajowe organy chroniące obywateli są niewydolne, zasypywane tysiącami skarg, przez co w praktyce dochodzi do fikcji nadzoru.