SI będzie bronić granic UE?
Nowe przepisy Unii Europejskiej o sztucznej inteligencji ułatwią jej wykorzystanie w procesie zarządzania ruchem granicznym i walki z nielegalną imigracją. Poza zakresem aktu o sztucznej inteligencji pozostaną systemy przeznaczone do celów wojskowych - mówi europoseł Kosma Złotowski (PiS), który był jednym polskim negocjatorem pierwszych unijnych regulacji dotyczących sztucznej inteligencji.
Jak podkreślił Złotowski, Parlament, Rada i Komisja osiągnęły porozumienie polityczne w sprawie rozporządzenia regulującego tworzenie, testowanie i wykorzystywanie systemów sztucznej inteligencji w Unii Europejskiej po bardzo długich, intensywnych i trudnych negocjacjach.
„Pomimo niezwykle silnej presji ze strony państw członkowskich, udało się obronić wiele postulatów Grupy Europejskich Konserwatystów i Reformatorów (EKR) w zakresie wsparcia dla innowacji, ułatwień dla MŚP, funkcjonowania piaskownic regulacyjnych, wyłączeń dla fazy badawczej czy zwiększonej ochrony praw obywateli w przypadku wykorzystywania sztucznej inteligencji przez organy publiczne. Jednocześnie uzgodniony tekst ułatwi skuteczne wykorzystanie tej technologii w procesie zarządzania ruchem granicznym i walki z nielegalną imigracją” - powiedział PAP.
„Poza zakresem aktu o sztucznej inteligencji pozostaną systemy przeznaczone do celów wojskowych lub realizowania zadań z obszaru bezpieczeństwa narodowego. W obecnej sytuacji był to jedyny kompromis, jaki można było osiągnąć” - dodał.
Akt o sztucznej inteligencji ma na celu zapewnienie ochrony praw podstawowych, demokracji, praworządności przed sztuczną inteligencją wysokiego ryzyka, przy jednoczesnym pobudzaniu innowacyjności i uczynieniu z Europy lidera w tej dziedzinie. W przepisach ustanawia się obowiązki dotyczące sztucznej inteligencji w oparciu o potencjalne ryzyko i poziom skutków.
CZYTAJ TEŻ:
Tusk premierem: Znamy skład rządu
Sejm. Nowy rząd z antysemickim skandalem w tle!
Prywatne armie: Ile zarabia „Wagnerowiec”?
Uznając potencjalne zagrożenie dla praw obywateli i demokracji, jakie stwarzają niektóre zastosowania sztucznej inteligencji, współprawodawcy uzgodnili zakazanie: systemów kategoryzacji biometrycznej wykorzystujących wrażliwe cechy (np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę); pobierania wizerunków twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych umożliwiających rozpoznawanie twarzy; rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych; systemów oceny społecznej opartej na zachowaniach społecznych lub cechach osobistych; systemów sztucznej inteligencji manipulujących ludzkimi zachowaniami w celu obejścia ich wolnej woli; wykorzystywania słabości ludzi (ze względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną).
Negocjatorzy zgodzili się na szereg zabezpieczeń i wąskich wyjątków dotyczących stosowania systemów identyfikacji biometrycznej (RBI) w przestrzeniach publicznie dostępnych do celów egzekwowania prawa, pod warunkiem uzyskania uprzedniego zezwolenia sądu i w przypadku ściśle określonych wykazów przestępstw. Byłoby to wykorzystywane wyłącznie w ukierunkowanych poszukiwaniach osoby skazanej lub podejrzanej o popełnienie poważnego przestępstwa.
W przypadku systemów sztucznej inteligencji sklasyfikowanych jako wysokiego ryzyka (ze względu na ich znaczną potencjalną szkodliwość dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności) uzgodniono jasne zobowiązania. Posłom do Parlamentu Europejskiego udało się włączyć między innymi obowiązkową ocenę wpływu na prawa podstawowe, mającą zastosowanie również do sektorów ubezpieczeń i bankowości.
Systemy sztucznej inteligencji wykorzystywane do wpływania na wynik wyborów i zachowania wyborców również zaliczane są do kategorii wysokiego ryzyka. Obywatele będą mieli prawo do składania skarg dotyczących systemów sztucznej inteligencji i otrzymywania wyjaśnień dotyczących decyzji opartych na systemach sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.
Negocjatorzy chcieli zapewnić przedsiębiorstwom, zwłaszcza MŚP, możliwość opracowywania rozwiązań AI bez nadmiernej presji ze strony gigantów branżowych kontrolujących łańcuch wartości. W tym celu umowa promuje tzw. piaskownice regulacyjne i testy w świecie rzeczywistym, ustanowione przez władze krajowe w celu opracowywania i szkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.
Nieprzestrzeganie przepisów może skutkować karami finansowymi w wysokości od 35 milionów euro lub 7 proc. globalnego obrotu do 7,5 miliona lub 1,5 proc. obrotu, w zależności od naruszenia i wielkości przedsiębiorstwa.
Uzgodniony tekst będzie teraz musiał zostać formalnie przyjęty zarówno przez Parlament, jak i Radę, aby stał się prawem UE. Komisje Parlamentu Europejskiego ds. Rynku Wewnętrznego i Wolności Obywatelskich będą głosować nad porozumieniem na nadchodzącym posiedzeniu.
Z Brukseli Łukasz Osiński
PAP/ as/