Opinie

Banki w roku 2019 przyśpieszyły wdrażanie AI (od ang. Artificial Intelligence – sztuczna inteligencja) / autor: Pixabay
Banki w roku 2019 przyśpieszyły wdrażanie AI (od ang. Artificial Intelligence – sztuczna inteligencja) / autor: Pixabay

TYLKO U NAS

Czy sztuczna inteligencja jest poczytalna?

Grzegorz Szulczewski

Grzegorz Szulczewski

pracownik naukowy Katedry Filozofii SGH, członek Zespołu Etyki Biznesu przy Towarzystwie Naukowym Prakseologii

  • Opublikowano: 23 lutego 2020, 18:54

  • Powiększ tekst

W jaki sposób banki mają być transparentne w kwestii wprowadzania AI przy zachowaniu tajemnicy bankowej i posiadanego know-how? - zastanawia się na łamach najnowszego wydania „Gazety Bankowej” prof. Grzegorz Szulczewski, etyk biznesu i finansów z SGH.

Czując na plecach oddech fintechów banki w roku 2019 przyśpieszyły wdrażanie AI (od ang. Artificial Intelligence – sztuczna inteligencja). Mamy zatem na początku roku imponujący dorobek w skali Unii Europejskiej. Standardem staje się w bankowości wykorzystanie wirtualnych asystentów, czyli chatbotów czy voicebotów, obsługa przez AI działań back office, działanie systemów analizy behawioralnej, korzystanie z procesów machine learning i rozwiązań typu RPA (Robotic Process Automation) czy też wykorzystanie AI w zarządzaniu procesami biznesowymi, a nawet obecnie dochodzi do robotyzacji automatycznego wyszukiwania procesów … do robotyzacji, nie mówiąc już o coraz szerszym wykorzystaniu, w tym wszystkim Big Data.

Banki w Polsce podlegają prawu unijnemu i dlatego warto zastanowić się od strony etycznej nad specyfiką europejskich regulacji w obszarze zastosowania AI. Trzeba przyznać, że grupy eksperckie powołane przez Komisje Europejską włożyły dużo wysiłku by nakreślić spójną z wartościami unijnymi strategię wdrożenia AI.

Na początek zastanawiano się, jak uczynić, by wykorzystanie AI było zgodne z unijnymi wartościami, czyli zapewniało poszanowanie godności osoby ludzkiej, nie ograniczało wolności, nie prowadziło do naruszania demokracji, jak i zachowywało równość. Co więcej, eksperci doszli do optymistycznego wniosku, że wprowadzenie takiego modelu działania AI wytworzy pewną wartość dodaną, czyli zapewni przewagę konkurencyjną Europy nad USA i Chinami w sektorze produktów wykorzystujących technologie AI.

Zachowanie wartości unijnych, jakie przyświecało ekspertom i Radzie UE w budowie strategii rozwoju, projektowania i wykorzystywania sztucznej inteligencji doprowadziło do wprowadzania obowiązującego na terytorium UE modelu Trustworthy AI (TAI), czyli godnej zaufania sztucznej inteligencji.

Choć wewnętrznym środowiskiem AI są mgławice liczb i algorytmy, to jednak skutki jej działań coraz bardziej określają nasze życie. Dlatego godna zaufania sztuczna inteligencja musi, jak czytamy w dokumentach unijnych, pozostawić przewodnią i nadzorczą rolę człowieka, nie naruszać prywatności i nie monopolizować zapewniając różnorodność, nikogo też nie dyskryminować, a przede wszystkim jej działania mają być przejrzyste. Eksperci dodają jeszcze, że jej decyzje powinny być sprawiedliwe a jej zastosowanie ma nie naruszać równowagi ekologicznej i co więcej, polepszać dobrostan społeczny. Wszystkie te postulaty są słuszne i uzasadnione zarówno prawem unijnym, jak i są zgodne z etyką, tylko wyglądają na razie, jak koncert życzeń. Wszystko bowiem wygląda na bardzo przemyślane, ale problemy w bankowości pojawiają się w szczegółach, ponieważ nie chodzi o inteligentny mikser czy lodówkę, a o funkcjonowanie banku.

Na pewno pozytywne jest, że wprowadzanie nowej technologii ma budzić zaufanie, a więc to, czym banki w najwyższej mierze są zainteresowane. Ale rodzą się pytania, a mianowicie, w jaki sposób banki mają być transparentne w kwestii wprowadzania AI przy zachowaniu tajemnicy bankowej i posiadanego know-how? Co mogą zatem ujawnić pracownikom i klientom i czy to wystarczy by zapewnić przejrzystość?

Problemem staje się wyrażona urzędniczym językiem „przewodnia i nadzorcza rola człowieka”. Można bowiem zadać więc drugie pytanie, czy ktoś oprócz programistów i informatyków, będzie w stanie w pełni zrozumieć mechanizmy działania i wybory AI? Jedyną nadzieję w tym przypadku budzą próby „zmuszenia” AI, aby tłumaczyła swoje wybory w naszym języku.

Problemy te w etyce określone są terminem wykorzystywanym również w psychologii, a nawet psychiatrii, a mianowicie poczytalności. „Samo słowo nasuwa myśl o rozrachunku, który pozwala odpowiadać podmiotowi za swoje czyny do tego stopnia, że zalicza je on na własny poczet. To zdolność ponoszenia konsekwencji za swoje czyny, zwłaszcza te, które według nas oznaczają wykroczenie, a których ofiarą staje się drugi człowiek”. Tyle mówią etycy. Dla nich poczytalność AI stanowi poważny problem przypisania odpowiedzialności, tak jak, dla informatyków problemem jest wprowadzenie nietechnicznych zasad etycznych do programów AI.

Dlatego eksperci z UE proponują by stworzyć piaskownice (sandboxy), czyli sprawdzać, jak działa AI w izolacji. Zdając sobie sprawę z trudności w prowadzeniu Trustworthy AI (TAI), czyli godnej zaufania sztucznej inteligencji pracują też nad stworzeniem testu, tak zwanego pilota sprawdzającego, na ile próby zastosowania AI, również w sferze bankowości, są zgodne unijnymi wartościami.

Wiemy już, zatem, co oprócz ewentualnych zawirowań na rynkach finansowych może spędzić sens z oczu zarządom banków w 2020 roku.

Prof. Grzegorz Szulczewski

Więcej informacji i komentarzy o światowej i polskiej gospodarce i sektorze finansowym znajdziesz w bieżącym wydaniu „Gazety Bankowej” - do kupienia w kioskach i salonach prasowych

„Gazeta Bankowa” dostępna jest także jako e-wydanie, także na iOS i Android – szczegóły na http://www.gb.pl/e-wydanie-gb.html

Powiązane tematy

Zapraszamy do komentowania artykułów w mediach społecznościowych