NASK podejmuje próbę usystematyzowania debaty o sztucznej inteligencji. „Algorytmy SI muszą być transparentne”
Sztuczna inteligencja, to temat który w ostatnich miesiącach i tygodniach nie schodzi z czołówek największych tytułów na świecie. Rozwój procesów tzw. generatywnej SI sprawił, że dziś o zjawisku debatują nie tylko badacze i naukowcy z różnych dziedzin, ale także wszechpotężni właściciele korporacji z branży IT, którzy we współczesnej rzeczywistości mają status równy celebrytom.
Jednocześnie nie sposób nie zauważyć, iż z wielu tak różnorodnych środowisk dochodzi do nas głos niemal kasandryczny, który w rozwoju SI dostrzega poważne niebezpieczeństwo. Czy powszechne dziś „modele i programy stymulujące zachowania inteligentne” stanowią dla nas realną groźbę, a jeśli tak, to jak sobie radzić z tym zagrożeniem? Opinię niezwykle istotną, bo porządkującą wspomniany tu problem, wyraził w tej kwestii Państwowy Instytut Badawczy NASK, który do przygotowywanych przez siebie raportów i dyskusji zaprosił wielu specjalistów od lat analizujących i badających SI. Wspomniane prace ekspertów NASK stanowiły ważny element debat XXXII Forum Ekonomicznego w Karpaczu.
Strach konia przed dorożką?
We wszystkich dyskusjach dotyczących sztucznej inteligencji, które prowadzono podczas XXXII Forum Ekonomicznego w Karpaczu, słychać było echa przygotowanego przez NASK raportu „Cyberbezpieczeństwo AI. AI w cyberbezpieczeństwie”.
Zaproszeni przez NASK eksperci podjęli się we wspomnianej publikacji – więcej niż udanej – kompleksowej próby usystematyzowania większości zagadnień dotyczących SI. Analizie podlegały zarówno kwestie dotyczące cyberbezpieczeństwa systemów, jak i wyzwania oraz zagrożenia stojące przed tymi, którzy je projektują. Nie zabrakło szerokich analiz algorytmów uczenia maszynowego, opisów dotyczących medycznej SI, jak i tematów ważnych dla klientów rynku finansowego. Podobnie w kwestii tych wątków, które powinny budzić ogromne zainteresowanie wszystkich, politycznych i wojskowych, decydentów, bo przecież i te dziedziny nie są wolne od algorytmów SI.
Dodajmy, iż autorzy przygotowanego przez NASK raportu próbowali rozwiązać jedno z najtrudniejszych zadań, jakie dotyczy SI, czyli opisania i usystematyzowania kwestii związanych z legislacją. Jak pisze we wspomnianym dokumencie Monika Stachoń z działu Strategii i Rozwoju Bezpieczeństwa Cyberprzestrzeni NASK (p. tekst pt. „Unijne podejście do sztucznej inteligencji”):
„W związku z coraz szerszą debatą społeczną w Unii Europejskiej w tej materii, Komisja Europejska uznała, że należy stworzyć solidne europejskie ramy w zakresie AI. Stała się ona bowiem jedną ze strategicznych technologii XXI w.”
Nieprzypadkowo to właśnie publikacja NASK stanowiła kluczowy punkt odniesienia do dyskusji i pytań, które pojawiały się w trakcie debat na XXXII Forum Ekonomicznym w Karpaczu.
Specjaliści z NASK podkreślali, iż zanim postawimy pytanie, jak się bronić przed wieloma nowymi zagrożeniami, musimy spojrzeć na te kwestie, które w porządku logicznym naszego myślenia są wcześniejsze i bardziej pierwotne. Przede wszystkim należy usystematyzować naszą wiedzę i odpowiedzieć na pytanie, czy w ogóle potrafimy już definiować i nazywać to, co nam zagraża.
A przecież w dyskusji o SI jest obecny także głos, który zaleca w ogóle wstrzymanie się od wszelkich prac i badań nad algorytmami zdolnymi do samodzielnej nauki. Czy rację mają ci, którzy przestrzegając ludzkość przed nowym i arcyniebezpiecznym narzędziem, zalecają wstrzymanie wszelkich badań i rozwoju systemów SI?
Eksperci NASK dość krytycznie odnosili się do takich opinii i przypominali, że rozwój SI nie odbywa się w sposób niekontrolowany:
„Pamiętajmy, że sztuczna inteligencja działa w granicach, jakie jej wytyczymy i bazuje na bazach danych. Najpoważniejsze jest właśnie zagrożenie płynące z działalności systemu. Mówiąc obrazowo, do wypadku samochodu autonomicznego dochodzi nie dlatego, że ten nagle postanowił skręcić w lewo, tylko dlatego, że ktoś wprowadził błędne dane” – zauważyła prof. Joanna Jaworek-Korjakowska z Akademii Górniczo-Hutniczej w Krakowie w czasie jednego z paneli dyskusyjnych w Karpaczu.
Jakiego androida wyśnią elektryczne owce?
Warto jednak przypomnieć, iż poważne głosy przestrzegające przed rozwojem SI pojawiły się już w 2015 r., kiedy dokumenty zebrane przez Future of Life Institute miały wskazywać, że nowe technologie mogą nie tylko wpłynąć na zmniejszenie miejsc pracy, ale nawet – w długiej perspektywie – zagrozić istnieniu naszego gatunku.
„Musimy mieć pewność, że coraz doskonalsze systemy sztucznej inteligencji będą robić to, czego od nich wymagamy” – apelowali wówczas w liście otwartym wybitni badacze, inżynierowie i biznesmeni, a wśród podpisanych pod tymi słowami znaleźli się m.in. Stephen Hawking, Elon Musk czy Noam Chomsky.
Pomijając zaskakująco naiwny wydźwięk takich apeli (choć przecież podpisują się pod nim naprawdę tęgie umysły), nie możemy przecież nie przypomnieć także i tego, że podobne wizje końca wszechrzeczy i upadku „Galaktyki Gutenberga” snuto wówczas, kiedy internet nie był zjawiskiem dostępnym powszechnie dla większości mieszkańców Ziemi. Przestrzegano wtedy, że rozwój sieci postawi przed nami wiele nowych zagrożeń, z którymi nie będziemy sobie w stanie poradzić.
Czy dziś podobnie powinniśmy patrzeć na tych, którzy, tak jak fizyk kwantowy prof. Andrzej Dragan, mówią, że żyjemy „w czasach największego przewrotu cywilizacyjnego, jaki kiedykolwiek nastąpił, który jednocześnie jest zmierzchem naszego gatunku”? Fachowcy z NASK nie kryją, że nawet takie głosy mogą być i są cenne w debacie o algorytmach SI:
„Tego typu problemy i wypowiedzi są dla nas o tyle pomocne i cenne, iż rzucają snop światła na pewien problem. W cyberprzestrzeni kwestia zagrożeń to jest coś immanentnego, coś, co od zawsze było obecne. Mówiliśmy i mówimy o bezpieczeństwie internetu, bezpieczeństwie systemów komputerowych i do tego dochodzą algorytmy samouczące, które są coraz lepsze i potrafią coraz więcej. Nazywamy je sztuczną inteligencją, a tempo jej rozwoju okazało się tak szybkie, że zaskoczyło nawet twórców tych rozwiązań. W tym kontekście oczywiście zasadne jest pytanie o to, czy możemy utracić kontrolę nad tym, czego nauczą się algorytmy w przyszłości? Dziś oczywiście działają one na bazie tych danych, które my im dostarczamy. Jeśli więc te będą niezbyt neutralne bądź niepełne, SI może podpowiadać wnioski, które trudno przewidzieć. Dlatego kwestią kluczową jest budowanie zaufania do systemów SI. Uczynimy to, tworząc takie algorytmy SI, które będą wyjaśnialne, transparentne i zrozumiałe” – tłumaczył Krzysztof Silicki, dyrektor ds. strategicznego rozwoju cyberbezpieczeństwa NASK.
Nazywanie zagrożeń i walka z nimi musi być przedmiotem badań i nauki, bo przecież dla każdego z ekspertów zajmujących się SI oczywiste jest to, iż wraz z upowszechnianiem stosowania sztucznej inteligencji rośnie np. ryzyko nadużywania tej technologii przez cyberprzestępców.
Zwłaszcza że dziś nie musimy sobie wyobrażać użycia SI do tworzenia fałszywych informacji, wykradania danych czy infiltrowania systemów zabezpieczeń, bo tego typu sprawy są już – niestety – powszechnym elementem życia w infosferze. W trakcie jednego z paneli dyskusyjnych na Forum Ekonomicznym w Karpaczu prof. Jerzy Surma ze Szkoły Głównej Handlowej, jeden z zaproszonych przez NASK ekspertów, podał przykład takiego działania.
„Niedawno jeden z komitetów wyborczych wygenerował za pomocą sztucznej inteligencji wypowiedź konkurencyjnego polityka, aby go w ten sposób skompromitować” – przypomniał profesor.
Uczestnicy wspomnianej debaty podkreślali, że na poziomie legislacyjnym konieczne są odpowiednie regulacje, które powoli się już wprowadza. Jednocześnie na poziomie odbiorcy treści niezbędny jest zdrowy rozsądek i krytyczne podejście do danych przekazywanych nam drogą cyfrową.
Mówimy tu bowiem o narzędziu bardzo specyficznym, którego zdolności w równie mocnym stopniu nas fascynują, jak i przerażają. SI nie stanowi już nowinki, którą pasjonują się naukowcy i miłośnicy literatury science fiction, jest częścią naszego życia. Jeśli chcemy ją rozsądnie wykorzystywać, musimy zacząć mówić i myśleć o bezpieczeństwie, pamiętając o radach osób takich, jak Krzysztof Silicki z NASK, który zaleca daleko idącą transparentność procedur rządzących sztuczną inteligencją.
Algorytmy SI muszą być transparentne, bo stanowią elementy technologicznej rewolucji w medycynie, bankowości, transporcie, obronności, a także w kwestiach dotyczących porządku politycznego i egzekwowania prawa. Trudno wręcz znaleźć taką dziedzinę życia, która byłaby wolna od SI. Warto więc pamiętać, że nie da się zabezpieczyć systemów sztucznej inteligencji w sposób zaproponowany niegdyś przez Asimova, wszczepiając systemom SI bezpieczniki moralności w postaci trzech praw robotyki. Sztuczna inteligencja ma twarz arcyludzkich androidów z opowiadań i powieści Philipa K. Dicka, które doskonale wiedziały, jak zwieść i oszukać każdego z nas. W ogromnym stopniu dlatego, że były naszym dziełem.
(AC)