Co niesie ze sobą rewolucja w dziedzinie chatbotów?
ChatGPT od kilku tygodni robi prawdziwą furorę
Wspierany przez sztuczną inteligencję chatbot imponuje przekonująco ludzkim sposobem odpowiadania na pytania i interakcji z użytkownikami. Budzi to zarówno entuzjazm, jak i niepokój – także w branży cyberbezpieczeństwa. - mówi Tim Berghoff, Security Evangelist w G DATA Software.
Chatboty wykorzystujące technologię sztucznej inteligencji funkcjonują już od jakiegoś czasu. Wiele firm używa ich jako uzupełnienie opcji FAQ („często zadawanych pytań”) na swoich stronach internetowych oraz jako rozszerzenie oferty wsparcia. Nowy ChatGPT zaszokował ludzi z branży multimediów pod koniec 2022 roku, ponieważ niektóre odpowiedzi na pytania zadawane programowi przez użytkowników były tak przekonywujące, że praktycznie niemożliwe było stwierdzenie, czy udzielił ich człowiek, czy maszyna. Zrobiło to takie wrażenie, że według wstępnych niepotwierdzonych doniesień Microsoft planuje zainwestować dziesięć miliardów dolarów w OpenAI - firmę, która opracowała ChatGPT. W zamian gigant programistyczny z Redmond będzie zatrzymywał 75 proc. zysków OpenAI aż do momentu skompensowania zainwestowanej wcześniej kwoty. Po osiągnięciu tego celu Microsoft uzyska 49 proc. udziałów w OpenAI. W tej technologii naprawdę chodzi o duże pieniądze.
Potencjalne cele użycia systemów czatów opartych na sztucznej inteligencji budzą zarówno emocje jak i niepokój. Przypuszczenia, że Microsoft zamierza teraz uruchomić własną wyszukiwarkę Bing opartą na sztucznej inteligencji, będącą przeciwwagą dla dominacji Google, mogą okazać się prawdą. Możliwa jest również integracja z Cortaną - wirtualną asystentką Microsoftu. Wiele osób, od programistów i dziennikarzy po osoby pracujące w obsłudze klienta i sprzedaży, jest krytycznie nastawionych do tych zmian, ponieważ obawiają się, że sztuczna inteligencja może w przyszłości ich zastąpić, w efekcie czego stracą pracę. Jakkolwiek zrozumiałe są te obawy, jest raczej mało prawdopodobne, aby ten scenariusz zrealizował się w średnim okresie czasu. Parafrazując - pojawienie się samochodu nie spowodowało, że wszyscy woźnicy zostali bez pracy z dnia na dzień.
Użycie chatbotów niezgodne z prawem
Systemy sztucznej inteligencji już od dłuższego czasu wspierają tworzenie oprogramowania. Oczywiście taka technologia może być również niewłaściwie wykorzystana – na przykład przez cyberprzestępców, którzy dokonują oszustw z pomocą chatbotów. Można sobie wyobrazić, że w fałszywym „call center”, gdzie działa sztab przestępców dokonujących cyberoszustw, pewnego dnia będzie tylko komputer lub centrum informatyczne. W połączeniu z inną technologią, opracowaną przez OpenAI, o nazwie Vall-E możliwości są tu wręcz przerażające. Vall-E jest w stanie naśladować głosy ludzi w zwodniczo realistyczny sposób i to przy stosunkowo niewielkiej ilości posiadanego materiału źródłowego. Wystarczy niewielka próbka głosu. Do niedawna możliwości te były zarezerwowane wyłącznie dla twórców SF. Wykorzystując taką imitację głosu przez komputer można spowodować, na przykład, że operator telefonii komórkowej ujawni lub zmieni dane osoby.
ChatGPT i Vall-E obsługiwane prawidłowo, ale w celach niezgodnych z prawem, mogą stać się koszmarem dla cyberbezpieczeństwa. Zwłaszcza, gdy są wykorzystywane w szpiegostwie gospodarczym. W najgorszym scenariuszu może to spowodować całkowity brak zaufania do otrzymywanych e-maili lub rozmów telefonicznych od współpracowników lub przełożonych, ponieważ ich głosy mogą być tak dobrze imitowane przez komputer, że fałszerstwa nie da się rozpoznać przez telefon. Czy może to oznaczać krok wstecz i powrót do sytuacji, w której konieczne będzie załatwianie spraw osobiście, jeśli będzie się chciało mieć pewność, że nie rozmawia się ze sztuczną inteligencją naśladującą daną osobę? Użycie coraz doskonalszych programów typu „deepfake”, kompilujących obraz i dźwięk tak, aby pokazać działania i wypowiedzi ludzi, które nigdy nie miały miejsca, może nawet wywołać wojnę. Na tym tle wydaje się uzasadnione mówienie o „technologii ryzyka”, której wykorzystanie powinno być ściśle uregulowane. Dlatego zarówno politycy, jak i producenci dali wyraźnie do zrozumienia w 2018 roku, że muszą istnieć jasne przepisy i regulacje w tym zakresie. Komisja Europejska również zajmuje się opracowaniem przepisów regulujących ten temat.
Ponadto technologie te można wykorzystać do rozpowszechniania i generowania fałszywych wiadomości, ponieważ informacje tekstowe tworzone przez ChatGPT są praktycznie w 100% „ludzkie”. Jedna z przyczyn takiego stanu rzeczy jest omówiona w dalszej części artykułu.
ChatGPT może również pisać kody programu. Wystarczy prosta instrukcja, a bot poda żądane wiersze kodu. Naturalnie, wzbudziło to obawy, że programiści mogą w przyszłości okazać się zbędni. Jednak w tej kwestii nie ma powodu do niepokoju. Jednym z powodów jest to, że ChatGPT nie nauczył się samodzielnie tworzyć oprogramowania. Tym samym system również nie „wie”, jak działa bezpieczny kod. Utworzony kod może działać, ale samo bezpieczeństwo może być kwestionowane. Kod źródłowy generowany przez sztuczną inteligencję może zatem zawierać luki w zabezpieczeniach. Podejmowano nawet próby wykorzystania ChatGPT do tworzenia ransomware - oprogramowania, które blokuje dostęp do systemu komputerowego lub uniemożliwia odczyt zapisanych w nim danych, a następnie żąda od ofiary okupu za przywrócenie stanu pierwotnego. W chwili obecnej tworzenie oprogramowania przez sztuczną inteligencję jest wciąż w bardzo wstępnej fazie. Jak dotąd nikomu nie udało się utworzyć całych pakietów oprogramowania wyłącznie za pomocą sztucznej inteligencji. Nadal jednak nie jest jasne czy, w jaki sposób i za pomocą jakich narzędzi, będzie można zidentyfikować oprogramowanie utworzone przez sztuczną inteligencję - w tym temacie istnieje cały czas duże pole do dyskusji.
Inteligentne oszustwo?
Nie ma więc powodu, aby twórcy oprogramowania obawiali się o swoją pracę. Jak dotąd nic nie zastąpi wieloletniego doświadczenia w programowaniu i wyczucia, czy kod jest bezpieczny, czy nie. Szkodliwe oprogramowanie tworzone przez sztuczną inteligencję jeszcze się nie pojawiło (a przynajmniej nie ma jeszcze takich informacji) – ale gdyby w pewnym momencie do tego doszło, wątpliwym jest, czy w ogóle dałoby się je rozpoznać.
Inny sposób oszukańczego wykorzystania sztucznej inteligencji już obiegł media społecznościowe: okazuje się, że ChatGPT może tworzyć świetnie brzmiące i doskonale spójne eseje na dowolny temat i to w ciągu kilku sekund. Komentarze wielu uczniów: „Sam bym tego lepiej nie napisał”. Oczywiście ucieszy to tych, którzy zapomnieli lub którym się nie chciało napisać eseju. Już w tej chwili nauczyciele skarżą się na to, że uczniowie korzystają ze sztucznej inteligencji przy wykonywaniu prac domowych. Zaczyna to również być problemem w środowisku akademickim. Fakt, że tekst napisany przez ChatGPT jest praktycznie nie do odróżnienia od tekstu napisanego przez człowieka, może stwarzać potencjalne problemy z rzetelnością opracowań naukowych. Jako przeciwwaga do takich działań, tworzone są nowe programy umożliwiające nauczycielom rozpoznawanie tekstów utworzonych przez sztuczną inteligencję i przedstawianych przez uczniów i studentów jako ich własne prace.
Stary problem w nowej odsłonie?
W przeszłości systemy sztucznej inteligencji miały również problemy z rasizmem i seksizmem. Osoby ciemnoskóre i kobiety często doświadczały dyskryminacji wskutek decyzji podejmowanych przez sztuczną inteligencję. Nie jest to jednak „wrodzona” cecha sztucznej inteligencji. Takie zachowania zostały wywołane przez materiał źródłowy i algorytmy leżące u podstaw działania sztucznej inteligencji. Materiał źródłowy jest dostarczany przez ludzi, a jeśli już w nim istnieje przekaz podprogowy, to oczywiście przenosi się on na system, który uczy się od swoich twórców. Sztuczna inteligencja nie potrafi się sama korygować, rozpoznawać negatywnych skłonności ani odpowiednio dostosowywać swojego zachowania. Nie ma również filtrów. To właśnie te niewielkie niedoskonałości powodują, że sztuczna inteligencja wydaje się być tak niewiarygodnie „ludzka”. Rozpowszechniane fałszywe wiadomości lub teorie spiskowe spotykają się z większą akceptacją przez ludzi, którzy są na nie podatni.
Problemy podstawowe
Z powyższych względów baza danych, z której uczy się chatbot oparty na sztucznej inteligencji, ma ogromne znaczenie. Obowiązuje tutaj zasada „co na wejściu, to na wyjściu”: jeżeli wprowadzi się nieprawidłowe algorytmy działania do sztucznej inteligencji, również uzyska się nieprawidłowe efekty. Zarówno Facebook (lub Meta), jak i Microsoft doświadczyły tego z pierwszej ręki. „Tay” - chatbot opracowany przez Microsoft wykorzystujący technologię sztucznej inteligencji spowodował katastrofę wizerunkową Microsoftu w 2016 roku po tym, jak bot połączony z Twitterem zaczął publikować rasistowskie, lubieżne, seksistowskie i mizoginistyczne posty. Tay nazwał nawet Holokaust „wymysłem” w jednym ze swoich postów. Bot był podłączony online przez prawie 48 godzin, zanim Microsoft go opanował i wyłączył. Druga taka akcja została przerwana po niecałej godzinie. To było w 2016 roku. Od tego czasu wiele się wydarzyło – przynajmniej tak można by sądzić. Ale w sierpniu 2022 r. Meta Blender wprowadził Bota 3. Ten bot miał taką samą słabość, jak ChatGPT: udzielane odpowiedzi były różne w zależności od sposobu sformułowania pytania. Jeśli użytkownik zadaje botowi pytanie, ten w tle przeszukuje Internet i znajduje różne, bardziej i mniej wiarygodne źródła, na których się opiera. Wynik: Blender Bot 3 powielał teorie spiskowe i otwarcie wyrażał antysemityzm. Nawet na prezesie firmy Meta Marku Zuckerbergu nie pozostawił suchej nitki i stwierdził, że chociaż jest dobrym biznesmenem, jego praktyki biznesowe bywają nieetyczne, a chociaż jest filantropem, jest manipulantem i do tego dziwnym. Problem jest oczywisty i nie różni się od procesu, przez który przechodzą ludzie.
Przedszkole „sztucznej inteligencji”
Nie chcemy uczłowieczać komputerów, ale może powinniśmy traktować nowoczesne systemy sztucznej inteligencji jak małe dzieci? Nie emocjonalnie, ale raczej z edukacyjnego punktu widzenia. Jeśli nie nauczymy sztucznej inteligencji prawidłowych zachowań od samego początku, może ona wyrządzić wiele szkód. Podobnie jak małe dziecko, które głośno i radośnie wypowiada przekleństwa usłyszane od dorosłych i które należy odpowiednio wychować, również sztuczną inteligencję należy odpowiednio ukierunkować. Jako ludzie uczymy się od naszego otoczenia i z interakcji z innymi. Natomiast sztuczna inteligencja pobiera informacje z otoczenia i formuje własne zasady, oderwane od interakcji międzyludzkich, dlatego obecnie koncepcje etyczne nie są elementem przy formułowaniu wypowiedzi. Taki zbiór zasad zostaje określony w oparciu o informacje znalezione w Internecie przez sztuczną inteligencję, a jak wiadomo w Internecie treści etycznie wątpliwe mają sztucznie zawyżoną popularność. Sztuczna inteligencja przyjmuje, że to, co cieszy się dużym zainteresowaniem – bez względu na to, z jakiego pochodzi źródła – musi być dobre. W taki sposób generowane są posty z treściami rasistowskimi. Tutaj również obowiązuje zasada: co na wejściu, to na wyjściu. Sztuczna inteligencja musi więc nauczyć się kompetencji medialnych, aby odróżniać informacje rzetelne i obiektywne od wątpliwych moralnie i naukowo. Ale to już jest temat na oddzielną dyskusję. Pewne jest tylko jedno: media społecznościowe niekoniecznie muszą być właściwą „szkołą” dla sztucznej inteligencji.
Następnym dużym wyzwaniem, które nas czeka będzie więc wybór materiałów i danych, z których systemy takie jak ChatGPT będą się uczyć.
Oprócz całego entuzjazmu, powodem do niepokoju jest to, że sztuczna inteligencja może tak łudząco naśladować ludzkie zachowanie. W przyszłości będziemy musieli opracować metody pozwalające odróżnić prawdziwą osobę od sztucznej inteligencji, zwłaszcza w przypadku kontaktów nawiązywanych przez Internet lub telefon. Niezależnie od tego, jak przydatna i pomocna jest sztuczna inteligencja, nie powinniśmy jej ślepo ufać.
Podsumowanie
Nie ma sensu demonizowanie nowej technologii. Jest już tutaj i będzie odgrywać coraz większą rolę w przyszłości, czy nam się to podoba, czy nie. Żadna przełomowa technologia nie została trwale zatrzymana z powodu obaw i przesądów. Jeśli popatrzymy wstecz: wraz z pojawieniem się kolei krążyła wielokrotnie powtarzana plotka, że żaden człowiek nie będzie w stanie wytrzymać prędkości przekraczającej 20 km/h, bo albo się udusi, albo straci przytomność wskutek wstrząsów. Tygodnik medyczny „The Lancet”, który istnieje do dziś, w dużej mierze obalił ten mit. W numerze z 25 stycznia 1862 zamieścił opis choroby lokomocyjnej i zalecenia, jak chronić się przed przeziębieniem w czasie podróży pociągiem. A dzisiaj? Rekord prędkości francuskich zespołów trakcyjnych TGV niepobity od 2007 roku wynosi prawie 575 km/h – a niemieckie pociągi ICE w normalnej eksploatacji osiągają prędkość do 300 km/h.
Sedno sprawy polega na tym, aby nadążać za rozwojem i nie dać mu się wyprzedzić. Jeśli pozwolisz się wyprzedzić, powoli i nieuchronnie będziesz zostawał coraz bardziej w tyle.
Czytaj też: Media kłamią? Oto zwycięzcy hackathonu walki dezinformacją
Mat.Pras./KG