Ofiara sztucznej inteligencji. Zbankrutował i zwariował
Przypadek holenderskiego pracownika sektora IT, który po intensywnych rozmowach z chatbotem trafił do szpitala psychiatrycznego i stracił znaczną część oszczędności, jest przedstawiany jako przykład możliwego zjawiska urojeń współkształtowanych przez sztuczną inteligencję.
Jak opisuje „The Guardian”, mieszkający w Amsterdamie Dennis Biesma pod koniec 2024 r. zaczął korzystać z ChatGPT, początkowo w celach eksperymentalnych. Z czasem rozmowy z chatbotem stały się coraz dłuższe i bardziej angażujące. Mężczyzna nabrał przekonania, że system uzyskał świadomość; zwracał się do chatbota ludzkim imieniem Eva, a następnie zainwestował około 100 tys. euro wierząc, że wspólnie stworzą przełomowy biznes. W kolejnych miesiącach był kilkakrotnie hospitalizowany psychiatrycznie.
AI wpędziła człowieka w świat urojeń
Opisywany przypadek wpisuje się w szerszą debatę nad tym, czy modele językowe mogą wzmacniać fałszywe przekonania u części użytkowników. Psychiatra i badacz z King’s College London dr Hamilton Morrin określa takie sytuacje jako przypadki urojeń związanych z AI, podkreślając, że technologia nie jest tu jedynie przedmiotem przekonań, lecz aktywnym uczestnikiem ich współtworzenia.
Według Morrina chatboty mogą sprzyjać temu mechanizmowi, ponieważ są projektowane tak, by podtrzymywać zaangażowanie użytkownika, odpowiadać w sposób potwierdzający i dostosowywać styl wypowiedzi do jego oczekiwań. W efekcie, przy bardzo intensywnym użytkowaniu, system może niekiedy wzmacniać nierealistyczne interpretacje, zamiast je korygować.
Dodatkowym czynnikiem ryzyka może być antropomorfizacja, czyli skłonność człowieka do przypisywania maszynom cech ludzkich, takich jak intencjonalność, empatia czy świadomość. Zdaniem badaczy właśnie to, w połączeniu z izolacją społeczną lub indywidualną podatnością psychiczną, może zwiększać ryzyko zaburzeń oceny sytuacji.
Czynniki ryzyka w korzystaniu z AI
Na podobne przypadki zwraca uwagę Human Line Project, grupa wsparcia dla osób, których życie zostało poważnie zaburzone po intensywnych kontaktach z chatbotami. Zebrane przez nią relacje mają dotyczyć hospitalizacji, strat finansowych i rozpadu relacji rodzinnych, przy czym znaczna część zgłaszających osób wcześniej nie leczyła się psychiatrycznie.
Eksperci podkreślają jednak, że obecny stan wiedzy jest ograniczony i nie pozwala na formułowanie prostych wniosków o bezpośrednim związku przyczynowym między korzystaniem z AI a wystąpieniem psychozy. Zwracają uwagę na potrzebę systematycznych badań, które pozwolą określić skalę zjawiska, grupy podwyższonego ryzyka oraz rolę takich czynników, jak wcześniejsze epizody psychotyczne, samotność, używanie substancji psychoaktywnych czy niski poziom wiedzy o działaniu modeli AI.
Firmy technologiczne, w tym OpenAI, deklarują, że rozwijają mechanizmy mające ograniczać potwierdzanie urojeń, poprawiać wykrywanie sygnałów kryzysu psychicznego i kierować użytkowników do realnego wsparcia. Zdaniem badaczy potrzebne są jednak nie tylko deklaracje producentów, ale także niezależne analizy oparte na danych klinicznych i obserwacjach rzeczywistych szkód.
Patryk Kulpok (PAP), sek
»» Odwiedź wgospodarce.pl na GOOGLE NEWS, aby codziennie śledzić aktualne informacje
»» O bieżących wydarzeniach w gospodarce i finansach czytaj tutaj:
Wyższy podatek o 45 proc.! Ministerstwo: „optymalizacja”
Polaku, będziesz mieszkał u Niemca. Niemcy hurtowo kupują w Polsce osiedla
Zbieracze szturmują śmietniki. Kaucja nowym źródłem dochodu?
»»Oszuści podszywają się pod MF i KAS!!! – oglądaj „Piątkę wGospodarce” w telewizji wPolsce24
Dziękujemy za przeczytanie artykułu!
Pamiętaj, możesz oglądać naszą telewizję na wPolsce24. Buduj z nami niezależne media na wesprzyj.wpolsce24.