Eksperci ostrzegają - AI doprowadzi do zniszczenia ludzkości
Setki ekspertów podpisały się pod oświadczeniem, w którym ostrzegają, że sztuczna inteligencja (AI) może doprowadzić do zniszczenia ludzkości
Ryzyko takie powinno być traktowane równie poważnie, jak zagrożenie wojną nuklearną - głosi komunikat cytowany w środę przez „USA Today”.
Oświadczenie ekspertów opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.
Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany „ojcem chrzestnym sztucznej inteligencji”, który odszedł z Google’a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.
Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (…) Chcemy współpracować z rządem, aby temu zapobiec - powiedział niedawno Altman przed komisją Senatu USA.
Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI „rozwinie zdolność do autoreplikacji i wyrwie się na wolność”.
Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność „rozwijania prostego rozumowania poznawczego” - relacjonuje „USA Today”. Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i „całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji”.
W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność „generowania nieprawdziwych informacji”, czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.
Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.
Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.
Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to „niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie” - pisze „USA Today”.
W wywiadzie dla „New York Timesa” z początku maja Hinton powiedział: „Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę”.
Czytaj też: Współtwórca ChatGPT do Polaków: Nie wiem, jak to robicie
Czytaj też: Sztuczna inteligencja - szansa czy zagrożenie? Ocenia szef NBP
PAP/KG