Informacje

Zdjęcie ilustracyjne / autor: Pixabay
Zdjęcie ilustracyjne / autor: Pixabay

Eksperci ostrzegają - AI doprowadzi do zniszczenia ludzkości

Zespół wGospodarce

Zespół wGospodarce

Portal informacji i opinii o stanie gospodarki

  • Opublikowano: 31 maja 2023, 22:00

  • Powiększ tekst

Setki ekspertów podpisały się pod oświadczeniem, w którym ostrzegają, że sztuczna inteligencja (AI) może doprowadzić do zniszczenia ludzkości

Ryzyko takie powinno być traktowane równie poważnie, jak zagrożenie wojną nuklearną - głosi komunikat cytowany w środę przez „USA Today”.

Oświadczenie ekspertów opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany „ojcem chrzestnym sztucznej inteligencji”, który odszedł z Google’a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.

Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (…) Chcemy współpracować z rządem, aby temu zapobiec - powiedział niedawno Altman przed komisją Senatu USA.

Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI „rozwinie zdolność do autoreplikacji i wyrwie się na wolność”.

Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność „rozwijania prostego rozumowania poznawczego” - relacjonuje „USA Today”. Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i „całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji”.

W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność „generowania nieprawdziwych informacji”, czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.

Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.

Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.

Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to „niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie” - pisze „USA Today”.

W wywiadzie dla „New York Timesa” z początku maja Hinton powiedział: „Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę”.

Czytaj też: Współtwórca ChatGPT do Polaków: Nie wiem, jak to robicie

Czytaj też: Sztuczna inteligencja - szansa czy zagrożenie? Ocenia szef NBP

PAP/KG

Powiązane tematy

Zapraszamy do komentowania artykułów w mediach społecznościowych