Musk wzywa do pauzy w rozwoju sztucznej inteligencji
Setki biznesmenów, inwestorów i ekspertów od sztucznej inteligencji, w tym m.in. Elon Musk, wezwało we wspólnym liście do przynajmniej sześciomiesięcznej przerwy w rozwijaniu systemów AI zdolniejszych od opublikowanego w marcu GPT-4. Sygnatariusze ostrzegają przed nieprzewidywalnymi skutkami wyścigu o tworzenie coraz potężniejszych modeli.
Jak twierdzą autorzy listu opublikowanego na stronach ośrodka Future of Life Institute, zaawansowana sztuczna inteligencja może stanowić „głęboką zmianę w historii życia na Ziemi” i do jej rozwoju powinno się podchodzić z ostrożnością.
„Niestety, do tego poziomu planowania i zarządzania nie dochodzi, mimo że w ostatnich miesiącach widzieliśmy laboratoria AI zaangażowane w niekontrolowany wyścig, by rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt - w tym nawet ich twórcy - nie potrafi zrozumieć, przewidzieć, czy porządnie kontrolować” - czytamy w liście.
Pismo ostrzega, że niekontrolowane podejście do rozwoju AI grozi zalewem dezinformacji, masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny i „utratą kontroli nad cywilizacją”.
„Silne systemy AI powinny być rozwijane dopiero kiedy będziemy pewni, że ich efekty będą pozytywne, a ich ryzyka możliwe do kontrolowania” - uważają autorzy.
Wzywają przy tym do sześciomiesięcznej przerwy w trenowaniu systemów przewyższających wypuszczony niedawno przez firmę OpenAI GPT-4, który m.in. zdolny jest do zdawania testów różnego rodzaju na poziomie zbliżonym do najlepszych zdających ludzi. Apelują też o wdrożenie kompleksowych rządowych regulacji i nadzoru nad nowymi modelami.
Wśród sygnatariuszy listu jest m.in. miliarder Elon Musk, współzałożyciel firmy Apple Steve Wozniak, szef Stability AI Emad Mostaque (producenta generatora obrazów Stable Diffusion) oraz badacze sztucznej inteligencji z uniwersytetów Stanforda, Massachusetts Institute of Technology (MIT) i innych uczelni i laboratoriów AI.
Czytaj też: Sasin: Kolejny sukces na drodze do budowy elektrowni jądrowej
PAP/kp