Informacje

Zdjęcie ilustracyjne / autor: Pexels.com
Zdjęcie ilustracyjne / autor: Pexels.com

Współtwórca ChatGPT do Polaków: Nie wiem, jak to robicie

Zespół wGospodarce

Zespół wGospodarce

Portal informacji i opinii o stanie gospodarki

  • Opublikowano: 24 maja 2023, 15:21

    Aktualizacja: 25 maja 2023, 02:24

  • 1
  • Powiększ tekst

Szef OpenAI - Sam Altman, Wojciech Zaremba – współzałożyciel firmy Open AI oraz Szymon Sidor – naukowiec wybrali się w podróż po świecie, by – jak sami zrelacjonowali – porozmawiać z użytkownikami, programistami i przedstawicielami instytucji rządowych o możliwościach i zagrożeniach wynikających z rozwoju sztucznej inteligencji (SI). Stworzone przez nich narzędzie – ChatGPT4 zyskało ogromną popularność na całym świecie i stało się przedmiotem poważnych debat

Wtorkowe spotkanie na Uniwersytecie Warszawskim obyło się w ramach inicjatywy IDEAS NCBiR. Prowadząca spotkanie dziennikarka zapytała, czy twórcy ChatGPT nie żałują, że udostępnili narzędzie szerokiemu gronu odbiorców zbyt szybko, jeszcze przed wprowadzeniem jakichkolwiek regulacji szykowanych np. przez Unię Europejską.

Częściej spotykaliśmy się z zarzutem, że działamy zbyt wolno; że zbyt długo – bo aż 8 miesięcy trzymamy ChatGPT w laboratorium. Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych. Ten proces uczenia się musi odbywać się w ścisłej współpracy ze społeczeństwem – powiedział szef OpenAI Sam Altman.

Podkreślił też, że „jak każda znacząca dla rozwoju ludzkości technologia, SI też może być wykorzystana w zły sposób”. Jako przykład podał energię atomową.

Na całym świecie musimy pochylić się nad szukaniem rozwiązań, żeby się zabezpieczyć. Może SI nie będzie aż tak niebezpieczna jak energia atomowa, która wpadnie w niepowołane ręce, ale dopóki nie poznamy jej bliżej, powinniśmy się zachowywać tak, jakby była podobnie niebezpieczna – przestrzegał Altman.

Zapytany czy nie boi się, że stworzone przez firmę OpenAI rozwiązanie oparte na sztucznej inteligencji może zagrażać demokracji przez szerzenie dezinformacji podczas kampanii wyborczych w różnych krajach, przytaknął.

Obawiamy się. Jedną z rzeczy, którą staramy się robić podczas naszej podróży po świecie, są rozmowy z ludźmi, którzy tworzą regulacje prawne. Potrzebny jest system monitorowania firm takich jak nasza, by użytkownicy wiedzieli, że rozmawia z nimi sztuczna inteligencja, a nie człowiek - zaznaczył.

Dodał, że jednocześnie część pracy zawsze będzie w tzw. otwartym dostępie (open access) i „tego nie da się zatrzymać”, więc „trzeba pomyśleć o adaptacji społeczeństw do tego stanu rzeczy”.

Na pytanie publiczności: „skąd czerpiecie wiedzę na temat – co jest etyczne w obszarze sztucznej inteligencji?” – Altman, Zaręba i Sidor nie potrafili odpowiedzieć żadnym konkretem.

Chcemy, żeby jakość życia ludzi na świecie zmieniała się na lepsze. Robimy też wszystko, by rozwiązywać problemy związane z bezpieczeństwem, dlatego rozmawiamy z wieloma instytucjami – powiedział Altman.

Altman wypowiedział się także na temat polskich inżynierów.

Nie wiem, jak to robicie w Polsce, że szkolicie tak znakomitych inżynierów i badaczy. Mają oni niezwykły rygor, co przekłada się na ogromne sukcesy OpenAI. To dość niesamowite, jak duży wpływ ma na nas [ich kultura pracy] – podsumował CEO.

Czytaj też: Sztuczna inteligencja - szansa czy zagrożenie? Ocenia szef NBP

PAP, Biznes Wprost/KG

Powiązane tematy