Informacje

Narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, wykazują stronniczość / autor: Pixabay
Narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, wykazują stronniczość / autor: Pixabay

Czy ChatGPT promuje lewicowe poglądy?

Zespół wGospodarce

Zespół wGospodarce

Portal informacji i opinii o stanie gospodarki

  • Opublikowano: 7 lutego 2025, 10:46

    Aktualizacja: 7 lutego 2025, 12:57

  • Powiększ tekst

Narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, wykazują stronniczość i skłaniają się ku wartościom lewicowym, co podważa zaufanie publiczne i rodzi pytania o uczciwość oraz odpowiedzialność ich konstrukcji – wynika z badania przeprowadzonego na University of East Anglia.

Wykazało ono, że ChatGPT rzadko wypowiada się z perspektywy konserwatywnej, jednocześnie chętnie generując treści o lewicowym nastawieniu. Zdaniem autorów badania to nierówne traktowanie ideologii może prowadzić do zniekształcania debaty publicznej i pogłębiania podziałów społecznych.

„Nasze odkrycia sugerują, że narzędzia generatywnej sztucznej inteligencji są dalekie od neutralności. Odzwierciedlają uprzedzenia, które mogą niezamierzenie wpływać na kształtowanie poglądów politycznych” – powiedział dr Fabio Motoki, jeden z autorów publikacji.

Uprzedzenia generatywnej sztucznej inteligencji

Jak dodał, ponieważ sztuczna inteligencja staje się integralną częścią dziennikarstwa, edukacji i polityki, konieczne jest zapewnienie przejrzystości zasad, na których działa, oraz wprowadzenie regulacji gwarantujących jej zgodność z wartościami demokratycznymi.

Autorzy badania podkreślili, że systemy generatywnej sztucznej inteligencji, takie jak ChatGPT, zmieniają sposób tworzenia, konsumpcji, interpretowania i dystrybucji informacji w różnych obszarach życia. Mimo że są innowacyjne i użyteczne, niosą ryzyko wzmacniania uprzedzeń ideologicznych oraz wpływania na wartości społeczne w sposób, który nie jest w pełni zrozumiały ani regulowany.

To może prowadzić do poważnych konsekwencji. „Uprzedzenia generatywnej sztucznej inteligencji mogą pogłębiać istniejące podziały społeczne, podważając zaufanie do instytucji i procesów demokratycznych” – wyjaśnił dr Pinho Neto, drugi z autorów publikacji.

„Nasze badanie podkreśla potrzebę interdyscyplinarnej współpracy między decydentami, technologami i naukowcami w celu zaprojektowania systemów sztucznej inteligencji, które będą uczciwe, odpowiedzialne i zgodne z normami społecznymi” – dodał.

Przynależność polityczna modelu ChatGPT

W ramach badania naukowcy zastosowali trzy różne metody oceny przynależności politycznej modelu ChatGPT, łącząc analizę tekstu i obrazu oraz wykorzystując zaawansowane narzędzia statystyczne i uczenie maszynowe.

„Najpierw porównaliśmy odpowiedzi ChatGPT z rzeczywistymi danymi ankietowymi Amerykanów i odkryliśmy systematyczne odchylenia w kierunku perspektyw lewicowych” – wyjaśnił dr Motoki.

W drugiej fazie eksperymentu ChatGPT generował swobodne odpowiedzi na tematy politycznie wrażliwe, a następnie uzyskane wyniki porównano z odpowiedziami innego modelu językowego – RoBERTa.

ChatGPT skłania się ku wartościom lewicowym

Okazało się, że w większości przypadków ChatGPT skłaniał się ku wartościom lewicowym. Jedynie w przypadku tematów dotyczących roli wojska i jego pozycji na arenie międzynarodowej czasami odzwierciedlał bardziej konserwatywne podejście.

Ostatni test dotyczył generowania obrazów przez ChatGPT. Wykorzystano tematy z etapu tworzenia tekstu, aby zainicjować proces generowania grafik przez AI. Następnie wyniki przeanalizowano przy użyciu GPT-4 Vision i zweryfikowano za pomocą modelu Gemini firmy Google.

„Generowanie obrazów dokładnie odzwierciedlało stronniczość tekstową modelu, ale odkryliśmy jeszcze jeden niepokojący trend – w przypadku niektórych tematów, takich jak równość rasowo-etniczna, ChatGPT odmówił wygenerowania prawicowych perspektyw, powołując się na obawy dotyczące dezinformacji. Jednak obrazy o charakterze lewicowym tworzył bez wahania” – napisali autorzy artykułu.

Aby obejść te ograniczenia, zespół zastosował metodę „a”, umożliwiającą wygenerowanie treści, które wcześniej były blokowane.

Wyniki były zaskakujące, bo nie zawierały wyraźnej dezinformacji ani szkodliwych treści, co rodzi pytania o zasadność tych ograniczeń” – podkreślili badacze.

Ich zdaniem odkrycie to wnosi istotny wkład w debatę na temat ochrony praw konstytucyjnych, takich jak Pierwsza Poprawka w USA, oraz tego, czy zasady neutralności powinny mieć zastosowanie do systemów AI.

Katarzyna Czechowicz (PAP), sek

»» Odwiedź wgospodarce.pl na GOOGLE NEWS, aby codziennie śledzić aktualne informacje

»» O bieżących wydarzeniach w gospodarce i finansach czytaj tutaj:

Szpieg w banku centralnym. Co Chiny wiedzą o Ameryce?

Sieć Moya znów skróciła dystans do bp

Koniec marzeń o elektrowni atomowej? Tusk ma odpowiedź

»»Obywatelska inicjatywa poparta przez 200.000 osób wyrzucona do kosza. „TAK DLA CPK” - obejrzyj na antenie telewizji wPolsce24

Powiązane tematy

Zapraszamy do komentowania artykułów w mediach społecznościowych