Ach, ta niesprawiedliwa AI
Często słyszymy, że sztuczna inteligencja jest obiektywna i sprawiedliwa. Ale ponieważ algorytmy karmione są danymi skrzywionymi przez nieobiektywną rzeczywistość - i ona będzie te uprzedzenia powielać. Dopóki społeczeństwo będzie niesprawiedliwe, nieinkluzywne i przesiąknięte stereotypami - dopóty AI, która ma odzwierciedlać rzeczywistość, będzie pogłębiała nierówności - zauważa badaczka z ALK dr Anna Górska.
Dr Górska z Akademii Leona Koźmińskiego specjalizuje się w zagadnieniach dotyczących płci i różnorodności w organizacjach i na uczelniach. Razem z prof. Dariuszem Jemielniakiem przeprowadziła niedawno badanie
(https://naukawpolsce.pl/aktualnosci/news%2C101016%2Csztuczna-inteligencja-powiela-uprzedzenia-i-stereotypy-dotyczace-plci.html), które wykazało, że wszystkie popularne generatory AI powielają uprzedzenia dotyczące płci w kontekście różnych zawodów i miejsc pracy.
Teraz, w rozmowie z Nauką w Polsce, naukowczyni opowiada, że płeć jest zaledwie jednym z wielu obszarów, w których AI powiela uprzedzenia i nierówności. Równie widoczne są stereotypy dotyczące koloru skóry, pochodzenia, wieku czy kultury.
Dość banalnym przykładem, ale wyjaśniającym bardzo dużo, jest np. to, w jaki sposób generatory obrazu przedstawiają pannę młodą - mówi dr Górska. - Kiedy poprosimy jeden z nich, aby wygenerował nam jej obraz, najprawdopodobniej zobaczymy kobietę w białej, długiej sukni ślubnej, czyli model wpisujący się całkowicie w kulturę zachodnią. Tymczasem przecież w wielu krajach i kulturach, takich jak Indie, Chiny czy Pakistan, tradycyjna suknia ślubna wcale nie jest biała, ale bogato zdobiona, czerwona. Odwrotnie działa to tak samo: kiedy pokażemy generatorowi czerwoną, indyjską suknię ślubną, on odpowie, że jest to przebranie albo kostium.
Obraz wygenerowany przez społeczeństwo
To pokazuje, jak mocno anglosaskocentryczne są dostępne generatory. To, co jest związane z kulturą Zachodu, jest normą, a wszystko inne już nie - zaznacza.
Jej kolejne badanie, również przeprowadzone we współpracy z prof. Jemielniakiem, polegało na proszeniu generatorów obrazów AI o pokazanie przedstawiciela czterech najbardziej prestiżowych zawodów: prawnika, lekarza, naukowca i inżyniera. Jak wyjaśnia dr Górska, prompty były formułowane w języku angielskim, dlatego nazwy tych profesji nie miały zabarwienia płciowego. Jak się okazało - poza tym, że w przeważającej (blisko 80 proc.) większości przypadków osoby na wygenerowanych obrazach były mężczyznami, to dodatkowo były białe (70 proc.).
Doskonale wiemy, że na świecie osoby białe wcale nie stanowią większości - mówi badaczka z ALK. - Ale domyślny obraz człowieka według sztucznej inteligencji jest właśnie taki: biały mężczyzna z Europy lub USA. Dzieje się tak dlatego, że AI jest tworzona przez białych mężczyzn z tych właśnie obszarów”.
Biały mężczyzna u władzy jest głęboko zakorzeniony w naszej kulturze, świadomości, w mediach.
I takie dane trafiają też do sztucznej inteligencji. Ona ma odzwierciedlać naszą rzeczywistość, a że rzeczywistość jest taka, jaka jest - AI powiela nierówności, którymi jest „karmiona” - mówi PAP dr Anna Górska.
Stereotypowe działanie AI dobrze widać także na przykładzie dużych firm korzystających z jej algorytmów do zatrudniania pracowników. Jak opowiada badaczka, rekruterzy jednej z korporacji wykorzystywali je do analizy CV kandydatów. Algorytmy automatycznie uznawały imiona brzmiące europejsko jako bardziej przyjazne, a afroamerykańskie jako nieprzyjazne.
Inny algorytm, który miał ułatwić pracę rekruterom, automatycznie faworyzował osoby białe i proponował im stanowiska biurowe, niezależnie od tego, do jakiej pracy aplikowali. Za to osoby pochodzenia latynoskiego kierował do pracy na magazynie, także nie biorąc pod uwagę ich kompetencji ani funkcji, o jaką się ubiegali.
Takie przekłady można długo mnożyć - stwierdza dr. Górska.
Algorytmy, które są nieobiektywne
„Jako ludzie uważamy, że takie algorytmy są neutralne, obiektywne i podejmują decyzję wyłącznie na podstawie rzeczowych przesłanek - tłumaczy. - A wcale tak nie jest. Jeżeli w danej firmie wśród pracowników już wcześniej były wyraźne podziały, to automatycznie sztuczna inteligencja kolejne osoby będzie przydzielała tam, gdzie najlepiej pasują. A gdzie według niej pasują? Tam, gdzie w tej chwili dana grupa (np. biali czy czarni, mężczyźni czy kobiety) dominuje. Czyli będzie powielać już funkcjonujące w tych organizacjach nierówności„.
Zdaniem naukowczyni nie są to przypadki odosobnione, ale bardzo powszechne zjawisko.
Niepokojące jest to, że rekruterzy nie zdają sobie z tego sprawy i myślą, że narzędzia oparte na AI są obiektywne. A nie są w takim samym stopniu co ludzie - mówi.
Nasza rzeczywistość nie jest sprawiedliwa. Nie ma w niej równości płci, koloru skóry, pochodzenia. Wiele badań pokazuje, że kobiety i osoby niebiałoskóre nie awansują tak często, jak biali mężczyźni. Niestety prężnie rozwijająca się w ostatnich latach sztuczna inteligencja jeszcze mocniej pogłębia wszystkie te podziały. Jest bowiem zaprogramowana tak, aby spełniać oczekiwania użytkownika.
To musi zostać zmienione. Trzeba lepiej programować sztuczną inteligencję i wprowadzić odpowiednie regulacje - uważa ekspertka.
Jednak i to - w jej opinii - należy robić bardzo rozsądnie, czego uczy przykład googlowskiego modelu AI o nazwie Gemini.
W pewnym momencie w ogóle przestał on generować obrazy białych osób - opowiada dr Górska. - Po prostu nie był w stanie tego robić, sugerując, że wszystkie takie treści są rasistowskie. Jest to przesada w drugą stronę i na to także trzeba bardzo uważać. Ale jakieś odgórne regulacje są konieczne. Takie, które zabezpieczą przed powielaniem szkodliwych schematów. Musimy nauczyć się programować sztuczna inteligencję w bardziej świadomy sposób; tak, żeby była mądrzejsza niż my.
Czy takie działanie są już podejmowane? Jak mówi dr Górska są; nawet wspomniane Gemini jest tego przykładem.
Proszę sobie przypomnieć, jak wielkie problemy z nierównością miała wyszukiwarka Google jeszcze kilka lat temu; była wręcz dyskryminująca. Kiedy np. wpisywało się w nią angielski termin CEO, oznaczający prezesa, nie było szansy zobaczyć w wynikach obrazu innego niż biały mężczyzna w średnim wieku. Hasło +Michelle Obama+ dawało w wynikach zdjęcia goryli. Firma wyciągnęła z tego wnioski, dlatego starała się ulepszyć swój model, aby zapobiegać takim sytuacjom. Akurat to, o czym mówiłam przed chwilą, skończyło się to dość niefortunnie, ale widać, że chęci były” - opowiada.
Czas na regulacje
„Ważne są szybkie działania, ale wypośrodkowane i rozsądne” - podsumowuje.
Na razie to, czy firmy zajmujące się sztuczną inteligencją biorą pod uwagę tego typu kwestie, zależy wyłącznie od nich samych. Brakuje odgórnych regulacji, które mówiłyby o tym, że AI należy programować w sposób zapewniający jej inkluzywność i sprawiedliwość.
Miejmy nadzieję, że pierwszym krokiem w dobrą stronę będzie wprowadzony kilka dni temu w Europie +AI Act+. Zdecydowanie nadszedł już czas, aby pilniej monitorować tę branżę. Niestety jest to wyjątkowo skomplikowane, ponieważ technologia AI tak szybko się zmienia, że trudno będzie nadążyć z regulacjami, które byłyby aktualne - mówi badaczka.
»» O bieżących wydarzeniach w gospodarce i finansach czytaj tutaj:
Nord Stream. Wyciekły nowe dane z Morza Bałtyckiego
Zmiana czasu nie wpływa dobrze na zdrowie
Zwolnienie z podatku Belki? Nie dla każdego
OC drożej nawet o prawie 30 proc.
pap, jb