Informacje

Zdjęcie ilustracyjne / autor: fot. Pixabay
Zdjęcie ilustracyjne / autor: fot. Pixabay

Czy daliście się nabrać na to nowe oszustwo?

Zespół wGospodarce

Zespół wGospodarce

Portal informacji i opinii o stanie gospodarki

  • Opublikowano: 23 maja 2024, 13:32

  • Powiększ tekst

Naukowa i Akademicka Sieć Komputerowa poinformowała w czwartek o rosnącej liczbie oszustw wykorzystujących wizerunki znanych osób, tzw. deepfake. W oszustwach wykorzystywano m.in. wizerunek prezydenta Andrzeja Dudy i ministry zdrowia Izabeli Leszczyny.

Deepfake, czyli co?

NASK poinformowała, że w zidentyfikowanych oszustwach typu deepfake, na filmach krążących w sieci do „wyjątkowo korzystnych” inwestycji finansowych mieli zachęcać prezydent Andrzej Duda, ministra zdrowia Izabela Leszczyna, piłkarz Robert Lewandowski, prezes InPostu Rafał Brzoska, czy influencer Kamil Labudda (Budda).

Wymienione osoby - jak podaje NASK - mówiły „swoim” głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Eksperci zwracają uwagę, że od początku maja pojawiło się wiele nowych oszustw wykorzystujących technologię deepfake i wizerunki znanych osób, które wyglądają coraz bardziej wiarygodnie.

O oszustwach bazujących na technologii deepfake po raz kolejny zrobiło się głośno w marcu 2024 r. Na Facebooku pojawiły się wówczas nagrania wideo, w których wykorzystano wizerunek prezesa InPostu do reklamowania fałszywej inwestycji. Mimo szybkiej reakcji Rafała Brzoski i zgłoszeniu sprawy do administratorów Meta, stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni.

Jak zaznacza NASK, w nagraniach umieszczonych na Facebooku oszuści wykorzystali technikę lip-sync, czyli manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów.

Przestępcy mają łatwiej

Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu text-to-speech, wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii +speech-to-speech+, w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału”– wyjaśnia cytowana w komunikacie kierująca w NASK Zespołem Analizy Deepfake Ewelina Bartuzi-Trokielewicz.

Szablon jak z TV

NASK podała, że materiały typu deepfake często są dodatkowo osadzone w szablonie przekazu telewizyjnego, najczęściej programu informacyjnego, co ma dodatkowo podkreślać rangę przekazywanych treści i zwiększać ich wiarygodność.

»» O bieżących wydarzeniach w gospodarce i finansach czytaj tutaj:

Bez Obajtka zyski Orlenu lecą na łeb

Absurdalne ceny. Wzrost zainteresowania o 60 proc.!

Plan naprawczy: 10 tys. ludzi na bruk i likwidacja

Oto najszybszy pociąg na świecie. Jedzie 623km/h

Łatwość, z jaką można stworzyć fałszywe materiały audiowizualne, zwiększa ryzyko manipulacji i dezinformacji. Dlatego istotne jest zwiększenie świadomości społecznej na temat rozwoju i możliwości technologii generowania treści syntetycznych. Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji – ostrzegła cytowana w komunikacie ekspertka NASK.

PAP/ as/

Powiązane tematy

Zapraszamy do komentowania artykułów w mediach społecznościowych