Rekompensata Za Znak Zodiaku
Podstawa C Celebryci

Dowiedz Się Kompatybilności Za Pomocą Znaku Zodiaku

Wyjaśnienie: dlaczego wykrywanie filmów typu deepfake staje się coraz trudniejsze i jakie są tego konsekwencje?

Potencjalne niebezpieczeństwo deepfake polega na tym, że poziom manipulacji jest tak doskonały, że czasami wydaje się niemożliwe odróżnienie ich od prawdziwych filmów. A im trudniejsze staje się wykrycie fałszu, tym większe jest zagrożenie, że uchodzi za rzeczywistą i powoduje spustoszenie, do którego dąży.

DeepfakeŻadna z osób na tym zdjęciu nie jest prawdziwa. To fałszywi ludzie wygenerowani przez sztuczną inteligencję. (Źródło: https://thispersondoesnotexist.com/)

Sfałszowane filmy lub deepfake od dłuższego czasu są jedną z kluczowych broni używanych w bitwach propagandowych. Donald Trump szydzący z Belgii za pozostawanie w paryskim porozumieniu klimatycznym, David Beckham mówiący płynnie w dziewięciu językach, Mao Zedong śpiewający „Przeżyję” czy Jeff Bezos i Elon Musk w pilotażowym odcinku Star Trek… wszystkie te filmy stały się wirusowe, mimo że są fałszywe lub dlatego, że były deepfakes.







W zeszłym roku Marco Rubio, republikański senator z Florydy, powiedział, że deepfake są tak samo skuteczne w prowadzeniu wojen w demokracji, jak broń nuklearna. W dawnych czasach, jeśli chciałeś zagrozić Stanom Zjednoczonym, potrzebowałeś 10 lotniskowców, broni jądrowej i pocisków dalekiego zasięgu. Dziś wystarczy dostęp do naszego systemu internetowego, naszego systemu bankowego, naszej sieci elektrycznej i infrastruktury, a coraz częściej wszystko, czego potrzebujesz, to możliwość wyprodukowania bardzo realistycznego fałszywego filmu, który mógłby podważyć nasze wybory, który mógłby zrzucić nasz kraj w ogromny kryzys wewnętrzny i głęboko nas osłabiają, Forbes zacytował jego słowa.

Potencjalne niebezpieczeństwo deepfake polega na tym, że poziom manipulacji jest tak doskonały, że czasami wydaje się niemożliwe odróżnienie ich od prawdziwych filmów. A im trudniejsze staje się wykrycie fałszu, tym większe jest zagrożenie, że uchodzi za rzeczywistą i powoduje spustoszenie, do którego dąży. Ale czy dzięki bardziej wyrafinowanym narzędziom zasilanym przez sztuczną inteligencję, które są teraz dostępne do produkcji tych filmów, wykrywanie deepfake staje się coraz trudniejsze?



Czym są deepfake i jak powstają?

Deepfake to fałszywe treści — często w postaci filmów, ale także innych formatów multimedialnych, takich jak zdjęcia lub dźwięk — tworzone przy użyciu potężnych narzędzi sztucznej inteligencji. Nazywa się je deepfake, ponieważ wykorzystują technologię głębokiego uczenia, gałąź uczenia maszynowego, która stosuje symulację sieci neuronowej do ogromnych zbiorów danych w celu tworzenia fałszywych treści.

Wykorzystuje gałąź sztucznej inteligencji, w której jeśli komputer jest zasilany wystarczającą ilością danych, może generować podróbki, które zachowują się jak prawdziwa osoba. Na przykład sztuczna inteligencja może dowiedzieć się, jak wygląda twarz źródłowa, a następnie przenieść ją na inny cel, aby dokonać zamiany twarzy.



Zastosowanie technologii o nazwie Generative Adversarial Networks (GAN), która wykorzystuje dwa algorytmy sztucznej inteligencji — w których jeden generuje fałszywą treść, a drugi ocenia jej wysiłki, ucząc system, aby był lepszy — pomogło w opracowaniu dokładniejszych deepfake.

GAN może również wymyślić wygenerowane komputerowo obrazy fałszywych ludzi, które zostały wykorzystane przez stronę internetową o nazwie „Ta osoba nie istnieje”. To sprawia, że ​​praktycznie niemożliwe jest wykrycie, czy filmy lub obrazy, które oglądamy w Internecie, są prawdziwe czy fałszywe.



Deepfake mogą być naprawdę trudne do wykrycia. Na przykład wiele osób zakochało się w filmach Tiktok, na których Tom Cruise gra w golfa, które później okazały się być deepfake'ami.

Czy wykrywanie deepfake staje się coraz trudniejsze?

Artykuł przedstawiony na zimowej konferencji na temat zastosowań wizji komputerowej 2021 opisuje nową technikę, która sprawia, że ​​deepfake są bardziej niezawodne, co utrudnia wykrycie ich przez tradycyjne narzędzia.



Badanie, prowadzone przez Paartha Neekharę i Shehzeen Samarah Hussaina, doktorantów z Uniwersytetu Kalifornijskiego w San Diego, wykazało, że narzędzia do wykrywania można oszukać, umieszczając w każdej klatce wideo lekko zmanipulowane dane wejściowe zwane przykładami kontradyktoryjności.

doktoratPaarth Neekhara i Shehzeen Samarah Hussain, doktoranci Uniwersytetu Kalifornijskiego w San Diego, którzy kierowali badaniem. Neekhara jest studentką czwartego roku studiów doktoranckich na wydziale Informatyki, natomiast Hussain, również na czwartym roku studiów doktoranckich, jest studentką wydziału Inżynierii Elektrycznej i Komputerowej.

W artykule zatytułowanym „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Przykłady” można łatwo ominąć obecne najnowocześniejsze metody wykrywania deepfake, jeśli przeciwnik ma pełną lub nawet częściową wiedzę o wykrywaczu.



W rozmowie z indianexpress.com Neekhara i Hussain powiedzieli, że standardowe metody wykrywania mogą być dalekie od niezawodnych, ponieważ nie gwarantują wykrycia nowszych filmów typu deepfake syntetyzowanych przy użyciu nowych technik, których nie ma w zbiorze danych i są one podatne na wrogie dane wejściowe.

DOŁĄCZ TERAZ :Ekspresowy kanał telegramu z wyjaśnieniem

Wejścia przeciwstawne to nieznacznie zmodyfikowane dane wejściowe, które powodują, że głębokie sieci neuronowe popełniają błąd. Wykazano, że głębokie sieci neuronowe są podatne na takie dane wejściowe, które mogą powodować zmianę danych wyjściowych klasyfikatora. W naszej pracy pokazujemy, że atakujący może nieznacznie zmodyfikować każdą klatkę wideo typu deepfake, aby ominąć detektor deepfake i zostać sklasyfikowany jako prawdziwy.

DeepfakeKonkurencyjne przykłady dla zestawu danych FaceForensics++ zaprojektowanego przez zespół badawczy z Uniwersytetu Kalifornijskiego w San Diego w celu oszukania detektorów deepfake. ( https://adversarialdeepfakes.github.io/ )

Dodali: Atakujący może stworzyć małe, niezauważalne perturbacje kontradyktoryjne dla każdej klatki wideo typu deepfake, dodać je do klatki, a następnie połączyć wszystkie klatki wideo razem, aby stworzyć wideo adwersarza. W naszych eksperymentach z wykorzystaniem tych technik byliśmy w stanie uzyskać wskaźnik sukcesu (oszukania detektora) powyżej 90%.

Jakie zagrożenia stwarzają filmy typu deepfake?

Wraz z rozpowszechnianiem się filmów typu deepfake rośnie obawa, że ​​zostaną one wyposażone w broń do prowadzenia kampanii politycznych i mogą zostać wykorzystane przez autorytarne reżimy.

W 2019 r. organizacja badawcza o nazwie Future Advocacy i UK Artist Bill Posters stworzyła nagranie wideo, na którym premier Wielkiej Brytanii Boris Johnson i lider Partii Pracy Jeremy Corbyn popierają się wzajemnie na stanowisko premiera. Grupa stwierdziła, że ​​film został stworzony, aby pokazać potencjał deepfake'ów do podważania demokracji.

Również w zeszłym roku, przed sondażami zgromadzenia w Delhi, filmy wideo prezydenta Delhi BJP Manoja Tiwari przemawiającego po angielsku i Haryanviego stały się popularne. W tych filmach Tiwari krytykował Arvinda Kejriwala i prosił ludzi o głosowanie na BJP. Jak podała firma zajmująca się mediami cyfrowymi, Vice, później okazało się, że filmy, które udostępniono w ponad 5000 grup WhatsApp, są deepfake.

Deepfake są również powodem do niepokoju w czasie, gdy WHO stwierdziła, że ​​kryzys Covid-19 wywołał infodemię i miały miejsce celowe próby rozpowszechniania błędnych informacji w celu osłabienia reakcji zdrowia publicznego i rozwijania alternatywnych planów grup lub osób.

Co więcej, spreparowane filmy — które obejmują manipulowanie treścią poprzez użycie nieprawidłowej datownika lub lokalizacji, przycinanie treści w celu zmiany kontekstu, pomijanie, łączenie i fabrykowanie — są obecnie coraz częściej wykorzystywane w mediach społecznościowych do celowego przedstawiania faktów w celach politycznych. Większość z tych filmów nie jest przykładami deepfake'ów, ale pokazuje, jak łatwo można zaciemniać fakty i rozpowszechniać kłamstwa w oparciu o zmanipulowane treści podszywające się pod twarde dowody.

Innym poważnym problemem związanym z filmami typu deepfake jest generowanie treści pornograficznych, które nie są zgodne z przyzwoleniem. W 2017 r. użytkownik wdrożył algorytm zamiany twarzy w celu tworzenia deepfake pornograficznych filmów celebrytów, takich jak Scarlett Johansson, Gal Gadot, Kristen Bell i Michelle Obama, i udostępnił je w ramach zagrożenia Reddit o nazwie r/deepfake. Konto miało prawie 90 000 abonentów w momencie jego zamknięcia w lutym przyszłego roku.

Spośród tysięcy filmów typu deepfake w Internecie, ponad 90% to pornografia nieprzymusowa. Jednym z najbardziej przerażających eksperymentów AI w zeszłym roku była aplikacja o nazwie DeepNude, która rozbierała zdjęcia kobiet — mogła robić zdjęcia, a następnie zamieniać kobiece ubrania na bardzo realistyczne nagie ciała. Aplikacja została usunięta po silnym luzie.

Ponadto, jak powszechnie wiadomo, filmy deepfake są coraz częściej wykorzystywane do generowania pornografii zemsty przez odrzuconych kochanków w celu nękania kobiet.

Neekhara i Hussain powiedzieli portalowi indianexpress.com, że zagrożenie stwarzane przez filmy Deepfake jest już widoczne. Szkodliwi użytkownicy wykorzystują takie filmy do zniesławiania znanych osobistości, szerzenia dezinformacji, wpływania na wybory i polaryzowania ludzi. Dodali, że dzięki bardziej przekonującym i dostępnym technikom głębokiej syntezy wideo, zagrożenie to stało się jeszcze większe.

Czy szykuje się rozprawa?

Większość firm zajmujących się mediami społecznościowymi, takich jak Facebook i Twitter, zakazała korzystania z filmów typu deepfake. Powiedzieli, że jak tylko wykryją jakikolwiek film jako deepfake, zostanie on usunięty.

Facebook zwerbował badaczy z Berkeley, Oxfordu i innych instytucji do zbudowania detektora deepfake. W 2019 r. zorganizował Deepfake Detection Challenge we współpracy z liderami branży i ekspertami akademickimi, podczas którego stworzono i udostępniono unikalny zestaw danych składający się z ponad 100 000 filmów.

Jednak nie wszystkie deepfake można dokładnie wykryć, a ich znalezienie i usunięcie może zająć dużo czasu. Co więcej, wiele stron pornograficznych nie stosuje tego samego poziomu ograniczeń.

Neekhara i Hussain powiedzieli: Aby dokładniej wykrywać filmy z głębokimi fałszerstwami, potrzebujemy wyjątkowo solidnych modeli, włączając atakującego podczas trenowania takich modeli wykrywania fałszerstw. Długoterminowym rozwiązaniem jest znak wodny lub cyfrowe podpisywanie obrazów i filmów z przechwyconego urządzenia. Znak wodny lub podpis cyfrowy powinny zostać zakłócone, jeśli zostaną zastosowane techniki deepfake, takie jak zamiana twarzy. Detektor deepfake może wtedy po prostu zweryfikować podpis lub znak wodny. Wymagałoby to jednak ustanowienia standardu znaków wodnych we wszystkich aparatach i telefonach komórkowych. Dlatego może minąć trochę czasu, zanim stanie się to rzeczywistością.

Podziel Się Z Przyjaciółmi: