Deepfakes, nowa forma cyfrowej manipulacji

Łatwiej jest uwierzyć w to, co widzisz, niż w to, co Ci się mówi. Z tego powodu „deepfakes” są w stanie wykorzystać Twoją łatwowierność i niewinność.
Deepfakes, nowa forma cyfrowej manipulacji

Ostatnia aktualizacja: 20 października, 2021

Wygląda jak czary, ale tak nie jest. W rzeczywistości jest to czysta inżynieria przyszłości, urządzenie sztucznej inteligencji godne włączenia do książek Arthura C. Clarke’a. Deepfake to te filmy, które są cyfrowo modyfikowane i umożliwiają zmianę twarzy jednej osoby na drugą. Rezultat jest tak doskonały, że możesz zobrazować każdego, kto mówi lub robi coś, czego nigdy nie powiedział ani nie zrobił.

Większość korzysta z tego źródła do żartowania z przyjaciółmi i rodziną. W końcu kto nie przybrał twarzy do twarzy celebryty takiej jak Lady Gaga, Leonardo DiCaprio, Captain America i Scarlett Johansson itp. I to w taki sposób, że nagle czujesz jakbyś tańczył w teledysku lub grał w jakimś filmie.

Jednak ta technologia może być wykorzystywana zarówno do celów nieszkodliwych, jak i przestępczych. Przykładem tego ostatniego jest Raffaela Spone, 50-letnia kobieta mieszkająca w miasteczku w Pensylwanii. Ta gospodyni domowa rozpoczęła kampanię oszczerstw przeciwko trzem członkom drużyny cheerleaderek jej córki. Stworzyła obciążające fałszywe wizerunki dziewcząt i rozpowszechniała je.

Pani Spone została aresztowana i oskarżona o cyberprzemoc wobec nieletnich. Jej zmanipulowane zdjęcia były dystrybuowane przez szkołę i sieci społecznościowe. Jednak na szczęście policja wiedziała, że zostały stworzone przy użyciu technologii sztucznej inteligencji.

Innym przykładem jest film Obamy, który krążył na YouTube, w którym powiedział, że Donald Trump był idiotą. Wywołało to wielkie kontrowersje medialne. W rzeczywistości to nie była prawda, ale eksperyment Uniwersytetu Waszyngtońskiego. Wykazał jednak efekty, jakie może wywołać manipulacja filmami za pomocą algorytmu sztucznej inteligencji.

dziewczyna z liczbami binarnymi symbolizującymi deepfakes

Deepfake i znaczenie krytycznego myślenia

Deepfake są w modzie. Umieszczenie twarzy jednej osoby na ciele drugiej, aby coś powiedzieć lub zrobić, jest naprawdę bardzo pomysłowe. Miejska legenda mówi, że jeśli trzy razy wypowiesz słowo deepfake, pojawi się Tom Cruise.

Jednak University of Victoria (Kanada), Nottingham Trent University (Wielka Brytania) i LUISS Guido Carli University (Włochy) przeprowadziły badania, które twierdzą, że manipulacja fotografią jest czymś, co robi się od XIX wieku.

Niemniej jednak pojawienie się deepfake’ów oznaczało punkt zwrotny w tym zjawisku. Ponieważ w wielu przypadkach są one wykorzystywane do celów przestępczych, takich jak pornografia, fałszywe wiadomości i oszustwa finansowe. W rzeczywistości problem stał się tak poważny, że nowe przepisy mają zostać wprowadzone w niedalekiej przyszłości.

W epoce cyfrowej oszustwo, czy to poprzez fałszywe wiadomości, czy obrazy, jest na porządku dziennym. Co więcej, jego wpływ społeczny jest ogromny. Dlatego musimy być przygotowani na wykrycie tych manipulacyjnych urządzeń.

Kiedy obraz ma więcej mocy niż słowa (i prawda)

Łatwiej jest uwierzyć w to, co widzisz, niż w to, co Ci się mówi. Deepfake zmieniają prawdę, manipulując dokumentami wizualnymi. Jeden przykład miał miejsce w Wenecji podczas pandemii. Opublikowano obrazy czarnych łabędzi spokojnie poruszających się po wodzie kanałów.

Widzieliśmy też ryby o dziwnych kształtach na zalanych ulicach. Jednak nic z tego nie było prawdą. Łabędzie były wytworem sztucznej inteligencji. Rzeczywiście, w świecie dezinformacji deepfake są świetnym sprzymierzeńcem.

Treści pornograficzne i deepfake

Technologia Deepfake jest często wykorzystywana jako środek nękania i zemsty. W przypadku tego rodzaju zachowań, co może być lepszego niż tworzenie filmów pornograficznych? Ludzie po prostu wybierają klip i umieszczają na nim twarz kogo tylko chcą.

Potem przychodzi następny krok, dystrybucja. Filmy pornograficzne tworzone za pomocą technologii deepfake są wykorzystywane w szkole i pracy. To bardzo skuteczna forma nękania.

Hakowanie rzeczywistości

Deepfake pojawiły się w 2007 roku, na krótko przed tym, jak fałszywe wiadomości stały się na porządku dziennym. Obecnie wszystkie te trendy hakują i manipulują naszą rzeczywistością. Są używane w kampaniach oszczerstw w celu atakowania osób publicznych. Co więcej, według publikacji w Crime Science Journal, deepfake do celów kryminalnych pociąga za sobą ogromne sumy pieniędzy każdego roku.

Szacuje się, że w Internecie może krążyć obecnie ponad 50 000 deepfake’ów. Co więcej, wielu z nich uwiarygadniamy.

kobieta oglądająca deepfake

Co możemy zrobić z tego typu technologią?

Kraje takie jak Chiny zakazały używania tego typu sztucznej inteligencji. Ponadto Facebook utworzył fundusz o wartości ponad dziesięciu milionów dolarów z zamiarem generowania narzędzi chroniących ludność przed ich niewłaściwym wykorzystaniem. Microsoft na przykład proponuje, abyśmy wykorzystali jego Video Authenticator, aby dowiedzieć się, czy wideo lub obraz zostały zmanipulowane.

Na ten temat mamy dwie uwagi końcowe. Po pierwsze, nigdy nie należy uciekać się do tego typu technologii w celu nękania lub zemsty. Po drugie, musisz rozwinąć umiejętność krytycznego myślenia, aby podejść do tego rodzaju wiadomości. Ponieważ w świecie, w którym rzeczywistość jest coraz bardziej manipulowana, tylko filtr ostrożności może cię ochronić…

To może Cię zainteresować ...
Pięć najlepszych filmów Larsa von Triera
Piękno umysłu
Przeczytaj na Piękno umysłu
Pięć najlepszych filmów Larsa von Triera

Lars von Trier lubi imponować i szokować swoimi filmami. W tym artykule omawiamy pięć jego najlepszych filmów i wyjaśniamy, dlaczego warto je obejr...



  • Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
  • Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). “Deepfakes: Trick or treat?”. Business Horizons63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
  • Roose, Kevin (4 March 2018). “Here Come the Fake Videos, Too”. The New York Times. ISSN 0362-4331