Dipfejkovi i rizici od sve veće upotrebe video prevara

Slika kreirana pomoću Canva.

Pre otprilike šest godina pisao sam o novom „virusu“ za novinarstvo. Uprkos činjenici da je prošlo nekoliko godina, još uvek ne postoji „antivirus“ protiv dipfejka (duboka obmana prim.prev.), čija je izrada napredna i usavršena, a poslednji korak je pojednostavljenje procesa proizvodnje ovih lažnih video zapisa. Do sada je postojala potreba za određenim veštinama u korišćenju specifičnih programa za proizvodnju dipfejka. Razvoj novih aplikacija zasnovanih na veštačkoj inteligenciji, ali lakših za korišćenje, dovodi do masovne proizvodnje dipfejka. Na poslednjim predsedničkim izborima u Sjedinjenim Američkim Državama bilo je više „jeftinih lažnih vesti” nego „dipfejkova” — glavni razlog je bio taj što se jeftine laži lako proizvode i svako to može da uradi. Sada ovo postaje moguće za dipfejk pošto ga je tako lako proizvesti, nije potrebno mnogo ubeđivanja i kalkulacija da se kaže da će u važnim društvenim procesima, kao što su izbori, duboke lažne stvari biti glavni rizik u svetu informacija sada kada manipulacija postaje sve izvodljivija, u tehnološkom smislu.

Dipfejks su lažni vizuelni sadržaj zasnovan na veštačkoj inteligenciji u kojem je stvarna osoba predstavljena kako govori ili radi nešto što nikada nije uradila. U godinama svog postojanja, dipfejkovi su se proizvodili za zabavu, a drugi za podizanje svesti, ali ima i slučajeva da je manipulacija društvom putem dipfejka usmerena na političke ili ekonomske motive.

Sve je lakše proizvesti dipfejk, što čini podizanje svesti o njima u društvu hitnim. Nedavni primer u regionu Balkana je erotski video koji imitira poznatu albansku TV voditeljku Luanu Vjolcu, stavljajući njeno lice na drugo telo uz korišćenje veštačke inteligencije. Albanski novinar Blendi Fevziu objavio je dipfejk video o sebi radi podizanja svesti, gde se pojavljuje i govori kineski, arapski, ruski i portugalski. Imali smo i druge dipfejk video snimke objavljene u regionu tokom 2022. godine, poput onog gde Ilon Mask govori na albanskom ili srpskom.

Ovo su primeri koji pokazuju da je stvaranje dipfejka mnogo lakše sada nego pre nekoliko godina. Ako se sočivo analize proširi van regiona, onda je viralni dipfejk bio onaj čuvene američke manekenke Bele Hadid, u kojem je izgledalo da podržava akcije Izraela u ratu protiv Hamasa, što ona nije potvrdila. Hadidin dipfejk je imaao preko 28 miliona pregleda na X (ranije Twitter). Razvoj tehnologije i jednostavnih programa zasnovanih na veštačkoj inteligenciji stvara još jednu pretnju istini.

Sada je istina na ivici „smrti“ jer će, sa porastom dipfejkova, biti sve teže razumeti šta je istina. S obzirom na krizu kredibiliteta medija, novinarstvo će u bliskoj budućnosti biti još više izazvano. Ipak, sve ovo se najbolje može boriti profesionalnim novinarstvom, novinarstvom koje se pridržava profesionalnih standarda i koje stavlja javni interes na prvo mesto. U suprotnom, senzacionalističko i klikovačko novinarstvo samo će podstaći još veće nepoverenje prema medijima i navesti građane da se osećaju nesigurno u informacijama koje dobijaju, stvarajući prostor za druge aktere u informacionom okruženju. U ovoj situaciji uvek imaju koristi oni koji vole da operišu u magli, da profitiraju makijavelističkim pristupom, ne razmišljajući o šteti koja je naneta društvu.

Popularizacija dipfejka kao rezultat razvoja programiranja zasnovanog na veštačkoj inteligenciji otvara novo poglavlje u cirkulaciji informacija i komunikacija, bilo za pošiljaoca ili primaoca informacija. Zbog ovog brzog i veoma važnog razvoja, potrebno je uložiti napore da metoda verifikacije bude jednostavnija i brža nego što je sada.

Trenutno postoje neki programi koji pomažu da se otkrije ovaj fenomen koji vas tera da nesvesno živite u lažnoj stvarnosti, kao što su FakeCatcher i Sentinel, ali još uvek nema otvorenih alata koji bi bili dostupni svima za korišćenje, besplatno. Takođe, važno je da su metode detekcije napredne kako bi se išlo u korak sa napretkom dipfejka, jer se tehnologija koja olakšava proizvodnju dipfejka razvija velikom brzinom. Trenutno ove platforme ne detektuju audio manipulacije, važan element u audiovizuelnim manipulacijama, jer već postoje slučajevi kada je slika stvarna, a zvuk generiše veštačka inteligencija.

Poznavanje dipfejka i svest o ovom fenomenu pomaže društvu da bude kritičnije prema bilo kom video snimku kojem je izloženo. Alati za otkrivanje dezinformacija su važni, ali suzbijanje dezinformacija takođe zahteva veliku posvećenost pojedinaca i organizacija civilnog društva kako bi društvo postalo svesno o postojanju i implikacijama dipfejka u svakodnevnom životu.

S druge strane, novi pravni okvir za dipfejk nije neophodan jer već postoje zakoni koji regulišu sadržaj koji ima za cilj da obmane, okleveta ili nanese štetu pojedincima, preduzećima ili društvu u celini. Međutim, zbog brzine njihove distribucije, viralizacije i potencijalne štete, važno je dati prioritet dipfejku.

Započnite razgovor

Molimo Vas da se Prijavite se »

Pravila korišćenja

  • Svi komentari se pregledaju. Pošaljite komentar samo jednom jer bi u suprotnom mogao biti prepoznat kao spam.
  • Molimo Vas da se prema drugima odnosite sa poštovanjem. Komentari koji sadrže govor mržnje, nepristojne izreke i lične uvrede neće biti objavljeni.