Kako Rusi zloupotrebljavaju AI u svrhe deepfake rata

Miloš Radovanović avatar

U poslednje vreme, društvene mreže su postale poligon za širenje dezinformacija, posebno u kontekstu rata u Ukrajini. Jedan od najzabrinjavajućih fenomena je korišćenje deepfake tehnologije, koja omogućava kreiranje lažnih video sadržaja koji izgledaju neverovatno uverljivo. Ova tehnologija je dovela do viralnih snimaka koji prikazuju ukrajinske vojnike u dramatičnim situacijama, često u suzama, što izaziva sažaljenje i paniku među publikom.

U jednom od najpoznatijih slučajeva, video snimak prikazuje mladog ukrajinskog vojnika kako plače i viče: „Mama, neću da umrem, mobilisali su me“. Na prvi pogled, snimak izgleda autentično, sa prljavom uniformom i izrazom straha na licu vojnika. Međutim, ispostavlja se da je ovaj snimak rezultat sofisticirane manipulacije. Prema izveštaju kompanije Sensity AI, koja analizira deepfake sadržaje, ovakvi snimci su postali uobičajeni, a njihova svrha je da prikažu ukrajinsku vojsku kao poraženu i nesposobnu.

Deepfake video snimci nisu novi fenomen, ali su u poslednjim mesecima postali sve prisutniji. Prvi veliki talas ovakvih videa dogodio se u martu 2022. godine, kada su hakeri provalili na sajt ukrajinske televizije i pustili lažni snimak predsednika Zelenskog koji je tvrdio da je vojska poražena. Ovaj snimak, iako brzo uklonjen, izazvao je paniku među građanima i bio je jedan od prvih ozbiljnih pokušaja dezinformisanja u ratu.

Kako je konflikt napredovao, tako su i tehnike stvaranja deepfake sadržaja postajale sve sofisticiranije. U novembru 2023. godine, pojavljuje se video sa vrhovnim komandantom ukrajinske vojske, Valerijem Zalužnim, koji poziva vojnike da ne slušaju naređenja predsednika Zelenskog. Ovaj snimak je bio bolje urađen, a tehnologija je omogućila prirodnije pokrete i manje grešaka, što je dodatno otežalo identifikaciju lažnog sadržaja.

U 2025. godini, kada je OpenAI predstavio alat za generisanje video sadržaja, deepfake snimci su postali industrijski. Pojavile su se serije lažnih snimaka ukrajinskih vojnika koji plaču i mole za pomoć. Jedan od najviralnijih prikazuje vojnika kako jecajući govori da ne želi da umre, a slični snimci često se koriste za stvaranje panike i gubitka poverenja u ukrajinsku vojsku.

Analiza ovih snimaka pokazuje da se u njima koriste tehnike kao što je face-swap, pri čemu se lice nekog stvarnog čoveka kombinuje sa telom vojnika u uniformi. Na taj način, stvara se utisak autentičnosti, dok se sintetički generiše glas koji izgovara napisani tekst. Ovi snimci se najpre objavljuju na anonimnim nalozima na TikToku i Telegramu, a zatim se šire na druge platforme poput X, Instagrama i Fejsbuka.

Sensity AI identifikovao je sistem generisanja ovih snimaka, koji se fokusiraju na trenutne događaje i sukobe, kao što su borbe za Pokrovsk ili Bahmut. Ovo ne samo da stvara strah, već i sumnju među ljudima, što vodi do opšteg gubitka poverenja u sve informacije.

Ukrajinske vlasti, svesne opasnosti ovih tehnika, preduzimaju mere kako bi se borile protiv dezinformacija. Centar za suzbijanje dezinformacija, uz pomoć fakt-čekera, brzo reaguje na lažne snimke, ali često je borba nerazmerna. Dok se proverava autentičnost nekog snimka, on već može imati stotine hiljada pregleda, čime se širi lažna percepcija i dovodi do dodatnog straha među građanima.

U svetlu ovih događaja, postavlja se pitanje: koliko će trajati poverenje ljudi u informacije koje primaju? U eri gde je tehnologija sposobna da generiše savršene laži, važno je ostati kritičan i obazriv prema sadržaju koji se deli na mrežama.

Miloš Radovanović avatar