Руската пропаганда продолжува со несмален интензитет со неуспешните и тривијални обиди за дискредитирање на украинскиот претседател Володимир Зеленски.
Во најновото „креативно остварување“ на руските пропагандисти, на социјалните мрежи кружи дипфејк видео од лажен ТикТок профил на кое украинскиот претседател Володимир Зеленски е прикажан како во непознат локал изведува ориентален танц облечен во костим на танчар, со коментар на руски јазик: Вова (скратено од Володимир) талентиран човек.
Оригиналното видеото кое станало вирално на 23 октомври 2023 година, и се однесува на настан кој се случил на приватна, најверојатно роденденска забава, кој датира од 2020 година, што може да се прочита на екранот во позадина.
ОВА Е ОРИГИНАЛНОТО ВИДЕО СО СОСЕМА ПОИНАКОВ ЛИК:
Во лажното видео, руските пропагандисти со „deep fake“ технологија врз телото од танчарот ја додале главата на украинскиот претседател, по што истото се споделува на социјалните мрежи.
Тоа што е толку очигледно дека видеото е лажно, не им пречи на корисниците за кои и е наменето, па на видеото на Инстаграм, објавено на 1 јануари, досега има 226 лајкови и над 40 коментари, на руски јазик, се разбира.
Ваквите дезинформации и лаги на руската пропаганда имаат за цел да го дискредитираат украинскиот претседател и да го прикажат како некомпетентен за водење на државата, особено во услови на неоправданата руска целосна агресија врз Украина.
Сепак, лагите на руската пропаганда имаат краток рок на траење и ограничено влијание, очигледно успеваат само кај сопствените граѓани кои се држат во медиумска изолација од реалноста.
Претходни пропагандни манипулации
Ова не е прв пат руските пропагандисти да користат „дип фејк“ технологија за дискредитација на украинскиот претседател. Предходно, Цивил Медиа разобличи и други лажни тврдења на руската пропаганда која се користи со оваа технологија.
Руските пропагандисти претходно креираа кратка видео манипулација во која се прикажува украинскиот претседател Зеленски како наводно разговара со неколку луѓе преку видео повик, вклучувајќи го и основачот и извршен директор на Tesla и сопственик на SpaceX, Илон Маск, додека на неговата маса „има кокаин и кредитна картичка“. Од оригиналната снимка објавена на ЈуТуб јасно се гледа дека се работи за манипулација, односно дека во кадарот нема недозволени супстанции.
Што е „дип фејк“ технологија и каде се користи?
Според описот на Википедија, дипфејкс или „порманто“ се синтетички или персонализирани снимки, во кои личноста на веќе постоечка слика или видео се заменува со друга личност. Терминот „deepfake“ е комбинација од два збора – (deep learning) длабоко учење и (fake) лажен. Длабокото учење е форма на вештачка интелигенција (artificial intelligence) АИ која користи големи збирки податоци за да се научи сам да го реши проблемот. Во случај на deepfakes, измамниците користат вештачка интелигенција за да создадат лажни видеа со вистински изглед со замена на лица во видео.
Постојат многу примери на длабоки фејкови достапни на интернет денес. Едно од најпознатите дип фејк видеа е она во кое наводно Џон Сноу се извинува за разочарувачкиот крај на „Игра на тронови“ или видеото во кое основачот на Фејсбук, Марк Закерберг „се фали“ дека има контрола над „украдените податоци“ на милијарди луѓе.
„Дип фејк“ технологијата не е нова и се користела за манипулација во многу сфери. Досега најчесто се користелaво филмови, детска порнографија, секс скандали со познати личности, одмазднички видеа, лажни вести, измами, малтретирање и финансиска измама…
„Дипфејк“ технологијата може да се користи за правење било што, од гласовни клонови до создавање фотографии од луѓе од нула. Дипфејк аудиото се користи и за да се направат поубедливи видеа.
За што се користат „дип фејкс“?
Deepfakes веќе се користат во индустријата за правење филмови. Се користеше за вметнување на младото лице на Харисон Форд на лицето на Хан Соло во Star wars. Но, може да се користи и за измама на луѓе и лажно претставување на политичарите. Во 2018 година, една белгиска политичка партија објави видео од Доналд Трамп во кое ја повикува Белгија да се повлече од Парискиот климатски договор. Трамп никогаш не го одржа тој говор – тоа беше длабок фејк.
Истата година, Џордан Пил соработуваше со Buzzfeed за да создаде длабок фејк на поранешниот американски претседател Барак Обама во гласот на Пил за да ја подигне свеста за длабоките фејкови.
Иако ова се релативно безопасни употреби, лажните „дип фејк“ видеа како тоа со украинскиот претседател Зеленкси можат да соборат влади и да предизвикаат војни.
Како да препознаета „длабоки фејкови“?
Полесно се забележуваат дипфејк видеа со слаб квалитет. Во лажните видеа ќе забележите неприродно трепкање, лошо синхронизирање на усните, проблеми со косата, кожата или лицето или замаглување по линијата каде што е вметната сликата.
Кога станува збор за медиуми манипулирани со вештачка интелигенција, не постои единствен знак за тоа како да се забележи лажното видео. Сепак, постојат неколку артефакти на DeepFake на кои можете да внимавате.
Обрнете внимание на лицето. Високите манипулации со DeepFake се речиси секогаш трансформации на лицето.
Обрнете внимание на образите и челото. Дали кожата изгледа премногу мазна или премногу збрчкана? Дали стареењето на кожата е слично на стареењето на косата и очите? DeepFakes може да се несогласни за некои димензии.
Обрнете внимание на очите и веѓите. Дали сенките се појавуваат на места што би ги очекувале? DeepFakes може да не успее целосно да ја претстави природната физика на сцената.
Обрнете внимание на очилата. Дали има отсјај? Дали има премногу отсјај? Дали аголот на отсјај се менува кога лицето се движи? Уште еднаш, DeepFakes може да не успее целосно да ја претстави природната физика на осветлувањето.
Обрнете внимание на влакната на лицето или недостатокот од нив. Дали брадата на лицето изгледа реално? DeepFakes може да додаде или отстрани мустаќи, бакенбари или брада. Но, DeepFakes може да не ги направи целосно природни трансформациите на влакната на лицето.
Обрнете внимание на бенките на лицето. Дали тие изгледаат реално?
Обрнете внимание на трепкањето. Дали лицето трепка доволно или премногу?
Обрнете внимание на движењата на усните. Некои длабоки фејкови се засноваат на синхронизација на усните. Дали движењата на усните изгледаат природно?
Овие осум прашања се наменети да им помогнат на луѓето да гледаат низ DeepFakes. Висококвалитетните DeepFakes не се лесно да се препознаат, но со пракса, луѓето можат да изградат интуиција за да идентификуваат што е лажно, а што е реално. Технолошките компании како Мета, Мајкрософт, Гугл и Твитер исто така користат алгоритми засновани на вештачка интелигенција за воочување на фалсификати.
Драган Мишев / ЦМТ