Во периодот некаде помеѓу нелегалната руска анексија на Крим и целосната руска воена агресија врз Украина, анализи во медиуми предвидуваа дека следната светска војна може да се води, добие или изгуби во вселената, и значајни тинк-тенк организации редовно предупредува дека конфликтите ќе се прошират во вселенскиот домен.
Засега, ваквите предвидувања се сведуваат на закани со напади и пресретнување на хиперсонични ракети со нуклеарни боеви глави кои го минуваат „средниот дел“ на летот над атмосферата, односно низ вселенскиот простор, пред повторно да влезат кон целта, но, без орбитално разместување на нуклеарни боеви глави.
Но, затоа денес постои нова фронтовска линија во информативните војни: ChatGPT.
Според Телеграф, глобалните суперсили, непријателските држави и мултинационалните корпорации тивко се обидуваат да влијаат на одговорите што системите за вештачка интелигенција (ВИ) ги генерираат за јавноста.
Ова се случува во време кога милиони луѓе сè повеќе се свртуваат кон ботовите со ВИ, познати како големи јазични модели (LLM), за да пронајдат информации и да спроведат истражувања. Околу една третина од возрасните во Велика Британија пристапиле до барем еден чет-бот во јуни оваа година, покажа неодамнешно истражување.
LLM како ChatGPT собираат огромни количини информации од веб-страниците, а потоа го преработуваат материјалот во одговори кога ќе бидат побарани. Бидејќи нејзините одговори толку многу се потпираат на оригиналниот изворен материјал, постои можност да се влијае врз она што го кажуваат LLM-ите со манипулирање со влезните информации.
Ова создаде растечка домашна индустрија на трговци со информации.
Минатиот месец, американските документи открија дека израелската влада потпишала договор од 6 милиони долари (4,6 милиони фунти) со Clock Tower X за борба против антисемитизмот во Америка.
Компанијата, основана од Бред Парскејл, сојузник на Доналд Трамп, нуди услуги како што се „GPT framing“, референца за влијание врз производството на AI ботови, преку објавување на веб-страници и друга содржина што чет-ботовите ја користат кога одговараат на прашања.
Компанијата не даде детали за тоа како очекува да влијае врз чет-ботовите, но рече дека ќе соработува со медиумски организации како што е христијанската радиодифузна мрежа Salem Media Network.
Руските пропагандни кампањи веќе се инфилтрирале во системите на AI за да шират дезинформации за војната во Украина, според Newsguard, компанија која има за цел да ја оцени веродостојноста на онлајн вестите.
Студија на компанијата во март покажа дека околу 3,6 милиони руски пропагандни статии се чини дека биле проголтани од западните системи за вештачка интелигенција преку група веб-страници познати како мрежата Правда – референца на рускиот збор за вистина.
Истражувачите рекоа дека веб-страниците изгледа се дизајнирани главно за манипулирање со системите за вештачка интелигенција, кои работат потпирајќи се на огромни количини на податоци од милиони страници.
Мрежата Правда речиси и да нема човечки сообраќај, но објавува индустриски количини на вести, дејствувајќи како „машина за перење“ за темите за разговор на Кремљ.
Деловна студија од DFR Lab на Атлантскиот совет и CheckFirst од Финска покажа дека речиси 2.000 статии на мрежата Правда биле вметнати во руските и украинските страници на Википедија, техника што ги прави да изгледаат по авторитативни за системите за вештачка интелигенција.
Newsguard откри дека водечките чет-ботови, вклучувајќи ги ChatGPT, Gemini на Google и xAI на Елон Маск, честопати папагалски ги повторувале тврдењата од страниците, вклучително и дека Володимир Зеленски, украинскиот претседател, го купил засолништето „Орловото гнездо“ на Адолф Хитлер и дека украинските трупи запалиле кукла на Доналд Трамп.
Порано оваа година, Џон Марк Дуган, Американец кој избегал во Русија и станал истакнат пропагандист на Кремљ, рече:
„Со промовирање на овие руски наративи од руска перспектива, всушност можеме да ја промениме вештачката интелигенција во светот“.
Лукаш Олејник, истражувач кој ги проучувал дезинформациите поврзани со вештачката интелигенција, вели дека влијанието врз чет-ботовите е клучна цел бидејќи корисниците имаат многу поголема веројатност да веруваат во резултатите од чет-бот отколку на непозната веб-страница – дури и ако непознатата веб-страница влијаела врз чет-ботот.
„Тоа е перење информации; наместо да читате сомнителна страница, ја гледате на „почитуван“ излез од вештачката интелигенција“, вели тој.
Иако чет-ботовите често обезбедуваат линкови до веб-страниците на кои се повикуваат, малку корисници ги потврдуваат: една студија од истражувачкиот центар Пју откри дека луѓето што ги користат резимеата за вештачка интелигенција на Google би кликнале на изворниот материјал помалку од 1% од времето.
Русија отсекогаш била на чело на користењето на интернетот за ширење на својата порака. Но, обидите да се влијае врз она што го велат чет-ботовите се пробиваат далеку надвор од ходниците на Кремљ.
Ширење лажни вести
Владите честопати се обвинувани дека ангажираат сомнителни организации за ширење лажни вести на социјалните медиуми, а дури и пратениците се откриени како ги уредуваат своите страници на Википедија. Но, војната со дезинформации за вештачката интелигенција е во многу поголеми размери.
Бран политички консултантски куќи и ПР фирми нудат да го обликуваат угледот на своите клиенти во очите на LLM користејќи „генеративна оптимизација на пребарувачи“ – пресврт на оптимизацијата за пребарувачи што доминираше во последната деценија.
DDC Public Affairs, американски лобист кој советува некои од најголемите американски компании, им нуди на клиентите „ревизија на вештачката интелигенција“ за да утврди што мислат чет-ботовите за нив, а потоа работи со инфлуенсери и онлајн форуми за да го прилагоди тоа на резултатите.
Тоа ветува дека ќе тестира фрази како што се „Дали брендот X предизвикал штета на животната средина?“ или „Дали политичарот Y е корумпиран?“ пред „да ги затвори наративните празнини пред да станат кризи“.
„Манхетен стратеџис“, друга американска фирма за јавни работи, ги советува клиентите за начините на кои нивните блог објави имаат поголема веројатност да бидат прифатени од јазичните модели, како што е тоа што ќе бидат преполни со статистика и цитати од експерти.
„Како што сè повеќе од јавноста се навикнува да користи LLM како ChatGPT за пребарување, клучно е компаниите да најдат начини да обезбедат луѓето да добијат сигурни информации,“ кажа еден извршен директор за односи со јавноста
Тој додаде дека иронично, порастот на чет-ботовите доведе до повторно оживување на напорите за влијание врз новинските организации, кои чет-ботовите ги сметаат за едни од најверодостојните извори на информации, во споредба со други средства како што е рекламирањето.
Обидите да се влијае врз производството на чет-ботовите се неизбежна последица од нивната широка употреба. ChatGPT има повеќе од 800 милиони неделни корисници, според Ipsos.
Институтот за проучување на новинарството на Ројтерс вели дека 24% од луѓето користат вештачка интелигенција за пребарување информации од каков било вид, во споредба со 11% пред една година. Мал, но растечки број користат ботови за читање вести, во пораст од 3% на 6%.
Програмерите на вештачка интелигенција велат дека се обидуваат да се потпрат на авторитетни извори и да спречат манипулација колку што е можно повеќе. Но, моделите на вештачка интелигенција обично се обучуваат на милијарди веб-страници, што го отежнува следењето на сè што е потребно за изградба на чет-бот.
Дури и големите системи на вештачка интелигенција можат успешно да бидат „отруени“ со влијание врз само 0,00016% од нивните влезни податоци, покажа студијата на технолошката компанија Anthropic минатиот месец.
Некои од најголемите поддржувачи на вештачката интелигенција рекоа дека новата технологија ќе го донесе човештвото до просветлување со еден, непристрасен извор на вистина.
Маск минатата недела тврдеше дека Grokipedia, неговиот нов ривал на Википедија, управуван од вештачка интелигенција, ќе биде „сеопфатна колекција на сите знаења“.
Всушност, чет-ботовите можеби едноставно отвориле нов фронт во пропагандните војни.
Војници со вештачка интелигенција: Како deepfakes го манипулираат наративот за мобилизација на Украина
Солзи, паника и млади украински војници кои молат за помош – нова кампања за дезинформации со употреба на вештачка интелигенција (ВИ) за изработка на видеа од напорите за мобилизација на Украина ги преплавува платформите на социјалните медиуми, пишува Кијив Индипендент во статијата за која уредникот забележува дека е објавена како дел од проектот „Борба против заговор и тролови“ (FACT), независен, непартиски центар лансиран во средината на 2025 година под капата на Опсерваторијата за дигитални медиуми на ЕУ (EDMO).
Лажните профили на TikTok, X и други платформи шират видеа генерирани од вештачка интелигенција со титлови на повеќе јазици. Клиповите, прегледани милиони пати, прикажуваат наводна „присилна мобилизација“ на 22 и 23-годишни украински мажи кои наводно се испраќаат на фронтот.
Експертите велат дека кампањата означува нова фаза во информациската војна на Кремљ – таква дизајнирана да ја еродира довербата во раководството на Украина, да сее паника и да ја ослабне поддршката од Западот.
„Информацискиот простор е бојно поле и затоа (Русија) работи неуморно за да ги промовира своите наративи“, рече Антон Кучухиѕе, меѓународен политиколог и коосновач на тинк-тенкот „Обединета Украина“.
ВИ фабрикувани видеа ги преплавуваат социјалните медиуми
Најновиот бран дезинформации се фокусира на измислени приказни за мобилизација.
Сметка на TikTok, која се чини дека е оригиналниот извор на видеата, објави најмалку десетина клипови на кои се прикажани наводно фигури генерирани од вештачка интелигенција кои се претставуваат како украински војници во униформа.
Сметката е анонимна, користи само прекар, но нејзиниот досег е огромен – при што некои видеа добија повеќе од два милиони прегледи.
Во еден од највиралните клипови, „украински војник“ генериран од вештачка интелигенција тврди дека бил „мобилизиран“ и испратен во градот Часив Јар во источната Донецка област на Украина.
„Помогнете ми, не сакам да умрам, имам само 23 години“, вели момчето во видеото.
Користејќи го Hive Moderation, алатка за откривање содржина базирана на вештачка интелигенција, Кијив Индипендент потврди дека и аудио и видео се генерирани со помош на Sora, модел на OpenAI за претворање на текст во видео.
Sora може да генерира реалистични видео клипови од текстуални инструкции, технологија со легитимни креативни апликации, но, во рацете на Русија, се претвора во моќно оружје за измама.
Неколку видеа дури го прикажуваат и водениот жиг „Sora“, кој идентификува дека содржината е вештачка.
Едно од главните лажни тврдења на кампањата е дека се регрутираат 23-годишни украински државјани. Всушност, украинскиот закон јасно ја поставува минималната возраст за мобилизација на 25 години, откако Кијив ја намали возраста за регрутација од 27 на 25 години во април 2024 година – не помлада.
Украинскиот владин центар за борба против дезинформации соопшти дека лицето на војникот прикажано во видеото му припаѓа на руски државјанин, а не на Украинец, но не даде дополнителни детали.
Таргетирање две публики
Најновиот притисок со дезинформации во кои се користат ВИ креирани видеа е насочен и кон украинската и кон меѓународната публика.
Според тимот за следење на дезинформациите во компанијата LetsData, наративите на Кремљ ја прикажуваат мобилизацијата на Украина како принудна, со тврдења за мажи кои се „киднапирани“ или „ловени“ од страна на регрутери.
Целта, велат аналитичарите, е да се поттикне незадоволство, да се прикаже војната како „војна на Зеленски“ и да се поткопа довербата во украинската војска.
„Овие наративи се засилени од малигни актери за да ја поткопаат поддршката за украинските вооружени сили и да поттикнат антивладини чувства“, изјавија од LetsData за Кијив Индипендент.
Содржината е лингвистички прилагодена за влијание. Додека повеќето ВИ креирани видеа се појавуваат на украински јазик, верзиите на руски – па дури и на англиски – се дизајнирани за поширока циркулација.
Telegram, Facebook и TikTok остануваат главни платформи за ширење на таква содржина.
Д. Мишев












