Войната може би не е най-доброто време да си припомним леко забравената deepfake технология, която шокираше мнозина преди само няколко месеца. Съществуването й продължава да предизвиква смесени мнения, но при толкова други проблеми в световен мащаб, тя като че ли се беше сбутала в ъгъла, очаквайки едни по-добри времена. Но както знаем, нищо не е такова, каквото изглежда (този път в буквалния смисъл на думата) и за съжаление съвсем наскоро получихме горчиво напомняме, че не можем да се отървем от “призраците” и че по време на война всички методи са позволени. Миналата седмица, в Twitter се появи видео, създадено чрез deepfake, в което привидно руският президент Владимир Путин обявяваше мир. Междувременно, Meta и YouTube свалиха фалшиво видео на украинския президент, който съобщава за края на войната. Неубедителният фалшификат на президента Зеленски беше осмиван от много украинци: “гениите” зад фалшивото видео явно доста са бързали, защото изкуствено модифицираният глас е прекалено дълбок, а изображението е прекалено пиксализирано. Освен това посланието не е чак толкова провокативно – фалшивият герой призовава украинците просто да свалят оръжието си. Видеото първо се разпространи чрез хакнат сайт на украинската телевизионна мрежа „Украина 24“, а след това беше широко разпространено в рускоезичния Telegram и еквивалента на Facebook VK. Оттам то си проправи път към платформи като Facebook, Instagram и Twitter. Самият Зеленски нарече нелепият опит “детска провокация”.

Украинският център за стратегически комуникации обаче предупреди, че руското правителство може да използва подобни техники, за да принуди някои украинци да се предадат. Според Нина Шик, автор на книгата Deepfakes, бързите реакции на Meta и YouTube са един вид “победа” за социалните медии. Тя също набляга на това, че качеството на видеото наистина е било аматьорско, но напомня, че „хората започват да вярват, че всичко може да бъде фалшифицирано“ и че „това е ново оръжие и мощна форма на визуална дезинформация – и всеки може да го направи.“ Това отново повдига проблема, че не всички имат средствата, с които да откриват и развенчават фалшификатите. А следващият deepfake може да не е с толкова лошо качество и въпросът какво ще се случи тогава започва да се прокрадва все по-често.

Снимки: Unsplash/YouTube/Ukrayina 24

Виж още: Ще ни превземат ли машините?



Източник