Светът се раздира от противоречия и хората вярват на източниците, които изглеждат „безспорни”. Но кои са наистина безспорни? Днес с помощта на технологиите могат да се изфабрикуват убедителни доказателства за сцени, които никога не са се случвали. Знаменитости се явяват в света на порнографията, а политици участват във видеоклипове с твърдения, които никога не са изричали – и които могат да разпалят глобални конфликти.
Притесненията за „дълбоките фейкове” (майсторски фалшификации) доведоха до увеличаване на опитите за противодействие. По-рано тази година платформите за социални медии като Facebook и Twitter забраниха подобно съдържание в своите мрежи. Конференциите за компютърни и графични технологии са изпълнени с презентации, описващи методи за защита срещу „дълбоките фейкове”.
Какво е „дълбок фейк”?
Технологията може безпроблемно да вгради всеки образ от света във видео или снимка, в която всъщност този образ никога не е участвал. Подобни способности съществуват от десетилетия – така покойният актьор Пол Уокър беше възкресен за „Бързи и яростни” 7.
За създаването на подобни ефекти традиционно се използва цяло студио, пълно с експерти, и то цяла година. Но технологиите за майсторски фалшификации постоянно се усъвършенстват, алгоритмите се подобряват. Намесата на машинното самообучение и изкуствения интелект ускорява процеса. Сега могат да се синтезират изображения и видеоклипове много по-бързо.
Не на последно място трябва да се има предвид и фактът, че една ловка визуална измама може да бъде създадена дори с обикновени средства за видеоредактиране. С базови умения по видео-обработка един находчив младеж може да изреже откъси от, да речем, реч на политик – и после да ги сглоби така, че да излезе нещо, което никога не е изричано…
Как се създават „дълбоки фейкове”?
Основната съставка на този род фалшификации е машинното самообучение. То направи възможно производството на „дълбоките фейкове” много по-бързо на по-ниска цена.
За да направи фалшиво видео с някого, създателят първо би обучил невронна мрежа с помощта на много часове реални видео-кадри на човека. Така на изкуствения разум се дава реалистично „разбиране” за това как изглежда човекът – от много ъгли и при различно осветление. Тогава следва да се комбинира обучената мрежа с компютърно-графични техники, за да се „проектира” копие на човека върху друг актьор.
Макар че добавянето на AI прави процеса по-бърз, отколкото е бил преди, все пак е нужно време да се прецизира измислената ситуация. Създателят на фалшификата също така трябва ръчно да настрои много от параметрите на обучената програма, за да избегне издайнически несъответствия и артефакти в изображението.
Много хора приемат, че един специфичен клас алгоритми за дълбоко обучение, наречени генеративни състезателни мрежи (GAN), са основният двигател за развитието на майсторските фалшификации – и ще останат такъв и в бъдеще. Генерираните по този начин лица са почти неразличими от реалните.
Въпреки това вниманието, което се обръща на тази конкретна техника, е прекомерно, казва Сивей Лю от SUNY Buffalo. „Повечето измамни видеоклипове днес се генерират от алгоритми, в които GAN не играят важна роля”, коментира той пред Spectrum изданието на IEEE. Има достатъчно примери, че огромното множество от днешните „дълбоки фейкове” се правят с помощта на най-разнообразни инструменти.
Кой създава измамите?
Най-впечатляващите примери за майсторските фалшификации са склонни да излизат от университетски лаборатории и стартъпи. Едно популярно видео, показващо футболната звезда Дейвид Бекъм да говори свободно на девет езика (само един от които той всъщност говори), е разработен в Техническия Университет в Мюнхен, Германия.
Изследователите от Масачузетския технологичен институт са автори на смайващо видео на бившия президент на САЩ Ричард Никсън, където той произнася „резервната реч”, подготвена за пред нацията в случай, че мисията Аполо 11 се провали.
Но не тези измами притесняват правителствата и академиците. Не е задължително „дълбокият фейк” да е лабораторен или изработен с високи технологии, за да има разрушителен ефект върху социалната тъкан.
Всъщност, тези измами носят името си от експеримент, създаден през 2017 г. от потребител на Reddit, наричащ себе си „r / deepfakes”, който използва библиотеката с отворен код на Google, за да сменя лица на порно-изпълнители с такива на известни актриси. Кодовете вътре в „направи си сам” фалшификатите, които се разпространяват свободно днес, произхождат най-вече от този оригинален код.
Независимо от всичко това майсторските фалшификации остават притеснителни. „Технологиите постоянно се подобряват”, казва Хани Фарид, експерт по дигитална криминалистика в Калифорнийския университет в Бъркли.
В изследователската общност няма консенсус относно това кога техниките за изработване на подобни трикове ще станат достатъчно усъвършенствани, за да представляват истинска заплаха. Прогнозите варират от 2 до 10 години.
Но в крайна сметка експертите са съгласни, че не след дълго всеки ще може да изтегли приложение на своя смартфон и да създаде реалистични измами с участието на всеки друг.
За какво се използват?
Най-ясната заплаха, която в момента представляват дълбоките фейкове, е за жените. Порнографията с участието на нищо неподозиращи жени представлява 96 процента от „дълбоките фейкове”, които понастоящем се въртят в интернет.
Някои от тях експлоатират образите на знаменитости, но все по-голям е броят на фалшиви видеоклипове с участието на „обикновени” жени – това са клипове, изработени като форма на отмъщение, казва Хенри Айдер, ръководител на научноизследователската дейност в детективската фирма Deeptrace от Амстердам.
Но жените са само началото. „Дълбоките фейкове” са на път да станат средство за тормоз във всички области – в училищата, на работното място, въобще навсякъде. Всички ситуации, при които някой може да бъде поставен в нелепи, опасни или компрометиращи сценарии, са мислими.
Корпоративните измами са на път да се превърнат в цяла категория в света на майсторските фалшификации. Налице са немалко потвърдени случаи на фалшиви записи, използвани от измамници, където служители на големи фирми биват „убеждавани” от „изпълнителния директор” да изпращат пари на дадени получатели.
Проблемите при този вид технология
Изнудването също може да се превърне в чест случай. Измамите с идентичността също ще са голяма категория в света на „deepfake”: този метод скоро може да стане любим за извършване на измамни онлайн плащания и хакване на лични банкови услуги, особено с настъплението на технологиите за лицево разпознаване.
На ниво политика „дълбоките измами” обещават да са мощно оръжие. Ако някой може да направи така, щото една филмова знаменитост да се „появи” в порно-филм, същото може да се направи и с политик, който се кандидатира за избори. Народните нагласи и морал са лесно манипулируеми, достатъчно е да покажеш политик в сцена с голяма оргия – авторитетът му е вече сринат неспасяемо.
Несигурността при тези „дълбоки фейкове” представлява също толкова голяма опасност, колкото са и самите фалшиви снимки и видеоклипове. Наличието на подобен род измами може да бъде използвано за оправдание за какво ли не.
„Дълбок фейк” се оказва удобно прикритие за всеки, който прави каквото си поиска, защото може да отхвърли всякакви доказателства за неправомерни действия, обявявайки ги именно за „дълбок фейк”.