Какво е дийпфейк?
Виждали ли сте Барак Обама да нарича Доналд Тръмп „пълен провал“ или Зукърбърг да се хвали, че има „пълен контрол върху откраднатите лични данни на милиарди хора“ или сте ставали свидетел на видео, в което Джон Сноу се извинява за мрачния завършек на Игра на Тронове? Ако отговорът на всички тези въпроси е „да“, то със сигурност сте гледали т.нар. „дийпфейк видео“.
Дийпфейк (deepfake) е технология, която използва форма на изкуствен интелект съчетана с дълбоко машинно обучение, служеща за създаването на видео клипове и аудио записи с хора и лица, които казват неща или вършат действия, които никога не са казвали или правили реално. Искате ли да поставите неизречени думи в устата на някой политик, да вземете роля в любимия си филм или да танцувате като професионалист? Ако отговорът е да, то тогава е време да се запознаете с това какво по-конкретно представлява дийпфейк.
За какво служи?
Голяма част от приложенията на дийпфейк технологиите са в порнографската индустрия. Компанията Al Deeptrace е открила 15 000 дийпфейк видео клипа в интернет през месец септември 2019 г., която бройка е почти двойно по-висока спрямо началото на 2019 г. Потресаващите 96% от тези клипове са порнографски, а 99% от хората участващи в тях, са се оказали известни жени знаменитости и порно звезди. Тъй като съвременния софтуер позволява и на любители, които не се занимават професионално, да създават сравнително бързо и достъпно дийпфейк видеоклипове, това допринася за честото използване на технологията за създаване на съдържание, от което потребителите пряко се вълнуват и едва ли биха могли да открият някъде реално.
Става въпрос само за видеоклипове?
Макар и от началото на статията да свързваме дийпфейк единствено с видео клипове, всъщност технологията може да бъде използвана за ефективно създаване на убедителни изображения, дори на хора, които реално не съществуват. Така беше направен експеримент с несъществуващата журналистка „Мейси Кинсли“ от Bloomberg, на която дори бяха създадени LinkdeIn и Twitter профили. Друг фалшив LinkedIn профил е на „Кейти Джоунс“, в описанието на който се твърди, че работи в Центъра за стратегически и международни изследвания, но се смята, че всъщност това е дийпфейк акаунт, създаден от шпионска операция, интересуваща се от звената на САЩ.
Могат да бъдат фалшифицирани дори и аудио записи, в които обществено известни личности изричат неща, които никога не са казвали реално. Миналият март шефът на британското дъщерно дружество на германската енергийна компания изплати близо 200 000 паунда по банкова сметка в Унгария, след като получи обаждане от телефонен измамник, който имитира гласа на германския изпълнителен директор на компанията, който поисква от шефа на британското дружество да направи плащането. Застрахователните компании в САЩ също са притеснени и донякъде вече засегнати от дийпфейк. Съобщава се, че вече са осъществени и други подобни измами чрез WhatsApp гласови съобщения.
Как се създават?
Университетските изследователи и студията за специални ефекти отдавна надхвърлят психологичните граници на възможното редактиране и манипулиране на звук, видео и изображения. Самата технология дийпфейк, както вероятно се досещате, възникна сравнително скоро – през 2017 г. или поне тогава стана популярна. Тогава един потребител на форумите на Reddit публикува фалшиви порно клипове в сайта, в които разменя лицата на известни личности като Гал Гадот, Тейлър Суифт, Скарлет Йохансон и други с такива на порно изпълнители.
Необходими са само няколко неща, за да направите дийпфейк видео:
Първо е необходимо да подадете хиляди изображения на лицата на двама души в Al-базиран алгоритъм, наречен енкодер. Енкодерът открива и установява сходствата между две лица и идентифицира общите им черти, компресирайки изображението в процеса на работата си. След това се използва втори Al-базиран алгоритъм, наречен декодер, който възстановява лицата от компресираните изображения. Тъй като лицата са различни, се използва един декодер за възстановяването на лицето на първия човек и друг декодер за възстановяването на компресираното лице на втория човек от нашия пример. За да извършите размяната на лицето, е необходимо просто да размените декодерите и да подадете компресираните изображения до „грешния“ декодер. Така нека вземем компресирано изображение на лицето А и друго компресирано изображение на лицето Б. При размяната, се получава така, че декодерът реконструира лицето на лице Б с изразите и ориентацията на лицето на човек А. За да добие така полученото видео убедителност, процедурата трябва да се извърши за всеки кадър.
Кой прави дийпфейк?
Всеки – от академични и индустриални изследователи до любители, студиа за визуални ефекти и продуценти на порно. Правителствата може също да използват технологията като част от своите онлайн стратегии за дискредитиране и сваляне на доверието от екстремистки групи или за осъществяване на контакт с издирвани лица например.
Каква технология е необходима?
Трудно е да се направи дийпейк видео на обикновен компютър за домашно ползване. Повечето такива видео клипове са създадени на работни станции от висок клас с мощни графични карти или за най-добри резултати са използвали облачни изчисления. Това намалява необходимото време за обработка на видеото (рендериране) от дни и седмици, колкото би отнело при стандартен компютър, до само няколко часа. Не на последно място обаче, необходими са и специфични знания и умения за създаване на дийпфейк видео. Те помагат за докарването на завършен вид на изкуствено създадените видео клипове, намаляване на трептенето и изчистване на други визуални дефекти. Към днешна дата са на разположение много инструменти, които могат да помогнат на хората лесно да направят дийпфейк видео дори в домашни условия, и без да имат широк набор от специфични знания. Някои компании дори предлагат и абонаментна услуга да свършат това вместо вас и да извършат цялата обработка в облака. Има дори приложение за мобилни телефони наречено Zao, което позволява на потребителите да създадат нещо подобно на собствено дийп фейк видео, в което участват лицата на известни телевизионни и филмови лица, които са предварително зададени системата, и изкуственият интелект и облачните компютри на приложението ще изпълнят сами всичко останало.
Как да разберете дали едно видео или аудио запис е дийпфейк?
Става все по-трудно да усещате границата между реалните видео клипове и звукови записи и дийп фейк, като сложността нараства непрекъснато, досущ както при изображенията обработени с Photoshop. Ако преди 10 години, макар и да имаше много Photoshop експерти по света и програмата на Adobe да притежаваше подобен огромен набор от възможности, с които разполага и днес, все пак имаше възможност при малко повече опитност и вглеждане в детайлите, да усетите кога едно изображение е монтирано или сериозно редактирано, с цел постигане на заблуждаващ резултат. Днес обаче, от години насам, тази граница е почти напълно размита и е много трудно да направите подобно разграничаване.
През 2018 г. американски изследователи откриха, че лицата в дийпфейк видеата не мигат нормално. В по-голямата част, хората в дийп фейк видеата почти или изобщо не премигват с очи – нещо, което е напълно неестествено и очевидно системите и алгоритмите за създаване на подобно съдържание все още не усвоили. В началото това беше отличен ориентир за разпознаване на това дали едно видео е дийп фейк или не – някои хора мигат често, някои прекалено често, а други рядко, но все пак всички мигат. Не и тези в дийп фейк видеата. Това обаче беше така някъде до началото на 2019 г., когато производителите на софтуер за създаване на дийп фейк видеа не откриха тази слабост и я коригираха – днес повечето програми позволяват създаването на дийп фейк видео, при което мигането изглежда напълно реалистично. Това е една наистина динамична област и не е трудно да си представите, че при нея нещата се случват в движение – когато бъде открита нова слабост, тя бива коригирана мигновено.
Ниско качествените дийп фейк видеа се забелязват по-лесно. Синхронизирането на устните може да е лошо или тоналният цвят на кожата да не изглежда естествен. Може дори да видите трептене около краищата на самите лица. А фините детайли, като например косата, често са особено трудни за пресъздаване от дийп фейк, за да изглеждат добре и нормално, особено там, където кичурите изглеждат на ресни. Бижутата и зъбите също често остават и изглеждат неестествени, като можете да забележите и странни светлинни ефекти, като непоследователна осветеност и отражения върху ириса.
Правителствата, университета и технологичните компании финансират изследванията за откриване на дийпфейк съдържание. Миналия месец стартира първото Deepfake Detection Challenge, подкрепено от компании като Microsoft, Facebook и Amazon. В него ще бъдат включени изследователски екипи от целия свят, които се състезават за надмощие в дийп фейк бранша и предлагането на все по-добри и иновативни услуги на тези, които се интересуват от дийпфейк.
Преди две седмици най-известната социална мрежа в света, Facebook, забрани публикуването на дийп фейк видеа в своите политики за съдържанието, казвайки, че те могат да подведат потребителите, че някоя известна обществена фигура е казала или направила неща, които реално не са нейно дело. Този ход идва буквално преди предстоящите президентски избори в САЩ пред 2020 г. Политиката на социалната мрежа обаче обхваща само дийп фейк видеа и аудио записи, в които се съдържа общо дезинформационно съдържание и са създадени с помощта на Al алгоритми.
Ще доведе ли deepfake до сериозни проблеми?
Можем да очакваме все повече и повече дийп фейк видео и аудио записи, които ще служат с цел тормоз, сплашване, унижение, подкопаване или дестабилизиране. Но дали дийп фейк ще предизвика големи международни инциденти и ще доведе ли до политически кризи? Тук ситуацията остава също неясна. Единични постъпки и ходове на лидери и хора облечени във формална власт, често са достатъчни, за да предизвикат сериозни промени и реакции в широката общественост. Така миналата година акциите на Tesla рязко поевтиняха след като Илън Мъск пушеше джойнт на живо в ефир, а много световни лидери и президенти се подиграваха на Доналд Тръмп, настоящият президент на САЩ, след като в интернет се появи информация, че е напуснал среща на върха на НАТО преждевременно, много преди нейния официален край.
Ще доведе ли до подкопаване на доверието?
По-коварното въздействие на дийп фейк, заедно с други средства за създаване на фалшиво съдържание и недостоверни новини, е да създаде общество с нулево доверие, където хората не могат да вярват на никого, дори когато пряко касаещи техния живот решения зависят от него, и не могат да разграничат истината от лъжата. И когато доверието е ерозирало, е по-лесно да се предизвикват съмнения относно конкретни събития.
Така много световни лидери ще могат да се извиняват с дийп фейк, когато в публичното пространство изтече някой видео или аудио запис, който по някакъв начин ги унижава, представя ви неблагоприятна светлина или разкрива техни действия и решения, които по един или друг начин са били в обществен ущърб. От другата страна ще бъдат и многото обществени фигури, които ще бъдат несправедливо набедени в действия или реплики, които никога не са правили или казвали. По този начин ще се създаде една пропаст на доверието – никога обществото няма да бъде единодушно по отношение на достоверността на определени действия или събития, на които ще стане свидетел, а в посока на коя везна да бъде наклонено масовото мнение ще решават именно хората, които инициират подобни течове.
Така по-рано американските граждани чуха аудио запис от телефонен разговор, в който президентът Тръмп се хвали със сексуалните си подвизи. По-късно Тръмп обяви, че според него записът е фалшив. Друг случай, в интервю принц Андрю с Емили Мейтлис поставят под съмнение автентичността на снимка, направена с Вирджиния Джуфре, за която нейният адвокат настоява, че е достоверна и неподправена.
„Проблемът може да не е толкова фалшивата реалност, колкото факта, че самата реалност ще започне да се струва неправдоподобна на хората“, казва проф. Лилиан Едуардс, водещ експерт по интернет право в университета в Нюкасъл.
Тъй като технологията става все по-широко достъпна, дийп фейк видеата могат да означат и много проблеми за съдебната система, особено в битките за поемане на попечителството над деца или престъпления на работното място, където фалшиви видео клипове могат да бъдат използвани като доказателства. Потенциалът за използване на технологията за измами е ясен. Ако някой ви се обади по телефона и ви каже да му преведете пари по банковата сметка, тъй като е ваш роднина или приятел изпаднал в тежка ситуация, едва ли ще се подведете лесно на такава измама. Но какво ще стане, ако вашата майка или сестра ви се обадят във видео разговор по WhatsApp и направят същото искане?
Какво е решението?
По ирония на съдбата изкуственият интелект отново може да бъде отговорът. Al инструменти вече помагат за засичане на фалшиви видеоклипове, но много от съществуващите системи за откриване имат сериозна слабост: те работят най-добре при сканиране на видеа, в които участват известни личности, тъй като имат огромен набор от налични кадри, от които да изучават тяхното поведение.
Винаги ли дийпфейк е зловреден?
Изобщо не. Много от така създадените видеа имат забавен характер, а някои са дори полезни. Така например хора, които поради някакво заболяване са изгубили гласа си, могат да възстановят вербалната реч именно чрез помощта на подобни технологии, при това с глас, който е много близък до техния. Дийпфейк видеоклипове могат да оживеят в галерии и музеи. Във Флорида в музея на Салвадор Дали има deepfake изображение на художника сюрреалист, който представя своето изкуство и си прави селфита с посетителите. За развлекателната индустрия технологията може да се използва за подобряване на дублирането на филми на чужди езици или дори възкресяване на починали актьори, какъвто е случая с филма „Намирането на Джак“ и актьора Джеймс Дийн.