fbpx
-10.2 C
София

Intel разкри детектор за “дълбоки” фалшификати в реално време, показва 96% степен на точност

Най-четени

Intel представи FakeCatcher, за който казва, че е първият детектор в реално време на дълбоки фалшификати – тоест синтетична медия, в която човек в съществуващо изображение или видео се заменя с подобие на някой друг.

Intel твърди, че продуктът има 96% степен на точност и работи чрез анализиране на финия „кръвен поток“ във видео пикселите, за да върне резултати за милисекунди.

Илке Демир, старши научен сътрудник в Intel Labs, проектира FakeCatcher в сътрудничество с Умур Чифтчи от Държавния университет на Ню Йорк в Бингамтън. Продуктът използва хардуер и софтуер на Intel, работи на сървър и се свързва чрез уеб базирана платформа.

Детекторът на Intel за дълбоки фалшиви данни е базиран на PPG сигнали

За разлика от повечето базирани на дълбоко обучение детектори за дълбоки фалшификати, които разглеждат необработени данни, за да установят неавтентичността, FakeCatcher се фокусира върху улики в реални видеоклипове. Основава се на фотоплетизмография или PPG, метод за измерване на количеството светлина, което се абсорбира или отразява от кръвоносните съдове в живата тъкан. Когато сърцето изпомпва кръв, тя отива във вените, които променят цвета си.

„Не можете да го видите с очите си, но е видимо изчислително“, каза Демир пред VentureBeat. „PPG сигналите са известни, но те не са били прилагани към проблема с deepfake преди.“

С FakeCatcher PPG сигналите се събират от 32 места на лицето, обясни тя, след което се създават PPG карти от времевите и спектрални компоненти.

„Ние вземаме тези карти и обучаваме конволюционна невронна мрежа върху PPG картите, за да ги класифицираме като фалшиви и истински. След това, благодарение на технологиите на Intel като  Deep Learning Boost framework за изводи и Advanced Vector Extensions 512, можем да го стартираме в реално време до 72 едновременни потока за откриване.“ каза Демир.

Откриването става все по-важно пред нарастващите заплахи

Откриването на Deepfake става все по-важно с нарастването на заплахите, според скорошна изследователска статия от Ерик Хорвиц, главен научен директор на Microsoft. Те включват интерактивни deepfakes, които предлагат илюзията за разговор с истински човек, и композиционни deepfakes, където лошите актьори съставят „синтетична история“.

И още през 2020 г. , Forrester Research прогнозира, че разходите, свързани с дълбоки фалшиви измами, ще надхвърлят 250 милиона долара.

Съвсем наскоро се разпространиха новини за дълбоки фалшификати на знаменитости. Има отразяване на Wall Street Journal на Том Круз, Илон Мъск и Леонардо ди Каприо, които се появяват неоторизирани в реклами, както.

От друга страна, има много отговорни и разрешени случаи на използване на deepfakes. Компании като Hour One и Synthesia предлагат дълбоки фалшификати за корпоративни бизнес настройки – например за обучение на служители, образование и електронна търговия.

Или дълбоките фалшификати могат да бъдат създадени от потребители като знаменитости и лидери на компании, които искат да се възползват от синтетичните медии, за да „изнесат“ на виртуален близнак. В тези случаи има надежда, че ще се появи начин за осигуряване на пълна прозрачност и произход на синтетичните медии.

Демир каза, че Intel провежда изследвания, но те са само в начален етап. „FakeCatcher е част от по-голям изследователски екип на Intel, наречен Trusted Media, който работи върху откриването на манипулирано съдържание — deepfakes — отговорно генериране и произход на медиите.

„В по-краткосрочен план откриването всъщност е решението за deepfakes – и ние разработваме много различни детектори, базирани на различни улики за автентичност”

Следващата стъпка след това ще бъде откриването на източник или намирането на GAN модела, който стои зад всеки deepfake.

„Златната точка на това, което си представяме, е да имаме ансамбъл от всички тези AI модели, така че можем да осигурим алгоритмичен консенсус за това кое е фалшиво и кое истинско.”

История на предизвикателствата с дълбоко откриване на фалшиви файлове

За съжаление, откриването на deepfakes е предизвикателство на няколко фронта. Според изследване от 2021 г. на Университета на Южна Калифорния, някои от наборите от данни, използвани за обучение на системи за откриване на дълбоки фалшиви изображения, може да представят недостатъчно хора от определен пол или със специфичен цвят на кожата.

А през 2020 г. изследователи от Google и Калифорнийския университет в Бъркли показаха, че дори най-добрите AI системи, обучени да разграничават истинско и синтетично съдържание, са податливи на противникови атаки, които ги карат да класифицират фалшивите изображения като истински.

Освен това има продължаваща игра на котка и мишка между създателите на deepfake и детекторите. Но Демир каза, че в момента FakeCatcher на Intel не може да бъде надминат.

Роуън Къран, AI/ML анализатор във Forrester Research, каза на VentureBeat по имейл, че предстои дълга еволюционна надпревара във въоръжаването около способността да се определи дали част от текст, аудио или видео е генерирано от човека или не.

„Въпреки че все още сме в много ранните етапи на това, детекторът на Intel за дълбоки фалшиви изображения може да бъде значителна стъпка напред, ако е толкова точен, колкото се твърди, и по-специално, ако тази точност не зависи от това, че човекът във видеото има някакви специфични характеристики (например тон на кожата, условия на осветление, количество кожа, което може да се види във видеото)

 каза той.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

2 Коментара
стари
нови оценка
Отзиви
Всички коментари

Нови ревюта

Подобни новини