fbpx
17.7 C
София

Предстоящата заплаха deepfake фишинг

Най-четени

Не всичко, което блести е злато. С развитието на изкуствения интелект (AI) не закъснява и появата на хора, които започват да се възползват от него с користни цели. Ако преди няколко години ни се струваше като сцена от фантастичен филм, то днес, видео клипове със синтетично генерирани образи на Том Круз, Марк Зукърбърг и Барак Обама са абсолютна реалност. Подобни шеговити артистични изяви може да са безвредни, но други приложения на AI като deepfake фишинга са доста по-опасни.

Фишингът като понятие вече е познат на всеки, който борави с компютри, но какво се крие за термина  deepfake фишинг?  Deepfake е видео или аудио съдържание, което е манипулирано с помощта на изкуствен интелект. Терминът е създаден по аналогия с израза „deep learning“ – начинът, по който се обучава изкуственият интелект. Сега вече сами може да разгадаете какво стои зад целия израз deepfake фишинг.

За съжаление вече са налице злонамерени личности, а защо да не кажем направо престъпници, които експлоатират AI за създаването на синтетично аудио и визуално съдържание, чиято цел е да се представят лица с авторитет като изпълнителни директори на големи компании или други високопоставени хора, за да могат да бъдат подлъгани служителите на дадена фирма да предоставят дадена информация.

На световно ниво определено бизнес секторът не е готов да се сблъска с подобни заплахи, а да не говорим за България. През 2021 г. анализаторът от Gartner, Дарин Стюарт пише в своя блог: „Компаниите се мъчат да се защитят срещу ransomware атаки,  но в същото време не правят нищо, за да се предпазят от настъпващия ужас от синтетично, генерирано съдържание.

Развитието на изкуствения интелект напредва бързо, а доставчиците на ресурси в тази област като OpenAI правят достъпа до AI и машинното обучение доста лесен чрез инструменти като ChatGPT. Бизнесът не може да си позволи да игнорира всичко това и заплахата от атаки тип социално инженерство чрез  deepfake. Ако го направят те оставят една широко отворен врата, през която данните им и тези на техните потребители ще изтичат на потоци.

Състоянието на  deepfake фишинга през 2022 г.

Deepfake технология е все още в детските си години на своето развитие, но популярността й нараства главоломно. Киберпрестъпниците вече експериментират с нея в опитите си да атакуват нищо неподозиращи личности и организации.

Според статистика на Световния икономически форум броят на deepfake видеата в онлайн пространството нараства на годишна база с 900%. В същото време от компанията VMware съобщават, че двама от всеки трима специалисти по онлайн сигурност докладват за забелязани злонамерени deepfake материали, които са използвани в различни атаки. Това е с 13% повече в сравнение с миналата година.

Такъв тип атаки могат да бъдат убийствено ефективни. Например през 2021 г. киберпрестъпници са използвали генериран от изкуствен интелект глас, който копира гласа на изпълнителен директор на голяма компания, за да подлъже банковия мениджъра на фирмата да преведе 35 милиона щатски долара към определена сметка, за да се завърши някакво „придобиване“ на друга организация.

Подобен инцидент се случва и през 2019 г. Измамник се обажда на изпълнителния директор на енергийна компания във Великобритания, като използва AI, за да се представи за директор от фирмата-майка в Германия. Той изисква спешен трансфер от 243 000 долара към някакъв унгарски доставчик.

Според анализаторите възходът на deepfake фишинга ще продължи, а фалшивото съдържание генерирано от престъпните лица ще става все по-сложно и убедително.

„Със съзряването на deepfake технологията, атаките ще са все по-чести и ще се разкриват нови видове измами,“ казва анализаторът от KPMG Ахилеш Тутеджа.

„Фалшификациите стават все по-трудно различими от реалността. Преди две години беше лесно да се разпознае едно deepfake видео, защото движенията в него бяха насечени и фалшифицираната личност никога не мигаше. Но днес това разпознаване става все по-трудно,“ добавя Тутеджа.

Експертът предупреждава специалистите по сигурността, че трябва да се приготвят за измами, които ще използват синтетични изображения и видеа, за да преминат през системите за удостоверяване, включително и тези, които работят с биометрични данни.

Как deepfake имитира личности, за да премине през биометричното удостоверяване

За да извършат deepfake фишинг атака хакерите използват AI и машинно обучение, за да обработят някакво съдържание, което включва изображения, видео материали и аудио клипове. С тези данни те създават дигитална имитация на някаква личност.

„Криминалните лица могат лесно да използват автоенкодери – вид сложна невронна мрежа – за да се гледат видеа, изучават изображения и да се слушат записи на даден човек, с цел да се имитират физическите особености на индивида,“ казва Дейвид Мади, съветник в Sectigo.

Отличен пример за това е случилото се по-рано тази година. Хакери генерираха deepfake холограма на Патрик Хилман, главен директор по комуникациите в Binance, чрез използването на съдържание от минали интервюта и медийни изяви.

Чрез този подход престъпниците могат не само да имитират физическите особености на дадено лице, за да заблудят други хора чрез социално инженерство, но те могат да се справят и с решенията за биометрично удостоверяване.

Поради тази причина анализаторът от Gartner Авива Литан препоръчва на компаниите „да не разчитат само на разпознаването на биометрични данни за идентификацията на хора, а да се прилага и ефективен начин за засичане на deepfake, които потвърждава реалността и легитимността на даденото лице.“

Литан отбелязва още, че разкриването на такива атаки вероятно ще става все по-трудно с времето, защото използваният изкуствен интелект се развива и ще може да създава все по-реални аудио и визуални репрезентации.

„Разкриването на deepfake е загубена битка, защото deepfake, създаден от генеративна невронна мрежа се преценяват от дискриминативна невронна мрежа,“ допълва Литан. Генераторът се цели да създаде съдържание, за да заблуди дискриминатора, като в този процес дискриминаторът постоянно се обучава да засича изкуствено съдържание. Точно в това се крие и проблемът. Хакерите могат да приложат постигнатото усъвършенстване от страна на дискриминатора към генератора, така че той да може да създава още по-трудно за разпознаване съдържание.

Ролята на обученията по киберсигурност

Един от най-лесните начини, с които бизнесът може да се бори срещу deepfake фишинга е обучението по киберсигурност. Ясно е, че никое обучение не може да предпази всеки един служител от изключително сложно фишинг атаки, но определено то може да намали риска от пробиви в сигурността.

„Най-добрият начин за справяне с deepfake фишинга е той да се интегрира като тема в обученията по киберсигурност. Също както потребителите се научават да не кликат върху съмнителни линкове към интернет страници, така те трябва да бъдат обучавани и за особеностите на deepfake фишинга,“ казва Джон Олтсик , анализатор в ESG Global.

Част от обучението трябва да включва и процес по докладване на опитите за фишинг атаки на специалистите по сигурността. Според ФБР, служителите могат да се научат да разкриват deepfake фишинг и атаки от вида социално инженерство като обръщат внимание на визуални индикации като нарушения, изкривявания или несъответствия в изображенията и видео материалите.

Обучаването на служителите да обръщат внимание на чести нередности като неравномерно разположени очи в поредица от изображения или нарушен синхрона между движението на устните и звука, може да ги предпази да не стават толкова лесно жертва на умели хакери.

Борба срещу вражески АI с приятелски AI

Борбата срещу deepfake фишинга може да се води и с употребата на AI. Generative adversarial networks (GANs) – вид модел на дълбоко обучение, може да произведе синтетични бази данни и да генерира примерни атаки от вида социално инженерство.

„Всеки директор по сигурността на информацията може да разчита на изкуствения интелект, за да се разкриват фалшификации. С помощта на GAN могат да се генерират потенциални видове кибератаки, които все още не са били използвани и да се създаде протокол за справяне с тях, още преди да са станали реалност,“ споделя Лиз Гренан, експерт в McKinsey.

Бизнесът трябва да бъде подготвен за бъдещето. Ако не се проведе нужната подготовка, компаниите остават напълно открити за deepfake фишинг атаки и то във времена, когато достъпът до АI става все по-лесен и свободен, както за добрите, така и за лошите.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

0 Коментара
Отзиви
Всички коментари

Нови ревюта

Подобни новини