fbpx
15.5 C
София

Ало измамниците в САЩ преминаха на следващото ниво: Използват ИИ, за да звучат по-достоверно

Най-четени

По всичко изглежда, че проблемът с телефонните измамници е станал още по-сериозен на глобално ниво, след като властите в САЩ са установили, че местните мошеници все по-често използват помощта на изкуствения интелект, за да клонират гласа на някой от близките на жертвата, с цел да звучат по-правдоподобно.

Вчера от Федералната търговска комисия на страната (FTC) публикуваха предупреждение за гражданите относно ръста на подобен тип измами. От FTC също така напомнят на хората, че техният отчаян приятел или роднина от другата страна на телефона, който ги моли за пари, всъщност може да е ИИ симулация на неговия глас:

„Всичко, от което се нуждаят престъпниците, е кратък аудиозапис на гласа на член на вашето семейство, който лесно може да се извлече от съдържание, публикувано онлайн, и програма за клониране на гласове. Когато измамникът ви се обади, той ще звучи точно като вашия близък.“, се казва в съобщението на FTC.

От онлайн медията Futurism вече споделиха за няколко случая на „високотехнологични ало измами“ в Северна Америка и че основна жертва са възрастните хора. В един от тях привидно се чува гласът на младеж, искащ пари от баба си, за да си плати гаранцията, като „благодарение“ на ИИ жената е била заблудена, че наистина разговаря със своя внук. При друга измама обаждащият се твърди, че е адвокатът на сина на възрастна двойка, който след като се представя му „подава“ телефона, за да „говори“ с родителите си, като ги моли да му изпратят биткойн за покриване на съдебни такси. Впоследствие се оказва, че това е поредният случай на измама с употребата на клониран глас. В Канада пък само за три дни са били откраднати над 200 000 канадски долара от най-малко осем възрастни граждани, отново с помощта на технологията.

Клонирането на човешки гласове е позната практика при извършването на някои от най-сложните корпоративни измами през годините, но методът е бил използван само от най-умелите мошеници. Едва наскоро обикновените хора започнаха да се превръщат в жертви на този вид престъпления. Според Субарао Камбампати, професор по компютърни науки в Държавния университет на Аризона и експерт по изкуствен интелект, за това са виновни все по-популярните евтини и лесни за използване генеративни ИИ инструменти, достъпни за всички потребители в мрежата:

„Преди клонирането на човешки глас изискваше притежаването на сериозни умения за боравене със сложна технология. Сега дори дребните мошеници могат да я използват.“

Трябва да се отбележи, че базираният на изкуствен интелект инструмент за гласов синтез, предоставен от ElevenLabs, попадна в светлината на прожекторите, както заради способността му да се представя за различни президенти и знаменитости, така и заради умението да пробива банкови защити. Използването му не изисква почти никакви технически познания, което прави клонирането на нечий глас по-лесно от всякога, стига измамникът да разполага със съответния запис, който пък често може да бъде открит в социалните медии.

За да се предпазят от всякакъв род телефонни измами, от FTC препоръчват на гражданите да се свържат с предполагаемия роднина веднага след разговора, като го потърсят на телефонен номер, за който знаят, че му принадлежи. От федералната служба предупреждават също, че ако човекът отсреща помоли да му бъдат изпратени пари под формата на трудни за проследяване средства, като криптовалута, ваучери и банкови преводи, то най-вероятно става дума за измама, независимо колко автентично звучи гласът му.

Тези препоръки могат да се отнесат и за хората в България, особено за по-възрастните, които често се превръщат в жертви на подобен вид престъпления.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

1 Коментар
стари
нови оценка
Отзиви
Всички коментари

Нови ревюта

Подобни новини