Удивително е колко много неща може да прави ChatGPT – от писане на есета и имейли до създаване на програмен код. Но с възможностите му лесно се злоупотребява. Агенцията на Европейския съюз за сътрудничество в областта на наказателното правосъдие (Европол) стана най-новата организация, която предупреждава, че престъпниците ще използват чатбота за криминални дейности като фишинг, измами, дезинформация и общи киберпрестъпления.
Европол отбелязва, че големите езикови модели (Large Language Models – LLMs) се развиват бързо и вече са навлезли в масовия живот. Множество индустрии внедряват LLM, включително и за престъпни дейности.
„Вече може да се предвиди въздействието, което тези видове модели могат да окажат върху работата на правоприлагащите органи. Престъпниците обикновено бързо се възползват от новите технологии и бързо бяха забелязани да измислят конкретни престъпни модели, като предоставиха първите практически примери само няколко седмици след публичното пускане на ChatGPT.“
пише Европол
Европол отбелязва, че способността на ChatGPT да изготвя текст въз основа на няколко кратки подсказки го прави идеален за фишинг атаки. Тези имейли обикновено се разпознават по правописните и граматическите грешки или подозрителното съдържание – предупредителни знаци, които ChatGPT може да избегне. Инструментът може също така да пише в специфични стилове въз основа на типа измама, което увеличава шансовете за успешна игра на социално инженерство (вид манипулация).
Освен това ChatGPT може да създава автентично звучащ текст със скорост и мащаб, което го прави идеален инструмент за целите на пропагандата и дезинформацията.
Но може би най-опасният аспект на ChatGPT е, че може той да пише зловреден код за киберпрестъпници, които имат малко или никакви познания по програмиране. Европол пише, че предпазните мерки, които не позволяват на ChatGPT да предоставя потенциално зловреден код, работят само ако моделът разбира какво прави.
„Ако подканите са разбити на отделни стъпки, е възможно да се заобиколят тези мерки за безопасност“.
Въз основа на предишни доклади, услугата на OpenAI вече се използва по този начин. През януари изследователи в областта на сигурността откриха, че ChatGPT се използва във форуми за киберпрестъпност като „образователен“ инструмент и платформа за създаване на зловреден софтуер. Чатботът би могъл да се използва и за отговаряне на технически запитвания за хакване на мрежи или ескалиране (получаване) на привилегии.
Използването на ChatGPT не се ограничава до създаването на конкретни текстове или код. Потенциален престъпник би могъл да го използва, за да се запознае с конкретна област на престъпност, например тероризъм или насилие над деца. Въпреки че тази информация може да бъде намерена в интернет, ChatGPT доста улеснява откриването и разбирането ѝ благодарение на начина, по който се представя резултатът от заявката.