Програмистите, които използват системи с изкуствен интелект (ИИ) за разработване на код, е по-вероятно да получат уязвими приложения, съобщава TechCrunch, като се позовава на проучване на учени от Станфордския университет. Според тях към системите за генериране на код трябва да се подхожда с повишено внимание.
Проучването се основава на системата за генериране на код за изкуствен интелект Codex, разработена от лабораторията OpenAI. В проекта участват общо 47 разработчици – от студенти до специалисти с дългогодишен опит. Те използват платформата Codex за решаване на проблеми, свързани със сигурността, а езиците за програмиране, използвани в проучването, са Python, JavaScript и C.
Установено е, че програмистите, които са използвали Codex в работата си, са по-склонни да предлагат неправилни и несигурни решения в сравнение с контролната група. Нещо повече, те смятат, че техните решения са по-добри от гледна точка на киберсигурността в сравнение с решенията на контролната група.
Авторите на проучването подчертават, че нямат намерение да настройват общността срещу Codex и други системи за генериране на код от изкуствен интелект, но те са по-подходящи за нерискови задачи. Като решение учените предлагат да се създадат механизми за анализ на предложения код на изкуствения интелект, както и да се засилят настройките за сигурност по подразбиране в криптографските библиотеки.
Освен това генераторите често се обучават на разработки с ограничен лиценз и впоследствие предлагат решения, например от кодовата база на Quake или уроци по JavaScript – кодът, създаден с тях, може да бъде източник на проблеми с авторските права. Платформата GitHub Copilot се опита да внедри механизъм за защита от подобно плагиатство, но се стигна до по-лоши резултати: тя започна да предоставя големи части от чужд код, включително информация за автора и дори текстове на лицензи.