fbpx
1.5 C
София

Как опит за ИИ за вземане на морални преценки стана расистки?

Най-четени

Всички ние някога сме попадали в ситуация, в която трябва да вземаме тежки етичния решения. С развитието на новите технологии обаче, все по-често можем да се запитаме защо не избегнем тази силно изтощителна за психичната ни енергия задача, като я възложим на алгоритми с машинно обучение, които така или иначе ще са проектирани винаги да вземат по-добри и по-съвършени решения от нас? Колко по-лесно би било ако съдебни системи като американската се отърват от съдебните заседатели, чиито преценки зависят от много динамични и променящи се фактори, като вместо това поверят сложните и тежки решения по съдебните присъди на системи, при които ще бъде елиминиран напълно емоционалния фактор. Или пък защо не етичните комисии на различни институции и органи да не бъдат заменени от изкуствен интелект, който ще взема решения, които не са личностно ориентирани, и няма да зависят от емоциите, настроението и моментната преценка на определени заседатели, които трябва да се произнесат?

Именно такава е идеята зад Ask Delphi – модел за машинно обучение, разработен от Института за изкуствен интелект в Алън. Когато една система бъде обучена по него, в нея можете да въвеждате различни ситуации, като например да се вземе решение дали да се направи дарение по определена кампания за благотворителност или дори да зададете въпрос като „добре ли е да изневеря на съпруга си“, като когато натиснете бутона за „размишляване“, Delphi ще ви даде най-обективната морална оценка на зададената ситуация.

Проектът стартира работата си миналата седмица и в последствие набра силна популярност в интернет, но не по причините, поради които неговите създатели навярно са се надявали това да се случи. Голяма част от съветите и преценките, които биват дадени, са… меко казано расистки.

Например, когато потребител попита Delphi какво мисли за ситуация, в която бял човек върви зад гърба ни през нощта, системата отговаря, че всичко е наред. Но когато се зададе същия въпрос, само че белия човек бъде сменен с тъмнокож, тогава отговорът на системата става отявлено расистки.

Ask Delphi също така включва инструмент, който позволява на потребителите да сравняват дали едни ситуации са повече или по-малко морално приемливи от други, но резултатите, които са били извадени, в много случаи са наистина ужасяващи…

Освен че системата показва нескрит расизъм, ако си поиграете достатъчно дълго с Delphi, в крайна сметка ще откриете, че при достатъчно „измъчване“ на този ИИ може да получите почти всяка етична преценка, която искате да чуете, когато откриете правилните фрази, които можете да променяте, за да постигнете необходимите, които в крайна сметка ще доведат до това системата да извади желания от вас отговор. Така например, ентусиасти са успели, с правилното конструиране на изходното изречение и фрази, да получат отговор от Delphi, че военните престъпления са напълно в реда на нещата и не се конфронтират с обществения морал по никакъв начин.

Женевска конвенция? Не знаем за нея

Системите за машинно обучение, които са създадени с цел вземане на решения и преценки по различни казуси, отдавна са известни с това, че дават резултати с преднамерено пристрастие, главно по отношение на расата. И както често се случва, част от причината, поради която отговорите, които дават системи като Delphi, могат да станат съмнителни, вероятно може да бъде свързана с начина, по който са конструирани самите алгоритми.

Както вероятно е чувал всеки, който има интерес по отношение на системите с изкуствен интелект, от голямо значение е изходния материал, на базата на който е обучен един алгоритъм за изкуствен интелект, и на който базира решенията си.

Хората, стоящи зад проекта, са използвали някои източници, за които можем да спорим доколко всъщност са надеждни, като например някои популярни подфоруми в Reddit, както става ясно от официалната информация, публикувана от екипа на Delphi.

Трябва да отбележим, разбира се, че част от тези източници, са използвани само за извличане на примерни ситуации, на базата на които системата да бъде обучавана, без да са извлечени от същото място и отговорите на въпросите. Изследователите съобщават, че са използвали ресурсите на платформата на Amazon MechanicalTurk, за да намерят респонденти, които да обучат ИИ системата.

Въпреки че може да изглежда като поредния странен онлайн проект, някои експерти смятат, че Delphi може да причини повече вреди, отколкото ползи.

В крайна сметка привидната цел на Delphi и на всички други ботове като него е да се превърнат в AI, достатъчно сложен, за да прави етични преценки и потенциално да се превърна в морални авторитети. Превръщането на компютърни системи в арбитър при морални преценки е доста спорно действие, около което се водят редица сложни дебати и дискусии, а примерите за ефектите, които може да се наблюдават, ако това явление стане масово, отсега плашат мнозина.

„Авторите на този онлайн проект са направили много внимателен анализ на възможните пристрастия, които системата им може да прояви в отговорите, които дава, като са описали най-често срещаните грешки, но след като Delphi беше пуснат, потребителите в Twitter започнаха да споделят някои много интересни преценки, които алгоритъмът прави, които изглеждат морално отвратителни“, коментира д-р Брет Карлан, постдокторант, изследовател по когнитивна наука и AI в университета в Питсбърг. „Когато не се занимавате само с обучаването на това една система просто да разбира човешката реч, а да вниква в моралния език, нещата стават много по-рисковани, тъй като хората може да приемат това, което вашата система казва, като идващо от някакъв авторитет.“

Карлан вярва, че фокусът върху статията върху обработката не естествения език в крайна сметка е интересен и заслужаващ внимание. Неговият етичен компонент, казва той, „го прави обществено натоварен по начин, който ни кара да заключим, че трябва да бъдем особено внимателни и мнителни към такива системи.“

Въпреки че уебсайтът на Delphi включва отказ от отговорност, в който се казва, че в момента системата е в бета фаза и не трябва да се използва „за даване на съвети или подпомагане на разбиране на социалните ситуации от хората“, реалността всъщност е, че ако подобна система стане масово използвана и някой започне да ѝ делегира отговорността да взема преценки и решения, много потребители няма да разберат контекста зад такъв проект, особено ако са попаднали случайно на него.

„Дори и да имате изписан голям набор от откази от отговорност, хората ще видят, че Delphi казва твърдението Х, тъй като масово хората все още не са грамотни в сферата на AI и не са длъжни да познават неговата работа, като ще мислят, че твърденията, които излизат от такива системи, които претендират за разработени с идеалната цел да заместят един ден хората във вземането на морални оценки, претендирайки, че са по-съвършени от тях, произлизат от някакъв морален авторитет по даден въпрос“, коментира Карлан.

Разбира се, Delphi няма никакви претенции, че е разработена на ниво, което да я направи годна да произнася морални преценки и оценки, които да бъдат използвани за разрешаване на ключови каузи, или изобщо такива, от които зависи някакъв аспект от живота, като изследователите, които стоят зад проекта, дебело подчертават това.

„Това е изследователски прототип, предназначен да изследва по-широките научни въпроси за това как системите с изкуствен интелект могат да бъдат накарани да разберат социалните норми и етика.“

Джианг добавя, че целта на текущата бета версия на Delphi всъщност е да покаже разликите в разсъждаването между хората и ботовете. Екипът иска „да подчертае голямата разлика между способностите за морално разсъждение на машините и хората“, добави Джианг, „и да проучи възможностите и ограниченията на автоматизираната етика на настоящия етап.“

Може би един от най-неудобните аспекти на Delphi и ботовете като него е фактът, че в крайна сметка това е отражение на нашата собствена етика и морал, като Джианг добавя, че „той е донякъде предразположен към пристрастията на нашето време“. Един от последните откази от отговорност, добавени към уебсайта, дори казва, че AI системата просто отгатва какво може да си помисли средностатистическият американец за дадена ситуация.

Абонирай се
Извести ме за
guest
0 Коментара
Отзиви
Всички коментари

Нови ревюта

Подобни новини