Автономните машини, разполагащи със смъртоносна сила, са все по-разпространени в съвременните войни, въпреки многобройните етични опасения. Можем ли да направим нещо, за да спрем напредването на роботите-убийци?

Оригиналът е на Франк Паскуеле

Сцената е ярка. Двама заплашителни мъже стоят до бял фургон в полето и държат дистанционни управление. Те отварят задните врати на микробуса и след малко се чува металическия звук на квадрокоптерните военни дронове управлявани отдалечено. Мъжете натискат превключвател и дроновете се роят като прилепи от пещера. След няколко секунди вече са в аудиториите и класните стаи на колежа. Роботите-убийци нахлуват през всички прозорци и врати. Учениците крещят от ужас, затворени вътре, докато дроновете атакуват със смъртоносната си сила. Урокът, който филмът на Slaughterbots се опитва да даде, е ясен: малките роботи-убийци вече или са тук, или е въпрос на технологичен напредък да се появят. Терористите лесно биха могли да ги използват. А защитата от тях е слаба или не съществува.

Някои военни експерти твърдят, че Slaughterbots – организация създадена от Института „Бъдещето на живота“, изследваща екзистенциалните заплахи за човечеството, е усетила и показва сериозен проблем, който предизвиква сериозен страх, но може да бъде решен чрез спокоен размисъл. Но що се отнася до бъдещето на войната, границата между научната фантастика и индустриалните факти често е размита. Американските военновъздушни сили прогнозират бъдеще, в което „специалните екипи ще изпращат механични насекоми, оборудвани с видеокамери, които да се промъкват в сгради по време на спасяване на заложници“. На пазара вече има подобни разработки, като една от тях е Octoroach, това е изключително малък робот с камера и радиопредавател, който има обхват на дистанционното управление до 100 метра. Това е само едно от много „биомиметични“ или с други думи имитиращи природни обекти оръжия, които са на хоризонта.

Кой знае колко други вредоносни роботи, чийто прототипи са природни обекти, вече се разглеждат от авангардните военни теоретици. Неотдавна излезлият на американския пазар роман на PW Singer и August Call, ни разказва история от близкото бъдеще, в която САЩ воюва с Китай и русия, представяйки калейдоскопична визия за автономни безпилотни летателни апарати, лазери и сателити подпомагащи вземането на заложници. Литературните критици спорят дали романа може да бъде описан като научна фантастика, тъй като включва стотици бележки под линия, документиращи развитието на всеки хардуер и софтуер, който описва. С други думи, този роман разкрива история, която може да се случи…

Напредъкът в създаването на роботизирани машини за убиване и военни цели е не по-малко обезпокоителен. Руският военно-фантастичен роман то 60-те години на миналия век, Crabs in the Island, описва история подобна на „Игрите на глада“, но с включен Изкуствен интелект, в който човешките войски са заменени от роботи, които се бият помежду си за ресурси. Изгубилите войната роботи ще бъдат бракувани от победителите, а те от своя страна ще продължават да се развиват, докато се превърнат в съвършените машини за поразяване и убиване на всякакви войски – човешки и роботизирани.

В рамките на някои от най-модерните изследователски проекти в областта на отбраната на САЩ (DARPA), един водещ компютърен учен нарича подобен сценарий „осъществим“. Не е нужно много размишление, за да осъзнаем, че ако някой ден някои от великите военни сили на Земята проведат експеримент с роботизирана войска, той би имал немалък потенциал да излезе извън контрол. На този етап, според запознати лица, единствените бариери пред някои военни сили да експериментират с потенциално големи разрушителни машини са високите разходи. Софтуерното моделиране обаче може да елиминира тази бариера, позволявайки създаването на виртуални симулации, които да покажат какви биха могли да бъдат вариантите за развитие на една битка, а резултатите от тях биха могли да вдъхновят бъдещи военни инвестиции.

В миналото националните държави се обединяват, за да забранят използването и експериментирано с особено ужасяващи нови оръжия. До средата на 20-ти век международните конвенции вече забраняват и биологичното и химичното оръжие. Общността на Обединените Нации също забранява използването на ослепителни лазерни технологии. Силна мрежа от неправителствени организации успешно призова ООН да свика държавите си членки да се съгласят на подобна забрана за разработването и използването на роботи-убийци и други оръжия, които могат да действат сами, без да се изисква пряк човешки контрол или намеса за унищожаването на мишена, известни още също като летателни автономни оръжейни системи. И макар да се води дебат за дефиницията коя технология е такава, всички можем да си представим някои особено ужасяващи видове оръжия, за които всички държави трябва да се съгласят никога да не произвеждат или въвеждат в употреба – дрон, който постепенно нагрява вражеските войници да причиняването на смъртта им например, за какъвто се спекулира, че се разработва, би нарушил международни конвенции за изтезанията, звуковите оръжия, предназначени да доведат до оглушаване и нарушаване на равновесието на врага, трябва да заслужават подобно третиране. Страната, която е проектирала и използвала такива оръжия, според експертите, трябва да бъде отлъчена от международната общност.

Вероятно много от вас биха се съгласили, че подобни санкции не са пресилени, като част от обществените фигури занимаващи се с тези въпроси, смятат, че подобни рестрикции заслужават дизайнерите и потребителите на роботи-убийци. Самата идея за създаване на машина със самоуправление, впусната в клане, чиято мишена са вражеските войници, е смразяваща. И все пак някои от най-големите имена във военната индустрия в света изглежда ежедневно правят постоянно крачки за разработването на такива оръжия, като най-големите им опасения за техните изобретения са да не бъдат смазани от ИИ на съперниците, ако случайно техните разработки се окажат по-напредничави. Ключът към разрешаването на такава патова надпревара във въоръжаването може да се крие по-малко в глобалните договори и конвенции за мир, отколкото в предпазливо преосмисляне на това, за което може да се използва бойният ИИ.

Роботи убийци или хора убийци?

На теория използването на контролирано машинно насилие по време на война може да бъде предпочитано пред непредсказуемото човешко насилие. Избиванията, които се извършват по време на война от човешките войски, често са породени от ирационални емоции. И все пак обаче, повечето от нас осъждат най-силно не насилието, което е извършено от хора в разгара на страстите, а умишленото насилие или убийство, което е хладнокръвно планирано. Историята на войната предлага много примери за внимателно и прецизно планирани масови избивания. И със сигурност всяка една военна система ще бъде проектирана с възможност за пълно спиране или отмяна на действията, като контрола над тези команди ще може да бъде подаван от човешки оператори, при нормални емоционални условия и състояние на духа на управляващите системите хора.

Професорът по компютърни науки Ноел Шарки обаче твърди, че според него е невъзможно да се програмира робот-воин с безкраен набор от реакции и подготвеност за всяка една военна ситуация, която може да се развие по безброй много различни начини. Подобно на самоуправляваща се лека кола, чиито системи стават почти безполезни в снега, когато сензорите ѝ са блокирани, така и автоматизираните военни системи могат да станат напълно неориентирани и неавтономни, когато настъпи непредсказуема и замъгляваща сензорите им военна ситуация.

Повечето ветерани от войната могат да потвърдят, че ежедневното преживяване на военните действие и дълъг и скучен период, прекъсван от внезапни и афектиращи безредици. Именно последните са най-непредсказуеми, тъй като никога не може да бъде ясно предварително какво може да планира врага, за да се интегрира в автоматизирана военна система, която може да реагира в такава непозната ситуация. С други думи, пълното автоматизиране на военните роботи и системи може никога да не бъде постигнато.

Машинното обучение работи най-добре там, където има масивен набор от данни с ясно разбираеми примери за добро и лошо, правилно и грешно. Например компаниите за кредитни карти постоянно подобряват алгоритмите си за откриване на измами с постоянни анализи на стотици милиони транзакции, където фалшивите транзакции в наши дни могат да бъдат идентифицирани почти със 100% точност. Но навярно вече сами се досещате, че колкото и военни записи и операции да бъдат прегледани от изкуствения интелект, той няма как да планира всички възможни реакции. Би било възможно да се набавят данни от военните действия в Ирак например, които изобилстват, но това означава ли, че те ще бъдат от полза във всяко последващо действие, в което ще бъде включена тази Al система?

Международното хуманитарно право, което урежда въоръжените конфликти, поставя още повече предизвикателства пред разработчиците на автономни оръжия. Основен етичен принцип според споменатото право е войските да правят разлика между вражеските войници и цивилните. Но партизанските и бунтовническите войни стават все по-често срещани през последните десетилетия и бойците в такива ситуации рядко носят униформи, което затруднява разграничаването им от цивилните. Предвид трудностите, с които се сблъскват човешките войници в това отношение, няма да е трудно да видим още по-големия риск от увеличаване на броя на невинните ранени и убити цивилни от роботизираните оръжейни системи.

Поддръжниците на такива оръжия настояват, че възможностите на машините за прецизно разпознаване на обекти непрекъснато се подобряват. Дори това да е така, със сигурност вероятността за допускане на грешка не е за подценяване. Освен това, някои от главнокомандващите във военните структури може да направи опит за злоупотреба при конфигурирането на разпознаването на цивилни и вражески войски или дори неволно да допусне грешки. Съществува и законовото правило, че военните операции, които се извършват, трябва да бъдат „пропорционални“. С други думи, трябва да се намери баланс между потенциалната вреда, която ще бъде нанесена на цивилните преди предприемането на дадени военни действия и военното предимство, което може да бъде в резултат от въпросните действия.

Американските военновъздушни сили описаха въпроса за пропорционалността като „присъща субективна решимост, която ще се решава за всеки отделен случай“. С други думи, те не смятат, че това може да бъде проблем на автономните военни системи, тъй като те няма да решават сами, а военните ще определят какви да бъдат действията за всеки отделен случай. Това е резонно, тъй като без значение колко високо ниво ще постигне тази технология един ден, колко точно ще открива и неутрализира заплахите, никога няма да има достатъчно доказателства, за да се потвърди окончателно, че тя ще може да взема решения, които изискват фини и гъвкави разсъждения, които са от значение за прилагането на дори леко двусмислени закони, правила и норми.

3 2 гласа
Оценете статията
Абонирай се
Извести ме за
guest
1 Коментар
стари
нови оценка
Отзиви
Всички коментари