Съвсем скоро технологиите ще дадат възможност за създаването на автоматично роботизирано оръжие, което може да избира и да унищожава цели без намесата на човека. И докато днес всички спорят, доколко етично е това, прогресът неумолимо върви напред.
Проблемът на технологичната еволюция в наши дни е в това, че границата между продаваните днес комерсиални роботи и военните роботи е невероятно тънка и нейното преминаване нищо не струва. И наистина, сега те без проблем избират маршрутите за своето придвижване и още утре ще могат сами да избират коя цел да достигнат и унищожат.
Това не е първия път в историята, когато технологичният прогрес поставя под въпрос самото съществуване на човечеството. Първоначално учените създадоха химическо, биологично и ядрено оръжие. А сега „автономно оръжие“ – тоест бойни роботи. Разликата е в това, че до днес за безчовечно се считаше оръжието за масово поразяване, което не може да избира колко и кого да убие.
Днес перспективата е друга: къде по-безнравствено изглежда оръжието, което може да убива по избор, избирайки жертвата по свой вкус. И ако някоя войнствена държава се въздържаше от употребата на оръжия за масово поразяване, понеже от него ще пострадат всички наоколо, с бойните роботи всичко е много по-сложно, понеже могат да бъдат програмирани да унищожат конкретна група обекти.
През 1942 година, когато американският писател Айзък Азимов формулира трите закона на роботиката, всичко изглеждаше много интересно, но твърде нереалистично. Най-общо, тези закони гласят, че роботът не може да вреди или убива човека. И още, те трябва да се подчиняват на човешката воля, освен ако не нарушават предишния императив.
А ето днес, когато автономното оръжие е реалност и може да попадне в ръцете на терористи се оказа, че програмистите някак са забравили да заложат в своя софтуер законите на Азимов. Това без съмнение означава, че бойните роботи могат да бъдат изключително опасни и никакви хуманни признаци или принципи не могат да ги спрат.
Създадената от Пентагона бойна ракета от последно поколение сама открива целите благодарение на алгоритмите с изкуствен интелект. Русия демонстрира роботизирани безпилотни танкове. За разработването на роботизирана и автономна военна техника различните държави изразходват колосални парични средства. Но едва ли някой иска да види бойните роботи в действие. Както повечето химици и биолози на са заинтересовани техните открития да бъдат използвани за създаването на химически и биологически оръжия, така и специалистите по изкуствен интелект не са заинтересовани от създаването на ИИ оръжия. Просто световният обществен резонанс сериозно би навредил на техните изследователски програми.
В своята реч в началото на Генералната Асамблея на ООН в Ню Йорк на 25 септември, Генералния секретар Антониу Гутереш нарече ИИ технологиите „глобален риск“ заедно с промените в климата и растящото неравенство на доходите. Навярно Гутереш е единственият, който може да окаже влияние на военните ведомства да се замислят още веднъж: преди това той се оправяше с конфликтите в Либия, Йемен и Сирия.
Големият проблем е в това, че с по-нататъшното развитие на технологиите, роботите ще могат сами да решават кого да убият. И ако една държава няма подобни технологии, а друга има, то безкомпромисните андроиди и дронове бързо ще предрешат изхода от потенциалното сражение. Всичко това противоречи на всичките закони на Азимов едновременно. Редица учени и специалисти сериозно са разтревожени, че самообучаващата се невронна мрежа един ден ще излезе от контрол и ще унищожи не само врага, но и изобщо всички хора. Това вече не е фантастика.
Най-активна работа в областта на изкуствения интелект към днешен ден се води не във военната, а в гражданската сфера – в университетите и компаниите като Google и Facebook. Но по-голямата част от тези технологии бързо може да бъде адаптирана за военно използване. А това означава, че потенциалната забрана на изследванията в тази област ще засегне и цивилните разработки.
Последната среща на 70-те държави участнички в Конвенцията за конкретните видове конвенционално оръжие се състоя през месец август в Женева. Дипломатите не можаха да постигнат консенсус относно глобалната политика по отношение на ИИ. Някои държави, като например Аржентина, Австрия, Бразилия, Чили, Китай, Египет и Мексико поддържат законодателните забрани за разработването на роботизирано оръжие. Германия предложи въвеждането на доброволна система от подобни ограничения. Но Русия, САЩ, Южна Корея и Израел заявиха, че не възнамеряват да ограничават своите изследвания и разработки в тази област.
Студена война 2018
Американските военни считат, че автономното оръжие в необходимо на САЩ за да се съхрани военното преимущество на страната пред Китай и Русия, които също влагат много пари в аналогични изследвания. През месец февруари тази година Доналд Тръмп поиска заделянето на $686 милиарда за обрана за следващата 2019 година. Тръмп аргументира тази огромна сума с необходимостта от увеличаване на технологичната конкуренция с Китай и Русия.
Според експертите на The New York Times, военните разходи за роботизирани военни машини и безпилотни летателни апарати през следващото десетилетие ще превишат $120 милиарда. Това означава, че дискусията в крайна сметка не е дали да се създава автономно оръжие, а каква степен на независимост да му се даде.
Към днешен ден напълно автономно роботизирано оръжие (все още) няма. Но заместник председателят на Обединения комитет на началник щабовете генерал Пол Дж. Селва още през 2016 година заяви, че след 10 години САЩ ще създаде технология за оръжие, което ще може самостоятелно да решава, кога и кого да убие. И докато всички спорят, дали изкуственият интелект трябва да бъде ограничаван или не, може да стане твърде късно.
По материали на Forbes