fbpx
17.8 C
София

Какво ще стане след като изкуственият интелект достигне върха на своето развитие?

Най-четени

Даниел Десподов
Даниел Десподовhttps://www.kaldata.com/
Ежедневен автор на новини. Увличам се от съвременни технологии, оръжие, информационна безопасност, спорт, наука и концепцията Internet of Things.

Какво си помисляте когато стане дума за изкуствен интелект? Предполагам, че повечето от нас си спомнят филма „Аз роботът“ с участието на Уил Смит, както и многобройните други произведения, в които се описва един суперинтелигентен изкуствен интелект, който възнамерява да унищожи човечеството. В реалността всичко е много по-прозаично: хората, които разработват най-съвременните алгоритми с елементи на изкуствен интелект, се отнасят твърде скептично към подобни ужасяващи истории и не без основание. Едва ли можем да обявим Siri за заплаха за човечеството.

Но има една друга област на научните изследвания, в която изследователите се занимават с изучаването на глобалните рискове – тоест, събитията, които биха могли да доведат до унищожаването на нашата цивилизация и смъртта на цялото човечество. Интересно е, че повечето учени отстояват именно това мнение: ИИ наистина е потенциална заплаха за нас. Според резултатите от мащабно научно изследване, проведено в началото на тази година, ние едва ли ще можем да управляваме един компютърен суперинтелект. Според авторите на тази научна работа, свръхразумът е твърде многостранен, което означава, че потенциално е способен да мобилизира най-разнообразни ресурси за постигане на своите собствени цели. Особеното е, че тези цели ще са съвсем непонятни за хората.

Трябва ли да създаваме нещо, което може да ни унищожи?

Глобалните рискове

Към днешен ден нашите знания за околния свят са толкова обширни, че навярно предишните поколения със сигурност биха ни завиждали. Сравнително доскоро изпирането на дрехите и почистването на пода ставаше ръчно, но сега почти всички използват автоматични перални и роботизирани прахосмукачки. Те са наистина добри помощници и заменят досадния ръчен труд.

Но за всичкия този комфорт явно ще трябва да се плаща. Историята многократно ни демонстрира какви са били пътищата за развитието на различните общества. При сравнително кратката история на човечеството (в сравнение с възрастта на Вселената) са паднали цивилизации като Маите, Древната Месопотамия, Древната Гърция, Древния Рим и т.н.

На пръв поглед може да ни се стори, че историята на падането на древните цивилизации и империи не се отнася за нас. Нали ние сме по-могъщи – изстрелването на ракети в космоса и извеждането на сателити в орбита, изучаването на другите планети и свързването на нашия свят в единно информационно поле би трябвало да ни донесе едно по-добро бъдеще. Но както често се случва, реалността показва една съвсем друга картина – ние директно сме се насочили към катастрофата и може би към тотално изчезване.

Това показват резултатите от стотици научни изследвания. Наскоро бе публикуван нов доклад на Междуправителствената експертна група по климатични промени (IPCC), специално посветен на климатичните проблеми. Изводът на експертната група изобщо не е утешителен – според учените в най-добрия случай на нашата цивилизация са останали 500 години живот.

Но стремително променящият се климат, независимо дали искаме това или не, не е единствената заплаха за човечеството. И докато учените и експертите от целия свят са заети с решаването на проблемите, възникващи от глобалното затопляне, редица изследователи се осмелиха да прогнозират какво ще бъде нашето технологично бъдеще. Оказва се, че наистина имаме от какво да се опасяваме.

Какво е изкуственият интелект?

Изкуственият интелект е опит да бъдат създадени компютри, които имат разумно поведение. Всъщност това е един универсален термин, който се използва почти за всичко – от Siri до IBM Watson и новите мощни технологии, които тепърва предстои да изобретим.

Редица учени класифицират сегашния изкуствен интелект като „тесен ИИ“ или слаб ИИ. Това са компютърни системи, които са по-добри от хората в някаква конкретна и тясно специализирана област, като например шах, генериране на изображения или диагностика на различни тежки заболявания. Другият тип изкуствен интелект е общият ИИ. Това са изчислителни компютърни системи, които могат да надхвърлят човешките възможности в много области. Към днешен ден все още няма общ ИИ, но експертите все по-добре започват да осъзнават проблемите, които той може да създаде.

През последните няколко години тесният ИИ постигна изключителен прогрес. Към днешен ден компютърните системи, използващи алгоритми с елементи на изкуствен интелект, много добре се справят с превода на чужди езици, с играта на шах и Го, и помагат в решаването на важни въпроси от сферата на изследователската биология.

Нещо повече, компютърните системи с ИИ определят какво точно ще видим в търсачката на Google или в новинарската лента на Facebook. Ти вече могат да съчиняват музика и да пишат статии, които поне на пръв поглед не се различават много от написаните от човек текстове. Подобни системи се използват за по-добро насочване на безпилотните летателни апарати, в автономните дронове, както и за откриване на балистични ракети.

Но тесният ИИ става все по… слаб. Към днешен ден учените успяха да постигнат значителен прогрес в областта на изкуствения интелект чрез търпеливо и внимателно обучение на компютърните системи на конкретни концепции. От друга страна, през последните години интересът на почти всички изследователи е насочен към създаването на компютърни системи, които могат да се самообучават.

Казано с други думи, вместо математичното и алгоритмично описание на всички подробности на даден проблем, учените дадоха възможност на компютърните системи да изучават тези особености самостоятелно. След като тази концепция започна да се използва, ИИ системите веднага започнаха да демонстрират по-широки възможности.

Като цяло прогресът в областта на изкуствения интелект даде възможност на учените да постигнат огромни успехи, но в същото време повдигна сериозни етични въпроси. Така например, Роузи Кемпбъл от център за изследване на ИИ към Калифорнийския университет в Бъркли твърди, че сегашните затруднения и проблеми нямат нищо общо със страховитите сценарии от филмите за въстание на машините. Според нея основните проблеми възникват от несъответствието между това, което ние нареждаме да вършат нашите ИИ компютърни системи, и това, какво наистина искаме от тях.

Други проблеми възникват от това, че тези ИИ системи са наистина много добри в постигането на поставената или зададената цел, само че знанията, които те са усвоили в своята учебна среда, не са това което учените действително са искали да постигнат.

В резултат от това се създават компютърни системи с изкуствен интелект, които ние не разбираме, а това означава че далеч не винаги можем да предвидим тяхното поведение.

Потенциалните заплахи от ИИ

Ето че стигнахме до най-интересното. Ако учените наистина се сблъскват с описаните по-горе проблеми, то какви заплахи могат да възникнат след най-новите открития в сферата на изкуствения интелект? Към днешен ден все повече изследователи сериозно се съмняват в нашата способност да управляваме свръхразум, в какъвто могат да се превърнат обучаваните от нас системи.

Работата е в това, че за управлението на един свръхразум, който е далеч извън пределите на човешкото разбиране, трябва да имаме някаква поне приблизителна имитация на този свръхразум, която да можем спокойно да анализираме. Но ако не сме в състояние да разберем подобни системи, то създаването на подобна симулация е невъзможно. Нещо повече, ние дори не можем да вградим в този ИИ от нов тип основния постулат на трите закона на роботиката, предложени от Айзък Азимов – да не се причинява вреда на хората. Това е логично, понеже щом не разбираме какви сценарии възнамерява да измисли един мощен ИИ, то как бихме могли да ги предотвратим?

Веднага щом дадена компютърна система започне да работи на ниво, превишаващо възможностите на нашите програмисти, ние повече няма да можем да поставяме каквито и да било ограничения“ – заявиха авторите на научната работа, която бе публикувана в списание Journal of Artificial Intelligence Research.

Интересно е, че част от разсъжденията, описани в тази научна работа, имат корени в трудовете на Алън Тюринг още от 1936 година. С помощта на сложни математични уравнения той е успял да измисли абстрактна изчислителна машина, която формализира определянето на алгоритъма.

С други думи, той се е опитал да разбере, дали е възможно решаването на произволна задача с помощта на математически алгоритми, както и какво може да бъде решено единствено чрез метода на грубата сила – проверката на всички варианти. Интересно е, че самият Тюринг е считал, че към 2000-та година машините ще могат да измамят хората в 30% от случаите.

Описването на емблематичната към днешен ден „Машина на Тюринг“ в крайна сметка даде възможност на учените да пристъпят към решаването на подобни сложни задачи.

Друг проблем в случай на поява на някакъв нов суперинтелект е в това, че той веднага би разбрал алгоритмите и начина на работа на която и да било програма, специално написана да го спре да убие всички хора. Това е вярно, понеже ние не можем да бъдем абсолютно сигурни какво точно ще реши и какви действия ще приеме подобен супер ИИ. Или казано съвсем опростено, няма да е възможно създаването на програма, която да спре един мощен ИИ да унищожи всички хора.

Как се пак да спрем подобен супер изкуствен интелект?

Алтернативата е бъдещите мощни ИИ да бъдат обучени на етика, след което да им бъде указано, че светът не бива да бъде разрушаван. Друга идея е да бъдат ограничавани възможностите на този свръхразум. Така например, той може да бъде изключен от някои сегменти на интернет и от определени локални мрежи.

Друго изследване, което бе публикувано в началото на тази есен, отхвърли тази идея чрез интересен аргумент. Идеята е, че ако не възнамеряваме да използваме ИИ за решаването на проблеми, излизащи извън рамките на човешките възможности, то тогава защо изобщо да го създаваме?

Ако искаме да изградим бъдеще, в което масово се използват ИИ системи, то ние дори може да не разберем кога ще се появи въпросният свръхразум, понеже той е отвъд нашето разбиране и нашия контрол. И тъй като всички се стремят към създаването на подобен свръхразум, явно е дошло времето да се задават сериозни въпроси за посоките, в които се развива тази технология.

„Съществуването на суперинтелигентна машина, която управлява целия свят, изглежда съвсем като научна фантастика“ – заяви Мануел Събриан от Института за човешко развитие Макс Планк. „От няколко години вече има машини, които извършват определени твърде важни задачи съвсем самостоятелно, без програмистите да разбират как са се научили на това“.


Ето защо възникна големия въпрос – може ли ИИ в един момент да стане неконтролируем и опасен за човечеството? Илън Мъск например, както и покойният вече британски физик теоретик Стивън Хокинг, считат че това е точно така. Те са на мнение, че създаването на безконтролен мощен изкуствен интелект е по-опасно от създаването на атомната бомба и може да доведе до техногенна катастрофа. Има и други мнения. Каква е истината навярно ще разберем съвсем скоро.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest
5 Коментара
стари
нови
Отзиви
Всички коментари

Нови ревюта

Подобни новини