fbpx
8.6 C
София

Хокинг отново говори за опасността от изкуствения интелект

Най-четени

Методи Дамянов
Методи Дамяновhttps://www.kaldata.com/
В "Калдата" от 2012г. насам. С интереси в сферата на информационната и интернет сигурност, дисруптивните технологии (IoT, AI, облак), видеоигрите с душа и послание и интернет свободата. Фен на Кен Ливайн, Ричард Столман и Джон Пери Барлоу.


Макар и в една твърде ранна фаза на практически разработки, идеята за появата на изкуствения интелект и възможността от развитието на напълно автономно мислеща и съзнаваща машина, плаши не един и двама човека. Засега Т-1000 е само в екранна форма, но това, според редица учени и специалисти може да се промени скоро, или може би не чак толкова скоро.

Един от тези учени, които тръбят за появата на робо-апокалипсис е и изтъкнатият физик Стивън Хоукинг. Още миналата година той изрази своите страхове по отношение на изкуствения интелект, опасявайки се, че макар и в краткосрочен план ние да имаме способността да упражняваме контрол над него, то в дългосрочна перспектива, това може да не е така. Тогава той смекчи мрачната картина, която описва, като добави, че докато изкуственият интелект може да се окаже край на човечеството, то той може и да се окаже нещо изключително полезно за човек.

Тези дни Хоукинг присъства на конференцията Zeitgeist 2015, където беше гост, и отново говори по въпроса за бъдещето на изкуствения интелект. И този път той не се поколеба да начертае мрачни краски, свързани с възможността да имаме напълно автономен изкуствен интелект някой ден. „Компютрите ще превземат хората чрез изкуствения си интелект в даден момент през следващите 100 години“, сподели Хоукинг пред гостите на конференцията. „Когато това се случи, ние ще трябва да сме се подсигурили, че целите на машините съвпадат с нашите собствени“. Хоукинг по-рано тази година подписа отворено писмо заедно с редица изтъкнати личности от технологичния свят и други области на познанието, в което призовават за контрол в AI разработките.

Разбира се, примерите за работещ изкуствен интелект днес не са единствено супер машини заемащи пространство, колкото малък хангар, които най-доброто, което могат да покажат е, че успяват да различат сиамска от ангорска котка. Siri и Cortana например, са пример за работеща AI технология. Но, засега поне, личните асистенти от Apple и Microsoft трябва да бъдат програмирани какво да „мислят“ и „говорят“.

Наскоро Илън Мъск пък отново заговори за опасностите на изкуствения интелект, споделяйки, че това е едно твърде опасно съчетание на високите технологии.

А дали Мъск и Хоукинг са прави в предположенията си или мислите по-положително относно възможността за появата на напълно самостоятелен и самоосъзнат изкуствен интелект подобно на начина, по който го прави Алекс Гарлънд, режисьорът на Ex Machina, оставяме да решите вие. Може да прецените кой по-бързо ще унищожи света – човекът, автор на две световни войни и причина за трагедията на милиони семейства, или автономните прахосмукачки.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

0 Коментара
Отзиви
Всички коментари

Нови ревюта

Подобни новини