Прозрачността е ключът към етичен изкуствен интелект

0
309

Концепцията за изкуствен интелект (ИИ – Al) с всеки изминал ден, става все по-близо до нашето ежедневие. Свикнали сме да я свързваме с най-актуалните тенденции и технологии в бизнеса, умното управление на градовете и всички други системи за автоматичен контрол. Изкуственият интелект наистина е средство, което ще измени начина ни на живот драстично, надяваме се към по-добро.

С развитието на изкуствения интелект обаче, непрекъснато се отварят нови въпроси – за сигурността, поверителността и етичността. Сам по себе си, ИИ може да бъде използван за изключително широк спектър от цели, а дейностите, които теоретично може да изпълнява, покриват почти всички настоящи начинания на хората. Както разбирате, изкуственият интелект може да бъде употребен почти навсякъде, като интересът към него е еднакъв и от „добрата страна“ – обществения прогрес, улесняването на човешкото ежедневие и развитието на технологиите, така и от „лошата страна“ – все по-креативни, мащабни, систематизирани и гениални престъпления. Именно тук идва въпросът за средствата за контрол.

Каква е ролята на данните при ИИ?

Данните са горивото, което задвижва ИИ, и тъй като те са едно от най-ценните неща на съвременното общество, въпросите относно етиката при разработването на изкуствен интелект, вълнуват целия свят. Регламенти като GDPR на Европейския съюз и Закона за защита на личната информация на Южна Корея стигнаха дотам, че поставиха данните, в позиция на един от най-защитаваните от закона обекти. Организациите непрекъснато се наблюдават стриктно дали спазват всички разпоредби, за защита на клиентските данни.

Етиката обаче далеч не се ограничава само и единствено със спазването на законите за личните данни. Потребителите все повече осъзнават от какво значение са техните лични данни, и как са едно от най-неприкосновените неща, с които разполагат – ако бъдат компрометирани, животът им може да се промени из основи. Именно за това етичността е особено важна и хората се вълнуват най-много за нея, когато за данните ви отговаря изкуствен интелект.

Законите и доверието?

Законите с непрекъснати малки крачки доказват, че хората държат изключително много на личните данни, като технологичните гиганти непрекъснато са под контрола на световните регулатори и правителства, за да се гарантира, че няма да злоупотребят или да си позволят волности.

Доверието е основополагащо за бизнеса. Една четвърт от хората по света биха предприели незабавни средства (без да се конкретизира какви), ако разберат, че личните им данни не се съхраняват достатъчно надеждно, независимо дали има изтичане. Фактът, че най-неприкосновеният аспект от живота им е уязвим и може да бъде компрометиран, кара въпросните 25% от населението да се тревожат.

Кой следи за етичността при изкуствения интелект?

Що се отнася до етиката при изкуствения интелект, няма лесен или еднозначен отговор. Световните специалисти обаче залагат на три основни въпроса, които трябва да си задаваме, когато искаме да преценим дали един изкуствен интелект отговаря на етичните норми, и те биват:

  • Знаете ли какво прави Изкуственият Интелект с данните, които обработва?
  • Можете ли да обясните това на хората?
  • Отговорите ще бъдат ли задоволителни за тях, когато ги получат?

Ако отговорът на един от трите въпроса е отрицателен, то определено трябва да се замислим за въпросния изкуствен интелект.

Прозрачността е ключът към доверието в Изкуствения интелект. Организациите, които засекретяват и всячески се опитват да запазят принципите и подходите му в тайна, не могат да очакват доверие от страна на потребителите, при положение, че пред тях не стои ясно и прозрачно обяснение какво прави една ИИ-базирана система с техните данни.

FATE

Технологичните експерти по света са оформили рамка за справедливост, информираност, прозрачност и яснота по отношение на изкуствения интелект, която се нарича FATE (абревиатура от съответните думи на английски език).

FATE насърчава отговорността и прозрачността на всеки етап от работата на ИИ, от събирането на данните, до последния анализ. ИИ решенията трябва да бъдат справедливи и безпристрастни, като това означава, че всички трябва да бъдат чувствителни състава на екипа, който работи зад даден изкуствен интелект, какво е естеството на данните, които биват събирани и обработвани, какви са крайните цели, и какви средства се използват през всички етапи на обработката.

FATE настоява, че е от съществено значение процесът, при който данните в суров вид, се превръщат в твърдения, заключения или друг краен резултат, трябва да бъде напълно ясен и прозрачен, достъпен за разбиране от всеки един потребител. Също така настоява, че потребителите винаги имат право да задават въпроси по отношение на работата на един ИИ, а ако отговорите и информацията, която получават, не са достатъчно изчерпателни и убежденията им са колебливи и двусмислени, имат правото да се откажат от използването на дадена ИИ платформа.

Какво предстои?

Развитието на ИИ все още е в зародиш, макар всичкия напредък, за който непрекъснато слушаме и всички системи, за които знаем, че го използват. Именно за това, за ИИ е от съществено значение да има човешки надзор, който да гарантира, че решенията, които се вземат автоматизирано, няма да нарушат ценностите, етиката и регулационните норми на компанията, оперираща с въпросния ИИ. Ръчният човешки преглед на грешките, които хората допускам при разработването и експлоатацията на ИИ, вероятно ще бъде най-съществения източник на информация за непрекъснатото усъвършенстване.

Изкуственият интелект е неразделна част от нашето бъдеще, но сред голям процент от обществото, той е неясен, странен, понякога дори плаши. Характерно е за човешката природа да се страхува от това, което не разбира. Именно поради това рамката FATE настоява – прозрачност и само прозрачност са пътят към клиентското доверие.

ДОБАВИ КОМЕНТАР

avatar
  Абонирай се  
Извести ме за