fbpx
7.6 C
София

Експертите на EPIC представиха „12-те закона на роботиката“

Най-четени

Даниел Десподов
Даниел Десподовhttps://www.kaldata.com/
Новинар. Увличам се от съвременни технологии, информационна безопасност, спорт, наука и изкуствен интелект.

Група защитници на правата на човека от американската неправителствена организация Electronic Privacy Information Center (EPIC) представи набор от правила, които би трябвало да защитят човечеството от бъдещ неконтролиран изкуствен интелект.

Експертите далеч не се задоволиха трите закона на роботиката на Азимов. Списъкът с „12-те закона на роботиката“ бе публикуван на 23 октомври тази година и е доста сложен и дълъг.

Авторите отбелязват, че изкуственият интелект вече оказва все по-голямо влияние на хората – от отпускането на кредит до получаване на работа или присъда. Ето защо, в тази сфера е важно са очертаят основните принципи, които да защитят правата на човека и които няма да допуснат неетични и дискриминационни решения от страна на роботизираните системи.

12-те принципа за етично използване на изкуствения интелект

  1. Право на прозрачност. Всички хора имат правото да знаят факторите, логиката и технологиите, които използва машината, за да вземе решение, което ги засяга
  2. Правото на човешко решение. Само хората, а не алгоритмите могат да вземат окончателното решение
  3. Задължителна идентификация. Организацията, отговорна за ИИ, трябва да е известна на обществото
  4. Справедливост. Институциите трябва да гарантират, че ИИ системите не са пристрастни и не присвояват на хората точки за социален рейтинг (както прави Китай)
  5. Отговорност и оценка. ИИ може да се използва само след предварителни тестове и подробни описания на нейните преимущества, цели и задачи. Разработчиците носят пълната отговорност за решенията, взети от ИИ
  6. Решенията, взети от ИИ трябва да бъдат точни, надеждни и обосновани
  7. Качество на данните. Компаниите задължително трябва да указват източника на данни, използвани за обучаването на ИИ. Тези данни трябва да са качествени и релевантни.
  8. Безопасност. Институциите трябва да оценят рисковете от внедряването на ИИ
  9. Киберсигурност. Разработчиците трябва да осигурят надеждна защита от несанкциониран достъп
  10. ИИ няма право да профилира хората без тяхното съгласие
  11. Преди внедряването на ИИ, независима публична страна трябва да оцени рисковете и да провери механизмите за контрол и безопасност
  12. Задължителна възможност за прекратяване работата на ИИ. Ако човешкият контрол е невъзможен, създателят на съответния ИИ трябва да е осигурил начин за неговото спиране

Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

7 Коментара
стари
нови оценка
Отзиви
Всички коментари

Нови ревюта

Подобни новини