Даването на възможност на алгоритмите да правят потенциално променящи живота решения за хората идва с големи рискове. Според Центъра за етика на данните и иновации във Великобритания има голям риск от дискриминация.
В някои сектори има нужда да се осигурят адекватни ресурси, които да направят, така че изкуственият интелект да бъде безпристрастен. Това засяга най-вече публичния сектор. Центърът е прекарал две години в проучване на използването на алгоритми в частния и публичния сектор.
Въпреки че осъзнаването на заплахите, които AI може да представлява, нараства във всички отрасли, докладът установява, че няма конкретен пример за добри практики, когато става въпрос за изграждане на отговорни алгоритми. Това е особено проблематично при предоставянето на обществени услуги, от които гражданите не могат да се откажат.
Проблемът е най-силно изразен при органите за опазване на сигурността като полицията
В много държави полицейските сили усилено въвеждат използването на дигитални технологии. Влагат се десетки и стотици милиони за разработването на полицейски програми. Инструментите, с които полицията иска да разполага, са от такива за визуализация на информация до алгоритми, които могат да откриват модели на потенциално извършване на престъпление и дори такива за предсказване на вероятността някой да повтори нарушаване на закона.
Ако те започнат да се използват масово без съответните мерки за безопасност, определено може да има сериозни последствия
Има доклади, че информацията на полицията не е безпристрастна и често не отговаря на реалната дистрибуция на престъпленията – по раса, пол, възраст и други подобни.
Заради това от Центъра за етика на данните и иновации настояват за правителствени насоки в създаването на национален подход при анализирането на информация на Острова.
Смята се, че такова нещо трябва да се въведе повсеместно.
Другият проблем е, че използването на изкуствения интелект и анализирането на данни ще става все по-широко използвано в социалните услуги, образованието и транспорта.
Пример за инцидент на Острова е алгоритъм, който регулаторът Ofqual създава преди няколко месеца. Неговата цел е да постави финални оценки на учениците, за да не се организират изпити по време на пандемията.
Оказва се, че алгоритъмът прави съмнителни предположения, които са основани на нечестна информация за представянето на училищата в миналото. След като става ясно, че инструментът не работи правилно, неговата методика е отменена и учителите са поставили съответните оценки по своя преценка.
Вкарването в някаква рамка на изкуствения интелект е от огромна важност и по друга причина
И към момента огромен процент от хората са против използването на AI във взимането на важни решения. Този процент само ще се увеличава, ако подобни неща се допуснат. Хората се страхуват от потенциалните последствия, няма информация как точно тези системи се използват и за какво.
От Центъра отиват по-напред като казват, че AI може да се използва именно, за да се идентифицират историческите човешки предразсъдъци и и те да бъдат премахнати от инструментите за взимане на бъдещи решения.