Тимнит Гебру, изтъкнат изследовател в сферата на изкуствения интелект и пионер по въпросите на т.нар. „алгоритмично пристрастие“ (algorithmic bias), беше уволнена от настоящия си работодател Google, предава OneZero. Понятието „алгоритмично пристрастие“ обозначава съществуването на случаи на системни грешки в моделите, които отдават предпочитане на една или друга група от хора пред друга.

Гебру ръководи групата Ethical Artificial Intelligence Team в Google, създател е на групата Black in A.I., чест защитник на правата на служителите в компанията, на които се отказва сдружаването в профсъюзи и изразяване с несъгласие на политиките на компанията. Преди две години тя е един от авторите на изследване, което проучва начина на работа на три широко използвани AI системи за лицево разпознаване. То показва, че въпросните системи показват пренебрежимо отклонение при разпознаване на мъжки лица със светъл цвят на кожата и огромен праг на грешка – при тъмнокожи и жени. Тези открития на Гебру и екипа ѝ създават сериозни коментари в публичното пространство и призиви за промяна.

„Същите инфоцентрични техники, които могат да се използват за определянето на нечий пол се използват също така и за разпознаването на човек в търсенето на заподозрян в престъпление или когато си отключвате телефона си. И тук не става въпрос единствено за компютърната визия. Надявам се, че това ще даде повод за полагането на повече усилия за справяне с проблема“, споделя по това време Джо Боуламуини от групата Civic Media към MIT Media Lab.

В комуникация с OneZero, Гебру разказва, че след породил се конфликт между нея и един от преките ѝ ръководители, тя е заявила свои конкретни изисквания, които ако не бъдат удовлетворени, тя може да напусне компанията в бъдеще. За нейна изненада, тя бива освободена веднага – без предупреждение. Ябълката на раздора в случая се явява още една публикация на Гебру и нейни колеги, в която се изтъкват рисковете с популярен метод за приучаване на AI модели – доклад с името On the Dangers of Stochastic Parrots: Can Language Models Be Too Big.

Публикацията на Гебру и нейните колеги отправя критика към настоящето състояние на обработката на големи езикови модели, метод, при който изкуствения интелект бива захранван от огромни масиви от текст. Както посочва Карен Тао от MIT Technology Review, този тип метод е особено популярен в последните години и – използван при правилни обстоятелства – изключително добър във възпроизвеждането на изцяло нови текстове. Документът изтъква потенциалните рискове, свързани с метода и липсата на стратегии за избягването им. Изтъкват се четири основни критични момента в метода. Като това, че той изисква непропорционално големи количества енергия и това съответно е метод, който не е щадящ природата. Самите текстове, с които биват захранвани тези модели не биват подлагани на предварителна проверка, което означава, че тук могат да попаднат расистки, сексистки и друг тип текстове с обидно и нерегламентирано съдържание. Третата критика е свързана с подбора на самите модели и интереса на големите технически модели, които се стремят да манипулират текстовите масиви по-добре, а не такива, които могат да постигнат разбиране и са изградени на по-малки и по-добре подбрани текстови блокове. Последният акцент в изложението на учените се явява възможността те да бъдат използвани за заблуждавани на читателя.

Тао привежда два от многото примери за грешки и откровени манипулации, като например колежанин, който използва изкуствен интелект, който генерира съвети за самопомощ и стимулиране на продуктивността. Прекаленото доверие в технологията може да доведе и до немислими последици. През 2017, алгоритмите на Facebook превеждат публикация на палестинец, в която той поздравява с „Добро утро“ на арабски, а мрежата ги превежда като „Атакувайте ги“ на иврит, което довело до ареста му.

Конфликтът между Гебру и нейните шефове възникнал, поради това, че те не са желали публикацията на нея и нейните колеги да се свързва с Google. По думите им, проучването не отговаря на академичните стандарти на компанията, макар че Гебру и четиримата ѝ колеги от компанията са изтъкнати специалисти в областта и са приведени множество проучвания по темата на други изследователи и специалисти по изкуствен интелект.

Самите Google са в основата на настоящето развитие на големите езикови модели. Преди три години, компанията разработва Transformer, езиков модел, който стои в основата на по-новия му вариант BERT, който от своя страна е движещата сила зад успеха на търсачката на Google. Transformer е в основата и на GPT-2 и GPT-3.

Емили Бендер, един от авторите на изследването, споделя, че настоящите действия на Google могат да имат негативен ефект върху изследванията в областта на етиката на изкуствения интелект. Много от хората, които се занимават с тази тема работят именно в тези големи технологични компании, тъй като все пак те разполагат със средствата и ресурсите нужни за това. „Това облагодетелстваше и двете страни в много отношения. Но в крайна сметка се оказва, че имаме една екосистема, която може би има цели, които не се припокриват с тези, които искат науката по света да се развива“, заявява мнението си Бендър пред MIT Technology Review.

Скоро след освобождаването на Гебру, стотици нейни колеги застават на нейна страна, като 1500 служители на Google изпращат на ръководството на Google официално протестно писмо. „Ние, долуподписаните, изказваме солидарност с доктор Гебру, която беше отстранена от позицията си като изследовател и един от ръководителите на групата Ethical Artificial Intelligence (AI) в Google след извършена безпрецедентна цензура на изследването“, гласи текста на писмото.

5 3 гласа
Оценете статията
Абонирай се
Извести ме за
guest
14 Коментара
стари
нови оценка
Отзиви
Всички коментари