fbpx
13.8 C
София

OpenAI са плащали на кенийци по 2 долара на час, за да направят ChatGPT по-малко токсичен

Най-четени

Твърди се, че компанията OpenAI, която стои зад ChatGPT – чатбот с изкуствен интелект, който завладява интернет, е използвала нископлатени кенийски работници, за да го обезопаси.

Кенийските работници са получавали по-малко от 2 долара на час, за да пресяват големи количества графично съдържание. Помагали са за създаването на инструмент, който маркира проблемно съдържание, пише в разследване на Time.

Маркираните данни за чувствителни изображения и текстове са били използвани за обучение на ChatGPT.

Целта е ботът да не предоставя опасно съдържание в отговор на запитвания. Тази работа е възложена на Sama, базирана в Сан Франциско фирма, която наема работници в Кения, Уганда и Индия. 

Те маркират данни за клиенти от Силициевата долина като Google, Meta и Microsoft.

Според вътрешните документи, получени от Time, по договорите на Sama на работниците е било възложено да етикетират текстове, описващи сексуални посегателства, реч на омразата и насилие. 

За това служителите са получавали между 1,32 и 2 долара на час.

По същия начин Facebook използва изкуствен интелект, създаден по този метод, за откриване на токсичен език като реч на омразата, за да помогне за премахването му от своите платформи. OpenAI използва изкуствен интелект с етикетирани примери за насилие, реч на омразата и сексуална злоупотреба, за да създаде инструмент, който може да се научи да открива подобна реч в природата.

В периода от ноември 2021 г. OpenAI е изпратила на Sama десетки хиляди фрагменти от текст, в които графично са описани всякакви ситуации на непозволено поведение. 

Нашата мисия е да гарантираме, че изкуственият общ интелект е от полза за цялото човечество, и работим усилено за изграждането на безопасни и полезни системи за изкуствен интелект, които ограничават пристрастията и вредното съдържание. Класифицирането и филтрирането на вредни текстове и изображения е необходима стъпка за свеждане до минимум на количеството насилствено и сексуално съдържание, включено в данните за обучение, и за създаване на инструменти, които могат да откриват вредно съдържание.

Заявиха от OpenAI пред Time.

Съобщава се, че работата е причинила сериозни страдания на някои от етикетиращите данни служители.

Компанията Sama, която се рекламира като „етична компания за изкуствен интелект“, вече е имала проблеми заради отношението си към работниците. В случая бяха ангажирани с модериране на вредно съдържание за технологични гиганти като Facebook.

Компанията е подлагала работниците, модериращи постове във Facebook, на нередовно заплащане, неадекватна подкрепа за психичното здраве, саботирала е техните профсъюзи и нарушавала правото им на личен живот и достойнство.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

13 Коментара
стари
нови оценка
Отзиви
Всички коментари

Нови ревюта

Подобни новини