fbpx
7.3 C
София

Какво да очакваме от „ИИ“ през 2023 година

Най-четени

Какво предстои да се случи с изкуствения интелект през 2023 година? Ще ограничи ли регулацията най-лошото, което носи „ИИ“, или „вратите“ остават отворени? Ще се появят ли мощни, трансформиращи нови форми на „ИИ“, като ChatGPT, които ще разрушат индустриите, смятани някога за защитени от автоматизация?

Очаквайте повече ИИ приложения, създаващи изкуство

С успеха на Lensa, задвижваното от изкуствен интелект приложение за селфита от Prisma Labs, което се разпространи със скоростта на вирус, можете да очаквате много подобни приложения в тази насока. Очаквайте също така те да могат да бъдат подвеждани да създават NSFW изображения и да сексуализират и променят непропорционално външния вид на жените.

Максимилиан Гахнтц, старши изследовател в областта на политиките във фондация Mozilla, заяви, че очаква интегрирането на генеративния изкуствен интелект в потребителските технологии да засили ефектите от подобни системи – както добрите, така и лошите.

Stable Diffusion, например, е била захранвана с милиарди изображения от интернет, докато не се е „научила“ да свързва определени думи и понятия с определени изображения. Моделите за генериране на текст редовно са били лесно подлъгвани да поддържат обидни възгледи или да създават подвеждащо съдържание.

Майк Кук, член на отворената изследователска група Knives and Paintbrushes, се съгласява с Гахнтц, че генеративният ИИ ще продължи да се оказва основна и проблематична сила за промяна. Но той смята, че 2023 гoдина трябва да е годината, в която генеративният ИИ „най-накрая ще вложи парите си там, където трябва“.

„Не е достатъчно да мотивираме общност от специалисти да създават нови технологии, за да се превърне технологията в дългосрочна част от живота ни, тя трябва или да донесе на някого много пари, или да окаже значимо въздействие върху ежедневието на широката общественост“, казва Кук. „Така че прогнозирам, че ще видим сериозен стремеж да се направи така, че генеративният ИИ действително да постигне едно от тези две неща, с променлив успех.“

Артисти и дизайнери с общи усилия за ограничаване на използването на техните произведения

DeviantArt пусна генератор на изкуство с изкуствен интелект, изграден на базата на Stable Diffusion и доработен с произведения на изкуството/изображения от потребителите на общността. Генераторът на изкуство беше посрещнат с шумно неодобрение от дългогодишните потребители на DeviantArt, които критикуваха липсата на прозрачност на платформата при използването на каченото от тях изкуство за обучение на системата им.

Създателите на най-популярните системи – OpenAI и Stability AI – твърдят, че са предприели мерки за ограничаване на количеството вредно съдържание, което техните системи произвеждат. Но ако се съди по много от постовете в социалните мрежи, е ясно, че има още много работа за вършене.

„Наборите от използвани данни изискват активен преглед, за да се решат тези проблеми, и трябва да бъдат подложени на значителен контрол.“, каза Гахнтц, сравнявайки процеса с продължаващите спорове относно модерирането на съдържанието в социалните медии.

Компанията Stability AI, която до голяма степен финансира разработването на Stable Diffusion, наскоро се подчини на обществения натиск, като сигнализира, че ще позволи на артистите да се откажат от набора от данни, използван за обучение на следващото поколение модел Stable Diffusion. Чрез уебсайта HaveIBeenTrained.com притежателите на права ще могат да поискат отказ от участие преди началото на обучението след няколко седмици.

OpenAI не предлага такъв механизъм за отказ, а предпочита да си партнира с организации като Shutterstock за лицензиране на части от галериите с изображения. Но като се имат предвид правните и чисто рекламните препятствия, пред които е изправена заедно със Stability AI, вероятно е само въпрос на време тя да последва примера.

В крайна сметка съдилищата могат да я принудят да се възползва от това. В САЩ срещу Microsoft, GitHub и OpenAI се води колективен иск, който ги обвинява, че нарушават закона за авторското право, като позволяват на Copilot, услугата на GitHub, която интелигентно предлага редове от кода, да използва части от лицензиран код, без да предоставя източник.

Вероятно в очакване на съдебното оспорване GitHub наскоро добави настройки, които предотвратяват появата на публичен код в предложенията на Copilot, и планира да въведе функция, която ще посочва източника на предложенията за код. Но това са несъвършени мерки. Поне в един случай настройката на филтъра накара Copilot да излъчи големи части от код, защитен с авторско право, включително целия текст за авторство и лиценз.

Очаквайте засилване на критиките през следващата година, особено след като Обединеното кралство обмисля правила, които биха премахнали изискването системите, обучени чрез публични данни, да се използват за некомерсиални цели.

Усилията в областта на отворения код и децентрализацията ще продължат да нарастват

През 2022 гoдина на сцената доминираха няколко компании за изкуствен интелект, предимно OpenAI и Stability AI. Но през следващата година тенденцията може да се измени отново към областта на отворения код, тъй като възможността за изграждане на нови системи излиза извън рамките на „богатите на ресурси и мощни лаборатории за изкуствен интелект“, казва Гахнтц.

Подходът на общността може да доведе до по-строг контрол на системите в процеса на тяхното изграждане и внедряване, каза той: „Ако моделите са отворени и ако наборите от данни са отворени, това ще даде възможност за много повече критични изследвания, които посочват много от недостатъците и вредите, свързани с генеративния ИИ, и които често са били твърде трудни за провеждане.“

„Съвременните генеративни модели са изчислително скъпи за обучение и работа. Според някои оценки дневните разходи на ChatGPT възлизат на около 3 милиона долара“, казва по имейл Чандра Бхагаватула, старши научен сътрудник в Института за изкуствен интелект „Алън“. „За да се направи това търговско жизнеспособно и по-широко достъпно, ще бъде важно да се обърне внимание на този проблем.“

Въпреки това Чандра посочва, че големите лаборатории ще продължат да имат конкурентни предимства, докато методите и данните останат патентовани. В неотдавнашен пример OpenAI пусна Point-E – инструмент, който може да генерира 3D обекти при задаване на определен текст. Въпреки че от OpenAI представиха Point-E, те не разкриха източниците на данните за обучение на Point-E и не ги публикуваха.

„Смятам, че усилията в областта на отворения код и децентрализацията са абсолютно полезни и са в полза на по-голям брой изследователи, практици и потребители“, казва Чандра. „Въпреки това, въпреки че са с отворен код, най-добрите модели все още са недостъпни за голям брой изследователи и потребители поради ограничените им ресурси.“

Компаниите, работещи с ИИ се подготвят за предстоящите регулации

Регламенти като Закона за изкуствения интелект на ЕС могат да променят начина, по който компаниите разработват и внедряват системи с изкуствен интелект занапред. Това може да се случи и на местно ниво, като например статута на Ню Йорк за наемане на ИИ, който изисква ИИ и алгоритмичните технологии за набиране на персонал, наемане или повишение да бъдат одитирани за пристрастност, преди да бъдат използвани.

Чандра смята, че тези разпоредби са необходими, особено в светлината на все по-очевидните технически недостатъци на генеративния ИИ, като например склонността му да изнася фактологически грешна информация.

„Това прави генеративния ИИ труден за прилагане в много области, където грешките могат да имат много висока цена – например в здравеопазването. Освен това лесното генериране на невярна информация създава предизвикателства, свързани с дезинформацията.“, каза тя. „И все пак, системите с ИИ вече вземат решения, които са натоварени с морални и етични последици.“

Следващата година няма да донесе само заплахата от регулиране – очаквайте още много спорове за правила и съдебни дела, преди някой да бъде глобен или обвинен. Компаниите все още могат да се борят за позиция в най-изгодните категории на предстоящите закони, като например рисковите категории на Закона за ИИ.

В сегашния си вид правилото разделя системите за ИИ на една от четирите рискови категории, всяка от които има различни изисквания и нива на контрол. Системите в най-високата рискова категория – „високорискова“ ИИ (напр. алгоритми за оценка на кредитоспособността, приложения за роботизирана хирургия), трябва да отговарят на определени правни, етични и технически стандарти, преди да им бъде разрешено да навлязат на европейския пазар. Най-нискорисковата категория, „минимален или никакъв риск“ ИИ (напр. филтри за спам, видеоигри с ИИ), налага само задължения за прозрачност, като например информиране на потребителите, че взаимодействат със система с ИИ.

Ос Кейс, кандидат за доктор на науките във Вашингтонския университет, изрази притеснение, че компаниите ще се стремят към най-ниското ниво на риск, за да сведат до минимум собствените си отговорности пред регулаторните органи.

„Като оставим настрана тази загриженост, Законът за ИИ наистина е най-положителното нещо, което виждам на масата“, каза той. „Не съм видял нищо особено от Конгреса.“

Инвестициите им не са сигурни

Гахнтц твърди, че дори ако дадена система за ИИ работи достатъчно добре за повечето хора, но е дълбоко вредна за някои, „все още ще имат много „домашно“ за писане“, преди компанията да може да я направи широко достъпна. „За всичко това има и бизнес аргументи. Ако вашият модел генерира много объркани неща, потребителите няма да го харесат“, добави той. „Но очевидно става въпрос и за справедливост.“

Не е ясно дали компаниите ще бъдат убедени в този аргумент през следващата година, особено след като инвеститорите изглеждат нетърпеливи да вложат парите си във всеки обещаващ генеративен ИИ.

В разгара на противоречията около „стабилната дифузия“, Stability AI набра 101 млн. долара финансиране при оценка от над 1 млрд. долара от известни спонсори, сред които Coatue и Lightspeed Venture Partners. Твърди се, че OpenAI се оценява на 20 млрд. долара, тъй като влиза в напреднали преговори за привличане на допълнително финансиране от Microsoft (Microsoft преди това инвестира 1 млрд. долара в OpenAI през 2019 г.).

Разбира се, това може да са изключения от правилото.

Инвеститорите могат да се насочат към по-безопасни „залози“, като например автоматизиране на анализа на оплаквания на клиенти или генериране на потенциални клиенти за продажби, дори ако те не са толкова привлекателни възможности като инвестиции, колкото генеративния ИИ. Това не означава, че няма да има големи инвестиции, които да привличат вниманието, но те ще бъдат запазени за играчи с влияние.


Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!

Абонирай се
Извести ме за
guest

1 Коментар
стари
нови оценка
Отзиви
Всички коментари

Нови ревюта

Подобни новини