Твърденията на технологичния предприемач и разработчик Сики Чен, че GPT-5 „ще“ постигне изкуствен общ интелект (AGI) до края на тази година, предизвикаха вълнение в света на ИИ.
Ако твърдението е вярно, този напредък в технологията на ИИ може да има сериозни последици.
„Казаха ми, че GPT-5 трябва да завърши обучението си през декември тази година и че OpenAI очаква той да постигне AGI.“
написа Чен в Twitter в понеделник
Това означава, че с ъпгрейд на GPT-5, генеративният ИИ може да бъде неразличим от човека.
Междувременно Чен коментира, че не иска да каже, че постигането на AGI с GPT5 е консенсусно убеждение в рамките на OpenAI, „но не малко хора вярват, че ще се стигне дотам“.
Способността на ИИ да научи и разбере всяка задача или концепция, която хората могат, се нарича AGI, докато ИИ се отнася до машина, която може да изпълнява конкретни задачи. AGI е по-високо ниво на изкуствен интелект, което не е ограничено до конкретни задачи или функции.
От друга страна, AGI може да повиши производителността чрез ускоряване на процесите, базирани на ИИ да освободи на хората от повтарящи се и еднообразни задачи.
Предоставянето на толкова големи правомощия на ИИ обаче може да има непредвидени и дори отрицателни последици. Това може да направи възможно изключително убедителни ботове, подобни на човекоподобни да се разпространяват в платформите на социалните медии, което ще даде възможност за скрито разпространение на вредна дезинформация и пропаганда.
Последици от властта на изкуствения интелект
Чен цитира неотдавнашния туит на Йохи Накаджима, в който той описва експеримент свързан с изкуствен интелект, който донякъде „му взривява ума“.
В експеримента на ИИ се задава цел за създаване на следващата му задача и той продължава да генерира и пренарежда собствения си списък със задачи, докато ги изпълнява.
Въпреки че този експеримент засега е свързан само с търсенето, Чен вярва, че с мощта на плъгините за чатботове и GPT-5 „сме много по-близо“ до постигането на AGI, отколкото много хора вярват.
AGI поражда сериозни опасения относно възможните последици от предоставянето на толкова голяма власт на подобен на ChatGPT инструмент.
В сряда Илън Мъск и над хиляда други технологични лидери и изследователи предупредиха, че развитието на ИИ може да ускори разпространението на фалшива информация и пропаганда и че спирането на всякакъв напредък отвъд GPT-4 би било в интерес на човечеството.
„Призоваваме всички лаборатории за изкуствен интелект незабавно да преустановят поне за шест месеца обучението на системи за изкуствен интелект, които са по-мощни от GPT-4. Тази пауза трябва да бъде публична и проверима и да включва всички ключови участници.“
„Ако такава пауза не може да бъде въведена бързо, правителствата трябва да се намесят и да въведат мораториум.“
се казва в писмото