Отделът по изкуствен интелект DeepMind на Google, разработи нов метод за обучение на невронните мрежи, съчетаващ най-съвременни алгоритми с известни игри.

Това е новата компютърна система IMPALA, която едновременно изпълнява няколко процеса, а конкретния случай, играе 57 игри на Atari и трупа опит.

Създателите на невронната мрежа AlphaGo, която на няколко пъти победи световните шампиони в играта Го, считат, че машината може да започне да се учи като хората. С помощта на тренировъчната система DMLab-30, базирана на екшън-играта Quake III и аркадните игри на Atari, екипът от специалисти създаде новата архитектура IMPALA (Importance Weighted Actor-Learner Architectures).

IMPALA споделя опита, получен по време на обучението с група изкуствени интелекти, като по този начин, съвместното обучение е многократно по-бързо. Системата преминава игрите не само 10 пъти по-ефективно от всички създавани досега компютърни модели, но и играе едновременно множество видеоигри.

За работата на IMPALA е необходим мощен хардуер, който да обработва големия обем информация, в случая – милиарди кадри. Колкото по-бързо се извършва обработката на информацията, толкова по-бързо се учи новият изкуствен интелект.

Представителите на DeepMind заявиха, че при наличието на достатъчен брой процесори, IMPALA достига производителност от 250 000 кадъра в секунда или 21 милиарда кадъра на денонощие. Това е абсолютен рекорд при задачите от подобен род.

ДОБАВИ КОМЕНТАР

9 коментара за "Новият многозадачен ИИ на DeepMind се учи с рекордна скорост"

avatar
  Абонирай се  
нови стари оценка
Извести ме за
gim
gim

производителност от 250 000 кадъра в секунда

Слаба работа , може да наблюдава само 250 000 човека за 1 сек.

Васил
Васил

Аз го разбирам, че успява да „разчита“ 250 000 кадъра за 1 сек, а какво има на един кадър, дали тълпа от хора, или сам човек, зависи от къде е кадъра

Кольо
Кольо

Скайнет, също така се учеше в началото.

АхОх
АхОх

Отдавна има страхотни алгоритми за намиране на път, за обемни изчисления и т.н.
Също алгоритми за разпознаване на образи.
ДА алгоритмите стават по-добри но това не ги прави ИИ.
За мен ИИ не са тези алгоритми колкото и да се опитват да ми го прокарат това… ИИ е логика и връзки на абстракно ниво , а това не се обучава от игри!
За мен има ИИ и опити с тях, но в масовата медия всички новини са за обикновенни алгоритми които си нанасят корекции в зависимост от статистически опит.

Кольо
Кольо

По отделно да, наистина не ги прави ИИ, обаче все някое съчетание от няколко вида алгоритми, ще прихване и ще забремени Скайнет.

Калин
Калин

Пробвай тогава твойта представа за ИИ колко продуктивна ще е, съпоставена с тази на DeepMind. 😀

АхОх
АхОх
До Калин: работил съм върху научна програма за ИИ и продукт който я приложи.. затова се изказвам – не знам какво стои в кода на DeepMind, не мога да говоря. ИИ има голяма размита зона- може би ти също си прав. Ако се обучава независимо в колко минимална и ограничена област то може би е ИИ. Какво е ИИ и кога ИИ спира да е машина? – може би когато работи на абстрактни дейности, а може би е по-сложно. Какво е човек – кога човек спира да е човек? – ако човек загуби крайник или е малоумен то дали е… Виж още »
Васил
Васил

Намерели с какво да учат ИИ. Със стрелби, насилие (визирам Quake)

paz
paz

Този пример с лабиринта е толкова нелеп и поставен. На моменти се вижда как ИИ се опитва да се ориентира спрямо цвета на стените и картинките. Даже не гледа към наградата като я взима. Да покажат пример с едноцветни стени и без картинки.