Тази седмица Nvidia Corp. разкри три свои нови решения, представящи иновация в областта на суперкомпютрите, целящи разширяване на възможностите им за обработка на AI натоварвания в много от дейта центровете по света днес.

Става дума за Arm-базирана референция за сървърна архитектура, достъп до суперкомпютър от средата на Microsoft Azure и софтуерния пакет Magnum IO, предназначен за дейта изследователите и изкуствения интелект. По този начин графичното звено на Nvidia продължава да работи в посока на доставянето на решения за развитие на изкуствения интелект и свързаните с него изчисления, след като се потвърждава, че високо паралелната компютъризация, която компанията използва за графичните и гейминг решенията, които доставя са идеални за обработка на натоварванията, свързани с машинното обучение.

Лично изпълнителният директор на Nvidia Дженсен Хуанг присъства на конференцията, посветена на развитието на суперкомпютрите SC19, където и представи споменатата примерна сървърна архитектура. Тя ще позволи на суперкомпютърните центрове, операторите на хиперскални облачни инстанции и организациите да комбинират софтуерно-базираните графични компютърни чипове CUDA на Nvidia с най-модерните Arm сървърни платформи.

„В момента сме свидетели на ренесанс на високоизчислителната компютъризация. Пробивите в областта на изкуствения интелект и машинното обучение начертават наново научните методи и спомагат за появата на нови архитектури“, споделя по времето на конференцията Хуанг. „Внасянето на графичните процесори към платформата на Arm открива вратите за новатори да създават системи, подпомагащи развитието на нови приложения от хиперскалния облак към екзаскалната компютъризация и отвъд“. За да създаде референтната си платформа, Nvidia обединява сили, както с Arm, така и с екосистемата от партньорите на компанията, сред които и Ampere Computing, Fujitsu Ltd. и Marvell Technology Group. В работата участват също така и Cray Inc., подразделение на HPE Enterprise, както и самите HPE.

Анонсирана беше също така и публичната достъпност на облачната преоразмерена NDv2 облачна инстанция на Microsoft Azure, която използва 800 графични чипа Nvidia Tensor Core, свързани помежду си в единична бекенд архитектура от типа Mellanox InfiniBand. По думите на компанията, това ще помогне на ползващите я, за пръв път, да наемат цял AI суперкомпютър директно от десктопа по всяко едно време. „До този момент, достъпът до високоскоростни изчисления, насочени към изкуствения интелект беше резервирано за най-големите бизнеси и организации по света. Новото предложение на Microsoft демократизира изкуствения интелект, като предоставя широк достъп до необходим инструмент, който е нужен за разрешаването на някои от най-големите предизвикателства днес“, заяви Йън Бък, вицепрезидент в Nvidia.

Новината за общото предложение на Nvidia и Microsoft идва на фона на анонсираното наскоро от AWS пускане на една от най-мащабните си EC2 инстанции, подкрепени от EPYC Rome процесорите на AMD и скоро, след като Intel разкриха графичните си процесори за дейта центровете по света Pone Vecchio.

ДОБАВИ КОМЕНТАР

avatar
  Абонирай се  
Извести ме за