Amazon представи официално тази седмица свой собствен чип за извършването на AI и ML изчисления с името Inferentia. Той ще бъде достъпен за партньорите и клиентите на компанията посредством AWS EC2, SageMaker, както и в Amazon Elastic Inference, нова услуга, която също направи дебюта си тази седмица. Тя е насочена към оптимизиране на процесите по инференция – предвижданията, извършвани от ML (machine learning) моделите, стоящи в основата на технологии, като безпилотните автомобили и Amazon Alexa.

Проектиран от Annapurna Labs, компания, която Amazon придоби преди няколко години, чипът представя по-ниски нива на забавяне при обработка на данните и по-голяма ефективност относно цената за извършваните изчисления, в сравнение с графичните процесори, като тези от Nvidia, които в момента се приемат като стандарт за извършването на подобни дейности. Очаква се Inferenta да станат достъпни до клиентите на AWS през 2019.

Анонсът за появата на Inferentia беше направен по време на ежегодната конференция на Amazon, re:Invent, лично от шефа на AWS Анди Джаси. Подробни технически характеристики на технологията не бяха разкрити, но е известно, че Inferentia ще е съвместим с всички известни типове данни и големите фреймуърк системи, използвани днес, като PyTorch, TensorFlow и MXNet.

ДОБАВИ КОМЕНТАР

  Абонирай се  
Извести ме за