Nvidia T4 дебютира в облака на Google

Графичните чипове все по-често се превръщат в стандарт при обработката на изчисления, свързани с изкуствения интелект и машинното обучение. Все по-често те влизат в облака, където тяхната мощ бива отдавана под наем за целите на гласовото и лицевото разпознаване, автономния транспорт и др. Nvidia са една от компаниите, които работят усърдно в доставянето на подобни технологии и особено за обработката на AI задачи, изпълнявани в мрежовата периферия за ускоряване на услугите. Един от новите процеси, към които много от тези компании се стремят да задоволят търсенето е инференцията или способността на невронните мрежи да извличат ново знание от информацията, която е вкарвана в тях, в реално време – за разлика от базисния модел на обучение на мрежите.

Тази седмица, шефът на Nvidia, Дженсен Хуанг, разкри, че една от техните технологии, помагащи именно за този и сходни процеси, ще стане достъпен за ползване в облака на Google. Става дума за T4, облачен графичен чип, който компанията представи по-рано тази есен. Анонсът за входа на T4 в облака на Google беше направен по време на конференцията SC18, която се провежда в Далас. Google ще са първите, които ще предлагат в облака си T4, но вероятно няма да са единствените.

Йън Бък от звеното Accelerated Computing към Nvidia, сподели по време на анонса, че заради малкия си размер и относително нисък енергиен разход, Т4 е особено подходящ за AI приложения, разположени по периферията на мрежата. Той може да се използва и със завиден успех при разпределено обучение на AI модели, но разбира се и за рендиране на компютърни графични модели. Понастоящем, той бива използван в 57 сървърни дизайна на някои от големите играчи в бранша, като Dell EMC, IBM Corp., Lenovo Group Ltd. и Super Micro Computer Inc.

Именно за целите на обработката на инферентни изчисления ще се използва най-вече Т4 в Google Compute Engine. Заедно с това, той ще се предлага и в Google Kubernetes Engine с цел оптимизирано управление на софтуерни контейнери, както и с предложенията, идващи с Cloud Machine Learning Engine на Google.

Коментари
Все още няма коментари
Статистика
Прегледи 144
Коментари 0
Рейтинг
Добавена на13 Ноем 2018
ИзточникKaldata

Тагове
Nvidia, Google