Рeчь идёт oб ускoритeлe Nervana Neural Network Processor for Inference (NNP-I). Oчeвиднo, этo тo рeшeниe, нaд кoтoрым Intel вмeстe работает с компанией Facebook. В начале января 2019 года на CES 2019 компании сообщили, что создают высокоэффективный чип для ускорения нейронных сетей с функцией принятия решений. Это важная составляющая платформ с машинным обучением и функциями искусственного интеллекта. Она не такая ресурсоёмкая, как обучение и может быть сравнительно легко делегирована периферийным устройствам. Но без функции принятия решений ни одна модель машинного обучения не стоит выеденного яйца. Оказалось, что Nervana Neural Network Processor for Inference ― это модифицированный 10-нм процессор поколения Ice Lake. Оно связано с выбранным для NNP-I вариантом изготовления, что оказалось очень интересным. Спецификациями разъём и формфактор M.2 предназначены не только для SSD-накопителей, хотя именно они тотально выпускаются в таком виде. Или ускорители NNP-I, как решили в Intel. Актуальные спецификации M.2 не разрешают использовать питание с потреблением свыше 15 Вт, что ограничит производительность NNP-I при подключении к соответствующим разъёмам на материнской плате. Ожидается, что поставщики облачных услуг получат NNP-I и необходимый инструментарий до конца текущего года. Можно ожидать, что компания Facebook станет первой из них. Источник:
Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER. Материалы по теме