Вчера в Сан-Хосе (США) стартовала ежегодная конференция Graphics Technology Conference (GTC), организатором которой выступает компания NVIDIA. Главная презентация была посвящена новому поколению микрочипов Blackwell, предназначенных в первую очередь для разработок в сфере искусственного интеллекта. Производитель называет его самым мощным чипом в мире.
В NVIDIA отмечают, что платформа Blackwell, включающая сопутствующее ПО, предназначена для сверхбыстрых вычислений, которые помогут осуществить прорывы в обработке больших объемов данных, инженерном моделировании, автоматизации проектирования электроники, разработке лекарств, квантовых вычислениях и генеративном ИИ.
Мощные чипы для графики и программное обеспечение NVIDIA являются неотъемлемым компонентом в разработках моделей генеративного искусственного интеллекта, который создает новый контент и идеи. «На протяжении трех десятилетий мы стремились к ускоренным вычислениям с целью обеспечить такие революционные прорывы, как глубокое машинное обучение и ИИ, — сказал Дженсен Хуанг. — Генеративный ИИ — это определяющая технология нашего времени. Blackwell — это двигатель новой промышленной революции».
Blackwell представляет собой гигантский графический процессор. Он содержит 208 млрд. транзисторов. Для сравнения, GH100 имеет 80 млрд. транзисторов. Вторая особенность заключается в том, что GPU Blackwell — это первый многочиповый GPU NVIDIA. Он состоит из двух одинаковых кристаллов, да еще и окруженных микросхемами памяти. Между собой кристаллы соединены шиной NV-High Bandwidth (NV-HBI) с пропускной способностью в 10 ТБ/с. Количество ядер CUDA или каких-либо иных вычислительных блоков пока не раскрывается, но, учитывая гигантский скачок в количестве транзисторов, вполне логично ожидать и огромный прирост количества вычислительных блоков. Вокруг GPU размещены восемь стеков памяти HBM3e суммарным объемом 192 Gb с 8192-битной шиной и пропускной способностью в невероятные 8 ТБ/с. Производится все это по техпроцессу 4 нм, а не 3 нм, как предполагалось, но это обновленный техпроцесс TSMC 4NP.
Также NVIDIA рассказала об ускорителе GB200 Grace Blackwell Superchip, который будет содержать два GPU нового поколения и процессор с 72 ядрами Arm Neoverse V2. Производительность такого монстра в режиме FP4 составит невероятные 40 PFLOPS.
Отметим, что Apple, Microsoft и Amazon также разрабатывают чипы с поддержкой ИИ, однако продукты основных конкурентов NVIDIA пока не могут сравниться по мощности и эффективности даже с чипом H100, выпущенным в 2022 году. H100 лежат в основе большинства существующих BB-приложений. Популярный чат-бот ChatGPT был обучен с помощью 10000 графических процессоров NVIDIA, установленных в суперкомпьютере Microsoft.
В NVIDIA утверждают, что процессоры Blackwell в четыре раза быстрее предыдущего поколения обучают модели ИИ, а также обеспечивают более высокую (в 25 раз) энергоэффективность. Компания заявила, что ее основные клиенты, включая Amazon, Google, Microsoft, Meta, Tesla и OpenAI, будут использовать новый чип в сервисах облачных вычислений и для своих собственных разработок в сфере искусственного интеллекта.
Также была представлена платформа NVIDIA NIM, предназначенная для оптимизации развертывания пользовательских и предварительно обученных моделей искусственного интеллекта в производственных средах. В настоящее время NIM включает поддержку моделей NVIDIA, A121, Adept, Cohere, Getty Images и Shutterstock, а также открытых моделей Google, Hugging Face, Meta, Microsoft, Mistral AI и Stability AI. NVIDIA уже работает с Amazon, Google и Microsoft, чтобы сделать микросервисы NIM доступными в SageMaker, Kubernetes Engine и Azure AI. Они также будут интегрированы в такие платформы, как Deepset, LangChain и LlamaIndex.
Компания NVIDIA анонсировала облачную исследовательскую платформу 6G Research Cloud, которая призвана помочь в разработке технологий связи следующего поколения. В число первых пользователей и партнеров по экосистеме вошли Ansys, Швейцарская высшая техническая школа Цюриха (ETH Zurich), Fujitsu, Keysight, Nokia, Северо-Восточный университет (Northeastern University), Rohde & Schwarz, Samsung, SoftBank и Viavi. Утверждается, что 6G Research Cloud предоставляет комплексный набор инструментов для внедрения ИИ в области сетей радиодоступа (RAN). NVIDIA отмечает, что платформа позволяет организациям ускорить развитие сервисов 6G, которые соединят «триллионы устройств» с облачными инфраструктурами, заложив основу для гиперинтеллектуального мира.
NVIDIA 6G Research Cloud состоит из трех ключевых компонентов. Это, в частности, подсистема NVIDIA Aerial Omniverse Digital Twin for 6G: специализированный «цифровой двойник», позволяющий физически точно моделировать системы 6G — от одной башни до масштабов целого города. Двойник включает в себя программно-определяемые симуляторы RAN и пользовательского оборудования, а также набор реалистичных свойств местности и объектов. Используя систему, исследователи смогут моделировать и создавать алгоритмы работы базовой станции на основе данных, специфичных для конкретной площадки, а также обучать модели в режиме реального времени для повышения эффективности передачи информации.
Ещё один компонент называется NVIDIA Aerial CUDA-Accelerated RAN: это программно-определяемый стек RAN, который предназначен для настройки, программирования и тестирования сетей 6G в режиме реального времени. Третьим элементом является фреймворк NVIDIA Sionna Neural Radio Framework, обеспечивающий бесшовную интеграцию с популярными платформами, такими как PyTorch и TensorFlow. При этом задействованы ускорители NVIDIA на базе GPU для генерации и сбора данных, а также обучения моделей ИИ. Исследователи могут применять NVIDIA 6G Research Cloud для реализации различных проектов в сфере 6G. Это могут быть сервисы для автономного транспорта, интеллектуальных пространств, расширенной реальности, иммерсивного обучения, коллективной работы и пр.
The post Новинки NVIDIA на ежегодной конференции Graphics Technology Conference (GTC) appeared first on InfoCity.