Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Microsoft представляет новые экземпляры Azure, оптимизированные для ИИ

Рубрики: «Искусственный интеллект (AI)», «Облачные сервисы»

Новое семейство экземпляров Azure стало известно, как серия ND H100 v5.

«Чтобы выполнить обещание передового ИИ для наших клиентов, требуется суперкомпьютерная инфраструктура, услуги и опыт для решения экспоненциально растущих размеров и сложности новейших моделей», — написал в блоге Мэтт Вегас, главный менеджер проекта в группе высокопроизводительных вычислений и ИИ Azure. «В Microsoft мы решаем эту задачу, применяя десятилетний опыт в области суперкомпьютеров и поддерживая самые большие учебные нагрузки ИИ».

Каждый экземпляр ND H100 v5 оснащен восемью графическими процессорами Nvidia H100. Представленный в марте прошлого года, H100 является самым передовым графическим процессором Nvidia для центров обработки данных (ЦОД). Он может обучать модели ИИ в девять раз быстрее, чем предыдущий флагманский чип компании, и выполнять логические выводы и запуск моделей до 30 раз быстрее.

H100 состоит из 80 миллиардов транзисторов, произведенных по 4-нанометровому техпроцессу. Он включает в себя специализированный модуль, известный как Transformer Engine, предназначенный для ускорения моделей ИИ на основе архитектуры нейронной сети Transformer. Архитектура поддерживает множество передовых моделей искусственного интеллекта, включая чат-бота ChatGPT от OpenAI.

Nvidia также оснастила H100 другими улучшениями. Среди прочего, чип имеет встроенную функцию конфиденциальных вычислений. Эта функция может изолировать модель искусственного интеллекта таким образом, чтобы блокировать запросы несанкционированного доступа, в том числе от операционной системы и гипервизора, на котором она запущена. Гипервизор (или монитор виртуальных машин) — программа или аппаратная схема, обеспечивающая или позволяющая одновременное, параллельное выполнение нескольких операционных систем на одном и том же хост-компьютере.

Продвинутые модели искусственного интеллекта обычно развертываются не на одной, а на нескольких видеокартах. Используемые таким образом графические процессоры должны для координации своей работы регулярно обмениваться данными друг с другом. Чтобы ускорить передачу данных между графическими процессорами, компании часто связывают их вместе с помощью высокоскоростного сетевого соединения. Восемь чипов H100 в новых экземплярах Azure ND H100 v5 соединены друг с другом с помощью технологии Nvidia под названием NVLink. По данным Nvidia, эта технология в семь раз быстрее, чем популярный сетевой стандарт PCIe 5.0. Microsoft заявляет, что NVLink обеспечивает пропускную способность между восемью графическими процессорами в новых экземплярах до 3,6 терабит в секунду.

Эта серия экземпляров также поддерживает другую сетевую технологию Nvidia, которая называется NVSwitch. В отличии от NVLink, который предназначен для соединения графических процессоров внутри одного сервера, NVSwitch соединяет несколько серверов графических процессоров друг с другом. Это упрощает запуск сложных моделей ИИ, которые должны быть распределены по нескольким компьютерам в центре обработки данных.

В экземплярах Microsoft ND H100 v5 графические карты H100 используются вместе с центральными процессорами Intel. ЦП получены из новой серии масштабируемых процессоров Intel Xeon 4-го поколения. Серия чипов, также известная как Sapphire Rapids, дебютировала в январе этого года. Чип Sapphire Rapids основан на усовершенствованной версии 10-нанометрового техпроцесса Intel. Каждый ЦП серии включает в себя несколько встроенных ускорителей, вычислительных модулей, оптимизированных для конкретных задач. Благодаря встроенным ускорителям Sapphire Rapids обеспечивает для некоторых приложений искусственного интеллекта до 10 раз более высокую производительность, чем чип предыдущего поколения.

В настоящее время доступна предварительная версия серии экземпляров ND H100 v5.

Источник: