Nvidia и AWS объединяются для ускорения развертывания ИИ в облаке
На этой неделе обе компании вышли на сцену ежегодной конференции Amazon AWS re:Invent, где сделали ряд заявлений относительно своего продолжающегося сотрудничества. Для разработчиков самой большой новостью является расширенная доступность микросервисов Nvidia NIM на AWS.
Nvidia NIM представляет собой набор простых в использовании микросервисов логического вывода, которые ускоряют развертывание базовых моделей в любом облаке или в центре обработки данных и помогают обеспечить безопасность данных. С последним обновлением к микросервисам NIM теперь можно получить доступ из AWS Marketplace, нового AWS Bedrock Marketplace, а также Amazon SageMaker Jumpstart, что еще больше упрощает разработчикам развертывание моделей ИИ из любого интерфейса. Более того, пользователи смогут развертывать модели ИИ в нескольких сервисах AWS, включая Amazon Elastic Compute Cloud, Amazon SageMaker и Amazon Elastic Kubernetes Service.
Микросервисы NIM доступны в виде готовых контейнеров и поставляются с выбором движков вывода, включая Nvidia Triton Inference Server, Nvidia TensorRT, Nvidia TensorRT-LLM и PyTorch. Более того, они поддерживают сотни различных моделей ИИ, включая модели доступные на торговой площадке AWS Bedrock Marketplace, собственные модели Nvidia, а также пользовательские модели клиентов.
В дополнение к микросервисам NIM разработчики также получают доступ к новому инфраструктурному предложению, а именно Nvidia DGX Cloud.
DGX Cloud — это облачный сервис суперкомпьютеров на базе искусственного интеллекта, который предоставляет предприятиям доступ к графическим процессорам Nvidia и программному обеспечению, необходимому для обучения сложных моделей генеративного искусственного интеллекта и других типов приложений. Теперь сервис доступен через AWS Marketplace Private Offers и предоставляет клиентам доступ к полностью управляемой, высокопроизводительной вычислительной платформе для обучения, настройки и развертывания моделей ИИ.
В настоящее время платформа DGX Cloud обеспечивает доступ к самым мощным графическим процессорам Nvidia —H100 и H200, а вскоре будет расширена за счет включения графических процессоров Blackwell следующего поколения, запуск которых запланирован на следующий год.
Nvidia также делает успехи в плане разработки роботов на базе ИИ. Компания давно верит в потенциал ИИ для автоматизации роботов, благодаря которому они могли бы выполнять больше полезных задач в реальном мире. Ключом к этому является платформа Nvidia Omniverse. Компания заявила, что делает эталонное приложение доступным на Nvidia Omniverse, которое используется для создания реалистичных виртуальных сред и цифровых двойников.
Наконец, Nvidia заявила, что работает с AWS для ускорения разработки квантовых вычислений. Платформа Nvidia CUDA-Q, которая используется для разработки «гибридных квантовых/классических вычислительных приложений» на традиционных и квантовых компьютерах, интегрируется с сервисом Amazon Braket.
Amazon Braket упрощает настройку, мониторинг и выполнение гибридных квантово-классических алгоритмов на квантовых процессорах. Благодаря интеграции пользователи CUDA-Q смогут использовать квантовые ресурсы Amazon Braket, а пользователи Braket смогут воспользоваться для разработки и моделирования рабочими процессами CUDA-Q, ускоренными с помощью графических процессоров.