适用于各种 AI 工作负载的 NVIDIA DGX Cloud

NVIDIA DGX™ Cloud 是一个基于领先云的统一 AI 平台,可将每个 AI 工作负载连接到经过优化的高性能 NVIDIA AI 基础设施。它专为处理要求严苛的 AI 工作负载 (从训练大语言模型到大规模无服务器推理) 而打造,可通过集成软件、托管服务和专家指导加速 AI 应用开发。

开始使用文档


了解 NVIDIA DGX Cloud 的实际应用

作为 DGX Cloud 的一部分,NVIDIA DGX Cloud Create 是一个面向 AI 构建者的完全托管式 AI 训练平台,提供在领先的云上构建自己的数据飞轮所需的软件、工具、专业知识和优化的高性能计算集群。此演示说明了 DGX Cloud Create 如何提供资源和编排,以开发和构建您自己的 AI 工作流,以及管理您的 AI 生命周期 (无论是开发、训练还是部署) 。


NVIDIA DGX Cloud 的工作原理

作为一个统一的 AI 平台,NVIDIA DGX Cloud 缩短了验证和测试时间,并缩短了上市时间,同时降低了 TCO。NVIDIA DGX  Cloud 包括:

  • AI 训练和微调:以最少的设置和灵活的期限长度在专用 GPU 实例上部署您的模型。利用多云可移植性。

  • 自动扩展 GPU 推理:使用无服务器推理,以更少的冷启动提供经济高效的自动扩展 GPU 推理。非常适合实时或批量处理。

  • 视频管护和模型定制:为特定领域的应用处理、微调和部署大规模视频和世界基础模型。

  • 更大限度地提高 AI 基础架构性能:使用推荐的最佳实践和特定于工作负载的方法来提高性能、降低 TCO 并适应不断变化的 AI 需求。

上述所有功能均可使用在云端优化的出色 NVIDIA AI,包括网络、软件、计算实例和专业知识。

A diagram showing NVIDIA DGX Cloud as a unified platform

NVIDIA DGX Cloud 上的 NVIDIA NeMo Curator

借助 DGX Cloud 托管服务,高效处理、微调和部署视频和世界基础模型。

NVIDIA DGX Cloud Create

使用领先云上提供的完全托管 AI 训练平台,构建基础模型或微调热门 AI 模型。

NVIDIA DGX Cloud Serverless 推理

利用自动扩展、经济高效的 GPU 利用率和多云灵活性部署 AI 工作负载。

NVIDIA DGX Cloud Lepton

借助 DGX Cloud Lepton AI 平台,在云提供商网络中连接 GPU 计算。

NVIDIA DGX Cloud 基准测试

基准测试服务
关注不断发展的性能优化和特定于工作负载的方法,以更大限度地利用 AI 基础设施。


开始使用 NVIDIA DGX Cloud

立即开始在 DGX Cloud 托管的 GPU 上使用新的 AI 模型进行开发。

Try NVIDIA DGX Cloud now

立即试用 NVIDIA DGX Cloud

探索 NVIDIA NIM™ 微服务 build.nvidia.com 由 DGX Cloud 加速的免费 API Catalog。

立即试用

开始使用 NVIDIA DGX Cloud 性能优化

在 NVIDIA DGX Cloud 上配置和运行针对 AI 训练、微调和推理优化的环境。

NVIDIA NeMo Curator on NVIDIA DGX Cloud

NVIDIA DGX Cloud 上的 NVIDIA NeMo Curator  

当您选择“托管服务”时,作为 NVIDIA NeMo™ Curator 抢先体验计划的一部分,获取此服务的预览

注册
NVIDIA DGX Cloud Create

NVIDIA DGX Cloud Create

NVIDIA DGX Cloud Create 提供经过优化的加速计算集群,用于在任何领先的云上进行 AI 训练和微调。

了解详情
NVIDIA DGX Cloud Serverless Inference”

NVIDIA DGX Cloud 无服务推理

在针对 NVIDIA GPU 优化的容器中轻松打包、部署和扩展推理工作流或数据预处理工作流。

了解详情
NVIDIA DGX Cloud Benchmarking

NVIDIA DGX Cloud Lepton

利用全球 GPU 计算,跨多个云提供商发现、采购、开发、定制和部署 AI 应用。

注册
NVIDIA DGX Cloud Benchmarking

NVIDIA DGX Cloud 基准测试

访问 DGX Cloud 基准测试指标和方法,自信应对复杂的 AI 平台决策,并优化各种工作负载的性能。

了解详情

NVIDIA DGX Cloud 入门套件

通过访问教程、文档和试用优惠,开始在 DGX Cloud 上训练、微调、基准测试和部署您的 AI 模型。

在 NVIDIA GPU 上自动扩展部署

在针对 NVIDIA GPU 优化的容器中打包和部署推理工作流或数据预处理工作流,而无需担心底层基础设施。

视频管护和后期培训服务

高效处理、微调和部署视频世界基础模型由 NVIDIA DGX Cloud 加速的 NVIDIA NeMo Curator 托管服务选项。

多节点 AI 训练和微调服务

通过 NVIDIA DGX Cloud  Create,使用最新的 NVIDIA AI 架构和软件在领先的云上进行云原生 AI 训练。

Meta Llama 3.1 70B 的 NVIDIA DGX Cloud 基准测试

使用 DGX Cloud 基准测试服务中提供的此方法,生成 Llama 3.1 70B 训练工作负载的性能结果。


DGX Cloud 学习资料库

Video

使用 NVIDIA NeMo 框架构建和部署生成式 AI 模型

NVIDIA NeMo

NVIDIA NeMo 框架是一个端到端云原生框架,用于管护数据、训练、自定义基础模型和大规模运行推理。

Tutorial

如何在 5 分钟内部署 NIM

NVIDIA NIM

NVIDIA NIM™ 是一组易于使用的推理微服务,可在任何云或数据中心上加速部署基础模型。

Model

可直接访问 NVIDIA GPU 的 NVIDIA Core SDK

NVIDIA 构建

NVIDIA API Catalog 让您可以直接通过浏览器或通过连接到 NVIDIA 托管的端点,体验经过优化的模型,在 NVIDIA 加速的基础设施上提供最佳性能。


更多资源

NVIDIA DGX Cloud Serverless Inference FAQ

阅读 NVIDIA DGX Cloud 无服务器推理常见问题解答

NVIDIA Training and Certification

获取培训和认证

NVIDIA Inception Program for Startups

加入 NVIDIA 开发者计划


    伦理 AI

      NVIDIA 认为,可信 AI 是一项共同责任,我们制定了相关政策和实践,以支持在各种应用中开发 AI。根据我们的服务条款下载或使用此模型时,开发者应与其支持的模型团队合作,确保此模型满足相关行业和用例的要求,并解决不可预见的产品滥用问题。

      有关此模型道德因素的更多详细信息,请参阅模型卡 可解释性、偏差、安全性和隐私子卡。请在此处报告安全漏洞或 NVIDIA AI 问题。

      立即开始使用 NVIDIA DGX Cloud。

      开始使用