面向开发者的 NVIDIA DGX Cloud
NVIDIA DGX Cloud 在云端加速 AI 工作负载,支持包括预训练、微调、推理以及物理与工业 AI 应用部署等多种工作负载。
了解 DGX Cloud 的部分功能

NVIDIA DGX Cloud Lepton 现已开放抢先体验,可为开发 ( SSH、Jupyter、VS Code) 、训练、微调 (运行批处理作业) 和可扩展推理 ( NVIDIA NIM™ 端点) 提供集成平台。
NVIDIA DGX Cloud 的工作原理
DGX Cloud 提供了一整套云原生解决方案,包括:
- NVIDIA DGX Cloud Lepton:引入或探索 NVIDIA 云合作伙伴 (NCP) 和云服务提供商 (CSP) 提供的计算能力。使用 DGX Cloud Lepton 的集成平台进行开发、训练、微调和可扩展推理,跨多个云部署,与基础设施解,并专注于从单个用户界面构建应用。
- 适用于 CSP 的 NVIDIA DGX Cloud:在与领先的云提供商共同设计的可扩展、优化的 GPU 基础设施上构建和微调 AI 基础模型,并可灵活访问连续、预配置的高性能集群和最新的 GPU。
- NVIDIA Cloud Functions (NVCF):在无服务器 AI 推理平台上扩展 AI 工作负载的部署,该平台可跨多个云、本地和现有计算环境提供完全托管、自动扩展、事件驱动的部署。
- DGX Cloud 基准测试:获取有关端到端 AI 工作负载性能、扩展效率、精度格式影响和多 GPU 行为的详细指标,以帮助判断哪个平台可以提供更快的训练时间,以及在给定时间段内实现结果所需的 GPU 规模。
- DGX Cloud 上的 NVIDIA Omniverse™:利用经过优化的 NVIDIA L40 GPU,将 NVIDIA RTX™ 渲染和低延迟流式传输直接传输到基于 Chromium 的浏览器或基于 Web 的自定义应用,在完全托管的平台上部署用于工业数字化和物理 AI 模拟的流式传输应用。
- NVIDIA Cosmos™ Curator(基于 DGX Cloud):使用专有数据微调 NVIDIA 世界基础模型,然后使用完全 GPU 加速的流水线在 DGX Cloud 上管理整个视频数据流水线,从而将处理速度提高 89 倍,将字幕吞吐量提高 11 倍,从而加速机器人、智能汽车和视频 AI 应用的 AI 开发。
NVIDIA DGX Cloud Lepton
通过统一的体验,在多云环境中构建或部署 AI 应用。
基于 NVIDIA DGX Cloud 的 NVIDIA NeMo Curator
基于 CSP 的 NVIDIA DGX Cloud
借助一站式全栈优化平台,在领先的云提供商上构建和微调模型,期限灵活。
NVIDIA Cloud Functions
NVIDIA Cloud Functions (NVCF)
凭借自动扩展、经济高效的 GPU 利用率和多云灵活性部署 AI 工作负载。
NVIDIA DGX Cloud 基准测试
基准测试服务
遵循不断发展的性能优化和特定于工作负载的方法,更大限度地利用 AI 基础设施。
在 DGX Cloud 上使用 NVIDIA Omniverse
面向工业数字化和物理 AI 仿真的流式传输应用的规模部署。
在 DGX Cloud 上使用 NVIDIA Cosmos Curator
借助 DGX Cloud 托管服务,高效处理、微调和部署视频和世界基础模型。
开始使用 NVIDIA DGX Cloud
在 NVIDIA DGX Cloud 上配置和运行针对 AI 训练、微调和推理优化的环境。
在 DGX Cloud 上使用 NVIDIA Omniverse
在一个完全托管的平台上扩展流媒体应用程序的部署,以实现工业数字化和物理 AI 仿真。
详细了解 DGX Cloud 上的 OmniverseNVIDIA DGX Cloud 入门套件
在 build.nvidia.com 上开始体验,由 DGX Cloud 提供加速;或下载 DGX Cloud Benchmarking recipes ,以在 NVIDIA GPU 上优化您的工作负载。
跨云 AI 开发、定制和部署
DGX Cloud Lepton 支持在特定区域进行 GPU 配置,并支持完整的 AI 开发生命周期,包括跨多云环境的训练、微调和推理。
多节点 AI 训练和微调平台
借助 DGX Cloud Create,借助最新的 NVIDIA AI 架构和软件,将云原生 AI 训练带到领先的云中。
在 NVIDIA GPU 上自动扩展部署
在针对 NVIDIA GPU 优化的容器中打包和部署推理工作流或数据预处理工作流,而无需担心底层基础设施。
NVIDIA DGX Cloud 针对 AI 工作负载的基准测试
利用 DGX Cloud Benchmarking 提供的方法,从 Llama 和 DeepSeek 等一系列 AI 模型生成 AI 训练和推理性能结果。
物理 AI 流应用程序的可扩展部署
通过一名全人直接在 NVIDIA Omniverse 上串流 OpenUSD 应用和数字孪生
DGX Cloud 学习资源库
更多资源
AI 伦理
NVIDIA 认为可信 AI 是一项共同责任,我们已制定相关政策和实践,支持 AI 在各种应用中的开发。根据我们的服务条款下载或使用此模型时,开发者应与其支持的模型团队合作,确保此模型满足相关行业和用例的要求,并解决不可预见的产品滥用问题。
有关此模型道德因素的更多详细信息,请参阅模型卡 可解释性、偏差、安全性和隐私子卡。请单击此处报告安全漏洞或 NVIDIA AI 问题。
