适用于各种 AI 工作负载的 NVIDIA DGX Cloud
NVIDIA DGX™ Cloud 是一个基于领先云的统一 AI 平台,可将每个 AI 工作负载连接到经过优化的高性能 NVIDIA AI 基础设施。它专为处理要求严苛的 AI 工作负载 (从训练大语言模型到大规模无服务器推理) 而打造,可通过集成软件、托管服务和专家指导加速 AI 应用开发。
了解 NVIDIA DGX Cloud 的实际应用
作为 DGX Cloud 的一部分,NVIDIA DGX Cloud Create 是一个面向 AI 构建者的完全托管式 AI 训练平台,提供在领先的云上构建自己的数据飞轮所需的软件、工具、专业知识和优化的高性能计算集群。此演示说明了 DGX Cloud Create 如何提供资源和编排,以开发和构建您自己的 AI 工作流,以及管理您的 AI 生命周期 (无论是开发、训练还是部署) 。
NVIDIA DGX Cloud 的工作原理
作为一个统一的 AI 平台,NVIDIA DGX Cloud 缩短了验证和测试时间,并缩短了上市时间,同时降低了 TCO。NVIDIA DGX Cloud 包括:
AI 训练和微调:以最少的设置和灵活的期限长度在专用 GPU 实例上部署您的模型。利用多云可移植性。
自动扩展 GPU 推理:使用无服务器推理,以更少的冷启动提供经济高效的自动扩展 GPU 推理。非常适合实时或批量处理。
视频管护和模型定制:为特定领域的应用处理、微调和部署大规模视频和世界基础模型。
更大限度地提高 AI 基础架构性能:使用推荐的最佳实践和特定于工作负载的方法来提高性能、降低 TCO 并适应不断变化的 AI 需求。
上述所有功能均可使用在云端优化的出色 NVIDIA AI,包括网络、软件、计算实例和专业知识。

NVIDIA DGX Cloud 上的 NVIDIA NeMo Curator
借助 DGX Cloud 托管服务,高效处理、微调和部署视频和世界基础模型。
NVIDIA DGX Cloud Create
使用领先云上提供的完全托管 AI 训练平台,构建基础模型或微调热门 AI 模型。
NVIDIA DGX Cloud Serverless 推理
利用自动扩展、经济高效的 GPU 利用率和多云灵活性部署 AI 工作负载。
NVIDIA DGX Cloud Lepton
借助 DGX Cloud Lepton AI 平台,在云提供商网络中连接 GPU 计算。
NVIDIA DGX Cloud 基准测试
基准测试服务
关注不断发展的性能优化和特定于工作负载的方法,以更大限度地利用 AI 基础设施。
开始使用 NVIDIA DGX Cloud
立即开始在 DGX Cloud 托管的 GPU 上使用新的 AI 模型进行开发。
开始使用 NVIDIA DGX Cloud 性能优化
在 NVIDIA DGX Cloud 上配置和运行针对 AI 训练、微调和推理优化的环境。
NVIDIA DGX Cloud 入门套件
通过访问教程、文档和试用优惠,开始在 DGX Cloud 上训练、微调、基准测试和部署您的 AI 模型。
在 NVIDIA GPU 上自动扩展部署
在针对 NVIDIA GPU 优化的容器中打包和部署推理工作流或数据预处理工作流,而无需担心底层基础设施。
多节点 AI 训练和微调服务
通过 NVIDIA DGX Cloud Create,使用最新的 NVIDIA AI 架构和软件在领先的云上进行云原生 AI 训练。
Meta Llama 3.1 70B 的 NVIDIA DGX Cloud 基准测试
使用 DGX Cloud 基准测试服务中提供的此方法,生成 Llama 3.1 70B 训练工作负载的性能结果。
DGX Cloud 学习资料库
可直接访问 NVIDIA GPU 的 NVIDIA Core SDK
NVIDIA 构建
NVIDIA API Catalog 让您可以直接通过浏览器或通过连接到 NVIDIA 托管的端点,体验经过优化的模型,在 NVIDIA 加速的基础设施上提供最佳性能。
更多资源
伦理 AI
NVIDIA 认为,可信 AI 是一项共同责任,我们制定了相关政策和实践,以支持在各种应用中开发 AI。根据我们的服务条款下载或使用此模型时,开发者应与其支持的模型团队合作,确保此模型满足相关行业和用例的要求,并解决不可预见的产品滥用问题。
有关此模型道德因素的更多详细信息,请参阅模型卡 可解释性、偏差、安全性和隐私子卡。请在此处报告安全漏洞或 NVIDIA AI 问题。