数据中心/云端
2025年 11月 18日
使用 NVIDIA Nemotron RAG 和 Microsoft SQL Server 2025 在企业数据上构建可扩展的 AI
在 Microsoft Ignite 2025 大会上,随着 Microsoft SQL Server 2025 的发布,
2 MIN READ
2025年 11月 17日
NVIDIA NVQLink 架构加速计算与量子处理器融合
量子计算正步入一个加速计算与量子处理器深度融合推动技术进步的新阶段。控制和测量量子处理单元(QPU)的硬件面临严峻的计算挑战,
2 MIN READ
2025年 11月 12日
NVIDIA Blackwell 架构席卷 MLPerf Training v5.1 基准测试
NVIDIA Blackwell 架构在 MLPerf Training v5.1 的各项基准测试中均实现了更快的训练速度,
3 MIN READ
2025年 11月 10日
使用 NVIDIA Grove 简化 Kubernetes 上的复杂 AI 推理
NVIDIA Dynamo 的新组件实现分布式推理的高效扩展
2 MIN READ
2025年 11月 10日
在 Kubernetes 上启用 NVIDIA GB200 NVL72 及以上型号的多节点 NVLink
NVIDIA GB200 NVL72 将 AI 基础设施提升至全新高度,在大语言模型训练以及可扩展、低延迟推理工作负载的运行方面实现显著突破。
4 MIN READ
2025年 11月 10日
构建可扩展且容错的 NCCL 应用
NVIDIA 集合通信库(NCCL)提供了一套面向低延迟和高带宽通信的集合操作 API,支持 AI 工作负载从单台主机上的少量 GPU…
5 MIN READ
2025年 11月 10日
在 NVIDIA NCCL 2.28 中将通信和计算与新的设备 API 和复制引擎集合融合
NVIDIA 集合通信库(NCCL)的最新版本引入了突破性的通信与计算融合技术,可显著提升多 GPU 和多节点系统中的通信吞吐量,降低延迟,
3 MIN READ
2025年 10月 30日
在 Microsoft Azure 上利用 NVIDIA Run:ai 简化 AI 基础设施
现代人工智能工作负载,无论是大规模训练还是实时推理,都需要动态访问高性能 GPU 资源。然而,
3 MIN READ
2025年 10月 20日
在 NVL72 机架级系统上使用 Wide Expert Parallelism 扩展大型 MoE 模型
现代 AI 工作负载已远超单 GPU 推理服务的能力范围。模型并行技术通过在多个 GPU 之间高效划分计算任务,
3 MIN READ
2025年 10月 16日
NVIDIA Blackwell 在 SemiAnalysis InferenceMAX v1 基准测试中取得领先表现
SemiAnalysis 近期推出了 InferenceMAX v1,这是一项全新的开源计划,旨在提供一套全面评估推理硬件性能的方法。
3 MIN READ
2025年 10月 14日
硬件一致性平台上的内存管理深入剖析
如果您是应用程序开发者或集群管理员,可能已经意识到非统一内存访问(NUMA)会对系统性能产生显著影响。
2 MIN READ
2025年 10月 13日
打造高效可扩展 AI 工厂的 800VDC 生态系统
几十年来,传统数据中心一直是摆放服务器的庞大空间,功耗与散热问题往往被置于次要位置。然而,
1 MIN READ
2025年 9月 29日
利用 NVIDIA Run:ai 和 NVIDIA Dynamo 进行快速高效 LLM 推理的智能多节点调度
大语言模型的复杂性呈指数级增长,带来了诸多挑战,例如模型规模超出单个 GPU 的承载能力、对高吞吐量与低延迟工作负载的需求,
3 MIN READ
2025年 9月 18日
如何使用 NVIDIA Dynamo 减少 KV 缓存瓶颈
随着 AI 模型变得更大、更复杂,推理,即模型生成响应的过程,正成为一项重大挑战。像 GPT-OSS 和 DeepSeek-R1…
4 MIN READ
2025年 9月 17日
用于降低 AI 推理延迟的预测性解码简介
使用大语言模型(LLM)生成文本时,通常会面临一个基本瓶颈。尽管 GPU 能够提供强大的计算能力,但由于自回归生成本质上是顺序进行的,
2 MIN READ
2025年 9月 16日
利用 NVIDIA Run:ai 模型流技术降低大型语言模型推理的冷启动延迟
部署大语言模型(LLM)在优化推理效率方面带来了显著挑战。其中,冷启动延迟——即模型加载到 GPU 显存所需的时间较长…
5 MIN READ