Blackwell
2025年 12月 8日
使用 NVFP4 KV 缓存优化大批次与长上下文推理
量化是大规模推理中的关键手段之一。通过降低权重、激活值和KV缓存的精度,可以有效减少内存占用和计算开销,从而显著提升推理吞吐量、降低延迟,
3 MIN READ
2025年 12月 4日
借助功率配置文件优化 AI 和 HPC 工作负载的数据中心效率
不断呈指数级增长的计算需求正推动功耗持续上升,使数据中心面临巨大压力。在设施功耗受限的背景下,提升每瓦功耗的计算性能,
2 MIN READ
2025年 11月 25日
利用 NVIDIA 数据中心监控工具优化 GPU 集群性能
高性能计算(HPC)领域的客户持续快速扩展,生成式AI、大语言模型(LLM)、计算机视觉等应用推动了对GPU资源需求的显著增长。在此背景下,
2 MIN READ
2025年 11月 10日
在 Kubernetes 上启用 NVIDIA GB200 NVL72 及以上型号的多节点 NVLink
NVIDIA GB200 NVL72 将 AI 基础设施提升至全新高度,在大语言模型训练以及可扩展、低延迟推理工作负载的运行方面实现显著突破。
4 MIN READ
2025年 10月 30日
在 Microsoft Azure 上利用 NVIDIA Run:ai 简化 AI 基础设施
现代人工智能工作负载,无论是大规模训练还是实时推理,都需要动态访问高性能 GPU 资源。然而,
3 MIN READ
2025年 10月 28日
隆重推出用于 RNA 设计和分析的 CodonFM 开放模型
开放式研究对推动创新至关重要,AI 与科学领域的众多突破正是通过开放式协作实现的。在数字生物学研究领域,
3 MIN READ
2025年 10月 24日
NVIDIA DGX Spark 的性能如何支持密集型 AI 任务
当今,要求严苛的 AI 开发者工作负载通常需要比台式电脑所能提供的内存更多,也往往需要访问笔记本电脑或 PC 所不具备的软件,
2 MIN READ
2025年 10月 24日
通过 cuBLAS 中的浮点仿真释放 Tensor Core 性能
NVIDIA CUDA-X 数学库提供基础的数值计算模块,帮助开发者在人工智能和科学计算等多个高性能计算领域中部署加速应用程序。
3 MIN READ
2025年 10月 20日
在 NVL72 机架级系统上使用 Wide Expert Parallelism 扩展大型 MoE 模型
现代 AI 工作负载已远超单 GPU 推理服务的能力范围。模型并行技术通过在多个 GPU 之间高效划分计算任务,
3 MIN READ
2025年 10月 16日
NVIDIA Blackwell 在 SemiAnalysis InferenceMAX v1 基准测试中取得领先表现
SemiAnalysis 近期推出了 InferenceMAX v1,这是一项全新的开源计划,旨在提供一套全面评估推理硬件性能的方法。
3 MIN READ
2025年 9月 29日
在 NVIDIA Isaac Lab 2.3 中使用全身控制和增强遥操作,简化机器人学习
基于真实世界演示训练机器人策略,不仅成本高、速度慢,还容易出现过拟合问题,进而限制其在不同任务与环境中的泛化能力。
3 MIN READ
2025年 9月 23日
借助 NVIDIA NeMo 在 FP8 精度下提高训练吞吐量
在之前关于 FP8 训练的博文中,我们探讨了 FP8 精度的基础知识 并深入分析了适用于大规模深度学习的 多种扩展方法。
3 MIN READ
2025年 9月 11日
量化感知训练如何实现低精度恢复
训练 AI 模型后,可采用多种压缩技术来优化模型的部署。其中较为常见的是后训练量化(PTQ),该方法通过数值缩放技术,
3 MIN READ
2025年 9月 10日
借助 NVIDIA RTX PRO Blackwell 服务器版本,将蛋白质结构推理速度提高 100 多倍
了解蛋白质结构的研究比以往任何时候都更加重要。从加快药物研发到为未来可能的疫情做好准备,
2 MIN READ
2025年 9月 9日
NVIDIA Blackwell Ultra 首次亮相 MLPerf 完成推理新纪录
随着大语言模型(LLM)规模的不断扩大,其智能水平也显著提升,领先开发者推出的开放模型已具备数千亿参数。与此同时,
3 MIN READ
2025年 9月 5日
通过 CPU-GPU 显存共享加速大规模 LLM 推理和 KV 缓存卸载
大语言模型(LLM)处于人工智能创新的前沿,但其庞大的规模往往会影响推理效率。例如,Llama 3 70B 和 Llama 4 Scout…
2 MIN READ