Deep dive
2026年 2月 10日
使用加速计算在大型研究设施中实时引导科学实验
设计和建造独特科学研究设施的科学家与工程师同样面临诸多挑战,其中包括处理超出当前计算基础设施承载能力的海量数据速率,
3 MIN READ
2026年 2月 2日
使用混合专家并行优化混合专家训练的通信
在 LLM 训练中,超大规模多专家模型 (MoE) 的专家并行 (EP) 通信面临巨大挑战。EP 通信本质上属于多对多模式,
4 MIN READ
2026年 1月 30日
沙箱代理工作流与执行风险管理的实用安全指南
AI 编码智能体通过简化任务和推动测试驱动的自动化开发,使开发者能够更高效地工作。然而,它们也引入了一个常被忽视的重要攻击面:
1 MIN READ
2026年 1月 30日
使用通用稀疏张量建立可扩展的稀疏生态系统
稀疏张量是向量、矩阵以及高维数组在包含大量零元素情况下的推广形式。由于其在存储、计算和功耗方面的高效性,稀疏张量在科学计算、
5 MIN READ
2026年 1月 30日
借助 CUDA Tile IR 后端推进 OpenAI Triton 的 GPU 编程
NVIDIA CUDA Tile 是基于 GPU 的编程模型,其设计目标是为 NVIDIA Tensor Cores 提供可移植性,
2 MIN READ
2026年 1月 28日
基于时间的公平共享实现 Kubernetes 集群 GPU 分配均衡
NVIDIA Run:ai v2.24 引入了基于时间的公平分享,这是一种全新的调度模式,可为 Kubernetes 集群实现公平分享调度,
2 MIN READ
2026年 1月 13日
了解 NVIDIA cuOpt 如何通过原始启发式算法加速混合整数优化
NVIDIA cuOpt 是一款 GPU 加速的优化引擎,旨在为大规模复杂决策问题提供高效、高质量的解决方案。 混合整数规划(MIP)…
2 MIN READ
2026年 1月 9日
多智能体仓库 AI 命令层实现卓越运营和供应链智能
仓库的自动化程度从未如此之高,数据也从未如此丰富,运营要求同样日益提升,但许多仓库仍依赖于无法跟上需求的系统。吞吐量持续攀升,
2 MIN READ
2026年 1月 9日
重塑大模型内存:以上下文为训练数据,实现测试时学习
我们在新闻中不断看到拥有更大上下文窗口的大型语言模型(LLM),它们承诺能够同时查看完整的对话历史、大量书籍或多个代码库。然而,
1 MIN READ
2026年 1月 8日
NVIDIA TensorRT Edge-LLM 加速汽车与机器人领域的 LLM 和 VLM 推理
大语言模型(LLM)与多模态推理系统正迅速突破数据中心的局限。越来越多的汽车与机器人领域的开发者希望将对话式 AI 智能体、
2 MIN READ
2026年 1月 7日
借助 NVIDIA BlueField Astra 重新定义 NVIDIA Vera Rubin NVL72 的安全 AI 基础设施
大规模 AI 创新正在推动对加速计算基础设施的空前需求。训练万亿参数基础模型,采用分解架构支持这些模型,并以高吞吐量处理推理工作负载,
2 MIN READ
2026年 1月 6日
NVIDIA BlueField-4 赋能的推理上下文记忆存储平台,引领 AI 迈向新前沿
随着代理式 AI 工作流将上下文窗口扩展到数百万个 token,并将模型规模扩展到数百万亿个参数,AI 原生企业正面临着越来越多的扩展挑战。
1 MIN READ
2026年 1月 6日
NVIDIA Spectrum-X 以太网硅光技术助力扩展节能高效的 AI 工厂
NVIDIA 将率先为 AI 工厂引入采用光电一体封装 (CPO) 的优化以太网网络,通过 NVIDIA Spectrum-X…
2 MIN READ
2026年 1月 5日
开源 AI 工具升级加速 NVIDIA RTX PC 上的 LLM 和扩散模型
在小语言模型(SLM)和扩散模型(例如 FLUX.2、GPT-OSS-20B 和 Nemotron 3 Nano)质量持续提升的推动下,
3 MIN READ
2026年 1月 5日
深度解析 NVIDIA Rubin 平台:六款新芯片打造AI超级计算机
AI 已进入工业阶段。 最初是用于执行离散 AI 模型训练和面向人类推理的系统,现已演变为全天候运行的 AI 工厂,持续将功率、
12 MIN READ
2025年 12月 17日
利用 AI 物理进行技术性计算机辅助设计仿真
技术计算机辅助设计 (TCAD) 仿真涵盖工艺与器件仿真,对现代半导体制造至关重要。它支持“虚拟制造”,使工程师能够在投入昂贵的物理制造前,
2 MIN READ