AI 平台/部署
2026年 1月 12日
Hybrid-EP - 面向混合专家模型训练的通信优化方案
在大语言模型 (LLM) 训练领域,超大规模混合专家 (MoE) 模型训练中的EP通信一直是业内公认的难题。
4 MIN READ
2026年 1月 5日
深度解析 NVIDIA Rubin 平台:六款新芯片打造AI超级计算机
AI 已进入工业阶段。 最初是用于执行离散 AI 模型训练和面向人类推理的系统,现已演变为全天候运行的 AI 工厂,持续将功率、
12 MIN READ
2026年 1月 5日
全新软件与模型优化为 NVIDIA DGX Spark 注入强大动力
自发布以来,NVIDIA 通过持续的软件优化以及与软件合作伙伴和开源社区的紧密协作,不断提升基于 Grace Blackwell 架构的…
1 MIN READ
2025年 12月 19日
借助 NVIDIA ALCHEMI Toolkit-Ops 加速 AI 驱动的化学与材料科学模拟
机器学习原子间相互作用势(MLIP)正在改变计算化学与材料科学的格局。MLIP 能够实现原子尺度模拟,
4 MIN READ
2025年 9月 23日
在 NVIDIA RTX AI PC上部署高性能人工智能模型到 Windows 应用中
如今,Microsoft 正在向开发者提供 Windows ML。借助 Windows ML,C#、
3 MIN READ
2025年 9月 16日
利用 NVIDIA Run:ai 模型流技术降低大型语言模型推理的冷启动延迟
部署大语言模型(LLM)在优化推理效率方面带来了显著挑战。其中,冷启动延迟——即模型加载到 GPU 显存所需的时间较长…
5 MIN READ
2025年 9月 15日
全新 Qwen3-Next 开源模型预览:MoE 架构在 NVIDIA 平台实现更高精度与加速并行处理速度
随着 AI 模型规模不断扩大且处理的文本序列越来越长,效率变得与规模同样重要。 为展示未来趋势,
2 MIN READ
2025年 9月 15日
在 OpenRouter 上使用 NVIDIA Nemotron 构建报告生成 AI 智能体
与传统系统遵循预设路径不同,AI智能体依托大语言模型(LLM)进行决策,能够适应动态变化的需求,并执行复杂的推理任务。
6 MIN READ
2025年 9月 10日
开发者现在可以直接从自己喜欢的第三方平台下载 CUDA
对开发者而言,构建和部署应用往往充满挑战,需要协调软件与硬件功能之间的复杂关系。确保每个基础软件组件不仅正确安装,而且版本符合要求,
1 MIN READ
2025年 9月 10日
使用 NVIDIA NIM Operator 3.0.0 部署可扩展的 AI 推理
AI 模型、推理引擎后端以及分布式推理框架在架构、复杂性和规模上持续演进。面对快速的技术变革,
3 MIN READ
2025年 9月 9日
NVIDIA Rubin CPX 加速百万级以上 token 上下文工作负载的推理性能和效率
推理正成为人工智能复杂性的前沿领域。现代模型正逐步演变为具备多步推理能力、持久化记忆和长时程上下文理解的代理式系统,使其能够胜任软件开发、
2 MIN READ
2025年 9月 9日
NVIDIA Blackwell Ultra 首次亮相 MLPerf 完成推理新纪录
随着大语言模型(LLM)规模的不断扩大,其智能水平也显著提升,领先开发者推出的开放模型已具备数千亿参数。与此同时,
3 MIN READ
2025年 9月 9日
如何利用跨区域 (Scale-Across) 网络将分布式数据中心连接成大型 AI 工厂
AI 技术日益复杂,训练与推理领域的新进展对数据中心提出了更高的要求。尽管数据中心的功能正在迅速扩展,但其基础设施受限于基本的物理条件,
1 MIN READ
2025年 9月 8日
如何使用 Outerbound 和 DGX 云 Lepton 自行构建 AI 系统
我们往往容易低估实际生产级 AI 系统所涉及的组件复杂性。无论是构建融合内部数据与外部大语言模型的智能体,还是提供按需生成动画的服务,
3 MIN READ
2025年 9月 5日
通过 CPU-GPU 显存共享加速大规模 LLM 推理和 KV 缓存卸载
大语言模型(LLM)处于人工智能创新的前沿,但其庞大的规模往往会影响推理效率。例如,Llama 3 70B 和 Llama 4 Scout…
2 MIN READ
2025年 9月 3日
南北向网络:加速企业 AI 工作负载的关键
在 AI 基础架构中,数据为计算引擎提供关键燃料。随着代理式 AI 系统的持续演进,多个模型与服务相互协作,需要获取外部上下文并实时做出决策,
2 MIN READ