数据科学
2026年 4月 20日
使用端到端 FP8 精度运行高吞吐量强化学习训练
随着 LLM 从简单的文本生成过渡到复杂的推理,强化学习 (RL) 发挥着核心作用。群相对策略优化 (GRPO) 等算法为这种转变提供动力,
3 MIN READ
2026年 4月 9日
使用约 30 行 Python 和 NVIDIA nvCOMP 降低检查点成本
训练 LLM 需要定期检查点。这些模型权重、优化器状态和梯度的完整快照将保存到存储中,以便在中断后恢复训练。在规模上,这些检查点变得庞大 (…
5 MIN READ
2026年 4月 9日
如何加速蛋白质组规模的蛋白质结构预测
蛋白质很少像单个单体那样独立发挥作用。大多数生物过程由与其他蛋白质相互作用的蛋白质控制,形成蛋白质配合物,
2 MIN READ
2026年 3月 24日
构建用于推理、多模态 RAG、语音和安全的 NVIDIA Nemotron 3 智能体
代理式 AI 是一个专业模型协同工作的生态系统,可处理规划、推理、检索和安全护栏。随着这些系统的扩展,开发者需要能够理解现实世界多模态数据、
3 MIN READ
2026年 3月 16日
NVIDIA Vera CPU 为 AI 工厂提供高性能、高带宽和高效率
AI 在不断发展,推理模型对 token 的需求不断增加,对 AI 基础设施的每一层都提出了新的要求。计算比以往任何时候都更需要高效扩展,
3 MIN READ
2026年 3月 9日
CUDA 13.2 引入增强的 CUDA Tile 支持和新的 Python 功能
CUDA 13.2 发布后进行了重大更新:NVIDIA CUDA Tile 现已支持具有 8.X 架构 ( NVIDIA Ampere 和…
5 MIN READ
2026年 3月 5日
控制 NVIDIA CCCL 中的浮点确定性
如果使用相同的输入数据进行多次运行时能够产生完全一致的逐位计算结果,则该计算被称为确定性计算。这看似简单,但在实际中却难以实现,
2 MIN READ
2026年 3月 5日
在 NVIDIA CUDA Tile 中调整 Flash Attention 以实现峰值性能
在本文中,我们将深入探讨现代 AI 中至关重要的工作负载之一:Flash Attention,您将了解: 环境要求:
9 MIN READ
2026年 3月 3日
cuTile.jl 为 Julia 带来基于 NVIDIA CUDA Tile 的编程
NVIDIA CUDA Tile 是 NVIDIA CUDA 编程的一项重要新增功能,可自动访问 Tensor Core 和其他专用硬件。
2 MIN READ
2026年 2月 18日
NVIDIA 极致软硬件协同设计如何助力 Sarvam AI 主权模型实现惊人推理性能跃升
随着全球人工智能采用的加速,开发者面临日益严峻的挑战:如何提供符合现实世界延迟和成本要求的大语言模型(LLM)性能。
4 MIN READ
2026年 2月 18日
登顶 GPU 内核排行榜:借助 NVIDIA CUDA.compute 实现卓越性能
Python 在符合人体工程学的机器学习领域占据主导地位,但编写真正高效的 GPU 代码历来需要使用 C++ 编写自定义内核,
2 MIN READ
2026年 2月 18日
在 NVIDIA Run:ai 中利用 GPU 解锁大规模 Token 吞吐能力
随着 AI 工作负载的扩展,实现高吞吐量、高效资源利用和可预测的延迟变得愈发关键。 NVIDIA Run:ai 通过智能调度和动态 GPU…
4 MIN READ
2026年 2月 4日
如何使用 Nemotron 为 RAG 构建文档处理流程
如果您的 AI 智能体能够像读取文本文件一样轻松地即时解析复杂的 PDF、提取嵌套表格并“查看”图表中的数据,该怎么办?
3 MIN READ
2026年 1月 30日
借助 CUDA Tile IR 后端推进 OpenAI Triton 的 GPU 编程
NVIDIA CUDA Tile 是基于 GPU 的编程模型,其设计目标是为 NVIDIA Tensor Cores 提供可移植性,
2 MIN READ
2026年 1月 26日
如何使用 NVIDIA Earth-2 解锁粗略气候投影的局部细节
全球气候模型擅长大局把握,但飓风和台风等局部极端气候现象往往在细节中被忽略。这些现象依然存在,只需借助合适的工具,
3 MIN READ
2026年 1月 14日
如何在 NVIDIA CUDA Tile 中编写高性能矩阵乘法
本博文是系列课程的一部分,旨在帮助开发者学习 NVIDIA CUDA Tile 编程,掌握构建高性能 GPU 内核的方法,
5 MIN READ