NVIDIA 技术博客
-
数据中心/云端用于降低 AI 推理延迟的预测性解码简介
-
数据科学NVIDIA RAPIDS 25.08 版本新增 cuML 分析器、Polars GPU 引擎更新、增加算法支持及更多功能
-
计算机视觉/视频分析适用于 Python GPU 加速视频处理的 PyNvVideoCodec 2.0 新增功能
-
AI 平台/部署利用 NVIDIA Run:ai 模型流技术降低大型语言模型推理的冷启动延迟
-
AI 平台/部署全新 Qwen3-Next 开源模型预览:MoE 架构在 NVIDIA 平台实现更高精度与加速并行处理速度
最近

2025年 9月 17日
用于降低 AI 推理延迟的预测性解码简介
使用大语言模型(LLM)生成文本时,通常会面临一个基本瓶颈。尽管 GPU 能够提供强大的计算能力,但由于自回归生成本质上是顺序进行的,
2 MIN READ

2025年 9月 17日
NVIDIA RAPIDS 25.08 版本新增 cuML 分析器、Polars GPU 引擎更新、增加算法支持及更多功能
RAPIDS 25.08 版本持续突破极限,新增多项功能,进一步提升了加速数据科学的易用性和可扩展性,包括: 请在下方详细了解新增功能。
3 MIN READ

2025年 9月 16日
适用于 Python GPU 加速视频处理的 PyNvVideoCodec 2.0 新增功能
Python 中的硬件加速视频处理变得更加便捷。 PyNvVideoCodec 是一个基于 NVIDIA Python 的库,
1 MIN READ

2025年 9月 16日
利用 NVIDIA Run:ai 模型流技术降低大型语言模型推理的冷启动延迟
部署大语言模型(LLM)在优化推理效率方面带来了显著挑战。其中,冷启动延迟——即模型加载到 GPU 显存所需的时间较长…
5 MIN READ

2025年 9月 15日
全新 Qwen3-Next 开源模型预览:MoE 架构在 NVIDIA 平台实现更高精度与加速并行处理速度
随着 AI 模型规模不断扩大且处理的文本序列越来越长,效率变得与规模同样重要。 为展示未来趋势,
2 MIN READ

2025年 9月 15日
在 OpenRouter 上使用 NVIDIA Nemotron 构建报告生成 AI 智能体
与传统系统遵循预设路径不同,AI智能体依托大语言模型(LLM)进行决策,能够适应动态变化的需求,并执行复杂的推理任务。
6 MIN READ

2025年 9月 11日
量化感知训练如何实现低精度恢复
训练 AI 模型后,可采用多种压缩技术来优化模型的部署。其中较为常见的是后训练量化(PTQ),该方法通过数值缩放技术,
3 MIN READ

2025年 9月 11日
使用 NVIDIA CUDA 加速的 VC-6 构建高性能视觉 AI 工作流
NVIDIA GPU 持续提升的计算吞吐量为优化视觉 AI 工作负载带来了新的机遇:让硬件持续高效地处理数据。随着 GPU 性能的不断增强,
4 MIN READ
增强现实/虚拟现实

2025年 5月 18日
聚焦:Perfect Corp. 利用 NVIDIA TensorRT 和 NVENC 实现个性化的数字化美妆体验
增强现实 (AR) 和 AI 通过提供从虚拟试用到 AI 驱动的造型推荐等超个性化体验,正在彻底改变美妆和时尚行业。
1 MIN READ

2025年 5月 6日
借助 NVIDIA RTX PRO Blackwell 台式机 GPU 实现 Rivian 新一代XR 设计
对于不断突破 XR 界限的专业人士而言,打造身临其境的高保真体验始终充满挑战。在渲染大型数据集和驱动最新的超高分辨率高级 XR 头显设备时,
2 MIN READ

2025年 3月 5日
借助 NVIDIA Omniverse 将 AR 体验串流到 Apple iPad
最近在 MWC 巴塞罗那宣布 ,开发者现在可以将使用 NVIDIA Omniverse 构建的增强现实(AR)体验流式传输到 Apple…
1 MIN READ

2025年 2月 24日
在 NVIDIA 视频编解码器 SDK 13.0 中使用 MV-HEVC 启用立体和 3D 视图
NVIDIA 宣布在最新的 NVIDIA 视频编解码器 SDK 版本 13.0 中实施多视图高效视频编码 (MV-HEVC) 编码器。
2 MIN READ

2025年 1月 6日
利用 NVIDIA Omniverse 空间流,在 XR 中体验数字孪生技术
空间计算 体验正在转变我们与数据的交互方式,通过 扩展现实 (XR) 和 数字孪生 等技术连接物理和数字世界。
2 MIN READ

2024年 10月 24日
利用 NVIDIA Morpheus 加速警报分流和 LLM 代理强化安全运营中心
安全运营中心(SOC)分析师每天都会收到大量传入的安全警报。为了确保其组织的持续安全,他们的任务是仔细检查传入的噪音,分拣出误报,
1 MIN READ

2024年 10月 22日
多代理 AI 和 GPU 驱动的声音转文本技术创新
自动音频字幕 (Automated Audio Captioning) 任务的核心是从音频输入中生成自然语言描述。鉴于输入 (音频) 和输出…
2 MIN READ

2024年 10月 14日
AI 驱动模拟和数字孪生技术助力手术机器人技术创新发展
在手术室中集成机器人手术助手(RSAs)为外科医生和患者的治疗效果带来了巨大的优势。目前,
1 MIN READ
数据科学

2025年 9月 10日
借助 NVIDIA RTX PRO Blackwell 服务器版本,将蛋白质结构推理速度提高 100 多倍
了解蛋白质结构的研究比以往任何时候都更加重要。从加快药物研发到为未来可能的疫情做好准备,
2 MIN READ

2025年 8月 22日
如何发现 (并修复) pandas 工作流中的 5 个常见性能瓶颈
数据加载缓慢、内存消耗大的连接操作以及长时间运行的任务,是每位 Python 开发者都会面临的问题。它们不仅浪费了宝贵的时间,
2 MIN READ

2025年 8月 13日
使用 ProRL v2 通过长时间训练扩展 LLM 强化学习
目前,AI 领域最引人注目的问题之一是大型语言模型 (LLM) 是否可以通过持续强化学习 (RL) 继续改进,或者其能力是否最终会达到顶峰。
4 MIN READ

2025年 8月 7日
在单个 NVIDIA Grace Hopper 超级芯片上使用 XGBoost 3.0 训练 TB 级数据集
梯度提升决策树 (GBDT) 驱动着从实时欺诈过滤到 PB 级需求预测的各种功能。由于其先进的准确性、
2 MIN READ

2025年 8月 7日
使用 JIT 编译在 cuDF 中高效转换
RAPIDS cuDF 提供了一系列用于使用 GPU 处理数据的 ETL 算法。对于 pandas 用户,
3 MIN READ

2025年 8月 6日
CUDA 工具包 13.0 的新特性和重要更新
CUDA Toolkit 13.0 是该工具包的最新版本,具有加速最新 NVIDIA CPU 和 GPU 计算的优势。作为一项重大发布,
4 MIN READ

2025年 8月 1日
7 种可即时加速 Python 数据科学工作流程的插入式替代方案
您已经经历过。您编写了完美的 Python 脚本,在示例 CSV 上对其进行了测试,一切都很完美。但是,
2 MIN READ

2025年 7月 24日
借助 NVIDIA cuVS 优化索引和实时检索的向量搜索
AI 赋能的搜索需要高性能索引、低延迟检索和无缝可扩展性。NVIDIA cuVS 为开发者和数据科学家带来了 GPU…
2 MIN READ