NVIDIA 技术博客
-
数据中心/云端使用批量模式 VC-6 和 NVIDIA Nsight 加速视觉 AI 工作流
-
精选借助 Gemma 4,让 AI 更贴近边缘和设备端
-
数据中心/云端为资本市场实现单位数微秒级延迟推理
-
精选NVIDIA Extreme Co-Design 带来 MLPerf 推理新纪录
-
数据中心/云端使用统一服务和实时 AI 加速 AI 工厂的词元生产
最近
2026年 4月 2日
使用批量模式 VC-6 和 NVIDIA Nsight 加速视觉 AI 工作流
在视觉 AI 系统中,模型吞吐量不断提高。周围的工作流阶段必须与时俱进,包括解码、预处理和 GPU 调度。在上一篇文章中,
3 MIN READ
2026年 4月 2日
借助 Gemma 4,让 AI 更贴近边缘和设备端
随着最新 Gemma 4 多模态和多语言模型的推出,Gemmaverse 得以扩展,
2 MIN READ
2026年 4月 2日
为资本市场实现单位数微秒级延迟推理
在算法交易中,缩短对市场事件的响应时间至关重要。为了与高速电子市场保持同步,对延迟敏感的公司通常使用 FPGA 和 ASIC 等专用硬件。
3 MIN READ
2026年 4月 1日
NVIDIA Extreme Co-Design 带来 MLPerf 推理新纪录
共同设计的硬件、软件和模型是提供更高 AI 工厂吞吐量和更低词元成本的关键。测量这一点远远超出了峰值芯片规格。
3 MIN READ
2026年 4月 1日
使用统一服务和实时 AI 加速 AI 工厂的词元生产
在当今的 AI 工厂环境中,性能并不是理论性的。它是经济、竞争和生存的。可用 GPU 时间每减少 1%,就意味着每小时损失数百万词元。
2 MIN READ
2026年 3月 31日
借助 NVIDIA CloudXR 6.0 将高保真空间计算内容串流到任何设备
空间计算正在从可视化转向主动协作,这增加了对 XR 硬件的 GPU 需求,以实时渲染逼真、物理精准、高保真的空间内容。与此同时,
2 MIN READ
2026年 3月 31日
使用 NVIDIA CloudXR.js 构建和流式传输基于浏览器的 XR 体验
为企业用户提供高保真 VR 和 AR 体验通常需要本地应用开发、自定义设备管理和复杂的部署流程。现在,
3 MIN READ
2026年 3月 25日
通过整合未充分利用的 GPU 工作负载,更大限度地提高 AI 基础设施吞吐量
在生产 Kubernetes 环境中,模型要求与 GPU 大小之间的差异导致效率低下。轻量级自动语音识别 (ASR) 或文本转语音…
3 MIN READ
增强现实/虚拟现实
2025年 10月 22日
使用 NVIDIA Nemotron 构建您自己的 Bash 计算机使用代理,只需一小时
如果您能够通过自然语言与计算机通信,让计算机在 Bash 终端中执行任务,而无需手动编写任何命令,该怎么办?
5 MIN READ
2025年 5月 18日
聚焦:Perfect Corp. 利用 NVIDIA TensorRT 和 NVENC 实现个性化的数字化美妆体验
增强现实 (AR) 和 AI 通过提供从虚拟试用到 AI 驱动的造型推荐等超个性化体验,正在彻底改变美妆和时尚行业。
1 MIN READ
2025年 5月 6日
借助 NVIDIA RTX PRO Blackwell 台式机 GPU 实现 Rivian 新一代XR 设计
对于不断突破 XR 界限的专业人士而言,打造身临其境的高保真体验始终充满挑战。在渲染大型数据集和驱动最新的超高分辨率高级 XR 头显设备时,
2 MIN READ
2025年 3月 5日
借助 NVIDIA Omniverse 将 AR 体验串流到 Apple iPad
最近在 MWC 巴塞罗那宣布 ,开发者现在可以将使用 NVIDIA Omniverse 构建的增强现实(AR)体验流式传输到 Apple…
1 MIN READ
2025年 2月 24日
在 NVIDIA 视频编解码器 SDK 13.0 中使用 MV-HEVC 启用立体和 3D 视图
NVIDIA 宣布在最新的 NVIDIA 视频编解码器 SDK 版本 13.0 中实施多视图高效视频编码 (MV-HEVC) 编码器。
2 MIN READ
2025年 1月 6日
利用 NVIDIA Omniverse 空间流,在 XR 中体验数字孪生技术
空间计算 体验正在转变我们与数据的交互方式,通过 扩展现实 (XR) 和 数字孪生 等技术连接物理和数字世界。
2 MIN READ
2024年 10月 24日
利用 NVIDIA Morpheus 加速警报分流和 LLM 代理强化安全运营中心
安全运营中心(SOC)分析师每天都会收到大量传入的安全警报。为了确保其组织的持续安全,他们的任务是仔细检查传入的噪音,分拣出误报,
1 MIN READ
2024年 10月 22日
多代理 AI 和 GPU 驱动的声音转文本技术创新
自动音频字幕 (Automated Audio Captioning) 任务的核心是从音频输入中生成自然语言描述。鉴于输入 (音频) 和输出…
2 MIN READ
数据科学
2026年 3月 24日
构建用于推理、多模态 RAG、语音和安全的 NVIDIA Nemotron 3 智能体
代理式 AI 是一个专业模型协同工作的生态系统,可处理规划、推理、检索和安全护栏。随着这些系统的扩展,开发者需要能够理解现实世界多模态数据、
3 MIN READ
2026年 3月 16日
NVIDIA Vera CPU 为 AI 工厂提供高性能、高带宽和高效率
AI 在不断发展,推理模型对 token 的需求不断增加,对 AI 基础设施的每一层都提出了新的要求。计算比以往任何时候都更需要高效扩展,
3 MIN READ
2026年 3月 9日
CUDA 13.2 引入增强的 CUDA Tile 支持和新的 Python 功能
CUDA 13.2 发布后进行了重大更新:NVIDIA CUDA Tile 现已支持具有 8.X 架构 ( NVIDIA Ampere 和…
5 MIN READ
2026年 3月 5日
控制 NVIDIA CCCL 中的浮点确定性
如果使用相同的输入数据进行多次运行时能够产生完全一致的逐位计算结果,则该计算被称为确定性计算。这看似简单,但在实际中却难以实现,
2 MIN READ
2026年 3月 5日
在 NVIDIA CUDA Tile 中调整 Flash Attention 以实现峰值性能
在本文中,我们将深入探讨现代 AI 中至关重要的工作负载之一:Flash Attention,您将了解: 环境要求:
9 MIN READ
2026年 3月 3日
cuTile.jl 为 Julia 带来基于 NVIDIA CUDA Tile 的编程
NVIDIA CUDA Tile 是 NVIDIA CUDA 编程的一项重要新增功能,可自动访问 Tensor Core 和其他专用硬件。
2 MIN READ
2026年 2月 18日
NVIDIA 极致软硬件协同设计如何助力 Sarvam AI 主权模型实现惊人推理性能跃升
随着全球人工智能采用的加速,开发者面临日益严峻的挑战:如何提供符合现实世界延迟和成本要求的大语言模型(LLM)性能。
4 MIN READ
2026年 2月 18日
登顶 GPU 内核排行榜:借助 NVIDIA CUDA.compute 实现卓越性能
Python 在符合人体工程学的机器学习领域占据主导地位,但编写真正高效的 GPU 代码历来需要使用 C++ 编写自定义内核,
2 MIN READ