NVIDIA 技术博客
-
模拟/建模/设计使用 GPU 加速计算构建更好的量子位
-
代理式 AI/生成式 AI借助 BroRL 中的扩展功能突破强化学习训练限制
-
代理式 AI/生成式 AI使用 NVIDIA Nemotron RAG 和 Microsoft SQL Server 2025 在企业数据上构建可扩展的 AI
-
模拟/建模/设计借助 NVIDIA Alchemi,利用 AI 驱动仿真加速化学与材料发现
-
代理式 AI/生成式 AI融合 AI 与科研的癌症治疗领域开创性科学家
最近
2025年 11月 19日
使用 GPU 加速计算构建更好的量子位
从药物研发到材料科学,量子计算有望深刻变革科学与工业领域。然而,构建实用的大规模量子计算机仍面临严峻的工程挑战,
2 MIN READ
2025年 11月 19日
借助 BroRL 中的扩展功能突破强化学习训练限制
在使用可验证奖励的强化学习(RL)训练大语言模型(LLM)时,一个极具挑战性的问题是如何突破性能瓶颈。
2 MIN READ
2025年 11月 18日
使用 NVIDIA Nemotron RAG 和 Microsoft SQL Server 2025 在企业数据上构建可扩展的 AI
在 Microsoft Ignite 2025 大会上,随着 Microsoft SQL Server 2025 的发布,
2 MIN READ
2025年 11月 18日
借助 NVIDIA Alchemi,利用 AI 驱动仿真加速化学与材料发现
几乎所有制造产品都依赖于化学与材料科学的支持。然而,新发现不仅成本高昂、耗时漫长,还常常受限于试错法。传统的计算方法,
2 MIN READ
2025年 11月 17日
融合 AI 与科研的癌症治疗领域开创性科学家
人工智能正在重塑科学研究与创新的方式。科学家可以借助AI生成、汇总、整合并分析科学数据。AI模型能够从人类科学家可能忽略的数据中识别出模式,
2 MIN READ
2025年 11月 17日
NVIDIA NVQLink 架构加速计算与量子处理器融合
量子计算正步入一个加速计算与量子处理器深度融合推动技术进步的新阶段。控制和测量量子处理单元(QPU)的硬件面临严峻的计算挑战,
2 MIN READ
2025年 11月 13日
如何为您的游戏或应用启用神经网络着色
在过去的 25 年中,实时渲染的发展始终由硬件的持续进步所推动。其目标是在 16 毫秒内生成尽可能高保真的图像,这一需求促进了图形硬件、
6 MIN READ
2025年 11月 13日
通过 Python API 利用 CuTe DSL 实现 CUTLASS C++ 级性能
CuTe,是 CUTLASS 3.x 的核心组件,它提供了统一的代数体系,用于描述数据布局和线程映射,
4 MIN READ
增强现实/虚拟现实
2025年 10月 22日
使用 NVIDIA Nemotron 构建您自己的 Bash 计算机使用代理,只需一小时
如果您能够通过自然语言与计算机通信,让计算机在 Bash 终端中执行任务,而无需手动编写任何命令,该怎么办?
5 MIN READ
2025年 5月 18日
聚焦:Perfect Corp. 利用 NVIDIA TensorRT 和 NVENC 实现个性化的数字化美妆体验
增强现实 (AR) 和 AI 通过提供从虚拟试用到 AI 驱动的造型推荐等超个性化体验,正在彻底改变美妆和时尚行业。
1 MIN READ
2025年 5月 6日
借助 NVIDIA RTX PRO Blackwell 台式机 GPU 实现 Rivian 新一代XR 设计
对于不断突破 XR 界限的专业人士而言,打造身临其境的高保真体验始终充满挑战。在渲染大型数据集和驱动最新的超高分辨率高级 XR 头显设备时,
2 MIN READ
2025年 3月 5日
借助 NVIDIA Omniverse 将 AR 体验串流到 Apple iPad
最近在 MWC 巴塞罗那宣布 ,开发者现在可以将使用 NVIDIA Omniverse 构建的增强现实(AR)体验流式传输到 Apple…
1 MIN READ
2025年 2月 24日
在 NVIDIA 视频编解码器 SDK 13.0 中使用 MV-HEVC 启用立体和 3D 视图
NVIDIA 宣布在最新的 NVIDIA 视频编解码器 SDK 版本 13.0 中实施多视图高效视频编码 (MV-HEVC) 编码器。
2 MIN READ
2025年 1月 6日
利用 NVIDIA Omniverse 空间流,在 XR 中体验数字孪生技术
空间计算 体验正在转变我们与数据的交互方式,通过 扩展现实 (XR) 和 数字孪生 等技术连接物理和数字世界。
2 MIN READ
2024年 10月 24日
利用 NVIDIA Morpheus 加速警报分流和 LLM 代理强化安全运营中心
安全运营中心(SOC)分析师每天都会收到大量传入的安全警报。为了确保其组织的持续安全,他们的任务是仔细检查传入的噪音,分拣出误报,
1 MIN READ
2024年 10月 22日
多代理 AI 和 GPU 驱动的声音转文本技术创新
自动音频字幕 (Automated Audio Captioning) 任务的核心是从音频输入中生成自然语言描述。鉴于输入 (音频) 和输出…
2 MIN READ
数据科学
2025年 11月 10日
如何将数学问题的推理速度提升 4 倍
大语言模型能够解决具有挑战性的数学问题。然而,若要实现其大规模高效运行,仅依靠一个强大的模型检查点还远远不够。
3 MIN READ
2025年 11月 10日
使用 GPU 加速的 Polars DataFrame 训练 XGBoost 模型
PyData 生态系统的一大优势在于其出色的互操作性,能够支持数据在专注于探索性分析、模型训练与推理的各类库之间无缝流转。
2 MIN READ
2025年 11月 7日
构建交互式AI智能体,加速机器学习任务
在开始分析之前,数据科学家通常需要投入大量时间清理和准备大型非结构化数据集,这一过程对编程与统计专业知识要求较高。特征工程、
2 MIN READ
2025年 11月 6日
利用 NVIDIA cuVS 加速 Faiss 中的 GPU 向量搜索
随着企业收集的非结构化数据日益增多,并更加广泛地应用大语言模型(LLM),对更高效、更具可扩展性系统的需要也愈发迫切。
5 MIN READ
2025年 11月 5日
使用 PyTorch 和 NVIDIA BioNeMo Recipes 扩展生物学 Transformer 模型
训练拥有数十亿乃至数万亿参数的模型依赖于先进的并行计算技术。研究人员需要在不牺牲计算速度和内存效率的前提下,合理组合并行策略,选用高效加速库,
2 MIN READ
2025年 11月 4日
如何使用 OpenFold3 NIM 预测生物分子结构
几十年来,生物学中最深奥的谜题之一,便是氨基酸链如何自发折叠成复杂而精密的生命结构。尽管研究人员精心构建了各种模拟与统计模型,
2 MIN READ
2025年 10月 28日
隆重推出用于 RNA 设计和分析的 CodonFM 开放模型
开放式研究对推动创新至关重要,AI 与科学领域的众多突破正是通过开放式协作实现的。在数字生物学研究领域,
3 MIN READ
2025年 10月 24日
NVIDIA DGX Spark 的性能如何支持密集型 AI 任务
当今,要求严苛的 AI 开发者工作负载通常需要比台式电脑所能提供的内存更多,也往往需要访问笔记本电脑或 PC 所不具备的软件,
2 MIN READ