最近
2025年 12月 9日
借助 NVIDIA Aerial Omniverse 数字孪生改进 AI 原生 6G 设计
AI原生的6G网络将为数十亿的智能设备、智能体和机器提供服务。随着行业拓展至FR3(7–24 GHz)等新频段,无线电物理特性变得更加敏感,
2 MIN READ
2025年 12月 9日
五大 AI 模型优化技术,实现更快速、更智能的推理
随着 AI 模型规模不断扩大,架构日益复杂,研究人员和工程师正持续探索新技术,以优化 AI 系统在生产环境中的性能并降低总体成本。
2 MIN READ
2025年 12月 8日
使用 NVFP4 KV 缓存优化大批次与长上下文推理
量化是大规模推理中的关键手段之一。通过降低权重、激活值和KV缓存的精度,可以有效减少内存占用和计算开销,从而显著提升推理吞吐量、降低延迟,
3 MIN READ
2025年 12月 8日
使用 NVSentinel 自动监控 Kubernetes AI 集群健康状态
Kubernetes 支持生产环境中绝大多数 AI 工作负载。然而,维护 GPU 节点、保障应用稳定运行、持续推进训练任务,
2 MIN READ
2025年 12月 5日
NVIDIA Grace CPU 为现代数据中心提供高带宽和高效率
自2023年首次发布以来,NVIDIA Grace CPU 在数据中心领域实现了快速普及,为多种工作负载的性能与能效树立了新的标杆。
3 MIN READ
2025年 12月 5日
NVIDIA Kaggle 大师夺冠人工智能竞赛
NVIDIA 的研究人员在周五的 Kaggle 竞赛中拔得头筹,这一赛事被业界许多人视为对人类在人工智能(AGI)领域进展的一次实时检验。
1 MIN READ
2025年 12月 4日
借助功率配置文件优化 AI 和 HPC 工作负载的数据中心效率
不断呈指数级增长的计算需求正推动功耗持续上升,使数据中心面临巨大压力。在设施功耗受限的背景下,提升每瓦功耗的计算性能,
2 MIN READ
2025年 12月 4日
专注于算法 – NVIDIA CUDA Tile 负责处理硬件
自2006年NVIDIA推出CUDA平台以来,CUDA 13.1将迎来一次重大突破——即将发布的NVIDIA CUDA Tile。
2 MIN READ
增强现实/虚拟现实
2025年 10月 22日
使用 NVIDIA Nemotron 构建您自己的 Bash 计算机使用代理,只需一小时
如果您能够通过自然语言与计算机通信,让计算机在 Bash 终端中执行任务,而无需手动编写任何命令,该怎么办?
5 MIN READ
2025年 5月 18日
聚焦:Perfect Corp. 利用 NVIDIA TensorRT 和 NVENC 实现个性化的数字化美妆体验
增强现实 (AR) 和 AI 通过提供从虚拟试用到 AI 驱动的造型推荐等超个性化体验,正在彻底改变美妆和时尚行业。
1 MIN READ
2025年 5月 6日
借助 NVIDIA RTX PRO Blackwell 台式机 GPU 实现 Rivian 新一代XR 设计
对于不断突破 XR 界限的专业人士而言,打造身临其境的高保真体验始终充满挑战。在渲染大型数据集和驱动最新的超高分辨率高级 XR 头显设备时,
2 MIN READ
2025年 3月 5日
借助 NVIDIA Omniverse 将 AR 体验串流到 Apple iPad
最近在 MWC 巴塞罗那宣布 ,开发者现在可以将使用 NVIDIA Omniverse 构建的增强现实(AR)体验流式传输到 Apple…
1 MIN READ
2025年 2月 24日
在 NVIDIA 视频编解码器 SDK 13.0 中使用 MV-HEVC 启用立体和 3D 视图
NVIDIA 宣布在最新的 NVIDIA 视频编解码器 SDK 版本 13.0 中实施多视图高效视频编码 (MV-HEVC) 编码器。
2 MIN READ
2025年 1月 6日
利用 NVIDIA Omniverse 空间流,在 XR 中体验数字孪生技术
空间计算 体验正在转变我们与数据的交互方式,通过 扩展现实 (XR) 和 数字孪生 等技术连接物理和数字世界。
2 MIN READ
2024年 10月 24日
利用 NVIDIA Morpheus 加速警报分流和 LLM 代理强化安全运营中心
安全运营中心(SOC)分析师每天都会收到大量传入的安全警报。为了确保其组织的持续安全,他们的任务是仔细检查传入的噪音,分拣出误报,
1 MIN READ
2024年 10月 22日
多代理 AI 和 GPU 驱动的声音转文本技术创新
自动音频字幕 (Automated Audio Captioning) 任务的核心是从音频输入中生成自然语言描述。鉴于输入 (音频) 和输出…
2 MIN READ
数据科学
2025年 12月 4日
在 Python 中借助 NVIDIA CUDA Tile 简化 GPU 编程
NVIDIA CUDA 13.1 版本新增了基于 Tile 的GPU 编程模式。它是自 CUDA 发明以来 GPU 编程最核心的更新之一。
2 MIN READ
2025年 11月 24日
模型量化:核心概念、实现方法与关键作用
随着 AI 模型日益复杂,往往超出可用硬件的承载能力,量化技术已成为应对这一挑战的关键手段,使资源密集型模型得以在受限的硬件上运行。
5 MIN READ
2025年 11月 19日
借助 BroRL 中的扩展功能突破强化学习训练限制
在使用可验证奖励的强化学习(RL)训练大语言模型(LLM)时,一个极具挑战性的问题是如何突破性能瓶颈。
2 MIN READ
2025年 11月 10日
如何将数学问题的推理速度提升 4 倍
大语言模型能够解决具有挑战性的数学问题。然而,若要实现其大规模高效运行,仅依靠一个强大的模型检查点还远远不够。
3 MIN READ
2025年 11月 10日
使用 GPU 加速的 Polars DataFrame 训练 XGBoost 模型
PyData 生态系统的一大优势在于其出色的互操作性,能够支持数据在专注于探索性分析、模型训练与推理的各类库之间无缝流转。
2 MIN READ
2025年 11月 7日
构建交互式AI智能体,加速机器学习任务
在开始分析之前,数据科学家通常需要投入大量时间清理和准备大型非结构化数据集,这一过程对编程与统计专业知识要求较高。特征工程、
2 MIN READ
2025年 11月 6日
利用 NVIDIA cuVS 加速 Faiss 中的 GPU 向量搜索
随着企业收集的非结构化数据日益增多,并更加广泛地应用大语言模型(LLM),对更高效、更具可扩展性系统的需要也愈发迫切。
5 MIN READ
2025年 11月 5日
使用 PyTorch 和 NVIDIA BioNeMo Recipes 扩展生物学 Transformer 模型
训练拥有数十亿乃至数万亿参数的模型依赖于先进的并行计算技术。研究人员需要在不牺牲计算速度和内存效率的前提下,合理组合并行策略,选用高效加速库,
2 MIN READ