Deep dive
2025年 12月 9日
借助 NVIDIA Aerial Omniverse 数字孪生改进 AI 原生 6G 设计
AI原生的6G网络将为数十亿的智能设备、智能体和机器提供服务。随着行业拓展至FR3(7–24 GHz)等新频段,无线电物理特性变得更加敏感,
2 MIN READ
2025年 12月 8日
使用 NVFP4 KV 缓存优化大批次与长上下文推理
量化是大规模推理中的关键手段之一。通过降低权重、激活值和KV缓存的精度,可以有效减少内存占用和计算开销,从而显著提升推理吞吐量、降低延迟,
3 MIN READ
2025年 12月 4日
借助功率配置文件优化 AI 和 HPC 工作负载的数据中心效率
不断呈指数级增长的计算需求正推动功耗持续上升,使数据中心面临巨大压力。在设施功耗受限的背景下,提升每瓦功耗的计算性能,
2 MIN READ
2025年 12月 4日
NVIDIA CUDA 13.1 引入 NVIDIA CUDA Tile 等新功能,为下一代 GPU 编程提供更强动力
NVIDIA CUDA 13.1 是自 CUDA 二十年前发明以来,规模最大、内容最全面的一次更新。 最新的版本包含一系列新功能与改进,
1 MIN READ
2025年 12月 2日
NVIDIA 加速的 Mistral 3 开源模型,实现多规模下的高效与精准
新的 Mistral 3 开放模型系列为开发者和企业提供了卓越的准确性、高效的性能以及灵活的定制功能。
3 MIN READ
2025年 12月 2日
量化投资组合优化助力实时财务决策提速
金融投资组合优化是一项艰巨但至关重要的任务,长期以来始终面临计算速度与模型复杂性之间的权衡难题。
6 MIN READ
2025年 11月 24日
模型量化:核心概念、实现方法与关键作用
随着 AI 模型日益复杂,往往超出可用硬件的承载能力,量化技术已成为应对这一挑战的关键手段,使资源密集型模型得以在受限的硬件上运行。
5 MIN READ
2025年 11月 19日
借助 BroRL 中的扩展功能突破强化学习训练限制
在使用可验证奖励的强化学习(RL)训练大语言模型(LLM)时,一个极具挑战性的问题是如何突破性能瓶颈。
2 MIN READ
2025年 11月 18日
使用 NVIDIA Nemotron RAG 和 Microsoft SQL Server 2025 在企业数据上构建可扩展的 AI
在 Microsoft Ignite 2025 大会上,随着 Microsoft SQL Server 2025 的发布,
2 MIN READ
2025年 11月 17日
融合 AI 与科研的癌症治疗领域开创性科学家
人工智能正在重塑科学研究与创新的方式。科学家可以借助AI生成、汇总、整合并分析科学数据。AI模型能够从人类科学家可能忽略的数据中识别出模式,
2 MIN READ
2025年 11月 13日
通过 Python API 利用 CuTe DSL 实现 CUTLASS C++ 级性能
CuTe,是 CUTLASS 3.x 的核心组件,它提供了统一的代数体系,用于描述数据布局和线程映射,
4 MIN READ
2025年 11月 10日
生成式 AI 超分辨率利用可扩展的低计算模型加速天气预报
随着AI在天气和气候预测模型中的广泛应用,NVIDIA Earth-2平台提供了基于GPU优化的软件堆栈,以及用于加速解决方案的库和工具。
4 MIN READ
2025年 11月 7日
构建交互式AI智能体,加速机器学习任务
在开始分析之前,数据科学家通常需要投入大量时间清理和准备大型非结构化数据集,这一过程对编程与统计专业知识要求较高。特征工程、
2 MIN READ
2025年 11月 6日
利用 NVIDIA cuVS 加速 Faiss 中的 GPU 向量搜索
随着企业收集的非结构化数据日益增多,并更加广泛地应用大语言模型(LLM),对更高效、更具可扩展性系统的需要也愈发迫切。
5 MIN READ
2025年 11月 3日
代码执行如何推动代理式 AI 系统中的主要风险
AI 驱动的应用正从被动工具演变为能够生成代码、做出决策并采取自主行动的代理式系统。这一转变带来了严峻的安全挑战。
2 MIN READ
2025年 10月 28日
利用 NVIDIA Nemotron Vision、RAG 和 Guardrail 新模型开发专用 AI 智能体
代理式 AI 是一个由专门的语言模型与视觉模型协同工作的生态系统,负责规划、推理、信息检索以及安全防护。
3 MIN READ