LLMs
2026年 4月 2日
借助 Gemma 4,让 AI 更贴近边缘和设备端
随着最新 Gemma 4 多模态和多语言模型的推出,Gemmaverse 得以扩展,
2 MIN READ
2026年 3月 24日
构建用于推理、多模态 RAG、语音和安全的 NVIDIA Nemotron 3 智能体
代理式 AI 是一个专业模型协同工作的生态系统,可处理规划、推理、检索和安全护栏。随着这些系统的扩展,开发者需要能够理解现实世界多模态数据、
3 MIN READ
2026年 3月 23日
为机密 AI 工厂构建零信任架构
AI 正在从实验转向生产。但是,企业需要的大多数数据都存在于公有云之外。这包括敏感信息,如患者记录、市场研究和包含企业知识的传统系统。此外,
2 MIN READ
2026年 3月 18日
如何使用 NVIDIA AI-Q 和 LangChain 构建用于企业搜索的深度智能体
虽然消费者 AI 提供了强大的功能,但工作场所工具通常会因数据不连贯和上下文有限而受到影响。 基于 LangChain 构建,
3 MIN READ
2026年 3月 16日
使用 NVIDIA OpenShell 更安全地运行自主、自演化代理
AI 已经从跟随你指令的助手发展为独立行动的智能体。这些被称为“爪”的智能体可以达成目标,找出实现目标的方法,并无限执行任务,
1 MIN READ
2026年 3月 11日
隆重推出 Nemotron 3 Super:用于代理式推理的开放式混合式 Mamba-Transformer MoE
代理式 AI 系统需要具有专业深度的模型来自主解决密集的技术问题。它们必须在推理、编码和长上下文分析方面表现出色,同时保持足够的效率,
3 MIN READ
2026年 3月 9日
从解服务中移除猜测
部署和优化大语言模型 (LLM) 以实现高性能、经济高效的服务可能是一项艰巨的工程难题。任何给定工作负载 (例如硬件、并行和预填充/
3 MIN READ
2026年 2月 27日
借助 NVIDIA Run:ai 与 NVIDIA NIM 充分释放 GPU 性能潜力
部署 LLM 的组织面临着推理工作负载的挑战,这些工作负载具有差异化的资源需求。小型嵌入模型可能仅需几 GB 的 GPU 显存,
4 MIN READ
2026年 2月 25日
借助 NVIDIA Blackwell Ultra 提升 Softmax 的效率
LLM 上下文长度呈爆炸式增长,架构正朝着更复杂的注意力机制发展,例如多头潜在注意力(MLA)和分组查询注意力(GQA)。因此,
2 MIN READ
2026年 2月 18日
在 NVIDIA Run:ai 中利用 GPU 解锁大规模 Token 吞吐能力
随着 AI 工作负载的扩展,实现高吞吐量、高效资源利用和可预测的延迟变得愈发关键。 NVIDIA Run:ai 通过智能调度和动态 GPU…
4 MIN READ
2026年 2月 17日
构建 AI 就绪型知识系统:掌握 5 种核心多模态 RAG 功能
企业数据本身具有高度复杂性:现实世界中的文档是多模态的,包含文本、表格、图表与图形、图像、扫描页面、表单以及嵌入式元数据。
3 MIN READ
2026年 2月 9日
借助 NVIDIA TensorRT LLM AutoDeploy 实现推理优化自动化
NVIDIA TensorRT LLM 使开发者能够为大语言模型 (LLM) 构建高性能推理引擎,但传统上部署新架构往往需要大量手动工作。
3 MIN READ
2026年 2月 5日
如何构建合规的 AI 模型蒸馏合成数据工作流
专用 AI 模型用于执行特定任务或解决特定问题。然而,如果您曾尝试对特定领域的模型进行微调或蒸馏,可能会遇到一些障碍,例如:
4 MIN READ
2026年 2月 4日
如何使用 Nemotron 为 RAG 构建文档处理流程
如果您的 AI 智能体能够像读取文本文件一样轻松地即时解析复杂的 PDF、提取嵌套表格并“查看”图表中的数据,该怎么办?
3 MIN READ
2026年 2月 2日
使用混合专家并行优化混合专家训练的通信
在 LLM 训练中,超大规模多专家模型 (MoE) 的专家并行 (EP) 通信面临巨大挑战。EP 通信本质上属于多对多模式,
4 MIN READ
2026年 1月 28日
更新视觉语言模型的分类器规避
AI 架构的进步解锁了多模态功能,使 Transformer 模型能够在统一的上下文中处理多种类型的数据。例如,
3 MIN READ