智能体/生成式 AI
2026年 2月 9日
借助 NVIDIA TensorRT LLM AutoDeploy 实现推理优化自动化
NVIDIA TensorRT LLM 使开发者能够为大语言模型 (LLM) 构建高性能推理引擎,但传统上部署新架构往往需要大量手动工作。
3 MIN READ
2026年 2月 5日
如何构建合规的 AI 模型蒸馏合成数据工作流
专用 AI 模型用于执行特定任务或解决特定问题。然而,如果您曾尝试对特定领域的模型进行微调或蒸馏,可能会遇到一些障碍,例如:
4 MIN READ
2026年 2月 4日
如何使用 Nemotron 为 RAG 构建文档处理流程
如果您的 AI 智能体能够像读取文本文件一样轻松地即时解析复杂的 PDF、提取嵌套表格并“查看”图表中的数据,该怎么办?
3 MIN READ
2026年 2月 4日
基于 NVIDIA GPU 加速端点构建 Kimi K2.5 多模态视觉语言模型
Kimi K2.5 是 Kimi 模型家族最新推出的开放式视觉语言模型(VLM)。作为通用型多模态模型,Kimi K2.5…
1 MIN READ
2026年 2月 2日
使用混合专家并行优化混合专家训练的通信
在 LLM 训练中,超大规模多专家模型 (MoE) 的专家并行 (EP) 通信面临巨大挑战。EP 通信本质上属于多对多模式,
4 MIN READ
2026年 1月 30日
沙箱代理工作流与执行风险管理的实用安全指南
AI 编码智能体通过简化任务和推动测试驱动的自动化开发,使开发者能够更高效地工作。然而,它们也引入了一个常被忽视的重要攻击面:
1 MIN READ
2026年 1月 30日
借助 CUDA Tile IR 后端推进 OpenAI Triton 的 GPU 编程
NVIDIA CUDA Tile 是基于 GPU 的编程模型,其设计目标是为 NVIDIA Tensor Cores 提供可移植性,
2 MIN READ
2026年 1月 28日
更新视觉语言模型的分类器规避
AI 架构的进步解锁了多模态功能,使 Transformer 模型能够在统一的上下文中处理多种类型的数据。例如,
3 MIN READ
2026年 1月 28日
借助动态上下文并行和 NVIDIA Megatron Core 加速可变长度训练
本文介绍了应用于 NVIDIA Megatron Core 中的一种新型调度方法 — — 动态上下文并行 (Dynamic-CP) ,
4 MIN READ
2026年 1月 28日
基于时间的公平共享实现 Kubernetes 集群 GPU 分配均衡
NVIDIA Run:ai v2.24 引入了基于时间的公平分享,这是一种全新的调度模式,可为 Kubernetes 集群实现公平分享调度,
2 MIN READ
2026年 1月 27日
通过开放式即插即用产品加速扩散模型
大规模扩散模型的近期进展深刻改变了生成式 AI 在多个领域的应用,涵盖图像合成、音频生成、3D 素材创建、分子设计等。
2 MIN READ
2026年 1月 27日
使用 NVIDIA TensorRT LLM 部署 MiniMax M2/M2.1 稀疏 MoE 大模型
MiniMax M2/M2.1 是一款面向 Agents 和 Coding 工作流的开源稀疏 MoE 模型,在工具调用、
2 MIN READ
2026年 1月 26日
NVIDIA TensorRT for RTX 中的自适应推理可实现自动优化
传统上,在各种消费级硬件中部署 AI 应用需要进行权衡。可以针对特定 GPU 配置进行优化,以牺牲便携性为代价来提升性能;
3 MIN READ
2026年 1月 15日
如何使用合成数据和强化学习训练 AI 智能体执行命令行任务
如果您的计算机智能体能够学习新的命令行界面(CLI),并且在无需编写文件或自由输入 shell 命令的情况下也能安全操作,该怎么办?
3 MIN READ
2026年 1月 9日
构建支持本地化交互体验的 AI 产品目录系统
电子商务目录通常包含稀疏的产品数据、通用图像、基础标题和简短说明,这限制了产品的可发现性、用户参与度以及转化率。手动扩充难以规模化,
3 MIN READ
2026年 1月 9日
多智能体仓库 AI 命令层实现卓越运营和供应链智能
仓库的自动化程度从未如此之高,数据也从未如此丰富,运营要求同样日益提升,但许多仓库仍依赖于无法跟上需求的系统。吞吐量持续攀升,
2 MIN READ