多专家模型 (MoE)
2026年 3月 11日
隆重推出 Nemotron 3 Super:用于代理式推理的开放式混合式 Mamba-Transformer MoE
代理式 AI 系统需要具有专业深度的模型来自主解决密集的技术问题。它们必须在推理、编码和长上下文分析方面表现出色,同时保持足够的效率,
3 MIN READ
2026年 3月 9日
从解服务中移除猜测
部署和优化大语言模型 (LLM) 以实现高性能、经济高效的服务可能是一项艰巨的工程难题。任何给定工作负载 (例如硬件、并行和预填充/
3 MIN READ
2026年 2月 27日
基于 NVIDIA GPU 加速端点,使用千问3.5 VLM 开发原生多模态智能体
阿里巴巴推出了全新开源 千问3.5 系列,专为构建原生多模态智能体而设计。该系列的首个模型是一款总参数为 397B、
1 MIN READ
2026年 2月 2日
使用混合专家并行优化混合专家训练的通信
在 LLM 训练中,超大规模多专家模型 (MoE) 的专家并行 (EP) 通信面临巨大挑战。EP 通信本质上属于多对多模式,
4 MIN READ