在当今AI智能体技术爆发的时代,NVIDIA的开源项目NemoClaw无疑是企业用户和技术爱好者眼中的明星项目。它不仅继承了OpenClaw强大的通用智能体能力: 理解复杂指令、自主编写代码、操作文件以及控制浏览器。更重要的是,通过底层的NVIDIA OpenShell运行时,它提供了一个更安全、完全隔离的沙盒环境。
当你拥有一台像NVIDIA DGX Spark这样的顶级桌面AI超级计算机(配备GB10 Grace Blackwell超级芯片,拥有1 PFLOPS的算力和128GB的LPDDR5x统一内存)时,将NemoClaw与本地大型语言模型结合,是释放这台机器潜力的最佳方式。
本文将带你了解NemoClaw的核心优势,并提供一个极简的部署方案,让你能够轻松地在DGX Spark上运行一个基于本地Qwen3.5 35B模型的安全智能体。
为什么选择NemoClaw?
NVIDIA NemoClaw是一个开源软件堆栈,它简化了运行OpenClaw实时助手的过程——只需一条命令。它安装了NVIDIA OpenShell运行时,来添加基于策略的隐私和安全护栏,让用户能够更多地控制其智能体的行为和数据处理:
- 沙盒隔离:每个AI智能体都在其自身隔离的OpenShell沙盒内运行,通过策略强制控制文件访问、网络活动和数据泄露——而且由于这些控制独立于智能体进程之外,无论是智能体本身还是任何恶意的提示词注入都无法覆盖它们。
- 隐私路由:拦截智能体发出的请求,自动剥离PII(个人身份信息)和凭证等敏感数据,然后根据你组织的隐私策略将请求路由到本地或外部的AI模型。
- 安全能力演进:当智能体学习新技能或尝试安装新工具时,每一项新能力都要受到相同的安全策略控制。
为什么选择DGX Spark + 本地大模型?
本地部署具有无与伦比的优势:
- 零成本无限试错:复杂的智能体任务(如代码调试、网络信息提取)通常需要消耗大量的token。使用本地模型,你不再需要担心API账单,可以让智能体自由工作。
- 压榨硬件潜力:DGX Spark的128GB统一内存和273 GB/s内存带宽可以轻松容纳像Qwen3.5 35B这样的开源模型,这些模型兼具强大的推理和编程能力,让你享受极低的推理延迟。
极简部署方案
第1步:准备环境
确保你的DGX Spark上已安装Docker,并且Ollama服务已启动。以下过程以Qwen 3.5模型为例(DGX Spark运行35B模型毫不费力):
# 拉取 Qwen3.5 35B 模型
ollama pull qwen3.5:35b-a3b
第2步:运行一键部署脚本
克隆辅助脚本并运行它:
# 获取辅助部署脚本
git clone https://github.com/HeKun-NVIDIA/nemoclaw-setup.git
cd nemoclaw-setup
# 授予执行权限并运行
bash nemoclaw-setup.sh
脚本执行期间的终端交互指南:
脚本将自动检测本地Ollama服务并列出已安装的模型。
Detected local inference option: Ollama
Local Ollama is running on localhost:11434
Use local Ollama for inference? [Y/n]: Y
Ollama models:
1) qwen3.5:35b-a3b
2) llama3:8b
Choose model [1]: 1
输入你要使用的模型编号(例如,1)并按回车键。
接下来,它将进入NemoClaw的官方引导流程。在第3步,它会询问是否创建或覆盖沙盒:
Sandbox 'my-assistant' already exists. Recreate it? [y/N]: y
输入y确认创建。
在第4步选择推理方法时,你必须选择Local Ollama:
Select an inference provider:
1) OpenAI
2) Local vLLM
3) Local Ollama
Choice: 3
选择3,然后输入你在第一步中选择的模型名称(例如,qwen3.5:35b-a3b)。
在第7步选择策略预设时,只需按回车键应用默认推荐配置(通常包括pypi和npm访问权限)。
脚本将在最后输出以下消息,表明网络路由已成功配置,桥接了沙盒与主机Ollama之间的通信:
Patching gateway inference route...
✓ Gateway inference route updated to http://172.17.0.1:11434/v1
─────────────────────────────────────────────────
Browser access:
http://127.0.0.1:18789/
─────────────────────────────────────────────────
第3步:远程访问UI
作为一个例子,假设IP地址是192.168.8.117,你想通过MacBook上的浏览器访问UI。然后在您的电脑上打开一个新终端并设置SSH端口转发:
# 将本地端口 18789 转发到 DGX Spark 的端口 18789
ssh -N -L 18789:127.0.0.1:18789 nvidia@192.168.8.117
保持此终端打开。然后打开你的浏览器并访问部署成功后终端提示的链接(例如):
http://127.0.0.1:18789/#token=ed53e52784cebb810eef349d946aeeca9574c49feb3e15df6852f17473a752b9
(注意:此链接将在上述终端命令执行完毕后显示。请直接复制终端中显示的带有token的链接)。
此时,NemoClaw极具未来感的控制台界面将显示出来。
与本地智能体聊天

在聊天界面中,你可以直接向NemoClaw发送指令。为了验证它正在使用指定的本地模型,你可以问它:“你好,NemoClaw,你的本地大模型是什么?”
它会回复其底层的大模型名字:
智能体回复示例:
👋 你好 Ken!本地运行的大模型是 Qwen3.5:35b-a3b!
详情:
- 模型系列:Qwen3.5(Qwen系列的最新版本)
- 参数量:35B(350亿参数)
- 提供商:Inference(通过API调用的模型)
- 模型ID:inference/qwen3.5:35b-a3b
现在,你可以开始给它分配各种任务,例如“帮我写一个贪吃蛇网页游戏并运行它”,同时利用DGX Spark带来的推理速度和完全本地化、隐私安全的AI智能体体验。
进阶:如何一键更换模型?
得益于DGX Spark的128GB内存,你可以轻松尝试更大更强的模型。例如,最近流行的国内开源推理模型DeepSeek-R1;DGX Spark可以轻松运行其70B版本(deepseek-r1:70b)。
如果你想更换模型,无需手动编辑复杂的配置文件。你只需要在终端中指定环境变量并重新运行辅助脚本:
# 提前拉取模型(可选,但推荐)
ollama pull deepseek-r1:70b
# 一键切换并重建沙盒
NEMOCLAW_MODEL=deepseek-r1:70b NEMOCLAW_RECREATE_SANDBOX=1 bash nemoclaw-setup.sh
辅助脚本会自动为你销毁旧沙盒,重建它,并配置所有网络路由。这只需几分钟,你的NemoClaw智能体就会带着新的DeepSeek大脑重新开始。
在本地智能体的世界里玩得开心!
内容来源:国家网络与信息安全信息通报中心
附录2:防范OpenClaw安全风险,工信部提出“六要六不要”
内容来源:工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)