智能体/生成式 AI

DGX Spark × NemoClaw × Ollama:构建你的本地AI智能体

在当今AI智能体技术爆发的时代,NVIDIA的开源项目NemoClaw无疑是企业用户和技术爱好者眼中的明星项目。它不仅继承了OpenClaw强大的通用智能体能力: 理解复杂指令、自主编写代码、操作文件以及控制浏览器。更重要的是,通过底层的NVIDIA OpenShell运行时,它提供了一个更安全、完全隔离的沙盒环境。

当你拥有一台像NVIDIA DGX Spark这样的顶级桌面AI超级计算机(配备GB10 Grace Blackwell超级芯片,拥有1 PFLOPS的算力和128GB的LPDDR5x统一内存)时,将NemoClaw与本地大型语言模型结合,是释放这台机器潜力的最佳方式。

本文将带你了解NemoClaw的核心优势,并提供一个极简的部署方案,让你能够轻松地在DGX Spark上运行一个基于本地Qwen3.5 35B模型的安全智能体。

为什么选择NemoClaw?

NVIDIA NemoClaw是一个开源软件堆栈,它简化了运行OpenClaw实时助手的过程——只需一条命令。它安装了NVIDIA OpenShell运行时,来添加基于策略的隐私和安全护栏,让用户能够更多地控制其智能体的行为和数据处理:

  1. 沙盒隔离:每个AI智能体都在其自身隔离的OpenShell沙盒内运行,通过策略强制控制文件访问、网络活动和数据泄露——而且由于这些控制独立于智能体进程之外,无论是智能体本身还是任何恶意的提示词注入都无法覆盖它们。
  2. 隐私路由:拦截智能体发出的请求,自动剥离PII(个人身份信息)和凭证等敏感数据,然后根据你组织的隐私策略将请求路由到本地或外部的AI模型。
  3. 安全能力演进:当智能体学习新技能或尝试安装新工具时,每一项新能力都要受到相同的安全策略控制。

为什么选择DGX Spark + 本地大模型?

本地部署具有无与伦比的优势:

  • 零成本无限试错:复杂的智能体任务(如代码调试、网络信息提取)通常需要消耗大量的token。使用本地模型,你不再需要担心API账单,可以让智能体自由工作。
  • 压榨硬件潜力:DGX Spark的128GB统一内存和273 GB/s内存带宽可以轻松容纳像Qwen3.5 35B这样的开源模型,这些模型兼具强大的推理和编程能力,让你享受极低的推理延迟。

极简部署方案

第1步:准备环境

确保你的DGX Spark上已安装Docker,并且Ollama服务已启动。以下过程以Qwen 3.5模型为例(DGX Spark运行35B模型毫不费力):

# 拉取 Qwen3.5 35B 模型
ollama pull qwen3.5:35b-a3b

第2步:运行一键部署脚本

克隆辅助脚本并运行它:

# 获取辅助部署脚本
git clone https://github.com/HeKun-NVIDIA/nemoclaw-setup.git
cd nemoclaw-setup

# 授予执行权限并运行
bash nemoclaw-setup.sh

脚本执行期间的终端交互指南:

脚本将自动检测本地Ollama服务并列出已安装的模型。

Detected local inference option: Ollama

Local Ollama is running on localhost:11434

Use local Ollama for inference? [Y/n]: Y

Ollama models:

1) qwen3.5:35b-a3b

2) llama3:8b

Choose model [1]: 1

输入你要使用的模型编号(例如,1)并按回车键。

接下来,它将进入NemoClaw的官方引导流程。在第3步,它会询问是否创建或覆盖沙盒:

Sandbox 'my-assistant' already exists. Recreate it? [y/N]: y

输入y确认创建。

在第4步选择推理方法时,你必须选择Local Ollama:

Select an inference provider:
1) OpenAI
2) Local vLLM
3) Local Ollama
Choice: 3

选择3,然后输入你在第一步中选择的模型名称(例如,qwen3.5:35b-a3b)。

在第7步选择策略预设时,只需按回车键应用默认推荐配置(通常包括pypi和npm访问权限)。

脚本将在最后输出以下消息,表明网络路由已成功配置,桥接了沙盒与主机Ollama之间的通信:

Patching gateway inference route...

✓ Gateway inference route updated to http://172.17.0.1:11434/v1

─────────────────────────────────────────────────

Browser access:

http://127.0.0.1:18789/

─────────────────────────────────────────────────

第3步:远程访问UI

作为一个例子,假设IP地址是192.168.8.117,你想通过MacBook上的浏览器访问UI。然后在您的电脑上打开一个新终端并设置SSH端口转发:

# 将本地端口 18789 转发到 DGX Spark 的端口 18789

ssh -N -L 18789:127.0.0.1:18789 nvidia@192.168.8.117

保持此终端打开。然后打开你的浏览器并访问部署成功后终端提示的链接(例如):

http://127.0.0.1:18789/#token=ed53e52784cebb810eef349d946aeeca9574c49feb3e15df6852f17473a752b9

(注意:此链接将在上述终端命令执行完毕后显示。请直接复制终端中显示的带有token的链接)。

此时,NemoClaw极具未来感的控制台界面将显示出来。

与本地智能体聊天

在聊天界面中,你可以直接向NemoClaw发送指令。为了验证它正在使用指定的本地模型,你可以问它:“你好,NemoClaw,你的本地大模型是什么?”

它会回复其底层的大模型名字:

智能体回复示例: 

👋 你好 Ken!本地运行的大模型是 Qwen3.5:35b-a3b!

详情:

  • 模型系列:Qwen3.5(Qwen系列的最新版本)
  • 参数量:35B(350亿参数)
  • 提供商:Inference(通过API调用的模型)
  • 模型ID:inference/qwen3.5:35b-a3b

现在,你可以开始给它分配各种任务,例如“帮我写一个贪吃蛇网页游戏并运行它”,同时利用DGX Spark带来的推理速度和完全本地化、隐私安全的AI智能体体验。

进阶:如何一键更换模型?

得益于DGX Spark的128GB内存,你可以轻松尝试更大更强的模型。例如,最近流行的国内开源推理模型DeepSeek-R1;DGX Spark可以轻松运行其70B版本(deepseek-r1:70b)。

如果你想更换模型,无需手动编辑复杂的配置文件。你只需要在终端中指定环境变量并重新运行辅助脚本:

# 提前拉取模型(可选,但推荐)

ollama pull deepseek-r1:70b

# 一键切换并重建沙盒

NEMOCLAW_MODEL=deepseek-r1:70b NEMOCLAW_RECREATE_SANDBOX=1 bash nemoclaw-setup.sh

辅助脚本会自动为你销毁旧沙盒,重建它,并配置所有网络路由。这只需几分钟,你的NemoClaw智能体就会带着新的DeepSeek大脑重新开始。

在本地智能体的世界里玩得开心!

附录1:OpenClaw 风险防范六大核心建议

内容来源:国家网络与信息安全信息通报中心

附录2:防范OpenClaw安全风险,工信部提出“六要六不要”

内容来源:工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)

标签