OpenClaw 🦞
在 DGX Spark 上本地运行 OpenClaw,并通过 LM Studio 或 Ollama 连接本地 LLM
基本思路
OpenClaw(前身为 Clawdbot 和 Moltbot)是一个优先本地运行的 AI 智能体。它将多种功能集成于一个助手之中:它能记住对话、适应您的使用习惯、持续运行、利用您文件和应用的上下文信息,并且可以通过社区的技能进行扩展。
OpenClaw 及其 LLM 可完全在 DGX Spark 上运行以保护您的数据隐私,并避免持续的云 API 费用。DGX Spark 非常适合此用途:它运行于 Linux 系统,可持续运行,并具有128GB内存。 您可以本地运行大模型,从而获得更高的准确率和更强大的性能。
您将完成
您将在 DGX Spark 上安装 OpenClaw,并通过 LM Studio 或 Ollama 连接到本地 LLM。您可以使用 OpenClaw Web UI 与智能体聊天,也可以按需连接通信渠道和技能模块。智能体和模型完全在您的 Spark 上运行——除非您添加云集成或外部集成,否则数据不会离开您的设备。
常见用例
私人秘书:OpenClaw 可以访问您的收件箱、日历和文件,帮助您管理日程、撰写回复、发送提醒和查找会议时间。
主动项目管理:通过电子邮件或短信查看项目状态,发送状态更新,跟进或发送提醒。
研究智能体:结合网络搜索和本地文件,生成具有个性化上下文的报告。
安装助手:使用终端访问搜索应用程序/库、运行安装程序并调试错误(建议使用较大的型号)。
前置知识
Linux 终端和文本编辑器的基本使用
可选:如果您计划使用本地模型,需要熟悉 Ollama 或 LM Studio。
了解以下安全注意事项
重要提示:安全和风险
AI智能体可能会带来实际风险。请阅读 OpenClaw 的指南:OpenClaw 网关安全。
您将完成
您将在 DGX Spark 上安装 OpenClaw,并通过 LM Studio 或 Ollama 连接到本地 LLM。您可以使用 OpenClaw Web UI 与智能体聊天,也可以按需连接通信渠道和技能模块。智能体和模型完全在您的 Spark 上运行——除非您添加云集成或外部集成,否则数据不会离开您的设备。
主要风险:
数据泄露:个人信息或文件可能被泄露或被盗。
恶意代码:该智能体或相关工具可能会使您面临恶意软件或攻击的风险。
你无法完全消除所有风险;请自行承担使用风险。以下是关键安全措施:
强烈推荐:在专用或隔离系统(如一台干净的 DGX Spark 或虚拟机)上运行 OpenClaw,并且仅复制智能体所需的数据。切勿在存储敏感数据的主工作站上运行此程序。
使用专用账户而不是您的主帐户;仅授予其所需的最低访问权限。
仅启用您信赖的技能最好是经过社区审核的技能。能够访问终端或文件系统的技能会显著增加风险。
关键:务必确保 OpenClaw 的 Web UI 以及任何消息渠道绝不在缺乏强身份验证的情况下暴露到公网。如果需要远程访问,请使用 SSH 隧道或 VPN。
如有可能,使用防火墙规则或网络隔离来限制互联网访问。
监测活动:定期查看智能体执行的日志和命令。
先决条件
运行 Linux 系统的 DGX Spark,已连接到的网络
通过终端(SSH 或本地)访问 Spark
对于本地 LLM:足够的 GPU 内存以支持您选择的模型(尺寸指引请参阅说明;DGX Spark 的 128GB 支持大参数 LLM 模型)
时间和风险
预计时间:安装和首次模型设置大约需要 30 分钟;模型下载时间取决于大小和网速(Qwen3.5-35B-A3B 大约 24GB,在较慢网络上可能需要更长时间)。
- 风险等级:中高智能体可以访问您配置的所有文件、工具和通道。如果您启用终端/命令执行功能或连接外部帐户,风险将显著增加。如果没有适当的隔离措施,此设置可能会泄露敏感数据或允许代码执行。务必遵守以上安全措施。
- 回滚:您可以停止 OpenClaw 网关,并通过相同的安装脚本或删除其目录来卸载它;如果需要,可以单独卸载 Ollama 或 LM Studio。
- 最后更新时间:2026 年 3 月 11 日
首次发布
警告:
继续之前,请查看“概述”中的安全风险。OpenClaw 是一款 AI 智能体,它可以访问您的文件、执行命令并连接到外部服务。数据泄露和恶意代码执行风险是真实存在的。强烈推荐:在隔离的系统或虚拟机上运行 OpenClaw,使用专用帐户(不是您的主帐户),并且未经身份验证,切勿将仪表板暴露给公共互联网。
第 1 步 – 在您的 DGX Spark 上安装 OpenClaw
在您的 DGX Spark 上,打开终端并运行官方安装脚本。这将把 OpenClaw 及其依赖项安装到您的 Linux 系统上。
curl -fsSL https://openclaw.ai/install.sh | bash
依赖项下载完成后,OpenClaw 将显示安全警告。阅读风险提示;如果您接受这些风险,请使用箭头键进行选择 Yes 然后按回车键。
第 2 步 – 完成 OpenClaw 初始引导
请按以下步骤完成提示项:
Quickstart 与 Manual: 选择 Quickstart。
Model provider:如果使用本地模型(在 DGX Spark 上推荐使用)请滚动到列表底部并选择 Skip for now 稍后再配置模型。要使用云模型,请选择一个云服务提供商并按照其说明操作。
Filtering models by provider: 选择 All Providers 在下一个默认模型提示中,选择 Keep Current。
Communication channel:您可以连接一个通讯渠道(例如,消息传递)以便在离开电脑时使用机器人。或者选择 Skip for Now 稍后再进行配置。
Skills:建议目前选择 No。您可以在测试完基本功能后,稍后通过网页界面或 Clawhub 添加技能。
Homebrew:如果系统提示您安装 Homebrew,请选择 No。 Homebrew 仅适用于 macOS,Linux 系统不需要它。
Hooks:建议四项全选(boot-md, bootstrap-extra-files, command-logger & session-memory)以获得更佳体验。请注意,这可能会在本地记录数据;仅在您接受的情况下启用此功能。
Dashboard URL:终端将打印 OpenClaw 控制面板的 URL。保存此URL(以及显示的任何访问令牌,如有的话)。您需要它来打开 Web UI。
结束: 在最后提示完成安装时选择 Yes。
现在您可以使用安装程序中的 URL 和令牌在浏览器中打开 OpenClaw 控制面板。
第 3 步 - 选择并安装本地 LLM 后端
OpenClaw 可以通过 LM Studio(原始性能最佳,基于 Llama.cpp)或 Ollama 使用本地LLM(更简单,便于部署)。建议在 DGX Spark 上另开一个终端运行后端,这样网关和模型服务可以同时运行。
安装以下任意一种:
方案A – LM Studio
curl -fsSL https://lmstudio.ai/install.sh | bash
*完成LM Studio下载后, 需要重启当前的命令行窗口
选项 B – Ollama
curl -fsSL https://ollama.com/install.sh | sh
第 4 步 - 选择并下载模型
模型越大,质量和能力通常越强。请尽可能释放 GPU 内存(避免其他 GPU 工作负载,仅启用所需功能)。DGX Spark 具有 128GB 统一内存因此可以运行大型模型,且仍有剩余空间。
按 GPU 内存大小推荐的模型:
GPU 内存 | 建议模型 | 模型尺寸 | 备注 |
|---|---|---|---|
8–12 GB | Qwen3-4B-Thinking-2507 | 约 2.5 GB | -- |
20-22 GB | GLM-4.7-Flash | 约 19 GB | -- |
20-24 GB | Qwen3.5-35B-A3B Q4_K_M | 约 24 GB | -- |
下载模型:
LM Studio
lms get qwen/qwen3.5-35b-a3b
Ollama
ollama pull qwen3.5:35b
(请根据你在上表中的选择替换对应模型名,并相应调整 lms get 或者 ollama pull 指令。)
第 5 步 - 使用较大的上下文窗口运行模型
OpenClaw 在上下文窗口达 32K tokens 或更多时工作效果最佳。
LM Studio
lms load qwen/qwen3.5-35b-a3b --context-length 32768 # start lms server if not lms server start
Ollama
ollama run qwen3.5:35b
交互式提示出现后,设置上下文窗口:
>>> /set parameter num_ctx 32768
保持此终端(或进程)运行,以便模型保持加载状态。现在您可以与模型进行交互,或者按 Ctrl+D 退出交互模式,同时保持模型服务器运行。
提示:
如果您看到内存不足 (OOM) 错误:尝试使用较小的 context length(例如:16384或者切换到更小的模型。模型加载期间使用 nvidia-smi 命令监控内存。
第 6 步 - 配置 OpenClaw 以使用本地模型
如果您使用 LM Studio:
使用您喜欢的编辑器(例如 .txt)打开 OpenClaw 配置文件。nano,vim (或图形编辑器)。配置路径为:
~/.openclaw/openclaw.json
例如使用 nano:
nano ~/.openclaw/openclaw.json
添加或更新 models 配置段,使其包含 LM Studio provider,注意openclaw.json在完成安装后默认已有配置段 wizard,agents,tools,commands,session,hooks,gateway 以及 meta,插入models 配置段需要保持相同缩进格式。例如 qwen/qwen3.5-35b-a3b(DGX Spark):
"models": { "mode": "merge", "providers": { "lmstudio": { "baseUrl": "http://localhost:1234/v1", "apiKey": "lmstudio", "api": "openai-responses", "models": [ { "id": "qwen/qwen3.5-35b-a3b", "name": "qwen/qwen3.5-35b-a3b", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 4096 } ] } } }若使用 Qwen3-4B-Thinking-2507 或者其他模型,请保持相同结构,只把 id 和 name 改成实际加载的模型名(比如 qwen/qwen3-4b-thinking-2507)。 如果需要可以调整参数例如 contextWindow,maxTokens 以及 reasoning=True(qwen3-4b-thinking-2507支持)。
如果您使用 Ollama:
ollama launch openclaw
在交互界面,选择需要的模型(qwen3.5:35b),并同意 Ollama 对 openclaw.json 文件的更改
如果 OpenClaw 网关已经在运行,应该会自动应用新的配置。您可以添加 --config 在尚未启动网关的情况下进行配置。
第 7 步 - 验证设置
在浏览器中打开 OpenClaw 控制面板 URL(如果需要,请使用访问令牌)。
开始新建对话并发送一条信息。
如果收到智能体回复,则说明设置成功。
您还可以询问 OpenClaw 它正在使用哪个模型。在网关聊天界面中,您可以通过输入以下内容来切换模型:/model MODEL_NAME。
第 8 步 - (可选)添加技能并了解更多
错误 | 原因 | 修复 |
|---|---|---|
OpenClaw dashboard URL not loading | 网关未运行或主机/端口错误 | 重启 OpenClaw 网关:对于 Ollama,请运行 ollama launch openclaw 重启已配置的网关。若使用 LM Studio,可通过 LM Studio 用户界面重启 OpenClaw 网关,或重启 OpenClaw 服务/容器。验证:使用 pgrep -f openclaw 或 ps aux 检查网关进程是否正在运行 |
"Connection refused" to model (e.g. localhost:1234 or Ollama port) | LM Studio 或 Ollama 未运行,或端口错误 | 在单独的终端中启动模型(lms load ... 或 ollama run ...)并确保端口 openclaw.json 中配置的端口正确(LM Studio 通常为 1234,Ollama 通常为 11434) |
OpenClaw says no model available | 模型提供方未配置或模型未加载 | 如使用 LM Studio,~/.openclaw/openclaw.json 中添加 models 配置。对于 Ollama,运行 ollama launch openclaw,请确保模型已加载/正在运行。 |
Out-of-memory or very slow inference on DGX Spark | 模型过大,超出可用 GPU 内存或其他 GPU 工作负载的限制 | 释放 GPU 内存(关闭其他应用程序)、选择较小的型号,或使用 nvidia-smi 检查内存使用情况 |
Install script fails or dependencies missing | Linux 系统缺少系统软件包 | 安装 curl 和任何必需的构建工具;最新要求请参阅 OpenClaw 文档 |
Config changes not applied | 网关未重新加载。 | 重启 OpenClaw 网关以重新加载 ~/.openclaw/openclaw.json |