OpenClaw 🦞

在 DGX Spark 上本地运行 OpenClaw,并通过 LM Studio 或 Ollama 连接本地 LLM

基本思路

OpenClaw(前身为 Clawdbot 和 Moltbot)是一个优先本地运行的 AI 智能体。它将多种功能集成于一个助手之中:它能记住对话、适应您的使用习惯、持续运行、利用您文件和应用的上下文信息,并且可以通过社区的技能进行扩展。

OpenClaw 及其 LLM 可完全在 DGX Spark 上运行以保护您的数据隐私,并避免持续的云 API 费用。DGX Spark 非常适合此用途:它运行于 Linux 系统,可持续运行,并具有128GB内存。 您可以本地运行大模型,从而获得更高的准确率和更强大的性能。

您将完成

您将在 DGX Spark 上安装 OpenClaw,并通过 LM Studio 或 Ollama 连接到本地 LLM。您可以使用 OpenClaw Web UI 与智能体聊天,也可以按需连接通信渠道和技能模块。智能体和模型完全在您的 Spark 上运行——除非您添加云集成或外部集成,否则数据不会离开您的设备。

常见用例

  • 私人秘书:OpenClaw 可以访问您的收件箱、日历和文件,帮助您管理日程、撰写回复、发送提醒和查找会议时间。

  • 主动项目管理:通过电子邮件或短信查看项目状态,发送状态更新,跟进或发送提醒。

  • 研究智能体:结合网络搜索和本地文件,生成具有个性化上下文的报告。

  • 安装助手:使用终端访问搜索应用程序/库、运行安装程序并调试错误(建议使用较大的型号)。

前置知识

  • Linux 终端和文本编辑器的基本使用

  • 可选:如果您计划使用本地模型,需要熟悉 Ollama 或 LM Studio。

  • 了解以下安全注意事项

重要提示:安全和风险

AI智能体可能会带来实际风险。请阅读 OpenClaw 的指南:OpenClaw 网关安全

您将完成

您将在 DGX Spark 上安装 OpenClaw,并通过 LM Studio 或 Ollama 连接到本地 LLM。您可以使用 OpenClaw Web UI 与智能体聊天,也可以按需连接通信渠道和技能模块。智能体和模型完全在您的 Spark 上运行——除非您添加云集成或外部集成,否则数据不会离开您的设备。

主要风险:

  1. 数据泄露:个人信息或文件可能被泄露或被盗。

  2. 恶意代码:该智能体或相关工具可能会使您面临恶意软件或攻击的风险。

你无法完全消除所有风险;请自行承担使用风险。以下是关键安全措施

  • 强烈推荐:在专用或隔离系统(如一台干净的 DGX Spark 或虚拟机)上运行 OpenClaw,并且仅复制智能体所需的数据。切勿在存储敏感数据的主工作站上运行此程序。

  • 使用专用账户而不是您的主帐户;仅授予其所需的最低访问权限。

  • 仅启用您信赖的技能最好是经过社区审核的技能。能够访问终端或文件系统的技能会显著增加风险。

  • 关键:务必确保 OpenClaw 的 Web UI 以及任何消息渠道绝不在缺乏强身份验证的情况下暴露到公网。如果需要远程访问,请使用 SSH 隧道或 VPN。

  • 如有可能,使用防火墙规则或网络隔离来限制互联网访问

  • 监测活动:定期查看智能体执行的日志和命令。

先决条件

  • 运行 Linux 系统的 DGX Spark,已连接到的网络

  • 通过终端(SSH 或本地)访问 Spark

  • 对于本地 LLM:足够的 GPU 内存以支持您选择的模型(尺寸指引请参阅说明;DGX Spark 的 128GB 支持大参数 LLM 模型)

时间和风险

  • 预计时间:安装和首次模型设置大约需要 30 分钟;模型下载时间取决于大小和网速(Qwen3.5-35B-A3B 大约 24GB,在较慢网络上可能需要更长时间)。

  • 风险等级:中高智能体可以访问您配置的所有文件、工具和通道。如果您启用终端/命令执行功能或连接外部帐户,风险将显著增加。如果没有适当的隔离措施,此设置可能会泄露敏感数据或允许代码执行。务必遵守以上安全措施
  • 回滚:您可以停止 OpenClaw 网关,并通过相同的安装脚本或删除其目录来卸载它;如果需要,可以单独卸载 Ollama 或 LM Studio。
  • 最后更新时间:2026 年 3 月 11 日
    • 首次发布

警告:

继续之前,请查看“概述”中的安全风险。OpenClaw 是一款 AI 智能体,它可以访问您的文件、执行命令并连接到外部服务。数据泄露和恶意代码执行风险是真实存在的。强烈推荐:在隔离的系统或虚拟机上运行 OpenClaw,使用专用帐户(不是您的主帐户),并且未经身份验证,切勿将仪表板暴露给公共互联网。

第 1 步 – 在您的 DGX Spark 上安装 OpenClaw

在您的 DGX Spark 上,打开终端并运行官方安装脚本。这将把 OpenClaw 及其依赖项安装到您的 Linux 系统上。

curl -fsSL https://openclaw.ai/install.sh | bash

依赖项下载完成后,OpenClaw 将显示安全警告。阅读风险提示;如果您接受这些风险,请使用箭头键进行选择 Yes 然后按回车键。

第 2 步 – 完成 OpenClaw 初始引导

请按以下步骤完成提示项:

  1. QuickstartManual: 选择 Quickstart

  2. Model provider:如果使用本地模型(在 DGX Spark 上推荐使用)请滚动到列表底部并选择 Skip for now 稍后再配置模型。要使用云模型,请选择一个云服务提供商并按照其说明操作。

  3. Filtering models by provider: 选择 All Providers 在下一个默认模型提示中,选择 Keep Current

  4. Communication channel:您可以连接一个通讯渠道(例如,消息传递)以便在离开电脑时使用机器人。或者选择  Skip for Now 稍后再进行配置。

  5. Skills:建议目前选择 No。您可以在测试完基本功能后,稍后通过网页界面或 Clawhub 添加技能。

  6. Homebrew:如果系统提示您安装 Homebrew,请选择 No。 Homebrew 仅适用于 macOS,Linux 系统不需要它。

  7. Hooks:建议四项全选(boot-md, bootstrap-extra-files, command-logger & session-memory)以获得更佳体验。请注意,这可能会在本地记录数据;仅在您接受的情况下启用此功能。

  8. Dashboard URL:终端将打印 OpenClaw 控制面板的 URL。保存此URL(以及显示的任何访问令牌,如有的话)。您需要它来打开 Web UI。

  9. 结束: 在最后提示完成安装时选择 Yes

现在您可以使用安装程序中的 URL 和令牌在浏览器中打开 OpenClaw 控制面板。

第 3 步 - 选择并安装本地 LLM 后端

OpenClaw 可以通过 LM Studio(原始性能最佳,基于 Llama.cpp)或 Ollama 使用本地LLM(更简单,便于部署)。建议在 DGX Spark 上另开一个终端运行后端,这样网关和模型服务可以同时运行。

安装以下任意一种:

方案A – LM Studio

curl -fsSL https://lmstudio.ai/install.sh | bash

*完成LM Studio下载后, 需要重启当前的命令行窗口

选项 B – Ollama

curl -fsSL https://ollama.com/install.sh | sh

第 4 步 - 选择并下载模型

模型越大,质量和能力通常越强。请尽可能释放 GPU 内存(避免其他 GPU 工作负载,仅启用所需功能)。DGX Spark 具有 128GB 统一内存因此可以运行大型模型,且仍有剩余空间。

GPU 内存大小推荐的模型:

GPU 内存
建议模型
模型尺寸
备注
8–12 GB
Qwen3-4B-Thinking-2507

约 2.5 GB
--
20-22 GB

GLM-4.7-Flash

约 19 GB

--
20-24 GB
Qwen3.5-35B-A3B Q4_K_M
约 24 GB
--

下载模型:

LM Studio

lms get qwen/qwen3.5-35b-a3b

Ollama

ollama pull qwen3.5:35b

(请根据你在上表中的选择替换对应模型名,并相应调整 lms get 或者 ollama pull 指令。)

第 5 步 - 使用较大的上下文窗口运行模型

OpenClaw 在上下文窗口达 32K tokens 或更多时工作效果最佳。

LM Studio

lms load qwen/qwen3.5-35b-a3b --context-length 32768

# start lms server if not
lms server start

Ollama

ollama run qwen3.5:35b

交互式提示出现后,设置上下文窗口:

>>> /set parameter num_ctx 32768

保持此终端(或进程)运行,以便模型保持加载状态。现在您可以与模型进行交互,或者按 Ctrl+D 退出交互模式,同时保持模型服务器运行。

提示:

如果您看到内存不足 (OOM) 错误:尝试使用较小的 context length(例如:16384或者切换到更小的模型。模型加载期间使用 nvidia-smi 命令监控内存。

第 6 步 - 配置 OpenClaw 以使用本地模型

如果您使用 LM Studio:

  1. 使用您喜欢的编辑器(例如 .txt)打开 OpenClaw 配置文件。nano,vim (或图形编辑器)。配置路径为:

    ~/.openclaw/openclaw.json

    例如使用 nano:

    nano ~/.openclaw/openclaw.json
  2. 添加或更新 models 配置段,使其包含 LM Studio provider,注意openclaw.json在完成安装后默认已有配置段 wizard,agents,tools,commands,session,hooks,gateway 以及 meta,插入models 配置段需要保持相同缩进格式。例如 qwen/qwen3.5-35b-a3b(DGX Spark):

    "models": {
      "mode": "merge",
      "providers": {
        "lmstudio": {
          "baseUrl": "http://localhost:1234/v1",
          "apiKey": "lmstudio",
          "api": "openai-responses",
          "models": [
            {
              "id": "qwen/qwen3.5-35b-a3b",
              "name": "qwen/qwen3.5-35b-a3b",
              "reasoning": false,
              "input": ["text"],
              "cost": {
                "input": 0,
                "output": 0,
                "cacheRead": 0,
                "cacheWrite": 0
              },
              "contextWindow": 32768,
              "maxTokens": 4096
            }
          ]
        }
      }
    }

    若使用 Qwen3-4B-Thinking-2507 或者其他模型,请保持相同结构,只把 id 和 name 改成实际加载的模型名(比如 qwen/qwen3-4b-thinking-2507)。 如果需要可以调整参数例如 contextWindow,maxTokens 以及 reasoning=True(qwen3-4b-thinking-2507支持)。

如果您使用 Ollama:

ollama launch openclaw

在交互界面,选择需要的模型(qwen3.5:35b),并同意 Ollama 对 openclaw.json 文件的更改

如果 OpenClaw 网关已经在运行,应该会自动应用新的配置。您可以添加 --config 在尚未启动网关的情况下进行配置。

第 7 步 - 验证设置

  1. 在浏览器中打开 OpenClaw 控制面板 URL(如果需要,请使用访问令牌)。

  2. 开始新建对话并发送一条信息。

  3. 如果收到智能体回复,则说明设置成功。

您还可以询问 OpenClaw 它正在使用哪个模型。在网关聊天界面中,您可以通过输入以下内容来切换模型:/model MODEL_NAME。

第 8 步 - (可选)添加技能并了解更多

  • 技能扩展能力的同时也会带来风险;只启用你信任的技能(例如,经过社区验证的技能)。要添加技能:
    • 让 OpenClaw 帮忙配置技能

    • 使用网页用户界面中的侧边栏启用技能。

    • 浏览 Clawhub 中的社区技能。

  • 有关更多使用和配置详情,请参阅 OpenClaw 文档。
错误
原因
修复
OpenClaw dashboard URL not loading
网关未运行或主机/端口错误
重启 OpenClaw 网关:对于 Ollama,请运行 ollama launch openclaw 重启已配置的网关。若使用 LM Studio,可通过 LM Studio 用户界面重启 OpenClaw 网关,或重启 OpenClaw 服务/容器。验证:使用 pgrep -f openclaw 或 ps aux 检查网关进程是否正在运行
"Connection refused" to model (e.g. localhost:1234 or Ollama port)
LM Studio 或 Ollama 未运行,或端口错误
在单独的终端中启动模型(lms load ... 或 ollama run ...)并确保端口 openclaw.json 中配置的端口正确(LM Studio 通常为 1234,Ollama 通常为 11434)
OpenClaw says no model available
模型提供方未配置或模型未加载
如使用 LM Studio,~/.openclaw/openclaw.json 中添加 models 配置。对于 Ollama,运行 ollama launch openclaw,请确保模型已加载/正在运行。
Out-of-memory or very slow inference on DGX Spark
模型过大,超出可用 GPU 内存或其他 GPU 工作负载的限制
释放 GPU 内存(关闭其他应用程序)、选择较小的型号,或使用 nvidia-smi 检查内存使用情况
Install script fails or dependencies missing
Linux 系统缺少系统软件包
安装 curl 和任何必需的构建工具;最新要求请参阅 OpenClaw 文档
Config changes not applied
网关未重新加载。
重启 OpenClaw 网关以重新加载 ~/.openclaw/openclaw.json

资源

OpenClaw 文档

OpenClaw 网关安全

Clawhub (社区 skills)

DGX Spark 文档

DGX Spark 论坛