不知道赶没赶上这口热乎的, 自己也是折腾了很久. 从刚开始的Clawbot, 又到Moltbot然后是现在的openClaw, 应该是不会改名了了吧!

也算是更新了有几个月? 在安装的成功率和使用体验上都有了不小的进步, 虽然目前博主也还没探索出更好玩的技能, 但是对于搭建上还是有着不少经验 (折腾过好几次也是)

所以本文会介绍openclaw的安装到与飞书的消息渠道的链接

0. 准备阶段

  1. 一台服务器/个人电脑, 配置要求并不高
  2. 系统方面因为在终端/命令行中完成, 所以Linux/Win/Macos都是可以的
  3. 半个小时的个人时间

1. 安装openclaw

此处其实可以参照官方教程, 官方教程也是有中文版的

如果你是Linux/Macos使用如下命令一键安装

curl -fsSL https://openclaw.ai/install.sh | bash

如果你是win操作系统, 在PowerShell/cmd中

iwr -useb https://openclaw.ai/install.ps1 | iex

当然还有Docker或者源码等安装方法,👉 OpenClaw官方中文网站

如果出现安装失败, 首要考虑网络问题,请在系统或者终端处打开代理, 重新运行安装脚本。

2. 配置openclaw

默认情况下安装成功会自动进入配置处理,如果没有可以手动进入配置,建议新开一个终端,输入以下命令进入配置项

openclaw onboard --install-daemon

命令执行后会有类似如下显示,此处弹出免责声明,务必使用键盘控制选择yes

第一次配置,建议选择QuickStart,快速体验

Onboarding mode
│  ● QuickStart (Configure details later via openclaw configure.)
│  ○ Manual

如果已经进行过相关配置,会提示你对于已存在的配置项做什么处理,因为我已经安装过,我这里选择Use existing values

◆  Config handling
│  ● Use existing values
│  ○ Update values
│  ○ Reset

2.1 大模型配置

接下来就会来到模型的配置页面,官方预制了一些模型供应商,如果是第一次体验又不想麻烦可以选择GitHub/z.ai,当然如果你的服务器并不在国内或者你有代理的能力,可以选择Gemini等。国内也有很不错的模型供应商,这里以硅基流动的GLM5模型为例。

可以白嫖部分额度的大模型供应商:

  1. 硅基流动,注册即送14元代金券👉 硅基流动
  2. 白山智算,限时赠送450代金券👉 白山智算

如果要使用自定义模型,控制光标到 Custom Provider,首先就会来到模型请求地址的配置。查看供应商的请求文档可知:

  • 硅基的请求url为:https://api.siliconflow.cn/v1
  • 白山的请求url为:https://api.edgefn.net/v1
◆  API Base URL
│  http://127.0.0.1:11434/v1█
└

填写完url需要配置API Key,从各自的个人中心处增加key,并选择Paste API key now配置

◇  API Base URL
│  https://api.edgefn.net/v1
│
◆  How do you want to provide this API key?
│  ● Paste API key now (Stores the key directly in OpenClaw config)
│  ○ Use external secret provider
└

然后就是兼容接口的选择,这里建议选择兼容更好的 OpenAI-compatible大佬们轻喷,此处我不熟悉他们各有的区别于特色

◆  Endpoint compatibility
│  ● OpenAI-compatible (Uses /chat/completions)
│  ○ Anthropic-compatible
│  ○ Unknown (detect automatically)
└

然后就是模型选择,目前市面上最好的肯定还是 Anthropic团队的claude opus 4.6,但是面对龙虾这个token饕餮,还是有些消费不起,所以可以退而求其次,重在体验,目前我认为最优解应该是智谱的GML5。

  • 硅基的GLM5模型名字为:Pro/zai-org/GLM-5
  • 白山的GLM5模型名字为:GLM-5

配置完成后会弹出一个命名框,这里建议在后面加上模型的名字,方便后续使用命令 /model 进行模型切换。填写完成后,Model alias 默认即可

◆  Endpoint ID
│  custom-api-edgefn-net-glm5█
└

2.2 飞书消息渠道配置

◆  Select channel (QuickStart)
│  ○ Telegram (Bot API)
│  ○ WhatsApp (QR link) (not linked)
│  ○ Discord (Bot API)
│  ○ IRC (Server + Nick)
│  ○ Google Chat (Chat API)
│  ○ Slack (Socket Mode)
│  ○ Signal (signal-cli)
│  ○ iMessage (imsg)
│  ● Feishu/Lark (飞书)
│  ○ Nostr (NIP-04 DMs)
│  ○ Microsoft Teams (Bot Framework)
│  ○ Mattermost (plugin)
│  ○ Nextcloud Talk (self-hosted)
│  ○ Matrix (plugin)
│  ○ BlueBubbles (macOS app)
│  ○ LINE (Messaging API)
│  ○ Zalo (Bot API)
│  ○ Zalo (Personal Account)
│  ○ Synology Chat (Webhook)
│  ○ Tlon (Urbit)
│  ○ Skip for now

因为本位以飞书为例,所以就使用飞书作为消息渠道。这里先不急选择飞书,我们现在网页端完成飞书平台的配置。

以下内容来自飞书 - OpenClaw

1. 打开飞书开放平台

访问 飞书开放平台,使用飞书账号登录。选择创建企业自建应用,填写应用名称和描述,选择应用图标

2. 获取应用凭证

在应用的 凭证与基础信息 页面,复制:

  • App ID(格式如 cli_xxx
  • App Secret
请妥善保管 App Secret,不要分享给他人。

3. 配置应用权限

在 权限管理 页面,点击 批量导入 按钮,粘贴以下 JSON 配置一键导入所需权限:

{
  "scopes": {
    "tenant": [
      "aily:file:read",
      "aily:file:write",
      "application:application.app_message_stats.overview:readonly",
      "application:application:self_manage",
      "application:bot.menu:write",
      "cardkit:card:write",
      "contact:user.employee_id:readonly",
      "corehr:file:download",
      "docs:document.content:read",
      "event:ip_list",
      "im:chat",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:bot_access",
      "im:message",
      "im:message.group_at_msg:readonly",
      "im:message.group_msg",
      "im:message.p2p_msg:readonly",
      "im:message:readonly",
      "im:message:send_as_bot",
      "im:resource",
      "sheets:spreadsheet",
      "wiki:wiki:readonly"
    ],
    "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
  }
}

4. 启用机器人能力

在 应用能力 > 机器人 页面:

  1. 开启机器人能力
  2. 配置机器人名称

此时来到openclaw配置处,选择飞书渠道,然后系统会自动安装飞书插件,待安装完成后提示输入,顺序不要搞反!

  • App Secret
  • App ID
    配置完成后会来到技能页面的选择,此时我们回到飞书配置处

5. 配置事件订阅

[!IMPORTANT]
⚠️ 重要提醒:在配置事件订阅前,请务必确保已完成以上步骤

在 事件订阅 页面:

  1. 选择 使用长连接接收事件(WebSocket 模式)
  2. ③处添加事件:im.message.receive_v1(接收消息)

6. 发布应用

  1. 在 版本管理与发布 页面创建版本
  2. 提交审核并发布
  3. 等待管理员审批(企业自建应用通常自动通过)

2.3后续但重要的配置

1. 大模型上下文大小配置

此处skill技能等配置可以选择skip进行跳过,后面并一直选择默认即可。

如果您使用的是自选大模型供应商,那么就需要来到openclaw. json配置大模型的上下文窗口和输出长度。

对于Linux和win用户,openclaw配置文件存在于用户目录下,即

  • Linux -->> /home/<username>/.openclaw/openclaw.json
  • win -->> `C:\Users\<username>.openclaw\openclaw.json

找到我们的模型相关的配置,对于参数大模型供应商都有标注,像白山的GLM 上下文就是200K,contextWindow就修改为: 200000, 一般maxTokens此处可以默认,如果后续遇到claw输出卡住的情况,可以稍微增加。

修改完成后保存。

"models": {
  "mode": "merge",
  "providers": {
    "custom-api-edgefn-net-m2-5": {
      "baseUrl": "https://api.edgefn.net/v1",
      "apiKey": "sk-",
      "api": "openai-completions",
      "models": [
        {
          "id": "GLM5",
          "name": "GLM5 (Custom Provider)",
          "reasoning": false,
          "input": [
            "text"
          ],
          "cost": {
            "input": 0,
            "output": 0,
            "cacheRead": 0,
            "cacheWrite": 0
          },
          "contextWindow": 16000,
          "maxTokens": 4096
        }
      ]
    },

因为当我们在2.2处配置结束后,openclaw就会默认启动,我们这里修改了大模型的配置信息,需要重启一次openclaw

openclaw gateway restart

2. openclaw系统指令操作权限

如果你刚使用它,然他查看系统内存占用等,他会发你相应的命令或者回你我无法直接操作系统指令。这是因为openclaw (应该是默认) 将操作终端的权限关掉了,写入如下配置,并重启openclaw吧

# 请注意自己的配置文件目录
sed -i 's/"profile": "messaging"/"profile": "full"/' ~/.openclaw/openclaw.json
# 重启openclaw
openclaw gateeay restart

更多内容参考官方install部分。

到这里,你应该可以从飞书唤醒opencalw了,恭喜你,尽情的使用吧。

我要把openclaw夸成翘嘴