Skip to content

OpenClaw:住喺我屋企嘅 AI

9 min read · OpenClaw ·AI Agent ·自架 ·Setup

分享

你而家讀緊嘅呢篇文章,有一部分係由我就快介紹嘅系統寫出嚟、翻譯成三種語言、排好格式、然後發佈嘅。

唔係比喻。草稿係自動化流程生成嘅,再經人工審核、commit 落去。我睇咗一眼,批准咗,merge 咗。就係咁,我全部嘅參與程度。

所以由呢度開始講,感覺幾合適。


協調問題

用完上一篇講嘅工具幾個月之後,另一種摩擦感出現咗。

唔係 access 問題。唔係付款問題。係協調問題。

Claude 唔知道 Perplexity 上個禮拜搵到咩。Perplexity 唔知道我係度建緊咩嘢。ChatGPT 一樣唔知。每次對話都係由零開始。每個工具都係一座孤島。

用得越多,瓶頸越清楚。唔係 AI 嘅問題。係我,要靠自己喺工具之間讀取資訊、整合資訊、手動將一個地方嘅 context 傳到另一個地方。

我變成咗整合層本身。呢個係一份唔好做嘅工作。

OpenClaw 就係取代咗呢件事嘅嘢。


OpenClaw 係咩嘢

OpenClaw 係一個開源 AI agent runtime。安裝好佢,接上 model provider 同各種 integration,佢就會以持續運行嘅 process 形式跑喺你指定嘅機器上。

同聊天介面嘅分別係:關埋 browser 之後佢照樣跑緊。你傳 message 俾佢,佢就回覆。佢仲會喺你唔問佢嘅情況下,自己跑排程任務。

兩種工作模式。On-demand 任務:你傳 message,佢做嘢,然後回報。排程任務:佢按 timer 運行,完成工作,然後將結果輸出到你設定好嘅地方。

對我嚟講係 Discord。任務完成,結果出現喺 channel 入面,我去審閱。Agent 唔會自行發佈任何嘢——呢個邊界係刻意嘅設計選擇,唔係限制。下一篇再詳細講。


點樣整起佢

大多數 setup 指南都係由錯嘅地方開始講。你唔需要 server。甚至唔需要備用機器。

家用 server

一部舊電腦重新利用已經夠用。我嗰部已經跑咗幾個月,完全冇問題。零雲端費用,完全控制數據,全天候運行。如果你有閒置機器,呢個係最平嘅路徑。

要澄清一點:OpenClaw 啱出嗰陣,好多人真係走去買咗 Mac Mini 嚟跑佢。其實大可不必。每月幾美元嘅基本 VPS 已經夠用。個 runtime 本身好輕量;機器規格唔係關鍵。關鍵係你接上去嘅模型。Cloudflare 搞咗個 Moltworker 嚟證明呢件事——如果你想喺零 hardware 嘅情況下跑,完全可以。

Setup 文件喺 OpenClaw repo 入面。簡單講:安裝 runtime,設定 model provider,接上 channel。

雲端

各大雲端供應商而家都有官方部署指南。

AWS Lightsail 係文件最齊全嘅選擇。亞馬遜指南:Introducing OpenClaw on Amazon Lightsail。另有 Bedrock 整合示範 repo:aws-samples/sample-OpenClaw-on-AWS-with-Bedrock

OpenClaw on AWS Lightsail

Cloudflare Moltworker 係 Cloudflare 嘅版本,建基於 Moltbot(OpenClaw 嘅底層開源框架)。唔需要 server,唔需要任何 hardware。佢用 R2 儲存、Browser Rendering 做網絡自動化、AI Gateway 管理 model 路由。需要 Workers Paid 方案(約 $5/月)加埋你自己嘅模型 API key。數據存放喺 Cloudflare,係需要考慮嘅取捨。github.com/cloudflare/moltworker | blog post

騰訊雲 一鍵部署:cloud.tencent.com/act/pro/openclaw

OpenClaw on Tencent Cloud

Alibaba Cloud(國際版):deploy OpenClaw on Alibaba Cloud

阿里雲(中國區):Moltbot on AliYun | Model Studio 指南。同 Alibaba Cloud 係同一間公司,但係唔同司法管轄區。阿里雲叫佢做 Moltbot——框架一樣,infrastructure 係中國大陸。

OpenClaw on AliYun

WeChat 路徑

如果你係度用緊微信,騰訊 QQ 嘅 QClaw 係完全跳過 setup 嘅選擇。Agent 就係你微信裡面一個聯絡人,直接傳 message 就得。唔需要 server,唔需要任何設定。

騰訊深圳總部嗰陣有逾千人排隊去安裝佢。呢個數字話畀你知,零阻力對微信用戶究竟意味住咩。

QClaw — OpenClaw on WeChat via Tencent QQ

模型問題

呢個係我一開始做錯嘅地方,亦係大多數人低估嘅地方。

你接上 OpenClaw 嘅模型,決定咗整件事係感覺流暢定係感覺壞咗。唔係細節問題。

我試過用 GLM 4.7 同 GLM 5.0 處理任務。兩個都係有能力嘅模型。問題係 latency。Claude 或者 GPT-5.4 幾秒就答到嘅問題,佢哋要成一分鐘先回覆。對於聊天介面嚟講係令人煩躁。對於一個全日跑住排程任務同處理你 message 嘅系統嚟講,就成件事崩晒。

失敗係慢慢累積嘅。你傳咗一條 message,等緊。係度處理緊?係唔係卡死咗?你再試一次。依家有兩個 request 排咗隊。最終你等咗三分鐘先得到一個應該五秒就完成嘅嘢。去到呢個地步,個系統唔係有用嘅,只係一個製造焦慮嘅嘢。

快速可靠做到嘅實際工作,比強大但緩慢更多。我要搞壞幾樣嘢才真係信呢件事。

高質量任務——寫作、推理、複雜研究——我用 Claude Sonnet,透過 claude.ai 或者 API。呢個唔好省。

批量任務如分類、摘要、輕量處理,開源模型夠快而且便宜得多:

需要事實準確嘅研究,我用 Perplexity Search API。每個答案都有引用來源,唔會用似乎合理嘅廢話填補空白。

喺你將任何模型放入定期任務之前:用一個簡單 prompt 加計時器測試回應時間。唔好靠 benchmark。你實際買到嘅係真實條件下嘅 latency。


係咁樣嘅

當我早上打開 Discord,事情已經發生咗。有一份覆蓋我追蹤話題嘅動態摘要——AI infrastructure、SRE、Web3、雲端。三個社交帳號嘅草稿文章。一個我一直做緊嘅私人項目嘅快照。

全部都未發佈。全部都落咗喺 channel 入面。我讀一讀,決定邊啲值得用,然後行動。

流程裡面實際跑緊乜嘢、每個任務係做咩、同埋一個真實早晨嘅輸出係點:下一篇。


呢篇係關於 AI 工具堆棧系列嘅一部分。上一篇講 access、付款同訂閱:香港 AI 設置。下一篇講 OpenClaw 實際做咩——研究流程,同埋你醒來之前已經出現嘅嘢。

分享