Skip to content

🎯 模型選用

🛠️ 部署指南:該選哪個模型? (Model Landscape)

OpenClaw 是模型不可知 (Model-agnostic) 的,但社群的「身體」非常誠實。以下是 2026 年初的部署勢力分佈:

1 🥇 Claude (Anthropic) — 「靈魂伴侶」: - 主流選用: Claude Sonnet 4 / 4.5。 - 理由: 目前公認 Tool-calling 邏輯最穩、最懂龍蝦指令的模型。雖然東家最近在打官司,但代碼能力依然是龍蝦的首選心臟。

2 🥈 GPT (OpenAI) — 「穩健老將」: - 主流選用: GPT-4o / GPT-5.4 (Thinking)。 - 理由: 儘管 Peter 本人去了 OpenAI,GPT 在代碼生成的嚴謹度與社群支援度依然頂尖。o1-series 的推理能力在複雜自動化任務中表現亮眼。

3 🥉 Gemini (Google) — 「CP 值與長文本之王」: - 主流選用: Gemini 2.5 / 3 Flash / Pro。 - 理由: 憑藉 1M+ 超長上下文,處理超長 Log 檔案時有無解優勢。Gemini 3 Flash 在最新 OpenClaw 任務測試中跑出 95.1% 的超高成功率,且 API 費用極具競爭力。

4 🏅 DeepSeek / Kimi / MiniMax — 「區域黑馬」: - 理由: 在亞太地區部署極快,且 API 價格極低(甚至有各種免費活動),是「雲上養蝦」低預算的救星。

5 🏠 Ollama (Local) — 「隱私至上派」: - 理由: 最新版已支援 MiniMax, Kimi, GLM, Qwen3 等多樣化模型。適合極度重視隱私、想脫離 API 監控,或想試玩最新亞太模型全家桶的開發者。

🧠 實戰經驗:模型參數與「蝦力」對照表

🖥️ NVIDIA 官方推薦:DGX Spark 地端神機記憶體選型清單

Nvidia 官方提供的 OpenClaw on DGX Spark 指南 建議模型如下:

GPU Memory Suggested model Model size Notes
8–12 GB qwen3-4B-Thinking-2507 ~5GB
16 GB gpt-oss-20b ~12GB Lower latency, good for interactive use
24–48 GB Nemotron-3-Nano-30B-A3B ~20GB
128 GB gpt-oss-120b ~65GB Best quality on DGX Spark (quantized); leaves ~63GB for context window and other processes; use 20B/30B if you prefer faster responses

品質與延遲的取捨 (Quality vs. latency): 120B 模型提供最佳的準確度與能力,但每個 token 的延遲較高。如果你喜歡反應更靈敏的代理人,可以使用 gpt-oss-20b (或 30B 模型),這兩者都能在 DGX Spark 上輕鬆運行,並保有充足的記憶體餘裕。

一般社群參數經驗值
參數規模 戰力等級 實戰評價 (蝦力)
< 30B (如 9B, 14B, 27B) 💬 聊天吹水 聊天很溜,但 Tool-calling 邏輯常斷片,無法達到人類期待的 "Agent" 水準。
30B - 70B 🛠️ 生活幫手 基本操作 OK。查資料、設提醒、簡單單步任務轉動順暢。中階地端設備的甜蜜點。
70B - 100B 💼 進階助理 處理複雜流程。可應付 Office 自動化、一般事務。能寫簡單 code,但對大型 Skills 協作仍顯吃力。
> 100B+ (雲端 SOTA) 🦞 全能龍蝦王 全天候代理自由。具備多模態,寫程式、提 PR、直接 Push 迭代全包。真正能「放手讓龍蝦自己跑」的唯一等級。

龍蝦觀點: 地端是為了隱私與省錢,雲端是為了真正的「代理自由」。如果你家裡沒有 128GB 以上的記憶體,重要任務還是建議交給雲端大腦。🦞💡

小建議:

  1. 新手推薦從 Claude Sonnet 開始,穩定性最高;需要處理超長專案代碼庫時,切換到 Gemini Pro 會讓你有新世界的感覺。

  2. ⚠️ 安全提醒: 既然都要用雲端模型,請務必守好你的 API Key!這兩天爆出的 8.2 萬美金盜刷案就是血淋淋的教訓(見最新危機),建議設定每月消費上限。

  3. 地端玩家: 現在 Ollama 最新版已支援 MiniMaxKimiGLMQwen3 家族模型。特別適合擁有 Mac mini (建議 64GB+ 記憶體)DGX Spark (128GB) 等高效能裝置的用戶,讓你徹底擺脫 API 費用煩惱且極具隱私;即便不跑地端,選用他們的雲端 API 也是極致便宜的選擇。這是龍蝦農場不想被帳單嚇醒的最佳方案。🦞✨

  4. 上下文設定: 不管用哪種模型,Context Size 建議最少設定在 64K 以上,龍蝦才能在長對話中保持記憶不失憶。🦞🧠


📚 相關連結