用 Ollama 本地部署 OpenClaw,让 AI 7x24 免费为你工作!

用 Ollama 在本地运行 Ministral-3:3b 等轻量模型,替代 OpenClaw 的云端 API 调用,实现 7×24 免费智能体服务;Telegram 接入、任务调度由 OpenClaw 完成,推理交由本地模型,大幅降低 Token 成本,复杂任务仍可按需切回云端大模型。

发布于2026年2月27日 15:28
编辑零重力瓦力
评论0
阅读25

使用 OpenClaw 的人越来越多,但随之而来的 Token 消耗,也让不少人望而却步。只要调用云端 API,每一次对话、每一次任务执行都会产生费用。一旦让智能体长时间运行,成本很快就会激增。

有没有一种方式,既能让 OpenClaw 7×24 小时持续工作,又不用承担高昂的模型调用费用?

技术博主 Mervin Praison 分享了一种结合 Ollama 本地模型的部署方案。思路很简单,就是让 OpenClaw 负责任务调度,并连接 Telegram 这类聊天工具。由 Ollama 在本地运行模型,例如 Ministral-3:3b。这样一来,OpenClaw 可以全天候运行,而无需担心不断上涨的 Token 成本。

部署流程也很简单。首先,在一台长期在线的电脑上安装 OpenClaw,然后安装 Ollama,并下载一个轻量级开源模型,例如 Ministral-3:3b,或 DeepSeek、Qwen 。接着,在 OpenClaw 的配置中将服务提供方切换为 Ollama,并设置好默认模型。完成这些步骤后,通过 Telegram 机器人接入,你就可以直接在聊天窗口中指挥它执行各类任务。

关键在于,将默认模型从 OpenAI API 切换为 Ollama。本地模型接管推理后,就不再消耗外部 LLM 的 Token。当然,本地模型也有其局限。模型规模越大,对硬件性能的要求越高。好在 OpenClaw 支持多模型切换,日常自动化任务、文本处理和简单决策,可以交由小体量的本地模型。而编程、深度研究等复杂任务,再按需切换到更强大的云端模型。这样既能控制成本,又能兼顾性能。

相关文章

新方法让 AI 模型在训练中实现轻量化提速
AI 教程知识
2026年4月14日
0 条评论
小创

新方法让 AI 模型在训练中实现轻量化提速

MIT 团队联合多机构开发 CompreSSM 技术,在 AI 模型训练过程中同步完成压缩。核心创新在于引入控制理论数学工具,利用汉克尔奇异值衡量各状态重要性,仅需完成 10%训练即可确定可丢弃部分,后续 90%训练以更小规模进行。实验显示压缩模型保持接近完整准确率,训练速度提升 1.5 至 4 倍,将压缩从事后补救转为训练内生环节,为 AI 系统开发提供从“越大越好”向“适度精准”转变的新范式。

#MIT
阅读全文
Google 开发自研桌面智能体与 Cowork 竞争
AI 产品工具
2026年4月14日
0 条评论
小创

Google 开发自研桌面智能体与 Cowork 竞争

Google 正在推动 Gemini 向智能体驱动的生产力平台转型。 Gemini Enterprise 新增的 Agent 标签页提供任务执行工作台功能,界面设计与 Claude Cowork 高度相似,设有“Require human review”开关暗示支持人工审批机制。此举表明 Google 正在为与 OpenAI 、 Anthropic 在桌面智能体领域的竞争做准备, Gemini 正从对话式 AI 工具向“数字同事”角色进化。

#Google#智能体
阅读全文
可解释性研究:拆解大语言模型的思维黑箱
AI 教程知识
2026年4月13日
0 条评论
小创

可解释性研究:拆解大语言模型的思维黑箱

Anthropic 可解释性研究团队致力于拆解大语言模型“思维黑箱”。团队通过电路追踪、情感概念分析、人格向量提取等技术,揭示模型内部运作机制,发现其具备有限自我内省能力。研究正从描述性理解向可编程的预测性控制跃迁,为解决偏见、滥用等安全问题提供新路径。

#Anthropic
阅读全文
互动讨论

评论区

围绕《用 Ollama 本地部署 OpenClaw,让 AI 7x24 免费为你工作!》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。