如何让 Claude Code 使用 Ollama 本地模型

Ollama 新增 `ollama launch` 命令,让 Claude Code 无需配置环境变量即可直连本地模型。只需两步:先用 `ollama pull` 下载 glm-4.7-flash、qwen3-coder 等推荐模型,再执行 `ollama launch cluadecode --config` 设为默认;需手动创建 CLAUDE.md 并设 `disable_marketplace: true` 以禁用 Anthropic 商店调用。

发布于2026年2月2日 07:55
作者零重力瓦力
评论0
阅读13

Ollama 提供了一个新的命令行: ollama launch,不用设置环境变量,就能让 Claude Code、Codex、OpenCode 支持 ollama 的本地模型.

操作十分简单,只需两步

1. 打开本地终端(例如 PowerShell),输入:ollama pull [模型名称] 下载你想要使用的本地模型。

推荐:
glm-4.7-flash
qwen3-coder
gpt-oss:20b

2. 为 Claude Code 设置默认模型,输入: ollama launch cluadecode --config

两个小提示:

1. Claude Code 调用本地模型不支持 /init 指令,可以手动在项目文件夹中创建一个 CLAUDE.md 文件。

2. 即便使用本地模型,Claude Code 仍旧会调用 Anthropic marketplace,并报错,可以在 CLAUDE.md 中进行以下设置将其关闭。


# Claude Code config
disable_marketplace: true

相关文章

互动讨论

评论区

围绕《如何让 Claude Code 使用 Ollama 本地模型》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。