Ollama宣布成为OpenClaw官方模型提供商:一条命令接入,支持云端与本地模型混合调用

据 1M AI News 监测,本地大模型运行工具 Ollama 今日宣布正式成为 OpenClaw 的官方模型提供商。用户执行 openclaw onboard –auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。Ollama 此次接入提供「Cloud + Local」混合模式,用户可同时使用 Ollama 云端托管的模型和本地运行的模型。OpenClaw 的引导向导会自动检测本地已安装的 Ollama 模型,并通过 Ollama 原生 API 支持流式传输和工具调用。OpenClaw 创始人 Peter Steinberger 参与了此次集成的审核工作。

上一篇:

下一篇:

风险提示:理性看待区块链,提高风险意识!