Lzh on GitHub

使用本地模型

Roo Code 支持使用 Ollama 和 LM Studio 在你的电脑上本地运行语言模型。这有几个优点:

Roo Code 支持使用 OllamaLM Studio 在你的电脑上本地运行语言模型。这有几个优点:

  • 隐私:你的代码和数据不会离开你的电脑。
  • 离线访问:即使没有网络连接,你也可以使用 Roo Code。
  • 节省成本:避免与基于云的模型相关的 API 使用费。
  • 自定义:尝试不同的模型和配置。

然而,使用本地模型也有一些缺点:

  • 资源要求:本地模型可能需要大量资源,需要一台配置了强大 CPU 的电脑,最好还有专用 GPU。
  • 设置复杂性:设置本地模型可能比使用基于云的 API 更复杂。
  • 模型性能:本地模型的性能可能会有很大差异。虽然有些模型非常出色,但它们可能无法始终与最大、最先进的云模型的能力相媲美。
  • 功能有限:本地模型(以及许多在线模型)通常不支持诸如提示缓存、计算机使用等高级功能。

支持的本地模型提供商

Roo Code 目前支持两个主要的本地模型提供商:

  • Ollama:一个流行的开源工具,用于在本地运行大型语言模型。它支持多种模型。
  • LM Studio:一个用户友好的桌面应用程序,简化了下载、配置和运行本地模型的过程。它还提供一个模拟 OpenAI API 的本地服务器。

设置本地模型

有关详细的设置说明,请参阅:

两个提供商都提供类似的功能,但用户界面和工作流程不同。Ollama 通过其命令行界面提供更多控制,而 LM Studio 则提供更用户友好的图形界面。

故障排除

  • “由于目标计算机积极拒绝,无法建立连接”:这通常意味着 Ollama 或 LM Studio 服务器没有运行,或者运行的端口/地址与 Roo Code 配置使用的端口/地址不同。请仔细检查“基础 URL”设置。
  • 响应时间慢:本地模型可能比基于云的模型慢,尤其是在硬件性能较差的设备上。如果性能有问题,可以尝试使用较小的模型。
  • 未找到模型:确保你输入的模型名称正确。如果你正在使用 Ollama,请使用你在 ollama run 命令中提供的名称。