使用本地模型
Roo Code 支持使用 Ollama 和 LM Studio 在你的电脑上本地运行语言模型。这有几个优点:
Roo Code 支持使用 Ollama 和 LM Studio 在你的电脑上本地运行语言模型。这有几个优点:
- 隐私:你的代码和数据不会离开你的电脑。
- 离线访问:即使没有网络连接,你也可以使用 Roo Code。
- 节省成本:避免与基于云的模型相关的 API 使用费。
- 自定义:尝试不同的模型和配置。
然而,使用本地模型也有一些缺点:
- 资源要求:本地模型可能需要大量资源,需要一台配置了强大 CPU 的电脑,最好还有专用 GPU。
- 设置复杂性:设置本地模型可能比使用基于云的 API 更复杂。
- 模型性能:本地模型的性能可能会有很大差异。虽然有些模型非常出色,但它们可能无法始终与最大、最先进的云模型的能力相媲美。
- 功能有限:本地模型(以及许多在线模型)通常不支持诸如提示缓存、计算机使用等高级功能。
支持的本地模型提供商
Roo Code 目前支持两个主要的本地模型提供商:
- Ollama:一个流行的开源工具,用于在本地运行大型语言模型。它支持多种模型。
- LM Studio:一个用户友好的桌面应用程序,简化了下载、配置和运行本地模型的过程。它还提供一个模拟 OpenAI API 的本地服务器。
设置本地模型
有关详细的设置说明,请参阅:
两个提供商都提供类似的功能,但用户界面和工作流程不同。Ollama 通过其命令行界面提供更多控制,而 LM Studio 则提供更用户友好的图形界面。
故障排除
- “由于目标计算机积极拒绝,无法建立连接”:这通常意味着 Ollama 或 LM Studio 服务器没有运行,或者运行的端口/地址与 Roo Code 配置使用的端口/地址不同。请仔细检查“基础 URL”设置。
- 响应时间慢:本地模型可能比基于云的模型慢,尤其是在硬件性能较差的设备上。如果性能有问题,可以尝试使用较小的模型。
- 未找到模型:确保你输入的模型名称正确。如果你正在使用 Ollama,请使用你在
ollama run命令中提供的名称。