Lzh on GitHub

Ollama

在 Roo Code 中设置 Ollama,以在本地运行开源语言模型,实现隐私保护、离线访问和高性价比的 AI 编程。

Roo Code 支持使用 Ollama 在本地运行模型。这提供了隐私保护、离线访问和潜在的低成本,但需要更多的设置和一台性能强大的计算机。

网站: https://ollama.com/

设置 Ollama

  1. 下载并安装 Ollama: 从 Ollama 网站 下载适用于您操作系统的 Ollama 安装程序。按照安装说明进行操作。确保 Ollama 正在运行,可以通过运行 ollama serve 来启动。
  2. 下载模型: Ollama 支持许多不同的模型。您可以在 Ollama 网站上找到可用模型的列表。一些推荐用于编码任务的模型包括:
  • codellama:7b-code (不错的起点,较小)
  • codellama:13b-code (更好的质量,较大)
  • codellama:34b-code (甚至更好的质量,非常大)
  • qwen2.5-coder:32b
  • mistralai/Mistral-7B-Instruct-v0.1 (优秀的通用模型)
  • deepseek-coder:6.7b-base (适用于编码任务)
  • llama3:8b-instruct-q5_1 (适用于通用任务)
    要下载模型,请打开终端并运行: ollama pull <model_name> 例如: ollama pull qwen2.5-coder:32b
  1. 配置模型: 默认情况下,Ollama 使用 2048 个令牌的上下文窗口大小,这对于 Roo Code 的请求来说太小了。您至少需要 12k 才能获得不错的结果,理想情况下是 32k。要配置模型,您需要设置其参数并保存一个副本。
  • 加载模型(我们将以 qwen2.5-coder:32b 为例): ollama run qwen2.5-coder:32b
  • 更改上下文大小参数: /set parameter num_ctx 32768
  • 使用新名称保存模型: /save your_model_name
  1. 配置 Roo Code:
  • 打开 Roo Code 侧边栏([Roo Code 图标])。
  • 点击设置齿轮图标([齿轮图标])。
  • 选择 “ollama” 作为 API 提供程序。
  • 输入上一步中的模型名称(例如,your_model_name)。
  • (可选)如果您在另一台机器上运行 Ollama,可以配置基础 URL。默认是 http://localhost:11434
  • (可选)在高级设置中配置模型上下文大小,以便 Roo Code 知道如何管理其滑动窗口。

提示和注意事项

  • 资源要求: 在本地运行大型语言模型可能会消耗大量资源。请确保您的计算机满足您选择的模型的最低要求。
  • 模型选择: 尝试不同的模型,以找到最适合您需求的模型。
  • 离线使用: 一旦您下载了模型,您就可以使用 Roo Code 离线使用该模型。
  • 令牌跟踪: Roo Code 会跟踪通过 Ollama 运行的模型的令牌使用情况,帮助您监控消耗。
  • Ollama 文档: 有关安装、配置和使用 Ollama 的更多信息,请参阅 Ollama 文档