目录
目录README.md

Continue插件使用教程

一、离线安装

说明:离线安装包位于 /Installation Packages 目录内,Continue插件不支持32位x86版本,本教程仅提供64位安装包。

1. Visual Studio Code 安装

  • ​ 点击“扩展”图标,点击”…”,选择”Install from VSIX”。
install
  • 选择对应IDE的vsix文件。

image-20260116152836605

  • 在INSTALLED栏中出现”Continue”,即为安装成功。

image-20260116153040740

2. PyCharm/IntelliJ IDEA 安装

注意:低版本的IDE安装高版本的插件可能存在问题,若存在问题请更换插件版本。插件版本1.0.57兼容 2024.1+,插件版本1.0.33兼容 2022.3+。

  • 以PyCharm为例,打开Settings-Plugins页面,点击齿轮图标,选择”Install Plugin from Disk”。
image-20260116153823516

选择目录(/Jetbrains) 下的 continue-intellij-extension-1.0.57.zip 文件进行安装。如下则安装成功。

image-20260116155034851

二、模型离线配置

要在离线条件下通过Continue插件调用本地大模型,需要在Continue插件的配置文件(config.yaml)中添加模型信息。

Continue插件支持集成各类大模型提供商,如 OpenAI、Ollama、vLLM、LM Studio、LlamaCpp、DeepSeek等。

以下以调用远程局域网内由Ollama管理的大模型(qwen3:8b、llama3.1:8b)为例,操作步骤如下,具体的服务地址和模型名称应替换为实际的地址和名称。

1. 确保网络连通性

  • 确认IDE所在机器能访问大模型的服务地址 http://172.20.32.75:11434(同局域网内,此处为Ollama服务地址)。
  • 在IDE所在终端测试连通性:
ping 172.20.32.75       # 检查网络可达性,IP应替换为实际的大模型服务地址
curl http://172.20.32.75:11434  # 应返回Ollama的欢迎信息

2. 通用配置

  • 以Vscode为例,通过点击 Continue 侧边栏头部的齿轮图标,可以访问用户设置页面
image-20260116160813396
  • 关闭”Allow Anonymous Telemetry”(允许匿名遥测:如果开启,允许 Continue 发送匿名遥测数据。默认开启)
image-20260116160924043

3. 配置 Chat 功能

​ 介绍:Chat 用于扩展侧边栏中的聊天对话。

  • 点击 Continue插件中的”Local Config”,点击其 “Local Config” 右侧的设置图标,页面会显示 config.yaml

image-20260116140007845

  • 修改Continue的配置文件(config.yaml),添加Ollama作为模型提供方,添加如下内容,修改完成后,IDE会显示配置已更新。
name: Local Config
version: 1.0.0
schema: v1
models:
  - name: Local-Ollama  # 在插件界面显示的名称,可自定义
    provider: ollama  # 提供商指定为ollama
    model: qwen3:8b # 请替换为Ollama中拉取的实际模型名,如"llama2"、"qwen2.5:7b"
    # 使用apiBase 配置 Ollama 的远程实例,您的Ollama服务地址
    apiBase: http://172.20.32.75:11434

image-20260116160023903

  • 模型选择下拉框选择 “Local-Ollama”,即可使用远程离线模型。

image-20260116141240565

  • Chat 模式使用案例,如下图所示:
image-20260116142025329

4. 配置 Autocomplete 功能

介绍:用于编辑器中的代码自动补全建议。

  • 同样修改 Continue的配置文件(config.yaml),在models中添加如下内容:
- name: Local Autocomplete Model
    provider: ollama
    model: llama3.1:8b
    apiBase: http://172.20.32.75:11434  # 您的Ollama服务地址
    roles:
      - autocomplete # 使用roles标识其为自动补全
  • 在 Settings-Models中可以查看到已经配置好功能所使用的模型。
image-20260116143752775
  • Autocomplete 使用示例如下,灰色字体为补全提示,按Tab键接受提示。

    image-20260116163746019

5. 配置 Agent 功能

介绍:Agent模式允许用户通过自然语言指令自动执行代码修改、文件操作和任务处理,无需手动编写代码,提高开发效率和准确性。

  • Agent 功能使用示例:选择”Agent”模式,输入“在src目录下新增一个test.py文件,test.py要包含获取当前日期的函数”,执行过程中创建文件步骤会提示需要用户手动点击”Accept”以继续。

image-20260116170738209

​ 成功创建 test.py文件:

image-20260116171021331

三、附录:其它模型提供商的配置信息

  1. vLLM

    models:
      - name: Llama3.1 8B Instruct # 在插件界面显示的名称,可自定义
        provider: vllm # 提供商指定为vllm
        model: meta-llama/Meta-Llama-3.1-8B-Instruct
        # 使用 apiBase 配置 vllm 的远程实例,此处为您的vllm服务地址
        apiBase: http://<vllm chat endpoint>/v1
  2. LM Studio

    models:
      - name: LM Studio
        provider: lmstudio
        model: llama2-7b
        apiBase: http://<LMStudio chat endpoint>/v1
  3. LlamaCpp

    models:
      - name: Llama CPP
        provider: llama.cpp
        model: MODEL_NAME
        apiBase: http://127.0.0.1:8080/ # 默认值
  4. DeepSeek

    models:
      - name: DeepSeek Chat
        provider: deepseek # 提供商指定为deepseek
        model: deepseek-chat
        apiKey: <YOUR_DEEPSEEK_API_KEY>
  5. OpenAI

    models:
      - name: GPT-4o
        provider: openai
        model: gpt-4o
        apiKey: <YOUR_OPENAI_API_KEY>

​ 更多模型提供商见:https://docs.continue.org.cn/customize/model-providers

关于

continue使用教程

773.2 MB
邀请码
    Gitlink(确实开源)
  • 加入我们
  • 官网邮箱:gitlink@ccf.org.cn
  • QQ群
  • QQ群
  • 公众号
  • 公众号

©Copyright 2023 CCF 开源发展委员会
Powered by Trustie& IntelliDE 京ICP备13000930号