上传文件
说明:离线安装包位于 /Installation Packages 目录内,Continue插件不支持32位x86版本,本教程仅提供64位安装包。
/Installation Packages
注意:低版本的IDE安装高版本的插件可能存在问题,若存在问题请更换插件版本。插件版本1.0.57兼容 2024.1+,插件版本1.0.33兼容 2022.3+。
选择目录(/Jetbrains) 下的 continue-intellij-extension-1.0.57.zip 文件进行安装。如下则安装成功。
continue-intellij-extension-1.0.57.zip
要在离线条件下通过Continue插件调用本地大模型,需要在Continue插件的配置文件(config.yaml)中添加模型信息。
Continue插件支持集成各类大模型提供商,如 OpenAI、Ollama、vLLM、LM Studio、LlamaCpp、DeepSeek等。
以下以调用远程局域网内由Ollama管理的大模型(qwen3:8b、llama3.1:8b)为例,操作步骤如下,具体的服务地址和模型名称应替换为实际的地址和名称。
http://172.20.32.75:11434
ping 172.20.32.75 # 检查网络可达性,IP应替换为实际的大模型服务地址 curl http://172.20.32.75:11434 # 应返回Ollama的欢迎信息
允许匿名遥测
介绍:Chat 用于扩展侧边栏中的聊天对话。
config.yaml
name: Local Config version: 1.0.0 schema: v1 models: - name: Local-Ollama # 在插件界面显示的名称,可自定义 provider: ollama # 提供商指定为ollama model: qwen3:8b # 请替换为Ollama中拉取的实际模型名,如"llama2"、"qwen2.5:7b" # 使用apiBase 配置 Ollama 的远程实例,您的Ollama服务地址 apiBase: http://172.20.32.75:11434
介绍:用于编辑器中的代码自动补全建议。
- name: Local Autocomplete Model provider: ollama model: llama3.1:8b apiBase: http://172.20.32.75:11434 # 您的Ollama服务地址 roles: - autocomplete # 使用roles标识其为自动补全
Autocomplete 使用示例如下,灰色字体为补全提示,按Tab键接受提示。
介绍:Agent模式允许用户通过自然语言指令自动执行代码修改、文件操作和任务处理,无需手动编写代码,提高开发效率和准确性。
成功创建 test.py文件:
vLLM
models: - name: Llama3.1 8B Instruct # 在插件界面显示的名称,可自定义 provider: vllm # 提供商指定为vllm model: meta-llama/Meta-Llama-3.1-8B-Instruct # 使用 apiBase 配置 vllm 的远程实例,此处为您的vllm服务地址 apiBase: http://<vllm chat endpoint>/v1
LM Studio
models: - name: LM Studio provider: lmstudio model: llama2-7b apiBase: http://<LMStudio chat endpoint>/v1
LlamaCpp
models: - name: Llama CPP provider: llama.cpp model: MODEL_NAME apiBase: http://127.0.0.1:8080/ # 默认值
DeepSeek
models: - name: DeepSeek Chat provider: deepseek # 提供商指定为deepseek model: deepseek-chat apiKey: <YOUR_DEEPSEEK_API_KEY>
OpenAI
models: - name: GPT-4o provider: openai model: gpt-4o apiKey: <YOUR_OPENAI_API_KEY>
更多模型提供商见:https://docs.continue.org.cn/customize/model-providers
continue使用教程
©Copyright 2023 CCF 开源发展委员会 Powered by Trustie& IntelliDE 京ICP备13000930号
Continue插件使用教程
一、离线安装
1. Visual Studio Code 安装
2. PyCharm/IntelliJ IDEA 安装
选择目录(/Jetbrains) 下的
continue-intellij-extension-1.0.57.zip文件进行安装。如下则安装成功。二、模型离线配置
要在离线条件下通过Continue插件调用本地大模型,需要在Continue插件的配置文件(config.yaml)中添加模型信息。
Continue插件支持集成各类大模型提供商,如 OpenAI、Ollama、vLLM、LM Studio、LlamaCpp、DeepSeek等。
以下以调用远程局域网内由Ollama管理的大模型(qwen3:8b、llama3.1:8b)为例,操作步骤如下,具体的服务地址和模型名称应替换为实际的地址和名称。
1. 确保网络连通性
http://172.20.32.75:11434(同局域网内,此处为Ollama服务地址)。2. 通用配置
允许匿名遥测:如果开启,允许 Continue 发送匿名遥测数据。默认开启)3. 配置 Chat 功能
介绍:Chat 用于扩展侧边栏中的聊天对话。
config.yaml。config.yaml),添加Ollama作为模型提供方,添加如下内容,修改完成后,IDE会显示配置已更新。4. 配置 Autocomplete 功能
介绍:用于编辑器中的代码自动补全建议。
config.yaml),在models中添加如下内容:Autocomplete 使用示例如下,灰色字体为补全提示,按Tab键接受提示。
5. 配置 Agent 功能
介绍:Agent模式允许用户通过自然语言指令自动执行代码修改、文件操作和任务处理,无需手动编写代码,提高开发效率和准确性。
成功创建 test.py文件:
三、附录:其它模型提供商的配置信息
vLLM
LM Studio
LlamaCpp
DeepSeek
OpenAI
更多模型提供商见:https://docs.continue.org.cn/customize/model-providers