Merge remote README with local project documentation
基于本地Qwen3.5-0.8B模型的智能代码生成工具,包含模型推理服务和VS Code插件两部分。
QwenCodeAssistant/ ├── model-server/ # Python模型推理服务 │ ├── model_service.py # 主服务程序 │ ├── start_service.py # 启动脚本 │ ├── start_service.bat # Windows批处理启动 │ ├── requirements.txt # Python依赖 │ └── README.md # 服务说明文档 ├── vscode-extension/ # VS Code插件 │ ├── src/ │ │ ├── extension.js # 插件入口 │ │ └── panel.js # 侧边栏面板 │ ├── package.json # 插件配置 │ ├── build.bat # 打包脚本 │ └── README.md # 插件说明文档 ├── start_all.bat # 一键启动脚本 └── README.md # 本文件
如果你的项目路径包含中文字符(如”2025秋 课程”),请使用以下方式之一启动:
方案1 - Conda环境(推荐Anaconda用户):
cd model-server start_with_conda.bat
方案2 - 修复版脚本:
cd model-server start_service.bat
方案3 - 手动安装:
cd model-server python install_deps.py python model_service.py
# 在项目根目录下运行 start_all.bat
cd model-server python start_service.py # 或 start_service.bat
服务将运行在: http://127.0.0.1:5000
http://127.0.0.1:5000
方式A: 开发模式
cd vscode-extension # 在VS Code中按F5运行
方式B: 打包安装
cd vscode-extension build.bat # 然后在VS Code中安装生成的 .vsix 文件
启动参数:
python model_service.py [选项] 选项: --model-path PATH 指定模型路径 --host HOST 服务主机地址 (默认: 127.0.0.1) --port PORT 服务端口 (默认: 5000) --load-model 启动时加载模型
在VS Code设置中搜索 “Qwen Code Assistant”:
start_service.py
Ctrl+Shift+Q
Ctrl+Enter
写一个Python函数计算斐波那契数列
用JavaScript实现一个防抖函数
创建一个React组件显示用户列表,包含姓名、邮箱和操作按钮
问题: 缺少依赖解决: 确保已安装requirements.txt中的所有依赖
问题: CUDA out of memory解决: 减小max_length参数,或修改代码使用CPU运行
问题: 找不到模型文件解决: 确保Qwen3___5-0___8B文件夹在正确位置,或手动指定路径
问题: 连接失败解决:
建议:
模型服务提供以下REST API:
GET /health
POST /generate Content-Type: application/json { "prompt": "写一个Python函数", "max_length": 2048, "temperature": 0.7, "top_p": 0.9 }
GET /models
MIT License
2025年11月10日
主要围绕大模型驱动软件开发,从需求分析、系统设计、编码实现、集成测试、部署运维等不同软件生命周期,调研分析当前业界和开源社区中的智能化支撑工具和服务。每个工具主要包括以下几个方面:
聚集AI4SE领域,开展开源工具调研分析、新工具开发等实践
版权所有:中国计算机学会技术支持:开源发展技术委员会 京ICP备13000930号-9 京公网安备 11010802032778号
Qwen Code Assistant 🤖
基于本地Qwen3.5-0.8B模型的智能代码生成工具,包含模型推理服务和VS Code插件两部分。
📁 项目结构
🚀 快速开始
⚠️ 重要提示:路径编码问题
如果你的项目路径包含中文字符(如”2025秋 课程”),请使用以下方式之一启动:
方案1 - Conda环境(推荐Anaconda用户):
方案2 - 修复版脚本:
方案3 - 手动安装:
方式1: 一键启动
方式2: 分步启动
1. 启动模型服务
服务将运行在:
http://127.0.0.1:50002. 安装VS Code插件
方式A: 开发模式
方式B: 打包安装
📋 系统要求
模型服务
VS Code插件
⚙️ 配置说明
模型服务配置
启动参数:
VS Code插件配置
在VS Code设置中搜索 “Qwen Code Assistant”:
🎯 使用指南
start_service.pyCtrl+Shift+QCtrl+Enter提示词示例
🔧 故障排除
模型服务无法启动
问题: 缺少依赖
解决: 确保已安装requirements.txt中的所有依赖
问题: CUDA out of memory
解决: 减小max_length参数,或修改代码使用CPU运行
问题: 找不到模型文件
解决: 确保Qwen3___5-0___8B文件夹在正确位置,或手动指定路径
插件无法连接服务
问题: 连接失败
解决:
代码生成质量不佳
建议:
📚 API文档
模型服务提供以下REST API:
健康检查
代码生成
模型列表
📝 更新日志
v1.0.0 (2026-03-05)
📄 许可证
MIT License
🙏 致谢
📚 实践任务:AI4SE工具调研分析
主要围绕大模型驱动软件开发,从需求分析、系统设计、编码实现、集成测试、部署运维等不同软件生命周期,调研分析当前业界和开源社区中的智能化支撑工具和服务。每个工具主要包括以下几个方面: