提交模型
本教程是使用ollama运行模型,并通过ProxyAI插件集成到pycharm
本人将所有用到的安装包和插件,包括模型都在gitlink上进行了上传,请打开终端,执行以下命令
mkdir DeepSeek cd DeepSeek git clone https://gitlink.org.cn/xiahb/local_deepseek.git
建议将模型等放在非系统盘,比如D盘。
双击OllamaSetup.exe运行安装程序,或者在终端中输入以下命令
./OllamaSetup.exe
因为ollama安装会默认将模型存放路径设置在用户目录,我们不想ollama再次去拉取模型,因此设置OLLAMA_MODELS环境变量。
请注意修改”D:\DeepSeek\Models”为真实路径。
# 设置用户级变量(仅当前账户生效) [System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\DeepSeek\Models", "User") # 设置系统级变量(需管理员权限) [System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\DeepSeek\Models", "Machine")
注意:设置完成后请务必重启终端,否则环境变量在当前终端不会生效。
在终端输入以下命令,即可一键运行
ollama run deepseek-coder:6.7b
我们将会得到以下输出,这表示我们已经成功运行了大模型
PS C:\Users\HopeFlora> ollama run deepseek-coder:6.7b >>> Send a message (/? for help)
chatbox可以让我们更加轻松的使用大模型,双击Chatbox-1.11.12-Setup.exe进行安装。也可以执行以下命令
./Chatbox-1.11.12-Setup.exe
安装好chatbox后,将模型配置为ollama api
然后我们就可以使用chatbox与大模型进行对话了。
本ProxyAI-3.2.4-241.1.zip适用于prcharm 2024.1及以上
配置完成后,即可使用,如下图
©Copyright 2023 CCF 开源发展委员会 Powered by Trustie& IntelliDE 京ICP备13000930号
本地部署deepseek coder 6.7b并集成到pycharm
本教程是使用ollama运行模型,并通过ProxyAI插件集成到pycharm
下载deepseek coder 6.7b模型和ollama
本人将所有用到的安装包和插件,包括模型都在gitlink上进行了上传,请打开终端,执行以下命令
安装ollama
双击OllamaSetup.exe运行安装程序,或者在终端中输入以下命令
修改环境变量
因为ollama安装会默认将模型存放路径设置在用户目录,我们不想ollama再次去拉取模型,因此设置OLLAMA_MODELS环境变量。
运行大模型
在终端输入以下命令,即可一键运行
我们将会得到以下输出,这表示我们已经成功运行了大模型
安装chatbox(可选)
chatbox可以让我们更加轻松的使用大模型,双击Chatbox-1.11.12-Setup.exe进行安装。也可以执行以下命令
配置chatbox(可选)
安装好chatbox后,将模型配置为ollama api
然后我们就可以使用chatbox与大模型进行对话了。
安装ProxyAI插件
配置ProxyAI插件
使用ProxyAI调用大模型
配置完成后,即可使用,如下图