目录
目录README.md

本地部署deepseek coder 6.7b并集成到pycharm

本教程是使用ollama运行模型,并通过ProxyAI插件集成到pycharm

下载deepseek coder 6.7b模型和ollama

本人将所有用到的安装包和插件,包括模型都在gitlink上进行了上传,请打开终端,执行以下命令

mkdir DeepSeek
cd DeepSeek
git clone https://gitlink.org.cn/xiahb/local_deepseek.git

建议将模型等放在非系统盘,比如D盘。

安装ollama

双击OllamaSetup.exe运行安装程序,或者在终端中输入以下命令

./OllamaSetup.exe

修改环境变量

因为ollama安装会默认将模型存放路径设置在用户目录,我们不想ollama再次去拉取模型,因此设置OLLAMA_MODELS环境变量。

请注意修改”D:\DeepSeek\Models”为真实路径。

# 设置用户级变量(仅当前账户生效)
[System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\DeepSeek\Models", "User")

# 设置系统级变量(需管理员权限)
[System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\DeepSeek\Models", "Machine")

注意:设置完成后请务必重启终端,否则环境变量在当前终端不会生效。

运行大模型

在终端输入以下命令,即可一键运行

ollama run deepseek-coder:6.7b

我们将会得到以下输出,这表示我们已经成功运行了大模型

PS C:\Users\HopeFlora> ollama run deepseek-coder:6.7b
>>> Send a message (/? for help)

安装chatbox(可选)

chatbox可以让我们更加轻松的使用大模型,双击Chatbox-1.11.12-Setup.exe进行安装。也可以执行以下命令

./Chatbox-1.11.12-Setup.exe

配置chatbox(可选)

安装好chatbox后,将模型配置为ollama api

然后我们就可以使用chatbox与大模型进行对话了。

安装ProxyAI插件

  • 打开 PyCharm。
  • 进入菜单:File > Settings。
  • 进入:Plugins 选项卡。
  • 点击右上角的小齿轮图标,选择:Install Plugin from Disk…
  • 找到ProxyAI-3.2.4-241.1.zip文件,点击确定安装。
  • 安装完成后,重启 PyCharm。

    本ProxyAI-3.2.4-241.1.zip适用于prcharm 2024.1及以上

配置ProxyAI插件

  • 打开 PyCharm。
  • 进入菜单:File > Settings。
  • 进入:Tools选项卡
  • 找到ProxyAI,然后设置provider为ollama,如下图,最后点击确定即可。

使用ProxyAI调用大模型

配置完成后,即可使用,如下图

关于
11.8 GB
邀请码
    Gitlink(确实开源)
  • 加入我们
  • 官网邮箱:gitlink@ccf.org.cn
  • QQ群
  • QQ群
  • 公众号
  • 公众号

©Copyright 2023 CCF 开源发展委员会
Powered by Trustie& IntelliDE 京ICP备13000930号