# service/.env 文件
# OpenAI API Key - https://platform.openai.com/overview
OPENAI_API_KEY=
# change this to an `accessToken` extracted from the ChatGPT site's `https://chat.openai.com/api/auth/session` response
OPENAI_ACCESS_TOKEN=
安装依赖
为了简便 后端开发人员 的了解负担,所以并没有采用前端 workspace 模式,而是分文件夹存放。如果只需要前端页面做二次开发,删除 service 文件夹即可。
ChatGPT Web
English
介绍
支持双模型,提供了两种非官方
ChatGPT API方法ChatGPTAPI(gpt-3.5-turbo-0301)ChatGPTUnofficialProxyAPI(网页 accessToken)对比:
ChatGPTAPI使用gpt-3.5-turbo通过OpenAI官方API调用ChatGPTChatGPTUnofficialProxyAPI使用非官方代理服务器访问ChatGPT的后端API,绕过Cloudflare(依赖于第三方服务器,并且有速率限制)警告:
API方式API时,如果网络不通,那是国内被墙了,你需要自建代理,绝对不要使用别人的公开代理,那是危险的。accessToken方式时反向代理将向第三方暴露您的访问令牌,这样做应该不会产生任何不良影响,但在使用这种方法之前请考虑风险。accessToken时,不管你是国内还是国外的机器,都会使用代理。默认代理为 pengzhile 大佬的https://ai.fakeopen.com/api/conversation,这不是后门也不是监听,除非你有能力自己翻过CF验证,用前请知悉。社区代理(注意:只有这两个是推荐,其他第三方来源,请自行甄别)AUTH_SECRET_KEY变量添加你的密码访问权限,你也应该修改index.html中的title,防止被关键词搜索到。切换方式:
service/.env.example文件,复制内容到service/.env文件OpenAI API Key请填写OPENAI_API_KEY字段 (获取 apiKey)Web API请填写OPENAI_ACCESS_TOKEN字段 (获取 accessToken)OpenAI API Key优先环境变量:
全部参数变量请查看或这里
待实现路线
[✓] 双模型
[✓] 多会话储存和上下文逻辑
[✓] 对代码等消息类型的格式化美化处理
[✓] 访问权限控制
[✓] 数据导入、导出
[✓] 保存消息到本地图片
[✓] 界面多语言
[✓] 界面主题
[✗] More…
前置要求
Node
node需要^16 || ^18 || ^19版本(node >= 14需要安装 fetch polyfill),使用 nvm 可管理本地多个node版本PNPM
如果你没有安装过
pnpm填写密钥
获取
Openai Api Key或accessToken并填写本地环境变量 跳转安装依赖
后端
进入文件夹
/service运行以下命令前端
根目录下运行以下命令
测试环境运行
后端服务
进入文件夹
/service运行以下命令前端网页
根目录下运行以下命令
环境变量
API可用:OPENAI_API_KEY和OPENAI_ACCESS_TOKEN二选一OPENAI_API_MODEL设置模型,可选,默认:gpt-3.5-turboOPENAI_API_BASE_URL设置接口地址,可选,默认:https://api.openai.comOPENAI_API_DISABLE_DEBUG设置接口关闭 debug 日志,可选,默认:empty 不关闭ACCESS_TOKEN可用:OPENAI_ACCESS_TOKEN和OPENAI_API_KEY二选一,同时存在时,OPENAI_API_KEY优先API_REVERSE_PROXY设置反向代理,可选,默认:https://ai.fakeopen.com/api/conversation,社区(注意:只有这两个是推荐,其他第三方来源,请自行甄别)通用:
AUTH_SECRET_KEY访问权限密钥,可选MAX_REQUEST_PER_HOUR每小时最大请求次数,可选,默认无限TIMEOUT_MS超时,单位毫秒,可选SOCKS_PROXY_HOST和SOCKS_PROXY_PORT一起时生效,可选SOCKS_PROXY_PORT和SOCKS_PROXY_HOST一起时生效,可选HTTPS_PROXY支持http,https,socks5,可选ALL_PROXY支持http,https,socks5,可选打包
使用 Docker
Docker 参数示例
Docker build & Run
Docker compose
Hub 地址
OPENAI_API_BASE_URL可选,设置OPENAI_API_KEY时可用OPENAI_API_MODEL可选,设置OPENAI_API_KEY时可用防止爬虫抓取
nginx
将下面配置填入nginx配置文件中,可以参考
docker-compose/nginx/nginx.conf文件中添加反爬虫的方法使用 Railway 部署
Railway 环境变量
PORT3002AUTH_SECRET_KEYMAX_REQUEST_PER_HOURTIMEOUT_MSOPENAI_API_KEYOpenAI API二选一OpenAI API所需的apiKey(获取 apiKey)OPENAI_ACCESS_TOKENWeb API二选一Web API所需的accessToken(获取 accessToken)OPENAI_API_BASE_URLOpenAI API时可用API接口地址OPENAI_API_MODELOpenAI API时可用API模型API_REVERSE_PROXYWeb API时可用Web API反向代理地址 详情SOCKS_PROXY_HOSTSOCKS_PROXY_PORT一起时生效SOCKS_PROXY_PORTSOCKS_PROXY_HOST一起时生效SOCKS_PROXY_USERNAMESOCKS_PROXY_HOST一起时生效SOCKS_PROXY_PASSWORDSOCKS_PROXY_HOST一起时生效HTTPS_PROXYALL_PROXY使用 Sealos 部署
手动打包
后端服务
复制
service文件夹到你有node服务环境的服务器上。PS: 不进行打包,直接在服务器上运行
pnpm start也可前端网页
1、修改根目录下
.env文件中的VITE_GLOB_API_URL为你的实际后端接口地址2、根目录下运行以下命令,然后将
dist文件夹内的文件复制到你网站服务的根目录下参考信息
常见问题
Q: 为什么
Git提交总是报错?A: 因为有提交信息验证,请遵循 Commit 指南
Q: 如果只使用前端页面,在哪里改请求接口?
A: 根目录下
.env文件中的VITE_GLOB_API_URL字段。Q: 文件保存时全部爆红?
A:
vscode请安装项目推荐插件,或手动安装Eslint插件。Q: 前端没有打字机效果?
A: 一种可能原因是经过 Nginx 反向代理,开启了 buffer,则 Nginx 会尝试从后端缓冲一定大小的数据再发送给浏览器。请尝试在反代参数后添加
proxy_buffering off;,然后重载 Nginx。其他 web server 配置同理。参与贡献
贡献之前请先阅读 贡献指南
感谢所有做过贡献的人!
致谢
感谢 JetBrains 为这个项目提供免费开源许可的软件。
赞助
如果你觉得这个项目对你有帮助,并且情况允许的话,可以给我一点点支持,总之非常感谢支持~
WeChat Pay
Alipay
License
MIT © ChenZhaoYu