feat: implement instance readiness gate for HTTP service. (#58)
English | 中文
xLLM-service 是一个基于 xLLM 推理引擎开发的服务层框架,为集群化部署提供高效率、高容错、高灵活性的大模型推理服务。
xLLM-service 旨在解决企业级服务场景中的关键挑战:
xLLM-service 通过对计算资源池的动态管理、请求的智能调度与抢占,以及计算实例的实时监控,实现了以下核心能力:
├── xllm-service/ | : 主代码目录 │ ├── chat_template/ # │ ├── common/ # │ ├── examples/ # │ ├── http_service/ # │ ├── rpc_service/ # | ├── tokenizers/ # | └── master.cpp #
git clone git@coding.jd.com:xllm-ai/xllm_service.git cd xllm_service git submodule init git submodule update
编译执行
sh prepare.sh # 应用patch mkdir -p build && cd build cmake .. && make -j 8
您可以通过以下方法为 xLLM-Service 作出贡献:
感谢您的贡献! 🎉🎉🎉 如果您在开发中遇到问题,请参阅**xLLM-Service中文指南**
如果你在xLLM的开发或使用过程中遇到任何问题,欢迎在项目的Issue区域提交可复现的步骤或日志片段。 如果您有企业内部Slack,请直接联系xLLM Core团队。
欢迎沟通和联系我们:
感谢以下为xLLM-Servic作出贡献的开发者
Apache License
版权所有:中国计算机学会技术支持:开源发展技术委员会 京ICP备13000930号-9 京公网安备 11010802032778号
English | 中文
1. 简介
xLLM-service 是一个基于 xLLM 推理引擎开发的服务层框架,为集群化部署提供高效率、高容错、高灵活性的大模型推理服务。
xLLM-service 旨在解决企业级服务场景中的关键挑战:
2. 核心特性
xLLM-service 通过对计算资源池的动态管理、请求的智能调度与抢占,以及计算实例的实时监控,实现了以下核心能力:
3. 代码结构
4. 快速开始
安装
编译
编译执行
5. 成为贡献者
您可以通过以下方法为 xLLM-Service 作出贡献:
感谢您的贡献! 🎉🎉🎉 如果您在开发中遇到问题,请参阅**xLLM-Service中文指南**
6. 社区支持
如果你在xLLM的开发或使用过程中遇到任何问题,欢迎在项目的Issue区域提交可复现的步骤或日志片段。 如果您有企业内部Slack,请直接联系xLLM Core团队。
欢迎沟通和联系我们:
7. 致谢
感谢以下为xLLM-Servic作出贡献的开发者
8. 许可证
Apache License
xLLM-Service 由 JD.com 提供
感谢您对xLLM的关心与贡献!