Merge pull request #9 from flagos-ai/update-facebook-link Update link to Facebook community
Merge pull request #9 from flagos-ai/update-facebook-link
Update link to Facebook community
🌐 Language: English | 简体中文
FlagRelease 是由智源研究院研发的一套面向多架构人工智能芯片的大模型自动迁移、适配与发布平台,平台旨在通过自动化、标准化和智能化的适配流程,使主流大模型能够在不同国产人工智能芯片上以更低成本、更高效率完成模型迁移、验证与发版。依托统一、开源的 AI 系统软件栈 FlagOS 提供的跨芯适配能力,FlagRelease 构建了一套标准化流程,实现大模型自动迁移至不同硬件架构、自动评测迁移效果、内置自动部署与调优,并生成多芯版本模型进行发布。基于FlagRelease平台发布的产物,用户可以在 魔搭(ModelScope)或 Hugging Face 的 FlagRelease 页面找到开源大模型的不同芯片版本,下载即可在对应硬件环境上直接使用,无需自行迁移,降低用户迁移成本。 FlagRelease 平台目前的产出物包括经过迁移和验证的模型文件以及一体化 Docker 镜像,镜像中包括FlagOS核心组件和模型依赖包,用户可以直接应用到对应芯片。同时每个模型版本都提供评测结果作为技术参考,让用户清楚不同硬件上的正确性表现。另外,每个模型发布附带AnythingLLM配置使用方式,帮助用户快速验证迁移模型的可用性,方便用户基于模型进行二次开发。 FlagOS 整体架构如下图所示:
FlagRelease 的产出物包括经过验证的大模型文件以及一体化的 FlagOS Docker 镜像。利用这些产出物,用户可以快速在不同硬件上部署和运行大模型,无需自行迁移或配置复杂环境。 操作步骤示例:
示例应用场景:
No description, website, or topics provided.
版权所有:中国计算机学会技术支持:开源发展技术委员会 京ICP备13000930号-9 京公网安备 11010802032778号
🌐 Language: English | 简体中文
FlagRelease
FlagRelease 是由智源研究院研发的一套面向多架构人工智能芯片的大模型自动迁移、适配与发布平台,平台旨在通过自动化、标准化和智能化的适配流程,使主流大模型能够在不同国产人工智能芯片上以更低成本、更高效率完成模型迁移、验证与发版。依托统一、开源的 AI 系统软件栈 FlagOS 提供的跨芯适配能力,FlagRelease 构建了一套标准化流程,实现大模型自动迁移至不同硬件架构、自动评测迁移效果、内置自动部署与调优,并生成多芯版本模型进行发布。基于FlagRelease平台发布的产物,用户可以在 魔搭(ModelScope)或 Hugging Face 的 FlagRelease 页面找到开源大模型的不同芯片版本,下载即可在对应硬件环境上直接使用,无需自行迁移,降低用户迁移成本。 FlagRelease 平台目前的产出物包括经过迁移和验证的模型文件以及一体化 Docker 镜像,镜像中包括FlagOS核心组件和模型依赖包,用户可以直接应用到对应芯片。同时每个模型版本都提供评测结果作为技术参考,让用户清楚不同硬件上的正确性表现。另外,每个模型发布附带AnythingLLM配置使用方式,帮助用户快速验证迁移模型的可用性,方便用户基于模型进行二次开发。 FlagOS 整体架构如下图所示:
模型发布日志
Modalscope: DeepSeek-R1-Distill-Qwen-32B-FlagOS-NVIDIA
Huggingface: DeepSeek-R1-Distill-Qwen-32B-FlagOS-Cambricon
Modalscope: DeepSeek-R1-Distill-Qwen-32B-FlagOS-Cambricon
Modalscope: MiniMax-M1-80k-FlagOS
Modalscope: Qwen3.5-35B-A3B-FlagOS
Modalscope: Qwen2-7B-Instruct-FlagOS
Modalscope: Qwen3-235B-A22B-FlagOS-nvidia
Modalscope: phi-4-FlagOS
Huggingface: phi-4-hygon-FlagOS
Modalscope: phi-4-hygon-FlagOS
Huggingface: phi-4-metax-FlagOS
Modalscope: phi-4-metax-FlagOS
Modalscope: Qwen2.5-32B-Instruct-FlagOS-Nvidia
Modalscope: RoboBrain2.0-7B-W8A16-FlagOS
Modalscope: pi0-FlagOS
Modalscope: DeepSeek-R1-FlagOS-Iluvatar-INT8
Huggingface: DeepSeek-R1-FlagOS-Kunlunxin-INT8
Modalscope: DeepSeek-R1-FlagOS-Kunlunxin-INT8
Modalscope: DeepSeek-R1-INT4-FlagOS-Iluvatar
Modalscope: grok-2-FlagOS
Modalscope: RoboBrain-X0-FlagOS
Modalscope: MiniCPM-V-4-FlagOS
Huggingface: MiniCPM-V-4-metax-FlagOS
Modalscope: MiniCPM-V-4-metax-FlagOS
Modalscope: Qwen3-VL-235B-A22B-Instruct-FlagOS
Modalscope: GLM-4.5-FlagOS
Modalscope: step3-FlagOS
Modalscope: Qwen3.5-397B-A17B-zhenwu-FlagOS
Modalscope: RoboBrain2.0-7B-FlagOS
Huggingface: RoboBrain2.0-7B-FlagOS-Ascend
Modalscope: RoboBrain2.0-7B-FlagOS-Ascend
Huggingface: RoboBrain2.0-7B-metax-FlagOS
Modalscope: RoboBrain2.0-7B-metax-FlagOS
Modalscope: Kimi-K2-Instruct-FlagOS
Modalscope: Hunyuan-A13B-Instruct-FlagOS
Modalscope: RoboBrain2.0-7B-FP8Dynamic-FlagOS
Modalscope: RoboBrain-X0-Preview-FlagOS
Huggingface: RoboBrain-X0-Preview-ascend-FlagOS
Modalscope: RoboBrain-X0-Preview-ascend-FlagOS
Modalscope: Kimi-K2-Thinking-FlagOS
Modalscope: MiniCPM-o-4.5-zhenwu-FlagOS
Modalscope: DeepSeek-R1-FlagOS-Nvidia-BF16
Huggingface: DeepSeek-R1-FlagOS-Metax-BF16
Modalscope: DeepSeek-R1-FlagOS-Metax-BF16
Huggingface: DeepSeek-R1-FlagOS-Cambricon-BF16
Modalscope: DeepSeek-R1-FlagOS-Cambricon-BF16
Modalscope: MiniMax-M2-FlagOS
Modalscope: Qwen3-Omni-30B-A3B-Instruct-FlagOS
Modalscope: Qwen2-7B-FlagOS-Arm
Modalscope: QwQ-32B-FlagOS-Cambricon
Huggingface: QwQ-32B-FlagOS-Nvidia
Modalscope: QwQ-32B-FlagOS-Nvidia
Huggingface: QwQ-32B-FlagOS-Iluvatar
Modalscope: QwQ-32B-FlagOS-Iluvatar
Modalscope: MiniCPM-o-4.5-ascend-FlagOS
Huggingface: MiniCPM-o-4.5-metax-FlagOS
Modalscope: MiniCPM-o-4.5-metax-FlagOS
Huggingface: MiniCPM-o-4.5-iluvatar-FlagOS
Modalscope: MiniCPM-o-4.5-iluvatar-FlagOS
Huggingface: MiniCPM-o-4.5-hygon-FlagOS
Modalscope: MiniCPM-o-4.5-hygon-FlagOS
Huggingface: MiniCPM-o-4.5-nvidia-FlagOS
Modalscope: MiniCPM-o-4.5-nvidia-FlagOS
Modalscope: Qwen3.5-397B-A17B-nvidia-FlagOS
Huggingface: Qwen3.5-397B-A17B-metax-FlagOS
Modalscope: Qwen3.5-397B-A17B-metax-FlagOS
Modalscope: Qwen3-Next-80B-A3B-Instruct-FlagOS
Huggingface: Qwen3-Next-80B-A3B-Instruct-metax-FlagOS
Modalscope: Qwen3-Next-80B-A3B-Instruct-metax-FlagOS
Modalscope: Qwen3-32B-FlagOS
Huggingface: Qwen3-32B-ascend-FlagOS
Modalscope: Qwen3-32B-ascend-FlagOS
Modalscope: Qwen3-8B-metax-FlagOS
Huggingface: Qwen3-8B-FlagOS
Modalscope: Qwen3-8B-FlagOS
Huggingface: Qwen3-8B-mthreads-FlagOS
Modalscope: Qwen3-8B-mthreads-FlagOS
Modalscope: Emu3.5-FlagOS
Modalscope: MiniCPM_o_2.6-FlagOS-Cambricon
Huggingface: MiniCPM_o_2.6-FlagOS-NVIDIA
Modalscope: MiniCPM_o_2.6-FlagOS-NVIDIA
Modalscope: DeepSeek-V3.2-Exp-FlagOS
Modalscope: Qwen2.5-VL-32B-Instruct-FlagOS-Metax-BF16
Modalscope: Qwen2.5-VL-32B-Instruct-FlagOS-Nvidia
Modalscope: RoboBrain2.5-8B-FlagOS
Huggingface: RoboBrain2.5-8B-ascend-FlagOS
Modalscope: RoboBrain2.5-8B-ascend-FlagOS
Modalscope: gpt-oss-120b-FlagOS
Modalscope: Qwen3-4B-FlagOS-cambricon
Huggingface: Qwen3-4B-FlagOS-Nvidia
Modalscope: Qwen3-4B-FlagOS-Nvidia
Huggingface: Qwen3-4B-FlagOS-Iluvatar
Modalscope: Qwen3-4B-FlagOS-Iluvatar
Huggingface: Qwen3-4B-FlagOS-Metax
Modalscope: Qwen3-4B-FlagOS-Metax
Huggingface: Qwen3-4B-FlagOS-Ascend
Modalscope: Qwen3-4B-FlagOS-Ascend
Huggingface: Qwen3-4B-hygon-FlagOS
Modalscope: Qwen3-4B-hygon-FlagOS
Modalscope: Qwen3-30B-A3B-FlagOS-nvidia
Huggingface: Qwen3-30B-A3B-Iluvatar-FlagOS
Modalscope: Qwen3-30B-A3B-Iluvatar-FlagOS
Modalscope: RoboBrain2.0-32B-FlagOS
Huggingface: RoboBrain2.0-32B-Ascend-FlagOS
Modalscope: RoboBrain2.0-32B-Ascend-FlagOS
Modalscope: Qwen3-235B-A22B-Instruct-2507-FlagOS
Huggingface: Qwen3-235B-A22B-Instruct-2507-hygon-FlagOS
Modalscope: Qwen3-235B-A22B-Instruct-2507-hygon-FlagOS
Modalscope: Seed-OSS-36B-Instruct-FlagOS
Modalscope: ERNIE-4.5-300B-A47B-PT-FlagOS
产出物操作使用示例
FlagRelease 的产出物包括经过验证的大模型文件以及一体化的 FlagOS Docker 镜像。利用这些产出物,用户可以快速在不同硬件上部署和运行大模型,无需自行迁移或配置复杂环境。 操作步骤示例:
示例应用场景: