Update README.md
欢迎访问360智脑官网 https://ai.360.com 体验更多更强大的功能。
🎉🎉🎉近日,奇虎360开源升级了自研的7B参数模型360Zhinao3-7B,现已上线Github开源社区 360zhinao3,可免费商用。模型各项能力得到全面提升,与10B以下的小参数量模型进行对比,360Zhinao3-7B在多个benchmark上,均取得第一的优异成绩。
开源模型包括:
360Zhinao3-7B 是在 360Zhinao2-7B 的基础上继续预训练了700B的高质量token,两者模型结构完全相同。模型效果上的提升,主要源于训练数据的质量的提升。
本次发布版本和下载链接见下表: | Size | Model | BF16 | |:-:|-|:-:| | 7B | 360Zhinao3-7B | 🤗 | | 7B | 360Zhinao3-7B-Instruct | 🤗 | | 7B | 360Zhinao3-7B-O1.5 | 🤗 |
我们使用了开源工具opencompass对模型进行多维度评估,模型的benchmark平均分在10B以下模型中排名第一,同尺寸具备竞争力。
我们在IFEval、MT-bench、CF-Bench三个流行的评测上对360Zhinao3-7B-Instruct模型进行了评测比较,MT-bench 和CFBench均在同级别开源模型中排名第一,具备较强竞争力。在IFEval (prompt strict) 仅次于glm4-9b,在7B尺寸上得分最高:
我们用之前智脑开源的 Light-R1 方法对360Zhinao3-7B-Instruct进行了长思维链的继续微调和RFT,GRPO。与最新的OpenThinker2-7B有一定差距,超越了之前的所有以通用Qwen2.5-7B-Instruct为基座的模型。
简单的示例来说明如何利用 🤗Transformers 快速使用 360Zhinao3-7B、360Zhinao3-7B-Instruct 以及 360Zhinao3-7B-O1.5
此代码演示使用transformers快速使用360Zhinao2-7B-Base模型进行推理
from transformers import AutoTokenizer, AutoModelForCausalLM from transformers.generation import GenerationConfig MODEL_NAME_OR_PATH = "qihoo360/360Zhinao3-7B" tokenizer = AutoTokenizer.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True).cuda() generation_config = GenerationConfig.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True) generation_config.max_new_tokens = 1024 inputs = tokenizer('中国二十四节气\n1. 立春\n2. 雨水\n3. 惊蛰\n4. 春分\n5. 清明\n', return_tensors='pt') inputs = inputs.to(model.device) pred = model.generate(input_ids=inputs["input_ids"], generation_config=generation_config) print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
此代码演示使用 🤗Transformers 快速使用 360Zhinao3-7B-Instruct 模型进行推理
from transformers import AutoTokenizer, AutoModelForCausalLM from transformers.generation import GenerationConfig MODEL_NAME_OR_PATH = "qihoo360/360Zhinao3-7B-Instruct" tokenizer = AutoTokenizer.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True).cuda() generation_config = GenerationConfig.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True) generation_config.max_new_tokens = 2048 messages = [] #round-1 print(f"user: 简单介绍一下刘德华") messages.append({"role": "user", "content": "简单介绍一下刘德华"}) input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt").to(model.device) pred = model.generate(input_ids=input_ids, generation_config=generation_config) response = tokenizer.decode(pred.cpu()[0][len(input_ids[0]):], skip_special_tokens=True) messages.append({"role": "assistant", "content": response}) print(f"gpt: {response}") #round-1 print(f"user: 他有什么代表作?") messages.append({"role": "user", "content": "他有什么代表作?"}) input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt").to(model.device) pred = model.generate(input_ids=input_ids, generation_config=generation_config) response = tokenizer.decode(pred.cpu()[0][len(input_ids[0]):], skip_special_tokens=True) messages.append({"role": "assistant", "content": response}) print(f"gpt: {response}")
import re import json from transformers import AutoTokenizer, AutoModelForCausalLM from transformers.generation import GenerationConfig MODEL_NAME_OR_PATH = "qihoo360/360Zhinao3-7B-O1.5" tokenizer = AutoTokenizer.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True).cuda() generation_config = GenerationConfig.from_pretrained( MODEL_NAME_OR_PATH, trust_remote_code=True) generation_config.max_new_tokens = 2048 def extract_thinking_and_answer(input_string): thinking, answer = "", "" # 提取答案 pattern_answer = r'.*</think>(.*)
360Zhinao3 (360智脑)
欢迎访问360智脑官网 https://ai.360.com 体验更多更强大的功能。
模型介绍
🎉🎉🎉近日,奇虎360开源升级了自研的7B参数模型360Zhinao3-7B,现已上线Github开源社区 360zhinao3,可免费商用。模型各项能力得到全面提升,与10B以下的小参数量模型进行对比,360Zhinao3-7B在多个benchmark上,均取得第一的优异成绩。
开源模型包括:
360Zhinao3-7B 是在 360Zhinao2-7B 的基础上继续预训练了700B的高质量token,两者模型结构完全相同。模型效果上的提升,主要源于训练数据的质量的提升。
更新信息
目录
下载地址
本次发布版本和下载链接见下表: | Size | Model | BF16 | |:-:|-|:-:| | 7B | 360Zhinao3-7B | 🤗 | | 7B | 360Zhinao3-7B-Instruct | 🤗 | | 7B | 360Zhinao3-7B-O1.5 | 🤗 |
模型评估
基础模型效果
我们使用了开源工具opencompass对模型进行多维度评估,模型的benchmark平均分在10B以下模型中排名第一,同尺寸具备竞争力。
Instruct模型效果
我们在IFEval、MT-bench、CF-Bench三个流行的评测上对360Zhinao3-7B-Instruct模型进行了评测比较,MT-bench 和CFBench均在同级别开源模型中排名第一,具备较强竞争力。在IFEval (prompt strict) 仅次于glm4-9b,在7B尺寸上得分最高:
长思维链模型效果
我们用之前智脑开源的 Light-R1 方法对360Zhinao3-7B-Instruct进行了长思维链的继续微调和RFT,GRPO。与最新的OpenThinker2-7B有一定差距,超越了之前的所有以通用Qwen2.5-7B-Instruct为基座的模型。
快速开始
简单的示例来说明如何利用 🤗Transformers 快速使用 360Zhinao3-7B、360Zhinao3-7B-Instruct 以及 360Zhinao3-7B-O1.5
🤗Transformers
Base模型推理
此代码演示使用transformers快速使用360Zhinao2-7B-Base模型进行推理
Instruct模型推理
此代码演示使用 🤗Transformers 快速使用 360Zhinao3-7B-Instruct 模型进行推理
长思维链模型推理