- name: "qwen2.5:7b"
backend: "ollama"
hostname: "http://localhost:11434" # Make sure to run ollama server
- name: "qwen3:1.7b"
backend: "ollama"
hostname: "http://localhost:11434" # Make sure to run ollama server
vim /path/to/Modelfile_LongerWriter_Qwen25-7b_Insrtuct
修改FROM路径:
# Modelfile generated by "ollama show"
# To build a new Modelfile based on this, replace FROM with:
# FROM qwen2.5:latest
FROM /path/to/your/LongerWriter-Qwen2.5-7B-Instruct.gguf # 本行需要修改
TEMPLATE """{{- if .Messages }}
{{- if or .System .Tools }}<|im_start|>system
{{- if .System }}
{{ .System }}
{{- end }}
{{- if .Tools }}
NAME ID SIZE MODIFIED
LongerWriter:latest b75cd7bdb646 15 GB 2 days ago
您需要编辑aios/config/config.yaml,将 llms 部分修改如下:
- name: "LongerWriter:latest"
backend: "ollama"
hostname: "http://localhost:11434" # Make sure to run ollama server
- name: "ShortComponentsWriter:latest"
backend: "ollama"
hostname: "http://localhost:11434" # Make sure to run ollama server
- name: "ExamWriter:latest"
backend: "ollama"
hostname: "http://localhost:11434" # Make sure to run ollama server
赛题题目:智能体操作系统中的多智能体协作技术
赛题说明:
多智能体协作系统借鉴了人类社会的协作原则,通过分工合作,结合各个智能体的优势,完成一些超出单个智能体能力范围的任务。例如,多智能体协作系统可以用于模拟和优化交通、能源、物流等领域的复杂系统,也可以用于设计和实现智能家居、智能城市、智能工厂等应用场景。随着多智能体协作系统的愈发复杂,在多智能体协作系统中实现高效的任务调度与协作,成为推动通用人工智能落地的重要课题。为此,AIOS应运而生。AIOS 是一个开源的大模型智能体操作系统,包含专门设计的大模型内核、智能体调度器、上下文管理器、内存与存储管理器、工具管理器以及访问控制机制,可有效管理大模型及外部工具等系统资源。基于此架构,AIOS 能显著提升智能体的任务执行效率,实测可达最高 2.1 倍的性能提升。通过对资源分配和大模型上下文切换的优化,AIOS 不仅在当前环境中展现出高效率和高可扩展性,也为未来实现更高水平的通用人工智能奠定了基础。
赛题要求:
本赛题基于 “Linux + AIOS + 端侧大模型(7B或8B)” 的环境,要求参赛队伍在 AIOS 框架内实现对多智能体协作的支持。具体要求如下:
评分标准:
功能完整性(50%):
应用效果(50%):
赛题联系人:
纪斌 jibin@nudt.edu.cn 涂宏魁 tuhkjet@foxmail.com 刘美燕 liumeiyan@kylinos.cn
参考资料:
参赛资源支持:
麒麟软件有限公司可提供软件开发环境
项目介绍
项目简介
随着生成式任务与自动化流程日益复杂,如何提升多智能体系统的并发执行效率与协作能力成为关键挑战。本作品聚焦于复杂任务中的多智能体协作问题,探索在大模型驱动的任务执行系统中,如何通过高效调度与资源管理机制提升整体协作效率。
本项目基于开源的大模型智能体操作系统 AIOS,构建了一套面向专利撰写场景的多智能体协作系统。AIOS 提供了包括智能体调度器、上下文管理器、内存与存储管理器、工具管理器与访问控制模块等核心组件,为任务划分、上下游依赖管理、并发执行与资源复用提供了坚实的系统支撑。
我们在此基础上设计了一套专利写作智能体协作工作流,该任务本身具有文本长度大、上下文强依赖、结构复杂等特点,传统单智能体难以高质量完成。借助 AIOS 提供的 API 开发套件,我们将该任务拆分为 13 个具有依赖关系的子任务,并构建了一个包含 13个智能体的协同系统:
整个系统部署在 Linux 环境下,依托本地大语言模型平台(以 Qwen2.5 7B 为例),实现了结构化长文本生成任务的完整协作闭环,并展示了 AIOS 在智能体协作方面的应用价值与平台优势。
项目意义
本作品的创新价值与实践意义体现在以下三个方面:
系统架构
系统具备任务并行调度、模块独立部署、自然容灾与中间存储恢复能力,支持多阶段状态可视追踪,适用于复杂专利自动撰写场景。
核心文件结构
实验结果
使用AIOS的效率提升
实验环境
实验结果
生成质量提升
实验环境
实验结果
注:由于中文自然语言处理的特性,分词方式对BLEU和ROUGE指标影响较大,导致绝对值偏低。因此,本实验的重点在于比较两种模式在多个维度上的相对差异。
压力测试
实验环境
实验结果
在10个并发任务的压力下,系统依然能够稳定运行并完成所有任务,证明了AIOS框架在资源调度和管理上的鲁棒性。在20个任务的压力下,表现出良好的容错性。
容灾能力测试
在本系统中,我们设计了多种场景以验证多智能体架构下的容灾能力。测试结果显示,无论是智能体故障、文件 I/O 异常,还是系统异常退出,容灾机制均被成功触发,且均实现了100%的正确处理率。具体如下表所示:
上述结果表明,系统在关键组件异常的情况下具备稳定、可靠的自恢复能力,能够保障整体任务流程不中断,提升系统的健壮性和实际部署可靠性。
环境准备
Python版本
步骤一、克隆源码
步骤二、准备环境
使用 Conda 创建虚拟环境(仅支持 Python 3.10 或 3.11):
步骤三、配置 AIOS
安装AIOS 核心环境依赖:
安装AIOS SDK环境依赖:
步骤四、配置AutoPatent
安装AutoPatent环境依赖:
快速开始
步骤一、准备模型
您可以使用API 或 本地模型作为大语言模型的后端服务,如果您只是需要演示 AutoPatent 的工作流,可以选择使用API;如果您希望使用本地模型,则需要确保 Ollama 或 vLLM 服务已正确安装并运行。
选择1、使用API(快速开始)
若您需要外部服务的 API 密钥,请确保服务器与服务商直接网络可用。配置这些密钥最简单的方法是编辑
aios/config/config.yaml,我们推荐使用Gemini。获取 API keys 的方式:
您需要编辑
aios/config/config.yaml,将llms部分修改如下:您需要编辑
AutoPatent/config/config.py,将BaseShortComponentsAgent_LLM_CONFIG、BaseExamAgent_LLM_CONFIG和DetailExamAgent修改为以下内容:选择2、使用Ollama
Ollama 是一个开源的 LLM 服务,支持多种模型。您可以通过以下命令安装 Ollama:
选择2.1 使用未经微调的模型(推荐)
您可以通过以下命令直接从Ollama下载所需的模型。
您需要编辑
aios/config/config.yaml,将llms部分修改如下:您需要编辑
AutoPatent/config/config.py,将BaseShortComponentsAgent_LLM_CONFIG、BaseExamAgent_LLM_CONFIG和DetailExamAgent修改为以下内容:在运行AIOS前你需要启动ollama服务
选择2.2 使用微调的模型(稍复杂)
您可以通过以下百度云链接下载经过微调过的模型参数。接下来,我们将以
Modelfile_LongerWriter_Qwen25-7b_Insrtuct为例,讲解如何使用上述模型参数在Ollama上创建模型,其余两个模型同理。修改Makefile中gguf实际存储路径
修改FROM路径:
创建模型
命令运行成功后,运行:
以验证是否成功添加到ollama支持列表,如果成功应该显示为:
您需要编辑
aios/config/config.yaml,将llms部分修改如下:您需要编辑
AutoPatent/config/config.py,将BaseShortComponentsAgent_LLM_CONFIG、BaseExamAgent_LLM_CONFIG和DetailExamAgent修改为以下内容:在运行AIOS前你需要启动ollama服务
选择3、使用vLLM(算力要求高)
vLLM 是一个高性能的 LLM 服务,支持多种模型。您可以通过以下命令安装 vLLM:
安装完成后,您需要下载所需的模型。项目中使用 Qwen 系列模型。使用
download_model.py脚本下载模型。模型保存到/root/your-path/目录(根据您的需求修改)。python download_model.py(脚本中已配置)。模型准备后,需要通过以下3条命令启动 vLLM 服务,将3个模型分别部署在3张显卡上,并通过端口区分:
您需要编辑
aios/config/config.yaml,将llms部分修改如下:您需要编辑
AutoPatent/config/config.py,将BaseShortComponentsAgent_LLM_CONFIG、BaseExamAgent_LLM_CONFIG和DetailExamAgent修改为以下内容:步骤二、启动 AIOS 内核
确保您已经完成上述模型准备。如果您运行的是本地模型,确保 Ollama 或 vLLM 服务已启动并运行在指定端口。可通过以下命令启动 AIOS:
若您在该步骤遇到问题,可以在
README_AIOS.md中参照更详细的配置指南。步骤三、启动多智能体自动专利生成
在服务器上启动 AutoPatent 的简易后端,如果您不希望展示历史记录,建议您在开启后段前预先清空
output或noAIOS_output文件夹下的记录文件: 运行成果后您应该看到如下内容:进入 AutoPatent 目录: 如果需要一键运行整个流程,可以使用
run.sh -draft_num -mode运行脚本。您可以通过以下命令在AIOS框架下并行处理3篇草稿: 如果脚本正确运行,您应该看到如下内容: