init
SEEChat基于单模态专家缝合路线,通过可学习的桥接层将视觉模态的专家模型与文本模态的专家模型进行缝合,形成具备视觉理解能力的多模态对话模型。
开源V1.0版本的SEEChat,视觉模态基于CLIP-ViT,文本模态基于ChatGLM,可学习的桥接层参考BLIP-2以及LLAVA等前期工作,进行如下的两阶段训练:
GPU要求3090或者A100
conda env create -f environment.yml
从这里下载chatGLM所有的bin文件和ice_text.model,放于目录models/chatglm-6b中。从百度云盘下载权重文件checkpoint_100.pth,放于目录models/chatglm-6b中。其中提取码为 qiho
进入到目录: cd code运行启动脚本: sh demo_stage2.sh
启动后,即将开始一轮对话。当命令行显示“question”时,用户可以在终端输入问题,由seechat回答。当输入“break”时,本轮对话结束,进行下一轮对话。 实测效果如下:
版权所有:中国计算机学会技术支持:开源发展技术委员会 京ICP备13000930号-9 京公网安备 11010802032778号
SEEChat - 一见多模态对话模型
能力展示
1. 多轮视觉问答、代码生成、目标分类
2. Image Captioning
技术方案
SEEChat基于单模态专家缝合路线,通过可学习的桥接层将视觉模态的专家模型与文本模态的专家模型进行缝合,形成具备视觉理解能力的多模态对话模型。
开源V1.0版本的SEEChat,视觉模态基于CLIP-ViT,文本模态基于ChatGLM,可学习的桥接层参考BLIP-2以及LLAVA等前期工作,进行如下的两阶段训练:
使用说明
硬件说明
GPU要求3090或者A100
环境安装
conda env create -f environment.yml
模型与数据
模型下载
从这里下载chatGLM所有的bin文件和ice_text.model,放于目录models/chatglm-6b中。
从百度云盘下载权重文件checkpoint_100.pth,放于目录models/chatglm-6b中。其中提取码为 qiho
运行推理脚本
进入到目录: cd code
运行启动脚本: sh demo_stage2.sh
启动后,即将开始一轮对话。当命令行显示“question”时,用户可以在终端输入问题,由seechat回答。当输入“break”时,本轮对话结束,进行下一轮对话。 实测效果如下:
相关工作
中文
英文