feat(attachment_processor): enhance error handling and content formatting for attachments Improved error handling in the attachment processing logic by providing detailed XML-like error messages for text, audio, and document processing failures. Updated the audio file content format to use XML tags for better structure, replacing the previous placeholder format. This update enhances the clarity of error reporting and improves the overall structure of attachment content.
feat(attachment_processor): enhance error handling and content formatting for attachments
This update enhances the clarity of error reporting and improves the overall structure of attachment content.
| English | 简体中文 | 日本語 | 한국어 |
项目介绍 • 架构设计 • 核心特性 • 快速开始 • 文档 • 开发指南
WeKnora(维娜拉) 是一款基于大语言模型(LLM)的智能知识管理与问答框架,专为企业级文档理解与语义检索场景打造。
WeKnora 提供快速问答与智能推理两种问答模式。快速问答基于 RAG(Retrieval-Augmented Generation) 流水线,快速召回相关片段并生成回答,适合日常知识查询。智能推理基于 ReACT Agent 引擎,采用渐进式策略自主编排知识检索、MCP 工具和网络搜索,经过多轮迭代与反思逐步推导最终结论,适合多源信息整合与复杂任务。同时支持自定义智能体,灵活配置专属的知识库、工具集与系统提示词。两种模式按需选用,兼顾响应速度与推理深度。
框架支持从飞书等外部平台自动同步知识(更多数据源持续接入中),覆盖 PDF、Word、图片、Excel 等十余种文档格式,并可通过企业微信、飞书、Slack、Telegram 等 IM 频道直接提供问答服务。模型层面兼容 OpenAI、DeepSeek、Qwen(阿里云)、智谱、混元、Gemini、MiniMax、NVIDIA、Ollama 等主流厂商。全流程模块化设计,大模型、向量数据库、存储等组件均可灵活替换,支持本地与私有云部署,数据完全自主可控。
官网: https://weknora.weixin.qq.com
v0.3.6 版本亮点:
v0.3.5 版本亮点:
v0.3.4 版本亮点:
v0.3.3 版本亮点:
v0.3.2 版本亮点:
v0.3.0 版本亮点:
DISABLE_REGISTRATION
v0.2.0 版本亮点:
从文档解析、向量化、检索到大模型推理,全流程模块化解耦,组件可灵活替换与扩展。支持本地 / 私有云部署,数据完全自主可控,零门槛 Web UI 快速上手。
🤖 智能对话
📚 知识管理
🔌 集成与扩展
🛡️ 平台能力
确保本地已安装以下工具:
# 克隆主仓库 git clone https://github.com/Tencent/WeKnora.git cd WeKnora
# 复制示例配置文件 cp .env.example .env # 编辑 .env,填入对应配置信息 # 所有变量说明详见 .env.example 注释
如果你在 .env 中配置了本地 Ollama 模型,还需要额外启动 Ollama 服务:
.env
ollama serve > /dev/null 2>&1 &
docker compose up -d
docker compose --profile full up -d
docker compose --profile jaeger up -d
docker compose --profile neo4j up -d
docker compose --profile minio up -d
docker compose --profile neo4j --profile minio up -d
docker compose down
启动成功后,可访问以下地址:
http://localhost
http://localhost:8080
http://localhost:16686
WeKnora 支持将文档转化为知识图谱,展示文档中不同段落之间的关联关系。开启知识图谱功能后,系统会分析并构建文档内部的语义关联网络,不仅帮助用户理解文档内容,还为索引和检索提供结构化支撑,提升检索结果的相关性和广度。
具体配置请参考 知识图谱配置说明 进行相关配置。
请参考 MCP配置说明 进行相关配置。
WeKnora 作为微信对话开放平台的核心技术框架,提供更简便的使用方式:
常见问题排查:常见问题排查
详细接口说明请参考:API 文档
产品规划与计划:路线图 (Roadmap)
如果你需要频繁修改代码,不需要每次重新构建 Docker 镜像!使用快速开发模式:
# 启动基础设施 make dev-start # 启动后端(新终端) make dev-app # 启动前端(新终端) make dev-frontend
开发优势:
详细文档: 开发环境快速入门
WeKnora/ ├── client/ # go客户端 ├── cmd/ # 应用入口 ├── config/ # 配置文件 ├── docker/ # docker 镜像文件 ├── docreader/ # 文档解析项目 ├── docs/ # 项目文档 ├── frontend/ # 前端项目 ├── internal/ # 核心业务逻辑 ├── mcp-server/ # MCP服务器 ├── migrations/ # 数据库迁移脚本 └── scripts/ # 启动与工具脚本
我们欢迎社区用户参与贡献!如有建议、Bug 或新功能需求,请通过 Issue 提出,或直接提交 Pull Request。
git checkout -b feature/amazing-feature
git commit -m 'Add amazing feature'
git push origin feature/amazing-feature
gofmt
使用 Conventional Commits 规范:
feat: 添加文档批量上传功能 fix: 修复向量检索精度问题 docs: 更新API文档 test: 添加检索引擎测试用例 refactor: 重构文档解析模块
重要提示: 从 v0.1.3 版本开始,WeKnora 提供了登录鉴权功能,以增强系统安全性。在生产环境部署时,我们强烈建议:
感谢以下优秀的贡献者们:
本项目基于 MIT 协议发布。 你可以自由使用、修改和分发本项目代码,但需保留原始版权声明。
| English | 简体中文 | 日本語 | 한국어 |
项目介绍 • 架构设计 • 核心特性 • 快速开始 • 文档 • 开发指南
💡 WeKnora - 基于大模型的文档理解检索框架
📌 项目介绍
WeKnora(维娜拉) 是一款基于大语言模型(LLM)的智能知识管理与问答框架,专为企业级文档理解与语义检索场景打造。
WeKnora 提供快速问答与智能推理两种问答模式。快速问答基于 RAG(Retrieval-Augmented Generation) 流水线,快速召回相关片段并生成回答,适合日常知识查询。智能推理基于 ReACT Agent 引擎,采用渐进式策略自主编排知识检索、MCP 工具和网络搜索,经过多轮迭代与反思逐步推导最终结论,适合多源信息整合与复杂任务。同时支持自定义智能体,灵活配置专属的知识库、工具集与系统提示词。两种模式按需选用,兼顾响应速度与推理深度。
框架支持从飞书等外部平台自动同步知识(更多数据源持续接入中),覆盖 PDF、Word、图片、Excel 等十余种文档格式,并可通过企业微信、飞书、Slack、Telegram 等 IM 频道直接提供问答服务。模型层面兼容 OpenAI、DeepSeek、Qwen(阿里云)、智谱、混元、Gemini、MiniMax、NVIDIA、Ollama 等主流厂商。全流程模块化设计,大模型、向量数据库、存储等组件均可灵活替换,支持本地与私有云部署,数据完全自主可控。
官网: https://weknora.weixin.qq.com
✨ 最新更新
v0.3.6 版本亮点:
v0.3.5 版本亮点:
更早版本
v0.3.4 版本亮点:
v0.3.3 版本亮点:
v0.3.2 版本亮点:
v0.3.0 版本亮点:
DISABLE_REGISTRATION控制v0.2.0 版本亮点:
🏗️ 架构设计
从文档解析、向量化、检索到大模型推理,全流程模块化解耦,组件可灵活替换与扩展。支持本地 / 私有云部署,数据完全自主可控,零门槛 Web UI 快速上手。
🧩 功能概览
🤖 智能对话
📚 知识管理
🔌 集成与扩展
🛡️ 平台能力
🚀 快速开始
🛠 环境要求
确保本地已安装以下工具:
📦 安装步骤
① 克隆代码仓库
② 配置环境变量
③ 启动主服务
单独启动 Ollama(可选)
如果你在
.env中配置了本地 Ollama 模型,还需要额外启动 Ollama 服务:激活不同组合的功能
④ 停止服务
🌐 服务访问地址
启动成功后,可访问以下地址:
http://localhosthttp://localhost:8080http://localhost:16686📱 功能展示
文档知识图谱
WeKnora 支持将文档转化为知识图谱,展示文档中不同段落之间的关联关系。开启知识图谱功能后,系统会分析并构建文档内部的语义关联网络,不仅帮助用户理解文档内容,还为索引和检索提供结构化支撑,提升检索结果的相关性和广度。
具体配置请参考 知识图谱配置说明 进行相关配置。
配套MCP服务器
请参考 MCP配置说明 进行相关配置。
🔌 使用微信对话开放平台
WeKnora 作为微信对话开放平台的核心技术框架,提供更简便的使用方式:
📘 文档
常见问题排查:常见问题排查
详细接口说明请参考:API 文档
产品规划与计划:路线图 (Roadmap)
🧭 开发指南
⚡ 快速开发模式(推荐)
如果你需要频繁修改代码,不需要每次重新构建 Docker 镜像!使用快速开发模式:
开发优势:
详细文档: 开发环境快速入门
📁 项目目录结构
🤝 贡献指南
我们欢迎社区用户参与贡献!如有建议、Bug 或新功能需求,请通过 Issue 提出,或直接提交 Pull Request。
🎯 贡献方式
📋 贡献流程
git checkout -b feature/amazing-featuregit commit -m 'Add amazing feature'git push origin feature/amazing-feature🎨 代码规范
gofmt格式化代码📝 提交规范
使用 Conventional Commits 规范:
🔒 安全声明
重要提示: 从 v0.1.3 版本开始,WeKnora 提供了登录鉴权功能,以增强系统安全性。在生产环境部署时,我们强烈建议:
👥 贡献者
感谢以下优秀的贡献者们:
📄 许可证
本项目基于 MIT 协议发布。 你可以自由使用、修改和分发本项目代码,但需保留原始版权声明。
📈 项目统计