目录

WeKnora Logo

Tencent%2FWeKnora | Trendshift

官方网站 微信对话开放平台 License 版本

| English | 简体中文 | 日本語 | 한국어 |

项目介绍架构设计核心特性快速开始文档开发指南

💡 WeKnora - 基于大模型的文档理解检索框架

📌 项目介绍

WeKnora(维娜拉) 是一款基于大语言模型(LLM)的智能知识管理与问答框架,专为企业级文档理解与语义检索场景打造。

WeKnora 提供快速问答智能推理两种问答模式。快速问答基于 RAG(Retrieval-Augmented Generation) 流水线,快速召回相关片段并生成回答,适合日常知识查询。智能推理基于 ReACT Agent 引擎,采用渐进式策略自主编排知识检索、MCP 工具和网络搜索,经过多轮迭代与反思逐步推导最终结论,适合多源信息整合与复杂任务。同时支持自定义智能体,灵活配置专属的知识库、工具集与系统提示词。两种模式按需选用,兼顾响应速度与推理深度。

框架支持从飞书等外部平台自动同步知识(更多数据源持续接入中),覆盖 PDF、Word、图片、Excel 等十余种文档格式,并可通过企业微信、飞书、Slack、Telegram 等 IM 频道直接提供问答服务。模型层面兼容 OpenAI、DeepSeek、Qwen(阿里云)、智谱、混元、Gemini、MiniMax、NVIDIA、Ollama 等主流厂商。全流程模块化设计,大模型、向量数据库、存储等组件均可灵活替换,支持本地与私有云部署,数据完全自主可控。

官网: https://weknora.weixin.qq.com

✨ 最新更新

v0.3.6 版本亮点:

  • ASR 语音识别:集成 ASR 模型,支持音频文件上传、文档内音频预览和语音转写能力
  • 数据源自动同步(飞书):完整的数据源管理功能,支持飞书 Wiki/云文档自动同步(增量/全量),同步日志与租户隔离
  • OIDC 统一认证:支持 OpenID Connect 登录,自动发现端点、自定义端点配置及用户信息字段映射
  • IM 引用回复上下文:IM 频道中提取引用消息并注入 LLM 提示词,实现上下文关联回复;非文本引用防幻觉处理
  • IM 线程会话模式:IM 频道支持按线程维度独立会话(Slack、Mattermost、飞书、Telegram),线程内多用户协作
  • 文档自动摘要:AI 生成文档摘要,可配置最大输入长度,文档详情页展示专属摘要区域
  • Tavily 网页搜索:新增 Tavily 搜索引擎;重构 Web Search Provider 架构,提升可扩展性
  • MCP 自动重连:MCP 工具调用断线自动重连
  • 并行工具调用:Agent 模式支持通过 errgroup 并发执行多个工具调用,加速复杂任务处理
  • Agent @提及范围限制:用户 @提及限制在 Agent 授权的知识库范围内,防止越权访问
  • 登录页性能优化:移除全部 backdrop-filter blur,精简动画元素,新增 GPU 合成加速提示

v0.3.5 版本亮点:

  • Telegram、钉钉 & Mattermost IM集成:新增Telegram机器人(webhook/长轮询,流式editMessageText回复)、钉钉机器人(webhook/Stream模式,AI卡片流式输出)和Mattermost适配器;IM频道现已覆盖企业微信、飞书、Slack、Telegram、钉钉、Mattermost共6个平台
  • IM斜杠命令与QA队列:可插拔斜杠命令框架(/help、/info、/search、/stop、/clear),配合有界QA工作池、用户级限流和基于Redis的多实例分布式协调
  • 推荐问题:Agent基于关联知识库自动生成上下文相关的推荐问题,在对话界面开场前展示;图片知识自动触发问题生成任务
  • VLM自动描述MCP工具返回图片:当MCP工具返回图片时,Agent通过配置的VLM模型自动生成文字描述,使不支持图片输入的LLM也能理解图片内容
  • Novita AI提供商:新增Novita AI,通过OpenAI兼容接口支持Chat、Embedding和VLLM模型类型
  • MCP工具名称稳定性:工具名称改为基于service.Name(跨重连保持稳定),新增唯一名称约束和碰撞防护;前端将snake_case工具名格式化为可读形式
  • 来源频道标记:知识条目和消息新增channel字段,记录来源(web/api/im/browser_extension),便于追溯
  • 重要修复:修复无知识库时Agent空响应、中文/emoji文档摘要UTF-8截断、租户设置更新时API密钥加密丢失、vLLM流式推理内容缺失、Rerank空段落过滤等问题
更早版本

v0.3.4 版本亮点:

  • IM机器人集成:支持企业微信、飞书、Slack IM频道,WebSocket/Webhook双模式,流式回复与知识库集成
  • 多模态图片支持:图片上传与多模态图片处理,增强会话管理能力
  • 手动知识下载:支持手动知识内容导出下载,文件名清洗与格式化处理
  • NVIDIA模型API:支持NVIDIA聊天模型API,自定义端点及VLM模型配置
  • Weaviate向量数据库:新增Weaviate向量数据库后端,用于知识检索
  • AWS S3存储:集成AWS S3存储适配器,配置界面及数据库迁移
  • AES-256-GCM加密:API密钥静态加密,采用AES-256-GCM增强安全性
  • 内置MCP服务:支持内置MCP服务,扩展Agent能力
  • 混合检索优化:按目标分组并复用查询向量,提升检索性能
  • Final Answer工具:新增final_answer工具及Agent耗时跟踪,优化Agent工作流

v0.3.3 版本亮点:

  • 父子分块策略:层级化的父子分块策略,增强上下文管理和检索精度
  • 知识库置顶:支持置顶常用知识库,快速访问
  • 兜底回复:无相关结果时的兜底回复处理及UI指示
  • Rerank段落清洗:Rerank模型段落清洗功能,提升相关性评分准确度
  • 存储桶自动创建:存储引擎连通性检查增强,支持自动创建存储桶
  • Milvus向量数据库:新增Milvus向量数据库后端,用于知识检索

v0.3.2 版本亮点:

  • 🔍 知识搜索:新增”知识搜索”入口,支持语义检索,可将检索结果直接带入对话窗口
  • ⚙️ 解析引擎与存储引擎配置:设置中支持配置各个来源的文档解析引擎和存储引擎信息,知识库中支持为不同类型文件选择不同的解析引擎
  • 🖼️ 本地存储图片渲染:本地存储模式下支持对话过程中图片的渲染,流式输出中图片占位效果优化
  • 📄 文档预览:使用内嵌的文档预览组件预览用户上传的原始文件
  • 🎨 交互优化:知识库、智能体、共享空间列表页面交互全面优化
  • 🗄️ Milvus支持:新增Milvus向量数据库后端,用于知识检索
  • 🌋 火山引擎TOS:新增火山引擎TOS对象存储支持
  • 📊 Mermaid渲染:对话中支持Mermaid图表渲染,全屏查看器支持缩放、导航和导出
  • 💬 对话批量管理:支持批量管理和一键删除所有会话
  • 🔗 远程URL创建知识:支持从远程文件URL创建知识条目
  • 🧠 记忆图谱预览:用户级记忆图谱可视化预览
  • 🔄 异步重新解析:支持异步API重新解析已有知识文档

v0.3.0 版本亮点:

  • 🏢 共享空间:共享空间管理,支持成员邀请、知识库和Agent跨成员共享,租户隔离检索
  • 🧩 Agent Skills:Agent技能系统,预置智能推理技能,基于沙盒的安全隔离执行环境
  • 🤖 自定义Agent:支持创建、配置和选择自定义Agent,知识库选择模式(全部/指定/禁用)
  • 📊 数据分析Agent:内置数据分析Agent,DataSchema工具支持CSV/Excel分析
  • 🧠 思考模式:支持LLM和Agent思考模式,智能过滤思考内容
  • 🔍 搜索引擎扩展:新增Bing和Google搜索引擎,与DuckDuckGo并列可选
  • 📋 FAQ增强:批量导入预检、相似问题、搜索结果匹配问题字段、大批量导入卸载至对象存储
  • 🔑 API Key认证:API Key认证机制,Swagger文档安全配置
  • 📎 输入框内选择:输入框中直接选择知识库和文件,@提及显示
  • ☸️ Helm Chart:完整的Kubernetes部署Helm Chart,支持Neo4j图谱
  • 🌍 国际化:新增韩语(한국어)支持
  • 🔒 安全加固:SSRF安全HTTP客户端、增强SQL验证、MCP stdio传输安全、沙盒化执行
  • 基础设施:Qdrant向量数据库支持、Redis ACL、可配置日志级别、Ollama嵌入优化、DISABLE_REGISTRATION控制

v0.2.0 版本亮点:

  • 🤖 Agent模式:新增ReACT Agent模式,支持调用内置工具、MCP工具和网络搜索,通过多次迭代和反思提供全面总结报告
  • 📚 多类型知识库:支持FAQ和文档两种类型知识库,新增文件夹导入、URL导入、标签管理和在线录入功能
  • ⚙️ 对话策略:支持配置Agent模型、普通模式模型、检索阈值和Prompt,精确控制多轮对话行为
  • 🌐 网络搜索:支持可扩展的网络搜索引擎,内置DuckDuckGo搜索引擎
  • 🔌 MCP工具集成:支持通过MCP扩展Agent能力,内置uvx、npx启动工具,支持多种传输方式
  • 🎨 全新UI:优化对话界面,支持Agent模式/普通模式切换,展示工具调用过程,知识库管理界面全面升级
  • 底层升级:引入MQ异步任务管理,支持数据库自动迁移,提供快速开发模式

🏗️ 架构设计

weknora-architecture.png

从文档解析、向量化、检索到大模型推理,全流程模块化解耦,组件可灵活替换与扩展。支持本地 / 私有云部署,数据完全自主可控,零门槛 Web UI 快速上手。

🧩 功能概览

🤖 智能对话

能力 详情
智能推理 ReACT 渐进式多步推理,自主编排知识检索、MCP 工具与网络搜索,支持自定义智能体
快速问答 基于知识库的 RAG 问答,快速准确地回答问题
工具调用 内置工具、MCP 工具、Skills 支持、网络搜索
对话策略 在线 Prompt 编辑、检索阈值调节、多轮上下文感知
推荐问题 基于知识库内容自动生成推荐问题

📚 知识管理

能力 详情
知识库类型 FAQ / 文档,支持文件夹导入、URL 导入、标签管理、在线录入
数据源导入 飞书知识库自动同步(更多数据源开发中),支持增量与全量同步
文档格式 PDF / Word / Txt / Markdown / HTML / 图片 / CSV / Excel / PPT / JSON
检索策略 BM25 稀疏召回 / Dense 稠密召回 / GraphRAG 图谱增强 / 父子分块 / 多维度索引
端到端测试 检索+生成全链路可视化,评估召回命中率、BLEU / ROUGE 等指标

🔌 集成与扩展

能力 详情
模型厂商 OpenAI / DeepSeek / Qwen(阿里云)/ 智谱 / 混元 / 豆包(火山引擎)/ Gemini / MiniMax / NVIDIA / Novita AI / SiliconFlow / OpenRouter / Ollama
向量数据库 PostgreSQL (pgvector) / Elasticsearch / Milvus / Weaviate / Qdrant
对象存储 本地 / 腾讯云COS / 火山引擎 TOS / MinIO / AWS S3 / 阿里云 OSS
IM 集成 企业微信 / 飞书 / Slack / Telegram / 钉钉 / Mattermost
网络搜索 DuckDuckGo / Bing / Google / Tavily

🛡️ 平台能力

能力 详情
部署 本地 / Docker / Kubernetes (Helm),支持私有化离线部署
界面 Web UI / RESTful API / Chrome Extension
任务管理 MQ 异步任务,版本升级自动数据库迁移
模型管理 集中配置,知识库级别模型选择,多租户共享内置模型

🚀 快速开始

🛠 环境要求

确保本地已安装以下工具:

📦 安装步骤

① 克隆代码仓库

# 克隆主仓库
git clone https://github.com/Tencent/WeKnora.git
cd WeKnora

② 配置环境变量

# 复制示例配置文件
cp .env.example .env

# 编辑 .env,填入对应配置信息
# 所有变量说明详见 .env.example 注释

③ 启动主服务

单独启动 Ollama(可选)

如果你在 .env 中配置了本地 Ollama 模型,还需要额外启动 Ollama 服务:

ollama serve > /dev/null 2>&1 &

激活不同组合的功能

  • 启动最小功能
docker compose up -d
  • 启动全部功能
docker compose --profile full up -d
  • 需要 tracing 日志
docker compose --profile jaeger up -d
  • 需要 neo4j 知识图谱
docker compose --profile neo4j up -d
  • 需要 minio 文件存储服务
docker compose --profile minio up -d
  • 多选项组合
docker compose --profile neo4j --profile minio up -d

④ 停止服务

docker compose down

🌐 服务访问地址

启动成功后,可访问以下地址:

  • Web UI:http://localhost
  • 后端 API:http://localhost:8080
  • 链路追踪(Jaeger):http://localhost:16686

📱 功能展示

智能问答对话
智能问答对话
Agent模式工具调用过程
Agent模式工具调用过程
知识库管理
知识库管理
对话设置
对话设置

文档知识图谱

WeKnora 支持将文档转化为知识图谱,展示文档中不同段落之间的关联关系。开启知识图谱功能后,系统会分析并构建文档内部的语义关联网络,不仅帮助用户理解文档内容,还为索引和检索提供结构化支撑,提升检索结果的相关性和广度。

具体配置请参考 知识图谱配置说明 进行相关配置。

配套MCP服务器

请参考 MCP配置说明 进行相关配置。

🔌 使用微信对话开放平台

WeKnora 作为微信对话开放平台的核心技术框架,提供更简便的使用方式:

  • 零代码部署:只需上传知识,即可在微信生态中快速部署智能问答服务,实现”即问即答”的体验
  • 高效问题管理:支持高频问题的独立分类管理,提供丰富的数据工具,确保回答精准可靠且易于维护
  • 微信生态覆盖:通过微信对话开放平台,WeKnora 的智能问答能力可无缝集成到公众号、小程序等微信场景中,提升用户交互体验

📘 文档

常见问题排查:常见问题排查

详细接口说明请参考:API 文档

产品规划与计划:路线图 (Roadmap)

🧭 开发指南

⚡ 快速开发模式(推荐)

如果你需要频繁修改代码,不需要每次重新构建 Docker 镜像!使用快速开发模式:

# 启动基础设施
make dev-start

# 启动后端(新终端)
make dev-app

# 启动前端(新终端)
make dev-frontend

开发优势:

  • ✅ 前端修改自动热重载(无需重启)
  • ✅ 后端修改快速重启(5-10秒,支持 Air 热重载)
  • ✅ 无需重新构建 Docker 镜像
  • ✅ 支持 IDE 断点调试

详细文档: 开发环境快速入门

📁 项目目录结构

WeKnora/
├── client/      # go客户端
├── cmd/         # 应用入口
├── config/      # 配置文件
├── docker/      # docker 镜像文件
├── docreader/   # 文档解析项目
├── docs/        # 项目文档
├── frontend/    # 前端项目
├── internal/    # 核心业务逻辑
├── mcp-server/  # MCP服务器
├── migrations/  # 数据库迁移脚本
└── scripts/     # 启动与工具脚本

🤝 贡献指南

我们欢迎社区用户参与贡献!如有建议、Bug 或新功能需求,请通过 Issue 提出,或直接提交 Pull Request。

🎯 贡献方式

  • 🐛 Bug修复: 发现并修复系统缺陷
  • 新功能: 提出并实现新特性
  • 📚 文档改进: 完善项目文档
  • 🧪 测试用例: 编写单元测试和集成测试
  • 🎨 UI/UX优化: 改进用户界面和体验

📋 贡献流程

  1. Fork项目 到你的GitHub账户
  2. 创建特性分支 git checkout -b feature/amazing-feature
  3. 提交更改 git commit -m 'Add amazing feature'
  4. 推送分支 git push origin feature/amazing-feature
  5. 创建Pull Request 并详细描述变更内容

🎨 代码规范

📝 提交规范

使用 Conventional Commits 规范:

feat: 添加文档批量上传功能
fix: 修复向量检索精度问题  
docs: 更新API文档
test: 添加检索引擎测试用例
refactor: 重构文档解析模块

🔒 安全声明

重要提示: 从 v0.1.3 版本开始,WeKnora 提供了登录鉴权功能,以增强系统安全性。在生产环境部署时,我们强烈建议:

  • 将 WeKnora 服务部署在内网/私有网络环境中,而非公网环境
  • 避免将服务直接暴露在公网上,以防止重要信息泄露风险
  • 为部署环境配置适当的防火墙规则和访问控制
  • 定期更新到最新版本以获取安全补丁和改进

👥 贡献者

感谢以下优秀的贡献者们:

Contributors

📄 许可证

本项目基于 MIT 协议发布。 你可以自由使用、修改和分发本项目代码,但需保留原始版权声明。

📈 项目统计

Star History Chart
邀请码