# mineru-tianshu **Repository Path**: magic_yuan_admin/mineru-tianshu ## Basic Information - **Project Name**: mineru-tianshu - **Description**: 天枢 - 企业级多GPU文档解析服务 | PDF/Office转Markdown | 支持MCP协议AI助手集成 | Vue3+FastAPI全栈方案 - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 2 - **Forks**: 1 - **Created**: 2025-10-17 - **Last Updated**: 2025-10-30 ## Categories & Tags **Categories**: doc-tools **Tags**: None ## README
# MinerU Tianshu 天枢 **企业级 AI 数据预处理平台** 支持文档、图片、音频等多模态数据处理 | GPU 加速 | MCP 协议 结合 Vue 3 前端 + FastAPI 后端 + LitServe GPU负载均衡

Stars Forks License

Python Vue FastAPI CUDA MCP

[![Verified on MseeP](https://mseep.ai/badge.svg)](https://mseep.ai/app/819ff68b-5154-4717-9361-7db787d5a2f8) [English](./README_EN.md) | 简体中文

Star

**如果这个项目对你有帮助,请点击右上角 ⭐ Star 支持一下,这是对开发者最大的鼓励!**
--- ## 📝 最新更新 ### 2025-10-30 🐳 Docker 部署 + 企业级认证系统 - ✅ **Docker 容器化部署支持** - **一键部署**:`make setup` 或运行部署脚本即可完成全栈部署 - **多阶段构建**:优化镜像体积,分离依赖层和应用层 - **GPU 支持**:NVIDIA CUDA 12.6 + Container Toolkit 集成 - **服务编排**:前端、后端、Worker、MCP 完整编排(docker-compose) - **开发友好**:支持热重载、远程调试(debugpy)、实时日志 - **生产就绪**:健康检查、数据持久化、零停机部署、资源限制 - **跨平台脚本**: - Linux/Mac: `scripts/docker-setup.sh` 或 `Makefile` - Windows: `scripts/docker-setup.bat` - **完整文档**:`scripts/DOCKER_QUICK_START.txt`、`scripts/docker-commands.sh` - 详见:Docker 配置文件(`docker-compose.yml`、`backend/Dockerfile`、`frontend/Dockerfile`) - ✅ **企业级用户认证与授权系统** - **JWT 认证**:安全的 Token 认证机制,支持 Access Token 和 Refresh Token - **用户数据隔离**:每个用户只能访问和管理自己的任务数据 - **角色权限**:管理员(admin)和普通用户(user)角色 - **API Key 管理**:用户可自助生成和管理 API 密钥,用于第三方集成 - **用户管理**:管理员可管理所有用户、重置密码、启用/禁用账户 - **SSO 预留接口**:支持 OIDC 和 SAML 2.0 单点登录(可选配置) - **前端集成**:登录/注册页面、用户中心、权限路由守卫 - **数据库迁移**:自动为现有数据创建默认用户 - 详见:`backend/auth/` 目录 ### 2025-10-29 🧬 生物信息学格式支持 - ✅ **新增插件化格式引擎系统** - 支持专业领域文档格式的解析和结构化 - 统一的引擎接口,易于扩展新格式 - 为 RAG 应用提供 Markdown 和 JSON 双格式输出 - ✅ **生物信息学格式引擎** - **FASTA 格式**:DNA/RNA/蛋白质序列解析 - 序列统计(数量、长度、平均值) - 碱基组成分析(A/T/G/C 比例) - 序列类型自动检测(DNA/RNA/蛋白质) - **GenBank 格式**:NCBI 基因序列注释格式 - 完整的注释信息提取 - 特征类型统计(gene/CDS/mRNA 等) - GC 含量计算和生物物种信息 - 支持 BioPython 或内置解析器(可选依赖) - 详见:`backend/format_engines/README.md` ### 2025-10-27 🎨 水印去除支持(🧪 实验性) - ✅ **智能水印检测与去除** - YOLO11x 专用检测模型 + LaMa 高质量修复 - 支持图片(PNG/JPG/JPEG 等)和 PDF(可编辑/扫描件) - 前端可调参数:检测置信度、去除范围 - 自动保存调试文件(检测可视化、掩码等) - 轻量模型,处理速度快,显存占用低 > **⚠️ 实验性功能**:某些特殊水印可能效果不佳,建议先小范围测试。 > 📖 **详细说明**:[水印去除优化指南](backend/remove_watermark/README.md) ### 2025-10-24 🎬 视频处理支持 - ✅ **新增视频处理引擎** - 支持 MP4、AVI、MKV、MOV、WebM 等主流视频格式 - **音频转写**:从视频中提取音频并转写为文字(基于 FFmpeg + SenseVoice) - **关键帧 OCR(🧪 实验性)**:自动提取视频关键帧并进行 OCR 识别 - 场景检测:基于帧差异的自适应场景变化检测 - 质量过滤:拉普拉斯方差 + 亮度评估 - 图像去重:感知哈希(pHash)+ 汉明距离 - 文本去重:编辑距离算法避免重复内容 - 支持 PaddleOCR-VL 和 DeepSeek OCR 两种引擎 - 支持多语言识别、说话人识别、情感识别 - 输出带时间戳的文字稿(JSON 和 Markdown 格式) - 详见:`backend/video_engines/README.md` ### 2025-10-23 🎙️ 音频处理引擎 - ✅ **新增 SenseVoice 音频识别引擎** - 支持多语言识别(中文/英文/日文/韩文/粤语) - 内置说话人识别(Speaker Diarization) - 情感识别(中性/开心/生气/悲伤) - 输出 JSON 和 Markdown 格式 - 详见:`backend/audio_engines/README.md` ### 2025-10-23 ✨ **🎯 支持内容结构化 JSON 格式输出** - MinerU (pipeline) 和 PaddleOCR-VL 引擎现在支持输出结构化的 JSON 格式 - JSON 输出包含完整的文档内容结构信息(页面、段落、表格等) - 用户可在任务详情页面切换查看 Markdown 或 JSON 格式 - 前端提供交互式 JSON 查看器,支持展开/收起、复制、下载等功能 **🎉 新增 PaddleOCR-VL 多语言 OCR 引擎** - 支持 109+ 语言自动识别,无需手动指定语言 - 文档方向分类、文本图像矫正、版面区域检测等增强功能 - 原生 PDF 多页文档支持,模型自动下载管理 - 详细文档:[backend/paddleocr_vl/README.md](backend/paddleocr_vl/README.md) ### 2025-10-22 **集成 DeepSeek OCR 高精度引擎** - 支持多种分辨率和提示词类型配置 - 详细文档:[backend/deepseek_ocr/README.md](backend/deepseek_ocr/README.md) --- ## 🌟 项目简介 MinerU Tianshu(天枢)是一个**企业级 AI 数据预处理平台**,将各种非结构化数据转换为 AI 可用的结构化格式: - **📄 文档处理**: PDF、Word、Excel、PPT → Markdown/JSON - MinerU Pipeline(完整解析)、DeepSeek OCR(高精度)、PaddleOCR-VL(109+ 语言) - **🧪 水印去除(实验性)**:YOLO11x + LaMa 智能检测与去除 - **🎬 视频处理**: MP4、AVI、MKV、MOV → 语音转写 + 关键帧 OCR - 视频音频提取(FFmpeg)+ 语音识别(SenseVoice) - **🧪 关键帧 OCR(实验性)**:场景检测 + 质量过滤 + 图像去重 + OCR 识别 - 支持多语言、说话人识别、情感识别 - **🎙️ 音频处理**: MP3、WAV、M4A → 文字转写 + 说话人识别 - SenseVoice 引擎,支持多语言、情感识别、事件检测 - **🖼️ 图片处理**: JPG、PNG → 文字提取 + 结构化 - 多种 OCR 引擎可选,GPU 加速 - **🧪 水印去除预处理(实验性)**:智能检测水印并自动去除 - **🧬 生物信息学格式**: FASTA、GenBank → Markdown/JSON - 插件化格式引擎架构,易于扩展新格式 - 序列统计、碱基组成分析、特征注释提取 - 专为 RAG 应用设计的结构化输出 - **🏗️ 企业级特性**: - GPU 负载均衡、任务队列、优先级管理、自动重试 - MCP 协议支持,可被 AI 助手(Claude Desktop 等)直接调用 - 现代化 Web 界面,易于管理和监控 ## ✨ 核心亮点

现代化界面
Vue 3 + TypeScript + TailwindCSS

GPU 加速
LitServe 负载均衡 + 多GPU隔离

多模态处理
文档/图片/音频 → 结构化数据

MCP 协议
AI 助手无缝集成
## 📸 功能展示
### 📊 仪表盘 - 实时监控 仪表盘 *实时监控队列统计和最近任务* --- ### 📤 任务提交 - 文件拖拽上传 任务提交 *支持批量处理和高级配置* --- ### ⚙️ 队列管理 - 系统监控 队列管理 *重置超时任务、清理旧文件*
### 主要功能 - ✅ **用户认证**: 基于 JWT 的安全认证,角色权限控制 - ✅ **仪表盘**: 实时监控队列统计和最近任务 - ✅ **任务提交**: 文件拖拽上传,支持批量处理和高级配置 - ✅ **任务详情**: 实时状态追踪,Markdown/JSON 预览,自动轮询更新 - ✅ **任务列表**: 筛选、搜索、分页、批量操作 - ✅ **队列管理**: 系统监控,重置超时任务,清理旧文件 - ✅ **用户管理**: 管理员控制台,用户管理,API 密钥生成 - ✅ **MCP 协议支持**: 通过 Model Context Protocol 支持 AI 助手调用 - ✅ **Docker 支持**: 一键部署,完整容器化方案 ### 支持的文件格式 - 📄 **PDF 和图片** - 支持三种 GPU 加速引擎 - **MinerU**: 完整文档解析,支持表格、公式识别 - **DeepSeek OCR**: 高精度 OCR 识别,适合需要极致精度的场景 - **PaddleOCR-VL**: 多语言 OCR(109+ 语言),自动方向矫正和版面分析 - 📊 **Office 文档** - Word、Excel、PowerPoint(使用 MarkItDown) - 🌐 **网页和文本** - HTML、Markdown、TXT、CSV 等 - 🎙️ **音频文件** - MP3、WAV、M4A、FLAC 等(使用 SenseVoice) - 多语言识别(中文/英文/日文/韩文/粤语) - 说话人识别和分离 - 情感识别(中性/开心/生气/悲伤) - 输出 JSON 和 Markdown 格式 - 🧬 **生物信息学格式** - FASTA、GenBank(使用插件化格式引擎) - **FASTA**: DNA/RNA/蛋白质序列解析 - **GenBank**: NCBI 基因序列注释格式 - 序列统计、碱基组成分析、GC 含量计算 - 支持 BioPython 或内置解析器 - 输出 Markdown 和 JSON 格式 ## 🏗️ 项目结构 ``` mineru-server/ ├── frontend/ # Vue 3 前端项目 │ ├── src/ │ │ ├── api/ # API 接口层 │ │ ├── components/ # 通用组件 │ │ ├── layouts/ # 布局组件 │ │ ├── views/ # 页面组件 │ │ ├── stores/ # Pinia 状态管理 │ │ ├── router/ # Vue Router │ │ └── utils/ # 工具函数 │ ├── package.json │ ├── vite.config.ts │ └── README.md # 前端文档 │ ├── backend/ # Python 后端项目 │ ├── api_server.py # FastAPI 服务器 │ ├── task_db.py # 数据库管理 │ ├── auth/ # 认证授权模块 │ │ ├── jwt_handler.py # JWT Token 处理 │ │ ├── models.py # 用户数据模型 │ │ ├── routes.py # 认证路由 │ │ ├── dependencies.py # 依赖注入 │ │ └── sso.py # SSO 支持(可选) │ ├── audio_engines/ # 音频处理引擎 │ │ ├── sensevoice_engine.py # SenseVoice 引擎 │ │ └── README.md # 音频引擎文档 │ ├── format_engines/ # 格式引擎(专业领域文档) │ │ ├── base.py # 格式引擎基类 │ │ ├── fasta_engine.py # FASTA 格式引擎 │ │ ├── genbank_engine.py # GenBank 格式引擎 │ │ └── README.md # 格式引擎文档 │ ├── video_engines/ # 视频处理引擎 │ │ ├── video_engine.py # 视频处理引擎 │ │ ├── keyframe_extractor.py # 关键帧提取 │ │ └── README.md # 视频引擎文档 │ ├── remove_watermark/ # 水印去除模块 │ │ ├── watermark_remover.py # 水印去除器 │ │ ├── pdf_watermark_handler.py # PDF 水印处理 │ │ └── README.md # 水印去除文档 │ ├── litserve_worker.py # Worker Pool │ ├── task_scheduler.py # 任务调度器 │ ├── mcp_server.py # MCP 协议服务器(可选) │ ├── start_all.py # 启动脚本 │ ├── Dockerfile # Docker 镜像构建文件 │ ├── requirements.txt │ ├── README.md # 后端文档 │ └── MCP_GUIDE.md # MCP 详细指南 │ ├── scripts/ # 部署和工具脚本 │ ├── docker-setup.sh # Linux/Mac Docker 部署脚本 │ ├── docker-setup.bat # Windows Docker 部署脚本 │ ├── docker-entrypoint.sh # Docker 容器入口脚本 │ ├── docker-commands.sh # Docker 常用命令参考 │ └── DOCKER_QUICK_START.txt # Docker 快速入门指南 │ ├── docker-compose.yml # Docker Compose 生产环境配置 ├── docker-compose.dev.yml # Docker Compose 开发环境配置 ├── Makefile # Docker 快捷命令(make setup/start/stop) ├── .dockerignore # Docker 构建忽略文件 ├── .env.example # 环境变量配置模板 ├── mcp_config.example.json # MCP 配置示例 └── README.md # 本文件 ``` ## 🚀 快速开始 Tianshu (天枢) 提供**两种部署方式**: ### 方式一:Docker 部署(⭐ 推荐,企业级生产环境) **适用场景**:生产部署、团队协作、需要容器化和服务编排 #### 前置要求 - **Docker** 20.10+ - **Docker Compose** 2.0+ - **NVIDIA Container Toolkit**(GPU 支持,可选) - 16GB+ RAM - 50GB+ 可用磁盘空间 #### 一键部署 ```bash # 使用 Makefile(推荐) make setup # 或使用部署脚本 # Linux/Mac ./scripts/docker-setup.sh # Windows scripts\docker-setup.bat ``` #### 常用命令 ```bash make start # 启动服务 make stop # 停止服务 make logs # 查看日志 make status # 查看状态 make dev # 启动开发环境 ``` #### 服务访问 - 前端界面: - API 文档: - Worker: - MCP: **详细文档**:参见 `scripts/DOCKER_QUICK_START.txt` --- ### 方式二:本地开发部署 **适用场景**:快速测试、本地开发、学习研究 #### 前置要求 - **Node.js** 18+ (前端) - **Python** 3.8+ (后端) - **CUDA** (可选,用于 GPU 加速) ### 环境准备(推荐) **推荐使用自动安装脚本**,它会自动检测系统环境并安装所有依赖: ```bash # 进入后端目录 cd backend # Linux/macOS bash install.sh # Windows powershell -ExecutionPolicy Bypass -File install.ps1 ``` 安装脚本会自动完成: - ✅ 检测 Python 版本 - ✅ 安装系统依赖(libgomp1、ffmpeg 等) - ✅ 安装 Python 依赖(MinerU、FunASR、OCR 引擎等) - ✅ 验证环境配置 如果自动安装失败,可以手动安装依赖: ```bash pip install -r requirements.txt ``` ### 1. 启动后端服务 ```bash # 进入后端目录(如已在该目录可跳过) cd backend # 一键启动所有服务 python start_all.py # 如果需要启用 MCP 协议支持(用于 AI 助手调用) python start_all.py --enable-mcp ``` 后端服务将在以下端口启动: - API Server: - API 文档: - Worker Pool: - MCP Server: (如启用) ### 2. 启动前端服务 ```bash # 进入前端目录 cd frontend # 安装依赖 npm install # 启动开发服务器 npm run dev ``` 前端服务将在 启动 ### 3. 访问应用 打开浏览器访问 ## 📖 使用指南 ### 提交任务 1. 点击顶部导航栏的 "提交任务" 2. 拖拽或点击上传文件(支持批量上传) 3. 配置解析选项: - 选择处理后端 (pipeline/vlm-transformers/vlm-vllm-engine/deepseek-ocr) - **pipeline**: MinerU 标准流程,适合通用文档解析 - **vlm-transformers**: MinerU VLM 模式(Transformers) - **vlm-vllm-engine**: MinerU VLM 模式(vLLM 引擎) - **deepseek-ocr**: DeepSeek OCR 引擎,适合高精度 OCR 需求 - 设置文档语言 - 启用公式/表格识别 - 设置任务优先级 4. 点击 "提交任务" ### 查看任务状态 1. 在仪表盘或任务列表中找到你的任务 2. 点击 "查看" 进入任务详情页 3. 页面会自动轮询更新任务状态 4. 任务完成后可以: - 预览 Markdown 结果 - 下载 Markdown 文件 - 查看处理时长和错误信息(如果失败) ### 管理队列 1. 点击顶部导航栏的 "队列管理" 2. 查看实时队列统计 3. 执行管理操作: - 重置超时任务 - 清理旧任务文件 - 系统健康检查 ## 🎯 核心特性 ### 前端特性 - **现代化 UI**: 基于 TailwindCSS 的美观界面 - **响应式设计**: 完美适配桌面端和移动端 - **实时更新**: 自动刷新队列统计和任务状态 - **批量操作**: 支持批量文件上传和任务管理 - **Markdown 预览**: 实时渲染解析结果,支持代码高亮 ### 后端特性 - **Worker 主动拉取**: 0.5秒响应速度,无需调度器触发 - **并发安全**: 原子操作防止任务重复,支持多Worker并发 - **GPU 负载均衡**: LitServe 自动调度,避免显存冲突 - **多GPU隔离**: 每个进程只使用分配的GPU - **自动清理**: 定期清理旧结果文件,保留数据库记录 - **多解析引擎**: - **MinerU**: 完整文档解析,支持表格、公式识别 - **DeepSeek OCR**: 高精度 OCR 识别,支持多种分辨率和提示词类型 - **PaddleOCR-VL**: 多语言 OCR(109+ 语言),文档增强处理 - **MarkItDown**: Office 文档和网页解析 - **格式引擎**: 插件化专业格式支持(FASTA、GenBank 等) - **MCP 协议**: 支持 AI 助手通过标准协议调用文档解析服务 ## ⚙️ 配置说明 ### 后端配置 ```bash # 自定义启动配置 python backend/start_all.py \ --output-dir /data/output \ --api-port 8000 \ --worker-port 9000 \ --accelerator cuda \ --devices 0,1 \ --workers-per-device 2 # 启用 MCP 协议支持 python backend/start_all.py --enable-mcp --mcp-port 8001 ``` 详见 [backend/README.md](backend/README.md) ### MCP 协议集成 MinerU Tianshu 支持 **Model Context Protocol (MCP)**,可以让 AI 助手(如 Claude Desktop)直接调用文档解析服务。 #### 什么是 MCP? MCP 是 Anthropic 推出的开放协议,让 AI 助手可以直接调用外部工具和服务,无需手动 API 集成。 #### 快速配置 **1. 启动服务(启用 MCP)** ```bash cd backend python start_all.py --enable-mcp ``` 服务启动后,MCP Server 将在端口 8001 运行。 > **📝 版本兼容性说明**:项目使用 mcp 1.18.0 和 litserve 0.2.16。为确保兼容性,在 `litserve_worker.py` 中已自动应用兼容性补丁,无需手动配置。 **2. 配置 Claude Desktop** 编辑配置文件(根据你的操作系统): - **Windows**: `%APPDATA%\Claude\claude_desktop_config.json` - **macOS**: `~/Library/Application Support/Claude/claude_desktop_config.json` - **Linux**: `~/.config/Claude/claude_desktop_config.json` 添加以下内容: ```json { "mcpServers": { "mineru-tianshu": { "url": "http://localhost:8001/sse", "transport": "sse" } } } ``` **远程服务器部署:** 将 `localhost` 替换为服务器 IP: ```json { "mcpServers": { "mineru-tianshu": { "url": "http://your-server-ip:8001/sse", "transport": "sse" } } } ``` **3. 重启 Claude Desktop** 配置完成后,重启 Claude Desktop 使配置生效。 **4. 开始使用** 在 Claude 对话中,直接使用自然语言: ``` 帮我解析这个 PDF 文件:C:/Users/user/document.pdf ``` 或: ``` 请解析这个在线论文:https://arxiv.org/pdf/2301.12345.pdf ``` Claude 会自动: 1. 读取文件或下载 URL 2. 调用 MinerU Tianshu 解析服务 3. 等待处理完成 4. 返回 Markdown 格式的解析结果 #### 支持的功能 MCP Server 提供 4 个工具: 1. **parse_document** - 解析文档为 Markdown 格式 - 输入方式:Base64 编码(< 100MB)或 URL - 支持格式:PDF、图片、Office 文档、网页和文本 2. **get_task_status** - 查询任务状态和结果 3. **list_tasks** - 列出最近的任务 4. **get_queue_stats** - 获取队列统计信息 #### 技术架构 ``` Claude Desktop (客户端) ↓ MCP Protocol (SSE) MCP Server (Port 8001) ↓ HTTP REST API API Server (Port 8000) ↓ Task Queue LitServe Worker Pool (Port 9000) ↓ GPU Processing MinerU / MarkItDown ``` #### 常见问题 **Q: MCP Server 无法启动?** - 检查端口 8001 是否被占用 - 使用 `--mcp-port` 指定其他端口 **Q: Claude Desktop 无法连接?** 1. 确认 MCP Server 正在运行:访问 `http://localhost:8001/health` 2. 检查配置文件 JSON 格式是否正确 3. 确认端点 URL 是 `/sse` 而不是 `/mcp/sse` 4. 重启 Claude Desktop **Q: 文件传输失败?** - 小文件自动使用 Base64 编码 - 大文件(> 100MB)会返回错误 - URL 文件需要公开可访问 **详细文档:** [backend/MCP_GUIDE.md](backend/MCP_GUIDE.md) ### 前端配置 开发环境修改 `frontend/.env.development`: ``` VITE_API_BASE_URL=http://localhost:8000 ``` 生产环境修改 `frontend/.env.production`: ``` VITE_API_BASE_URL=/api ``` 详见 [frontend/README.md](frontend/README.md) ## 🚢 生产部署 ### 前端构建 ```bash cd frontend npm run build ``` 构建产物在 `frontend/dist/` 目录。 ### Nginx 配置示例 ```nginx server { listen 80; server_name your-domain.com; # 前端静态文件 root /path/to/frontend/dist; index index.html; # 前端路由 location / { try_files $uri $uri/ /index.html; } # API 代理到后端 location /api/ { proxy_pass http://localhost:8000/api/; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } ``` ### 后端部署 使用 systemd 或 supervisor 管理后端服务: ```bash # 启动后端 cd backend python start_all.py --api-port 8000 --worker-port 9000 ``` ## 📚 技术栈 ### 前端 - Vue 3 (Composition API) - TypeScript - Vite - TailwindCSS - Vue Router - Pinia - Axios - Marked (Markdown 渲染) - Highlight.js (代码高亮) - Lucide Vue (图标) ### 后端 - FastAPI - LitServe - MinerU - DeepSeek OCR - MarkItDown - SQLite - Loguru - MinIO (可选) ## 🔧 故障排查 ### 前端无法连接后端 检查后端是否正常运行: ```bash curl http://localhost:8000/api/v1/health ``` 检查前端代理配置: ```typescript // frontend/vite.config.ts server: { proxy: { '/api': { target: 'http://localhost:8000', changeOrigin: true, } } } ``` ### Worker 无法启动 检查 GPU 可用性: ```bash nvidia-smi ``` 检查 Python 依赖: ```bash pip list | grep -E "(mineru|litserve|torch)" ``` 更多故障排查,请参考: - [前端故障排查](frontend/README.md) - [后端故障排查](backend/README.md) ## 📄 API 文档 启动后端后,访问 查看完整的 API 文档。 主要 API 端点: - `POST /api/v1/tasks/submit` - 提交任务 - `GET /api/v1/tasks/{task_id}` - 查询任务状态 - `DELETE /api/v1/tasks/{task_id}` - 取消任务 - `GET /api/v1/queue/stats` - 获取队列统计 - `GET /api/v1/queue/tasks` - 获取任务列表 ## 🤝 贡献 欢迎提交 Issue 和 Pull Request! ## 🙏 鸣谢 本项目基于以下优秀的开源项目构建: **核心引擎** - [MinerU](https://github.com/opendatalab/MinerU) - PDF/图片文档解析 - [DeepSeek OCR](https://huggingface.co/deepseek-ai/DeepSeek-OCR) - 高精度 OCR 模型 - [PaddleOCR](https://github.com/PaddlePaddle/PaddleOCR) - 多语言 OCR 引擎 - [SenseVoice](https://github.com/FunAudioLLM/SenseVoice) - 语音识别与说话人识别 - [FunASR](https://github.com/modelscope/FunASR) - 语音识别框架 - [MarkItDown](https://github.com/microsoft/markitdown) - 文档转换工具 **框架与工具** - [LitServe](https://github.com/Lightning-AI/LitServe) - GPU 负载均衡 - [FastAPI](https://fastapi.tiangolo.com/) - 后端 Web 框架 - [Vue.js](https://vuejs.org/) - 前端框架 - [TailwindCSS](https://tailwindcss.com/) - CSS 框架 - [PyTorch](https://pytorch.org/) - 深度学习框架 感谢所有开源贡献者! ## 📜 许可证 本项目采用 [Apache License 2.0](LICENSE) 开源协议。 ``` Copyright 2024 MinerU Tianshu Contributors Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. ``` ---
**天枢 (Tianshu)** - 企业级多 GPU 文档解析服务 ⚡️ *北斗第一星,寓意核心调度能力*
### 喜欢这个项目? Stars Forks **点击 ⭐ Star 支持项目发展,感谢!**