PaperSpark 文档
PaperSpark 的快速上手、部署与开发说明。
PaperSpark 是一个面向科研与高阶学习场景的 AI 工作台,覆盖论文导入、沉浸式阅读、知识沉淀、学术写作与导出交付的完整闭环。
这套文档优先回答三件事:
- 如何最快把项目跑起来
- Docker / 本地 / Modal 三种部署方式应该怎么选
- 现阶段哪些能力依赖 OCR 服务,哪些能力可以先单独体验
PaperSpark 是什么
PaperSpark 当前的核心能力包括:
- 文献与知识库:支持本地导入、Zotero 同步、知识摘要与引用追踪
- 沉浸式阅读:支持 PDF 解析、双栏翻译、导读、重点提取、批注与结构导图
- AI 助手:支持多模型配置、知识库检索、改写、纠错、翻译与问答
- 写作编辑:基于 BlockNote 的富文本编辑,内置公式、引用、评论、画布与导出能力
- 知识图谱:支持跨论文概念关系抽取与图谱可视化
先读哪篇
- 如果你第一次接触项目,先看 QuickStart
- 如果你想真正理解“主编辑区 + 右侧栏”如何联动,读 工作区教学
- 如果你已经决定用 Docker、本地 Python 或 Modal 部署,直接看 部署指南
- 如果你只是想验证界面是否能打开,可以先启动前端;如果你要体验 PDF 解析、沉浸式阅读、RAG 和 DOCX 转 PDF,请同时启动 Surya OCR 服务
当前文档范围
这一版文档是基于仓库当前脚本和配置写的初稿,重点先把启动链路、部署方式和几个容易踩坑的点说明白:
pnpm dev只会启动 Next.js 前端,不会自动启动 OCR 微服务- 面向最终用户的 Docker 方案应优先使用
deploy/目录,而不是仓库根目录的源码构建 compose - 当前核心工作区数据主要保存在浏览器
localStorage,Docker 卷主要持久化的是 Surya 输出与 Chroma 向量数据