PaperSpark

PaperSpark 文档

PaperSpark 的快速上手、部署与开发说明。

PaperSpark 是一个面向科研与高阶学习场景的 AI 工作台,覆盖论文导入、沉浸式阅读、知识沉淀、学术写作与导出交付的完整闭环。

这套文档优先回答三件事:

  • 如何最快把项目跑起来
  • Docker / 本地 / Modal 三种部署方式应该怎么选
  • 现阶段哪些能力依赖 OCR 服务,哪些能力可以先单独体验

PaperSpark 是什么

PaperSpark 当前的核心能力包括:

  • 文献与知识库:支持本地导入、Zotero 同步、知识摘要与引用追踪
  • 沉浸式阅读:支持 PDF 解析、双栏翻译、导读、重点提取、批注与结构导图
  • AI 助手:支持多模型配置、知识库检索、改写、纠错、翻译与问答
  • 写作编辑:基于 BlockNote 的富文本编辑,内置公式、引用、评论、画布与导出能力
  • 知识图谱:支持跨论文概念关系抽取与图谱可视化

先读哪篇

  • 如果你第一次接触项目,先看 QuickStart
  • 如果你想真正理解“主编辑区 + 右侧栏”如何联动,读 工作区教学
  • 如果你已经决定用 Docker、本地 Python 或 Modal 部署,直接看 部署指南
  • 如果你只是想验证界面是否能打开,可以先启动前端;如果你要体验 PDF 解析、沉浸式阅读、RAG 和 DOCX 转 PDF,请同时启动 Surya OCR 服务

当前文档范围

这一版文档是基于仓库当前脚本和配置写的初稿,重点先把启动链路、部署方式和几个容易踩坑的点说明白:

  • pnpm dev 只会启动 Next.js 前端,不会自动启动 OCR 微服务
  • 面向最终用户的 Docker 方案应优先使用 deploy/ 目录,而不是仓库根目录的源码构建 compose
  • 当前核心工作区数据主要保存在浏览器 localStorage,Docker 卷主要持久化的是 Surya 输出与 Chroma 向量数据

On this page