Skip to content

Latest commit

 

History

History
317 lines (224 loc) · 12.6 KB

README_zh.md

File metadata and controls

317 lines (224 loc) · 12.6 KB

📄 English | 中文

𝚃𝚎𝚡𝚃𝚎𝚕𝚕𝚎𝚛

demo.mp4

TexTeller是一个基于TrOCR的端到端公式识别模型,可以把图片转换为对应的latex公式

TexTeller用了80M个图片-公式对进行训练(过去的数据集可以在这里获取),相比于LaTeX-OCR(使用了一个100K的数据集),TexTeller具有更强的泛化能力以及更高的准确率,可以覆盖大部分的使用场景。

Note

如果您想为本项目提供一些反馈、建议等,欢迎在Discussions版块发起讨论。

另外,如果您觉得这个项目对您有帮助,请不要忘记点亮上方的Star⭐️🙏


🔖 目录

可以被TexTeller识别出的图片

感谢 北京邮电大学超算平台 为本项工作提供支持😘

🔄 变更信息

  • 📮[2024-06-06] TexTeller3.0发布! 训练数据集增加到了80M(相较于TexTeller2.0增加了10倍,并且改善了数据的多样性)。新版的TexTeller具有以下新的特性:

    • 支持扫描图片、手写公式以及中英文混合的公式。
    • 在打印图片上具有通用的中英文识别能力。
  • 📮[2024-05-02] 支持段落识别

  • 📮[2024-04-12] 公式检测模型发布!

  • 📮[2024-03-25] TexTeller2.0发布!TexTeller2.0的训练数据增大到了7.5M(相较于TexTeller1.0增加了~15倍并且数据质量也有所改善)。训练后的TexTeller2.0在测试集中展现出了更加优越的性能,尤其在生僻符号、复杂多行、矩阵的识别场景中。

    这里有更多的测试图片以及各家识别模型的横向对比。

🚀 开搞

  1. 克隆本仓库:

    git clone https://github.com/OleehyO/TexTeller
  2. 安装本项目的依赖包:

    pip install texteller
  3. 进入src/目录,在终端运行以下命令进行推理:

     python inference.py -img "/path/to/image.{jpg,png}" 
     # use --inference-mode option to enable GPU(cuda or mps) inference
     #+e.g. python inference.py -img "img.jpg" --inference-mode cuda

    第一次运行时会在Hugging Face上下载所需要的权重

段落识别

如演示视频所示,TexTeller还可以识别整个文本段落。尽管TexTeller具备通用的文本OCR能力,但我们仍然建议使用段落识别来获得更好的效果:

  1. 下载公式检测模型的权重到src/models/det_model/model/目录 [链接]

  2. src/目录下运行inference.py并添加-mix选项,结果会以markdown的格式进行输出。

    python inference.py -img "/path/to/image.{jpg,png}" -mix

TexTeller默认使用轻量的PaddleOCR模型来识别中英文,可以尝试使用更大的模型来获取更好的中英文识别效果:

权重 描述 尺寸
ch_PP-OCRv4_det.onnx 默认的检测模型,支持中英文检测 4.70M
ch_PP-OCRv4_server_det.onnx 高精度模型,支持中英文检测 115M
ch_PP-OCRv4_rec.onnx 默认的识别模型,支持中英文识别 10.80M
ch_PP-OCRv4_server_rec.onnx 高精度模型,支持中英文识别 90.60M

把识别/检测模型的权重放在src/models/third_party/paddleocr/checkpoints/ 下的det/rec/目录中,然后重命名为default_model.onnx

Note

段落识别只能识别文档内容,无法还原文档的结构。

❓ 常见问题:无法连接到Hugging Face

默认情况下,会在Hugging Face中下载模型权重,如果你的远端服务器无法连接到Hugging Face,你可以通过以下命令进行加载:

  1. 安装huggingface hub包

    pip install -U "huggingface_hub[cli]"
  2. 在能连接Hugging Face的机器上下载模型权重:

    huggingface-cli download \
        OleehyO/TexTeller \
        --repo-type model \
        --local-dir "your/dir/path" \
        --local-dir-use-symlinks False
  3. 把包含权重的目录上传远端服务器,然后把 src/models/ocr_model/model/TexTeller.py中的 REPO_NAME = 'OleehyO/TexTeller'修改为 REPO_NAME = 'your/dir/path'

🌐 网页演示

进入 src/ 目录,运行以下命令

./start_web.sh

在浏览器里输入 http://localhost:8501就可以看到web demo

Note

  1. 对于Windows用户, 请运行 start_web.bat文件。
  2. 使用onnxruntime + gpu 推理时,需要安装onnxruntime-gpu

🔍 公式检测

TexTeller的公式检测模型在3415张中文教材数据(130+版式)和8272张IBEM数据集上训练得到,支持对整张图片进行公式检测

  1. 下载公式检测模型的权重到src/models/det_model/model/目录 [链接]

  2. src/目录下运行以下命令,结果保存在src/subimages/

    python infer_det.py
更进一步:公式批识别

在进行公式检测后src/目录下运行以下命令

python rec_infer_from_crop_imgs.py

会基于上一步公式检测的结果,对裁剪出的所有公式进行批量识别,将识别结果在 src/results/中保存为txt文件。

📡 API调用

我们使用ray serve来对外提供一个TexTeller的API接口,通过使用这个接口,你可以把TexTeller整合到自己的项目里。要想启动server,你需要先进入 src/目录然后运行以下命令:

python server.py 
参数 描述
-ckpt 权重文件的路径,默认为TexTeller的预训练权重
-tknz 分词器的路径,默认为TexTeller的分词器
-port 服务器的服务端口,默认是8000
--inference-mode 使用"cuda"或"mps"推理,默认为"cpu"
--num_beams beam search的beam数量,默认是1
--num_replicas 在服务器上运行的服务副本数量,默认1个副本。你可以使用更多的副本来获取更大的吞吐量。
--ncpu_per_replica 每个服务副本所用的CPU核心数,默认为1
--ngpu_per_replica 每个服务副本所用的GPU数量,默认为1。你可以把这个值设置成 0~1之间的数,这样会在一个GPU上运行多个服务副本来共享GPU,从而提高GPU的利用率。(注意,如果 --num_replicas 2, --ngpu_per_replica 0.7, 那么就必须要有2个GPU可用)
-onnx 使用Onnx Runtime进行推理,默认不使用

Note

一个客户端demo可以在 TexTeller/client/demo.py找到,你可以参考 demo.py来给server发送请求

🏋️‍♂️ 训练

数据集

我们在 src/models/ocr_model/train/dataset/目录中提供了一个数据集的例子,你可以把自己的图片放在 images目录然后在 formulas.jsonl中为每张图片标注对应的公式。

准备好数据集后,你需要在 **/train/dataset/loader.py中把 DIR_URL变量改成你自己数据集的路径

重新训练分词器

如果你使用了不一样的数据集,你可能需要重新训练tokenizer来得到一个不一样的词典。配置好数据集后,可以通过以下命令来训练自己的tokenizer:

  1. src/models/tokenizer/train.py中,修改new_tokenizer.save_pretrained('./your_dir_name')为你自定义的输出目录

    注意:如果要用一个不一样大小的词典(默认1.5W个token),你需要在src/models/globals.py中修改VOCAB_SIZE变量

  2. src/目录下运行以下命令:

    python -m models.tokenizer.train

训练模型

  1. 修改src/train_config.yaml中的num_processes为训练用的显卡数(默认为1)

  2. src/目录下运行以下命令:

    accelerate launch --config_file ./train_config.yaml -m models.ocr_model.train.train

你可以在src/models/ocr_model/train/train.py中设置自己的tokenizer和checkpoint路径(请参考train.py)。如果你使用了与TexTeller一样的架构和相同的词典,你还可以用自己的数据集来微调TexTeller的默认权重。

Note

我们的训练脚本使用了Hugging Face Transformers库, 所以你可以参考他们提供的文档来获取更多训练参数的细节以及配置。

📅 计划

  • 使用更大的数据集来训练模型
  • 扫描图片识别
  • 中英文场景支持
  • 手写公式识别
  • PDF文档识别
  • 推理加速

⭐️ 观星曲线

Stargazers over time

👥 贡献者