From 368362392525a21b28d87b65f242fc44f3f8b3f9 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E4=B8=89=E6=B4=8B=E4=B8=89=E6=B4=8B?= <1258009915@qq.com> Date: Mon, 12 Feb 2024 15:02:31 +0000 Subject: [PATCH] Update README_zh.md --- assets/README_zh.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/assets/README_zh.md b/assets/README_zh.md index d8a9e59..1a68b64 100644 --- a/assets/README_zh.md +++ b/assets/README_zh.md @@ -14,7 +14,7 @@ TexTeller是一个基于ViT的端到端公式识别模型,可以把图片转换为对应的latex公式 -TexTeller用了550K的图片-公式对进行训练(数据集可以在[这里](https://huggingface.co/datasets/OleehyO/latex-formulas)获取),相比于[LaTeX-OCR](https://github.com/lukas-blecher/LaTeX-OCR)(使用了一个100K的数据集),TexTeller具有更强的泛化能力以及更高的精确度,可以覆盖你大部分的使用场景。 +TexTeller用了550K的图片-公式对进行训练(数据集可以在[这里](https://huggingface.co/datasets/OleehyO/latex-formulas)获取),相比于[LaTeX-OCR](https://github.com/lukas-blecher/LaTeX-OCR)(使用了一个100K的数据集),TexTeller具有**更强的泛化能力**以及**更高的准确率**,可以**覆盖大部分的使用场景**。 > 我们马上就会发布一个使用5.5M数据集进行训练的TexTeller checkpoint