
论文地址:https://arxiv.org/abs/1903.11800
中文论文解读地址:https://www.jianshu.com/p/44bbe8d1a84a
作者gihub地址:https://github.com/STVIR/PMTD
但是代码已经没有了,只能去看之前fork了的地址例如:https://github.com/duanjiaqi/PMTD
但是作者提供的模型还是能下载的:
icdar 2017 mlt:https://drive.google.com/open?id=1kh5wXqvD1KkaSLtyEG8RUDUfSK1CHnQT
icdar 2015 : https://drive.google.com/open?id=1hI6uDaUefCrD1oYoKMdflTY6Ocl2Y46-
使用自己的数据训练:
- 数据转换
需要从icdar格式转换成coco格式,代码在 demo\utils\generate_icdar2017.py
改成自己的地址,之前图片格式是'img_%d', label格式是 'gt_img_%d.txt', 如果换成别的命名格式的数据集还需要改这个地方以及读取图片的遍历方式。
- 更改训练配置
在maskrcnn_benchmark\config\paths_catalog.py 下增加自己的数据集描述
然后再askrcnn_benchmark\config\default.py 下把使用数据集换成上面增加的名称
3.开始训练
直接运行 tools/train_net.py 进行训练,
--config-file 默认设为configs/e2e_PMTD_R_50_FPN_1x_ICDAR2017MLT_test.yaml


网友评论