美文网首页
《ContourNet: Taking a Further St

《ContourNet: Taking a Further St

作者: ce0b74704937 | 来源:发表于2023-03-25 12:57 被阅读0次

    论文地址:ContourNet: Taking a Further Step toward Accurate Arbitrary-shaped Scene Text Detection

    github地址:https://github.com/wangyuxin87/ContourNet

    该论文发表与CVPR2020。

    文章认为现在自然场景主要存在两个挑战:1. 误检问题 2. 自然场景中文本尺度变化较大使得网络难以学习。

    为了解决上述的两个问题,文章提出了Local Orthogonal Texture-aware Module (LOTM)来缓解误检问题,Adaptive Region Proposal Network(Adaptive-RPN)来解决文本尺度问题。

    一、网络结构

    ContourNet整体结构如下图所示。可以看出网络主要由三部分,Adaptive Region Proposal Network (Adaptive-RPN), Local Orthogonal Texture-aware Module (LOTM) and Point Re-scoring Algorithm。

    整体来看采用的是2-stage的方式。图片先经过backbone+FPN结构的网络,将FPN输出的feature送入Aaptive RPN获取proposals,然后通过Deformable RoI pooling将feature map对应区域特征提取送个LOTM模型,最终经过Point Re-scoring Algorithm输出文本的检测区域。


    1.png

    1.1 Adaptive-RPN

    RPN是2-stage物体检测中常用的结构,通常是在anchorB_c=\{x_c, y_c, w_c, h_c\}基础上回归获得预测的proposal B_t=\{x_c+w_c\Delta{x_c}, y_c+h_c\Delta{y_c}, w_ce^{\Delta{w_c}}, h_ce^{\Delta{h_c}}\}。通常训练时采用smooth l1 loss,但是这种loss在大小不同的gt框情况下,对于相同IoU的检测框loss值不一样,所以对于优化检测框IoU来说是不太合适的。

    为了解决上述问题,文章提出Adaptive-RPN,不同于RPN回归\{\Delta{x}, \Delta{y}, \Delta{w}, \Delta{h}\}

    首先预定义一些点P=\{(x_1, y_l)\}^n_{l=1}(这n个点中包含了1个中心点和n-1个边界点),然后回归获得新的点

    R=\{x_r, y_r\}^n_{r=1}=\{(x_l+w_c\Delta{x_l}, y_l+h_c\Delta{y_l})\}^n_{l=1}

    上式中,\{\Delta{x_l}, \Delta{y_l}\}^n_{l=1}是预测的对应的点offsets,w_ch_c为对应anchor框的宽和高。

    获得回归后的点后,利用max-min函数求得对应的proposal框,公式如下:

    Proposal=\{x_{tl}, y_{tl}, x_{rb}, y_{rb}\}\\=\{min\{x_r\}^n_{r=1}, min\{y_r\}^n_{r=1}, max\{x_r\}^n_{r=1}, max\{y_r\}^n_{r=1}\}

    需要特别说明的是,n点中包含的中心点\{x', y'\}也是为了限制框边界的,例如如果x_{tl} > x', 那么x_{tl}=x'。

    RPN回归方式和Adaptive-RPN回归方式示意图如下:


    2.png

    1.2 LOTM

    该模块的灵感来源于传统的边缘检测算法,例如Sobel算子。LOTM模块如下所示:

    3.png

    LOTM由两个平行的支路组成。图中上路分支采用1\times k的卷积核对文本水平方向的信息进行提取,相同的下路分支采用k\times 1的卷积核对文本竖直方向的信息进行提取。k为超参。两路分支的卷积结果分别经过sigmoid层将feature转为值在[0,1]之间的heatmaps,这两个heatmaps分别表示文字轮廓两个正交方向的响应信息。

    1.4 Point Re-scoring Algorithm

    该模块就是为了将LOTM输出的两个方向的响应信息融合出最终的轮廓信息。该模型的伪代码如下所示:


    4.png

    伪代码中的NMS_HNMS_V就是采用类似1\times kk\times 1的核进行maxpooling操作。k文章采用3,\theta这里设置为0.5。

    经过这一步后就获得了文本最终的文本轮廓。

    二、Loss计算

    网络采用的Loss如下式所示:

    L=L_{Arpn_{cls}}+\lambda_{Areg}L_{Arpn_{reg}}+\lambda_{Hcp}L_{Hcp}+\lambda_{Vcp}L_{Vcp}+\lambda_{box_{cls}}L_{box_{cls}}+\lambda_{box_{reg}}L_{box_{reg}}

    上式中L_{Arpn_{cls}}, L_{Arpn_{reg}}, L_{Hcp},L_{Vcp}, L_{box_{cls}}, L_{box_{reg}}分别表示Adaptive-RPN 分类loss, Adaptive-RPN 回归loss, 水平方向的contour point loss, 竖直方向的contour point loss, bounding box 分类loss, bounding box回归loss。对应的\lambda值除\lambda_{Areg}外作为balance的超参,其余都是1.

    2.1 Adaptive-RPN Loss

    上面讲过Adaptive-RPN为了缓解框大小带来的问题,所以Adaptive-RPN回归Loss采用IoU loss:

    L_{Arpn_{reg}}=-log\frac{Intersection + 1}{Union +1}

    上式中Intersection和Union表示gt和预测proposal之间的交集和并集。

    Adaptive-RPN分类Loss采用cross-entropy loss。

    2.2 LOTM Loss

    为了解决正负样本不均衡的问题,LOTM模型的loss监督采用class-balanced cross-entropy loss,如下所示:

    L_{Hcp}=L_{Vcp}=L_{cp}=-\frac{N_{neg}}{N}y_ilogp_i-\frac{N_{pos}}{N}(1-y_i)log(1-p_i)

    这里y_ip_i表示gt和预测的像素值。N_{neg}N_{pos}分别表示负样本和正样本的个数,N表示总样本数。

    2.3 bounding box Loss

    Bounding box loss同faster rcnn。

    三、gt

    所有的训练数据集都是采用多边形的标注方式,多边形边缘的点都是用于训练的轮廓点。(使用scipy包中的distance_transform_edit函数获取)

    Adaptive-RPN的gt获取采用预测时类似的方式max-min获取得到。

    文章的原理基本是这样的,具体实验可以查看原文。

    相关文章

      网友评论

          本文标题:《ContourNet: Taking a Further St

          本文链接:https://www.haomeiwen.com/subject/ujhnrdtx.html