[论文理解] Connectionist Text Proposal Network
Connectionist Text Proposal Network
简介
CTPN是通过VGG16后在特征图上采用3*3窗口进行滑窗,采用与RPN类似的anchor机制,固定width而只预测anchor的y坐标和高度,达到比较精准的text proposal效果。同时,文章的亮点在于引入了RNN,使用BLSTM使得预测更加精准。CTPN在自然场景下文本提取的效果很不错,不同于传统的bottom-up方法,传统方法通过检测单个字符然后再去连接文本线,其准确性主要依赖于单个字符的识别,而且错误会累积,其使用的仅仅是low-level的feature;而本文采用的方法提取的是深度的特征,采用anchor机制做的精准预测,然后用循环神经网络对anchor识别的区域进行连接,精度要高很多。
结构:
Detecting Text in Fine-scale Proposals
detection过程很简单,直接在vgg-16后面用3*3的滑窗去滑feature map的最后一个卷积层,固定感受野大小为228pixels,total stride为16pixels,这样每个anchor对应在原图中的间隔就是16pixels。total stride和感受野的大小都是由网络结构决定的,也就是说,在网络结构确定的情况下,我们可以人为地去设置感受野的大小和total stride,由于total stride = s *2 *2 *2 *2,由于设置的total stride =16 ,所以可以确定3*3的stride是1,也就是后面每个anchor的水平距离在原图中对应的是16pixels。
之后,作者修改了原始的rpn,去预测长度固定为16pixels的区域,与rpn不同的是,本文只预测区域的y轴坐标和高度,此外,还输出anchor是或不是文字区域的二分类结果。由于上面确定了每次anchor移动的距离恰好是total stride,所以这里对应上了。然后对每个特征点设计了10种vertical anchor,这些anchor的宽度都为16pixels,高度从11 到 273pixels(每次除以0.7),让这10个anchor独立地预测中心点坐标(vc)和高度(vh),定义如下:
对每个预测而言,水平坐标和k个anchor的位置是固定的,这些都是可以预先在图像进来之后计算出来的,而分类器输出的结果是text/non-text的得分和预测的k个anchor的y轴坐标(v)。而识别出来的text proposals 是从那些text/non-text的得分大于0.7,然后再经过MNS得到的。这样只预测纵坐标的做法比rpn的准确率提升了很多,因为其提供了更多的监督信息。
Recurrent Connectionist Text Proposals
本文的亮点就在于使用了循环神经网络来连接text proposals,为了提升定位的准确率,作者把文本线看成是一连串的text proposals,然后去单独预测,但是这样做发现很容易错将非文字区域识别为文字区域。由于RNN对处理上下文很好,而文字有着很强的上下文关联,所以作者顺理成章的引入RNN,将conv5层的feature的每个window扫描后的结果作为RNN的输入,然后循环更新这个隐状态定义如下:
作者使用的是双向LSTM作为RNN的结构,因此每个window都具有他之前的window的上下文信息,每个window的卷积特征作为256D的 双向lstm的输入,然后将每个隐状态全连接到输出层,预测第t个proposal。
使用RNN后,明显减少了错误的识别,将很多之前没识别到的地方也识别到了,说明上下文信息对预测确实很有帮助。
Side-refinement
由于预测的text proposal 可能与ground truth在最左和最右两边不一定重叠度高,所以可能被弃掉,因此提出了边框修正,来修正这一点,如果不修正,那么预测到的proposal的文字区域可能在两边有缺失。
结果如下
Outputs And Loss Functions
模型一共有三个输出,分别是text/non-text scores、竖直坐标v(包括anchor在原图中对应的竖直坐标和高度)以及修正系数o。对于每个特征点k个anchor,分别输出2k,2k,k个参数,而文章也是采用了多任务学习来进行优化模型参数,模型的loss functions定义如下:
分类误差用的是softmax计算的,回归误差用的是smooth L1函数计算的,两个λ是为了调整loss的权重。
简单写的model:
import torch
import torch.nn as nn
from torchvision.models import vgg16
from torchsummary import summary
class Backbone(nn.Module):
def __init__(self):
super(Backbone,self).__init__()
self.feature_extractor = vgg16(pretrained = False).features
def forward(self,x):
return self.feature_extractor(x)
class BasicConv(nn.Module):
def __init__(self,in_size,out_size,kernel_size):
super(BasicConv,self).__init__()
self.basic = nn.Sequential(
nn.Conv2d(in_size,out_size,kernel_size = kernel_size),
nn.BatchNorm2d(out_size),
nn.ReLU()
)
def forward(self,x):
return self.basic(x)
class CTPN(nn.Module):
def __init__(self):
super(CTPN,self).__init__()
self.backbone = Backbone()
self.brnn = nn.GRU(512,128,2,bidirectional = True)
self.fc = BasicConv(256,512,1)
self.coordinates = BasicConv(512,20,1)
self.scores = BasicConv(512,20,1)
self.sides = BasicConv(512,10,1)
def forward(self,x):
x = self.backbone(x) # (b,c,h,w)
s = x.permute(0,2,3,1).contiguous().view(-1,x.size(3),512) # (b,h,w,c) -> (bh,w,c)
s,_ = self.brnn(s) # (bh,w,2c)
s = s.view(-1, x.size(2),x.size(3),256).permute(0,3,1,2).contiguous()# (b,2c,h,w)
output = self.fc(s) # (b,512,h,w)
coordinates = self.coordinates(output).permute(0,2,3,1).contiguous().view(-1,10 * output.size(2) * output.size(3),2)
scores = self.scores(output).permute(0,2,3,1).contiguous().view(-1,10 * output.size(2) * output.size(3),2)
sides = self.sides(output).permute(0,2,3,1).contiguous().view(-1,10 * output.size(2) * output.size(3),1)
return [coordinates,scores,sides]
if __name__ == "__main__":
net = CTPN()
summary(net,(3,224,224),device = "cpu") # -1 512 7 7
#for name,module in net.named_children():
# print(name,module)
----------------------------------------------------------------
Layer (type) Output Shape Param #
================================================================
Conv2d-1 [-1, 64, 224, 224] 1,792
ReLU-2 [-1, 64, 224, 224] 0
Conv2d-3 [-1, 64, 224, 224] 36,928
ReLU-4 [-1, 64, 224, 224] 0
MaxPool2d-5 [-1, 64, 112, 112] 0
Conv2d-6 [-1, 128, 112, 112] 73,856
ReLU-7 [-1, 128, 112, 112] 0
Conv2d-8 [-1, 128, 112, 112] 147,584
ReLU-9 [-1, 128, 112, 112] 0
MaxPool2d-10 [-1, 128, 56, 56] 0
Conv2d-11 [-1, 256, 56, 56] 295,168
ReLU-12 [-1, 256, 56, 56] 0
Conv2d-13 [-1, 256, 56, 56] 590,080
ReLU-14 [-1, 256, 56, 56] 0
Conv2d-15 [-1, 256, 56, 56] 590,080
ReLU-16 [-1, 256, 56, 56] 0
MaxPool2d-17 [-1, 256, 28, 28] 0
Conv2d-18 [-1, 512, 28, 28] 1,180,160
ReLU-19 [-1, 512, 28, 28] 0
Conv2d-20 [-1, 512, 28, 28] 2,359,808
ReLU-21 [-1, 512, 28, 28] 0
Conv2d-22 [-1, 512, 28, 28] 2,359,808
ReLU-23 [-1, 512, 28, 28] 0
MaxPool2d-24 [-1, 512, 14, 14] 0
Conv2d-25 [-1, 512, 14, 14] 2,359,808
ReLU-26 [-1, 512, 14, 14] 0
Conv2d-27 [-1, 512, 14, 14] 2,359,808
ReLU-28 [-1, 512, 14, 14] 0
Conv2d-29 [-1, 512, 14, 14] 2,359,808
ReLU-30 [-1, 512, 14, 14] 0
MaxPool2d-31 [-1, 512, 7, 7] 0
Backbone-32 [-1, 512, 7, 7] 0
GRU-33 [[-1, 7, 256], [-1, 7, 128]] 0
Conv2d-34 [-1, 512, 7, 7] 131,584
BatchNorm2d-35 [-1, 512, 7, 7] 1,024
ReLU-36 [-1, 512, 7, 7] 0
BasicConv-37 [-1, 512, 7, 7] 0
Conv2d-38 [-1, 20, 7, 7] 10,260
BatchNorm2d-39 [-1, 20, 7, 7] 40
ReLU-40 [-1, 20, 7, 7] 0
BasicConv-41 [-1, 20, 7, 7] 0
Conv2d-42 [-1, 20, 7, 7] 10,260
BatchNorm2d-43 [-1, 20, 7, 7] 40
ReLU-44 [-1, 20, 7, 7] 0
BasicConv-45 [-1, 20, 7, 7] 0
Conv2d-46 [-1, 10, 7, 7] 5,130
BatchNorm2d-47 [-1, 10, 7, 7] 20
ReLU-48 [-1, 10, 7, 7] 0
BasicConv-49 [-1, 10, 7, 7] 0
================================================================
Total params: 14,873,046
Trainable params: 14,873,046
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.57
Forward/backward pass size (MB): 207.18
Params size (MB): 56.74
Estimated Total Size (MB): 264.49