3.2.3 常用的文本识别模型
CRNN
2017年华中科技大学在发表的论文《An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition》提出了一个识别文本的方法,这种方法就是CRNN。该模型主要用于解决基于图像的序列识别问题,特别是场景文本识别问题。
CRNN算法原理:
CRNN的网络架构如图1所示,由卷积层、循环层和转录层三个组成部分组成。在CRNN的底部,卷积层自动从每个输入图像中提取一个特征序列。在卷积网络的基础上,建立一个递归网络,由卷积层输出,对特征序列的每一帧进行预测。采用CRNN顶部的转录层,将循环层的每帧预测转化为标签序列。虽然CRNN是由不同类型的网络架构组成的。CNN和RNN),它可以用一个损失函数进行联合训练。文本识别是对序列的预测方法,所以采用了对序列预测的RNN网络。通过CNN将图片的特征提取出来后采用RNN对序列进行预测,最后通过一个CTC的转录层得到最终结果。
所以CRNN算法主要采用的是CNN+RNN+CTC三层网络结构,从下到上,依次为:
(1)卷积层,使用CNN,从输入图像中提取特征序列;
(2)循环层,使用RNN,预测从卷积层获取的特征序列的标签(真实值)分布;
(3)转录层,使用CTC,把从循环层获取的标签分布通过去重整合等操作转换成最终的识别结果。
1.CNN(即卷积层)
在CRNN模型中,卷积层的分量是通过从标准CNN模型中提取卷积层和最大池化层(去掉全连接层)。该组件用于从输入图像中提取序列特征表示。在被输入网络之前,所有的图像都需要缩放到相同的高度。然后从卷积层的分量生成的特征映射中提取出一个特征向量序列,作为递归层的输入。具体来说,特征序列的每个特征向量在特征映射上从左到右依次生成。这意味着第i个特征向量是所有映射的第i个列的连接。在CRNN的设置中,每一列的宽度都被固定为单个像素。这意味着第i个特征向量是所有映射的第i个列的连接。在CRNN的设置中,每一列的宽度都被固定为相同像素。
由于卷积层、最大池化层和元素激活函数层作用于局部区域,因此它们是平移不变的。因此,特征映射的每一列对应原始图像的矩形区域(称为接受域),这些矩形区域与特征映射上对应列的排列顺序相同。如图2所示,特征序列中的每个向量都与一个感受域相关联,可以考虑作为该区域的图像描述符。
2.RNN(即循环层)
一个深度双向递归神经网络建立在卷积层的顶部,作为递归层。循环层预测特征序列x = x1,……,xt中每一帧xt的标签分布yt。循环层的优点有三方面。首先,RNN具有很强的捕获序列中的上下文信息的能力。使用上下文线索进行基于图像的序列识别比独立处理每个符号更稳定和更有帮助。以场景文本识别为例,宽字符可能需要连续几帧进行充分描述(参见图2)。此外,一些模糊的字符在观察上下文时更容易区分,例如,对比角色高度更容易识别“il”,而不是单独识别“il”。其次,RNN可以将误差差分反向传播到其输入端,即卷积层,允许我们在一个统一的网络中联合训练循环层和卷积层。
LSTM是定向的,它只使用过去的上下文。在基于图像的序列中,两种方法的上下文是有用的和互补的。然后,CRNN将两个LSTM,一个向前,一个向后,组合成一个双向LSTM。此外,可以堆叠多个双向LSTM,产生深度双向LSTM,如图3.b所示。深度结构比浅层结构具有更高层次的抽象性,并在语音识别[17]任务中取得了显著的证明性能。在循环层中,误差差分与图3.b所示的箭头方向相反,即时间反向传播(BPTT)。在循环层的底部,将传播的差分序列连接成映射,将特征映射转换为特征序列的操作,并反馈到卷积层。在实践中,我们创建了一个自定义的网络层,称为“映射到序列”,作为卷积层和循环层之间的桥梁。
3.CTC(即转录层或翻译层)
转录是将RNN对每帧的预测转换为标签序列的过程。在数学上,转录是指在每帧预测的条件下找到具有最高概率的标签序列。在实践中,存在两种转录模式,即无词汇的转录和基于词汇的转录。词典是预测所约束的一组标签序列,例如一个拼写检查字典。在无词汇模式下,没有任何词汇即可进行预测。在基于词汇的模式下,通过选择概率最高的标签序列来进行预测。
实验结果:
CRNN选择Synth作为模型训练的数据集,选择ICDAR 2003(IC03), ICDAR 2013 (IC13), IIIT 5k-word (IIIT5k), 和Street View Text (SVT)作为测试数据。其中IC03测试数据集包含251个带有标记文本边界框的场景图像。IC13测试数据集继承了IC03的大部分数据。它包含1015个经过裁剪的单词图像。IIIT5k包含从互联网上收集的3000张经过裁剪的单词测试图像。SVT测试数据集由从Google street view收集的249张街景图像组成。
表2显示了通过提议的CRNN模型和最新技术(包括基于深度模型的方法)获得的上述四个公共数据集的所有识别精度【(《Deep features for text spotting》)、(《Reading text in the wild with convolutional neural networks.》)、(《Deep structured output learning for unconstrained text recognition.》)】。在词汇受限的情况下,CRNN的方法始终优于大多数最先进的方法,并且平均优于[22]中提出的最佳文本阅读器。具体而言,CRNN在IIIT5k上获得了优异的性能,SVT与《Reading text in the wild with convolutional neural networks.》相比,在IC03上只有“完整”词典的性能较低。
请注意,《Reading text in the wild with convolutional neural networks.》中的模型是在特定词典上训练的,即每个单词都与一个类标签相关联。与《Reading text in the wild with convolutional neural networks.》不同,CRNN不局限于识别已知词典中的单词,并且能够处理随机字符串(如电话号码)、句子或其他脚本,如中文单词。因此,CRNN的结果在所有测试数据集上都具有竞争力。在无约束词典的情况下,CRNN的方法在SVT上取得了最好的性能,但仍然落后于IC03和IC13上的一些方法。请注意,表2“无”列中的空白表示这种方法无法应用于没有词典的识别,或者在无约束的情况下没有报告识别精度。CRNN的方法仅使用带有单词级标签的合成文本作为训练数据,这与PhotoOCR非常不同,后者使用790万个带有字符级注释的真实单词图像进行训练。文献《Reading text in the wild with convolutional neural networks.》报告的最佳性能是在无约束词典的情况下,得益于其大词典,然而,它并不是前面提到的对词典严格无约束的模型。从这个意义上讲,CRNN在无约束词典案例中的结果仍然很有希望。得到的实验结果如下:
结论:
提出了一种新的神经网络结构,称为卷积递归 神经网络(CRNN),它综合了卷积神经网络(CNN)和递归神经网络(RNN)的优点。CRNN能够获取不同尺寸的输入图像,并生成不同长度的预测。例如,在每个阶段中,每个详细元素都会直接运行(例如,在每个阶段中,每个详细元素都会运行注释)。
此外,由于CRNN放弃了传统神经网络中使用的完全连接层,因此可以得到更紧凑、更高效的模型。所有这些特性使得CRNN成为基于图像的序列识别的一种优秀方法。 在场景文本识别基准上的实验表明,与传统方法以及其他基于CNN和RNN的算法相比,CRNN取得了优越或极具竞争力的性能。这证实了该算法的优越性。此外,在光学音乐识别(OMR)的基准测试中,CRNN显著优于其他竞争对手,这验证了CRNN的通用性。
因此,CRNN实际上可以应用于其他领域的汉字识别。进一步加快CRNN的速度,使其在实际应用中更加实用,是未来值得探索的另一个方向。
TextSnake
2018年的论文《TextSnake: A Flexible Representation for Detecting Text of Arbitrary Shapes 》提出了一种灵活的任意形状场景文本检测方法TextSnake。
其主要贡献有三个方面:
(1)提出了一种灵活的任意形状场景文本的通用表示方法;
(2) 在此基础上,提出了一种有效的场景文本检测方法;
(3) 提出的文本检测算法在多个基准上实现了最先进的性能,包括不同形式(水平、定向和弯曲)的文本实例
现有文本检测方法有一个共同的假设:
本实例的形状大体上是线性的;因此采用相对简单的表征方法(轴对齐矩形、旋转矩形四边形);处理不规则形状的文本实例时,依然会暴露问题;对于带有透视变形(perspective distortion)的曲形文本(curved text)传统方法在精确估计的几何属性方面力不从心;文本实例不同表征方法的对比,图a是轴对齐矩形,图b是旋转矩形,图c是四边形;图d是TextSnake。
TextSnake算法原理:
TextSnake图示
如图1所示,场景文本的常规表示(如轴对齐矩形、旋转矩形和四边形)不能精确描述不规则形状的文本实例的几何属性,因为它们通常假设文本实例大致为线性形式,这对于曲线文本不成立。为了解决这个问题,提出了一个灵活的和通用的方法:TextSnake。如图2所示,TextSnake将一个文本实例表示为一个重叠的圆盘序列,每个圆盘都位于中心线上,并与一个半径和一个方向相关联。直观地说,TextSnake能够改变其形状,以适应文本实例的变化,如旋转、缩放和弯曲。
从数学上讲,由几个字符组成的文本实例t可以视为一个有序列表S (t)。S (t) = {D0、D1、···、Di、···、Dn},其中Di代表第i个圆盘,n为圆盘的数量。每个圆盘D都与一组几何属性相关联,即D =(c、r、θ),其中c、r和θ分别为圆盘D的中心、半径和方向。半径r定义为其局部宽度t的一半,而方向θ是中心线围绕中心c的切向方向。在这个意义上,通过计算S (t)中圆盘的并集,可以很容易地重建文本区域t。
请注意,圆盘与t对应的字符不一致。但是,S (t)中的几何属性可以用于修正不规则形状的文本实例,并将其转换为矩形的直形图像区域,这对文本识别器更友好
方法Pipeline:
为了检测具有任意形状的文本,TextSnake使用了一个FCN模型来预测文本实例的几何属性。该方法的管道流程如图3所示。基于FCN的网络预测文本中心线(TCL)和文本区域(TR)的得分图,以及几何属性,包括r、cosθ和sinθ。TCL map被TR map进一步掩盖,因为TCL自然是TR的一部分。为了执行实例分割,鉴于TCL彼此不重叠,使用不相交集。采用跨越式算法提取中轴点列表,最后对文本实例进行重构。
网络架构:
整个网络如图4所示。受FPN和U-net的启发,TextSnake采用了一种逐步合并主网络不同层次特征的方案。主干网络可以是被提出的用于图像分类的卷积网络,如VGG-16/19和ResNet。这些网络可以分为5个卷积阶段和一些额外的全连接(FC)层。TextSnake删除FC层,并在每个阶段后将特征映射提供给特征合并网络。TextSnake选择VGG-16作为主干网络,以便与其他方法进行直接公平的比较。
推理:
馈送之后,网络输出TCL,TR以及几何图,对于TCL和TR,阈值分别设为Ttcl和Ttr,然后,通过TR和TCL的交点,给出了TCL的最终预测。使用不相交集,可以有效地将TCL像素分离为不同的文本实例。
最后,设计了一种跨步算法,提取出表示文本实例的形状和过程的有序点列表,并对文本实例区域进行重构。采用两种简单的启发式方法来过滤出false positive文本实例:1)TCL像素的数量应至少为其平均半径的0.2倍;2)在重建的文本区域中,至少有一半的像素应该被归类为TR。
跨步算法的执行过程如图5所示。它具有3个主要动作,即Act (a)、Act (b)和Act (c),如图6所示。首先,随机选择一个像素作为起点,并将其集中起来。然后,搜索过程分叉到两个相反的方向,大步前进和集中化,直到它到达终点。这个过程将在两个相反的方向上生成两个有序的点列表,它们可以组合起来产生最终的中心轴列表,它遵循文本的过程,并精确地描述形状。这3个动作的细节如下所示
实验结果:
本文中用于实验的数据集如下:
SynthText是一个大型sacle数据集,包含约800K个合成文本图像。这些图像是通过将自然图像与随机字体、大小、颜色和方向呈现的文本混合而成的,因此这些图像非常逼真。我们使用这个数据集对模型进行预训练。
TotalText是一个新发布的文本检测基准。除了水平和面向多个方向的文本实例之外,该数据集还特别具有曲线文本,这在其他基准数据集中很少出现,但实际上在实际环境中非常常见。该数据集分为训练集和测试集,分别包含1255张和300张图像。
CTW1500是另一个主要由曲线文本组成的数据集。它由1000个训练图像和500个测试图像组成。文本实例使用具有14个顶点的多边形进行注释。
ICDAR 2015被提议作为Challenge 4 of the 2015 Robust Reading Competition中偶然场景文本检测的挑战4。该数据集中的场景文本图像由谷歌眼镜拍摄,不考虑位置、图像质量和视点。该数据集具有小的、模糊的、多方向的文本实例。有1000张图片用于培训,500张图片用于测试。此数据集中的文本实例标记为单词级四边形。MSRA-TD500是一个具有多语言、任意定向和长文本行。它包括300个训练图像和200个带有文本的测试图像行级注释。在之前的工作[3,10]之后,实验还将来自HUST-TR400[39]的图像作为训练数据,在对该数据集进行调整时,因为其训练集非常小。
在ICDAR 2015和MSRA-TD500上的实验中,实验根据方法的输出文本区域确定了最小边界矩形。得到了如下图示的实验结果:为了进行比较,Textsnake还对Total Text和CTW1500上的EAST和SegLink模型进行了评估。表1和表2显示了这两个数据集上不同方法的定量结果。
如表1所示,TextSnake所提出的方法在总文本的准确率、召回率和F-measure上分别达到82.7%、74.5%和78.4%,显著优于以前的方法。请注意,TextSnake方法的F- measure是原始Total Text论文[12]中提供的Baseline的两倍以上。
在CTW1500上,该方法的准确率、召回率和F-measure分别达到67.9%、85.3%和75.6%。与CTW1500数据集一起提出的CTD+TLOC相比,TextSnake算法的F-measure高出2.2%(75.6%对73.4%)。该方法在全文本和CTW1500上的优异性能验证了该方法能够处理自然图像中的曲线文本。
ICDAR 2015的微调将在大约30k次迭代时停止。在测试中,所有图像的大小都调整为1280×768。Ttr、Ttcl设置为(0.4、0.9)。考虑到ICDAR 2015中的图像包含许多未标记的小文本,将过滤掉短边小于10像素或面积小于300的预测矩形。ICDAR 2015上不同方法的定量结果如表3所示。仅通过单尺度测试,TextSnake的方法优于大多数竞争对手(包括多尺度评估的方法)。这表明所提出的表示TextSnake是通用的,可以很容易地应用于复杂场景中的面向多个方向的文本。
MSRA-TD500上的微调将在大约10k次迭代时停止。Ttr、Ttcl的阈值为(0.4、0.6)。在测试中,所有图像的大小都调整为1280×768。结果如表4所示,TextSnake方法的F- Measure(78.3%)高于其他方法。
分析与讨论:TextSnake的方法与其他方法的区别在于,它能够预测文本实例的形状和过程的精确描述(见图8)。
TextSnake将这种能力归因于TCL机制。文本中心线可以看作是一种支撑文本实例的骨架,以及提供更多细节的地理属性。文本,作为一种书面语言的形式,可以看作是一个映射到二维表面上的信号流。当然,它应该遵循一条需要延伸的路线。因此,TextSnake建议预测TCL,它比整个文本实例要窄得多。它有两个优点: (1)一个细长的TCL可以更好地描述过程和形状;(2)直观地看,TCL彼此不重叠,因此实例分割可以以一种非常简单和直接的方式完成,从而简化了TextSnake的pipeline。此外,如图9所示,TextSnake可以利用局部几何图形来绘制文本实例的结构,并将预测的弯曲文本实例转换为规范形式,这可能在很大程度上促进了识别阶段
为了进一步验证TextSnake的方法的泛化能力,在没有弯曲文本的数据集上训练和微调TextSnake的模型,并在两个具有弯曲文本的基准测试上对其进行评估。具体来说,在ICDAR 2015上调整了TextSnake的模型,并在目标数据集上对它们进行了评估。我们以EAST 、SegLink 和PixelLink 的模型作为baseline,因为这两种方法也在ICDAR 2015上进行了训练。
如表5中所示,TextSnake的方法在弯曲文本上仍然表现良好,并且明显优于三个强大的竞争对手SegLink,EAST和PixelLink,而没有对弯曲文本进行微调。TextSnake将这种优秀的泛化能力归因于所提出的灵活表示。表示不是将文本作为一个整体,而是将文本视为局部元素的集合,并将它们集成在一起以做出决策。局部属性在形成一个整体时被保留。此外,它们是相互独立的。因此,TextSnake的方法的最终预测可以保留文本的形状和过程的大部分信息。这是所提出的文本检测算法能够搜索具有不同形状的文本实例的主要原因。
结论:
TextSnake提出了一种新颖、灵活的表示方法,用于描述具有任意形状的场景文本的属性,包括水平、多向和曲线文本实例。TextSnake提出的文本检测方法在两个新发布的曲线文本数据集(Total text和SCUT-CTW1500)以及两个在该领域广泛使用的数据集(ICDAR 2015和MSRA-TD500)上获得了最先进或可比的性能,证明了方法的有效性。
EAST
2017年的论文《EAST: An Efficient and Accurate Scene Text Detector》提出了一个高效和准确的场景文本检测pipeline文本检测模型EAST。典型的文本检测模型一般是会分多个阶段(multi-stage)进行,在训练时需要把文本检测切割成多个阶段(stage)来进行学习,这种把完整文本行先分割检测再合并的方式,既影响了文本检测的精度又非常耗时,对于文本检测任务上中间过程处理得越多可能效果会越差。那么现在我们来学习又快、又准的检测模型。
EAST的贡献:
1.提出了一个由两阶段组成的场景文本检测方法:全卷积网络阶段和NMS阶段。
2.该pipeline可灵活生成word level或line level上文本框的预测,预测的几何形状可为旋转框或水平框。
3.算法在准确性和速度上优于此前最先进的方法。
EAST算法原理:
EAST模型简介该算法的关键组成部分是一个神经网络模型,它被训练来直接从完整的图像中预测文本实例及其几何形状的存在。该模型是一个完全卷积的神经网络,适用于文本检测,它可以输出对单词或文本线的密集的每像素预测。该模型是一个完全卷积的神经网络,适用于文本检测,它可以输出对单词或文本行的密集的每像素预测。这就消除了诸如候选提案、文本区域的形成和文字的划分等中间步骤。后处理步骤只包括对预测的几何形状的阈值化和NMS。该探测器被称为EAST,因为它是一个高效和精确的场景文本检测pipeline。
图2(e)显示了EAST的管道的高级概述。该算法遵循DenseBox 的一般设计,将图像输入FCN,生成多个像素级文本评分图和几何图形通道。其中一个预测的通道是一个像素值在[0,1]范围内的评分图。其余的通道表示包含在每个像素视图中的单词的几何图形。这个分数代表了在同一位置上预测的几何形状的置信度。EAST实验了文本区域的两种几何形状,旋转框(RBOX)和四边形(QUAD),并为每个几何图形设计了不同的损失函数。然后将阈值应用于每个预测区域,其中分数超过预先定义的阈值的几何图形被认为是有效的,并保存为以后的非最大抑制。NMS之后的结果被认为是管道的最终输出。
EAST模型网络结构EAST模型的网络结构,如下图:
在设计用于文本检测的神经网络时,必须考虑到几个因素。由于单词区域的大小,如图5所示,变化很大,确定大单词的存在需要神经网络后期的特征,而预测包含一个小单词区域的准确几何形状在早期阶段需要低水平的信息。
因此,网络必须使用来自不同级别的特性来满足这些需求。HyperNet在特征图上满足这些条件,但在大型特征图上合并大量通道将显著增加后期阶段的计算消耗。为此,我们采用u型的思想,逐步合并特征图,同时保持上采样分支较小。我们一起得到了一个网络,它既可以利用不同级别的特性,又可以保持较小的计算成本。
我们的模型的示意图如图3所示。该模型可分解为特征提取主干、特征合并分支和输出层三部分。主干可以是一个在ImageNet 数据集上预先训练好的卷积网络,具有交错的卷积层和池化层。从主干中提取出四级特征图,分别表示为fi,其大小分别为输入图像的1/32、1/16、1/8和1/4。图3中描述为PVANet 。在实验中,我们还采用了众所周知的VGG16 模型,其中提取了pooling-2到pooling-5之后的特征映射。在特征合并分支中,我们逐步合并它们:
其中gi是合并基,hi是合并的特征映射,操作符[·;·]表示沿通道轴的连接。在每个合并阶段中,来自最后一个阶段的特征映射首先被输入到一个非池化层,以使其大小加倍,然后与当前的特征映射相连接。接下来,一个conv1×1瓶颈减少了通道的数量并减少了计算,然后是一个conv3×3,它融合信息,最终产生这个合并阶段的输出。在最后一个合并阶段之后,一个conv3×3层生成合并分支的最终特征图,并将其提供给输出层。每个卷积的输出通道数如图3所示。我们保持分支中卷积的通道数很小,这只增加了主干上的一小部分计算消耗,使网络的计算效率很高。最终的输出层包含几个conv1×1操作,以将32个通道的特征映射投影到1个通道的分数映射Fs和一个多通道几何映射Fg中。几何输出可以是RBOX或QUAD中的一个,在表1中总结。
对于RBOX,几何形状由4个通道的轴对齐的边界框(AABB)R和1个通道的旋转角度θ表示。R的公式与(《Unifying landmark localization with end to end object detection》)相同,其中4个通道分别表示从像素位置到矩形的上、右、下、左边界的4个距离。对于QUAD Q,使用8个数字来表示从四边形的四个角顶点{pi|i∈{1,2,3,4}}到像素位置的坐标位移。由于每个距离偏移量包含两个数字(∆xi,∆yi),因此几何图形输出包含8个通道。 标签生成(Label generation)Score Map Generation for Quadrangle:只考虑几何是四边形的情况。得分图上的四边形的正面积大致被设计为原始地图的缩小版本,如图4 (a).所示对于一个四边形Q = {pi|i∈{1,2,3,4}},其中pi = {xi,yi}是按顺时针顺序在四边形上的顶点。为了缩小Q,首先计算每个顶点p的参考长度ri为
式中,D(pi,pj)是pi和pj之间的l2距离。我们首先缩小一个四边形的两条较长的边,然后缩小那两个较短的边。对于每一对两个相反的边,我们通过比较它们的长度的平均值来确定“较长的”对。对于每条边< pi,p(i mod 4)+1i >,我们通过沿边移动其两个端点向内分别移动0.3ri和0.3r(i mod 4)+1来收缩它。Geometry Map Generation:
几何图是RBOX或QUAD之一。RBOX的生成过程如图4(c-e)所示。对于那些文本区域以QUAD风格进行注释的数据集(例如,ICDAR 2015),我们首先生成一个旋转的矩形,它覆盖了具有最小面积的区域。然后对于每个得分为正的像素,我们计算它到文本框的4个边界的距离,并将它们放到RBOX地面真相的4个通道中。对于QUAD地面真相,在8通道几何地图中每个得分为正的像素的值是它从四边形的4个顶点的坐标偏移。
实验结果:
定性结果:
图5描述了该算法的几个检测示例。它能够处理各种具有挑战性的场景,如不均匀的照明,低分辨率,不同的方向和透视失真。此外,由于NMS过程中的投票机制,所提出的方法在具有不同形式的文本实例的视频上显示出较高的稳定性2。该方法的中间结果如图6所示。可以看出,训练后的模型产生了高度精确的几何图和得分图,其中很容易检测出不同方向的文本实例。
定量结果:
如表3和表4所示,EAST的方法在IC-DAR 2015和COCO文本上大大优于以前的最先进方法。在ICDAR 2015挑战4中,当图像以原始比例馈送时,所提出的方法的F -score达到0.7820。当使用同一网络在多个量表3上进行测试时,EAST的方法的F-score达到0.8072,就绝对值而言,这比最佳方法高出了近0.16(0.8072 vs.0.6477)。比较使用VGG16网络的结果,当使用四路输出时,该方法的性能也比之前的最佳工作好0.0924,当使用RBOX输出时,该方法的性能也比之前的最佳工作好0.116。
同时,这些网络的效率相当高。在COCO text中,所提出的算法的所有三种设置都比之前的top-performer(《Scene text detection via holistic, multi-channel prediction. 》)具有更高的精度。具体而言,F -score比(《Scene text detection via holistic, multi-channel prediction. 》)提高了0.0614,召回得分提高了0.053,这证实了该算法的优势,因为COCO text是迄今为止最大、最具挑战性的基准。请注意,实验还将(《Coco-text: Dataset and benchmark for text detection and recognition in natural images. 》)中的结果作为参考,但这些结果实际上不是有效的Baseline,因为方法(A、B和C)用于数据注释。与以前的方法相比,该算法的改进证明了一个简单的文本检测pipeline,它直接针对最终目标并消除冗余过程,可以击败复杂的pipeline,甚至是那些与大型神经网络模型集成的pipeline。
如表5所示,在MSRA-TD500上,EAST方法的所有三种设置都取得了优异的结果。最佳工作的F-score(Ours+PVANET2x)略高于《Scene text detection via holistic, multi-channel prediction. 》。与之前发布的最先进系统Zhang等人(《Multi-oriented text detection with fully convolutional networks》)的方法相比,最佳执行者(Ours+PVANET2x)的F-score提高了0.0208,精确度提高了0.0428。
请注意,在MSRA-TD500上,配备VGG16的算法的性能比配备PVANET和PVANET2x的算法差得多(0.7023比0.7445和0.7608),主要原因是VGG16的有效感受野小于PVANET和PVANET2x的有效感受野,而MSRA-TD500的评估协议需要文本检测算法的输出行级别,而不是单词级别的预测。此外,实验还根据ICDAR 2013基准评估了Ours+PVANET2x。该方法在查全率、查准率和F得分方面分别达到0.8267、0.9264和0.8737,与之前的最先进方法相比,前者的查全率、查准率和F得分分别为0.8298、0.9298和0.8769。
EAST模型的优势在于简洁的检测过程,高效、准确,并能实现多角度的文本行检测。但也存在着不足之处,例如(1)在检测长文本时的效果比较差,这主要是由于网络的感受野不够大;(2)在检测曲线文本时,效果不是很理想
参考文献:
Liu C Y, Chen X X, Luo C J, Jin L W, Xue Y and Liu Y L. 2021. Deep learning methods for scene text detection and recognition. Journal of Image and Graphics,26(06):1330-1367(刘崇宇,陈晓雪,罗灿杰,金连文,薛洋,刘禹良. 2021. 自然场景文本检测与识别的深度学习方法. 中国图象图形学报,26(06):1330-1367)[DOI:10. 11834 / jig. 210044] Shi B G, Bai X and Yao C. 2017a. An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(11): 2298-2304 [DOI: 10. 1109 / TPA-MI. 2016. 2646371]Zhou X Y, Yao C, Wen H, Wang Y Z, Zhou S C, He W R and Liang J J. 2017. EAST: an efficient and accurate scene text detector/ / Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 5551-5560 [DOI: 10. 1109 / CVPR. 2017. 283] Long S B, Ruan J Q, Zhang W J, He X, Wu W H and Yao C. 2018. TextSnake: a flexible representation for detecting text of arbitrary shapes/ / Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer: 19-35 [DOI: 10. 1007 / 978-3-030-01216-8_2]
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。