-
有效卷积算子(ECO)算法是将卷积特征运用在视觉任务的高效跟踪算法。该算法主要将深度特征和手工特征(如方向梯度直方图(histogram of oriented gridients,HOG)特征)、颜色空间(color-names,CN)特征等多种特征用于相关滤波算法的跟踪过程中,从而实现目标跟踪。
ECO算法沿用C-COT算法将特征图通过插值转换到连续空间域,具体如下式所示:
$ {\mathit{\boldsymbol{J}}_d}\{ {\mathit{\boldsymbol{x}}_d}\} \left( t \right) = \sum\limits_{n = 0}^{{N_d} - 1} {{\mathit{\boldsymbol{x}}_d}\left[ n \right]{\mathit{\boldsymbol{b}}_d}\left( {t - \frac{T}{{{N_d}}}n} \right)} $
(1) 式中,xd[n]表示第n层的特征,bd是周期T>0的插值核;Jd{ xd}(t)表示整个插值后的特征;${\mathit{\boldsymbol{b}}_d}\left( {t - \frac{T}{{{N_d}}}n} \right)$表示1~D通道的插值函数; d指1~D中的某个通道; t是当前周期中的时间; Nd是d通道下的特征层数。
C-COT算法中采用训练连续多通道卷积滤波器用于预测得分,ECO算法利用主成分分析法改进,具体如下式所示:
$ {\mathit{\boldsymbol{S}}_{P, {\rm{ }}f}}\{ {\mathit{\boldsymbol{x}}_d}\} = \mathit{\boldsymbol{Pf}} * {\mathit{\boldsymbol{J}}_d}\{ {\mathit{\boldsymbol{x}}_d}\} = \mathit{\boldsymbol{f}} * {\mathit{\boldsymbol{P}}^T}{\mathit{\boldsymbol{J}}_d}\{ {\mathit{\boldsymbol{x}}_d}\} $
(2) 式中,f为通道d的相关滤波核,$ * $表示卷积运算,P表示主成分分析法D行C列的投影矩阵,SP, f{ xd}表示响应值得分。使用混合高斯模型(Gaussian mixture mode,GMM)方法压缩训练集,并对卷积响应得分与高斯标签的误差取L2范数,下式表示构造的损失函数:
$ \begin{array}{*{20}{c}} {\mathit{\boldsymbol{E}}\left( f \right) = \sum\limits_{m = 1}^M {{\pi _m}\parallel {\mathit{\boldsymbol{S}}_{P, f}}\left\{ {{\mu _m}} \right\} - {y_0}\parallel _{{L^2}}^2} + }\\ {\sum\limits_{c = 1}^C {\parallel \omega {\mathit{\boldsymbol{f}}^c}\parallel _{{L^2}}^2} } \end{array} $
(3) 式中,M为训练样本,μm和πm表示训练样本的均值和权重,SP, f {μm}表示训练样本与当前相关滤波核f的卷积响应得分,y0表示训练样本的高斯标签,ω是f的惩罚项。一般P在初始帧确定保持不变,(3)式每6帧使用共轭梯度更新。ECO算法对比C-COT算法,在以下3个方面有所改进。
(1) 减少滤波器。ECO算法相对于C-COT算法简化了特征提取的过程,针对C-COT算法每一个维度对应一个滤波器,但是滤波器对于算法的贡献不同的问题,ECO算法选用相对贡献较多的滤波器,减少滤波器的数量,用少于特征维度数量的滤波器利用线性组合表示每一维度特征。
(2) 减少训练集。C-COT算法在跟踪过程中每更新一帧就增加一次训练样本,导致当前的训练数据中存在相似度较高的样本较多,从而导致滤波器过拟合的问题。而ECO算法用了GMM来生成不同的组合,从而使得每一个组合对应一组相似度较高的样本,不同的组合之间差异性较大。
(3) 减少滤波器更新频率。ECO算法规定模型每隔帧更新一次。模型更新频率降低,在提高了跟踪速度同时也避免模型在跟踪过程中漂移问题。一般设置为6。
ECO算法主要对C-COT算法三方面改进,即减少滤波器数量、减少训练集的样本量以及降低滤波器的更新频率,从而降低了C-COT算法的计算复杂度,从而提升跟踪速度。但其并未对特征提取网络过程进行改进,本文中针对特征提取网络模型较大、计算量大以及参数量多的问题,进一步对ECO算法进行改进。
-
深度卷积神经网络是由大量的卷积操作组成的神经网络,会导致整个神经网络在卷积的计算开销过大。针对上述现象以及深度卷积神经网络中间特征图有较多的冗余情况,HAN等人提出了GhostNet算法,并且主要运用于减少特征提取的计算量。对于任意的卷积运算都表示为:
$ \mathit{\boldsymbol{Y}} = {\rm{ }}\mathit{\boldsymbol{X}}*\mathit{\boldsymbol{r}} + \mathit{\boldsymbol{b}} $
(4) 式中,Y ∈ R h′×w′×e,X ∈ R o×h×w,r ∈ R o×k×k×l, $ * $代表卷积操作,b表示卷积运算偏置项,R表示多维矩阵,o是卷积通道数,h表示特征图高度,w表示特征图宽度,l代表卷积核数量,e表示特征图的数量,h′是特征图输出高度,w′是特征图输出宽度,k×k是卷积核的内核尺寸。在卷积过程中,每秒所执行的浮点运算次数(floating-point operations persecond,FLOPS)的计算量为l×h′×w′×o×k×k,由于卷积核个数l和通道数o通常数量较多,使得网络的参数量也较大。要优化的整个网络结构,决定于输入和输出的特征图结构。Ghost模块采用基本卷积过程产生原始的q个特征图,如下式所示:
$ \mathit{\boldsymbol{Y}}\prime = \mathit{\boldsymbol{X}}*\mathit{\boldsymbol{r}}\prime $
(5) 式中,r′∈ R c×k×k×q表示卷积核,q≤l,为了得到e个特征图,采用如下式所产生的z个经过线性运算的特征:
$ {\mathit{\boldsymbol{y}}_{i, j}} = {\mathit{\boldsymbol{ \boldsymbol{\varPhi} }}_{i, j}}({\mathit{\boldsymbol{y}}_i}\prime ), \left( {i = 1, \ldots , q;j = 1, \ldots , z} \right) $
(6) 式中,y i′是Y ′中第i个原始特征图,Φi, j是第i个原始特征图生成第j个经过变换后的特征图。经过公式的变换即可得到e=q×z个特征图。一般线性运算在每个通道进行,计算成本将小于原始卷积核。具体过程如图 1所示。
-
端侧类残差模块(ghost bo-ttlenecks,G-bneck)利用Ghost模块的优势和小型的CNNs设计。由两个Ghost模块组成G-bneck主要结构,第1个Ghost模块主要起增加通道数和膨胀层作用,第2个GhostNet主要用于减少通道数和连接两个Ghost模块的输入输出。具体结构如图 2所示。
-
GhostNet以G-bneck为基础,构建如表 1所示的网络结构。主要将Ghost模块作为构造块,第1层采用标准的卷积过程,G-bneck操作增加通道数,G-bneck根据不同大小的特征图分组到不同阶段。表 1中包含挤压与激发(squeeze-and-excitation,SE)块,Conv2d表示卷积层,AvgPool表示均值池化层,FC表示全连接层。
Table 1. GhostNet network structure
input operator #exp #out SE stride 2242×3 Conv2d — 16 — 2 1122×16 G-bneck 16 16 — 1 1122×16 G-bneck 48 24 — 2 562×24 G-bneck 72 24 — 1 562×24 G-bneck 72 40 1 2 282×40 G-bneck 120 40 1 1 282×40 G-bneck 240 80 — 2 142×80 G-bneck 200 80 — 1 142×80 G-bneck 184 80 — 1 142×80 G-bneck 184 80 — 1 142×80 G-bneck 480 112 1 1 142×112 G-bneck 672 112 1 1 142×112 G-bneck 672 160 1 2 72×160 G-bneck 960 160 — 1 72×160 G-bneck 960 160 1 1 72×160 G-bneck 960 160 — 1 72×160 G-bneck 960 160 1 1 72×160 Conv2d — 960 — 1 72×960 AvgPool — — — — 12×960 Conv2d — 1280 — 1 12×1280 FC — 1000 — — -
全局平均池化是将一个特征图用一个数值表示的过程,其中该数值是由特征图中的所有像素相加后平均得来。全局平均池化主要作用是减少参数量、计算量以及防止网络过拟合。网络通过全局平均池化在防止过拟合过程中也对每个通道赋予了类的含义,该过程为网络在结构上减少了全连接层的操作。具体方式如图 3所示。本文中全局平均池化的参数设定为u/4,u/16。其中u为输入图像的尺寸。
-
精确度表示追踪算法估计位置中心点与人工标注的目标中心点之间的距离小于给定阈值的视频帧的百分比。默认阈值为20个像素点。
成功率表示追踪算法的重合率得分(overlap score,OS),重合率定义如下式所示:
$ \varphi = \frac{{\left| {\alpha \cap \beta } \right|}}{{\left| {\alpha \cup \beta } \right|}} $
(7) 式中,φ表示重合率得分,α表示追踪算法得到的边界框,β表示人工标注的真实边界框。当某一帧的φ大于设定的阈值,则视频帧标记为成功,总的成功帧占所有帧的百分比为成功率。φ默认设定为0.5。
鲁棒性表示追踪算法在跟踪过程中的跟踪失败帧数占总帧数的百分比。鲁棒性在数值上越小表示跟踪效果更好。
平均期望覆盖率(expect average overlap rate,EAO)表示每个跟踪器在短时图像序列上的非重置重叠期望值。将所有的序列长度分类,使跟踪器在固定长度的视频帧上进行测试,得到每一帧的精确度ρ(K)。根据下式得到每一帧总序列的平均值:
$ {\rho _U} = \frac{1}{U}\sum\limits_{K = 1}^U {\rho (K)} $
(8) 式中,ρU表示在序列长度为U的EAO值,U表示长度大小,K表示不同视频帧的长度。
-
本文中所做实验均在一台处理器为Inter(R)Core(TM)i7-7700 3.60 GHZ,内存为16GB,操作系统为64位Windows10 Professional,编程环境为Python3.6,深度学习框架为PyTorch。
-
GECT算法参数设置如下:采用GhostNet网络作为特征提取模块,选择第一卷积层和最后Ghost层作为网络特征提取层。采用全局平均池化为u/4,u/16作为池化参数,其中u为输入网络的视频帧尺寸大小。未提及的参数采用ECO算法默认参数。
-
为了验证本文中所提出的GECT算法在特征提取网络在计算量和参数量的轻量性,将GhostNet网络与VGG-16、ResNet-50在参数量和计算量上进行对比。具体结果如表 2所示。表中VGG-16和ResNet-50分别表示原始ECO算法在特征提取过程中网络模型,输入图像的大小为通道数3,宽度为224个像素,高度为224个像素。表中GhostNet的参数量为5.2Mbit,远远小于VGG-16的参数量,也较ResNet-50少近5倍的参数量。GhostNet的FLOPS计算量为0.15Gbit,也远远小于VGG-16的15.62Gbit,较ResNet-50少近23倍的计算量。
Table 2. Parameters and calculations with different structures
model parameters/Mbit FLOPS/Gbit VGG-16 139.36 15.62 ResNet-50 25.6 3.53 GhostNet 5.2 0.15 -
为了研究本文中所提出的GECT算法采用有无预训练的GhostNet特征提取网络对整个跟踪效果的影响,对特征提取网络GhostNet是否有预训练进行实验。表 3所示为有无预训练对数据集OTB2015跟踪结果的影响。GECT跟踪算法的精确度0.847高于无预训练的GECT(GECT without pre-training,GECT-NP)算法的精确度0.804,成功率0.620高于无预训练的GECT-NP算法的成功率0.603。实验结果表明,GECT算法对有预训练的网络对于整体的特征提取有良好的效果。
Table 3. The impact of pre-training process on the tracking results of OTB2015
tracker name pre-training success precision GECT yes 0.620 0.847 GECT-NP no 0.603 0.804 -
为了研究本文中所提出的GECT算法采用无预训练的GhostNet特征提取网络对整个跟踪效果的影响,将特征提取网络GhostNet最后一层提取的特征数由960个增加到2000个。表 4所示不同特征数对数据集OTB2015跟踪结果的影响。实验结果表明,经过增加最后一层的特征数,本文中所提GECT算法的成功率从0.603增加到0.605,精确度从0.804增加到0.828,在成功率和精确度上都有明显的提升。同时说明了经过GhostNet的特征提取与变换,不同特征具有不同的表达能力。
Table 4. The influence of the number of features on the tracking results of OTB2015
tracker name features success precision GECT-NP 960 0.603 0.804 GECT-NP-2000 2000 0.605 0.828 -
为了研究本文中所提GECT算法在特征的表征能力,将GhostNet特征提取网络和全局平均池化后的特征进行输出,图 5和图 6所示为GECT算法在数据集OTB2015中篮球视频序列的可视化结果。图 5是视频帧图像和浅层特征的可视化结果,图 6是深度特征的可视化结果。实验结果表明,浅层特征更注重视频帧的纹理,深层特征更注重视频帧相应的语义信息。
为了研究特征在具体视频帧中的表现,将VOT2018中的篮球视频序列跟踪分数加权可视化。由图 7中可知,本文中提出的GECT算法在跟踪过程中,高响应分数的区域一直处于目标上,证明本算法在跟踪过程中高稳定性和高精确性。
-
为了研究本文中所提出的GECT算法在运行速度上的优势性,将GECT算法与ECO-VGG-16、ECO-ResNet-50在数据集VOT2018和OTB2015上进行对比,其中ECO-VGG-16是VGG-16作为ECO算法的特征提取网络,ECO-ResNet-50是ResNet-50作为ECO算法的特征提取网络。实验结果如表 5所示。在跟踪速度上,GECT算法的速度为1.3frame/s,比ECO-ResNet-50的速度提升近250%,比ECO-VGG-16的速度提升近650%。结果表明,GECT算法在速度上的优势明显高于同样的深度特征的ECO-VGG-16算法和ECO-ResNet-50算法。
Table 5. The influence of feature extraction network on the tracking speed of VOT2018
tracker speed/(frame·s-1) ECO-VGG-16 0.20 ECO-ResNet-50 0.50 GECT(ours) 1.30 -
为了研究本文中所提出的GECT算法中全局平均池化对跟踪结果的影响,对有无池化过程在数据集VOT2018上实验,其中GECT-NGAP算法表示无全局平均池化过程。实验结果如表 6所示。GECT算法的精确度(0.512)高于无全局平均池化的GECT(GECT without global average pooling,GECT-NGAP)算法的准确度(0.498),GECT算法丢失的帧数为87帧,要少于GECT-NGAP算法的109帧,GECT算法整体的鲁棒性(0.407)高于GECT-NGAP算法的鲁棒性(0.512),GECT算法综合结果EAO指标(0.226)也高于GECT-NGAP算法EAO指标(0.211)。结果表明,GECT算法在采用全局平均池化时,跟踪结果整体水平高于无平均池化的GECT-NGAP算法。
Table 6. The impact of the pooling process on the tracking results of VOT2018
tracker name accuracy robustness lost number EAO GECT 0.512 0.407 87.0 0.226 GECT-NGAP 0.498 0.510 109.0 0.211 -
为了验证GECT跟踪算法的有效性,采用GECT算法与主流相关滤波算法对比结果。对比的算法如下:基于手工特征的ECO算法(ECO algorithm based on handcraft features,ECO-HC)、空间正则化相关滤波器(spatially regularized correlation filters,SRDCF)、背景感知相关滤波(background-aware correlation filters,BACF)算法、基于线性核的对偶的相关滤波器(dual correlation filter,DCF)算法、核相关滤波(kernel correlation filter,KCF)算法、比例自适应多特征(scale adaptive multiple feature,SAMF)算法、时空正则相关滤波器(spatial-temporal regularized correlation filters,STRCF) 算法等算法。
(1) 在数据集VOT2018的测试结果。多种跟踪算法在VOT2018测试跟踪结果如表 7所示。本文中GECT算法的跟踪精度为0.512、鲁棒性为0.407、EAO为0.226,在对比中主流的相关滤波算法中跟踪效果最好。由表 7可知,本文中所提出的GECT算法在精确度和鲁棒性上排名靠前,EAO综合评价指标也比其它算法高,有效地证明了本文中算法在跟踪算法中的高精度性和高稳定性。
Table 7. Comparison test results of the algorithm on VOT2018
tracker name accuracy robustness lost number EAO GECT(ours) 0.512 0.407 87.0 0.226 ECO[13] 0.485 0.403 86.0 0.224 SRDCF[22] 0.495 0.501 107.0 0.210 ECO-HC[13] 0.500 0.473 101.0 0.207 Staple[23] 0.524 0.665 142.0 0.172 BACF[24] 0.511 0.674 144.0 0.169 STRCF[25] 0.483 0.679 145.0 0.152 SAMF[26] 0.499 1.147 245.0 0.110 DCF[27] 0.463 1.246 266.0 0.099 KCF[27] 0.463 1.330 284.0 0.094 (2) 在数据集OTB2015的测试结果。在公开数据集OTB2015进行对比,并采用一次跟踪评估(one-pass evaluation, OPE)作为评价方式。测试结果如表 8所示。本文中所提算法其跟踪精度为0.847、成功率为0.620。相比其它的相关滤波算法,本文中所提算法在精确度和成功率上都排名较高,在OTB2015上也表现出了高精度和高成功率。
Table 8. Comparison test results of the algorithm on OTB2015
应用GhostNet卷积特征的ECO目标跟踪算法改进
Improvement of ECO target tracking algorithm based on GhostNet convolution feature
-
摘要: 为了减少有效卷积算子(ECO)跟踪算法的特征提取网络参数量和计算量,采用了一种基于端侧神经网络(GhostNet)改进的ECO目标跟踪算法。首先,采用GhostNet网络作为主干特征提取网络提取图像浅层与深层的卷积特征,运用全局平均池化对卷积特征下采样增加特征对图像的表征能力;其次,将卷积特征与手工特征插值后,与当前滤波器在傅里叶域进行卷积计算实现目标定位;最后,采用共轭梯度算法优化响应误差与惩罚项之和的损失函数实现滤波器更新。在上述提出的算法和OTB2015与VOT2018数据集上进行了理论分析和实验验证,取得了目标跟踪的对比实验数据。结果表明,相对于基于ResNet特征提取网络的ECO算法,该算法在实现高精度跟踪时,卷积特征提取过程计算量减少了95.75%,参数量减少了79.69%,跟踪过程速度提升了160%。这些结果为轻量级目标跟踪算法的研究提供了参考。Abstract: In order to reduce the amount of feature extraction network parameters and computation of effective convolution operator (ECO) tracking algorithm, the improved eco target tracking algorithm based on GhostNet was adopted. Firstly, the GhostNet network was used as the main feature extraction network to extract the convolution features of shallow and deep layers, and the global average pooling was adapted to downsampling convolution features to improve the image representation ability. Secondly, after interpolating the convolution feature with the manual feature, convolution calculation was performed with the current filter in the Fourier domain to realize the target localization. Finally, conjugate gradient algorithm was used to optimize the loss function of the sum of response error and penalty term to update the filter. Theoretical analysis and experimental verification were carried out on the proposed algorithm and OTB2015 and VOT2018 datasets, then the comparative experimental data of target tracking were obtained. The results show that compared with the ECO algorithm based on ResNet feature extraction network, the proposed algorithm can achieve higher precision tracking, the convolution feature extraction process reduces 95.75% of computation and 79.69% of parameters, and the tracking speed increases 160% at the same time. These results provide a reference for the research of lightweight target tracking algorithms.
-
Table 1. GhostNet network structure
input operator #exp #out SE stride 2242×3 Conv2d — 16 — 2 1122×16 G-bneck 16 16 — 1 1122×16 G-bneck 48 24 — 2 562×24 G-bneck 72 24 — 1 562×24 G-bneck 72 40 1 2 282×40 G-bneck 120 40 1 1 282×40 G-bneck 240 80 — 2 142×80 G-bneck 200 80 — 1 142×80 G-bneck 184 80 — 1 142×80 G-bneck 184 80 — 1 142×80 G-bneck 480 112 1 1 142×112 G-bneck 672 112 1 1 142×112 G-bneck 672 160 1 2 72×160 G-bneck 960 160 — 1 72×160 G-bneck 960 160 1 1 72×160 G-bneck 960 160 — 1 72×160 G-bneck 960 160 1 1 72×160 Conv2d — 960 — 1 72×960 AvgPool — — — — 12×960 Conv2d — 1280 — 1 12×1280 FC — 1000 — — Table 2. Parameters and calculations with different structures
model parameters/Mbit FLOPS/Gbit VGG-16 139.36 15.62 ResNet-50 25.6 3.53 GhostNet 5.2 0.15 Table 3. The impact of pre-training process on the tracking results of OTB2015
tracker name pre-training success precision GECT yes 0.620 0.847 GECT-NP no 0.603 0.804 Table 4. The influence of the number of features on the tracking results of OTB2015
tracker name features success precision GECT-NP 960 0.603 0.804 GECT-NP-2000 2000 0.605 0.828 Table 5. The influence of feature extraction network on the tracking speed of VOT2018
tracker speed/(frame·s-1) ECO-VGG-16 0.20 ECO-ResNet-50 0.50 GECT(ours) 1.30 Table 6. The impact of the pooling process on the tracking results of VOT2018
tracker name accuracy robustness lost number EAO GECT 0.512 0.407 87.0 0.226 GECT-NGAP 0.498 0.510 109.0 0.211 Table 7. Comparison test results of the algorithm on VOT2018
tracker name accuracy robustness lost number EAO GECT(ours) 0.512 0.407 87.0 0.226 ECO[13] 0.485 0.403 86.0 0.224 SRDCF[22] 0.495 0.501 107.0 0.210 ECO-HC[13] 0.500 0.473 101.0 0.207 Staple[23] 0.524 0.665 142.0 0.172 BACF[24] 0.511 0.674 144.0 0.169 STRCF[25] 0.483 0.679 145.0 0.152 SAMF[26] 0.499 1.147 245.0 0.110 DCF[27] 0.463 1.246 266.0 0.099 KCF[27] 0.463 1.330 284.0 0.094 Table 8. Comparison test results of the algorithm on OTB2015
-
[1] BRUHN A, WEICKERT J, SCHNÖRR C. Combining local and glo-bal optic flow methods[J]. International Journal of Computer Vision (IJCV), 2005, 61(3): 211-231. [2] CRUZ-MOTA J, BOGDANOVA I, PAQUIER B, et al. Scale invariant feature transform on the sphere: Theory and applications[J]. International Journal of Computer Vision (IJCV), 2012, 98(2): 217-241. doi: 10.1007/s11263-011-0505-4 [3] MEI X, LING H, WU Y, et al. Efficient minimum error bounded particle resampling L1 tracker with occlusion detection[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2661-2675. doi: 10.1109/TIP.2013.2255301 [4] COLLINS J, ROGERS T. Understanding the large-distance behavior of transverse-momentum-dependent parton densities and the Collins-Soper evolution kernel[J]. Physical Review, 2015, D91(7): 074020. [5] HARE S, GOLODETZ S, SAFFARI A, et al. Struck: structured output tracking with kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2016, 38(10): 2096-2109. doi: 10.1109/TPAMI.2015.2509974 [6] HENRIQUES J F, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI), 2014, 37(3): 583-596. [7] HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]//European Conference on Computer Vision (ECCV). Berlin, Heidelberg: Springer, 2012: 702-715. [8] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual object tracking using adaptive correlation filters[C]//International Confe-rence on Computer Vision and Pattern Recognition (CVPR). New York, USA: IEEE, 2010: 2544-2550. [9] LI F, TIAN C, ZUO W, et al. Learning spatial-temporal regularized correlation filters for visual tracking[C]// International Conference on Computer Vision and Pattern Recognition(CVPR). New York, USA: IEEE, 2018: 4904-4913. [10] KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2011, 34(7): 1409-1422. [11] DANELLJAN M, HAGER G, KHAN F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2016, 39(8): 1561-1575. [12] DANELLJAN M, HAGER G, SHAHBAZ KHAN F, et al. Convolutional features for correlation filter based visual tracking[C]//Proceedings of the IEEE International Conference on Computer Vision Workshops(ICCV). New York, USA: IEEE, 2015: 58-66. [13] DANELLJAN M, BHAT G, KHAN F S, et al. ECO: Efficient convolution operators for tracking[C]//Proceedings of the IEEE Confe-rence on Computer Vision and Pattern Recognition (CVPR). New York, USA: IEEE, 2017: 6638-6646. [14] BERTINETTO L, VALMADRE J, HENRIQUES J F, et al. Fully-convolutional siamese networks for object tracking[C]//European Conference on Computer Vision (ECCV). Cham, Amsterdam, Netherlands: Springer, 2016: 850-865. [15] LI B, YAN J, WU W, et al. High performance visual tracking with siamese region proposal network[C]// International Conference on Computer Vision and Pattern Recognition (CVPR). New York, USA: IEEE, 2018: 8971-8980. [16] PARK E, BERG A C. Meta-tracker: Fast and robust online adaptation for visual object trackers[C]// European Conference on Computer Vision (ECCV). Springer, Cham, Munich, Germany, 2018: 569-585. [17] WANG G, LUO C, SUN X, et al. Tracking by instance detection: A meta-learning approach[C]// International Conference on Computer Vision and Pattern Recognition (CVPR). New York, USA: IEEE, 2020: 6288-6297. [18] RAZIYE E, ASKAR H. Infrared dim point target tracking algorithm based on meta learning [J]. Laser Technology, 2021, 45(3): 396-404(in Chinese). [19] VOIGTLAENDER P, LUITEN J, TORR P H S, et al. Siam R-CNN: Visual tracking by re-detection[C]// International Confe-rence on Computer Vision and Pattern Recognition (CVPR). New York, USA : IEEE, 2020: 6578-6588. [20] HAN K, WANG Y, TIAN Q, et al. GhostNet: More features from cheap operations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York, USA: IEEE, 2020: 1580-1589. [21] KUAN K, MANEK G, LIN J, et al. Region average pooling for context-aware object detection[C]//2017 IEEE International Confe-rence on Image Processing (ICIP). New York, USA: IEEE, 2017: 1347-1351. [22] DANELLJAN M, HAGER G, KHAN F S, et al. Learning spatially regularized correlation filters for visual tracking[C]//Proceedings of the IEEE International Conference on Computer Vision(ICCV). New York, USA: IEEE, 2015: 4310-4318. [23] BERTINETTO L, VALMADRE J, GOLODETZ S, et al. Staple: Complementary learners for real-time tracking[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR). New York, USA: IEEE, 2016: 1401-1409. [24] GALOOGAHI H K, FAGG A, LUCEY S. Learning background-aware correlation filters for visual tracking[C]//Proceedings of the IEEE International Conference on Computer Vision(ICCV). New York, USA: IEEE, 2017: 1135-1143. [25] LI F, TIAN C, ZUO W, et al. Learning spatial-temporal regularized correlation filters for visual tracking[C]//International Conference on Computer Vision and Pattern Recognition(CVPR). New York, USA: IEEE, 2018: 4904-4913. [26] QU Z, YI W, ZHOU R, et al. Scale self-adaption tracking method of defog-PSA-Kcf defogging and dimensionality reduction of foreign matter intrusion along railway lines[J]. IEEE Access, 2019, 7: 126720-126733. doi: 10.1109/ACCESS.2019.2939435 [27] YAN J, ZHONG L, YAO Y, et al. Dual-template adaptive correlation filter for real-time object tracking[J]. Multimedia Tools and Applications, 2021, 80(2): 2355-2376. doi: 10.1007/s11042-020-09644-5 [28] DANELLJAN M, HAGER G, KHAN F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2016, 39(8): 1561-1575.