一种相似度计算方法和多目标跟踪方法

文档序号:9358 发布日期:2021-09-17 浏览:33次 英文

一种相似度计算方法和多目标跟踪方法

技术领域

本发明属于计算机视觉领域,尤其涉及一种相似度计算方法和多目标跟踪方法。

背景技术

所谓多目标跟踪,是指给定一个视频,算法能输出视频中感兴趣目标的位置框。需要注意的是,视频中目标的数目不固定。在跟踪的过程中,还要为每个目标分配一个唯一的身份信息(即编号,用ID表示)。多目标跟踪具有广泛的应用,如智能监控,自动驾驶等。随着目标检测的快速发展,基于检测的多目标跟踪方法逐渐成为主流。而这类方法中,主要是用数据关联来解决多目标跟踪问题。

一般来说,一个鲁棒的相似度模型是解决数据关联的关键。现有方法中,大部分都是基于目标个体本身的特征来计算目标之间的相似度,即这种相似度模型没有考虑到目标之间的相互关系。虽然随着深度学习技术的发展,目标的特征表示能力也越来越强,这种基于目标个体特征计算的相似度在某种程度上来说也具有一定的鲁棒性。但是,这种计算方式在复杂场景下仍有局限性。比如,当跟踪的目标属于同一类别时(如行人跟踪,车辆跟踪等),这些目标的外观具有一定的相似性,而且目标之间难免会存在频繁的遮挡。如图1所示,展示了行人跟踪下的一种复杂场景。图1的(a)部分展示了相邻两帧图片,可以看出,该场景中,不同行人的衣着比较相似,而且行人之间也具有一定的遮挡。图1的(b)部分展示了基于目标个体特征计算的相似度得分,基本流程为:先提取单个目标的个体特征(Individual Representation),再进行相似度计算(Similarity Measure);可以看到,当行人被遮挡时,计算出来的相似度得分比较低,且当不同的行人衣着相似时,计算出来的相似度得分却比较高。因此,在这种复杂场景下,基于目标个体特征计算的相似度得分不够可靠。

目标的外观特征在目标跟踪中被广泛使用。比较早期的工作利用手工设计的外观特征进行多目标跟踪。比如Yamaguchi等人在文章“Who are you with and where are yougoing?CVPR2011”中利用原始像素模板(raw pixel template),Izadinia等人在文章“(MP)2:multiple people multiple parts tracker.ECCV 2012”中用到了颜色直方图(Colorhistogram)和梯度直方图(Histogram of Oriented Gridients,HOG)。近年来随着深度学习的发展,利用卷积神经网络(Convolutional Neural Network,CNN)提取的外观特征被广泛应用到多目标跟踪领域。

目标的运动信息也被广泛应用到多目标跟踪领域。这些利用了运动信息的方法中,基本都基于一个假设,那就是目标的运动是平滑且缓慢的。Milan等人在文章“Continuous energy minimization for multitarget tracking.TPAMI 2013”中设计了线性运动模型,Yang等人在文章“Multitarget tracking by online learning of non-linear motion patterns and robust appearance models.CVPR 2012”中设计了非线性运动模型。但是目标在视频中的运动并不仅仅是由目标本身决定的,还和拍摄的设备有关。在拍摄的过程中,设备难免会存在一定的抖动,这种抖动一般都是随机的、不可预测的。因此,简单地依靠运动模型很难解决相机的抖动问题。

上述介绍的内容都是基于目标个体进行设计和利用特征,并没有利用到目标之间的相互关系。目前也有部分工作尝试利用目标之间的相互关系来进行多目标跟踪。Sadeghian等人在文章“Tracking the untrackable:Learning to track multiple cueswith long-term dependencies.ICCV 2017”中通过将图片分隔成固定大小的网格状,从而设计一种占位图(Occupancy Map)。当某个格子中存在目标时,则将占位图对应的取值设为1,否则设为0。可以看到这种处理方式,只是粗略地记录了目标的分布,而且占位图中取值为1的格子无法区别不同的目标和目标个数。Xu等人在文章“Spatial-temporal relationnetworks for multi-object tracking.ICCV 2019”中利用关系网络(RelationalNetwork)来提取目标之间的相互关系。具体来说,目标之间的相互位置关系被编码成一个权重,然后利用该权重来融合当前帧中其他目标的外观特征。需要注意的是,每个目标在融合其他目标的外观特征时利用的权重都是不同的。但是这种做法可解释性不强,而且这种做法忽略了目标之间的拓扑结构。

发明内容

本发明的目的是提供一种相似度计算方法和多目标跟踪方法,提高多目标跟踪中相似度模型的鲁棒性,能够确保多目标跟踪在复杂场景中的跟踪效果。

本发明的目的是通过以下技术方案实现的:一种用于多目标跟踪的相似度计算方法,包括:

对于每一视频帧中每个目标,计算目标的近邻,再利用目标与其近邻的目标外观特征构建顶点集合,利用目标之间的相互关系计算出有向边集合,从而构建一个有向图。

对于相邻视频帧,利用两个视频帧中各目标的有向图进行匹配计算,获得相似度计算结果。

进一步地,对于第t帧中的目标集合表示为其中,第i个目标表示为表示第i个目标的位置框,其中的四个元素分别为第i个目标的左上角的坐标、位置框的宽、高;表示根据位置框在第t帧中截取的图片块,It表示第t帧中目标的个数。

进一步地,根据目标之间的距离,来获取目标的K近邻,K为近邻总数;对于第t帧,以第i个目标为锚点,将目标作为其自身的第0近邻,则目标及其近邻构成集合其中,是目标的第k近邻。

进一步地,对于第t帧中第i个目标构建的有向图表示为其中,顶点集合定义如下:

式中,表示的外观特征,φACNN(·)表示用来提取外观特征的卷积神经网络的前传函数。

对于有向边集合首先,用表示锚点与其近邻之间的相对位置向量:

式中,wt和ht是第t帧的宽和高,φRP(·,·)是基于位置框计算目标之间相对位置的函数。

利用相对位置编码器对相对位置向量进行变换,得到从而得到有向边集合

式中,φRPE(·)是相对位置编码器。

进一步地,利用两个视频帧中各目标的有向图进行硬匹配,包括:

对于相邻视频帧,第t-1帧与第t帧,给定两个目标的有向图首先,计算一个相似度矩阵矩阵中第k行和第k’列的元素计算如下:

式中,表示特征向量之间元素相减,|·|2表示对向量中的元素取平方,[·,·]表示将两个向量拼接起来,φBC(·)表示二分类器的前传函数。

最终,得到:

进一步地,利用两个视频帧中各目标的有向图进行软匹配,包括:

在硬匹配的基础上,先进行近邻对齐,再计算相似度,表示为:

式中,是相似度矩阵Si,j去掉第一行和第一列之后得到的矩阵;φLA(·)是一个线性分配函数,用于根据输入的相似度矩阵,完成任务分配并返回最大的总相似度和。

一种多目标跟踪方法,将上述相似度计算方法应用到已有的基于数据关联的多目标跟踪方法中,替换其中的相似度模型。

进一步地,包括:利用上一帧的信息找回当前帧中丢失的目标,步骤如下:

对于第t-1帧中的第i个目标如果在第t帧丢失,则利用第i个目标与其第k近邻间的相对位置以及的位置,估计第t帧中第i个目标的位置框

式中,表示φRP(·,·的逆函数,φRP(·,·)是基于位置框计算目标之间相对位置的函数;表示在第t帧中对应的目标。

对于第i个目标的所有K个近邻都通过上述方式估计第t帧中第i个目标的位置框,通过求平均的方式计算第t帧中第i个目标最终的位置框

进一步地,获得第t帧中第i个目标最终的位置框后,基于通过高斯分布采样若干候选框。

对于采样到的任一候选框利用表示在第t帧中的一个候选目标,表示根据位置框在第t-1帧中截取的图片块,并构建一个有向图然后求出图之间的相似度。

在所有候选检测结果中,取出相似度得分最高的候选检测结果,如果该相似度得分大于设定的阈值,则将得分最高的候选目标作为在第t帧中的跟踪结果。

本发明的有益效果是:本发明同时利用了目标的外观特征和目标之间的相对位置特征,并且,目标之间的拓扑结构也被很好地编码到有向图中。本发明提高了多目标追踪的准确度、精确率;且可在某个目标被其他目标遮挡严重时找回丢失的目标;可以获得更多的跟踪目标个数减少丢失目标个数。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。

图1为现有技术在复杂应用场景中的效果示意图;

图2为本发明实施例提供的相似度计算方法的效果示意图;

图3为本发明实施例提供的构建有向图的示意图;

图4为本发明实施例提供的相对位置编码器的结构示意图;

图5为本发明实施例提供的二分类器的结构示意图;

图6为本发明实施例提供的漏检情况下的有向图变化示意图;

图7为本发明实施例提供的基于有向图找回丢失的目标示意图;

图8为本发明实施例提供的不同K值下的跟踪性能;

图9为本发明实施例提供的可视化跟踪结果示意图。

具体实施方式

下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。

本发明一种用于多目标跟踪的相似度计算方法,其作为相似度模型可以提高多目标跟踪中相似度模型的鲁棒性,具体来说该相似度模型为图相似度模型,它具有通用性,可以替换掉目前多目标跟踪中的相似度模型。

如图2所示,示出了多目标跟踪的相似度计算方法的主要原理,图2中以图1的(a)部分所示场景为例,主要包括:

1、对于每一视频帧中每个目标,计算目标的近邻,再利用目标与其近邻的目标外观特征构建顶点集合,利用目标之间的相互关系计算出有向边集合,从而构建一个有向图,即图2中的“Graph Representation”。

2、对于相邻视频帧,利用两个视频帧中各目标的有向图进行匹配计算,获得相似度计算结果,即图2中的“Graph Matching”。

为了便于理解,下面针对本发明上述方案进行详细的介绍,主要分为两部分来介绍,第一部分主要介绍多目标跟踪中的数据关联;第二部分主要介绍图相似度模型的原理。

一、数据关联。

对于第t帧中的目标集合表示为其中,第i个目标表示为表示第i个目标的位置框,其中的四个元素 分别为第i个目标的位置框的左上角横、纵坐标和宽、高;表示根据第i个目标的位置框在第t帧中截取的图片块,It表示第t帧中目标的个数。

数据关联是在相邻两帧中进行的,设相邻两帧分别为第t-1帧和第t帧。在解决数据关联时,需要提供一个代价矩阵代价矩阵中的第i行,第j列的元素mi,j表示目标之间的代价,其计算方式如下:

上式中,φCI(·,·表示基于目标个体特征计算代价的函数。

现有大部分方法主要是通过学习更好的目标个体的特征或者通过设计更好的代价函数φCI(·,·来提高相似度模型的鲁棒性。但是这种做法都没有将目标之间的相互关系考虑进来。

如图3的(a)部分所示,展示了相邻两帧中的目标检测结果,目标的位置框左上角的数字用于区分不同的检测结果。以第1个目标(即最左侧的行人)为例,可以看到被严重遮挡,在外观上与有比较大的区别。

为了利用目标之间的相互关系,本发明设计了图相似度模型,基于图的代价计算方式如下:

上式中,表示为目标创建的有向图(实现方式详见后文的介绍),φGI(·,·)表示基于两个图的特征表示计算代价的函数。目标之间的相互关系被嵌入到了图的特征表示中。

二、图相似度模型。

本部分主要从三个方面进行介绍:获取目标近邻、构建有向图、图匹配。

1、获取目标近邻。

为了创建有向图首先需要在第t帧中获取到的K近邻(K为近邻总数,数值可自行设定),目标与其近邻必须在同一帧内。获取近邻的方式有很多种,具体可参见常规技术,本发明不做限定。

通过某种度量方式,可以计算目标之间的距离。这里的距离是一种通用的表述,包括但不限于目标位置框中心点之间的欧式距离。本发明实施例中,用目标位置框中心点之间的欧式距离来获取近邻。用有序集合表示目标及其近邻的集合,其中是目标的第k近邻。另外,定义为锚点。为了简化书写,设是其自身的第0近邻,因此以图3的(a)部分为例,当k=2时,

2、构建有向图。

对于第t帧中第i个目标构建的有向图表示为有向图图是基于构建,由K+1个顶点和K+1条有向边构成。图3的(b)部分、(c)部分、(d)部分分别给出了两个相邻帧中不同目标的有向图,虽然有向图中的节点可能相同,但是它们的边不同。

顶点集合定义如下:

上式中,表示的外观特征,表示的位置框在第t帧中截取的图片块,φACNN(·)表示用来提取外观特征的卷积神经网络的前传函数;其中,卷积神经网络可通过常规方式实现。

为了利用目标之间的相互关系,首先定义了目标之间的相互位置,用表示锚点与其近邻之间的相对位置向量:

上式中,分别为的位置框的左上角横、纵坐标和宽、高,wt和ht是第t帧的宽和高,φRP(·,·)是基于位置框计算目标之间相对位置的函数;

利用相对位置编码器对相对位置向量进行变换,得到从而得到有向边集合

上式中,表示中的元素,φRPE(·)是相对位置编码器。

示例性地,相对位置向量可以是8维的向量,可以利用Vaswani在文章“Attention is all you need.NIPS 2017”中设计的方法将该8维相对位置向量变换成高维的相对位置向量,本实施例将该8维相对位置向量变换成64维的相对位置向量。图4示意性地给出了相对位置编码器的结构,相对位置编码器主要由FC(Fully Connected)层构成,同时也利用了批标准化(Batch Normalization,BN)层以及ReLU激活函数。

3、图匹配。

对于相邻视频帧,即第t-1帧与第t帧,给定两个目标的有向图首先,计算一个相似度矩阵矩阵中第k行和第k’列的元素计算如下:

上式中,表示特征向量之间元素相减,|·|2表示对向量中的元素取平方,[·,·表示将两个向量拼接起来,φBC(·表示二分类器(Binary Classifier,BC)的前传函数;图5示意性地给出了二分类器的结构。

最终,有向图之间的相似度si,j可以通过下面的方式计算得到:

上述匹配方式为硬匹配。由于实际应用中,检测结果不完美,存在漏检和虚警,因此通过上式计算得到相似度得分鲁棒性不高。

如图6所示,目标的一个近邻在第t帧时被漏检,则相应的构建的有向图也发生了变化。由于近邻的顺序发生了变化,即近邻之间没有对齐,因此当直接进行硬匹配时得到的相似度得分不可靠。

为了解决近邻没有对齐的问题,进一步提出软匹配方案,即在硬匹配的基础上,先进行近邻对其,再计算相似度表示为:

上式中,是相似度矩阵Si,j去掉第一行和第一列之后得到的矩阵;φLA(·是一个线性分配函数,该函数从匈牙利算法修改得到,用于根据输入的相似度矩阵,完成任务分配并返回最大的总相似度和。

与硬匹配相比,软匹配可以将锚点的K个近邻对齐。但是需要注意的是,软匹配得到的相似度得分总是不小于硬匹配得到的相似度得分,即恒有相似度成立。由此可以看到,当两个图中的两个锚点是相同的目标(正样本)时,软匹配有积极作用,当两个图中的锚点是不同的目标(负样本)时,软匹配有消极作用。尽管如此,由于目标的外观特征和目标之间的相对位置特征都被编码至有向图中,使得有向图的特征表示能力很好,因此软匹配对后者的消极影响基本可以忽略不记。最终,前述代价公式可以重新写为:

优选地,本发明实施例还提供一种可找回丢失目标的多目标跟踪方法。

在多目标跟踪领域,一个目标可能会被其他目标遮挡。当遮挡比较严重时,对检测器来说,被遮挡的目标很难被检测到,如图6所示,最右侧的目标在第t帧时丢失了。由于本发明设计的图相似度模型利用了目标之间的拓扑结构,因此可以利用本发明中图相似度模型找回丢失的目标,如图7所示。

对于第t-1帧中的第i个目标如果在第t帧丢失,则利用第i个目标与其第k近邻间的相对位置以及的位置,估计第t帧中第i个目标的位置框

上式中,表示φRP(·,·)的逆函数,φRP(·,·)是基于位置框计算目标之间相对位置的函数;表示在第t帧中对应的目标。

对于第i个目标的所有K个近邻都通过上述方式估计第t帧中第i个目标的位置框,通过求平均的方式计算第t帧中第i个目标最终的位置框

进一步地,在获得第t帧中第i个目标最终的位置框后,基于通过高斯分布采样若干候选框。对于采样到的任一候选框利用表示在第t帧中的一个候选目标,表示根据位置框在第t-1帧中截取的图片块,并构建一个有向图然后求出图之间的相似度;在所有候选目标中,取出相似度得分最高的候选目标,如果该相似度得分大于设定的阈值,则将得分最高的候选目标作为在第t帧中的跟踪结果。

本发明实施例上述方案,设计了一种图的特征表示(即有向图),这种特征表示不仅利用了目标个体的特征,同时也利用了目标之间的相互关系。这种相互关系通过有向图进行表示,实际上也是目标之间的拓扑结构;还设计了一种图的特征匹配方式,通过合理的匹配方式,可以得到比较鲁棒的相似度得分。

另一方面,为了说明本发明实施例上述方案的效果,将图相似度模型应用到已有的基于数据关联的多目标跟踪方法中,替换其中的相似度模型,并通过实验对图相似度模型的有效性进行验证。

在MOTChallenge(https://motchallenge.net/)上进行实验来分析图相似度模型的优点和积极效果。用到的数据集包括MOT16和MOT17,评价指标如下:

1)多目标跟踪准确率(Multi-Object Tracking Accuracy,MOTA),该指标越高越好。

2)多目标跟踪精确率(Multi-Object Tracking Precision,MOTP),该指标越高越好;

3)同一个目标被分配同一个ID的频率(how often an object is identified bythe same ID,IDF1),该指标越高越好;

4)大部分被跟踪上的目标个数(Mostly Tracked objects,MT),该指标越高越好;

5)大部分丢失的目标个数(Mostly Lost objects,ML),该指标越低越好;

6)目标发生ID变化的次数(number of IDentity Switches,IDS),该指标越低越好;

7)目标轨迹不连续的次数(number of Fragments,Frag),该指标越低越好;

8)漏检目标个数(False Negative,FN),该指标越低越好;

9)虚警个数(False Negative,FP),该指标越低越好。

1、实验细节。

实验中,所有的图片块都缩放成64×128的尺寸。用来提取外观特征的卷积神经网络基于ResNet-34(Deep residual learning for image recognition.CVPR 2016)实现:去掉最后一层FC层,这样便可以得到2×4×256的特征,然后将该特征变换成2048维的向量,最后将该向量输入一个FC层,得到256维的外观特征向量。相对位置编码器RPE输出的相对位置特征也是256维。

外观卷积神经网络、相对位置编码器和二分类器是端到端进行训练的,利用二值交叉熵损失函数在训练集上训练了30次。训练时,二分类器的输入有正负样本之分:当锚点是相同目标,且近邻是相同目标时,输入是正样本,其他不满足上述要求的都是负样本。学习率初始化为0.002,每训练10次学习率降为原来的1/2。另外,用在线难样本挖掘来解决正负样本不均衡问题。

2、消融实验

为了验证本发明中GSM(图相似度模型)的有效性,也设计了一个基础模型(用表示)。中没有RPE(相对位置编码器),且分类器只根据目标的外观特征进行分类(判断两个外观特征是否属于同一个目标)。也进一步设计了两个跟踪器,这两个跟踪器的唯一区别是相似度模型的不同。两个跟踪器通过关联匹配相邻帧中的目标进行跟踪。进一步将MOT16训练集中的7个视频分成训练子集和验证子集。验证子集包括MOT16-09和MOT16-10,剩下的5个视频组成训练子集。不同模型在验证子集上的跟踪结果如表1所示。

表1:在验证子集上的跟踪性能

表1中,不同模型的上标数字代表利用近邻的个数K。前两行比较了当不用近邻进行多目标跟踪的性能,两个模型的跟踪性能基本相同。这是可以理解的,因为从前述计算公式中可以看到,目标相对自己的相对位置是一个8维的全零向量,这意味着当近邻个数K=0时,GSM只利用了外观特征。

中间四行对比了硬匹配(下标h)和软匹配(下标s)对跟踪性能的影响。用了五个近邻。对于模型,构建的图只有节点没有边。可以看到,硬匹配和软匹配对模型都有负面影响,原因如下:(1)对于锚点不同的两个图,如果近邻中有相同的目标,两种匹配方式都会增加两个图的相似度;(2)对于锚点不同的两个图,由于此时只用到了外观特征而没有相对位置特征,因此软匹配带来的负面影响不可忽略。对于GSM模型,当用了5个近邻时,硬匹配反而会降低跟踪性能(对比GSM0)。原因是当两个图的锚点是相同的目标且近邻没有对齐时,硬匹配得到的相似度会很低。对比GSM0可以看到的IDF1高出5.9%,而且IDS也更低,这说明跟踪时,相同的目标被分配同一个ID的频率更高。

最后一行展示了找回丢失目标后对跟踪性能的影响,用表示。在找回目标时,为每个丢失的目标采样64个候选目标。可以看出,相对于的FN更低,这说明部分丢失的目标已经被重新找回。但是的FP也更高,说明找回的目标中,有一部分找回失败了。

为了找到比较合适K值,利用软匹配进行了大量的实验,如图8所示,整体来说,当K≥5时,MOTA有一点提升,IDF1基本保持不变。原因在于:随着K值的增加,当两个图中的锚点是同一个目标时,得到的相似度得分也越高(越可靠);相反,当两个图中的锚点时不同的目标时,得到的相似度得分也越高(越不可靠)。这种积极作用和消极作用相互抵消。为了权衡跟踪性能和时间,设置K=5。在验证集上,创建一个有向图、计算两个图之间的相似度得分,耗时分别为0.15ms和0.03ms。将模型替换为的GSM模型后,跟踪速度从93.7FPS下降到61.5FPS。

在图9中可视化了一些跟踪结果,第一行:N aive0跟踪结果;第二行的跟踪结果;的跟踪结果。在第27帧时虚线框内有两个目标,记右侧为目标2,左侧为目标8。在第29帧时,目标2被目标8部分遮挡,导致目标2没有被检测到。但是,目标2的位置被很好地估计出来。在第49帧,目标2被目标8完全遮挡,Naive0错误地将目标8识别成目标2,但是都正确识别了目标(中间靠右侧的矩形框)。

3、在MOTChallenge上的结果

将本发明中的GSM模型应用到当前已发表的性能最好的跟踪器Tracktor(Tracking without bells and whistles.ICCV 2019)中,记为GSMTracktor。此外,还与算法MTDF(Multi-level cooperative fusion of gm-phd filters for online multiplehuman tracking.IEEE Transactions on Multimedia2019)、STAM(Online multiobjecttracking using cnn-based single object tracker with spatial-temporalattention mechanism.ICCV2017)、DMMOT(Online multi-object tracking with dualmatching attention networks.ECCV 2018)、AMIR(Tracking the untrackable:Learningto track multiple cues with long-term dependencies.ICCV 2017)、STRN(Spatial-temporal relation networks for multi-object tracking.ICCV 2019)、DMAN(Onlinemulti-object tracking with dual matching attention networks.ECCV 2018)、HAM_SADF(Online multi-object tracking with historical appearance matching andscene adaptive detection filtering.AVSS 2018)、MOTDT(Real-time multiple peopletracking with deeply learned candidate selection and personreidentification.ICME 2018)和FAMNet(Famnet:Joint learning of feature,affinityand multi-dimensional assignment for online multiple object tracking.ICCV2019)进行对比。并在MOT16和MOT17的测试集上进行测试。测试结果如表2所示。

表2:不同跟踪算法在MOTChallenge上的跟踪性能

在MOT16上,除了MOTP,FP和IDS外,GSMTracktor在其他指标上均取得了最好的跟踪性能,而且在IDS上排在第二位(475),仅比第一位(473)的IDS高了一点。与Tracktor相比,GSMTracktor在MOTA和IDF1上分别提升了3.6%和5.7%,并且IDS也降低了30.4%。在MOT17上,整体来看GSMTracktor也是取得了最好的性能。与Tracktor相比,GSMTracktor几乎在全部指标上均取得了更好的结果。特别地,MOTA和IDF1上分别提升了2.9%和5.5%,IDS也降低了20%以上。GSMTracktor在IDS和IDF1上取得了更好的性能说明本发明中的GSM模型具有很好的特征表示能力,计算得到的相似度也更加鲁棒。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。

以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

完整详细技术资料下载
上一篇:石墨接头机器人自动装卡簧、装栓机
下一篇:一种基于双时空约束的相关滤波目标跟踪方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!