Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020140635 - TEXT MATCHING METHOD AND APPARATUS, STORAGE MEDIUM AND COMPUTER DEVICE

Document

说明书

发明名称 0001   0002   0003   0004   0005   0006   0007   0008   0009   0010   0011   0012   0013   0014   0015   0016   0017   0018   0019   0020   0021   0022   0023   0024   0025   0026   0027   0028   0029   0030   0031   0032   0033   0034   0035   0036   0037   0038   0039   0040   0041   0042   0043   0044   0045   0046   0047   0048   0049   0050   0051   0052   0053   0054   0055   0056   0057   0058   0059   0060   0061   0062   0063   0064   0065   0066   0067  

权利要求书

1   2   3   4   5   6   7   8   9   10   11   12   13   14   15   16   17   18   19   20  

附图

1   2   3   4   5  

说明书

发明名称 : 文本匹配方法、装置及存储介质、计算机设备

[0001]
本申请要求于2019年01月04日提交中国专利局、申请号为201910008683.8,发明名称为“文本匹配方法、装置及存储介质、计算机设备”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。

技术领域

[0002]
本申请涉及文本处理技术领域,具体而言,本申请涉及一种文本匹配方法、装置及存储介质、计算机设备。

背景技术

[0003]
文本匹配,即衡量搜索词与文本在文本上的相关性或者匹配度。文本匹配方法是搜索系统中一项必不可少的技术。在检索式的问答系统中,很重要的一步是将检索到的答案进行排序得到最佳的答案。换句话说,就是给定一个句子和众多自然语言形式的候选句,根据该句子,在众多的候选句中找到最匹配的句子。
[0004]
发明人意识到,传统的文本匹配方法通常根据词频的方式对文本进行匹配运算。例如,TF-IDF(term frequency-inverse document frequency,词频-逆向文件频率)算法。然而,采用分词词频的方式进行文本匹配,其匹配结果的准确性存在一定局限,不能很好地确定出与文本匹配对较高的其他文本。
[0005]
发明内容
[0006]
本申请提出一种文本匹配方法、装置及存储介质、计算机设备,以实现无需人工去定义特征模板即可获得文本匹配的候选句中语义最匹配的句子。
[0007]
第一方面,本申请公开一种文本匹配方法,包括:接收输入的目标文本;获取根据所述目标文本进行初步匹配得到的多个候选语句;将所述目 标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度;根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[0008]
第二方面,本申请公开一种文本匹配装置,包括:接收模块,用于获接收输入的目标文本;第一获取模块,用于获取根据所述目标文本进行初步匹配得到的多个候选语句;第二获取模块,用于将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度;推荐模块,用于根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[0009]
第三方面,本申请公开一种计算机设备,包括:一个或多个处理器;存储器;一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于执行一种文本匹配方法,所述文本匹配方法包括以下步骤:接收输入的目标文本;获取根据所述目标文本进行初步匹配得到的多个候选语句;将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度;根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[0010]
第四方面,本申请公开一种存储介质,其上存储有计算机程序;所述计算机程序适于由处理器加载并执行一种文本匹配方法,所述文本匹配方法包括以下步骤:接收输入的目标文本;获取根据所述目标文本进行初步匹配得到的多个候选语句;将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度;根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[0011]
本申请附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本申请的实践了解到。

附图说明

[0012]
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
[0013]
图1为本申请提供的一种文本匹配方法的一实施例中的方法流程图;
[0014]
图2为本申请提供的步骤S300的一实施例中的方法流程图;
[0015]
图3为本申请提供的文本匹配模型的一实施例中的训练方式的方法流程图;
[0016]
图4为本申请提供的一种文本匹配装置的一实施例中的结构框图;
[0017]
图5为本申请提供的一种计算机设备的一实施例中的结构示意图。

具体实施方式

[0018]
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,执行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal Digital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global Positioning System,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信 终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobi le Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
[0019]
本申请提供一种文本匹配方法。在一实施例中,如图1所示,该文本匹配方法,包括以下步骤:
[0020]
S100,接收输入的目标文本。
[0021]
在本实施例中,系统接收到用户输入的目标文本。该目标文本可以是一段字符。具体地,可以是检索式的问答系统中,用户输入一目标文本。
[0022]
S200,获取根据所述目标文本进行初步匹配得到的多个候选语句。
[0023]
在本实施例中,系统接收到用户输入的目标文本后,根据目标文本可初步筛选获得匹配的多个候选语句。此处的初步筛选的方式可以为通用的文本匹配方式。例如,通过对目标文本进行切词,并分析切词后每个分词的语义,以确定出目标文本的整体语义,从而从数据库中获取与所述目标文本语义匹配的多个候选语句。或者,根据本技术领域内惯用的技术方式,从系统数据库中获取与目标文本语义匹配的多个候选语句。
[0024]
S300,将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度。
[0025]
在本实施例中,需要说明的是,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度。系统分别将多个候选语句中的每个候选语句与目标文本输入文本匹配模型,得到每个候选语句与目标文本的语义相似度。其中,文本匹配模型为卷积神经网络CNN与GRU神经网络构成的模型。
[0026]
在本方案中,卷积神经网络CNN更适合句子向量的学习,但是循环神经网络更适合时序关系的学习。因此,本实施例采用的所述文本匹配模型,先用卷积神经网络对句子进行卷积,之后再将卷积神经网络CNN的结果输入到GRU神经网络中,利用循环神经网络对词语的卷积表示学习其顺序关系,使得最终得到的句子向量表示能够表征更多的句子信息和句子特征。以下对卷积神经网络CNN以及GRU神经网络进行解释说明:
[0027]
卷积神经网络(Convolutional Neural Network,CNN),是深度学习网络模型中最常见的网络结构之一,其在图像领域的识别效果上取得了很大的提升,也因此使得卷积神经网络声名大振。卷积神经网络最重要的两层就是卷积层和池化层,这也是卷积神经网络的核心步骤。如下图所示为典型的CNN结构,称之为LeNet-5网络,其中就包括了多个卷积层和池化层。卷积层(Convolutional Layer)利用一个卷积核(参数矩阵),在整个图片矩阵中逐一滑动窗口,进行内积,得到另一个中间矩阵,中间矩阵的大小取决于卷积核的维度。池化层(Pooling Layer),也叫下采样层(Subsampling Layer),在卷积层进行了卷积处理之后,可得到相应的特征,可以使用得到的特征进行分类器的训练。然而,该方式依然存在巨大的计算量,容易产生过拟合的问题。想要进一步降低模型的拟合程度,需要对卷积层进行池化。
[0028]
循环神经网络(Recurrent Neural Network,RNN)被广泛应用于处理可变长的文本序列输入,其可以学习到句子的词序特征。其关键的结构是一个记忆单元(Memory Unit)。记忆单元可以记忆某时间段的信息,对于一个句子则可以选择性的记住前一时刻词语的信息。当前循环神经网络主要有两种不同的变体LSTM和GRU,他们都能解决传统RNN存在的长期距离依赖与梯度消失问题。相对于LSTM的网络结构,GRU内部的隐藏单元少了一个控制门,参数少,收敛较快,在保证模型效果的同时,模型的结构也得到了有效简化。
[0029]
本实施例结合卷积神经网络CNN与GRU神经网络,可得到所述文本匹配模型。其中,文本匹配模型用于表征两个输入文本的语义相似度。通过该文本匹配模型可获取两个输入文本的相似度值,以判断两个输入文本的匹配度。
[0030]
在一实施例中,如图2所示,步骤S300,包括:
[0031]
S310,将所述目标文本输入所述卷积神经网络CNN进行卷积处理,得到第一卷积向量,将所述候选语句输入所述卷积神经网络CNN进行卷积处理,得到第二卷积向量。
[0032]
S320,将所述第一卷积向量输入所述GRU神经网络,到第一神经网络 向量,将所述第二卷积向量输入所述GRU神经网络,得到第二神经网络向量。
[0033]
S330,根据所述第一神经网络向量和所述第二神经网络向量的余弦相似度,得到所述候选语句与所述目标文本的语义相似度。
[0034]
在该实施例中,系统先分别采用卷积神经网络对目标文本以及候选语句进行卷积,之后再将卷积神经网络CNN的结果分别输入GRU神经网络,利用循环神经网络对目标文本以及候选语句的词语进行时序学习,得到两者中词语的时序关系,从而得到学习到更多的句子信息和句子特征,进而根据目标文本与候选语句的句子信息以及句子特征确定目标文本与候选语句的相似度。
[0035]
在一实施例中,如图3所示,所述卷积神经网络CNN与GRU神经网络构成的文本匹配模型根据以下方式进行训练:
[0036]
S10,获取目标训练语句,与所述目标训练语句语义相似的第一训练语句,以及与所述目标训练语句语义不相似的第二训练语句。
[0037]
S20,利用所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,得到与所述目标训练语句对应的第一向量、与所述第一训练语句对应的第二向量,及与所述第二训练语句对应的第三向量。
[0038]
在该实施例的一个实施方式中,步骤S20包括:将所述卷积神经网络CNN的卷积窗口设置为预设N个词;利用设置后的所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理。
[0039]
S30,分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量。
[0040]
在该实施例的一个实施方式中,步骤S30之后,还包括:分别将所述第四向量、所述第五向量及所述第六向量通过池化层,以对所述第四向量、所述第五向量及所述第六向量进行维度变化处理。此时,步骤S30包括:分别根据维度变化处理后的所述第四向量与第五向量的余弦相似度,以及 维度变化处理后的所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。
[0041]
S40,分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。
[0042]
S50,根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数。
[0043]
在该实施例中,系统获取目标训练语句,与目标训练语句语义相似的第一训练语句,以及与目标训练语句语义不相似的第二训练语句作为训练语料,对卷积神经网络CNN与GRU神经网络构成的文本匹配模型进行模型训练。具体地,将目标训练语句、第一训练语句和第二训练语句分别输入卷积神经网络CNN中进行初步的卷积训练,分别得到与目标训练语句对应的第一向量、与第一训练语句对应的第二向量,及与第二训练语句对应的第三向量。进一步地,分别将第一向量、第二向量及第三向量输入GRU神经网络,得到与第一向量对应的第四向量、与第二向量对应的第五向量及与第三向量对应的第六向量。最后,获取第四向量与第五向量的余弦相似度,以及第四向量与第六向量的余弦相似度,以得到相应的余弦相似度分值,根据相应的余弦相似度分值确定文本匹配模型中相关联的参数。
[0044]
在该实施例的一个实施方式中,步骤S50包括:根据所述第一分值和所述第二分值确定所述文本匹配模型对应的代价函数的相关联的参数;所述代价函数包括铰链损失函数Hinge loss。
[0045]
针对上述实施例所述卷积神经网络CNN与GRU神经网络构成的文本匹配模型的训练方式,以下提供一个具体实施例,以进行详细说明:
[0046]
具体地,文本匹配模型在文本匹配模型的训练过程中,输入三个句子,当前输入句子(目标训练语句、Sentence)、与该当前输入句子语义相似的句子(Similar semantic sentence)和该当前输入句子语义不相似的句子(Different semantic sentence)。首先利用CNN的卷积层分别对三个句子进行卷积,卷积窗口设置为两个词,学习得到相应的句子向量; 接着使用循环神经网络进一步获得句子的时序信息;然后分别经过一层池化层(mean/max pooling,均值池化或最大值池化),做一次向量的维度变化,防止模型过拟合;再使用该向量进行相似度(cosine)的计算,相似度使用的是余弦相似度,得到当前输入的句子与语义相似和不相似句子的分数。其中,代价函数使用的是hinge loss,目的是为了使语义相似句子的得分能够高于语义不相似句子的得分,而不仅仅是接近1。
[0047]
因此,在池化层之前,使用了两种深度学习网络结构,CNN和GRU,以学习句子的信息。在具体实施过程,可使用CNN的卷积窗口是两个词,循环神经网络使用了基本的模型GRU。本实施例没有使用双向的GRU,不需要更复杂的改进来优化,以避免参数过多会导致过拟合和训练过慢的问题。结合该模型图的构造可知,该模型相比于CNN模型来说,多使用了一层循环神经网络去学习句子,能够学习得到更多的信息和特征。
[0048]
S400,根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[0049]
在本实施例中,分别将多个候选语句中的每个候选语句与所述目标文本输入上述文本匹配模型,得到每个候选语句与所述目标文本的语义相似度,从而根据每个候选语句对应的语义相似度向用户推荐与目标文本语义相似的候选语句。在一实施例中,步骤S400,包括:根据每个所述候选语句对应的语义相似度,从所述多个候选语句中筛选出所述语义相似度最高的候选语句,向用户推荐该语义相似度最高的候选语句。
[0050]
以下提供一具体的实施场景,以进一步说明上述文本匹配方法:
[0051]
在该具体实施场景中,所述文本匹配方法可用于检索式的问答系统。在检索式的问答系统中,用户输入一目标文本,系统通过分析目标文本从对应数据库中读取出于该目标文本语义匹配的多个候选语句。一般地,此步骤中系统通过初步匹配得到多个所述候选语句,但对于每个候选语句与目标语句在语义中的相似度,并没有确定。因此,很难筛选出与用户输入的目标文本语义上最匹配的候选语句。本实施场景中,提供了卷积神经网络CNN与GRU神经网络构成的文本匹配模型,将每个候选语句与目标文本输入到该文本匹配模型中,得到每个候选语句与目标文本在语义上的相似 度,从而可以筛选出相似度最高的候选语句推荐给用户。因此,不需要人工去定义特征模板,最终获得候选句中语义最匹配的句子。
[0052]
本申请还提供一种文本匹配装置。如图4所示,在一实施例中,该文本匹配装置包括接收模块100、第一获取模块200、第二获取模块300以及推荐模块400。
[0053]
接收模块100用于获接收输入的目标文本。在本实施例中,系统接收到用户输入的目标文本。该目标文本可以是一段字符。具体地,可以是检索式的问答系统中,用户输入一目标文本。
[0054]
第一获取模块200用于获取根据所述目标文本进行初步匹配得到的多个候选语句。在本实施例中,系统接收到用户输入的目标文本后,根据目标文本可初步筛选获得匹配的多个候选语句。此处的初步筛选的方式可以为通用的文本匹配方式。例如,通过对目标文本进行切词,并分析切词后每个分词的语义,以确定出目标文本的整体语义,从而从数据库中获取与所述目标文本语义匹配的多个候选语句。或者,根据本技术领域内惯用的技术方式,从系统数据库中获取与目标文本语义匹配的多个候选语句。
[0055]
第二获取模块300用于将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度。在本实施例中,需要说明的是,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度。系统分别将多个候选语句中的每个候选语句与目标文本输入文本匹配模型,得到每个候选语句与目标文本的语义相似度。其中,文本匹配模型为卷积神经网络CNN与GRU神经网络构成的模型。
[0056]
推荐模块400用于根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。在本实施例中,分别将多个候选语句中的每个候选语句与所述目标文本输入上述文本匹配模型,得到每个候选语句与所述目标文本的语义相似度,从而根据每个候选语句对应的语义相似度向用户推荐与目标文本语义相似的候选语句。
[0057]
在其他实施例中,本申请提供的文本匹配装置中的各个模块还用于执 行本申请所述的文本匹配方法中,对应各个步骤执行的操作,在此不再做详细的说明。
[0058]
本申请还提供一种存储介质。该存储介质上存储有计算机程序;所述计算机程序被处理器执行时,实现上述任一实施例所述的文本匹配方法。该存储介质可以是存储器。本实施方式中的存储介质是易失性存储介质,也可以是非易失性的存储介质。例如,内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、ZIP盘、U盘、磁带等。本申请所公开的存储介质包括但不限于这些类型的存储器。本申请所公开的存储器只作为例子而非作为限定。
[0059]
本申请还提供一种计算机设备。一种计算机设备包括:一个或多个处理器;存储器;一个或多个应用程序。其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个应用程序配置用于执行上述任一实施例所述的文本匹配方法。
[0060]
图5为本申请一实施例中的计算机设备的结构示意图。本实施例所述计算机设备可以是服务器、个人计算机以及网络设备。如图5所示,设备包括处理器703、存储器705、输入单元707以及显示单元709等器件。本领域技术人员可以理解,图5示出的设备结构器件并不构成对所有设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件。存储器705可用于存储应用程序701以及各功能模块,处理器703运行存储在存储器705的应用程序701,从而执行设备的各种功能应用以及数据处理。存储器可以是内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、ZIP盘、U盘、磁带等。本申请所公开的存储器包括但不限于这些类型的存储器。本申请所公开的存储器只作为例子而非作为限定。
[0061]
输入单元707用于接收信号的输入,以及接收用户输入的关键字。输 入单元707可包括触控面板以及其它输入设备。触控面板可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并根据预先设定的程序驱动相应的连接装置;其它输入设备可以包括但不限于物理键盘、功能键(比如播放控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。显示单元709可用于显示用户输入的信息或提供给用户的信息以及计算机设备的各种菜单。显示单元709可采用液晶显示器、有机发光二极管等形式。处理器703是计算机设备的控制中心,利用各种接口和线路连接整个电脑的各个部分,通过运行或执行存储在存储器705内的软件程序和/或模块,以及调用存储在存储器内的数据,执行各种功能和处理数据。
[0062]
在一实施方式中,设备包括一个或多个处理器703,以及一个或多个存储器705,一个或多个应用程序701。其中所述一个或多个应用程序701被存储在存储器705中并被配置为由所述一个或多个处理器703执行,所述一个或多个应用程序701配置用于执行以上实施例所述的文本匹配方法。
[0063]
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
[0064]
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括存储器、磁盘或光盘等。
[0065]
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
[0066]
应该理解的是,在本申请各实施例中的各功能单元可集成在一个处理 模块中,也可以各个单元单独物理存在,也可以两个或两个以上单元集成于一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
[0067]
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

权利要求书

[权利要求 1]
一种文本匹配方法,包括: 接收输入的目标文本; 获取根据所述目标文本进行初步匹配得到的多个候选语句; 将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度; 根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[权利要求 2]
根据权利要求1所述的方法,所述将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度,包括: 将所述目标文本输入所述卷积神经网络CNN进行卷积处理,得到第一卷积向量,将所述候选语句输入所述卷积神经网络CNN进行卷积处理,得到第二卷积向量; 将所述第一卷积向量输入所述GRU神经网络,到第一神经网络向量,将所述第二卷积向量输入所述GRU神经网络,得到第二神经网络向量; 根据所述第一神经网络向量和所述第二神经网络向量的余弦相似度,得到所述候选语句与所述目标文本的语义相似度。
[权利要求 3]
根据权利要求1所述的方法,所述卷积神经网络CNN与GRU神经网络构成的文本匹配模型根据以下方式进行训练: 获取目标训练语句,与所述目标训练语句语义相似的第一训练语句,以及与所述目标训练语句语义不相似的第二训练语句; 利用所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,得到与所述目标训练语句对应的第一向量、与所述第一训练语句对应的第二向量,及与所述第二训练语句对应的第三向量; 分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第 五向量及与所述第三向量对应的第六向量; 分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值; 根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数。
[权利要求 4]
根据权利要求3所述的方法,所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,包括: 将所述卷积神经网络CNN的卷积窗口设置为预设N个词; 利用设置后的所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理。
[权利要求 5]
根据权利要求3所述的方法,所述分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量之后,还包括:分别将所述第四向量、所述第五向量及所述第六向量通过池化层,以对所述第四向量、所述第五向量及所述第六向量进行维度变化处理; 所述分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值,包括:分别根据维度变化处理后的所述第四向量与第五向量的余弦相似度,以及维度变化处理后的所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。
[权利要求 6]
根据权利要求3所述的方法,所述根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数,包括: 根据所述第一分值和所述第二分值确定所述文本匹配模型对应的代价函数的相关联的参数;所述代价函数包括铰链损失函数Hinge loss。
[权利要求 7]
根据权利要求1所述的方法,所述根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句,包括: 根据每个所述候选语句对应的语义相似度,从所述多个候选语句中筛选出所述语义相似度最高的候选语句,向用户推荐该语义相似度最高的候选语句。
[权利要求 8]
一种文本匹配装置,包括: 接收模块,用于获接收输入的目标文本; 第一获取模块,用于获取根据所述目标文本进行初步匹配得到的多个候选语句; 第二获取模块,用于将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度; 推荐模块,用于根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[权利要求 9]
一种计算机设备,包括: 一个或多个处理器; 存储器; 一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个计算机程序配置用于执行一种文本匹配方法,所述文本匹配方法包括以下步骤: 接收输入的目标文本; 获取根据所述目标文本进行初步匹配得到的多个候选语句; 将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度; 根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[权利要求 10]
根据权利要求9所述的计算机设备,所述将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度,包括: 将所述目标文本输入所述卷积神经网络CNN进行卷积处理,得到第一卷积向量,将所述候选语句输入所述卷积神经网络CNN进行卷积处理,得到第二卷积向量; 将所述第一卷积向量输入所述GRU神经网络,到第一神经网络向量,将所述第二卷积向量输入所述GRU神经网络,得到第二神经网络向量; 根据所述第一神经网络向量和所述第二神经网络向量的余弦相似度,得到所述候选语句与所述目标文本的语义相似度。
[权利要求 11]
根据权利要求9所述的计算机设备,所述卷积神经网络CNN与GRU神经网络构成的文本匹配模型根据以下方式进行训练: 获取目标训练语句,与所述目标训练语句语义相似的第一训练语句,以及与所述目标训练语句语义不相似的第二训练语句; 利用所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,得到与所述目标训练语句对应的第一向量、与所述第一训练语句对应的第二向量,及与所述第二训练语句对应的第三向量; 分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量; 分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值; 根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数。
[权利要求 12]
根据权利要求11所述的计算机设备,所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,包括: 将所述卷积神经网络CNN的卷积窗口设置为预设N个词; 利用设置后的所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理。
[权利要求 13]
根据权利要求11所述的计算机设备,所述分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量之后,还包括:分别将所述第四向量、所述第五向量及所述第六向量通过池化层,以对所述第四向量、所述第五向量及所述第六向量进行维度变化处理; 所述分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值,包括:分别根据维度变化处理后的所述第四向量与第五向量的余弦相似度,以及维度变化处理后的所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。
[权利要求 14]
根据权利要求11所述的计算机设备,所述根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数,包括: 根据所述第一分值和所述第二分值确定所述文本匹配模型对应的代价函数的相关联的参数;所述代价函数包括铰链损失函数Hinge loss。
[权利要求 15]
根据权利要求9所述的计算机设备,所述根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句,包括: 根据每个所述候选语句对应的语义相似度,从所述多个候选语句中筛选出所述语义相似度最高的候选语句,向用户推荐该语义相似度最高的候选语句。
[权利要求 16]
一种存储介质,其上存储有计算机程序;所述计算机程序适于由处理器加载并执行一种文本匹配方法,包括: 接收输入的目标文本; 获取根据所述目标文本进行初步匹配得到的多个候选语句; 将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度;其中,所述文本匹配模型用于表征所述目标文本与所述候选语句的语义相似度; 根据每个所述候选语句对应的语义相似度,向用户推荐所述候选语句。
[权利要求 17]
根据权利要求16所述的存储介质,所述将所述目标文本与每个所述候选语句输入卷积神经网络CNN与GRU神经网络构成的文本匹配模型,得到每个所述候选语句与所述目标文本的语义相似度,包括: 将所述目标文本输入所述卷积神经网络CNN进行卷积处理,得到第一卷积向量,将所述候选语句输入所述卷积神经网络CNN进行卷积处理,得到第二卷积向量; 将所述第一卷积向量输入所述GRU神经网络,到第一神经网络向量,将所述第二卷积向量输入所述GRU神经网络,得到第二神经网络向量; 根据所述第一神经网络向量和所述第二神经网络向量的余弦相似度,得到所述候选语句与所述目标文本的语义相似度。
[权利要求 18]
根据权利要求16所述的存储介质,所述卷积神经网络CNN与GRU神经网络构成的文本匹配模型根据以下方式进行训练: 获取目标训练语句,与所述目标训练语句语义相似的第一训练语句,以及与所述目标训练语句语义不相似的第二训练语句; 利用所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,得到与所述目标训练语句对应的第一向量、与所述第一训练语句对应的第二向量,及与所述第二训练语句对应的第三向量; 分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量; 分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值; 根据所述第一分值和所述第二分值确定所述文本匹配模型中相关联的参数。
[权利要求 19]
根据权利要求18所述的存储介质,所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理,包括: 将所述卷积神经网络CNN的卷积窗口设置为预设N个词; 利用设置后的所述卷积神经网络CNN分别对所述目标训练语句、所述第一训练语句及所述第二训练语句进行卷积处理。
[权利要求 20]
根据权利要求18所述的存储介质,所述分别将所述第一向量、所述第二向量及所述第三向量输入所述GRU神经网络,得到与所述第一向量对应的第四向量、与所述第二向量对应的第五向量及与所述第三向量对应的第六向量之后,还包括:分别将所述第四向量、所述第五向量及所述第六向量通过池化层,以对所述第四向量、所述第五向量及所述第六向量进行维度变化处理; 所述分别根据所述第四向量与第五向量的余弦相似度,以及所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值,包括:分别根据维度变化处理后的所述第四向量与第五向量的余弦相似度,以及维度变化处理后的所述第四向量与第六向量的余弦相似度,得到所述目标训练语句与所述第一训练语句的第一分值,以及所述目标训练语句与所述第二训练语句的第二分值。

附图

[ 图 1]  
[ 图 2]  
[ 图 3]  
[ 图 4]  
[ 图 5]