Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2020164267 - PROCÉDÉ ET APPAREIL DE CONSTRUCTION DE MODÈLE DE CLASSIFICATION DE TEXTE, TERMINAL ET SUPPORT DE STOCKAGE

Numéro de publication WO/2020/164267
Date de publication 20.08.2020
N° de la demande internationale PCT/CN2019/117225
Date du dépôt international 11.11.2019
CIB
G06F 16/35 2019.1
GPHYSIQUE
06CALCUL; COMPTAGE
FTRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES
16Recherche d’informations; Structures de bases de données à cet effet; Structures de systèmes de fichiers à cet effet
30de données textuelles non structurées
35Groupement; Classement
CPC
G06K 9/4628
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
36Image preprocessing, i.e. processing the image information without deciding about the identity of the image
46Extraction of features or characteristics of the image
4604Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes, intersections
4609by matching or filtering
4619Biologically-inspired filters, e.g. receptive fields
4623with interaction between the responses of different filters
4628Integrating the filters into a hierarchical structure
G06K 9/6256
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
62Methods or arrangements for recognition using electronic means
6217Design or setup of recognition systems and techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
6256Obtaining sets of training patterns; Bootstrap methods, e.g. bagging, boosting
G06K 9/6267
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
62Methods or arrangements for recognition using electronic means
6267Classification techniques
Déposants
  • 平安科技(深圳)有限公司 PING AN TECHNOLOGY (SHENZHEN) CO., LTD. [CN]/[CN]
Inventeurs
  • 徐亮 XU, Liang
  • 金戈 JIN, Ge
  • 肖京 XIAO, Jing
Mandataires
  • 深圳市世纪恒程知识产权代理事务所 CENFO INTELLECTUAL PROPERTY AGENCY
Données relatives à la priorité
201910113183.013.02.2019CN
Langue de publication chinois (ZH)
Langue de dépôt chinois (ZH)
États désignés
Titre
(EN) TEXT CLASSIFICATION MODEL CONSTRUCTION METHOD AND APPARATUS, AND TERMINAL AND STORAGE MEDIUM
(FR) PROCÉDÉ ET APPAREIL DE CONSTRUCTION DE MODÈLE DE CLASSIFICATION DE TEXTE, TERMINAL ET SUPPORT DE STOCKAGE
(ZH) 文本分类模型构建方法、装置、终端及存储介质
Abrégé
(EN)
A text classification model construction method and apparatus, and a terminal and a storage medium. The text classification model construction method comprises: constructing a convolutional neural network model by using a PyTorch framework, wherein the convolutional neural network model is arranged on an embedding layer (S11); obtaining text classification training data, and performing word vector training on the text training data by using a Word2Vec algorithm to obtain word vectors (S12); and inputting the word vectors into the convolutional neural network model for classification training, and obtaining a text classification model when convergence occurs (S13). A PyTorch framework is used for the text classification model. Due to the fact that the object-oriented interface design of the PyTorch framework comes from the Torch, the interface design of the Torch has the advantages of being flexible and easy to use, the PyTorch framework can print calculation results layer by layer to facilitate debugging, and therefore, the constructed text classification model is easier to maintain and debug.
(FR)
La présente invention concerne un procédé et un appareil de construction de modèle de classification de texte, ainsi qu'un terminal et un support de stockage. Le procédé de construction de modèle de classification de texte comprend les étapes consistant à : construire un modèle de réseau neuronal convolutif en utilisant un cadre PyTorch, le modèle de réseau neuronal convolutif étant placé sur une couche d'incorporation (S11); obtenir des données d'apprentissage de classification de texte, et effectuer un apprentissage de vecteur de mots sur les données d'apprentissage de texte au moyen d'un algorithme Word2Vec pour obtenir des vecteurs de mots (S12); et entrer les vecteurs de mots dans le modèle de réseau neuronal convolutif pour un apprentissage de classification, et obtenir un modèle de classification de texte lorsque la convergence se produit (S13). Un cadre PyTorch est utilisé pour le modèle de classification de texte. Du fait que la conception d'interface orientée objet du cadre PyTorch provient de Torch, la conception de l'interface de Torch a l'avantage d'être souple et facile à utiliser, le cadre PyTorch permet d'imprimer des résultats de calcul couche par couche pour faciliter le débogage, et le modèle de classification de texte construit est ainsi plus facile à entretenir et à déboguer.
(ZH)
一种文本分类模型构建方法、装置、终端及存储介质。所述文本分类模型构建方法包括:利用pytorch框架搭建卷积神经网络模型;其中,所述卷积神经网络模型设置于嵌入层(S11);获取文本分类训练数据,利用Word2Vec算法将所述文本训练数据进行词向量训练,得到词向量(S12);将所述词向量输入卷积神经网络模型进行分类训练,直至收敛时,得到文本分类模型(S13)。所述文本分类模型采用Pytorch框架,由于Pytorch框架面向对象的接口设计来源于torch,而torch的接口设计具有灵活易用的特点,并且PyTorch框架能够逐层打印出计算结果以便于调试,因此构建的文本分类模型更易于维护和调试。
Également publié en tant que
Dernières données bibliographiques dont dispose le Bureau international