Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020134533 - METHOD AND APPARATUS FOR TRAINING DEEP MODEL, ELECTRONIC DEVICE, AND STORAGE MEDIUM

Publication Number WO/2020/134533
Publication Date 02.07.2020
International Application No. PCT/CN2019/114497
International Filing Date 30.10.2019
IPC
G06K 9/62 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
62Methods or arrangements for recognition using electronic means
CPC
G06K 9/62
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
62Methods or arrangements for recognition using electronic means
Applicants
  • 北京市商汤科技开发有限公司 BEIJING SENSETIME TECHNOLOGY DEVELOPMENT CO., LTD. [CN]/[CN]
Inventors
  • 李嘉辉 LI, Jiahui
Agents
  • 北京派特恩知识产权代理有限公司 CHINA PAT INTELLECTUAL PROPERTY OFFICE
Priority Data
201811646736.029.12.2018CN
Publication Language Chinese (ZH)
Filing Language Chinese (ZH)
Designated States
Title
(EN) METHOD AND APPARATUS FOR TRAINING DEEP MODEL, ELECTRONIC DEVICE, AND STORAGE MEDIUM
(FR) PROCÉDÉ ET APPAREIL D'APPRENTISSAGE DE MODÈLE PROFOND, DISPOSITIF ÉLECTRONIQUE ET SUPPORT DE STOCKAGE
(ZH) 深度模型训练方法及装置、电子设备及存储介质
Abstract
(EN)
Disclosed are a method and apparatus for training a deep model, an electronic device, and a storage medium. The method for training a deep model comprises: obtaining (n+1)-th first annotation information output by a first model, the first model being performed n rounds of training; and obtaining (n+1)-th second annotation information output by a second model, the second model being performed n rounds of training, wherein n is an integer greater than 1; generating, on the basis of the training data and the (n+1)-th first annotation information, (n+1)-th training sets of the second model, and generating, on the basis of the training data and the (n+1)-th second annotation information, (n+1)-th training sets of the first model; inputting the (n+1)-th training sets of the second model into the second model to perform (n+1)-th rounds of training on the second model; and inputting the (n+1)-th training sets of the first model into the first model to perform (n+1)-th rounds of training on the first model.
(FR)
La présente invention concerne un procédé et un appareil pour l'apprentissage d'un modèle profond, un dispositif électronique et un support de stockage. Le procédé d'apprentissage d'un modèle profond consiste à : obtenir (n+1)-ièmes premières informations d'annotation délivrées par un premier modèle, le premier modèle ayant effectué n cycles d'apprentissage ; et obtenir (n+1)-ièmes secondes informations d'annotation délivrées par un second modèle, le second modèle ayant effectué n cycles d'apprentissage, n étant un nombre entier supérieur à 1 ; générer, sur la base des données d'apprentissage et des (n+1)-ièmes premières informations d'annotation, (n+1)-ièmes ensembles d'apprentissage du second modèle, et générer, sur la base des données d'apprentissage et des (n+1)-ièmes secondes informations d'annotation, (n+1)-ièmes ensembles d'apprentissage du premier modèle ; entrer les (n+1)-ièmes ensembles d'apprentissage du second modèle dans le second modèle pour effectuer (n+1)-ièmes cycles d'apprentissage sur le second modèle ; et entrer les (n+1)-ièmes ensembles d'apprentissage du premier modèle dans le premier modèle pour effectuer (n+1)-ièmes cycles d'apprentissage sur le premier modèle.
(ZH)
公开了一种深度模型训练方法及装置、电子设备及存储介质。所述深度学习模型训练方法,包括:获取第一模型输出的第n+1第一标注信息,所述第一模型已经过n轮训练;以及,获取第二模型输出的第n+1第二标注信息,所述第二模型已经过n轮训练;n为大于1的整数;基于训练数据及所述第n+1第一标注信息,生成第二模型的第n+1训练集,并基于训练数据及所述第n+1第二标注信息,生成所述第一模型的第n+1训练集;将所述第二模型的第n+1训练集输入至所述第二模型,对所述第二模型进行第n+1轮训练;将所述第一模型的第n+1训练集输入至所述第一模型,对所述第一模型进行第n+1轮训练。
Also published as
TH2101002872
Latest bibliographic data on file with the International Bureau