Certains contenus de cette application ne sont pas disponibles pour le moment.
Si cette situation persiste, veuillez nous contacter àObservations et contact
1. (WO2017167095) PROCÉDÉ ET DISPOSITIF D'APPRENTISSAGE DE MODÈLE
Dernières données bibliographiques dont dispose le Bureau international    Formuler une observation

N° de publication : WO/2017/167095 N° de la demande internationale : PCT/CN2017/077696
Date de publication : 05.10.2017 Date de dépôt international : 22.03.2017
CIB :
G06K 9/62 (2006.01)
G PHYSIQUE
06
CALCUL; COMPTAGE
K
RECONNAISSANCE DES DONNÉES; PRÉSENTATION DES DONNÉES; SUPPORTS D'ENREGISTREMENT; MANIPULATION DES SUPPORTS D'ENREGISTREMENT
9
Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
62
Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
Déposants :
丁轶 DING, Yi [CN/CN]; CN (US)
余晋 YU, Jin [CN/CN]; CN (US)
熊怀东 XIONG, Huaidong [CN/CN]; CN (US)
陈绪 CHEN, Xu [CN/CN]; CN (US)
阿里巴巴集团控股有限公司 ALIBABA GROUP HOLDING LIMITED; 开曼群岛大开曼资本大厦一座四层847号邮箱 Fourth Floor, One Capital Place, P.O. Box 847, George Town, Grand Cayman, KY
Inventeurs :
丁轶 DING, Yi; CN
余晋 YU, Jin; CN
熊怀东 XIONG, Huaidong; CN
陈绪 CHEN, Xu; CN
Mandataire :
北京国昊天诚知识产权代理有限公司 CO-HORIZON INTELLECTUAL PROPERTY INC.; 中国北京市 朝阳区小关北里甲2号渔阳置业大厦B座605 Suite 605, B Block, Yuyang Zhiye Building, No.A2, Xiaoguanbeili, Chaoyang District Beijing 100029, CN
Données relatives à la priorité :
201610201951.431.03.2016CN
Titre (EN) MODEL TRAINING METHOD AND DEVICE
(FR) PROCÉDÉ ET DISPOSITIF D'APPRENTISSAGE DE MODÈLE
(ZH) 一种模型的训练方法和装置
Abrégé :
(EN) A model training method and device, the method comprising: reading partial sample data from a full sample set, and forming a sample subset (101); mapping model parameters relevant to the partial sample data from a first feature component of the full sample set to a second feature component of the sample subset (102); training a model according to sample data having said partial second feature component (103). After mapping, it is possible to decrease the size of the copy of model parameters on a sample computer, greatly decrease the amount of training data, minimize computer memory footprint, and use the sample computer memory to place vectors and load samples - and thereby, with as little efficiency loss as possible, to implement machine learning and large-scale model training with relatively low resource overhead. Mapping has no effect on the computing performance of the model training process and is transparent to the training algorithm, so the original training algorithm can be used directly without modification.
(FR) L'invention concerne un procédé et un dispositif d'apprentissage de modèle, le procédé consistant : à lire des données d'échantillon partielles provenant d'un ensemble d'échantillons complet et à former un sous-ensemble d'échantillons (101) ; à mettre en correspondance des paramètres de modèle se rapportant aux données d'échantillon partielles provenant d'un premier composant de caractéristique de l'ensemble d'échantillons complet avec un second composant de caractéristique du sous-ensemble d'échantillons (102) ; à apprendre un modèle en fonction des données d'échantillon ayant ledit second composant de caractéristique partiel (103). Après la mise en correspondance, il est possible de réduire la taille de la copie de paramètres de modèle sur un ordinateur d'échantillon, de réduire considérablement la quantité de données d'apprentissage, de réduire à un minimum l'empreinte de mémoire d'ordinateur, et d'utiliser la mémoire d'ordinateur d'échantillon pour placer des vecteurs et des échantillons de charge et, de ce fait, avec une perte d'efficacité aussi faible que possible, de mettre en œuvre un apprentissage automatique et un apprentissage de modèle à grande échelle ayant un surdébit de ressource relativement faible. La mise en correspondance n'a pas d'effet sur les performances de calcul du processus d'apprentissage de modèle et est transparent à l'algorithme d'apprentissage de telle sorte que l'algorithme d'apprentissage d'origine puisse être utilisé directement sans modification.
(ZH) 一种模型的训练方法和装置,该方法包括:读取样本全集中的部分样本数据,组合成样本子集(101);将所述部分样本数据相关的模型参数,从针对所述样本全集的第一特征分量映射为针对所述样本子集的第二特征分量(102);根据具有所述部分第二特征分量的样本数据训练模型(103)。映射之后可以减少模型参数在样本计算机上的副本大小,大大减少了训练的数据量,尽可能减少了计算机内存占用,使用样本计算机内存放置向量和装载样本,从而在尽可能少的效率损失的前提下,以相对低的资源开销进行机器学习、训练大规模的模型;映射对模型训练过程的计算性能没有影响,对训练算法透明,原有的训练算法无需修改直接可以使用。
front page image
États désignés : AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
Organisation régionale africaine de la propriété intellectuelle (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Office eurasien des brevets (OEAB) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
Office européen des brevets (OEB (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
Organisation africaine de la propriété intellectuelle (OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Langue de publication : chinois (ZH)
Langue de dépôt : chinois (ZH)