WIPO logo
Mobile | Deutsch | Español | Français | 日本語 | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

Search International and National Patent Collections
World Intellectual Property Organization
Search
 
Browse
 
Translate
 
Options
 
News
 
Login
 
Help
 
Machine translation
1. (WO2017167095) MODEL TRAINING METHOD AND DEVICE
Latest bibliographic data on file with the International Bureau    Submit observation

Pub. No.:    WO/2017/167095    International Application No.:    PCT/CN2017/077696
Publication Date: 05.10.2017 International Filing Date: 22.03.2017
IPC:
G06K 9/62 (2006.01)
Applicants: ALIBABA GROUP HOLDING LIMITED [--/CN]; Fourth Floor, One Capital Place, P.O. Box 847, George Town, Grand Cayman (KY).
DING, Yi [CN/CN]; (CN) (US only).
YU, Jin [CN/CN]; (CN) (US only).
XIONG, Huaidong [CN/CN]; (CN) (US only).
CHEN, Xu [CN/CN]; (CN) (US only)
Inventors: DING, Yi; (CN).
YU, Jin; (CN).
XIONG, Huaidong; (CN).
CHEN, Xu; (CN)
Agent: CO-HORIZON INTELLECTUAL PROPERTY INC.; Suite 605, B Block, Yuyang Zhiye Building, No.A2, Xiaoguanbeili, Chaoyang District Beijing 100029 (CN)
Priority Data:
201610201951.4 31.03.2016 CN
Title (EN) MODEL TRAINING METHOD AND DEVICE
(FR) PROCÉDÉ ET DISPOSITIF D'APPRENTISSAGE DE MODÈLE
(ZH) 一种模型的训练方法和装置
Abstract: front page image
(EN)A model training method and device, the method comprising: reading partial sample data from a full sample set, and forming a sample subset (101); mapping model parameters relevant to the partial sample data from a first feature component of the full sample set to a second feature component of the sample subset (102); training a model according to sample data having said partial second feature component (103). After mapping, it is possible to decrease the size of the copy of model parameters on a sample computer, greatly decrease the amount of training data, minimize computer memory footprint, and use the sample computer memory to place vectors and load samples - and thereby, with as little efficiency loss as possible, to implement machine learning and large-scale model training with relatively low resource overhead. Mapping has no effect on the computing performance of the model training process and is transparent to the training algorithm, so the original training algorithm can be used directly without modification.
(FR)L'invention concerne un procédé et un dispositif d'apprentissage de modèle, le procédé consistant : à lire des données d'échantillon partielles provenant d'un ensemble d'échantillons complet et à former un sous-ensemble d'échantillons (101) ; à mettre en correspondance des paramètres de modèle se rapportant aux données d'échantillon partielles provenant d'un premier composant de caractéristique de l'ensemble d'échantillons complet avec un second composant de caractéristique du sous-ensemble d'échantillons (102) ; à apprendre un modèle en fonction des données d'échantillon ayant ledit second composant de caractéristique partiel (103). Après la mise en correspondance, il est possible de réduire la taille de la copie de paramètres de modèle sur un ordinateur d'échantillon, de réduire considérablement la quantité de données d'apprentissage, de réduire à un minimum l'empreinte de mémoire d'ordinateur, et d'utiliser la mémoire d'ordinateur d'échantillon pour placer des vecteurs et des échantillons de charge et, de ce fait, avec une perte d'efficacité aussi faible que possible, de mettre en œuvre un apprentissage automatique et un apprentissage de modèle à grande échelle ayant un surdébit de ressource relativement faible. La mise en correspondance n'a pas d'effet sur les performances de calcul du processus d'apprentissage de modèle et est transparent à l'algorithme d'apprentissage de telle sorte que l'algorithme d'apprentissage d'origine puisse être utilisé directement sans modification.
(ZH)一种模型的训练方法和装置,该方法包括:读取样本全集中的部分样本数据,组合成样本子集(101);将所述部分样本数据相关的模型参数,从针对所述样本全集的第一特征分量映射为针对所述样本子集的第二特征分量(102);根据具有所述部分第二特征分量的样本数据训练模型(103)。映射之后可以减少模型参数在样本计算机上的副本大小,大大减少了训练的数据量,尽可能减少了计算机内存占用,使用样本计算机内存放置向量和装载样本,从而在尽可能少的效率损失的前提下,以相对低的资源开销进行机器学习、训练大规模的模型;映射对模型训练过程的计算性能没有影响,对训练算法透明,原有的训练算法无需修改直接可以使用。
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW.
African Regional Intellectual Property Organization (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG).
Publication Language: Chinese (ZH)
Filing Language: Chinese (ZH)