Certains contenus de cette application ne sont pas disponibles pour le moment.
Si cette situation persiste, veuillez nous contacter àObservations et contact
1. (WO2017167044) PROCÉDÉ ET DISPOSITIF D’APPRENTISSAGE DE GRAPPE DISTRIBUÉE
Dernières données bibliographiques dont dispose le Bureau international    Formuler une observation

N° de publication : WO/2017/167044 N° de la demande internationale : PCT/CN2017/077246
Date de publication : 05.10.2017 Date de dépôt international : 20.03.2017
CIB :
G06F 9/50 (2006.01)
G PHYSIQUE
06
CALCUL; COMPTAGE
F
TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES
9
Dispositions pour la commande par programme, p.ex. unité de commande
06
utilisant un programme emmagasiné, c. à. d. utilisant une unité de stockage interne de l'équipement de traitement de données pour recevoir et conserver le programme
46
Dispositions pour la multiprogrammation
50
Allocation de ressources, p.ex. de l'unité centrale de traitement (UCT)
Déposants :
阿里巴巴集团控股有限公司 ALIBABA GROUP HOLDING LIMITED; 开曼群岛大开曼资本大厦一座四层847号邮箱 Fourth Floor, One Capital Place, P.O. Box 847, George Town, Grand Cayman, KY
Inventeurs :
周俊 ZHOU, Jun; CN
Mandataire :
北京三友知识产权代理有限公司 BEIJING SANYOU INTELLECTUAL PROPERTY AGENCY LTD.; 中国北京市 金融街35号国际企业大厦A座16层 16th Fl., Block A, Corporate Square, No.35 Jinrong Street Beijing 100033, CN
Données relatives à la priorité :
201610180393.826.03.2016CN
Titre (EN) DISTRIBUTED CLUSTER TRAINING METHOD AND DEVICE
(FR) PROCÉDÉ ET DISPOSITIF D’APPRENTISSAGE DE GRAPPE DISTRIBUÉE
(ZH) 一种分布式集群训练方法和装置
Abrégé :
(EN) The present application relates to the technical field of machine learning. Provided in embodiments thereof are a distributed cluster training method and device. The method comprises: reading a sample set; the sample set comprising at least one piece of sample data; prior to receiving a collection instruction, utilizing the sample data and a current weight, which are substituted into a target model training function for iterative training, so as to obtain a first gradient, and if there are multiple rounds of iterative training, generating a first weight on the basis of the first gradient obtained from a previous training to be used as the current weight for a following round of iterative training; if a collection instruction is received, sending the first gradient to a pooling server, wherein the collection instruction is sent by a scheduling server under the condition that a cluster system environment meets a threshold; the pooling server pooling each of the first gradients and calculating a second weight; and receiving the second weight sent by the pooling server so as to update the current weight. The present application reduces network traffic, reduces the impact on switch, and avoids affecting the use of the entire cluster.
(FR) La présente invention se rapporte au domaine technique de l’apprentissage automatique et concerne, selon des modes de réalisation, un procédé et un dispositif d'apprentissage de grappe distribuée. Le procédé comprend : la lecture d’un ensemble d'échantillons qui inclut au moins une donnée d'échantillons ; avant la réception d’une instruction de collecte, l’utilisation des données d'échantillons et d’un poids courant, qui sont substitués dans une fonction d'apprentissage de modèle cible pour un apprentissage itératif, de façon à obtenir un premier gradient, et, s'il existe plusieurs cycles d’apprentissage itératif, la génération d’un premier poids sur la base du premier gradient obtenu à partir d'un apprentissage précédent, à utiliser comme poids courant pour un cycle suivant d'apprentissage itératif ; si une instruction de collecte est reçue, l'envoi du premier gradient à un serveur de mise en commun, l'instruction de collecte étant envoyée par un serveur d’ordonnancement à condition qu’un environnement de système en grappe respecte un seuil ; la mise en commun de chacun des premiers gradients et le calcul d’un second poids par le serveur de mise en commun ; et la réception du second poids envoyé par le serveur de mise en commun afin de mettre à jour le poids courant. Cette invention réduit le trafic réseau, limite l'impact sur un commutateur et n’a pas d’effet sur l'utilisation de l'ensemble de la grappe.
(ZH) 本申请实施例提供了一种分布式集群训练方法和装置,涉及机器学习技术领域。所述方法包括:读取样本集;所示样本集包括至少一条样本数据;在接收到汇集指令之前,利用所述样本数据和当前权重,代入目标模型训练函数进行迭代训练,得到第一梯度,并且如果有多轮迭代训练,则基于前一次训练得到的第一梯度生成第一权重作为后一轮迭代训练的当前权重;如果接收到汇集指令,则将所述第一梯度发送至汇集服务器;所述汇集指令由调度服务器在集群系统环境符合阈值条件时发出;所述汇集服务器汇总各第一梯度并计算第二权重;接收汇集服务器发送的第二权重以更新当前权重。本申请降低了网络通信量,降低对交换机的影响,避免影响整个集群的使用。
front page image
États désignés : AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
Organisation régionale africaine de la propriété intellectuelle (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Office eurasien des brevets (OEAB) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
Office européen des brevets (OEB (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
Organisation africaine de la propriété intellectuelle (OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Langue de publication : chinois (ZH)
Langue de dépôt : chinois (ZH)