Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020107351 - MODEL TRAINING METHOD AND NODES THEREOF, NETWORK AND STORAGE DEVICE

Publication Number WO/2020/107351
Publication Date 04.06.2020
International Application No. PCT/CN2018/118291
International Filing Date 29.11.2018
IPC
G06F 16/901 2019.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
FELECTRIC DIGITAL DATA PROCESSING
16Information retrieval; Database structures therefor; File system structures therefor
90Details of database functions independent of the retrieved data types
901Indexing; Data structures therefor; Storage structures
G06N 3/04 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architecture, e.g. interconnection topology
CPC
G06N 3/0454
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
0454using a combination of multiple neural nets
Applicants
  • 袁振南 YUAN, Zhennan
  • 区链通网络有限公司 BCM SOCIAL CORP.
Inventors
  • 袁振南 YUAN, Zhennan
  • 朱鹏新 ZHU, Pengxin
Agents
  • 深圳市威世博知识产权代理事务所(普通合伙) CHINA WISPRO INTELLECTUAL PROPERTY LLP.
Priority Data
Publication Language Chinese (ZH)
Filing Language Chinese (ZH)
Designated States
Title
(EN) MODEL TRAINING METHOD AND NODES THEREOF, NETWORK AND STORAGE DEVICE
(FR) PROCÉDÉ D'APPRENTISSAGE DE MODÈLE ET NŒUDS ASSOCIÉS, RÉSEAU ET DISPOSITIF DE STOCKAGE
(ZH) 模型训练方法及其节点、网络及存储装置
Abstract
(EN)
Disclosed in the present application are a model training method and nodes thereof, a network and a storage device. The method is applied to a decentralized network comprising at least one group of nodes, wherein each group of nodes comprises at least one node, and at least some of the nodes are used for training to obtain model parameters of the model. The method comprises: using a preset decentralized training policy for a current node in the present group to obtain in-group parameters for the model; and obtaining model parameters for the model by using the in-group parameters and weights of out-group neighbor nodes of the current node with respect to the current node. In the above manner, the training of a model based on a decentralized network can be implemented.
(FR)
La présente invention concerne un procédé d'apprentissage de modèle et des nœuds associés, un réseau et un dispositif de stockage. Le procédé est appliqué à un réseau décentralisé comprenant au moins un groupe de nœuds, chaque groupe de nœuds comprenant au moins un nœud, et au moins certains des nœuds étant utilisés pour l'apprentissage afin d'obtenir des paramètres de modèle du modèle. Le procédé consiste : à utiliser une politique d'apprentissage décentralisée prédéfinie destinée à un nœud actuel dans le groupe présent afin d'obtenir des paramètres en groupe destinés au modèle ; et à obtenir des paramètres de modèle destinés au modèle à l'aide des paramètres en groupe et des pondérations des nœuds voisins hors groupe du nœud actuel par rapport au nœud actuel. De cette manière, l'apprentissage d'un modèle basé sur un réseau décentralisé peut être mis en œuvre.
(ZH)
本申请公开了一种模型训练方法及其节点、网络及存储装置。其中,所述方法应用于包含至少一组节点的去中心化网络中,其中,每组节点包括至少一个节点,至少部分所述节点用于训练得到所述模型的模型参数;所述方法包括:当前节点在本组内采用预设去中心化训练策略得到对所述模型的组内参数;利用所述组内参数和与所述当前节点的组外邻居节点相对于所述当前节点的权重,得到对所述模型的模型参数。通过上述方式,能够实现基于去中心化网络对模型的训练。
Also published as
CN201880002436.0
Latest bibliographic data on file with the International Bureau