Some content of this application is unavailable at the moment.
If this situation persist, please contact us atFeedback&Contact
1. (WO2018218481) NEURAL NETWORK TRAINING METHOD AND DEVICE, COMPUTER SYSTEM AND MOBILE DEVICE
Latest bibliographic data on file with the International Bureau    Submit observation

Pub. No.: WO/2018/218481 International Application No.: PCT/CN2017/086547
Publication Date: 06.12.2018 International Filing Date: 31.05.2017
IPC:
G06N 3/08 (2006.01)
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
N
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3
Computer systems based on biological models
02
using neural network models
08
Learning methods
Applicants:
深圳市大疆创新科技有限公司 SZ DJI TECHNOLOGY CO., LTD. [CN/CN]; 中国广东省深圳市 南山区高新区南区粤兴一道9号香港科大深圳产学研大楼6楼 6F, Hkust Sz Ier Bldg. No. 9 Yuexing 1st Rd. Hi-Tech Park (South) , Nanshan District Shenzhen, Guangdong 518057, CN
Inventors:
潘为 PAN, Wei; CN
崔健 CUI, Jian; CN
林晓帆 LIN, Xiaofan; CN
赵丛 ZHAO, Cong; CN
Agent:
北京龙双利达知识产权代理有限公司 LONGSUN LEAD IP LTD.; 中国北京市海淀区北清路68号院3号楼101 Rm. 101, Building 3 No. 68 Beiqing Road, Haidian District Beijing 100094, CN
Priority Data:
Title (EN) NEURAL NETWORK TRAINING METHOD AND DEVICE, COMPUTER SYSTEM AND MOBILE DEVICE
(FR) DISPOSITIF ET PROCÉDÉ D'APPRENTISSAGE DE RÉSEAU NEURONAL, SYSTÈME INFORMATIQUE ET DISPOSITIF MOBILE
(ZH) 神经网络训练的方法、装置、计算机系统和可移动设备
Abstract:
(EN) A neural network training method and device, a computer system and a mobile device. The method comprises: acquiring a first weight set of processing units of a neural network (410); performing three-value processing on each weight in a first weight set to obtain a second weight set (420); generating an output value of the processing unit according to the second weight set and an input value set of the processing unit, wherein the input value set of the processing unit of the next layer of the neural network is taken from the output value of the processing unit of the previous layer (430); and training the weights in the first weight set of each processing unit of the neural network according to an error cost function, wherein the error cost function comprises an error term and a structural sparse term, the structural sparse term causing all weights in the first weight set of some of the processing units of the neural network to be zero (440). The described method may reduce the resource requirements of the neural network.
(FR) La présente invention concerne un dispositif et un procédé d'apprentissage de réseau neuronal, un système informatique et un dispositif mobile. Le procédé consiste : à acquérir un premier ensemble de poids d'unités de traitement d'un réseau neuronal (410); à réaliser un traitement à trois valeurs sur chaque poids dans un premier ensemble de poids afin d'obtenir un second ensemble de poids (420); à générer une valeur de sortie de l'unité de traitement conformément au second ensemble de poids et un ensemble de valeurs d'entrée de l'unité de traitement, l'ensemble de valeurs d'entrée de l'unité de traitement de la couche suivante du réseau neuronal étant pris à partir de la valeur de sortie de l'unité de traitement de la couche précédente (430); et à faire l'apprentissage des poids dans le premier ensemble de poids de chaque unité de traitement du réseau neuronal conformément à une fonction de coût d'erreur, la fonction de coût d'erreur comprenant un terme d'erreur et un terme épars structurel, le terme épars structurel amenant tous les poids dans le premier ensemble de poids de certaines des unités de traitement du réseau neuronal à être nuls (440). Le procédé décrit peut réduire les exigences de ressource du réseau neuronal.
(ZH) 一种神经网络训练的方法、装置、计算机系统和可移动设备。该方法包括:获取神经网络的处理单元的第一权重值集合(410);对该第一权重值集合中的每个权重值进行三值化处理,得到第二权重值集合(420);根据该第二权重值集合和该处理单元的输入值集合,生成该处理单元的输出值,其中,该神经网络的后一层的处理单元的输入值集合取自前一层的处理单元的输出值(430);根据误差代价函数,训练该神经网络的每个该处理单元的该第一权重值集合中的权重值,其中,该误差代价函数包括误差项和结构性稀疏项,该结构性稀疏项使得该神经网络的部分该处理单元的该第一权重值集合中的所有权重值为零(440)。上述方法能够降低神经网络的资源需求。
front page image
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Office (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (EPO) (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Publication Language: Chinese (ZH)
Filing Language: Chinese (ZH)