Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2021057926 - PROCÉDÉ ET APPAREIL D'ENTRAÎNEMENT DE MODÈLE DE RÉSEAU DE NEURONES ARTIFICIELS

Numéro de publication WO/2021/057926
Date de publication 01.04.2021
N° de la demande internationale PCT/CN2020/117902
Date du dépôt international 25.09.2020
CIB
G06N 3/04 2006.01
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
3Systèmes de calculateurs basés sur des modèles biologiques
02utilisant des modèles de réseaux neuronaux
04Architecture, p.ex. topologie d'interconnexion
G06N 3/08 2006.01
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
3Systèmes de calculateurs basés sur des modèles biologiques
02utilisant des modèles de réseaux neuronaux
08Méthodes d'apprentissage
CPC
G06N 3/04
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
G06N 3/08
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
08Learning methods
Déposants
  • 杭州海康威视数字技术股份有限公司 HANGZHOU HIKVISION DIGITAL TECHNOLOGY CO., LTD. [CN]/[CN]
Inventeurs
  • 张渊 ZHANG, Yuan
  • 谢迪 XIE, Di
  • 浦世亮 PU, Shiliang
Mandataires
  • 北京柏杉松知识产权代理事务所(普通合伙) PATENTSINO IP FIRM
Données relatives à la priorité
201910909494.825.09.2019CN
Langue de publication chinois (ZH)
Langue de dépôt chinois (ZH)
États désignés
Titre
(EN) METHOD AND APPARATUS FOR TRAINING NEURAL NETWORK MODEL
(FR) PROCÉDÉ ET APPAREIL D'ENTRAÎNEMENT DE MODÈLE DE RÉSEAU DE NEURONES ARTIFICIELS
(ZH) 一种神经网络模型训练方法及装置
Abrégé
(EN)
Provided in embodiments of the present application are a method and apparatus for training a neural network model, the method comprising: acquiring training samples, and using the training samples to train a neural network model. When training the neural network model, power exponential domain fixed-point encoding is performed on a first activation amount inputted into each network layer and a network weight of each network layer, the encoded first activation amounts and network weights being power exponential domain fixed-point data; then, when performing operation, the involved matrix multiplication is performed by power exponential domain encoding and may be converted into an addition operation in the power exponential domain; and the hardware resources required for the addition operation are significantly fewer than the hardware resources required for multiplication. Therefore, the hardware resource overhead required to run the neural network model may be greatly reduced.
(FR)
Des modes de réalisation de la présente invention concernent un procédé et un appareil d'entraînement d'un modèle de réseau de neurones artificiels, le procédé consistant à : acquérir des échantillons d'entraînement, et utiliser les échantillons d'entraînement pour entraîner un modèle de réseau de neurones artificiels. Lors de l'entraînement du modèle de réseau de neurones artificiels, un codage en virgule fixe de domaine exponentiel de puissance est effectué sur une première quantité d'activation introduite dans chaque couche réseau et un poids de réseau de chaque couche réseau, les premières quantités d'activation et les poids de réseau codés étant des données en virgule fixe de domaine exponentiel de puissance ; puis, lors de la réalisation de l'opération, la multiplication de matrice impliquée est effectuée par un codage de domaine exponentiel de puissance et peut être convertie en une opération d'addition dans le domaine exponentiel de puissance ; et les ressources matérielles requises pour l'opération d'addition sont significativement réduites par rapport aux ressources matérielles requises pour la multiplication. Par conséquent, le surplus de ressources matérielles requis pour faire tourner le modèle de réseau de neurones artificiels peuvent être fortement réduit.
(ZH)
本申请实施例提供了一种神经网络模型训练方法及装置,获取训练样本,利用训练样本,对神经网络模型进行训练。在进行神经网络模型训练时,对输入每个网络层的第一激活量和每个网络层的网络权值进行幂指数域定点编码,编码后的第一激活量和网络权值为幂指数域定点数据,则在进行运算时,所涉及到的矩阵乘法,通过幂指数域编码方式,可以在幂指数域将乘法转换为加法操作,加法操作所需要的硬件资源明显少于乘法所需要的硬件资源,因此,可以大幅地降低运行神经网络模型需要的硬件资源开销。
Également publié en tant que
Dernières données bibliographiques dont dispose le Bureau international