Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2020107616 - PROCÉDÉ ET APPAREIL DE CALCUL PARALLÈLE

Numéro de publication WO/2020/107616
Date de publication 04.06.2020
N° de la demande internationale PCT/CN2018/124831
Date du dépôt international 28.12.2018
CIB
G06N 3/04 2006.01
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
3Systèmes de calculateurs basés sur des modèles biologiques
02utilisant des modèles de réseaux neuronaux
04Architecture, p.ex. topologie d'interconnexion
CPC
G06N 3/04
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
G06N 3/06
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
Déposants
  • 深圳云天励飞技术有限公司 SHENZHEN INTELLIFUSION TECHNOLOGIES CO., LTD. [CN]/[CN]
Inventeurs
  • 苏岚 SU, Lan
  • 顾鹏 GU, Peng
Mandataires
  • 深圳市金信启明知识产权代理有限公司 SHENZHEN 51REG INTELLECTUAL PROPERTY CO., LTD.
Données relatives à la priorité
201811417046.826.11.2018CN
Langue de publication chinois (ZH)
Langue de dépôt chinois (ZH)
États désignés
Titre
(EN) PARALLEL COMPUTING METHOD AND APPARATUS
(FR) PROCÉDÉ ET APPAREIL DE CALCUL PARALLÈLE
(ZH) 一种并行计算方法及装置
Abrégé
(EN)
A parallel computing method and apparatus, the method comprising: performing horizontal-direction splicing on N input matrices of a target convolutional neural network layer, and acquiring a first spliced input matrix (S101); according to the described computation, a vector processor identifying the performance of horizontal-direction computing processing on the first spliced input matrix to obtain a spliced output matrix (S102); and screening N output matrices out from the spliced output matrix, and using the N output matrices as N input matrices of a next convolutional neural network layer (S103). By means of performing horizontal-direction splicing on input matrices, the described method reduces additional overhead brought about by required loading and storage when a processor performs line feed processing on a pipeline, and improves the computing performance of a vector processor when processing small-size data.
(FR)
La présente invention concerne un procédé et un appareil de calcul parallèle, le procédé comprend : la réalisation d'un raccordement en direction horizontale sur N matrices d'entrée d'une couche de réseau neuronal convolutionnel cible, et l'acquisition d'une première matrice d'entrée raccordée (S101) ; selon le calcul décrit, un processeur vectoriel identifie les performances d'un traitement de calcul en direction horizontale sur la première matrice d'entrée raccordée pour obtenir une matrice de sortie raccordée (S102) ; et le filtrage de N matrices de sortie à partir de la matrice de sortie raccordée, et l'utilisation des N matrices de sortie en tant que N matrices d'entrée d'une couche de réseau neuronal convolutionnel suivante (S103). Au moyen de la réalisation d'un raccordement en direction horizontale sur des matrices d'entrée, le procédé décrit réduit le surdébit supplémentaire provoqué par le chargement et le stockage requis lorsqu'un processeur réalise un traitement d'alimentation en ligne sur un pipeline, et améliore les performances de calcul d'un processeur vectoriel lors du traitement de données de petite taille.
(ZH)
一种并行计算方法及装置,所述方法包括:将卷积神经网络目标层的N个输入矩阵进行水平方向的拼接,获得第一拼接输入矩阵(S101);矢量处理器根据所述计算标识对所述第一拼接输入矩阵进行水平方向的计算处理,得到拼接输出矩阵(S102);从所述拼接输出矩阵中筛选出所述N个输出矩阵,并将所述N个输出矩阵作为卷积神经网络下一层的N个输入矩阵(S103)。该方法通过将输入矩阵进行水平方向的拼接,从而减少了处理器换行处理流水线时所需的载入和存储带来的额外开销,提升了矢量处理器在处理小尺寸数据时的计算性能。
Également publié en tant que
Dernières données bibliographiques dont dispose le Bureau international