Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020107616 - PARALLEL COMPUTING METHOD AND APPARATUS

Publication Number WO/2020/107616
Publication Date 04.06.2020
International Application No. PCT/CN2018/124831
International Filing Date 28.12.2018
IPC
G06N 3/04 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architecture, e.g. interconnection topology
CPC
G06N 3/04
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
G06N 3/06
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
Applicants
  • 深圳云天励飞技术有限公司 SHENZHEN INTELLIFUSION TECHNOLOGIES CO., LTD. [CN]/[CN]
Inventors
  • 苏岚 SU, Lan
  • 顾鹏 GU, Peng
Agents
  • 深圳市金信启明知识产权代理有限公司 SHENZHEN 51REG INTELLECTUAL PROPERTY CO., LTD.
Priority Data
201811417046.826.11.2018CN
Publication Language Chinese (ZH)
Filing Language Chinese (ZH)
Designated States
Title
(EN) PARALLEL COMPUTING METHOD AND APPARATUS
(FR) PROCÉDÉ ET APPAREIL DE CALCUL PARALLÈLE
(ZH) 一种并行计算方法及装置
Abstract
(EN)
A parallel computing method and apparatus, the method comprising: performing horizontal-direction splicing on N input matrices of a target convolutional neural network layer, and acquiring a first spliced input matrix (S101); according to the described computation, a vector processor identifying the performance of horizontal-direction computing processing on the first spliced input matrix to obtain a spliced output matrix (S102); and screening N output matrices out from the spliced output matrix, and using the N output matrices as N input matrices of a next convolutional neural network layer (S103). By means of performing horizontal-direction splicing on input matrices, the described method reduces additional overhead brought about by required loading and storage when a processor performs line feed processing on a pipeline, and improves the computing performance of a vector processor when processing small-size data.
(FR)
La présente invention concerne un procédé et un appareil de calcul parallèle, le procédé comprend : la réalisation d'un raccordement en direction horizontale sur N matrices d'entrée d'une couche de réseau neuronal convolutionnel cible, et l'acquisition d'une première matrice d'entrée raccordée (S101) ; selon le calcul décrit, un processeur vectoriel identifie les performances d'un traitement de calcul en direction horizontale sur la première matrice d'entrée raccordée pour obtenir une matrice de sortie raccordée (S102) ; et le filtrage de N matrices de sortie à partir de la matrice de sortie raccordée, et l'utilisation des N matrices de sortie en tant que N matrices d'entrée d'une couche de réseau neuronal convolutionnel suivante (S103). Au moyen de la réalisation d'un raccordement en direction horizontale sur des matrices d'entrée, le procédé décrit réduit le surdébit supplémentaire provoqué par le chargement et le stockage requis lorsqu'un processeur réalise un traitement d'alimentation en ligne sur un pipeline, et améliore les performances de calcul d'un processeur vectoriel lors du traitement de données de petite taille.
(ZH)
一种并行计算方法及装置,所述方法包括:将卷积神经网络目标层的N个输入矩阵进行水平方向的拼接,获得第一拼接输入矩阵(S101);矢量处理器根据所述计算标识对所述第一拼接输入矩阵进行水平方向的计算处理,得到拼接输出矩阵(S102);从所述拼接输出矩阵中筛选出所述N个输出矩阵,并将所述N个输出矩阵作为卷积神经网络下一层的N个输入矩阵(S103)。该方法通过将输入矩阵进行水平方向的拼接,从而减少了处理器换行处理流水线时所需的载入和存储带来的额外开销,提升了矢量处理器在处理小尺寸数据时的计算性能。
Also published as
Latest bibliographic data on file with the International Bureau