Processing

Please wait...

PATENTSCOPE will be unavailable a few hours for maintenance reason on Tuesday 25.01.2022 at 9:00 AM CET
Settings

Settings

Goto Application

1. WO2022001126 - FPGA-BASED NEURAL NETWORK OPERATION METHOD, APPARATUS, AND DEVICE

Publication Number WO/2022/001126
Publication Date 06.01.2022
International Application No. PCT/CN2021/076835
International Filing Date 19.02.2021
IPC
G06N 3/063 2006.1
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
063using electronic means
Applicants
  • 浪潮(北京)电子信息产业有限公司 INSPUR (BEIJING) ELECTRONIC INFORMATION INDUSTRY CO., LTD [CN]/[CN]
Inventors
  • 仝培霖 TONG, Peilin
  • 朱克峰 ZHU, Kefeng
  • 赵红博 ZHAO, Hongbo
Agents
  • 北京集佳知识产权代理有限公司 UNITALEN ATTORNEYS AT LAW
Priority Data
202010614610.630.06.2020CN
Publication Language Chinese (zh)
Filing Language Chinese (ZH)
Designated States
Title
(EN) FPGA-BASED NEURAL NETWORK OPERATION METHOD, APPARATUS, AND DEVICE
(FR) PROCÉDÉ, APPAREIL ET DISPOSITIF DE FONCTIONNEMENT DE RÉSEAU NEURONAL BASÉ SUR DES FPGA
(ZH) 一种基于FPGA的神经网络运算方法、装置及设备
Abstract
(EN) An FPGA-based neural network operation method, apparatus, and device, and a storage medium. The method comprises: obtaining a neural network model (S10); counting on-chip memory capacities corresponding to a plurality of FPGAs (S11); according to the on-chip memory capacity of each FPGA, splitting the neural network model into sub-models having corresponding data volumes (S12), wherein the data volume of each sub-model is not greater than the on-chip memory capacity of the corresponding FPGA; distributing the sub-models to on-chip memories of the corresponding FPGAs (S13); and setting a data flow direction among the corresponding FPGAs according to an execution sequence among the sub-models, and sequentially controlling the FPGAs to execute neural network operation on the basis of the corresponding sub-models according to the execution sequence (S14). The method ensures the overall efficiency of executing the reasoning operation of the neural network model on the basis of the FPGAs.
(FR) La présente invention concerne un procédé, un appareil et un dispositif de fonctionnement de réseau neuronal basé sur des FPGA, ainsi qu'un support de stockage. Le procédé comprend les étapes consistant à : obtenir un modèle de réseau neuronal (S10) ; compter les capacités de mémoire sur puce correspondant à une pluralité de FPGA (S11) ; en fonction de la capacité de mémoire sur puce de chaque FPGA, diviser le modèle de réseau neuronal en sous-modèles ayant des volumes de données correspondants (S12), le volume de données de chaque sous-modèle n'étant pas supérieur à la capacité de mémoire sur puce du FPGA correspondant ; distribuer les sous-modèles à des mémoires sur puce des FPGA correspondant (S13) ; et régler une direction de flux de données parmi les FPGA correspondants selon une séquence d'exécution parmi les sous-modèles et commander séquentiellement les FPGA pour exécuter une opération de réseau neuronal sur la base des sous-modèles correspondants selon la séquence d'exécution (S14). Le procédé garantit l'efficacité globale d'exécution de l'opération de raisonnement du modèle de réseau neuronal sur la base des FPGA.
(ZH) 一种基于FPGA的神经网络运算方法、装置、设备及存储介质,该方法包括:获取神经网络模型(S10);统计多个FPGA对应的片上内存容量(S11);根据各FPGA的片上内存容量,将神经网络模型拆分为具有相应数据量的子模型(S12);其中,各子模型的数据量不大于所对应的FPGA的片上内存容量;将子模型分配至对应FPGA的片上内存(S13);根据各子模型之间的执行顺序设定相应各FPGA之间的数据流向,并根据执行顺序依次控制各FPGA基于相应的子模型执行神经网络运算(S14)。该方法确保了基于FPGA执行神经网络模型的推理运算的整体效率。
Related patent documents
Latest bibliographic data on file with the International Bureau