Some content of this application is unavailable at the moment.
If this situation persist, please contact us atFeedback&Contact
1. (WO2019050771) EXECUTION METHOD, EXECUTION DEVICE, LEARNING METHOD, LEARNING DEVICE, AND PROGRAM FOR DEEP NEURAL NETWORK
Latest bibliographic data on file with the International Bureau    Submit observation

Pub. No.: WO/2019/050771 International Application No.: PCT/US2018/048867
Publication Date: 14.03.2019 International Filing Date: 30.08.2018
IPC:
G06N 3/02 (2006.01) ,G06N 3/04 (2006.01) ,G06N 3/06 (2006.01) ,G06N 3/08 (2006.01)
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
N
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3
Computer systems based on biological models
02
using neural network models
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
N
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3
Computer systems based on biological models
02
using neural network models
04
Architecture, e.g. interconnection topology
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
N
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3
Computer systems based on biological models
02
using neural network models
06
Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
N
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3
Computer systems based on biological models
02
using neural network models
08
Learning methods
Applicants:
PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA [US/US]; 20000 Mariner Avenue Suite 200 Torrance, CA 90503, US
Inventors:
GUDOVSKIY, Denis A.; US
RIGAZIO, Luca; US
Agent:
FIELDS, Kenneth W.; US
Priority Data:
62/554,22405.09.2017US
Title (EN) EXECUTION METHOD, EXECUTION DEVICE, LEARNING METHOD, LEARNING DEVICE, AND PROGRAM FOR DEEP NEURAL NETWORK
(FR) PROCÉDÉ D'EXÉCUTION, DISPOSITIF D'EXÉCUTION, PROCÉDÉ D'APPRENTISSAGE, DISPOSITIF D'APPRENTISSAGE ET PROGRAMME POUR RÉSEAU NEURONAL PROFOND
Abstract:
(EN) Executing a deep neural network by obtaining, during deep neural network inference, a binary intermediate feature map in binary representation by converting a floating-point or fixed-point intermediate feature map into a binary vector using a first transformation module (S210, S215); generating a compressed feature map by compressing the binary intermediate feature map using a nonlinear dimensionality reduction layer (S220); storing the compressed feature map into memory; reconstructing the binary intermediate feature map by decompressing the compressed feature map read from the memory using a reconstruction layer corresponding to the nonlinear dimensionality reduction layer (S240); and converting the reconstructed binary intermediate feature map into a floating-point or fixed-point intermediate feature map using a second transformation module (S245, S250).
(FR) L’invention concerne l'exécution d'un réseau neuronal profond par l'obtention, pendant l'inférence de réseau neuronal profond, d'une carte de caractéristiques intermédiaires binaires dans une représentation binaire par conversion d'une carte de caractéristiques intermédiaires à virgule flottante ou à virgule fixe en un vecteur binaire à l'aide d'un premier module de transformation (S210, S215); la génération d'une carte de caractéristiques compressées par compression de la carte de caractéristiques intermédiaires binaires à l'aide d'une couche de réduction de dimensionnalité non linéaire (S220); le stockage de la carte de caractéristiques compressées en mémoire ; la reconstruction de la carte de caractéristiques intermédiaires binaires par décompression de la carte de caractéristiques compressées lue à partir de la mémoire à l'aide d'une couche de reconstruction correspondant à la couche de réduction de dimensionnalité non linéaire (S240); et la conversion de la carte de caractéristiques intermédiaires binaires reconstruites en une carte de caractéristiques intermédiaires à virgule flottante ou à virgule fixe à l'aide d'un second module de transformation (S245, S250).
front page image
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Office (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (EPO) (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Publication Language: English (EN)
Filing Language: English (EN)