Processing

Please wait...

Settings

Settings

Goto Application

1. WO2020196066 - NEURAL NETWORK LEARNING METHOD, NEURAL NETWORK GENERATION METHOD, LEARNED DEVICE, PORTABLE TERMINAL DEVICE, LEARNING PROCESSING DEVICE, AND COMPUTER PROGRAM

Publication Number WO/2020/196066
Publication Date 01.10.2020
International Application No. PCT/JP2020/011577
International Filing Date 17.03.2020
IPC
G06N 3/08 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
08Learning methods
Applicants
  • 国立大学法人京都大学 KYOTO UNIVERSITY [JP]/[JP]
Inventors
  • 寺前 順之介 TERAMAE, Junnosuke
Agents
  • 河野 英仁 KOHNO, Hideto
  • 河野 登夫 KOHNO, Takao
Priority Data
2019-06422228.03.2019JP
Publication Language Japanese (JA)
Filing Language Japanese (JA)
Designated States
Title
(EN) NEURAL NETWORK LEARNING METHOD, NEURAL NETWORK GENERATION METHOD, LEARNED DEVICE, PORTABLE TERMINAL DEVICE, LEARNING PROCESSING DEVICE, AND COMPUTER PROGRAM
(FR) PROCÉDÉ D'APPRENTISSAGE DE RÉSEAU NEURONAL, PROCÉDÉ DE GÉNÉRATION DE RÉSEAU NEURONAL, DISPOSITIF APPRIS, DISPOSITIF TERMINAL PORTABLE, DISPOSITIF DE TRAITEMENT D'APPRENTISSAGE ET PROGRAMME INFORMATIQUE
(JA) ニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラム
Abstract
(EN)
Provides are a neural network learning method, a neural network generation method, a learned device, a portable terminal device, a learning processing device, and a computer program that do not require use of a backward propagation method. The present invention involves: setting neurons in a neural network as random variables each capable of taking two values; expressing connection weights between the respective neurons by using a plurality of synapses each of which has undergone multiplication by a required connection coefficient; setting the plurality of synapses as random variables each capable of taking two values; giving initial data to neurons in an intermediate layer; repeating a process in which sampling based on the Markov chain Monte Carlo method is performed on a conditional probability distribution, under a condition that the random variables of neurons in an input layer and an output layer represent training data values, and the status values of the synapses and the neurons in the intermediate layer are updated; and calculating, on the basis of the updated status values of the respective synapses, the connection weights between the respective neurons.
(FR)
L'invention concerne un procédé d'apprentissage de réseau neuronal, un procédé de génération de réseau neuronal, un dispositif appris, un dispositif terminal portable, un dispositif de traitement d'apprentissage et un programme informatique qui ne nécessitent pas l'utilisation d'un procédé de propagation arrière. La présente invention consiste : à définir des neurones dans un réseau neuronal en tant que variables aléatoires chacune capable de prendre deux valeurs; à exprimer des poids de connexion entre les neurones respectifs à l'aide d'une pluralité de synapses dont chacune a subi une multiplication par un coefficient de connexion requis; à définir la pluralité de synapses en tant que variables aléatoires, chacune capable de prendre deux valeurs; à donner des données initiales à des neurones dans une couche intermédiaire; à répéter un processus dans lequel un échantillonnage basé sur le procédé de Monte Carlo de chaîne de Markov est effectué sur une distribution de probabilité conditionnelle, dans une condition selon laquelle les variables aléatoires de neurones dans une couche d'entrée et une couche de sortie représentent des valeurs de données d'apprentissage, et les valeurs d'état des synapses et des neurones dans la couche intermédiaire sont mises à jour; et à calculer, sur la base des valeurs d'état mises à jour des synapses respectives, les poids de connexion entre les neurones respectifs.
(JA)
誤差逆伝播法を用いる必要がないニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラムを提供する。 ニューラルネットワーク内の各ニューロンを、二値を取り得る確率変数とし、ニューロン間の結合重みを、各シナプスに所要の結合係数が乗算された複数のシナプスで表現し、複数のシナプスを、二値を取り得る確率変数とし、中間層のニューロンに初期データを与え、入力層及び出力層それぞれのニューロンの確率変数が訓練データの値であるという条件の下での条件付き確率分布から、マルコフ連鎖モンテカルロ法に基づくサンプリングを行って中間層の各ニューロン及び各シナプスそれぞれの状態値を更新する処理を繰り返し、更新された各シナプスの状態値に基づいてニューロン間の結合重みを算出する。
Latest bibliographic data on file with the International Bureau