処理中

しばらくお待ちください...

設定

設定

出願の表示

1. WO2020196066 - ニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラム

公開番号 WO/2020/196066
公開日 01.10.2020
国際出願番号 PCT/JP2020/011577
国際出願日 17.03.2020
IPC
G06N 3/08 2006.01
G物理学
06計算;計数
N特定の計算モデルに基づくコンピュータ・システム
3生物学的モデルに基づくコンピュータシステム
02ニューラルネットワークモデルを用いるもの
08学習方法
出願人
  • 国立大学法人京都大学 KYOTO UNIVERSITY [JP]/[JP]
発明者
  • 寺前 順之介 TERAMAE, Junnosuke
代理人
  • 河野 英仁 KOHNO, Hideto
  • 河野 登夫 KOHNO, Takao
優先権情報
2019-06422228.03.2019JP
公開言語 (言語コード) 日本語 (JA)
出願言語 (言語コード) 日本語 (JA)
指定国 (国コード)
発明の名称
(EN) NEURAL NETWORK LEARNING METHOD, NEURAL NETWORK GENERATION METHOD, LEARNED DEVICE, PORTABLE TERMINAL DEVICE, LEARNING PROCESSING DEVICE, AND COMPUTER PROGRAM
(FR) PROCÉDÉ D'APPRENTISSAGE DE RÉSEAU NEURONAL, PROCÉDÉ DE GÉNÉRATION DE RÉSEAU NEURONAL, DISPOSITIF APPRIS, DISPOSITIF TERMINAL PORTABLE, DISPOSITIF DE TRAITEMENT D'APPRENTISSAGE ET PROGRAMME INFORMATIQUE
(JA) ニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラム
要約
(EN)
Provides are a neural network learning method, a neural network generation method, a learned device, a portable terminal device, a learning processing device, and a computer program that do not require use of a backward propagation method. The present invention involves: setting neurons in a neural network as random variables each capable of taking two values; expressing connection weights between the respective neurons by using a plurality of synapses each of which has undergone multiplication by a required connection coefficient; setting the plurality of synapses as random variables each capable of taking two values; giving initial data to neurons in an intermediate layer; repeating a process in which sampling based on the Markov chain Monte Carlo method is performed on a conditional probability distribution, under a condition that the random variables of neurons in an input layer and an output layer represent training data values, and the status values of the synapses and the neurons in the intermediate layer are updated; and calculating, on the basis of the updated status values of the respective synapses, the connection weights between the respective neurons.
(FR)
L'invention concerne un procédé d'apprentissage de réseau neuronal, un procédé de génération de réseau neuronal, un dispositif appris, un dispositif terminal portable, un dispositif de traitement d'apprentissage et un programme informatique qui ne nécessitent pas l'utilisation d'un procédé de propagation arrière. La présente invention consiste : à définir des neurones dans un réseau neuronal en tant que variables aléatoires chacune capable de prendre deux valeurs; à exprimer des poids de connexion entre les neurones respectifs à l'aide d'une pluralité de synapses dont chacune a subi une multiplication par un coefficient de connexion requis; à définir la pluralité de synapses en tant que variables aléatoires, chacune capable de prendre deux valeurs; à donner des données initiales à des neurones dans une couche intermédiaire; à répéter un processus dans lequel un échantillonnage basé sur le procédé de Monte Carlo de chaîne de Markov est effectué sur une distribution de probabilité conditionnelle, dans une condition selon laquelle les variables aléatoires de neurones dans une couche d'entrée et une couche de sortie représentent des valeurs de données d'apprentissage, et les valeurs d'état des synapses et des neurones dans la couche intermédiaire sont mises à jour; et à calculer, sur la base des valeurs d'état mises à jour des synapses respectives, les poids de connexion entre les neurones respectifs.
(JA)
誤差逆伝播法を用いる必要がないニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラムを提供する。 ニューラルネットワーク内の各ニューロンを、二値を取り得る確率変数とし、ニューロン間の結合重みを、各シナプスに所要の結合係数が乗算された複数のシナプスで表現し、複数のシナプスを、二値を取り得る確率変数とし、中間層のニューロンに初期データを与え、入力層及び出力層それぞれのニューロンの確率変数が訓練データの値であるという条件の下での条件付き確率分布から、マルコフ連鎖モンテカルロ法に基づくサンプリングを行って中間層の各ニューロン及び各シナプスそれぞれの状態値を更新する処理を繰り返し、更新された各シナプスの状態値に基づいてニューロン間の結合重みを算出する。
国際事務局に記録されている最新の書誌情報