Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. US20040015459 - Method for supervised teaching of a recurrent artificial neural network

Office États-Unis d'Amérique
Numéro de la demande 10398914
Date de la demande 29.05.2003
Numéro de publication 20040015459
Date de publication 22.01.2004
Numéro de délivrance 7321882
Date de délivrance 22.01.2008
Type de publication B2
CIB
G06E 1/00
GPHYSIQUE
06CALCUL; COMPTAGE
EDISPOSITIFS DE CALCUL OPTIQUE
1Dispositions pour traiter exclusivement des données numériques
G06E 3/00
GPHYSIQUE
06CALCUL; COMPTAGE
EDISPOSITIFS DE CALCUL OPTIQUE
3Dispositifs non prévus dans le groupe G06E1/66
G06F 15/18
GPHYSIQUE
06CALCUL; COMPTAGE
FTRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES
15Calculateurs numériques en général; Équipement de traitement de données en général
18dans lesquels un programme est modifié en fonction de l'expérience acquise par le calculateur lui-même au cours d'un cycle complet; Machines capables de s'instruire
G06G 7/00
GPHYSIQUE
06CALCUL; COMPTAGE
GCALCULATEURS ANALOGIQUES
7Dispositifs dans lesquels l'opération de calcul est effectuée en faisant varier des grandeurs électriques ou magnétiques
G06N 3/00
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
3Systèmes de calculateurs basés sur des modèles biologiques
G06N 3/02
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
3Systèmes de calculateurs basés sur des modèles biologiques
02utilisant des modèles de réseaux neuronaux
CPC
G06N 3/08
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
08Learning methods
Déposants Fraunhofer-Gesellschaft zur Foederung der Angewandten Forschung e.V.
Inventeurs Jaeger Herbert
Mandataires Birch, Stewart, Kolasch &; Birch, LLP
Données relatives à la priorité 00122415 13.10.2000 EP
Titre
(EN) Method for supervised teaching of a recurrent artificial neural network
Abrégé
(EN)

A method for the supervised teaching of a recurrent neutral network (RNN) is disclosed. A typical embodiment of the method utilizes a large (50 units or more), randomly initialized RNN with a globally stable dynamics. During the training period, the output units of this RNN are teacher-forced to follow the desired output signal. During this period, activations from all hidden units are recorded. At the end of the teaching period, these recorded data are used as input for a method which computes new weights of those connections that feed into the output units. The method is distinguished from existing training methods for RNNs through the following characteristics: (1) Only the weights of connections to output units are changed by learning—existing methods for teaching recurrent networks adjust all network weights. (2) The internal dynamics of large networks are used as a “reservoir” of dynamical components which are not changed, but only newly combined by the learning procedure—existing methods use small networks, whose internal dynamics are themselves completely re-shaped through learning.

Également publié en tant que
IN529/CHENP/2003