Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2020112510 - MODÈLE D'APPRENTISSAGE AUTOMATIQUE AVEC UNITÉS DE TRAITEMENT EN PROFONDEUR

Numéro de publication WO/2020/112510
Date de publication 04.06.2020
N° de la demande internationale PCT/US2019/062712
Date du dépôt international 22.11.2019
CIB
G06N 3/04 2006.01
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
3Systèmes de calculateurs basés sur des modèles biologiques
02utilisant des modèles de réseaux neuronaux
04Architecture, p.ex. topologie d'interconnexion
CPC
G06K 9/46
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
36Image preprocessing, i.e. processing the image information without deciding about the identity of the image
46Extraction of features or characteristics of the image
G06K 9/6262
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
62Methods or arrangements for recognition using electronic means
6217Design or setup of recognition systems and techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
6262Validation, performance evaluation or active pattern learning techniques
G06N 20/00
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
20Machine learning
G06N 3/0445
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
0445Feedback networks, e.g. hopfield nets, associative networks
G06N 3/0454
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
0454using a combination of multiple neural nets
G06N 3/0481
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
04Architectures, e.g. interconnection topology
0481Non-linear activation functions, e.g. sigmoids, thresholds
Déposants
  • MICROSOFT TECHNOLOGY LICENSING, LLC [US]/[US]
Inventeurs
  • LI, Jinyu
  • LU, Liang
  • LIU, Changliang
  • GONG, Yifan
Mandataires
  • MINHAS, Sandip S.
  • ADJEMIAN, Monica
  • BARKER, Doug
  • CHATTERJEE, Aaron C.
  • CHEN, Wei-Chen Nicholas
  • CHOI, Daniel
  • CHURNA, Timothy
  • DINH, Phong
  • EVANS, Patrick
  • GABRYJELSKI, Henry
  • GOLDSMITH, Micah P.
  • GUPTA, Anand
  • HINOJOSA-SMITH, Brianna L.
  • HWANG, William C.
  • JARDINE, John S.
  • LEE, Sunah
  • LEMMON, Marcus
  • MARQUIS, Thomas
  • MEYERS, Jessica
  • ROPER, Brandon
  • SPELLMAN, Steven
  • SULLIVAN, Kevin
  • SWAIN, Cassandra T.
  • TABOR, Ben
  • WALKER, Matt
  • WIGHT, Stephen A.
  • WISDOM, Gregg
  • WONG, Ellen
  • WONG, Thomas S.
  • ZHANG, Hannah
  • TRAN, Kimberly
Données relatives à la priorité
16/206,71430.11.2018US
Langue de publication anglais (EN)
Langue de dépôt anglais (EN)
États désignés
Titre
(EN) MACHINE LEARNING MODEL WITH DEPTH PROCESSING UNITS
(FR) MODÈLE D'APPRENTISSAGE AUTOMATIQUE AVEC UNITÉS DE TRAITEMENT EN PROFONDEUR
Abrégé
(EN)
Representative embodiments disclose machine learning classifiers used in scenarios such as speech recognition, image captioning, machine translation, or other sequence-to-sequence embodiments. The machine learning classifiers have a plurality of time layers, each layer having a time processing block and a depth processing block. The time processing block is a recurrent neural network such as a Long Short Term Memory (LSTM) network. The depth processing blocks can be an LSTM network, a gated Deep Neural Network (DNN) or a maxout DNN. The depth processing blocks account for the hidden states of each time layer and uses summarized layer information for final input signal feature classification. An attention layer can also be used between the top depth processing block and the output layer.
(FR)
Des modes de réalisation représentatifs décrivent des classificateurs d'apprentissage automatique utilisés dans des scénarios tels que la reconnaissance vocale, le titrage d'image, la traduction automatique ou d'autres modes de réalisation de séquence à séquence. Les classificateurs d'apprentissage machine comprennent une pluralité de couches temporelles, chaque couche ayant un bloc de traitement temporel et un bloc de traitement en profondeur. Le bloc de traitement temporel est un réseau neuronal récurrent tel qu'un réseau récurrent à mémoire court et long terme (LSTM). Les blocs de traitement de profondeur peuvent être un réseau LSTM, un réseau neuronal profond à grille (DNN) ou un DNN à sortie max. Les blocs de traitement en profondeur tiennent compte des états cachés de chaque couche temporelle et utilisent des informations de couche résumées pour la classification finale des caractéristiques du signal d'entrée. Une couche d'attention peut également être utilisée entre le bloc de traitement en profondeur supérieur et la couche de sortie.
Également publié en tant que
Dernières données bibliographiques dont dispose le Bureau international