WIPO logo
Mobile | Deutsch | Español | Français | 日本語 | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

Search International and National Patent Collections
World Intellectual Property Organization
Search
 
Browse
 
Translate
 
Options
 
News
 
Login
 
Help
 
Machine translation
1. (WO2018046412) SEMI-SUPERVISED CLASSIFICATION WITH STACKED AUTOENCODER
Latest bibliographic data on file with the International Bureau    Submit observation

Pub. No.:    WO/2018/046412    International Application No.:    PCT/EP2017/072037
Publication Date: 15.03.2018 International Filing Date: 04.09.2017
IPC:
G06N 3/04 (2006.01), G06N 3/08 (2006.01)
Applicants: KONINKLIJKE PHILIPS N.V. [NL/NL]; High Tech Campus 5 5656 AE Eindhoven (NL)
Inventors: GHAEINI, Reza; (NL).
AL HASAN, Sheikh Sadid; (NL).
FARRI, Oladimeji Feyisetan; (NL).
LEE, Kathy; (NL).
DATLA, Vivek; (NL).
QADIR, Ashequl; (NL).
LIU, Junyi; (NL).
PRAKASH, Aaditya; (NL)
Agent: DE HAAN, Poul, Erik; (NL)
Priority Data:
62/384,250 07.09.2016 US
Title (EN) SEMI-SUPERVISED CLASSIFICATION WITH STACKED AUTOENCODER
(FR) CLASSIFICATION SEMI-SUPERVISÉE AVEC AUTO-CODEUR EMPILÉ
Abstract: front page image
(EN)Techniques described herein relate to semi-supervised training and application of stacked autoencoders and other classifiers for predictive and other purposes. In various embodiments, a semi-supervised model (108) may be trained for sentence classification, and may combine what is referred to herein as a "residual stacked de-noising autoencoder" ("RSDA") (220), which may be unsupervised, with a supervised classifier (218) such as a classification neural network (e.g., a multilayer perceptron, or "MLP"). In various embodiments, the RSDA may be a stacked denoising autoencoder that may or may not include one or more residual connections. If present, the residual connections may help the RSDA "remember" forgotten information across multiple layers. In various embodiments, the semi-supervised model may be trained with unlabeled data (for the RSDA) and labeled data (for the classifier) simultaneously.
(FR)Les techniques de la présente invention concernent l'apprentissage et l'application semi-supervisés d'autocodeurs empilés et d'autres classificateurs à des fins prédictives et autres. Dans divers modes de réalisation, un modèle semi-supervisé (108) peut être entraîné pour une classification de phrases et peut combiner ce qui est désigné ici comme "autocodeur de débruitage empilé résiduel" ("RSDA") (220), qui peut être non supervisé, avec un classificateur supervisé (218) tel qu'un réseau neuronal de classification (par exemple, un perceptron multicouche, ou "MLP"). Dans divers modes de réalisation, le RSDA peut être un autocodeur de débruitage empilé pouvant comprendre ou non une ou plusieurs connexions résiduelles. Si elles sont présentes, les connexions résiduelles peuvent aider la RSDA à "se souvenir" d'informations oubliées dans des couches multiples. Dans divers modes de réalisation, le modèle semi-supervisé peut être entraîné avec des données non étiquetées (pour le RSDA) et des données étiquetées (pour le classificateur) simultanément.
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW.
African Regional Intellectual Property Organization (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG).
Publication Language: English (EN)
Filing Language: English (EN)