Some content of this application is unavailable at the moment.
If this situation persist, please contact us atFeedback&Contact
1. (WO2019026702) DATA AMOUNT COMPRESSION METHOD, DEVICE, PROGRAM AND IC CHIP
Latest bibliographic data on file with the International Bureau    Submit observation

Pub. No.: WO/2019/026702 International Application No.: PCT/JP2018/027773
Publication Date: 07.02.2019 International Filing Date: 24.07.2018
IPC:
G06N 99/00 (2010.01)
G PHYSICS
06
COMPUTING; CALCULATING; COUNTING
N
COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
99
Subject matter not provided for in other groups of this subclass
Applicants:
株式会社エイシング AISING LTD. [JP/JP]; 東京都港区赤坂9丁目1番7-424号 9-1-7-424 Akasaka, Minato-Ku, Tokyo 1070052, JP
Inventors:
金 天海 KIM Chyon Hae; JP
出澤 純一 IDESAWA Junichi; JP
菅原 志門 SUGAWARA Shimon; JP
Agent:
飯塚 信市 IIZUKA Shin-ichi; JP
飯塚 健 IIZUKA Takeshi; JP
Priority Data:
2017-14831631.07.2017JP
Title (EN) DATA AMOUNT COMPRESSION METHOD, DEVICE, PROGRAM AND IC CHIP
(FR) PROCÉDÉ DE COMPRESSION DE QUANTITÉ DE DONNÉES, DISPOSITIF, PROGRAMME ET PUCE DE CIRCUIT INTÉGRÉ
(JA) データ量圧縮方法、装置、プログラム及びICチップ
Abstract:
(EN) [Problem] To compress a data amount of a learning-finished model while minimizing the degradation in prediction accuracy. [Solution] Provided is a data amount compression method which compresses a data amount that corresponds to a learning-finished model obtained by allowing a prescribed data group to be learnt by a learning model which has a tree structure configured by hierarchically disposing a plurality of nodes respectively associated with hierarchically divided state spaces. An error amount, which is generated in the learning process and corresponds to prediction accuracy, is associated with each node of the learning-finished model. The data amount compression method is provided with: a reading step for reading the error amount associated with each of the nodes; and a node removing step for removing a portion of nodes of the learning-finished model on the basis of the error amount read in the reading step, and thereby compressing the data amount corresponding to the learning-finished model.
(FR) La présente invention aborde le problème de la compression d'une quantité de données d'un modèle fini d'apprentissage tout en réduisant au minimum la dégradation de la précision de prédiction. La solution selon l'invention porte sur un procédé de compression de quantité de données qui compresse une quantité de données qui correspond à un modèle fini d'apprentissage obtenu en permettant à un groupe de données prescrit d'être appris par un modèle d'apprentissage qui possède une structure en arborescence configurée par la disposition hiérarchique d'une pluralité de nœuds respectivement associés à des espaces d'état divisés hiérarchiquement. Une amplitude d'erreur, qui est générée dans le processus d'apprentissage et qui correspond à la précision de prédiction, est associée à chaque nœud du modèle fini d'apprentissage. Le procédé de compression de quantité de données comprend : une étape de lecture pour lire l'amplitude d'erreur associée à chacun des nœuds ; et une étape de suppression de nœud pour retirer une portion des nœuds du modèle fini d'apprentissage sur la base de l'amplitude d'erreur lue dans l'étape de lecture, et ainsi compresser la quantité de données correspondant au modèle fini d'apprentissage.
(JA) 【課題】 予測精度の低下を最小限としつつも学習済モデルのデータ量の圧縮を行うこと。 【解決手段】 階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた学習済モデルに対応するデータ量を圧縮するデータ量圧縮方法であって、前記学習済モデルにおける各前記ノードには、前記学習の過程において生成され、かつ、予測精度に相当する誤差量が対応付けられており、前記データ量圧縮方法は、前記各ノードに対応付けられた前記誤差量を読み出す読出ステップと、前記読出ステップにて読み出された前記誤差量に基づいて、前記学習済モデルの一部のノードを削除し、それにより前記学習済モデルに対応する前記データ量を圧縮する、ノード削除ステップと、を備えたデータ量圧縮方法が提供される。
front page image
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Office (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (EPO) (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Publication Language: Japanese (JA)
Filing Language: Japanese (JA)