このアプリケーションの一部のコンテンツは現時点では利用できません。
このような状況が続く場合は、にお問い合わせくださいフィードバック & お問い合わせ
1. (WO2019026702) データ量圧縮方法、装置、プログラム及びICチップ
国際事務局に記録されている最新の書誌情報    第三者情報を提供

国際公開番号: WO/2019/026702 国際出願番号: PCT/JP2018/027773
国際公開日: 07.02.2019 国際出願日: 24.07.2018
IPC:
G06N 99/00 (2010.01)
G 物理学
06
計算;計数
N
特定の計算モデルに基づくコンピュータ・システム
99
このサブクラスの他のグループに分類されない主題事項
出願人:
株式会社エイシング AISING LTD. [JP/JP]; 東京都港区赤坂9丁目1番7-424号 9-1-7-424 Akasaka, Minato-Ku, Tokyo 1070052, JP
発明者:
金 天海 KIM Chyon Hae; JP
出澤 純一 IDESAWA Junichi; JP
菅原 志門 SUGAWARA Shimon; JP
代理人:
飯塚 信市 IIZUKA Shin-ichi; JP
飯塚 健 IIZUKA Takeshi; JP
優先権情報:
2017-14831631.07.2017JP
発明の名称: (EN) DATA AMOUNT COMPRESSION METHOD, DEVICE, PROGRAM AND IC CHIP
(FR) PROCÉDÉ DE COMPRESSION DE QUANTITÉ DE DONNÉES, DISPOSITIF, PROGRAMME ET PUCE DE CIRCUIT INTÉGRÉ
(JA) データ量圧縮方法、装置、プログラム及びICチップ
要約:
(EN) [Problem] To compress a data amount of a learning-finished model while minimizing the degradation in prediction accuracy. [Solution] Provided is a data amount compression method which compresses a data amount that corresponds to a learning-finished model obtained by allowing a prescribed data group to be learnt by a learning model which has a tree structure configured by hierarchically disposing a plurality of nodes respectively associated with hierarchically divided state spaces. An error amount, which is generated in the learning process and corresponds to prediction accuracy, is associated with each node of the learning-finished model. The data amount compression method is provided with: a reading step for reading the error amount associated with each of the nodes; and a node removing step for removing a portion of nodes of the learning-finished model on the basis of the error amount read in the reading step, and thereby compressing the data amount corresponding to the learning-finished model.
(FR) La présente invention aborde le problème de la compression d'une quantité de données d'un modèle fini d'apprentissage tout en réduisant au minimum la dégradation de la précision de prédiction. La solution selon l'invention porte sur un procédé de compression de quantité de données qui compresse une quantité de données qui correspond à un modèle fini d'apprentissage obtenu en permettant à un groupe de données prescrit d'être appris par un modèle d'apprentissage qui possède une structure en arborescence configurée par la disposition hiérarchique d'une pluralité de nœuds respectivement associés à des espaces d'état divisés hiérarchiquement. Une amplitude d'erreur, qui est générée dans le processus d'apprentissage et qui correspond à la précision de prédiction, est associée à chaque nœud du modèle fini d'apprentissage. Le procédé de compression de quantité de données comprend : une étape de lecture pour lire l'amplitude d'erreur associée à chacun des nœuds ; et une étape de suppression de nœud pour retirer une portion des nœuds du modèle fini d'apprentissage sur la base de l'amplitude d'erreur lue dans l'étape de lecture, et ainsi compresser la quantité de données correspondant au modèle fini d'apprentissage.
(JA) 【課題】 予測精度の低下を最小限としつつも学習済モデルのデータ量の圧縮を行うこと。 【解決手段】 階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた学習済モデルに対応するデータ量を圧縮するデータ量圧縮方法であって、前記学習済モデルにおける各前記ノードには、前記学習の過程において生成され、かつ、予測精度に相当する誤差量が対応付けられており、前記データ量圧縮方法は、前記各ノードに対応付けられた前記誤差量を読み出す読出ステップと、前記読出ステップにて読み出された前記誤差量に基づいて、前記学習済モデルの一部のノードを削除し、それにより前記学習済モデルに対応する前記データ量を圧縮する、ノード削除ステップと、を備えたデータ量圧縮方法が提供される。
front page image
指定国: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
アフリカ広域知的所有権機関(ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
ユーラシア特許庁(EAPO) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
欧州特許庁(EPO) (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
アフリカ知的所有権機関(OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
国際公開言語: 日本語 (JA)
国際出願言語: 日本語 (JA)