WIPO logo
Mobile | Deutsch | Español | Français | 日本語 | 한국어 | Português | Русский | 中文 |
PATENTSCOPE

Search International and National Patent Collections
World Intellectual Property Organization
Search
 
Browse
 
Translate
 
Options
 
News
 
Login
 
Help
 
1. (WO2001065395) INFINITE LEVEL META-LEARNING THROUGH COMPRESSION
Latest bibliographic data on file with the International Bureau   

Pub. No.:    WO/2001/065395    International Application No.:    PCT/SE2001/000465
Publication Date: 07.09.2001 International Filing Date: 05.03.2001
Chapter 2 Demand Filed:    27.09.2001    
IPC:
G06F 15/18 (2006.01), H03M 7/30 (2006.01)
Applicants: VILL AB [SE/SE]; Peter Nordin Sisjövägen 109 S-436 38 Askim (SE) (For All Designated States Except US).
NORDIN, Peter [SE/SE]; (SE) (For US Only)
Inventors: NORDIN, Peter; (SE)
Agent: AWAPATENT AB; Box 11394 S-404 28 Göteborg (SE)
Priority Data:
60/188,928 03.03.2000 US (Priority Withdrawn 23.08.2002)
Title (EN) INFINITE LEVEL META-LEARNING THROUGH COMPRESSION
(FR) META-APPRENTISSAGE A NIVEAU INFINI PAR COMPRESSION
Abstract: front page image
(EN)The present invention relates to a method and a computer program for data compression and/or machine learning, such as data prediction including meta-learning of how to learn in a closed system with many levels of meta learning or infinite meta-levels. Compression is used both for the learning of target data and for meta-learning. A history entity is used for history compression to remember a trace of what the learning entity has done so far. The learning entity is provided with feed-back by adding random strings to the history entity. Random strings are a negative reinforcement for an entity which is trying to achieve compression. The reinforcement can be used both as an off-line system without an environment (internal reinforcement) and for external reinforcement from an environment.
(FR)L'invention concerne un procédé et un programme informatique pour la compression de données et/ou l'apprentissage machine, du type prédiction de données, y compris le méta-apprentissage relatif aux modalités d'apprentissage dans un système fermé avec de nombreux niveaux de méta-apprentissage ou des méta-niveaux infinis. On utilise la compression à la fois pour l'apprentissage de données cibles et pour le méta-apprentissge. Une entité historique est utilisée pour la compression historique, ce qui permet de conserver une trace des opérations déjà effectuées par l'entité d'apprentissage, laquelle fonctionne avec rétroaction par adjonction de chaînes aléatoires à l'entité historique. Les chaînes aléatoires sont un renforcement négatif pour une entité qui tente d'effectuer la compression. Le renforcement peut être utilisé à la fois comme système hors ligne sans environnement (renforcement interne) et pour le renforcement externe depuis un environnement.
Designated States: AE, AG, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, BZ, CA, CH, CN, CO, CR, CU, CZ, DE, DK, DM, DZ, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, KE, KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MA, MD, MG, MK, MN, MW, MX, MZ, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, TZ, UA, UG, US, UZ, VN, YU, ZA, ZW.
African Regional Intellectual Property Org. (ARIPO) (GH, GM, KE, LS, MW, MZ, SD, SL, SZ, TZ, UG, ZW)
Eurasian Patent Organization (EAPO) (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM)
European Patent Office (EPO) (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE, TR)
African Intellectual Property Organization (OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG).
Publication Language: English (EN)
Filing Language: English (EN)