(12) International Application Status Report

Received at International Bureau: 07 July 2018 (07.07.2018)

Information valid as of: 28 November 2018 (28.11.2018)

Report generated on: 20 September 2019 (20.09.2019)

(10) Publication number: (43) Publication date: (26) Publication language:
WO 2018/23425027 December 2018 (27.12.2018) German (DE)

(21) Application number: (22) Filing date: (25) Filing language:
PCT/EP2018/06613818 June 2018 (18.06.2018) German (DE)

(31) Priority number(s): (32) Priority date(s): (33) Priority status:
10 2017 210 316.7 (DE)20 June 2017 (20.06.2017) Priority document received (in compliance with PCT Rule 17.1)

(51) International Patent Classification:
G06F 3/01 (2006.01)

(71) Applicant(s):
VOLKSWAGEN AKTIENGESELLSCHAFT [DE/DE]; Berliner Ring 2 38440 Wolfsburg (DE) (for all designated states)
LINGUWERK GMBH [DE/DE]; Schnorrstraße 70 01069 Dresden (DE) (for all designated states)

(72) Inventor(s):
ETTE, Bernd; Leinefelderstr. 38 38442 Wolfsburg (DE)
WINTSCHE, Volker; Hoyerswerderstr. 30 01099 Dresden (DE)
GAIDA, Christian; Hohe Lehne 28 01705 Freital (DE)

(74) Agent(s):
VOGEL, Andreas; BALS & VOGEL PATENTANWÄLTE Universitätsstr. 142 44799 Bochum (DE)

(54) Title (EN): METHOD AND DEVICE FOR DETECTING A USER INPUT ON THE BASIS OF A GESTURE
(54) Title (FR): PROCÉDÉ ET DISPOSITIF DE DÉTECTION D'UNE ENTRÉE UTILISATEUR EN FONCTION D'UN GESTE
(54) Title (DE): VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER NUTZEREINGABE ANHAND EINER GESTE

(57) Abstract:
(EN): The invention relates to a method for detecting a user input on the basis of a gesture, in which method image data of at least two individual images are acquired, recoding times being allocated to the individual images. Each of the acquired individual images is segmented, an individual image object (31) is identified in each of the individual images and a reference point (33, 39) is determined on the basis of the individual image object (31). A trajectory (40) is determined on the basis of the reference points (33, 39) in the individual images and a gesture is determined on the basis of the trajectory (40). An output signal is generated and output on the basis of the gesture determined. The invention further relates to a device for detecting a user input on the basis of a gesture, comprising an acquisition unit (4) for acquiring image data, a segmentation unit (5) for performing segmentation, a trajectory computing unit (10) for determining the trajectory (40), an allocation unit (7) for determining a gesture and an output unit (8).
(FR): L'invention concerne un procédé de détection d'une entrée utilisateur en fonction d'un geste, selon lequel des données d'image comprenant au moins deux images individuelles sont détectées, des temps d'enregistrement étant affectés aux images individuelles. En fonction des images individuelles détectées, une segmentation est respectivement effectuée, pour l'image individuelle respective, un objet d'image individuelle (31) respectif et, en fonction de l'objet d'image individuelle (31), un point de référence (33, 39) étant déterminés. En fonction des points de référence (33, 39) des images individuelles, une trajectoire (40) et, en fonction de la trajectoire (40), un geste sont déterminés. En fonction du geste déterminé, un signal de sortie est généré et émis. L'invention concerne en outre un dispositif de détection d'une entrée utilisateur en fonction d'un geste, comprenant : une unité de détection (4), destinée à détecter des données d'image ; une unité de segmentation (5) ; destinée à effectuer une segmentation ; une unité de calcul de trajectoire (10), destinée à déterminer la trajectoire (40) ; une unité d'affectation (7), destinée à déterminer un geste ; et une unité de sortie (8).
(DE): Die Erfindung betrifft ein Verfahren zum Erfassen einer Nutzereingabe anhand einer Geste, bei dem Bilddaten mit zumindest zwei Einzelbildern erfasst werden, wobei den Einzelbildern Aufnahmezeitpunkte zugeordnet sind. Anhand der erfassten Einzelbilder wird jeweils eine Segmentierung durchgeführt, wobei für jedes Einzelbild jeweils ein Einzelbildobjekt (31) und anhand des Einzelbildobjekts (31) ein Referenzpunkt (33, 39) bestimmt wird. Anhand der Referenzpunkte (33, 39) der Einzelbilder wird eine Trajektorie (40) bestimmt und anhand der Trajektorie (40) wird eine Geste bestimmt wird. Anhand der bestimmten Geste wird ein Ausgabesignal erzeugt und ausgegeben. Die Erfindung betrifft ferner eine Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste, mit einer Erfassungseinheit (4) zur Erfassung von Bilddaten,einer Segmentierungseinheit (5) zum Durchführen eine Segmentierung, einer Trajektorienberechnungseinheit (10) zum Bestimmen der Trajektorie (40), einer Zuordnungseinheit (7) zur Bestimmung einer Geste und einer Ausgabeeinheit (8).

International search report:
Received at International Bureau: 13 August 2018 (13.08.2018) [EP]

International Report on Patentability (IPRP) Chapter II of the PCT:
Not available

(81) Designated States:
AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
European Patent Office (EPO) : AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR
African Intellectual Property Organization (OAPI) : BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG
African Regional Intellectual Property Organization (ARIPO) : BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW
Eurasian Patent Organization (EAPO) : AM, AZ, BY, KG, KZ, RU, TJ, TM