Einige Inhalte dieser Anwendung sind momentan nicht verfügbar.
Wenn diese Situation weiterhin besteht, kontaktieren Sie uns bitte unterFeedback&Kontakt
1. (WO2018234251) VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER NUTZEREINGABE ANHAND EINER GESTE
Aktuellste beim Internationalen Büro vorliegende bibliographische Daten    Einwendung einreichen

Veröff.-Nr.: WO/2018/234251 Internationale Anmeldenummer PCT/EP2018/066139
Veröffentlichungsdatum: 27.12.2018 Internationales Anmeldedatum: 18.06.2018
IPC:
G06F 3/01 (2006.01)
G Physik
06
Datenverarbeitung; Rechnen; Zählen
F
Elektrische digitale Datenverarbeitung
3
Eingabeeinrichtungen, in denen digitale Daten in eine von dem Digitalrechner verarbeitbare Form gebracht werden; Ausgabeeinrichtungen, in denen digitale Daten so umgeformt werden, dass sie von dem Ausgabegerät aufgenommen werden können, z.B. Schnittstellenanordnungen
01
Eingabeeinrichtungen oder kombinierte Eingabe- und Ausgabeeinrichtungen für den Dialog zwischen Benutzer und Rechner
Anmelder:
VOLKSWAGEN AKTIENGESELLSCHAFT [DE/DE]; Berliner Ring 2 38440 Wolfsburg, DE
LINGUWERK GMBH [DE/DE]; Schnorrstraße 70 01069 Dresden, DE
Erfinder:
ETTE, Bernd; DE
WINTSCHE, Volker; DE
GAIDA, Christian; DE
Vertreter:
VOGEL, Andreas; Bals & Vogel Patentanwälte Universitätsstr. 142 44799 Bochum, DE
Prioritätsdaten:
10 2017 210 317.520.06.2017DE
Titel (EN) METHOD AND DEVICE FOR DETECTING A USER INPUT ON THE BASIS OF A GESTURE
(FR) PROCÉDÉ ET DISPOSITIF DE DÉTECTION D'UNE ENTRÉE UTILISATEUR EN FONCTION D'UN GESTE
(DE) VERFAHREN UND VORRICHTUNG ZUM ERFASSEN EINER NUTZEREINGABE ANHAND EINER GESTE
Zusammenfassung:
(EN) In the method according to the invention for detecting a user input on the basis of a gesture, image data are acquired and segmentation is performed on the basis of the acquired image data, determining an object (31) with an outline (32). A reference point (33) is determined on the basis of the object (31), a distance between each of a plurality of points located on the outline (32) of the object (31) and the reference point (33) is determined and a measured distance profile (37) is generated on the basis of these distances. A gesture is determined on the basis of the measured distance profile (37) and an output signal is generated and output on the basis of the gesture determined. The invention further relates to a device for detecting a user input on the basis of a gesture. The device comprises an acquisition unit (4) for acquiring image data and a segmentation unit (5) for performing segmentation on the basis of the image data acquired, thereby determining an object (31) having an outline (32). The device further comprises a profile computing unit (6) for determining a reference point (33) on the basis of the object (31), wherein a distance between each of a plurality of points located on the outline (32) of the object (31) and the reference point (33) can be determined and a measured distance profile (37) can be generated on the basis of these distances. The device comprises an allocation unit (7) by means of which a gesture can be determined on the basis of the measured distance profile (37) and an output unit (8) by means of which an output signal can be generated and output on the basis of the gesture determined.
(FR) La présente invention concerne un procédé de détection d'une entrée utilisateur en fonction d'un geste, selon lequel des données d'image sont détectées et, en fonction des données d'image détectées, une segmentation est effectuée, un objet (31) doté d'une ligne de contour (32) étant déterminé. En fonction de l'objet (31), un point de référence (33) est déterminé et pour une pluralité de points sur la ligne de contour (32) de l'objet (31), une distance au point de référence (33) est respectivement déterminée et, en fonction de la distance, un profil de distance (37) mesuré est généré. En fonction du profil de distance (37) mesuré, un geste est déterminé et, en fonction du geste déterminé, un signal de sortie est généré et émis. L'invention concerne en outre un dispositif de détection d'une entrée utilisateur en fonction d'un geste. Le dispositif comprend une unité de détection (4), au moyen de laquelle des données d'image peuvent être détectées, et une unité de segmentation (5), au moyen de laquelle une segmentation peut être effectuée en fonction des données d'image détectées, un objet (31) doté d'une ligne de contour (32) pouvant être déterminé. Ledit dispositif comprend en outre une unité de calcul de profil (6), au moyen de laquelle, en fonction de l'objet (31), un point de référence (33) peut être déterminé, pour une pluralité de points sur la ligne de contour (32) de l'objet (31), une distance respective au point de référence (33 ) pouvant être déterminée et, en fonction des distances, un profil de distance (37) mesuré peut être généré. Ledit dispositif comprend en outre une unité d'affectation (7), au moyen de laquelle un geste peut être déterminé en fonction du profil de distance (37) mesuré et une unité de sortie (8), au moyen de laquelle, en fonction du geste déterminé, un signal de sortie peut être généré et émis.
(DE) Bei dem erfindungsgemäßen Verfahren zum Erfassen einer Nutzereingabe anhand einer Geste werden Bilddaten erfasst und anhand der erfassten Bilddaten wird eine Segmentierung durchgeführt, wobei ein Objekt (31) mit einer Umrisslinie (32) bestimmt wird. Anhand des Objekts (31) wird ein Referenzpunkt (33) bestimmt und für eine Vielzahl von Punkten auf der Umrisslinie (32) des Objekts (31) wird jeweils ein Abstand zu dem Referenzpunkt (33) bestimmt und anhand der Abstände ein gemessenes Abstandsprofil (37) erzeugt. Anhand des gemessenen Abstandsprofils (37) wird eine Geste bestimmt und anhand der bestimmten Geste wird ein Ausgabesignal erzeugt und ausgegeben. Die Erfindung betrifft ferner eine Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste. Die Vorrichtung umfasst eine Erfassungseinheit (4), durch die Bilddaten erfassbar sind, sowie eine Segmentierungseinheit (5), durch die anhand der erfassten Bilddaten eine Segmentierung durchführbar ist, wobei ein Objekt (31) mit einer Umrisslinie (32) bestimmbar ist. Sie umfasst ferner eine Profilberechnungseinheit (6), durch die anhand des Objekts (31) ein Referenzpunkt (33) bestimmbar ist, wobei für eine Vielzahl von Punkten auf der Umrisslinie (32) des Objekts (31) jeweils ein Abstand zu dem Referenzpunkt (33) bestimmbar ist und anhand der Abstände ein gemessenes Abstandsprofil (37) erzeugbar ist. Sie umfasst eine Zuordnungseinheit (7), durch die anhand des gemessenen Abstandsprofils (37) eine Geste bestimmbar ist, und eine Ausgabeeinheit (8), durch die anhand der bestimmten Geste ein Ausgabesignal erzeugbar und ausgebbar ist.
front page image
Designierte Staaten: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
African Regional Intellectual Property Organization (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasische Patentorganisation (AM, AZ, BY, KG, KZ, RU, TJ, TM)
Europäisches Patentamt (EPO) (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Veröffentlichungssprache: Deutsch (DE)
Anmeldesprache: Deutsch (DE)