Processing

Please wait...

PATENTSCOPE will be unavailable a few hours for maintenance reason on Tuesday 25.01.2022 at 9:00 AM CET
Settings

Settings

Goto Application

1. WO2022006116 - AUGMENTED REALITY EYEWEAR WITH SPEECH BUBBLES AND TRANSLATION

Publication Number WO/2022/006116
Publication Date 06.01.2022
International Application No. PCT/US2021/039628
International Filing Date 29.06.2021
IPC
G06F 3/01 2006.1
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
FELECTRIC DIGITAL DATA PROCESSING
3Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
01Input arrangements or combined input and output arrangements for interaction between user and computer
G06F 40/58 2020.1
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
FELECTRIC DIGITAL DATA PROCESSING
40Handling natural language data
40Processing or translation of natural language
58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
G10L 13/00 2006.1
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
13Speech synthesis; Text to speech systems
G10L 15/26 2006.1
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
15Speech recognition
26Speech to text systems
Applicants
  • SNAP INC. [US]/[US]
Inventors
  • CANBERK, Llteris
  • KANG, Shin, Hwun
  • KUCHER, Dmytro
Agents
  • WEED, Stephen, J.
Priority Data
63/046,25730.06.2020US
Publication Language English (en)
Filing Language English (EN)
Designated States
Title
(EN) AUGMENTED REALITY EYEWEAR WITH SPEECH BUBBLES AND TRANSLATION
(FR) LUNETTES À RÉALITÉ AUGMENTÉE AVEC BULLES DE TEXTE ET TRADUCTION
Abstract
(EN) Eyewear presenting text corresponding to spoken words (e.g., in speech bubbles) and optionally translating from one language to another. In one example, an interactive augmented reality experience is provided between two users of eyewear devices to allow one user of an eyewear device to share a personal attribute of the user with a second user. The personal attribute can be speech spoken by a remote second user of eyewear converted to text. The converted text can be displayed on a display of eyewear of the first user proximate the viewed second user. The personal attribute may be displayed in a speech bubble proximate the second user, such as proximate the head or mouth of the second user. The language of the spoken speech can be recognized by the second user eyewear, and translated to a language that is understood by the first user. In another example, the spoken words of a remote person is captured by the eyewear of a user, the position of the remote person is identified, the spoken word are converted to text, and the text is displayed (e.g., in a speech bubble) on an AR display of the eyewear adjacent the remote person.
(FR) Lunettes présentant un texte correspondant à des mots prononcés (par exemple, dans des bulles de texte) et, facultativement, traduisant d'une langue à une autre. Dans un exemple, une expérience de réalité augmentée interactive est fournie entre deux utilisateurs de dispositifs de lunettes pour permettre à un utilisateur d'un dispositif de lunettes de partager un attribut personnel de l'utilisateur avec un second utilisateur. L'attribut personnel peut être une parole, prononcée par un second utilisateur distant des lunettes, convertie en texte. Le texte converti peut être affiché sur un écran de lunettes du premier utilisateur à proximité du second utilisateur visualisé. L'attribut personnel peut être affiché dans une bulle de parole à proximité du second utilisateur, par exemple à proximité de la tête ou de la bouche du second utilisateur. La langue de la parole prononcée peut être reconnue par les lunettes du second utilisateur, et traduite en une langue qui est comprise par le premier utilisateur. Dans un autre exemple, les mots prononcés par une personne distante sont capturés par les lunettes d'un utilisateur, la position de la personne distante est identifiée, le mot prononcé est converti en texte, et le texte est affiché (par exemple, dans une bulle de texte) sur un écran AR des lunettes adjacentes à la personne distante.
Latest bibliographic data on file with the International Bureau