WIPO logo
Mobile | Deutsch | Español | Français | 日本語 | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

Search International and National Patent Collections
World Intellectual Property Organization
Search
 
Browse
 
Translate
 
Options
 
News
 
Login
 
Help
 
Machine translation
1. (WO2014199357) HYBRID VIDEO RECOGNITION SYSTEM BASED ON AUDIO AND SUBTITLE DATA
Latest bibliographic data on file with the International Bureau   

Pub. No.:    WO/2014/199357    International Application No.:    PCT/IB2014/062218
Publication Date: 18.12.2014 International Filing Date: 13.06.2014
IPC:
H04N 21/4402 (2011.01), H04N 21/436 (2011.01)
Applicants: ERICSSON TELEVISION INC. [US/US]; 4500 River Green Parkway Suite 110 Duluth, Georgia 30096 (US)
Inventors: PHILLIPS, Chris; (US).
HUBER, Michael; (SE).
REYNOLDS, Jennifer; (US).
DASHER, Charles; (US)
Agent: LIU, Ronald; 6300 Legacy, MS EVR 1-C-11 Plano, Texas 75024 (US)
Priority Data:
13/918,397 14.06.2013 US
Title (EN) HYBRID VIDEO RECOGNITION SYSTEM BASED ON AUDIO AND SUBTITLE DATA
(FR) SYSTÈME DE RECONNAISSANCE VIDÉO HYBRIDE BASÉ SUR DES DONNÉES AUDIO ET DES DONNÉES DE SOUS-TITRES
Abstract: front page image
(EN)A system (10, 50) a»d.method (20, 32, 85, 118) where a second screen app (15) on a user device (14, 52-54) "listens" to audio clues from a video playback unit (56) that is currently playing an. audio-visual content. The audio clues include background audio and human speech content The background audio is converted into Locality Sensitive Hashtag (LSH) values. The human speech content is converted into an array of text data, The LSH values are used by a server (12, 62) to find. a. ballpark estimate of where in the audio-visual content the captured background audio is from. This ballpark estimate identifies a specific video segment. The server then matches dialog text array with pre-stored subtitle information (for the identified video segment) to provide a more accurate estimate of the current play-through location within that video segment. A timer-based correction provides additional accuracy. The combination of LSH-based and subtitle-based searches provides fast and accurate estimates of an audio- visual program's play-through location.
(FR)La présente invention concerne un système (10, 50) et un procédé (20, 32, 85, 118) dans lesquels une seconde application d'affichage (15) sur un dispositif utilisateur (14, 52-54) « écoute » des indications audio provenant d'une unité de lecture vidéo (56) qui lit un contenu audiovisuel. Les indications audio contiennent un fond sonore et un contenu de parole humaine. Le fond sonore est converti en valeurs de mots-dièses sensibles à la position (LSH). Le contenu de parole humaine est converti en une matrice de données de texte. Un serveur (12, 62) utilise les valeurs LSH pour trouver une estimation approximative de l'emplacement dans le contenu audiovisuel d'où provient le fond sonore capturé. Cette estimation approximative identifie un segment vidéo spécifique. Le serveur met alors en correspondance la matrice de texte de dialogue et des informations de sous-titres prémémorisées (pour le segment vidéo identifié) de façon à obtenir une estimation plus précise de l'emplacement actuel de l'enregistrement de progression personnelle dans ce segment vidéo. Une correction basée sur un minuteur permet une précision accrue. La combinaison des recherches basées sur les LSH et des recherches basées sur les sous-titres permet des estimations rapides et précises d'un emplacement d'un enregistrement de progression personnelle d'un programme audiovisuel.
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JP, KE, KG, KN, KP, KR, KZ, LA, LC, LK, LR, LS, LT, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW.
African Regional Intellectual Property Organization (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG).
Publication Language: English (EN)
Filing Language: English (EN)