Traitement en cours

Veuillez attendre...

Paramétrages

Paramétrages

Aller à Demande

1. WO2020160131 - PERCEPTIONS GÉNÉRÉES DE MANIÈRE CONTEXTUELLE

Numéro de publication WO/2020/160131
Date de publication 06.08.2020
N° de la demande internationale PCT/US2020/015655
Date du dépôt international 29.01.2020
Demande présentée en vertu du Chapitre 2 30.11.2020
CIB
G06F 16/906 2019.1
GPHYSIQUE
06CALCUL; COMPTAGE
FTRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES
16Recherche d’informations; Structures de bases de données à cet effet; Structures de systèmes de fichiers à cet effet
90Détails des fonctions des bases de données indépendantes des types de données cherchés
906Groupement; Classement
G06F 16/908 2019.1
GPHYSIQUE
06CALCUL; COMPTAGE
FTRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES
16Recherche d’informations; Structures de bases de données à cet effet; Structures de systèmes de fichiers à cet effet
90Détails des fonctions des bases de données indépendantes des types de données cherchés
907Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
908utilisant des métadonnées provenant automatiquement du contenu
G06N 20/00 2019.1
GPHYSIQUE
06CALCUL; COMPTAGE
NSYSTÈMES DE CALCULATEURS BASÉS SUR DES MODÈLES DE CALCUL SPÉCIFIQUES
20Apprentissage automatique
CPC
G06F 16/55
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
FELECTRIC DIGITAL DATA PROCESSING
16Information retrieval; Database structures therefor; File system structures therefor
50of still image data
55Clustering; Classification
G06F 16/583
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
FELECTRIC DIGITAL DATA PROCESSING
16Information retrieval; Database structures therefor; File system structures therefor
50of still image data
58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
583using metadata automatically derived from the content
G06K 9/00288
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
00288Classification, e.g. identification
G06K 9/00671
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
00664Recognising scenes such as could be captured by a camera operated by a pedestrian or robot, including objects at substantially different ranges from the camera
00671for providing information about objects in the scene to a user, e.g. as in augmented reality applications
G06K 9/00711
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
00711Recognising video content, e.g. extracting audiovisual features from movies, extracting representative key-frames, discriminating news vs. sport content
G06K 9/6271
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
9Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
62Methods or arrangements for recognition using electronic means
6267Classification techniques
6268relating to the classification paradigm, e.g. parametric or non-parametric approaches
627based on distances between the pattern to be recognised and training or reference patterns
6271based on distances to prototypes
Déposants
  • CHOOCH INTELLIGENCE TECHNOLOGIES CO. [US]/[US]
Inventeurs
  • GULTEKIN, Hakan, Robert
  • GULTEKIN, Emrah
Mandataires
  • BOSWORTH, Michael
Données relatives à la priorité
16/263,32631.01.2019US
Langue de publication anglais (EN)
Langue de dépôt anglais (EN)
États désignés
Titre
(EN) CONTEXTUALLY GENERATED PERCEPTIONS
(FR) PERCEPTIONS GÉNÉRÉES DE MANIÈRE CONTEXTUELLE
Abrégé
(EN)
Embodiments of the present invention train multiple Perception models to predict contextual metadata (tags) with respect to target content items. By extracting context from content items, and generating associations among the Perception models, individual Perceptions trigger one another based on the extracted context to generate a more robust set of contextual metadata. A Perception Identifier predicts core tags that make coarse distinctions among content items at relatively higher levels of abstraction, while also triggering other Perception models to predict additional perception tags at lower levels of abstraction. A Dense Classifier identifies sub-content items at various levels of abstraction, and facilitates the iterative generation of additional dense tags across integrated Perceptions. Class-specific thresholds are generated with respect to individual classes of each Perception to address the inherent sampling bias that results from the varying number and quality of training samples (across different classes of content items) available to train each Perception.
(FR)
Des modes de réalisation de la présente invention forment de multiples modèles de perception à prédire des métadonnées contextuelles (étiquettes) par rapport à des éléments de contenu cibles. Par l'extraction d'un contexte à partir d'éléments de contenu, et la génération d'associations entre les modèles de perception, des perceptions individuelles se déclenchent les unes les autres sur la base du contexte extrait afin de générer un ensemble plus robuste de métadonnées contextuelles. Un identificateur de perception prédit des étiquettes de noyau qui opèrent des distinctions grossières parmi des éléments de contenu à des niveaux d'abstraction relativement élevés, tout en déclenchant également d'autres modèles de perception afin de prédire des étiquettes de perception supplémentaires à des niveaux d'abstraction inférieurs. Un classificateur dense identifie des éléments de sous-contenu à différents niveaux d'abstraction, et facilite la génération itérative d'étiquettes denses supplémentaires à travers des perceptions intégrées. Des seuils spécifiques à une classe sont générés par rapport à des classes individuelles de chaque perception afin de répondre au biais d'échantillonnage inhérent qui résulte du nombre et de la qualité variables d'échantillons d'apprentissage (à travers différentes classes d'éléments de contenu) disponibles pour former chaque perception.
Également publié en tant que
Dernières données bibliographiques dont dispose le Bureau international