処理中

しばらくお待ちください...

設定

設定

出願の表示

1. WO2020240682 - 信号抽出システム、信号抽出学習方法および信号抽出学習プログラム

公開番号 WO/2020/240682
公開日 03.12.2020
国際出願番号 PCT/JP2019/021038
国際出願日 28.05.2019
IPC
G10L 17/18 2013.1
G物理学
10楽器;音響
L音声の分析または合成;音声認識;音声処理;音声または音響の符号化と復号化
17話者の同定または識別
18人工ニューラル・ネットワーク;コネクショニスト・アプローチ
G10L 17/00 2013.1
G物理学
10楽器;音響
L音声の分析または合成;音声認識;音声処理;音声または音響の符号化と復号化
17話者の同定または識別
G10L 17/04 2013.1
G物理学
10楽器;音響
L音声の分析または合成;音声認識;音声処理;音声または音響の符号化と復号化
17話者の同定または識別
04学習,エンロールメントまたはモデル構築
G10L 17/10 2013.1
G物理学
10楽器;音響
L音声の分析または合成;音声認識;音声処理;音声または音響の符号化と復号化
17話者の同定または識別
06意志決定技術,パターン・マッチング戦略
10マルチモーダルシステム,複数の認識エンジンの統合またはエキスパートシステムの融合に基づくもの
G10L 25/30 2013.1
G物理学
10楽器;音響
L音声の分析または合成;音声認識;音声処理;音声または音響の符号化と復号化
25G10L15/00~G10L21/00のグループ中のどれか一つに限定されない音声又は声の分析手法
27分析手法に特徴があるもの
30ニュートラル・ネットワークを用いるもの
CPC
G10L 17/00
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
G10L 17/04
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
04Training, enrolment or model building
G10L 17/10
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
06Decision making techniques; Pattern matching strategies
10Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
G10L 17/18
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
17Speaker identification or verification
18Artificial neural networks; Connectionist approaches
G10L 25/30
GPHYSICS
10MUSICAL INSTRUMENTS; ACOUSTICS
LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
25Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
27characterised by the analysis technique
30using neural networks
出願人
  • 日本電気株式会社 NEC CORPORATION [JP]/[JP]
発明者
  • 越仲 孝文 KOSHINAKA Takafumi
  • 山本 仁 YAMAMOTO Hitoshi
  • 鯉田 薫 KOIDA Kaoru
  • 鈴木 隆之 SUZUKI Takayuki
代理人
  • 岩壁 冬樹 IWAKABE Fuyuki
  • 塩川 誠人 SHIOKAWA Masato
優先権情報
公開言語 (言語コード) 日本語 (ja)
出願言語 (言語コード) 日本語 (JA)
指定国 (国コード)
発明の名称
(EN) SIGNAL EXTRACTION SYSTEM, SIGNAL EXTRACTION LEARNING METHOD, AND SIGNAL EXTRACTION LEARNING PROGRAM
(FR) SYSTÈME D'EXTRACTION DE SIGNAL, PROCÉDÉ D'APPRENTISSAGE D'EXTRACTION DE SIGNAL ET PROGRAMME D'APPRENTISSAGE D'EXTRACTION DE SIGNAL
(JA) 信号抽出システム、信号抽出学習方法および信号抽出学習プログラム
要約
(EN) A neural network inputting unit 81 inputs a neural network that combines: a first network that has a layer that inputs a mixed signal that includes an anchor signal that belongs to a predetermined class and a target signal that belongs to said class and a layer that outputs, as estimation results, a reconstruction mask that indicates the time frequency region of the mixed signal in which the target signal is present; and a second network that has a layer that inputs the target signal as extracted by applying the reconstruction mask to the mixed signal and a layer that outputs the results of sorting the inputted target signal into the predetermined class. A reconstruction mask estimation unit 82 applies the anchor signal and the mixed signal to the first network and estimates a reconstruction mask for the class to which the anchor signal belongs. A signal sorting unit 83 applies the mixed signal to the estimated reconstruction mask to extract the target signal and applies the extracted target signal to the second network to sort the target signal into the class.
(FR) L'invention concerne une unité d'entrée de réseau neuronal 81 introduisant un réseau neuronal, qui combine : un premier réseau qui comporte une couche qui introduit un signal mélangé qui comprend un signal d'ancrage appartenant à une classe prédéterminée et un signal cible appartenant à ladite classe, et une couche qui délivre, en tant que résultats d'estimation, un masque de reconstruction qui indique la région de fréquence temporelle du signal mélangé dans laquelle le signal cible est présent ; et un second réseau qui comporte une couche qui introduit le signal cible tel qu'extrait en appliquant le masque de reconstruction au signal mélangé, et une couche qui délivre les résultats du tri du signal cible entré dans la classe prédéterminée. Une unité d'estimation de masque de reconstruction 82 applique le signal d'ancrage et le signal mélangé au premier réseau et estime un masque de reconstruction pour la classe à laquelle appartient le signal d'ancrage. Une unité de tri de signal 83 applique le signal mélangé au masque de reconstruction estimé pour extraire le signal cible et applique le signal cible extrait au second réseau pour trier le signal cible dans la classe.
(JA) ニューラルネットワーク入力部81は、予め定めたクラスに属するアンカー信号およびそのクラスに属する目的信号を含む混合信号を入力する層と、その混合信号において目的信号が存在する時間周波数領域を示す再構築マスクを推定結果として出力する層とを有する第一のネットワークと、再構築マスクに混合信号を適用して抽出される目的信号を入力する層と入力された目的信号を予め定められたクラスへ分類した結果を出力する層とを有する第二のネットワークとが結合されたニューラルネットワークを入力する。再構築マスク推定部82は、アンカー信号および混合信号を第一のネットワークに適用して、そのアンカー信号が属するクラスの再構築マスクを推定する。信号分類部83は、推定された再構築マスクに混合信号を適用して目的信号を抽出し、抽出された目的信号を第二のネットワークに適用してクラスに分類する。
国際事務局に記録されている最新の書誌情報