WIPO logo
Mobile | Deutsch | Español | Français | 日本語 | 한국어 | Português | Русский | 中文 | العربية |
PATENTSCOPE

Search International and National Patent Collections
World Intellectual Property Organization
Search
 
Browse
 
Translate
 
Options
 
News
 
Login
 
Help
 
Machine translation
1. (WO2018077364) METHOD FOR GENERATING ARTIFICIAL SOUND EFFECTS BASED ON EXISTING SOUND CLIPS
Latest bibliographic data on file with the International Bureau    Submit observation

Pub. No.:    WO/2018/077364    International Application No.:    PCT/DK2017/050351
Publication Date: 03.05.2018 International Filing Date: 27.10.2017
IPC:
G11B 27/031 (2006.01), G10H 1/36 (2006.01), G10L 25/03 (2013.01), G10L 21/04 (2013.01), G10L 21/055 (2013.01)
Applicants: TRANSFORMIZER APS [DK/DK]; c/o Søren Pedersen Møllevejen 27, 3. tv. DK-8000 Aarhus C (DK)
Inventors: KJÆR, Lars-Bo; (DK)
Agent: PLOUGMANN VINGTOFT A/S; Rued Langgaards Vej 8 2300 Copenhagen S (DK)
Priority Data:
PA 2016 70844 28.10.2016 DK
Title (EN) METHOD FOR GENERATING ARTIFICIAL SOUND EFFECTS BASED ON EXISTING SOUND CLIPS
(FR) PROCÉDÉ DE GÉNÉRATION D'EFFETS SONORES ARTIFICIELS SUR LA BASE DE SÉQUENCES SONORES EXISTANTES
Abstract: front page image
(EN)The invention provides a method for generating a sound effect audio clip based on a mix of audible characteristics of two existing audio clips. The method comprises selecting first and second audio clips, mapping evolution of time of a plurality of predetermined audible characteristics of the first audio clip to arrive at first mapping data accordingly. The second audio clip is then modified based on the first mapping data, so as to at least partially apply evolution of time of audible characteristics from the first audio clip to the second audio clip, and outputting the sound effect audio clip in response to the modified second audio clip. Preferred audible characteristics are such as: amplitude, pitch, and spectral envelope (e.g. formant), which are each represented in mapping data as values representing the audible characteristics for the duration of the first audio clip at a given time resolution, where each value represents a value or a set of values representing the result of an analysis over a predetermined time windows. Especially, the second audio clip may also be mapped with respect to evolution of time of corresponding audible characteristics, and the modification of the second audio clip can then be performed in response to a mix of the two mapping data sets, e.g. by a frame-by-frame processing. A time alignment of the first and second audio clips may be performed, so that the two audio clips have the same duration prior to being processed.
(FR)L'invention concerne un procédé permettant de générer une séquence audio à effet sonore basé sur un mélange de caractéristiques audibles de deux séquences audio existantes. Le procédé consiste à sélectionner des première et seconde séquences audio, à mettre en correspondance l'évolution du temps d'une pluralité de caractéristiques audibles prédéterminées de la première séquence audio pour parvenir à des premières données de mise en correspondance en conséquence. La seconde séquence audio est ensuite modifiée sur la base des premières données de mise en correspondance, de façon à appliquer au moins partiellement l'évolution du temps des caractéristiques audibles de la première séquence audio à la seconde séquence audio, et délivrer en sortie la séquence audio à effet sonore en réponse à la seconde séquence audio modifiée. Les caractéristiques audibles préférées sont telles que : l'amplitude, la hauteur et l'enveloppe spectrale (par exemple, un formant), qui sont chacun représentés dans des données de mise en correspondance en tant que valeurs représentant les caractéristiques audibles pour la durée de la première séquence audio à une résolution temporelle donnée, chaque valeur représentant une valeur ou un ensemble de valeurs représentant le résultat d'une analyse sur une fenêtre temporelle prédéterminée. En particulier, la seconde séquence audio peut également être mise en correspondance par rapport à l'évolution du temps des caractéristiques audibles correspondantes, et la modification de la seconde séquence audio peut ensuite être effectuée en réponse à un mélange des deux ensembles de données de mise en correspondance, par exemple par un traitement de trame par trame. Un alignement temporel des première et seconde séquences audio peut être effectué, de sorte que les deux séquences audio aient la même durée avant d'être traitées.
Designated States: AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW.
African Regional Intellectual Property Organization (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Eurasian Patent Organization (AM, AZ, BY, KG, KZ, RU, TJ, TM)
European Patent Office (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
African Intellectual Property Organization (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG).
Publication Language: English (EN)
Filing Language: English (EN)