Certains contenus de cette application ne sont pas disponibles pour le moment.
Si cette situation persiste, veuillez nous contacter àObservations et contact
1. (WO2018077364) PROCÉDÉ DE GÉNÉRATION D'EFFETS SONORES ARTIFICIELS SUR LA BASE DE SÉQUENCES SONORES EXISTANTES
Dernières données bibliographiques dont dispose le Bureau international    Formuler une observation

N° de publication : WO/2018/077364 N° de la demande internationale : PCT/DK2017/050351
Date de publication : 03.05.2018 Date de dépôt international : 27.10.2017
CIB :
G11B 27/031 (2006.01) ,G10H 1/36 (2006.01) ,G10L 25/03 (2013.01) ,G10L 21/04 (2013.01) ,G10L 21/055 (2013.01)
G PHYSIQUE
11
ENREGISTREMENT DE L'INFORMATION
B
ENREGISTREMENT DE L'INFORMATION BASÉ SUR UN MOUVEMENT RELATIF ENTRE LE SUPPORT D'ENREGISTREMENT ET LE TRANSDUCTEUR
27
Montage; Indexation; Adressage; Minutage ou synchronisation; Contrôle; Mesure de l'avancement d'une bande
02
Montage, p.ex. variation de l'ordre des signaux d'information enregistrés sur, ou reproduits à partir des supports d'enregistrement ou d'information
031
Montage électronique de signaux d'information analogiques numérisés, p.ex. de signaux audio, vidéo
G PHYSIQUE
10
INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
H
INSTRUMENTS DE MUSIQUE ÉLECTROPHONIQUES; INSTRUMENTS DANS LESQUELS LES SONS SONT PRODUITS PAR DES MOYENS ÉLECTROMÉCANIQUES OU DES GÉNÉRATEURS ÉLECTRONIQUES, OU DANS LESQUELS LES SONS SONT SYNTHÉTISÉS À PARTIR D'UNE MÉMOIRE DE DONNÉES
1
Eléments d'instruments de musique électrophoniques
36
Dispositions pour l'accompagnement
G PHYSIQUE
10
INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
L
ANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
25
Techniques d'analyses de la voix ou de la parole qui ne se limitent pas à un seul des groupes G10L15/-G10L21/151
03
caractérisées par le type de paramètres extraits
G PHYSIQUE
10
INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
L
ANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
21
Traitement du signal de parole ou de voix pour produire un autre signal audible ou non audible, p.ex. visuel ou tactile, afin de modifier sa qualité ou son intelligibilité
04
Compression ou expansion temporelles
G PHYSIQUE
10
INSTRUMENTS DE MUSIQUE; ACOUSTIQUE
L
ANALYSE OU SYNTHÈSE DE LA PAROLE; RECONNAISSANCE DE LA PAROLE; TRAITEMENT DE LA PAROLE OU DE LA VOIX; CODAGE OU DÉCODAGE DE LA PAROLE OU DE SIGNAUX AUDIO
21
Traitement du signal de parole ou de voix pour produire un autre signal audible ou non audible, p.ex. visuel ou tactile, afin de modifier sa qualité ou son intelligibilité
04
Compression ou expansion temporelles
055
pour la synchronisation avec d’autres signaux, p.ex. signaux vidéo
Déposants :
TRANSFORMIZER APS [DK/DK]; c/o Søren Pedersen Møllevejen 27, 3. tv. DK-8000 Aarhus C, DK
Inventeurs :
KJÆR, Lars-Bo; DK
Mandataire :
PLOUGMANN VINGTOFT A/S; Rued Langgaards Vej 8 2300 Copenhagen S, DK
Données relatives à la priorité :
PA 2016 7084428.10.2016DK
Titre (EN) METHOD FOR GENERATING ARTIFICIAL SOUND EFFECTS BASED ON EXISTING SOUND CLIPS
(FR) PROCÉDÉ DE GÉNÉRATION D'EFFETS SONORES ARTIFICIELS SUR LA BASE DE SÉQUENCES SONORES EXISTANTES
Abrégé :
(EN) The invention provides a method for generating a sound effect audio clip based on a mix of audible characteristics of two existing audio clips. The method comprises selecting first and second audio clips, mapping evolution of time of a plurality of predetermined audible characteristics of the first audio clip to arrive at first mapping data accordingly. The second audio clip is then modified based on the first mapping data, so as to at least partially apply evolution of time of audible characteristics from the first audio clip to the second audio clip, and outputting the sound effect audio clip in response to the modified second audio clip. Preferred audible characteristics are such as: amplitude, pitch, and spectral envelope (e.g. formant), which are each represented in mapping data as values representing the audible characteristics for the duration of the first audio clip at a given time resolution, where each value represents a value or a set of values representing the result of an analysis over a predetermined time windows. Especially, the second audio clip may also be mapped with respect to evolution of time of corresponding audible characteristics, and the modification of the second audio clip can then be performed in response to a mix of the two mapping data sets, e.g. by a frame-by-frame processing. A time alignment of the first and second audio clips may be performed, so that the two audio clips have the same duration prior to being processed.
(FR) L'invention concerne un procédé permettant de générer une séquence audio à effet sonore basé sur un mélange de caractéristiques audibles de deux séquences audio existantes. Le procédé consiste à sélectionner des première et seconde séquences audio, à mettre en correspondance l'évolution du temps d'une pluralité de caractéristiques audibles prédéterminées de la première séquence audio pour parvenir à des premières données de mise en correspondance en conséquence. La seconde séquence audio est ensuite modifiée sur la base des premières données de mise en correspondance, de façon à appliquer au moins partiellement l'évolution du temps des caractéristiques audibles de la première séquence audio à la seconde séquence audio, et délivrer en sortie la séquence audio à effet sonore en réponse à la seconde séquence audio modifiée. Les caractéristiques audibles préférées sont telles que : l'amplitude, la hauteur et l'enveloppe spectrale (par exemple, un formant), qui sont chacun représentés dans des données de mise en correspondance en tant que valeurs représentant les caractéristiques audibles pour la durée de la première séquence audio à une résolution temporelle donnée, chaque valeur représentant une valeur ou un ensemble de valeurs représentant le résultat d'une analyse sur une fenêtre temporelle prédéterminée. En particulier, la seconde séquence audio peut également être mise en correspondance par rapport à l'évolution du temps des caractéristiques audibles correspondantes, et la modification de la seconde séquence audio peut ensuite être effectuée en réponse à un mélange des deux ensembles de données de mise en correspondance, par exemple par un traitement de trame par trame. Un alignement temporel des première et seconde séquences audio peut être effectué, de sorte que les deux séquences audio aient la même durée avant d'être traitées.
front page image
États désignés : AE, AG, AL, AM, AO, AT, AU, AZ, BA, BB, BG, BH, BN, BR, BW, BY, BZ, CA, CH, CL, CN, CO, CR, CU, CZ, DE, DJ, DK, DM, DO, DZ, EC, EE, EG, ES, FI, GB, GD, GE, GH, GM, GT, HN, HR, HU, ID, IL, IN, IR, IS, JO, JP, KE, KG, KH, KN, KP, KR, KW, KZ, LA, LC, LK, LR, LS, LU, LY, MA, MD, ME, MG, MK, MN, MW, MX, MY, MZ, NA, NG, NI, NO, NZ, OM, PA, PE, PG, PH, PL, PT, QA, RO, RS, RU, RW, SA, SC, SD, SE, SG, SK, SL, SM, ST, SV, SY, TH, TJ, TM, TN, TR, TT, TZ, UA, UG, US, UZ, VC, VN, ZA, ZM, ZW
Organisation régionale africaine de la propriété intellectuelle (ARIPO) (BW, GH, GM, KE, LR, LS, MW, MZ, NA, RW, SD, SL, ST, SZ, TZ, UG, ZM, ZW)
Office eurasien des brevets (OEAB) (AM, AZ, BY, KG, KZ, RU, TJ, TM)
Office européen des brevets (OEB (AL, AT, BE, BG, CH, CY, CZ, DE, DK, EE, ES, FI, FR, GB, GR, HR, HU, IE, IS, IT, LT, LU, LV, MC, MK, MT, NL, NO, PL, PT, RO, RS, SE, SI, SK, SM, TR)
Organisation africaine de la propriété intellectuelle (OAPI) (BF, BJ, CF, CG, CI, CM, GA, GN, GQ, GW, KM, ML, MR, NE, SN, TD, TG)
Langue de publication : anglais (EN)
Langue de dépôt : anglais (EN)