< Retour au programme

Traitement automatique des signaux de musique

Gaël RICHARD, Professeur au département Traitement des Signaux et des Images de TELECOM ParisTech.

L’objectif de cette conférence est de présenter deux importants domaines d’application du traitement du signal : l’indexation audio et la synthèse sonore.

Le volume considérable de données numériques multimédia actuellement disponibles, associé à la généralisation de leur utilisation pour de nombreuses applications représentent de nouveaux challenges pour la société de l'information. L'accroissement rapide de ces données numériques (qu'elles se trouvent sur le réseau Internet ou dans des bases personnelles) diminue leur accessibilité et fait ainsi apparaître un fort besoin pour de nouvelles méthodes efficaces d'indexation, de classification et d'accès par le contenu.

L'indexation audio vise ainsi à extraire du flux numérique des descripteurs de haut niveau permettant de réaliser par la suite une classification ou un accès à l'information par son contenu. Dans le cadre des signaux musicaux, on extrait des descripteurs permettant d'en déduire - par exemple - la partition originale, le genre du morceau, le style de jeu de l'artiste, une signature ou "résumé audio" de l’œuvre,..

La synthèse sonore vise des objectifs différents. Elle permet par exemple d’élargir la palette des instruments disponibles pour la composition musicale en créant de nouveaux instruments ou en transformant le timbre des instruments acoustiques traditionnels. La synthèse est également un outil précieux pour mieux comprendre la physique des instruments de musique et possède un potentiel indéniable pour l’aide à l’apprentissage de la musique.

Quelques références, actuelles et anciennes