News aggregator

Sound Classification by Prof. Dan Ellis (Columbia)

CCRMA-Stanford University - Wed, 03/04/2015 - 21:15
Date:  Fri, 03/13/2015 - 11:00am - 12:30pm Location:  CCRMA Seminar Room Event Type:  Hearing Seminar Dan Ellis will be talking about environmental sound classification.  More details to follow.

Dan sits at the intersection of speech, music, machine learning, and perception. He has many interesting things to say about all those topics, and their intersection. FREE Open to the Public

SMC Researchers participate in ESART Forum in Castelo Branco

SMC Group, INESC Porto - Wed, 03/04/2015 - 18:46
Matthew Davies, Gilberto Bernardes, Georges Sioros and Diogo Cocharro participate in “Composing by Listening, Learning & Remixing” session in the ESART Forum at IPCB, 25th February, 2015.

New Door Lock for Sound Booths

The door to the sound booths in Queen's (Q1.06) has a new Salto lock.
Please update your access card at an online card reader!
These can be found among others at the rear entrance to Queen's, main access door to the CTS (between 1.26 and 1.27), main entrance to PACE, entrance to the MTI basement, Clephan 00.16. Please be also aware that you will need a valid booking for one of the booths.
Should your card not work after having updated it at an online reader AND you have a valid booking, please see one of the technicians in either Queen's (Q1.38) or Clephan (00.06) or get in touch by email or phone (see The Technicians on the MTI intranet).
sg

Abonnez-vous à notre newsletter

IRCAM - Wed, 03/04/2015 - 13:02

C'est gratuit, c'est tous les mois et c'est le meilleur moyen d'être au courant de l'actualité de l'Ircam.

CNMAT Users Group Presents: Dana Jessen, David Wegehaupt, and Jeff Anderle

CNMAT, UC at Berkeley - Wed, 03/04/2015 - 01:17
Start: 2015-03-08 20:00 End: 2015-03-08 22:00

Soutenance de thèse de Jules Françoise

IRCAM - Wed, 03/04/2015 - 00:00

"Motion-Sound Mapping by Demonstration". Mercredi 18 mars à 14h30

Jules Françoise soutiendra en anglais sa thèse de doctorat, réalisée à l'Ircam au sein de l'équipe Interaction Son Musique Mouvement.

Jury

Frédéric Bevilacqua, Directeur de thèse, IrcamThierry Artières, Directeur de thèse, professeur à l'UPMC et Université d'Aix Marseille)Thierry Dutoit, Rapporteur, Professeur à l'Université de MonsMarcelo Wanderley, Rapporteur, Professeur à l'Université McGill, MontréalCatherine Achard, Examinatrice, Maître de Conférences à l'UPMC (ISIR)Olivier Chapuis, Examinateur, Chargé de recherche à l'Université Paris-Sud, OrsayRebecca Fiebrink, Examinatrice, Lecturer at Goldsmith University of LondonSergi Jordà, Examinateur, Professeur à l'Université Pompeu Fabra, Barcelona

Résumé "Apprentissage des Relations entre Mouvement et Son par Démonstration"

Le design du mapping (ou couplage) entre mouvement et son est essentiel à la création de systèmes interactifs sonores et musicaux. Cette thèse propose une approche appelée mapping par démonstration qui permet aux utilisateurs de créer des interactions entre mouvement et son par des exemples de gestes effectués pendant l'écoute. L'approche s'appuie sur des études existantes en perception et cognition sonore, et vise à intégrer de manière plus cohérente la boucle action-perception dans le design d'interaction. Le mapping par démonstration est un cadre conceptuel et technique pour la création d'interactions sonores à partir de démonstrations d'associations entre mouvement et son. L'approche utilise l'apprentissage automatique interactif pour construire le mapping à partir de démonstrations de l'utilisateur.

En s'appuyant sur des travaux récents en animation, en traitement de la parole et en robotique, nous nous proposons d'exploiter la nature générative des modèles probabilistes, de la reconnaissance de geste continue à la génération de paramètres sonores. Nous avons étudié plusieurs modèles probabilistes, à la fois des modèles instantanés (Modèles de Mélanges Gaussiens) et temporels (Modèles de Markov Cachés) pour la reconnaissance, la régression, et la génération de paramètres sonores. Nous avons adopté une perspective d'apprentissage automatique interactif, avec un intérêt particulier pour l'apprentissage à partir d'un nombre restreint d'exemples et l'inférence en temps réel. Les modèles représentent soit uniquement le mouvement, soit intègrent une représentation conjointe des processus gestuels et sonores, et permettent alors de générer les trajectoires de paramètres sonores continûment depuis le mouvement.

Nous avons exploré un ensemble d'applications en pratique du mouvement et danse, en design d'interaction sonore, et en musique. Nous proposons deux approches pour l'analyse du mouvement, basées respectivement sur les modèles de Markov cachés et sur la régression par modèles de Markov. Nous montrons, au travers d'un cas d'étude en Tai Chi, que les modèles permettent de caractériser des séquences de mouvements entre plusieurs performances et différents participants. Nous avons développé deux systèmes génériques pour la sonification du mouvement. Le premier système permet à des utilisateurs novices de personnaliser des stratégies de contrôle gestuel de textures sonores, et se base sur la régression par mélange de Gaussiennes. Le second système permet d'associer des vocalisations à des mouvements continus. Les deux systèmes ont donné lieu à des installations publiques, et nous avons commencé à étudier leur application à la sonification du mouvement pour supporter l'apprentissage moteur.

  • Date : mercredi 18 mars, 14h30
  • Lieu : Ircam, salle Stravinsky
  • Entrée libre dans la limite des places disponibles

Editorial

Organized Sound - Tue, 03/03/2015 - 09:13
Editorial
Lonce Wyse, Ian Whalley,
Organised Sound, Volume 19 Special Issue 03, pp 213-214

Abstract

Categories: Journals

The Limitations of Representing Sound and Notation on Screen

Organized Sound - Tue, 03/03/2015 - 09:13
Research Articles
Lindsay Vickery,
Organised Sound, Volume 19 Special Issue 03, pp 215-227

Abstract

Categories: Journals

Do Desenho e do Som: Harmonising screen scores and listening

Organized Sound - Tue, 03/03/2015 - 09:13
Research Articles
Filipe Lopes,
Organised Sound, Volume 19 Special Issue 03, pp 228-238

Abstract

Categories: Journals

GNMISS: A scoring system for Internet2 electroacoustic music

Organized Sound - Tue, 03/03/2015 - 09:13
Research Articles
Ian Whalley,
Organised Sound, Volume 19 Special Issue 03, pp 244-259

Abstract

Categories: Journals

A Real-Time Score for Collaborative Just-in-Time Composition

Organized Sound - Tue, 03/03/2015 - 09:13
Research Articles
Lonce Wyse, Jude Yew,
Organised Sound, Volume 19 Special Issue 03, pp 260-267

Abstract

Categories: Journals

Scoring with Code: Composing with algorithmic notation

Organized Sound - Tue, 03/03/2015 - 09:13
Research Articles
Thor Magnusson,
Organised Sound, Volume 19 Special Issue 03, pp 268-275

Abstract

Categories: Journals

Visual Design of Real-Time Screen Scores

Organized Sound - Tue, 03/03/2015 - 09:13
Research Articles
David Kim-Boyle,
Organised Sound, Volume 19 Special Issue 03, pp 286-294

Abstract

Categories: Journals
Syndicate content