direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Analyse und Synthese musikalischer Expressivität

Moderne Verfahren der Klangsynthese erlauben heute die überzeugende Nachbildung und Manipulation von Instrumentenklängen. Viele Fragen sind jedoch offen, wenn es um die lebendige, expressive Synthese von Musik geht. In interdisziplinärer Zusammenarbeit zwischen der digitalen Signalverarbeitung und den Musikwissenschaften, die sich aus dem Blickwinkel der Interpretationsforschung gleichfalls dafür interessieren, werden im Seminar Fragen zu dieser Problematik behandelt: Was sind die Merkmale expressiven Spiels und wie lassen sie sich algorithmisch erfassen? Was bedeutet Expressivität für die Wahrnehmung von Musik? Welche Möglichkeiten der expressiven Synthese stehen zur Verfügung? Im Anschluss an die Seminare zur Tempomessung in Klaviersonaten stehen hier vor allem Artikulation, Intonation und Vibrato im Vordergrund. 

Für die Veranstaltung sind Kenntnisse der Signalverarbeitung in Matlab von Vorteil. 

Zeitraum und Ort

Zeitraum: 17.10.2012 - 13.02.2013
Wochentag / Zeit: Mittwoch, 10–12 Uhr
Raum: H3001

Weitere Informationen

Veranstaltungstyp: Seminar
Umfang: 2 SWS
Angebot:
Voraussetzung:
Veranstaltungsnummer: 3135 L 784

Downloadbereich

Das Passwort zum Downloadbereich wird in der Veranstaltung bekanntgegeben.

Literatur

Daniel Leech-Wilkinson, The Changing Sound of Music: Approaches to Studying Recorded Musical Performances, Published online through the Centre for the History and Analysis of Recorded Music (CHARM), ISBN 1-897791-21-6, London 2009, http://www.charm.rhul.ac.uk/studies/chapters/intro.html

Smith, J. O. (2005). Viewpoints on the history of digital synthesis. International Computer Music Association.

Seashore, C. E. (1938). Psychology of music. Dover.

Friberg, A., Schoonderwaldt, E., & Juslin, P. N. (2007). Cuex : An algorithm for automatic extraction of expressive tone parameters in music performance from acoustic signals. Acta Acoustica united with Acustica, 93(3), 411–420. 

Gomez, E., & Maestre, E. (2005, 5). Automatic characterization of dynamics and articulation of expressive monophone recordings. In Audio engineering society convention 118.

D. Schwarz. Corpus-based concatenative synthesis. Signal Processing Magazine, IEEE, 24(2):92–104, march 2007.  

Eric Lindemann. Music synthesis with reconstructive phrase modeling. IEEE SIGNAL PROCESSING MAGAZINE [80] MARCH 2007, 2007.

Axel Roebel, Simon Maller, and Javier Contreras. Transforming vibrato extend in monophonic sounds. Proc. of the 14 th Int. Conference on Digital Audio Effects, 2011.

R. McAulay and T. Quatieri. Speech analysis/synthesis based on a sinusoidal representation. Acoustics, Speech and Signal Processing, IEEE Transactions on, 34(4):744–754, 1986.

X Serra. Musical sound modeling with sinusoids plus noise. Musical Signal Processing, pages 497–510, 1997.

Ixone Arroabarren, Xavier Rodet, and Alfonso Carlosena. On the measurement of the instantaneous frequency and amplitude of partials in vocal vibrato. IEEE TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING, 2006.

Perfecto Herrera and Jordi Bonada. Vibrato extraction and parameterization in the spectral modeling synthesis framework. In Proceedings of the Digital Audio Effects Workshop (DAFX98), 1998.

J. Strawn. Modeling musical transitions. Ph.d., Stanford University, 06/1985 1985a.

Henrik von Coler and Axel Röbel. Vibrato detection using cross correlation between temporal energy and fundamental frequency. AES Convention:131, 2011

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.