TU Berlin

Audio Communication GroupSteffen Lepa

Logo Fachgebiet Audiokommunikation

Page Content

to Navigation

Dr. phil. Steffen Lepa M.A.

Lupe

Scientific collaborateur in cluster-of-excellence research project Medium und Emotion

Leader of research project:
"Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland"


Office hours: Tuesdays 12-14h (Room H 2001 E)
If you are planning a visit, please send me an email in advance!


Contact:

E-Mail: steffen.lepa AT tu-berlin.de
Phone: +49 30 314 29313
Telefax: +49 30 314 21143

Private website

Research interests

  • Media reception / media use
  • Media education / instructional design
  • Social research methodology
  • Computer-based research and analysis instruments
  • Neurocognitive social media psychology
  • Bologna process and study programmee evaluation
  • Digital Cultures and media philosophy
  • Sound design, film music, multimedia production
  • youth culture / adolescence research

 

 

Publications

Dynamische Binauralsynthese – ein Verfahren der virtuellen Akustik als Ansatz zur Untersuchung technologiebezogener Hypothesen im Rahmen medienpsychologischer Rezeptionsexperimente
Citation key lindau_dynamische_2013
Author Lindau, Alexander and Lepa, Steffen
Title of Book Jahrestagung 2013 der Fachgruppe Methoden der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft (DGPuk)
Year 2013
Address Münster
Note 00000
Abstract Dass das Medium „die Botschaft“ sei (McLuhan, 1995[1964]), also empirische Kommunikations- und Medienforschung sich nicht nur mit den jeweils genutzten audiovisuellen symbolischen Angeboten, sondern auch mit dem Einfluss ‚materieller‘ Medientechnologien auf die Rezeption und Aneignung von Medieninhalten beschäftigen sollte, ist eine alte theoretische Forderung, die jedoch aus verschiedenen Gründen bisher nur selten praktisch-empirisch operationalisiert werden konnte. Mit der Diskussion um Digitalisierung und Mediatisierung der Gesellschaft im 21. Jahrhundert wird die Frage nach möglichen „Mediatorwirkungen“ unterschiedlicher Medientechnologien jedoch erneut virulent: Es ist für die digitale Medienwelt konstitutiv, dass derselbe digitale Content mit ganz unterschiedlicher Hard- und Software, und an ganz unterschiedlichen Orten abgerufen, übertragen und dargestellt werden kann. Welchen Unterschied aber machen die je verwendeten Medientechnologien für die Wahrnehmung, Verarbeitung und Wirkung der Medieninhalte? Zumindest für die auditive Modalität bietet sich durch den heutigen Entwicklungsstand des Verfahrens der dynamischen Binauralsynthese (Lindau, Hohn, & Weinzierl, 2007) für solche Fragestellungen ein neues Forschungswerkzeug. Mit diesem lassen sich die akustischen Wiedergabeeigenschaften von beliebigen Medientechnologien in beliebigen räumlichen Anordnungen und Hörpositionen so plausibel simulieren, dass die Unterschiede zu tatsächlichen medialen Übertragungssystemen von Laien auf rein auditiver Ebene als solche nicht mehr erkannt werden können (Lindau & Weinzierl, 2012). Die dynamische Binauralsynthese arbeitet dabei auf der Grundlage sogenannter Ohrsignale. Diese Ohrsignale beschreiben den zeitlichen Verlauf des Schalldrucks am menschlichen Trommelfell in einer spezifischen Hörsituation. Die Grundannahme der binauralen Simulationstechnik besagt, dass jegliches Hörerlebnis allein durch eben diese Schalldruckverläufe vollständig bestimmt ist. Im Umkehrschluss sei es daher auch möglich, jegliches Hörerlebnis synthetisch zu evozieren, wenn es nur gelänge, diese Schalldruckverläufe adäquat zu reproduzieren (Møller, 1992). Dies ist – unter echtzeitfähiger Berücksichtigung der praktisch besonders bedeutsamen natürlichen Kopfbewegungen des Hörers – erst dank technischer Entwicklungen der jüngeren Zeit (insbesondere Steigerung der Rechenperformanz) auf befriedigende Weise ermöglicht worden. Die heutige Binauraltechnik reproduziert die benötigten Ohrsignale dabei, in dem sie die gewünschten akustischen Medieninhalte mit den vorab unabhängig erhobenen, kopfbezogenen elektro- und raumakustischen Charakteristika der zu untersuchenden akustischen Rezeptionsumgebungen rechnerisch verknüpft (d. h. filtert). Dazu muss zunächst das Übertragungsverhalten zwischen Quellen und menschlichem Empfänger messtechnisch bestimmt werden. Im Falle medialer Rezeptionssituationen sind diese Quellen zumeist einfach Lautsprecher. Als ‚Empfänger‘ und Messgerät dient dabei ein mit Mikrofonen an Stelle der Ohrkanaleingänge ausgestatteter Kunstkopf – meist ein originalgetreuer Abguss eines realen Individuums – der jedoch auf einem künstlichen Torso befestigt ist. Er unterscheidet sich von seinen historischen Vorgängern vor allem durch zeitgemäße Audioqualität und die Fähigkeit, seinen Kopf dank servomotorischer Gelenke naturgetreu über dem Torso bewegen zu können (Lindau, Hohn & Weinzierl, 2007). Das Übertragungsverhalten der betrachteten medialen Umgebung wird nun diskret für jede Quelle und jede praktisch relevante Kopforientierung mit einer Winkelauflösung unterhalb der Wahrnehmungsschwelle vermessen. Die so bestimmten Datensätze sogenannter „binauraler Raumimpuls¬ant¬¬worten“ (binaural room impulse responses, BRIRs) stellen eine Art ‚akustischen Fingerabdruck‘ der Hörerposition in einer medial-typischen Rezeptionsumgebung dar. Dabei ist es prinzipiell egal, ob es sich um eine Großbeschallungsanlage, ein Tonstudio, die Stereoanlage im Wohnzimmer oder die In-Ear-Kopfhörer eines Smartphones handelt. Den Vorgang des Hörbarmachens der gemessenen Umgebungen (etwa im Rahmen eines Medienrezeptionsexperiments) nennt man „Auralisation“. Dazu werden die BRIRs in spezieller Weise auf das während des Auralisationsvorgangs jederzeit frei wählbare Audiomaterial angewandt (Filterung) und schlussendlich, üblicherweise per Kopfhörer, wiedergegeben. Von dynamischer Binauralsynthese spricht man dann, wenn die bei der Filterung verwendeten BRIRs entsprechend der aktuellen Kopforientierung des Hörers in Echtzeit nachgeführt und dynamisch ausgetauscht werden. Der Algorithmus der ‚schnellen Faltung‘ – wobei der signaltheoretische Begriff ‚Faltung‘ synonym für Filterung durch die BRIRs steht – ermöglicht dieses ‚Kunststück‘ auf den heute verfügbaren Rechnern in Echtzeit. Die Kopfbewegungen der Medienrezipienten werden dabei, ebenfalls in Echtzeit, mit speziellen, unauffällig am Kopf applizierbaren Sensoren verfolgt (head tracking). Im Ergebnis kann der Hörer seinen Kopf natürlich bewegen, während die Schallquellen an ihrem erwartungsgemäßen Ort (z.B. ‚vorn‘) verbleiben und nicht, wie bei gewöhnlicher Kopfhörerwiedergabe, den Kopfbewegungen folgen. Vor allem dieser ‚Trick‘ ermöglicht heute Auralisationen von verblüffendem Realismus, zumal, da sich – wenigstens in nachhallbehafteten Umgebungen – auch eine realistische Entfernungswahrnehmung, d.h. ein Wahrnehmung von Schallereignissen außerhalb des Kopfes (‚Externalisierung‘) einstellt. Grenzen des Verfahrens ergeben sich einerseits bereits aus der Unvollständigkeit der Grundannahme über die alleinige Suffizienz der Ohrsignale für die Evokation einer ‚realistischen Hörerfahrung‘ (siehe kritische Diskussion weiter unten) und andererseits aus den Randbedingungen der tatsächlichen technischen Realisation. Vor allem letztere waren Gegenstände intensiver Forschungen der letzten 20 Jahre. Dabei wurden systemisch unterschiedliche technische Aspekte nach Hörbarkeitskriteren untersucht und optimiert. Zu nennen sind hierbei vor allem (a) die eben notwendige Winkelauflösung der binauralen Datensätze bzgl. Kopfbewegungen, (b) die eben wahr-nehmbare Verzögerung bei der Messung von und Reaktion auf Nutzerinteraktionen (Kopfbewegungen, Translationen), (c) Untersuchungen zu Vereinfachungen bei der Realisierung langer Nachhallhasen, (d) Verfahren zur klangfarblichen Kompensation involvierter Signalübertrager (Mikrofone, Kopfhörer) oder (e) Ansätze zur Kompensation hörbarer Effekte individuell unterschiedlicher Körper-Morphologien (Individualisierung von interauralen Laufzeit- und Pegeldifferenzen, sowie von monauralen spektralen Cues). Der Vortrag gibt zunächst eine kurze Übersicht über Geschichte, Anwendungsmöglichkeiten und Grenzen der dynamischen Binauraltechnologie. Anschließend sollen am Beispiel eines DFG-geförderten empirischen Forschungsprojekts, welches sich experimentell mit der Frage der Bedeutung der medialen Wiedergabetechnologien für das Empfinden musikalischer Emotionen beschäftigt hat, die mit seinem Einsatz verbundenen Chancen und Herausforderungen für Medienpsychologie und Kommunikationswissenschaft zur Diskussion gestellt werden. Der besondere Reiz der Verwendung der dynamischen Binauralsynthesetechnik liegt unseres Erachtens vor allem in der Möglichkeit, das äußere Erscheinungsbild einer medialen Wiedergabeapparatur absolut konstant zu halten (hier: ‚Kopfhörer‘), während das dargebotene akustische Schallfeld je nach zu simulierendem akustischen Medium frei variiert werden kann. Dies bietet, wie im dargestellten Experiment, die Möglichkeit, eventuelle Konfundierungen durch mit dem Anblick der technischen Apparatur verbundene Zuschreibungen (‚HiFi‘ vs. ‚LoFi‘) beim experimentellen ‚Technologievergleich‘ vollständig auszuschließen. Mit Hilfe von Longitudinal-Strukturgleichungs¬modellierung (Bifactor-Modellansatz, vgl. Reise, 2012, sowie Abbildung 2) konnte nach dieser Logik anhand der Daten von 306 Versuchspersonen unterschiedlicher soziodemographischer Hintergründe gezeigt werden, dass das technische Wiedergabemedium (hier: „HiFi-Kopfhörer“, „Stereo-Lautsprecher im Wohnzimmer“ oder „umhüllende Konzertsaalsimulation“, vgl. Abbildung 1) unabhängig von den dargebotenen Musikstücken unterschiedlicher Genres für die Intensität des empfundenen affektiven Ausdrucks der Musik eine signifikante Rolle spielt (vgl. Abbildung 3). Die gefundenen Unterschiede lassen sich ferner hypothesengemäß auf das unterschiedliche Ausmaß sensomotorischer Cues der Raumwahrnehmung in den drei prototypischen musikalischen Wiederga-besituationen zurückführen und bilden sich entsprechend auch in ebenfalls signifikanten Unterschieden bei Post-Treatment-Messungen einer für die auditive Modalität adaptierten Variante der MEC-SPQ-Skala zum ‚räumlichen Präsenzerleben‘ (Wirth u. a., 2008) ab (vgl. Abbildung 4). Beide Effekte zeigten sich zudem als unabhängig von den gleichzeitig per Instruktion manipulierten Erwartungen an die Qualität der auditiven Wiedergabetechnologie (vgl. Abbildung 3 und 4) und auch stabil unter Einbezug diverser Kontrollvariablen (PANAS, Need for Affect, Soziodemographie). In der kritischen Diskussion der möglichen Schlussfolgerungen aus diesen Ergebnissen ist nun zu bedenken, dass die experimentalpsychologische Stärke der Technologie in Bezug auf interne Validität genau ihre Schwäche in Bezug auf externe Validität darstellt: Simuliert werden letztlich nur Schallfeldunterschiede, während jede mediale Hörerfahrung im Alltag ein komplexes, holistisches Geschehen in einem sozialen Kontext darstellt (DeNora, 2000), dessen phänomenologischer Charakter wiederum in Abhängigkeit zu bestimmten materiellen Eigenschaften der je verwendeten Technologie steht, die nicht unbedingt ausschließlich auf das Schallfeld zurückgehen müssen. So erlaubt beispielsweise das Kopfhörer-Hören im öffentlichen Nahverkehr effektiv das akustische Ausschließen der klanglichen Umwelt, was für viele Menschen im Sinne von „Cocooning“ eine relevante Leistung der Kopfhörer-Technologie im Alltag darstellt (Weber, 2010). Diese verschließt sich jedoch einer direkten laborexperimentellen Analyse. In diesem Sinne lassen sich mit dynamischer Binauralsynthese in Bezug auf „Medienunterschiede“ experimentell nur solche kognitiv-affektiven Mechanismen herausarbeiten, welche allein auf Schallfeldunterschiede zurückgehen – dies jedoch mit einem hohen Grad an interner Validität. Neben der kritischen Diskussion dieses Aspekts möchten wir im Ausblick auf zwei weitere Anwendungsmöglichkeiten des Verfahrens zu sprechen kommen: Einerseits die Möglichkeit der Simulation von Remediationen (Bolter, 2000), also der mehrfachen Verschachtelung von Technologien bei der Medienwiedergabe, wie sie typisch für die heutige digitale Medienwelt ist. So ließe sich beispielsweise der Höreindruck simulieren, eine digitalisierte und später in MP3-codierte Grammophonproduktion über eine Surround-Anlage mit einem ganz bestimmten Lautsprecherboxentyp zu hören, etc. Eine weitere interessante Möglichkeit ist die Fähigkeit des Verfahrens, nicht nur unterschiedliche Medientechnologien, sondern auch unterschiedliche Abhörräume und Zuhörerpositionen zu simulieren. Damit erschließt sich zusätzlich der „Raum“ als „Medium“ der akustischen Medienwiedergabe einer experimentalpsychologischen Analyse.
Download Bibtex entry

Curriculum Vitae

since 2012
Project leader of national-funded research project “Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland” as part of the DFG-priority programme DFG-Schwerpunktprogramms “Mediatisized Worlds” .

since 2010
Postdoc researcher at the Audio Communication Group, Institute for Language and Communication at Technical University of Berlin, in the research project “Medium und Emotion” as part of the Berlin Cluster of Excellence network “Languages of Emotion

2009 – 2010
Teaching appointment for questionaire design and graphical data analysis with SPSS at the Faculty for Education and Social Sciences at Oldenburg University

2009 – 2010
Scientific lecturer (social research methodology) at the Institute for Pedagogics der Universität Oldenburg

2009 – 2010
Teaching appointment for multivariate statistics at the Faculty for Education and Social Sciences at Oldenburg University

September 2009
Promotion to a Doctor of Philosophy (“summa cum laude”) by the Faculty for Education and Social Sciences of Oldenburg University with the dissertation thesis:
“Jenseits des Films. Quantitativ-inhaltsanalytische Rekonstruktion von filmischen Verstehens- und Aneignungsprozessen mit Hilfe der Postrezeptiven Lesartenanalyse (PLA)”, supervised by Prof. Yvonne Ehrenspeck (general pedagogics) und Prof. Bernard Kittel (social research methodology)

2007 – 2010
Scientific lecturer (media education, social research methodology) at the Institute for Pedagogics at Oldenburg University

2007 – 2009
Teaching appointment for statistics with SPSS at the Faculty for Education and Social Sciences at Oldenburg University

2005 – 2009
Teaching appointment for digital audio editing at Braunschweig University of Fine Arts

2005 – 2007
Scientific research assistant in the national funded research project “Kommunikatbildungsprozesse Jugendlicher zur Todesthematik und Filmische Instruktionsmuster” at the Arbeitsbereich “Philosophie der Erziehung” (Prof. Dieter Lenzen) at Freien Universität Berlin

2005 – 2006
Teaching appointment for information psychology at the Ostfalia University of Applied Sciences

2003 – 2005
Master Study of Media Management at the Hannover University of Music, Drama and Media (Master of Arts degree, final grade: 1,5 / ECTS-Grade B – very good)

2003 – 2005
Responsible leader of the digital audio studio of the Central Media Service Unit at Braunschweig University of Fine Arts

2002
Student research assistent at the BmBF/MWK-funded research project “CRIMP – Criteria for Evaluation of Audiovisuals in Multimedia Production“, of the Research Centre L3S, University of Hannover

1998 – 2003
Master study of Media Studies, Psychology and Media Technology at the Technical University of Braunschweig and Braunschweig University of Fine Arts (Master of Arts degree with final grade: 1,3)

1997 – 1998
Alternative civilian service at the daycare house for the elderly disabled of Lebenshilfe gGmbH, Braunschweig

1997
University entrance diploma (“Abitur”) in English, Music, History (bilingual) und Computer Science at the Gymnasium Ricarda-Huch-Schule, Braunschweig, Germany (final grade: 1,8)

born on July, 30th 1978 in Braunschweig, Lower Saxony, Germany.

Navigation

Quick Access

Schnellnavigation zur Seite über Nummerneingabe