TU Berlin

Fachgebiet AudiokommunikationDr. Steffen Lepa

Logo Fachgebiet Audiokommunikation

Inhalt des Dokuments

zur Navigation

Dr. phil. Steffen Lepa M.A.

Lupe

Wissenschaftlicher Mitarbeiter im
Exzellenzcluster-Forschungsprojekt Medium und Emotion

Leiter des Forschungsprojekts
"Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland"


Sprechzeit: Di 12-14 Uhr (Raum H 2001 E)
Bitte melden Sie sich vorab per Email an!

Kontakt:

E-Mail: steffen.lepa AT tu-berlin.de
Telefon: +49 30 314 29313
Telefax: +49 30 314 21143

Private Homepage

Forschungsgebiete

  • Medienrezeptionsforschung / Mediennutzungsforschung
  • Medienpädagogik / Medienkompetenz
  • Sozialwissenschaftliche Methodologie
  • Computergestützte Erhebungs- und Analyseinstrumente
  • Neurokognitive Medien- und Sozialpsychologie
  • Bologna-Prozess und Studienevaluation
  • Digital Cultures und Medienphilosophie
  • Sound Design / Filmvertonung / Multimediaproduktion
  • Jugendkultur / Adoleszenzforschung

 

 

Publikationen

Dynamische Binauralsynthese – ein Verfahren der virtuellen Akustik als Ansatz zur Untersuchung technologiebezogener Hypothesen im Rahmen medienpsychologischer Rezeptionsexperimente
Zitatschlüssel lindau_dynamische_2013
Autor Lindau, Alexander and Lepa, Steffen
Buchtitel Jahrestagung 2013 der Fachgruppe Methoden der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft (DGPuk)
Jahr 2013
Adresse Münster
Notiz 00000
Zusammenfassung Dass das Medium „die Botschaft“ sei (McLuhan, 1995[1964]), also empirische Kommunikations- und Medienforschung sich nicht nur mit den jeweils genutzten audiovisuellen symbolischen Angeboten, sondern auch mit dem Einfluss ‚materieller‘ Medientechnologien auf die Rezeption und Aneignung von Medieninhalten beschäftigen sollte, ist eine alte theoretische Forderung, die jedoch aus verschiedenen Gründen bisher nur selten praktisch-empirisch operationalisiert werden konnte. Mit der Diskussion um Digitalisierung und Mediatisierung der Gesellschaft im 21. Jahrhundert wird die Frage nach möglichen „Mediatorwirkungen“ unterschiedlicher Medientechnologien jedoch erneut virulent: Es ist für die digitale Medienwelt konstitutiv, dass derselbe digitale Content mit ganz unterschiedlicher Hard- und Software, und an ganz unterschiedlichen Orten abgerufen, übertragen und dargestellt werden kann. Welchen Unterschied aber machen die je verwendeten Medientechnologien für die Wahrnehmung, Verarbeitung und Wirkung der Medieninhalte? Zumindest für die auditive Modalität bietet sich durch den heutigen Entwicklungsstand des Verfahrens der dynamischen Binauralsynthese (Lindau, Hohn, & Weinzierl, 2007) für solche Fragestellungen ein neues Forschungswerkzeug. Mit diesem lassen sich die akustischen Wiedergabeeigenschaften von beliebigen Medientechnologien in beliebigen räumlichen Anordnungen und Hörpositionen so plausibel simulieren, dass die Unterschiede zu tatsächlichen medialen Übertragungssystemen von Laien auf rein auditiver Ebene als solche nicht mehr erkannt werden können (Lindau & Weinzierl, 2012). Die dynamische Binauralsynthese arbeitet dabei auf der Grundlage sogenannter Ohrsignale. Diese Ohrsignale beschreiben den zeitlichen Verlauf des Schalldrucks am menschlichen Trommelfell in einer spezifischen Hörsituation. Die Grundannahme der binauralen Simulationstechnik besagt, dass jegliches Hörerlebnis allein durch eben diese Schalldruckverläufe vollständig bestimmt ist. Im Umkehrschluss sei es daher auch möglich, jegliches Hörerlebnis synthetisch zu evozieren, wenn es nur gelänge, diese Schalldruckverläufe adäquat zu reproduzieren (Møller, 1992). Dies ist – unter echtzeitfähiger Berücksichtigung der praktisch besonders bedeutsamen natürlichen Kopfbewegungen des Hörers – erst dank technischer Entwicklungen der jüngeren Zeit (insbesondere Steigerung der Rechenperformanz) auf befriedigende Weise ermöglicht worden. Die heutige Binauraltechnik reproduziert die benötigten Ohrsignale dabei, in dem sie die gewünschten akustischen Medieninhalte mit den vorab unabhängig erhobenen, kopfbezogenen elektro- und raumakustischen Charakteristika der zu untersuchenden akustischen Rezeptionsumgebungen rechnerisch verknüpft (d. h. filtert). Dazu muss zunächst das Übertragungsverhalten zwischen Quellen und menschlichem Empfänger messtechnisch bestimmt werden. Im Falle medialer Rezeptionssituationen sind diese Quellen zumeist einfach Lautsprecher. Als ‚Empfänger‘ und Messgerät dient dabei ein mit Mikrofonen an Stelle der Ohrkanaleingänge ausgestatteter Kunstkopf – meist ein originalgetreuer Abguss eines realen Individuums – der jedoch auf einem künstlichen Torso befestigt ist. Er unterscheidet sich von seinen historischen Vorgängern vor allem durch zeitgemäße Audioqualität und die Fähigkeit, seinen Kopf dank servomotorischer Gelenke naturgetreu über dem Torso bewegen zu können (Lindau, Hohn & Weinzierl, 2007). Das Übertragungsverhalten der betrachteten medialen Umgebung wird nun diskret für jede Quelle und jede praktisch relevante Kopforientierung mit einer Winkelauflösung unterhalb der Wahrnehmungsschwelle vermessen. Die so bestimmten Datensätze sogenannter „binauraler Raumimpuls¬ant¬¬worten“ (binaural room impulse responses, BRIRs) stellen eine Art ‚akustischen Fingerabdruck‘ der Hörerposition in einer medial-typischen Rezeptionsumgebung dar. Dabei ist es prinzipiell egal, ob es sich um eine Großbeschallungsanlage, ein Tonstudio, die Stereoanlage im Wohnzimmer oder die In-Ear-Kopfhörer eines Smartphones handelt. Den Vorgang des Hörbarmachens der gemessenen Umgebungen (etwa im Rahmen eines Medienrezeptionsexperiments) nennt man „Auralisation“. Dazu werden die BRIRs in spezieller Weise auf das während des Auralisationsvorgangs jederzeit frei wählbare Audiomaterial angewandt (Filterung) und schlussendlich, üblicherweise per Kopfhörer, wiedergegeben. Von dynamischer Binauralsynthese spricht man dann, wenn die bei der Filterung verwendeten BRIRs entsprechend der aktuellen Kopforientierung des Hörers in Echtzeit nachgeführt und dynamisch ausgetauscht werden. Der Algorithmus der ‚schnellen Faltung‘ – wobei der signaltheoretische Begriff ‚Faltung‘ synonym für Filterung durch die BRIRs steht – ermöglicht dieses ‚Kunststück‘ auf den heute verfügbaren Rechnern in Echtzeit. Die Kopfbewegungen der Medienrezipienten werden dabei, ebenfalls in Echtzeit, mit speziellen, unauffällig am Kopf applizierbaren Sensoren verfolgt (head tracking). Im Ergebnis kann der Hörer seinen Kopf natürlich bewegen, während die Schallquellen an ihrem erwartungsgemäßen Ort (z.B. ‚vorn‘) verbleiben und nicht, wie bei gewöhnlicher Kopfhörerwiedergabe, den Kopfbewegungen folgen. Vor allem dieser ‚Trick‘ ermöglicht heute Auralisationen von verblüffendem Realismus, zumal, da sich – wenigstens in nachhallbehafteten Umgebungen – auch eine realistische Entfernungswahrnehmung, d.h. ein Wahrnehmung von Schallereignissen außerhalb des Kopfes (‚Externalisierung‘) einstellt. Grenzen des Verfahrens ergeben sich einerseits bereits aus der Unvollständigkeit der Grundannahme über die alleinige Suffizienz der Ohrsignale für die Evokation einer ‚realistischen Hörerfahrung‘ (siehe kritische Diskussion weiter unten) und andererseits aus den Randbedingungen der tatsächlichen technischen Realisation. Vor allem letztere waren Gegenstände intensiver Forschungen der letzten 20 Jahre. Dabei wurden systemisch unterschiedliche technische Aspekte nach Hörbarkeitskriteren untersucht und optimiert. Zu nennen sind hierbei vor allem (a) die eben notwendige Winkelauflösung der binauralen Datensätze bzgl. Kopfbewegungen, (b) die eben wahr-nehmbare Verzögerung bei der Messung von und Reaktion auf Nutzerinteraktionen (Kopfbewegungen, Translationen), (c) Untersuchungen zu Vereinfachungen bei der Realisierung langer Nachhallhasen, (d) Verfahren zur klangfarblichen Kompensation involvierter Signalübertrager (Mikrofone, Kopfhörer) oder (e) Ansätze zur Kompensation hörbarer Effekte individuell unterschiedlicher Körper-Morphologien (Individualisierung von interauralen Laufzeit- und Pegeldifferenzen, sowie von monauralen spektralen Cues). Der Vortrag gibt zunächst eine kurze Übersicht über Geschichte, Anwendungsmöglichkeiten und Grenzen der dynamischen Binauraltechnologie. Anschließend sollen am Beispiel eines DFG-geförderten empirischen Forschungsprojekts, welches sich experimentell mit der Frage der Bedeutung der medialen Wiedergabetechnologien für das Empfinden musikalischer Emotionen beschäftigt hat, die mit seinem Einsatz verbundenen Chancen und Herausforderungen für Medienpsychologie und Kommunikationswissenschaft zur Diskussion gestellt werden. Der besondere Reiz der Verwendung der dynamischen Binauralsynthesetechnik liegt unseres Erachtens vor allem in der Möglichkeit, das äußere Erscheinungsbild einer medialen Wiedergabeapparatur absolut konstant zu halten (hier: ‚Kopfhörer‘), während das dargebotene akustische Schallfeld je nach zu simulierendem akustischen Medium frei variiert werden kann. Dies bietet, wie im dargestellten Experiment, die Möglichkeit, eventuelle Konfundierungen durch mit dem Anblick der technischen Apparatur verbundene Zuschreibungen (‚HiFi‘ vs. ‚LoFi‘) beim experimentellen ‚Technologievergleich‘ vollständig auszuschließen. Mit Hilfe von Longitudinal-Strukturgleichungs¬modellierung (Bifactor-Modellansatz, vgl. Reise, 2012, sowie Abbildung 2) konnte nach dieser Logik anhand der Daten von 306 Versuchspersonen unterschiedlicher soziodemographischer Hintergründe gezeigt werden, dass das technische Wiedergabemedium (hier: „HiFi-Kopfhörer“, „Stereo-Lautsprecher im Wohnzimmer“ oder „umhüllende Konzertsaalsimulation“, vgl. Abbildung 1) unabhängig von den dargebotenen Musikstücken unterschiedlicher Genres für die Intensität des empfundenen affektiven Ausdrucks der Musik eine signifikante Rolle spielt (vgl. Abbildung 3). Die gefundenen Unterschiede lassen sich ferner hypothesengemäß auf das unterschiedliche Ausmaß sensomotorischer Cues der Raumwahrnehmung in den drei prototypischen musikalischen Wiederga-besituationen zurückführen und bilden sich entsprechend auch in ebenfalls signifikanten Unterschieden bei Post-Treatment-Messungen einer für die auditive Modalität adaptierten Variante der MEC-SPQ-Skala zum ‚räumlichen Präsenzerleben‘ (Wirth u. a., 2008) ab (vgl. Abbildung 4). Beide Effekte zeigten sich zudem als unabhängig von den gleichzeitig per Instruktion manipulierten Erwartungen an die Qualität der auditiven Wiedergabetechnologie (vgl. Abbildung 3 und 4) und auch stabil unter Einbezug diverser Kontrollvariablen (PANAS, Need for Affect, Soziodemographie). In der kritischen Diskussion der möglichen Schlussfolgerungen aus diesen Ergebnissen ist nun zu bedenken, dass die experimentalpsychologische Stärke der Technologie in Bezug auf interne Validität genau ihre Schwäche in Bezug auf externe Validität darstellt: Simuliert werden letztlich nur Schallfeldunterschiede, während jede mediale Hörerfahrung im Alltag ein komplexes, holistisches Geschehen in einem sozialen Kontext darstellt (DeNora, 2000), dessen phänomenologischer Charakter wiederum in Abhängigkeit zu bestimmten materiellen Eigenschaften der je verwendeten Technologie steht, die nicht unbedingt ausschließlich auf das Schallfeld zurückgehen müssen. So erlaubt beispielsweise das Kopfhörer-Hören im öffentlichen Nahverkehr effektiv das akustische Ausschließen der klanglichen Umwelt, was für viele Menschen im Sinne von „Cocooning“ eine relevante Leistung der Kopfhörer-Technologie im Alltag darstellt (Weber, 2010). Diese verschließt sich jedoch einer direkten laborexperimentellen Analyse. In diesem Sinne lassen sich mit dynamischer Binauralsynthese in Bezug auf „Medienunterschiede“ experimentell nur solche kognitiv-affektiven Mechanismen herausarbeiten, welche allein auf Schallfeldunterschiede zurückgehen – dies jedoch mit einem hohen Grad an interner Validität. Neben der kritischen Diskussion dieses Aspekts möchten wir im Ausblick auf zwei weitere Anwendungsmöglichkeiten des Verfahrens zu sprechen kommen: Einerseits die Möglichkeit der Simulation von Remediationen (Bolter, 2000), also der mehrfachen Verschachtelung von Technologien bei der Medienwiedergabe, wie sie typisch für die heutige digitale Medienwelt ist. So ließe sich beispielsweise der Höreindruck simulieren, eine digitalisierte und später in MP3-codierte Grammophonproduktion über eine Surround-Anlage mit einem ganz bestimmten Lautsprecherboxentyp zu hören, etc. Eine weitere interessante Möglichkeit ist die Fähigkeit des Verfahrens, nicht nur unterschiedliche Medientechnologien, sondern auch unterschiedliche Abhörräume und Zuhörerpositionen zu simulieren. Damit erschließt sich zusätzlich der „Raum“ als „Medium“ der akustischen Medienwiedergabe einer experimentalpsychologischen Analyse.
Download Bibtex Eintrag

Lebenslauf

seit 2012
Leiter des durch die Deutsche Forschungsgemeinschaft im Rahmen des DFG-Schwerpunktprogramms “Mediatisierte Welten” geförderten Forschungsvorhabens “Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland”

seit 2010
Wissenschaftlicher Mitarbeiter am Institut für Sprache und Kommunikation der Technischen Universität Berlin, Fachgebiet Audiokommunikation im Forschungsprojekt “Medium und Emotion” im Rahmen des Berliner Exzellenzclusters “Languages of Emotion

2009 – 2010
Lehrbeauftragter für Fragebogenentwicklung und grafische Datenauswertung mit SPSS an der Fakultät für Bildungs- und Sozialwissenschaften der Universität Oldenburg

2009 – 2010
Lehrkraft für besondere Aufgaben (Methoden der empirischen Sozialforschung) am Institut für Pädagogik der Universität Oldenburg

2009 – 2010
Lehrbeauftragter für Multivariate Statistik an der Fakultät für Bildungs- und Sozialwissenschaften der Universität Oldenburg

September 2009
Promotion zum Doktor der Philosophie (“summa cum laude”) an der Fakultät für Bildungs- und Sozialwissenschaften der Carl von Ossietzky Universität Oldenburg mit der Dissertationsschrift:
“Jenseits des Films. Quantitativ-inhaltsanalytische Rekonstruktion von filmischen Verstehens- und Aneignungsprozessen mit Hilfe der Postrezeptiven Lesartenanalyse (PLA)”, betreut von Prof. Yvonne Ehrenspeck (Allgemeine Pädagogik) und Prof. Bernard Kittel (Methoden der Sozialwissenschaften)

2007 – 2010
Wissenschaftlicher Mitarbeiter mit Lehrverpflichtung (Medienpädagogik, Forschungsmethoden) am Institut für Pädagogik der Universität Oldenburg

2007 – 2009
Lehrbeauftragter für Statistik mit SPSS an der Fakultät für Bildungs- und Sozialwissenschaften der Universität Oldenburg

2005 – 2009
Lehrbeauftragter für Digitale Audiobearbeitung an der Hochschule für Bildende Künste Braunschweig

2005 – 2007
Wissenschaftlicher Mitarbeiter im DFG-Forschungsprojekt “Kommunikatbildungsprozesse Jugendlicher zur Todesthematik und Filmische Instruktionsmuster” des Arbeitsbereiches “Philosophie der Erziehung” (Prof. Dieter Lenzen) an der Freien Universität Berlin

2005 – 2006
Lehrbeauftragter für Informationspsychologie an der Fachhochschule Braunschweig-Wolfenbüttel

2003 – 2005
Masterstudium Medienmanagement an der Hochschule für Musik und Theater Hannover (Abschlussnote: 1,5 / ECTS-Grade B – very good)

2003 – 2005
verantwortlicher Leiter des Tonstudios der Zentralen Medienwerkstatt der Hochschule für Bildende Künste Braunschweig

2002
studentischer Mitarbeiter im BmBF/MWK geförderten Forschungsprojekt “CRIMP – Criteria for Evaluation of Audiovisuals in Multimedia Production“, des Forschungszentrums L3S, Universität Hannover

1998 – 2003
Magisterstudium der Medienwissenschaften, Psychologie und Technik der Medien an der Technischen Universität und Hochschule für Bildende Künste Braunschweig (Abschlussnote: 1,3)

1997 – 1998
Zivildienst in der Altentagesstätte für geistig Behinderte der Lebenshilfe gGmbH, Braunschweig

1997
Abitur in Englisch, Musik, Geschichte (bilingual) und Informatik am Gymnasium Ricarda-Huch-Schule, Braunschweig (Abschlussnote: 1,8)

 

geboren am 30.07.1978 in Braunschweig

Navigation

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe