TU Berlin

Audio Communication GroupSteffen Lepa

Logo Fachgebiet Audiokommunikation

Page Content

to Navigation

Dr. phil. Steffen Lepa M.A. M.A.

Lupe

Lead of computational musicology team

Editor-in-chief of the knowledge portal Musik und Medien

Scientific collaborateur in cluster-of-excellence research project Medium und Emotion

Principal investigator of research project:
"Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland"

Co-applicant and coworker in Horizon 2020 R&D project abc_dj


Office hours: Tuesdays 12-14h (Room H 2001 E)
If you are planning a visit, please send me an email in advance!


Contact:

E-Mail: steffen.lepa AT tu-berlin.de
Phone: +49 30 314 29313
Telefax: +49 30 314 21143

Private website (currently under construction)

Research interests

  • Media reception / media use
  • media and music psychology
  • media and music sociology
  • Social research methodology
  • Computer-based research and analysis instruments
  • Bologna process and study program evaluation
  • History and philosophy of audio media
  • Sound design, film music, multimedia production
  • pop culture, music and copryright

 

 

Publications

Zurück in die Disco: Realisierung des ‚Four-Step'-Ansatzes im Längsschnitt mittels Explorativer Strukturgleichungsmodellierung
Citation key lepa_zuruck_2014
Author Lepa, Steffen
Year 2014
Address München
Note 00000
Abstract 1. Motivation Während die Verwendung standardisierter Skalen für medien- und kommunikations¬wissenschaftliche Forschungspro-jekte aus vielen Gründen indiziert ist (Rössler, 2011), stellt sich insbesondere angesichts von „Big Data“ zunehmend die praktische Herausforderung, im Längsschnitt mit vielen Zeitreihen von Indikatoren „minderer Qualität“ umgehen zu müssen, welche vielfältigen messtechnischen Problemen wie unterschiedlichen Skalierungen, Itemschwierigkeiten, Itemstreuungen und Methoden¬artefakten, sowie autokorrelierten Messfehlern und Missings im Zeitverlauf unterliegen können. Eine sorgfältige Skalenentwicklung im Rahmen von Vorstudien ist bei der Verwendung von Daten aus APIs oft nicht möglich, somit stellen sich hier die gleichen Herausforderungen wie etwa bei Sekundäranalysen und solchen Forschungsprojekten, welche Skalenentwicklung, -validierung und –anwendung in einem einzigen Arbeitsschritt leisten (müssen). Die Prüfung theoretischer Hypothesen auf Basis von Ad-Hoc-Faktormodellen mit Hilfe von Strukturglei-chungs¬modellierung, welche im Sinne des „Four-Step“-Ansatzes (Mulaik & Millsap, 2000) realisiert wird, wäre ein probater systematischer Weg, diesen Problemen zu begegnen. Dabei erscheint eine ausgesprochene Datenfülle im Längsschnitt aber zunächst als ein „ungewollter Segen“: Das in der Kommunikationswissenschaft sehr verbreitete Ver-fahren der Explorativen Faktorenanalyse (EFA) ist eigentlich nur für Querschnittsdaten entwickelt worden. Wird es hingegen ‚regelwidrig‘ auf Längsschnittdaten angewandt, indem Messwiederholungen als zusätzliche unabhängige Beobachtungen an weiteren Fällen interpretiert werden, werden modelltheoretische Annahmen vernachlässigt und es drohen u. U. inhaltliche Verzerrungen der erhaltenen Faktorstruktur durch inhärente Autokorrelationen, Methodeneffekte, latente Traits oder kausale Strukturbeziehungen zwischen den verschiedenen Messzeitpunkten (Bagozzi, Yi, & Nassen, 1998). Wird ein Adhoc-Faktormodell mit Hilfe einer EFA stattdessen einfach nur querschnittlich, etwa am ersten Messzeitpunkt oder an Item-Durchschnittswerten bestimmt (Backhaus, Erichson, Plinke, & Weiber, 2000), kann sich später in Konfirmatorischen Faktoranalysen (CFA) erweisen, dass Skalenreliabilität oder Konstruktvalidität im Zeitverlauf deutlich variiert, da sich die Skala als nicht invariant gegenüber dem jeweiligen Anwendungskontext oder Beurteilungsobjekten verhält. Eine zusätzliche Belastung dieser „Problemlage“ bilden ferner auch einzelne fehlende Werte im Zeitbereich. Das im Statistikpaket MPLus (Muthén & Muthen, 2010) ab Version 5.1 implementierte Verfahren der Explorativen Strukturgleichungs¬modellierung (ESEM) (Asparouhov & Muthén, 2009) ermöglicht es, aus dieser „Not“ eine Tugend zu machen und unter bestimmten Voraussetzungen Explorative Faktorenanalysen, und damit den Four-Step-Ansatz auch mit autokorrelierten Längsschnittdaten und zufälligen Missings im Zeitbereich zu realisieren. Dabei ergeben sich als günstige Nebeneffekte eine „kostenlose“ Invarianzüberprüfung der Faktorstruktur im Sinne einer internen Skalenvalidierung, sowie die Möglichkeit, Methodeneffekte wie auch messgelegenheitsspezifische Varianzanteile (ähnlich wie in Hierarchisch-Linearer Modellierung) zu schätzen. Der Vortrag stellt am (freilich nicht auf die Problematik „Big Data“ bezogenen) Beispiel einer Skala zum emotionalen Ausdruck von Medieninhalten dar, wie diese Methodeninnovation auf einfache Weise mit MPLus realisiert werden kann und welche Herausforderungen dabei beachtet werden müssen. 2. Der „Four-Step“-Ansatz Der „Four-Step“-Ansatz wurde erstmals sinngemäß von James, Mulaik, & Brett (1982) vorgeschlagen und versucht der in der Strukturgleichungsmodellierungs-Community vieldiskutierten Problematik der Konfundierung von Modellie-rungsfehlern auf Ebene der Messmodelle mit Fehlern auf Ebene der Strukturmodelle systematisch Rechnung zu tragen. Jenes damit adressierte Problem, das nämlich für ein gesamtes komplexes Strukturgleichungsmodell nur ein einziger Modell-Fit berechnet werden kann, kommt besonders zum Tragen, wenn die Forscher sich dafür entscheiden, ein explo-ratives Vorgehen zu wählen und ihr Modell schrittweise „auf den vorhandenen Daten zu bauen“, was durch die Ge-schwindigkeit heutiger Computerprozessoren begünstigt und durch GUI-basierte SEM-Software wie etwa AMOS (Ar-buckle, 2010) erleichtert wird. Der vorgeschlagene „Four-Step“-Ansatz beruht auf vier ineinander logisch verschachtel-ten, schrittweise immer stärker mit hypothetischen Beschränkungen der Kovarianzmatrix angereicherten Modellen (vgl. Abbildung 1): 1) einem Faktormodell, dass per EFA gewonnen wird, 2) einer CFA-Konfirmation dieses Faktormodells in Form einer Einfachstruktur ohne Mehrfachladungen, 3) einem vollständigen SEM, welches die CFA-Variante plus eine Reihe zusätzlicher Strukturpfade enthält, welche grundlegende metatheoretische Prämissen repräsentieren und schließlich 4) eine Erweiterung des Modells um die eigentlichen Hypothesen oder auch eine sonstige alternative Model-lierung des Modells 3. Wenngleich der „Four-Step“, verstanden im Sinne einer Lehrbuch-Orthodoxie nicht ohne Kritik geblieben ist (Hayduk & Glaser, 2000), so steht er zweifelsohne für ein kanonisches Vorgehen, welches viele pragmatisch arbeitende Forsche-rInnen sinnvoll anleiten kann, wenn sie versuchen, auf bereits erhobenen Daten strukturelle Hypothesen zu testen, ad-Hoc Faktormodelle zu entwickeln und dabei die Indikatoren um Messfehler zu bereinigen. Seine Attraktivität liegt neben der „wissenschaftstheoretischen Sauberkeit“ zweifels¬ohne darin, dass es keiner a-priori vorhandenen Messmodelle oder Skalen bedarf, sondern diese streng induktiv aus dem Datenmaterial entwickelt werden. Dies wird nicht zuletzt möglich, in dem die EFA in Schritt 1, wie auch die CFA in Schritt 2 beide auf Basis des Common Factor Approaches (Fabrigar, Wegener, MacCallum, & Strahan, 1999) gerechnet werden („Maximum Likelihood Estimation“ in SPSS), so dass der einzige Unterschied beider Modelle in der Beschränkung auf eine Einfachstruktur liegt, der zweite Schritt also einfach nur in der Verhinderung von Kreuzladungen und der Spezifikation möglicher restringierter Faktorkorrelationen liegt. Weder SPSS, noch AMOS, noch MPlus oder verwandte Strukturgleichungs-modellierungspakete sehen jedoch eine „Längsschnittversion“ der EFA vor, welche notwendig wäre, um längsschnittlich erhobene Daten, etwa im Zeitreihen-, Panel- oder Experimentalkontext auf die gleiche Weise zu behandeln. Hingegen ist eine CFA-Spezifikation problemlos möglich, wie sie etwa im Rahmen von Latent-State-Trait-Modellen oder True-Change-Modellen (Geiser, 2010) üblich und verbreitet ist. 3. Schritt 1: Längsschnitt-EFA mit Hilfe von ESEM-Modellierung In eigenen medien- und musikpsychologischen Arbeiten etwa zu Sound Logos, Musikstücken oder Spielfilmausschnit-ten bin ich häufig mit der Problematik konfrontiert, dass Wiederholungsmessungen an denselben Subjekten mit einer größeren Anzahl von Stimuli oder sogar Continuous Response Measurement (CRM) oder Physiologiemessungen einge-setzt werden. Soll in diesem Kontext der „Four-Step“-Ansatz durchgeführt werden, bedarf es einer geeigneten Model-lierung der Problematik von Autokorrelationen, sowie der Spezifikation des Typs angenommener Messinvarianz bereits im ersten Schritt. Dieses ist nun seit kurzem durch explorative Strukturgleichungsmodellierung (ESEM) möglich (Aspa-rouhov & Muthen, 2009). Hierbei handelt es sich um einen recht neuen Ansatz, welcher eine Weiterentwicklung des Common Factor Approaches darstellt, der auch im EFA-Fall die Berechnung von Standardfehlern der Schätzung er-möglicht. Hierdurch kann selbst bei den für EFAs typischen Mehrfachladungen und korrelierten Messfehlern die An-passung eines Faktormodells an die Daten im Hinblick auf unterschiedliche Matrix-Rotationen erfolgreich geschätzt werden. Dies ermöglicht nicht nur, Messmodelle jenseits der CFA-Einfachstruktur problemlos in Strukturgleichungs-modellen einsetzen zu können (Marsh u. a., 2009), sondern eben auch quer- und längsschnittliche Invarianzannahmen sowie autokorellierte Messfehler in explorativen Faktorenanalysen zu spezifizieren (Asparouhov & Muthén, 2009). Im vorgestellten Beispiel (vgl. Abbildung 2), welches sich auf eine 4-dimensionale Skala zum wahrgenommenen emotio-nalen Ausdruck von Medieninhalten bezieht, welche Probanden zu vier Messgelegenheiten in einem Experiment mit unterschiedlichen auditiven Medienstimuli vorgelegt wurde (anonymisierte Referenz), zeigt sich, dass sich bei Annahme starker Messinvarianz und autokorrelierten Messfehlern das (eigentlich ursprünglich theoretisch entwickelte) CFA-Modell problemlos in seiner intendierten Konfiguration (vgl. Tabelle 1) und mit hohem Modellfit (vgl. Tabelle 2) ex-plorativ „finden“ lässt. 4. Schritt 2: Längsschnitt-CFA mit autokorrelierten Messfehlern In Schritt 2 konnte das entwickelte Faktormodell erfolgreich auf eine Einfachstruktur reduziert werden (vgl. Abbildung 3), jedoch verringert sich der Modellfit deutlich (vgl. Tabelle 2). Dies kann auf zwei unterschiedliche Ursachen zurück-geführt: Auf der einen Seite wird sich selten eine Faktorstruktur finden lassen, die überhaupt keinerlei Mehrfachladun-gen enthält. Der in Schritt 1 gewonnene Modellfit bildet also ohnehin eine theoretische Obergrenze. Des Weiteren ist aber auch mit zunehmender Faktorenzahl die Spezifikation von autokorrelierten Messfehlern und Faktorkorrelationen im Zeitbereich extrem „teuer“ im Hinblick auf zu schätzende Parameter bzw. Freiheitsgrade. Daher empfiehlt es sich, in diesem Schritt zu testen, ob die Autokorrelationsstruktur wirklich notwendig ist und ob ggf. sogar von strikter Messin-varianz ausgegangen und somit das Faktormodell weiter vereinfacht werden kann. Schlägt beides fehl (vgl. Tabelle 2), empfiehlt es sich, bei der Entwicklung des Strukturgleichungsmodells im nachfolgenden Schritt 3 verschiedene kanoni-sche Modellvarianten gegeneinander zu testen, die sich dadurch auszeichnen, dass sie die spezifizierte Kovarianzstruk-tur noch einmal entschieden zu vereinfachen in der Lage sind.   5. Schritt 3: Spezifikation eines basalen Strukturgleichungsmodells Zur Vereinfachung der spezifizierten Kovarianzstruktur bieten sich drei alternative Modellierungen an, welche die zweite Hälfte meines hier vorgelegten heuristischen Methodenvorschlags bildet: A) Ein Modell, welches ganz ohne Faktorinterkorrelationen im Zeitbereich auskommt, B) Ein Latent-State-Trait-Modell, oder C) Eine Bifaktor-Modellierung. Modell A) geht davon aus, dass jegliche Beziehungen zwischen den Variablen im Zeitbereich lediglich auf „Messartefakte“ zurückgeführt werden können (vgl. Abbildung 4a), was bei ausreichendem zeitlichen Abstand der Mesungen in vielen Fällen eine plausible Annahme sein wird. Modell B) partitioniert die Konstruktvarianzen (additiv) in einen messgelegenheitsspezifischen und einen stabilen Anteil, ähnlich einer Mehrebenen-Modellierung mit Zufallsef-fekten (vgl. Abbildung 4b). Modell C verfährt ähnlich, siedelt aber die Quelle messgelegenheitsunspezifischer Varianz auf Itemebene (im Sinne eines Methodenfaktors) an (vgl. Abbildung 4c), wodurch vergleichsweise weniger Parameter geschätzt werden müssen, jedoch die Annahme der Messinvarianz für die stabilen Varianzanteile aufgegeben wird. Bei der Entscheidung für einen der drei Modelltypen können theoretische Überlegungen herangezogen werden, oder einfach der empirische Modellfit vergleichend geprüft werden. Die Latent-State-Trait-Modellierung, wie auch die Bifaktor-Modellierung lassen sich zusätzlich noch mit der Beschränkung der Messparallelität versehen, wodurch die Zufallsef-fekte gewissermaßen zu „Fixed Effects“ (der messgelegenheitsspezifischen Items oder Konstrukte werden). Im vorlie-genden Fall wurde sich für eine Bifaktor-Modellierung mit Zufallseffekten für die Messgelegenheiten entschieden, da schon theoretisch ein methodenspezifischer und nicht ein dispositionaler Einfluss vermutet wurde. Dieses Modell zeigte sich allerdings auch empirisch in der Anpassung den anderen Varianten als überlegen (vgl. Tabelle 2). 6. Schritt 4: Prüfung der Strukturhypothesen am vollständigen SEM Im vorliegenden Fall wurde das Strukturgleichungsmodell um 3 Dummy-Variablen ergänzt, welche die strukturellen Hypothesen in Bezug auf die in einem Experiment realisierten Treatmentgruppen repräsentierten. Dabei wurde ein 2x3 Messwiederholungs-Design mit den Between-Faktoren „Spatialiasierungstyp“ und „Qualitätserwartung“, sowie der 4xMesswiederholung („Songstimulus“) abgebildet. In den Ergebnissen (vgl. Tabelle 3) zeigen sich deutlich signifikante und Effekte der Spatialisierung auf die Varianz aller 4 Messungen, während es keinerlei signifikanten Effekte der Qua-litätserwartung auf die Messungen gab. 7. Limitationen und Ausblick Das im Vortrag dargestellte grundlegende Verfahren, mit welchem der „Four-Step“-Ansatz systematisch auch bei Meßwiederholungen realisiert werden kann, und das zugleich Invarianzüberprüfungen und Reliabilitätsoptimierungen ermöglicht, stammt aus eigenen Werkstattversuchen und soll eine Diskussionsgrundlage mit anderen Fachkollegen bieten, welche auch Strukturgleichungsmodellierung einsetzen. Ich kann zurzeit nicht sagen und mir sind auch keine systematischen Monte-Carlo-Studien darüber bekannt, in welchen Fällen die vorgeschlagenen Spezifikations- und Modelltypen konvergieren bzw. schätzbar sind. Ich habe bei eigenen Versuchen an verschiedenen Datensätzen immer wieder auch Probleme mit nicht schätzbaren Modellen bekommen. Ein weiteres Problem ist die Verzerrung aller inkrementellen Modellfitindizes, da diese auf Vergleichen mit einem Nullmodell beruhen, welches die verschachtelte Struktur und Autokorrelationen nicht berücksichtigt (Widaman & Thompson, 2003), hier müssen zukünftig noch Anpassungen der Berechnungsformeln vorgenommen werden, die dann ggf. Eingang in zukünftige Programmversionen finden könnten. Neben der relativ aufwändigen Spezifikation bei einer höheren Anzahl von Messzeitpunkten, können als weitere Probleme in der Praxis sehr hohe Schätzzeiten insbesondere bei Schritt 1 und 2 auftreten. Teilweise kann die Anzahl zu schätzender Parameter sogar den verfügbaren Arbeitsspeicher des Rechners übersteigen. Im Zuge der Weiterentwicklung moderner Multiprozessor-Rechner dürften diese Probleme jedoch nur vorübergehender Natur sein. Bis dahin müssen AnwenderInnen unter Umständen sich darauf verlegen, a-priori stärke Modellrestriktionen (etwa: strikte faktorielle Invarianz) einzuführen, welche die Schätzzeiten des Maximum-Likelihood Algorithmus deutlich verkürzen.
Download Bibtex entry

Curriculum Vitae

2018 - 2019
Guest professor for "Media and Music" at the Department for Journalism and Communication Research (IJK), Hochschule für Musik, Theater und Medien, Hanover, Germany

2012 - 2015
Project lead of national-funded research project “Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland” as part of the DFG-priority programme DFG-Schwerpunktprogramms “Mediatisized Worlds”

since 2010
Postdoc researcher at the Audio Communication Group, Institute for Language and Communication at Technical University of Berlin, in the research project “Medium und Emotion” as part of the Berlin Cluster of Excellence network “Languages of Emotion

2009 – 2010
Teaching appointment for questionaire design and graphical data analysis with SPSS at the Faculty for Education and Social Sciences at Oldenburg University

2009 – 2010
Scientific lecturer (social research methodology) at the Institute for Pedagogics der Universität Oldenburg

2009 – 2010
Teaching appointment for multivariate statistics at the Faculty for Education and Social Sciences at Oldenburg University

September 2009
Promotion to a Doctor of Philosophy (“summa cum laude”) by the Faculty for Education and Social Sciences of Oldenburg University with the dissertation thesis:
“Jenseits des Films. Quantitativ-inhaltsanalytische Rekonstruktion von filmischen Verstehens- und Aneignungsprozessen mit Hilfe der Postrezeptiven Lesartenanalyse (PLA)”, supervised by Prof. Yvonne Ehrenspeck (general pedagogics) und Prof. Bernard Kittel (social research methodology)

2007 – 2010
Scientific lecturer (media education, social research methodology) at the Institute for Pedagogics at Oldenburg University

2007 – 2009
Teaching appointment for statistics with SPSS at the Faculty for Education and Social Sciences at Oldenburg University

2005 – 2009
Teaching appointment for digital audio editing at Braunschweig University of Fine Arts

2005 – 2007
Scientific research assistant in the national funded research project “Kommunikatbildungsprozesse Jugendlicher zur Todesthematik und Filmische Instruktionsmuster” at the Arbeitsbereich “Philosophie der Erziehung” (Prof. Dieter Lenzen) at Freien Universität Berlin

2005 – 2006
Teaching appointment for information psychology at the Ostfalia University of Applied Sciences

2003 – 2005
Master Study of Media Management at the Hannover University of Music, Drama and Media (Master of Arts degree, final grade: 1,5 / ECTS-Grade B – very good)

2003 – 2005
Responsible leader of the digital audio studio of the Central Media Service Unit at Braunschweig University of Fine Arts

2002
Student research assistent at the BmBF/MWK-funded research project “CRIMP – Criteria for Evaluation of Audiovisuals in Multimedia Production“, of the Research Centre L3S, University of Hannover

1998 – 2003
Master study of Media Studies, Psychology and Media Technology at the Technical University of Braunschweig and Braunschweig University of Fine Arts (Master of Arts degree with final grade: 1,3)

1997 – 1998
Alternative civilian service at the daycare house for the elderly disabled of Lebenshilfe gGmbH, Braunschweig

1997
University entrance diploma (“Abitur”) in English, Music, History (bilingual) und Computer Science at the Gymnasium Ricarda-Huch-Schule, Braunschweig, Germany (final grade: 1,8)

born on July, 30th 1978 in Braunschweig, Lower Saxony, Germany.

Navigation

Quick Access

Schnellnavigation zur Seite über Nummerneingabe