direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Dr. phil. Steffen Lepa M.A.

Lupe

Wissenschaftlicher Mitarbeiter im
Exzellenzcluster-Forschungsprojekt Medium und Emotion

Leiter des Forschungsprojekts
"Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland"


Sprechzeit: Di 12-14 Uhr (Raum H 2001 E)
Bitte melden Sie sich vorab per Email an!

Kontakt:

E-Mail: steffen.lepa AT tu-berlin.de
Telefon: +49 30 314 29313
Telefax: +49 30 314 21143

Private Homepage

Forschungsgebiete

  • Medienrezeptionsforschung / Mediennutzungsforschung
  • Medienpädagogik / Medienkompetenz
  • Sozialwissenschaftliche Methodologie
  • Computergestützte Erhebungs- und Analyseinstrumente
  • Neurokognitive Medien- und Sozialpsychologie
  • Bologna-Prozess und Studienevaluation
  • Digital Cultures und Medienphilosophie
  • Sound Design / Filmvertonung / Multimediaproduktion
  • Jugendkultur / Adoleszenzforschung

 

 

Publikationen

Zurück in die Disco: Realisierung des ‚Four-Step'-Ansatzes im Längsschnitt mittels Explorativer Strukturgleichungsmodellierung
Zitatschlüssel lepa_zuruck_2014
Autor Lepa, Steffen
Jahr 2014
Adresse München
Notiz 00000
Zusammenfassung 1. Motivation Während die Verwendung standardisierter Skalen für medien- und kommunikations¬wissenschaftliche Forschungspro-jekte aus vielen Gründen indiziert ist (Rössler, 2011), stellt sich insbesondere angesichts von „Big Data“ zunehmend die praktische Herausforderung, im Längsschnitt mit vielen Zeitreihen von Indikatoren „minderer Qualität“ umgehen zu müssen, welche vielfältigen messtechnischen Problemen wie unterschiedlichen Skalierungen, Itemschwierigkeiten, Itemstreuungen und Methoden¬artefakten, sowie autokorrelierten Messfehlern und Missings im Zeitverlauf unterliegen können. Eine sorgfältige Skalenentwicklung im Rahmen von Vorstudien ist bei der Verwendung von Daten aus APIs oft nicht möglich, somit stellen sich hier die gleichen Herausforderungen wie etwa bei Sekundäranalysen und solchen Forschungsprojekten, welche Skalenentwicklung, -validierung und –anwendung in einem einzigen Arbeitsschritt leisten (müssen). Die Prüfung theoretischer Hypothesen auf Basis von Ad-Hoc-Faktormodellen mit Hilfe von Strukturglei-chungs¬modellierung, welche im Sinne des „Four-Step“-Ansatzes (Mulaik & Millsap, 2000) realisiert wird, wäre ein probater systematischer Weg, diesen Problemen zu begegnen. Dabei erscheint eine ausgesprochene Datenfülle im Längsschnitt aber zunächst als ein „ungewollter Segen“: Das in der Kommunikationswissenschaft sehr verbreitete Ver-fahren der Explorativen Faktorenanalyse (EFA) ist eigentlich nur für Querschnittsdaten entwickelt worden. Wird es hingegen ‚regelwidrig‘ auf Längsschnittdaten angewandt, indem Messwiederholungen als zusätzliche unabhängige Beobachtungen an weiteren Fällen interpretiert werden, werden modelltheoretische Annahmen vernachlässigt und es drohen u. U. inhaltliche Verzerrungen der erhaltenen Faktorstruktur durch inhärente Autokorrelationen, Methodeneffekte, latente Traits oder kausale Strukturbeziehungen zwischen den verschiedenen Messzeitpunkten (Bagozzi, Yi, & Nassen, 1998). Wird ein Adhoc-Faktormodell mit Hilfe einer EFA stattdessen einfach nur querschnittlich, etwa am ersten Messzeitpunkt oder an Item-Durchschnittswerten bestimmt (Backhaus, Erichson, Plinke, & Weiber, 2000), kann sich später in Konfirmatorischen Faktoranalysen (CFA) erweisen, dass Skalenreliabilität oder Konstruktvalidität im Zeitverlauf deutlich variiert, da sich die Skala als nicht invariant gegenüber dem jeweiligen Anwendungskontext oder Beurteilungsobjekten verhält. Eine zusätzliche Belastung dieser „Problemlage“ bilden ferner auch einzelne fehlende Werte im Zeitbereich. Das im Statistikpaket MPLus (Muthén & Muthen, 2010) ab Version 5.1 implementierte Verfahren der Explorativen Strukturgleichungs¬modellierung (ESEM) (Asparouhov & Muthén, 2009) ermöglicht es, aus dieser „Not“ eine Tugend zu machen und unter bestimmten Voraussetzungen Explorative Faktorenanalysen, und damit den Four-Step-Ansatz auch mit autokorrelierten Längsschnittdaten und zufälligen Missings im Zeitbereich zu realisieren. Dabei ergeben sich als günstige Nebeneffekte eine „kostenlose“ Invarianzüberprüfung der Faktorstruktur im Sinne einer internen Skalenvalidierung, sowie die Möglichkeit, Methodeneffekte wie auch messgelegenheitsspezifische Varianzanteile (ähnlich wie in Hierarchisch-Linearer Modellierung) zu schätzen. Der Vortrag stellt am (freilich nicht auf die Problematik „Big Data“ bezogenen) Beispiel einer Skala zum emotionalen Ausdruck von Medieninhalten dar, wie diese Methodeninnovation auf einfache Weise mit MPLus realisiert werden kann und welche Herausforderungen dabei beachtet werden müssen. 2. Der „Four-Step“-Ansatz Der „Four-Step“-Ansatz wurde erstmals sinngemäß von James, Mulaik, & Brett (1982) vorgeschlagen und versucht der in der Strukturgleichungsmodellierungs-Community vieldiskutierten Problematik der Konfundierung von Modellie-rungsfehlern auf Ebene der Messmodelle mit Fehlern auf Ebene der Strukturmodelle systematisch Rechnung zu tragen. Jenes damit adressierte Problem, das nämlich für ein gesamtes komplexes Strukturgleichungsmodell nur ein einziger Modell-Fit berechnet werden kann, kommt besonders zum Tragen, wenn die Forscher sich dafür entscheiden, ein explo-ratives Vorgehen zu wählen und ihr Modell schrittweise „auf den vorhandenen Daten zu bauen“, was durch die Ge-schwindigkeit heutiger Computerprozessoren begünstigt und durch GUI-basierte SEM-Software wie etwa AMOS (Ar-buckle, 2010) erleichtert wird. Der vorgeschlagene „Four-Step“-Ansatz beruht auf vier ineinander logisch verschachtel-ten, schrittweise immer stärker mit hypothetischen Beschränkungen der Kovarianzmatrix angereicherten Modellen (vgl. Abbildung 1): 1) einem Faktormodell, dass per EFA gewonnen wird, 2) einer CFA-Konfirmation dieses Faktormodells in Form einer Einfachstruktur ohne Mehrfachladungen, 3) einem vollständigen SEM, welches die CFA-Variante plus eine Reihe zusätzlicher Strukturpfade enthält, welche grundlegende metatheoretische Prämissen repräsentieren und schließlich 4) eine Erweiterung des Modells um die eigentlichen Hypothesen oder auch eine sonstige alternative Model-lierung des Modells 3. Wenngleich der „Four-Step“, verstanden im Sinne einer Lehrbuch-Orthodoxie nicht ohne Kritik geblieben ist (Hayduk & Glaser, 2000), so steht er zweifelsohne für ein kanonisches Vorgehen, welches viele pragmatisch arbeitende Forsche-rInnen sinnvoll anleiten kann, wenn sie versuchen, auf bereits erhobenen Daten strukturelle Hypothesen zu testen, ad-Hoc Faktormodelle zu entwickeln und dabei die Indikatoren um Messfehler zu bereinigen. Seine Attraktivität liegt neben der „wissenschaftstheoretischen Sauberkeit“ zweifels¬ohne darin, dass es keiner a-priori vorhandenen Messmodelle oder Skalen bedarf, sondern diese streng induktiv aus dem Datenmaterial entwickelt werden. Dies wird nicht zuletzt möglich, in dem die EFA in Schritt 1, wie auch die CFA in Schritt 2 beide auf Basis des Common Factor Approaches (Fabrigar, Wegener, MacCallum, & Strahan, 1999) gerechnet werden („Maximum Likelihood Estimation“ in SPSS), so dass der einzige Unterschied beider Modelle in der Beschränkung auf eine Einfachstruktur liegt, der zweite Schritt also einfach nur in der Verhinderung von Kreuzladungen und der Spezifikation möglicher restringierter Faktorkorrelationen liegt. Weder SPSS, noch AMOS, noch MPlus oder verwandte Strukturgleichungs-modellierungspakete sehen jedoch eine „Längsschnittversion“ der EFA vor, welche notwendig wäre, um längsschnittlich erhobene Daten, etwa im Zeitreihen-, Panel- oder Experimentalkontext auf die gleiche Weise zu behandeln. Hingegen ist eine CFA-Spezifikation problemlos möglich, wie sie etwa im Rahmen von Latent-State-Trait-Modellen oder True-Change-Modellen (Geiser, 2010) üblich und verbreitet ist. 3. Schritt 1: Längsschnitt-EFA mit Hilfe von ESEM-Modellierung In eigenen medien- und musikpsychologischen Arbeiten etwa zu Sound Logos, Musikstücken oder Spielfilmausschnit-ten bin ich häufig mit der Problematik konfrontiert, dass Wiederholungsmessungen an denselben Subjekten mit einer größeren Anzahl von Stimuli oder sogar Continuous Response Measurement (CRM) oder Physiologiemessungen einge-setzt werden. Soll in diesem Kontext der „Four-Step“-Ansatz durchgeführt werden, bedarf es einer geeigneten Model-lierung der Problematik von Autokorrelationen, sowie der Spezifikation des Typs angenommener Messinvarianz bereits im ersten Schritt. Dieses ist nun seit kurzem durch explorative Strukturgleichungsmodellierung (ESEM) möglich (Aspa-rouhov & Muthen, 2009). Hierbei handelt es sich um einen recht neuen Ansatz, welcher eine Weiterentwicklung des Common Factor Approaches darstellt, der auch im EFA-Fall die Berechnung von Standardfehlern der Schätzung er-möglicht. Hierdurch kann selbst bei den für EFAs typischen Mehrfachladungen und korrelierten Messfehlern die An-passung eines Faktormodells an die Daten im Hinblick auf unterschiedliche Matrix-Rotationen erfolgreich geschätzt werden. Dies ermöglicht nicht nur, Messmodelle jenseits der CFA-Einfachstruktur problemlos in Strukturgleichungs-modellen einsetzen zu können (Marsh u. a., 2009), sondern eben auch quer- und längsschnittliche Invarianzannahmen sowie autokorellierte Messfehler in explorativen Faktorenanalysen zu spezifizieren (Asparouhov & Muthén, 2009). Im vorgestellten Beispiel (vgl. Abbildung 2), welches sich auf eine 4-dimensionale Skala zum wahrgenommenen emotio-nalen Ausdruck von Medieninhalten bezieht, welche Probanden zu vier Messgelegenheiten in einem Experiment mit unterschiedlichen auditiven Medienstimuli vorgelegt wurde (anonymisierte Referenz), zeigt sich, dass sich bei Annahme starker Messinvarianz und autokorrelierten Messfehlern das (eigentlich ursprünglich theoretisch entwickelte) CFA-Modell problemlos in seiner intendierten Konfiguration (vgl. Tabelle 1) und mit hohem Modellfit (vgl. Tabelle 2) ex-plorativ „finden“ lässt. 4. Schritt 2: Längsschnitt-CFA mit autokorrelierten Messfehlern In Schritt 2 konnte das entwickelte Faktormodell erfolgreich auf eine Einfachstruktur reduziert werden (vgl. Abbildung 3), jedoch verringert sich der Modellfit deutlich (vgl. Tabelle 2). Dies kann auf zwei unterschiedliche Ursachen zurück-geführt: Auf der einen Seite wird sich selten eine Faktorstruktur finden lassen, die überhaupt keinerlei Mehrfachladun-gen enthält. Der in Schritt 1 gewonnene Modellfit bildet also ohnehin eine theoretische Obergrenze. Des Weiteren ist aber auch mit zunehmender Faktorenzahl die Spezifikation von autokorrelierten Messfehlern und Faktorkorrelationen im Zeitbereich extrem „teuer“ im Hinblick auf zu schätzende Parameter bzw. Freiheitsgrade. Daher empfiehlt es sich, in diesem Schritt zu testen, ob die Autokorrelationsstruktur wirklich notwendig ist und ob ggf. sogar von strikter Messin-varianz ausgegangen und somit das Faktormodell weiter vereinfacht werden kann. Schlägt beides fehl (vgl. Tabelle 2), empfiehlt es sich, bei der Entwicklung des Strukturgleichungsmodells im nachfolgenden Schritt 3 verschiedene kanoni-sche Modellvarianten gegeneinander zu testen, die sich dadurch auszeichnen, dass sie die spezifizierte Kovarianzstruk-tur noch einmal entschieden zu vereinfachen in der Lage sind.   5. Schritt 3: Spezifikation eines basalen Strukturgleichungsmodells Zur Vereinfachung der spezifizierten Kovarianzstruktur bieten sich drei alternative Modellierungen an, welche die zweite Hälfte meines hier vorgelegten heuristischen Methodenvorschlags bildet: A) Ein Modell, welches ganz ohne Faktorinterkorrelationen im Zeitbereich auskommt, B) Ein Latent-State-Trait-Modell, oder C) Eine Bifaktor-Modellierung. Modell A) geht davon aus, dass jegliche Beziehungen zwischen den Variablen im Zeitbereich lediglich auf „Messartefakte“ zurückgeführt werden können (vgl. Abbildung 4a), was bei ausreichendem zeitlichen Abstand der Mesungen in vielen Fällen eine plausible Annahme sein wird. Modell B) partitioniert die Konstruktvarianzen (additiv) in einen messgelegenheitsspezifischen und einen stabilen Anteil, ähnlich einer Mehrebenen-Modellierung mit Zufallsef-fekten (vgl. Abbildung 4b). Modell C verfährt ähnlich, siedelt aber die Quelle messgelegenheitsunspezifischer Varianz auf Itemebene (im Sinne eines Methodenfaktors) an (vgl. Abbildung 4c), wodurch vergleichsweise weniger Parameter geschätzt werden müssen, jedoch die Annahme der Messinvarianz für die stabilen Varianzanteile aufgegeben wird. Bei der Entscheidung für einen der drei Modelltypen können theoretische Überlegungen herangezogen werden, oder einfach der empirische Modellfit vergleichend geprüft werden. Die Latent-State-Trait-Modellierung, wie auch die Bifaktor-Modellierung lassen sich zusätzlich noch mit der Beschränkung der Messparallelität versehen, wodurch die Zufallsef-fekte gewissermaßen zu „Fixed Effects“ (der messgelegenheitsspezifischen Items oder Konstrukte werden). Im vorlie-genden Fall wurde sich für eine Bifaktor-Modellierung mit Zufallseffekten für die Messgelegenheiten entschieden, da schon theoretisch ein methodenspezifischer und nicht ein dispositionaler Einfluss vermutet wurde. Dieses Modell zeigte sich allerdings auch empirisch in der Anpassung den anderen Varianten als überlegen (vgl. Tabelle 2). 6. Schritt 4: Prüfung der Strukturhypothesen am vollständigen SEM Im vorliegenden Fall wurde das Strukturgleichungsmodell um 3 Dummy-Variablen ergänzt, welche die strukturellen Hypothesen in Bezug auf die in einem Experiment realisierten Treatmentgruppen repräsentierten. Dabei wurde ein 2x3 Messwiederholungs-Design mit den Between-Faktoren „Spatialiasierungstyp“ und „Qualitätserwartung“, sowie der 4xMesswiederholung („Songstimulus“) abgebildet. In den Ergebnissen (vgl. Tabelle 3) zeigen sich deutlich signifikante und Effekte der Spatialisierung auf die Varianz aller 4 Messungen, während es keinerlei signifikanten Effekte der Qua-litätserwartung auf die Messungen gab. 7. Limitationen und Ausblick Das im Vortrag dargestellte grundlegende Verfahren, mit welchem der „Four-Step“-Ansatz systematisch auch bei Meßwiederholungen realisiert werden kann, und das zugleich Invarianzüberprüfungen und Reliabilitätsoptimierungen ermöglicht, stammt aus eigenen Werkstattversuchen und soll eine Diskussionsgrundlage mit anderen Fachkollegen bieten, welche auch Strukturgleichungsmodellierung einsetzen. Ich kann zurzeit nicht sagen und mir sind auch keine systematischen Monte-Carlo-Studien darüber bekannt, in welchen Fällen die vorgeschlagenen Spezifikations- und Modelltypen konvergieren bzw. schätzbar sind. Ich habe bei eigenen Versuchen an verschiedenen Datensätzen immer wieder auch Probleme mit nicht schätzbaren Modellen bekommen. Ein weiteres Problem ist die Verzerrung aller inkrementellen Modellfitindizes, da diese auf Vergleichen mit einem Nullmodell beruhen, welches die verschachtelte Struktur und Autokorrelationen nicht berücksichtigt (Widaman & Thompson, 2003), hier müssen zukünftig noch Anpassungen der Berechnungsformeln vorgenommen werden, die dann ggf. Eingang in zukünftige Programmversionen finden könnten. Neben der relativ aufwändigen Spezifikation bei einer höheren Anzahl von Messzeitpunkten, können als weitere Probleme in der Praxis sehr hohe Schätzzeiten insbesondere bei Schritt 1 und 2 auftreten. Teilweise kann die Anzahl zu schätzender Parameter sogar den verfügbaren Arbeitsspeicher des Rechners übersteigen. Im Zuge der Weiterentwicklung moderner Multiprozessor-Rechner dürften diese Probleme jedoch nur vorübergehender Natur sein. Bis dahin müssen AnwenderInnen unter Umständen sich darauf verlegen, a-priori stärke Modellrestriktionen (etwa: strikte faktorielle Invarianz) einzuführen, welche die Schätzzeiten des Maximum-Likelihood Algorithmus deutlich verkürzen.
Download Bibtex Eintrag

Lebenslauf

seit 2012
Leiter des durch die Deutsche Forschungsgemeinschaft im Rahmen des DFG-Schwerpunktprogramms “Mediatisierte Welten” geförderten Forschungsvorhabens “Survey Musik und Medien. Empirische Basisdaten und theoretische Modellierung der Mediatisierung alltäglicher Musikrezeption in Deutschland”

seit 2010
Wissenschaftlicher Mitarbeiter am Institut für Sprache und Kommunikation der Technischen Universität Berlin, Fachgebiet Audiokommunikation im Forschungsprojekt “Medium und Emotion” im Rahmen des Berliner Exzellenzclusters “Languages of Emotion

2009 – 2010
Lehrbeauftragter für Fragebogenentwicklung und grafische Datenauswertung mit SPSS an der Fakultät für Bildungs- und Sozialwissenschaften der Universität Oldenburg

2009 – 2010
Lehrkraft für besondere Aufgaben (Methoden der empirischen Sozialforschung) am Institut für Pädagogik der Universität Oldenburg

2009 – 2010
Lehrbeauftragter für Multivariate Statistik an der Fakultät für Bildungs- und Sozialwissenschaften der Universität Oldenburg

September 2009
Promotion zum Doktor der Philosophie (“summa cum laude”) an der Fakultät für Bildungs- und Sozialwissenschaften der Carl von Ossietzky Universität Oldenburg mit der Dissertationsschrift:
“Jenseits des Films. Quantitativ-inhaltsanalytische Rekonstruktion von filmischen Verstehens- und Aneignungsprozessen mit Hilfe der Postrezeptiven Lesartenanalyse (PLA)”, betreut von Prof. Yvonne Ehrenspeck (Allgemeine Pädagogik) und Prof. Bernard Kittel (Methoden der Sozialwissenschaften)

2007 – 2010
Wissenschaftlicher Mitarbeiter mit Lehrverpflichtung (Medienpädagogik, Forschungsmethoden) am Institut für Pädagogik der Universität Oldenburg

2007 – 2009
Lehrbeauftragter für Statistik mit SPSS an der Fakultät für Bildungs- und Sozialwissenschaften der Universität Oldenburg

2005 – 2009
Lehrbeauftragter für Digitale Audiobearbeitung an der Hochschule für Bildende Künste Braunschweig

2005 – 2007
Wissenschaftlicher Mitarbeiter im DFG-Forschungsprojekt “Kommunikatbildungsprozesse Jugendlicher zur Todesthematik und Filmische Instruktionsmuster” des Arbeitsbereiches “Philosophie der Erziehung” (Prof. Dieter Lenzen) an der Freien Universität Berlin

2005 – 2006
Lehrbeauftragter für Informationspsychologie an der Fachhochschule Braunschweig-Wolfenbüttel

2003 – 2005
Masterstudium Medienmanagement an der Hochschule für Musik und Theater Hannover (Abschlussnote: 1,5 / ECTS-Grade B – very good)

2003 – 2005
verantwortlicher Leiter des Tonstudios der Zentralen Medienwerkstatt der Hochschule für Bildende Künste Braunschweig

2002
studentischer Mitarbeiter im BmBF/MWK geförderten Forschungsprojekt “CRIMP – Criteria for Evaluation of Audiovisuals in Multimedia Production“, des Forschungszentrums L3S, Universität Hannover

1998 – 2003
Magisterstudium der Medienwissenschaften, Psychologie und Technik der Medien an der Technischen Universität und Hochschule für Bildende Künste Braunschweig (Abschlussnote: 1,3)

1997 – 1998
Zivildienst in der Altentagesstätte für geistig Behinderte der Lebenshilfe gGmbH, Braunschweig

1997
Abitur in Englisch, Musik, Geschichte (bilingual) und Informatik am Gymnasium Ricarda-Huch-Schule, Braunschweig (Abschlussnote: 1,8)

 

geboren am 30.07.1978 in Braunschweig

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.