Methodenlehre III at Universität Jena | Flashcards & Summaries

Select your language

Suggested languages for you:
Log In Start studying!

Lernmaterialien für Methodenlehre III an der Universität Jena

Greife auf kostenlose Karteikarten, Zusammenfassungen, Übungsaufgaben und Altklausuren für deinen Methodenlehre III Kurs an der Universität Jena zu.

TESTE DEIN WISSEN

Mediation vs. Moderation

Lösung anzeigen
TESTE DEIN WISSEN
  • Mediation = Effekt einer Variable auf andere Variable wird über Drittvariable vermittelt
  • Moderation = Stärke des Effekts einer Variable auf die andere Variable wird durch eine Drittvariable verändert (beeinflusst)
Lösung ausblenden
TESTE DEIN WISSEN

Agglomerativ vs. divisiv

Lösung anzeigen
TESTE DEIN WISSEN

Agglomeratives ("Bottom-up") Clustering: 

  • Man beginnt auf der untersten Ebene auf der jede Beobachtung ihr
    eigenes Cluster bildet und aggregiert sie Beobachtungen solange zu immer größer werdenden
    Clustern, bis man bei einem großen Cluster ankommt, der alle Beobachtungen enthält

Divisives Clustering ("Top-Down"):

  • Man beginnt auf der obersten Ebene mit einem großen Cluster der alle
    Beobachtungen enthält und splittet diesen immer weiter auf, bis jede Beobachtung ihr eigenes Cluster bildet
Lösung ausblenden
TESTE DEIN WISSEN

Was ist ein Standardfehler?

Lösung anzeigen
TESTE DEIN WISSEN
  • unendlich viele Stichprpben aus Population ziehen
  • Parameter in jeder bestimmen (z.B. Mittelwert)
  • Standardabweichung von Parameter bestimmen
  • = Standardfehler
Lösung ausblenden
TESTE DEIN WISSEN

Wie kann man Zeit als Prädiktor modellieren?

Lösung anzeigen
TESTE DEIN WISSEN

1. Zeit (L1-Prädiktor) als kontinuierliche Variable 

  • wenn man viele MZP hat, über die ein Tren unterscuht werden soll
  • kontunierlich = zwischen den MZP liegen potentiell unendlich viele weitere MZP


2. Zeit (L1-Prädiktor) als Kategoriale Variable

  • es gibt wenige, qualitativ verschiedene MZP
  • wenn man an den Unterschieden bei verschiedenen Ausprägungen (= Stufen) des Faktors Zeit interessiert
Lösung ausblenden
TESTE DEIN WISSEN

Distanzmaße für Nähe zwischen einzelnen Datenpunkten

Lösung anzeigen
TESTE DEIN WISSEN
  • Euklidische Distanz 
  • Manhatten Metrik
Lösung ausblenden
TESTE DEIN WISSEN

Hirarchisches Clustering: Vorteile und Nachteile

Lösung anzeigen
TESTE DEIN WISSEN
  • Nachteile:
    • es werden nicht verschiedene Clusterlösungen, sondern nur verschiedene Auflösungen zur Auswahl gegeben
    • Vorgehen ist irreversibel (wenn Datenpunkt einmal CLuster zu geordnet ist, wird das nicht geändert, auch wenn es zu besserer Lösung führen würde nochmal zu wechseln)
    • Algorithmus nicht robust gegen Ausreißer (bilden oft Einzelcluster  oder fusionieren andere Cluster, v.a. bei single linkage)
    • kann in großen Datensätzen sehr rechenaufwändig werden (dabei: agglomeratives weniger rechenaufwendig, divisives rechenaufwendiger)
Lösung ausblenden
TESTE DEIN WISSEN

Inferenzstatistische Absicherung: 

Wald-Test/ t-Test

Lösung anzeigen
TESTE DEIN WISSEN
  • Wald-Test: macht sich Eigenschaften der ML-Schätzung zunutze à liefert bei sehr großen Stichproben eine approximativ standardnormalverteilte Prüfgröße
  • Feste Effekte kann man so auf Signifikanz testen, indem man Estimate durch seinen geschätzten Standardfehler teilt à resultierende Prüfgröße (= t-Wert in R) mit entsprechender Verteilung vergleichen
  • Problem dabei: Stichproben meist nicht groß genug, Test beruht dann auf falschen Verteilungsannahmen
  • Side Note: lmer Package gibt keine p-Werte aus, weil Freiheitsgrade der tatsächlichen Verteilung im Mehrebenenkotext schwer zu bestimmen sind
Lösung ausblenden
TESTE DEIN WISSEN

Inferenzstatistische Absicherung:

Bootstrap-Konfidenzintervalle

Lösung anzeigen
TESTE DEIN WISSEN
  • Für Feste und zufällige Effekte im Modell können alternativ Bootstrap-basierte Kifidenzintervalle berechnet werden
    1. Paramterisches Bootstrapping: auf Basis der geschätzten Paramter wird eine Population simuliert, aus der wiederholt Zufallsstichproben der Größe n gezogen werden
    2. Wenn man dann einen interessierenden Kennwert (z.B. einen festen Effekt) in jeder dieser Stichproben bestimmt, kann künstlich eine SKPV (?) erzeugt werden, um z.B. das KI um den geschätzten Parameter zu bestimmen
  • Parameter = signifikant, wenn Konfidenzintervall von 0 verschieden ist
    1. Achtung: Das KI der Varianzkomponenten kann die 0 nicht umschließen, da die Varianzen nicht negativ werden können
Lösung ausblenden
TESTE DEIN WISSEN

Maximum Likelihood Methode

Lösung anzeigen
TESTE DEIN WISSEN

Maximum-Likelihood Methode

  • Am häufigsten verwendeten Verfahren zur Parameterschätzung in Mehrebenenmodellen ist Maximum-Likelihood (ML) Methode
  • ML basiert auf Maximierung der Likelihood-funktion, die die Wahrscheinlichkeit der Daten gegeben der Modellparameter beschreibt
  • Algorithmus beginnt mit plausiblen Startwerten für die Modellparamter, bestimmt wie wahescheinlich es ist gegeben diese Paramter die beobachteten Daten zu finden
  • Parameter werden dann schrittweise (iterativ) so verändert, dass die Wahrscheinlichkeit die gegeben Daten zu beobachten immer weiter maximiert wird
  • Prozess endet, wenn:
    1. Verbesserung der Likelihood einen kritischen Wert unterschreitet (= erfolgreich)
    2. Voreingestellte Maximale Anzahl an Interationen erreicht ist (= nicht erfolgreich)
  • Feste und zufällige Effekte werden gleichzeitig geschätzt
Lösung ausblenden
TESTE DEIN WISSEN

Problem Definition inkrementelle Varianzaufklärung in HLM

Lösung anzeigen
TESTE DEIN WISSEN
  • In HLM Varianz und Residualvarianz auf mehreren Ebenen = verschiedene Möglichkeiten aufgeklärte Varianz zu definieren
  • Geschätzte Residualvairanz auf Level 2 kann sich wegen Stichprobenfehler durch Hinzunahme weiterer  Prädiktoren vergrößern (= was eigentlich nicht sein kann, es kann höchstens keine neue Varianz aufgeklärt werden, aber keinensfalls weniger)
  • Deswegen in der Literatur viele verschiedene Vorschläge für Pseudo  -Werte um (inkrementelle) Varianzaufklärung zu quantifizieren

Lösung ausblenden
TESTE DEIN WISSEN

Voraussetzung der ML-Methode für HLM

Lösung anzeigen
TESTE DEIN WISSEN
  • Residuen auf Level 1 sind unabhängig + identisch normalverteilt
  • Residuen auf Level 2 sind unabhängig + identisch multivariat normalverteilt mit Erwartungswert von 0 + Varianz- -Kovarianz Matrix, die dem Modell entspricht
  • Schätzung der festen Effekte ist relativ robust gegen die Verletzung der Normalverteilung
  • Schätzung der zufällige Effekt bei ausreichend großer Stichprobe auf Level 2
Lösung ausblenden
TESTE DEIN WISSEN

Poweranalysen

Lösung anzeigen
TESTE DEIN WISSEN
  • Nur weil Koeffizienten und ihre Standardfehler akkurat geschätzt werden –> muss nicht heißen, dass Power der durchgeführten inferenzstatistischen Tests hoch ist
  • Auch für Mehrebenenmodelle gibt es Ansätze den optimalen Stichprobenumfang vor der Analysen zu bestimmen (d.h. a-priori Poweranalyse durchführen)
  • Es gibt hier sowohl formelbasierte Ansätze als auch solche die auf Simulation beruhen
    1. Formelbasierte Ansätze (siehe Eid-Buch) haben den Nachteil das sie modellspezifisch sind und nur für eine begrenzte Menge an Modellen zur Verfügung stehen
    2. Simulationsbasierte Ansätze sind flexibler, werden in der Umsetzung aber schnell sehr komplex
  • Wir beschränken uns deshalb auf die genannten allgemeinen Empfehlungen zur Stichprobengröße
Lösung ausblenden
  • 128336 Karteikarten
  • 2204 Studierende
  • 95 Lernmaterialien

Beispielhafte Karteikarten für deinen Methodenlehre III Kurs an der Universität Jena - von Kommilitonen auf StudySmarter erstellt!

Q:

Mediation vs. Moderation

A:
  • Mediation = Effekt einer Variable auf andere Variable wird über Drittvariable vermittelt
  • Moderation = Stärke des Effekts einer Variable auf die andere Variable wird durch eine Drittvariable verändert (beeinflusst)
Q:

Agglomerativ vs. divisiv

A:

Agglomeratives ("Bottom-up") Clustering: 

  • Man beginnt auf der untersten Ebene auf der jede Beobachtung ihr
    eigenes Cluster bildet und aggregiert sie Beobachtungen solange zu immer größer werdenden
    Clustern, bis man bei einem großen Cluster ankommt, der alle Beobachtungen enthält

Divisives Clustering ("Top-Down"):

  • Man beginnt auf der obersten Ebene mit einem großen Cluster der alle
    Beobachtungen enthält und splittet diesen immer weiter auf, bis jede Beobachtung ihr eigenes Cluster bildet
Q:

Was ist ein Standardfehler?

A:
  • unendlich viele Stichprpben aus Population ziehen
  • Parameter in jeder bestimmen (z.B. Mittelwert)
  • Standardabweichung von Parameter bestimmen
  • = Standardfehler
Q:

Wie kann man Zeit als Prädiktor modellieren?

A:

1. Zeit (L1-Prädiktor) als kontinuierliche Variable 

  • wenn man viele MZP hat, über die ein Tren unterscuht werden soll
  • kontunierlich = zwischen den MZP liegen potentiell unendlich viele weitere MZP


2. Zeit (L1-Prädiktor) als Kategoriale Variable

  • es gibt wenige, qualitativ verschiedene MZP
  • wenn man an den Unterschieden bei verschiedenen Ausprägungen (= Stufen) des Faktors Zeit interessiert
Q:

Distanzmaße für Nähe zwischen einzelnen Datenpunkten

A:
  • Euklidische Distanz 
  • Manhatten Metrik
Mehr Karteikarten anzeigen
Q:

Hirarchisches Clustering: Vorteile und Nachteile

A:
  • Nachteile:
    • es werden nicht verschiedene Clusterlösungen, sondern nur verschiedene Auflösungen zur Auswahl gegeben
    • Vorgehen ist irreversibel (wenn Datenpunkt einmal CLuster zu geordnet ist, wird das nicht geändert, auch wenn es zu besserer Lösung führen würde nochmal zu wechseln)
    • Algorithmus nicht robust gegen Ausreißer (bilden oft Einzelcluster  oder fusionieren andere Cluster, v.a. bei single linkage)
    • kann in großen Datensätzen sehr rechenaufwändig werden (dabei: agglomeratives weniger rechenaufwendig, divisives rechenaufwendiger)
Q:

Inferenzstatistische Absicherung: 

Wald-Test/ t-Test

A:
  • Wald-Test: macht sich Eigenschaften der ML-Schätzung zunutze à liefert bei sehr großen Stichproben eine approximativ standardnormalverteilte Prüfgröße
  • Feste Effekte kann man so auf Signifikanz testen, indem man Estimate durch seinen geschätzten Standardfehler teilt à resultierende Prüfgröße (= t-Wert in R) mit entsprechender Verteilung vergleichen
  • Problem dabei: Stichproben meist nicht groß genug, Test beruht dann auf falschen Verteilungsannahmen
  • Side Note: lmer Package gibt keine p-Werte aus, weil Freiheitsgrade der tatsächlichen Verteilung im Mehrebenenkotext schwer zu bestimmen sind
Q:

Inferenzstatistische Absicherung:

Bootstrap-Konfidenzintervalle

A:
  • Für Feste und zufällige Effekte im Modell können alternativ Bootstrap-basierte Kifidenzintervalle berechnet werden
    1. Paramterisches Bootstrapping: auf Basis der geschätzten Paramter wird eine Population simuliert, aus der wiederholt Zufallsstichproben der Größe n gezogen werden
    2. Wenn man dann einen interessierenden Kennwert (z.B. einen festen Effekt) in jeder dieser Stichproben bestimmt, kann künstlich eine SKPV (?) erzeugt werden, um z.B. das KI um den geschätzten Parameter zu bestimmen
  • Parameter = signifikant, wenn Konfidenzintervall von 0 verschieden ist
    1. Achtung: Das KI der Varianzkomponenten kann die 0 nicht umschließen, da die Varianzen nicht negativ werden können
Q:

Maximum Likelihood Methode

A:

Maximum-Likelihood Methode

  • Am häufigsten verwendeten Verfahren zur Parameterschätzung in Mehrebenenmodellen ist Maximum-Likelihood (ML) Methode
  • ML basiert auf Maximierung der Likelihood-funktion, die die Wahrscheinlichkeit der Daten gegeben der Modellparameter beschreibt
  • Algorithmus beginnt mit plausiblen Startwerten für die Modellparamter, bestimmt wie wahescheinlich es ist gegeben diese Paramter die beobachteten Daten zu finden
  • Parameter werden dann schrittweise (iterativ) so verändert, dass die Wahrscheinlichkeit die gegeben Daten zu beobachten immer weiter maximiert wird
  • Prozess endet, wenn:
    1. Verbesserung der Likelihood einen kritischen Wert unterschreitet (= erfolgreich)
    2. Voreingestellte Maximale Anzahl an Interationen erreicht ist (= nicht erfolgreich)
  • Feste und zufällige Effekte werden gleichzeitig geschätzt
Q:

Problem Definition inkrementelle Varianzaufklärung in HLM

A:
  • In HLM Varianz und Residualvarianz auf mehreren Ebenen = verschiedene Möglichkeiten aufgeklärte Varianz zu definieren
  • Geschätzte Residualvairanz auf Level 2 kann sich wegen Stichprobenfehler durch Hinzunahme weiterer  Prädiktoren vergrößern (= was eigentlich nicht sein kann, es kann höchstens keine neue Varianz aufgeklärt werden, aber keinensfalls weniger)
  • Deswegen in der Literatur viele verschiedene Vorschläge für Pseudo  -Werte um (inkrementelle) Varianzaufklärung zu quantifizieren

Q:

Voraussetzung der ML-Methode für HLM

A:
  • Residuen auf Level 1 sind unabhängig + identisch normalverteilt
  • Residuen auf Level 2 sind unabhängig + identisch multivariat normalverteilt mit Erwartungswert von 0 + Varianz- -Kovarianz Matrix, die dem Modell entspricht
  • Schätzung der festen Effekte ist relativ robust gegen die Verletzung der Normalverteilung
  • Schätzung der zufällige Effekt bei ausreichend großer Stichprobe auf Level 2
Q:

Poweranalysen

A:
  • Nur weil Koeffizienten und ihre Standardfehler akkurat geschätzt werden –> muss nicht heißen, dass Power der durchgeführten inferenzstatistischen Tests hoch ist
  • Auch für Mehrebenenmodelle gibt es Ansätze den optimalen Stichprobenumfang vor der Analysen zu bestimmen (d.h. a-priori Poweranalyse durchführen)
  • Es gibt hier sowohl formelbasierte Ansätze als auch solche die auf Simulation beruhen
    1. Formelbasierte Ansätze (siehe Eid-Buch) haben den Nachteil das sie modellspezifisch sind und nur für eine begrenzte Menge an Modellen zur Verfügung stehen
    2. Simulationsbasierte Ansätze sind flexibler, werden in der Umsetzung aber schnell sehr komplex
  • Wir beschränken uns deshalb auf die genannten allgemeinen Empfehlungen zur Stichprobengröße
Methodenlehre III

Erstelle und finde Lernmaterialien auf StudySmarter.

Greife kostenlos auf tausende geteilte Karteikarten, Zusammenfassungen, Altklausuren und mehr zu.

Jetzt loslegen

Das sind die beliebtesten StudySmarter Kurse für deinen Studiengang Methodenlehre III an der Universität Jena

Für deinen Studiengang Methodenlehre III an der Universität Jena gibt es bereits viele Kurse, die von deinen Kommilitonen auf StudySmarter erstellt wurden. Karteikarten, Zusammenfassungen, Altklausuren, Übungsaufgaben und mehr warten auf dich!

Mehr Karteikarten anzeigen

Das sind die beliebtesten Methodenlehre III Kurse im gesamten StudySmarter Universum

Methodenlehre I

Universität Leipzig

Zum Kurs
Methodenlehre II

TU Braunschweig

Zum Kurs

Die all-in-one Lernapp für Studierende

Greife auf Millionen geteilter Lernmaterialien der StudySmarter Community zu
Kostenlos anmelden Methodenlehre III
Erstelle Karteikarten und Zusammenfassungen mit den StudySmarter Tools
Kostenlos loslegen Methodenlehre III