Multiple Lineare Regressionen at Universität Wien | Flashcards & Summaries

Select your language

Suggested languages for you:
Log In Start studying!

Lernmaterialien für Multiple Lineare Regressionen an der Universität Wien

Greife auf kostenlose Karteikarten, Zusammenfassungen, Übungsaufgaben und Altklausuren für deinen Multiple Lineare Regressionen Kurs an der Universität Wien zu.

TESTE DEIN WISSEN

Was macht eine einfache lineare Regression?

Lösung anzeigen
TESTE DEIN WISSEN

erlaubt Untersuchung & Modellierung des
linearen Zusammenhangs zwischen 1 Prädiktor (UV; Regressor) und
1 Outcome (AV; Regressand, Kriterium)

Lösung ausblenden
TESTE DEIN WISSEN

Was tun bei Verletzung der Homoskedastizität?


Lösung anzeigen
TESTE DEIN WISSEN
  • Ausweichen auf andere Parameterschätzung.  --> gewichtete kleinste Quadrate
  • (bevorzugt): Verwendung von Bootstrap-Methoden
Lösung ausblenden
TESTE DEIN WISSEN

Unterschied einfach und multiple Regression

Lösung anzeigen
TESTE DEIN WISSEN

Erweitert einfaches lineares Modell um weitere Prädiktoren
--> vieles, was für einfache Regression gilt, gilt auch für die multiple.

Neuer Aspekt: Prädiktoren stehen nicht nur (im besten Fall) mit Outcome in Zusammenhang, sondern auch untereinander

Multikollinearität (muss in Analyse berücksichtigt werden)

Lösung ausblenden
TESTE DEIN WISSEN

Was passiert bei k=1 mit dem Slope Parameter?

Lösung anzeigen
TESTE DEIN WISSEN

Slope ist in unmittelbarem Zusammenhang mit
Produkt-Moment-Korrelation von Prädiktor X und Outcome Y

Slope ist bei k = 1 einfache Funktion der Korrelation (und umgekehrt)

--> Standardisierter Slope β (Beta) = Korrelation von X und Y
--> Alle Dateneigenschaften (Ausreißer, etc.), die Korrelation verzerren, verzerren auch den Slope-Parameter 

Lösung ausblenden
TESTE DEIN WISSEN

Wann ist Regressionsmodell besser? 

Lösung anzeigen
TESTE DEIN WISSEN

je mehr Varianz es von Y (outcome) vorhersagt/erklärt


--> 

Vergleich der Varianz der vorhergesagten
Werte mit Varianz der beobachteten Werte

Lösung ausblenden
TESTE DEIN WISSEN

Was kann R sein?

Lösung anzeigen
TESTE DEIN WISSEN

nur positiv

Lösung ausblenden
TESTE DEIN WISSEN

F-Test bei k= 1

Lösung anzeigen
TESTE DEIN WISSEN

H0: b1=0 (H1: b1 ungleich 0) ungerichtet

Lösung ausblenden
TESTE DEIN WISSEN

F-Test

Lösung anzeigen
TESTE DEIN WISSEN
  • Testet einseitig und ungerichtet
Lösung ausblenden
TESTE DEIN WISSEN

Was wird zudem in der Regressionsanalyse getestet?

Lösung anzeigen
TESTE DEIN WISSEN

Signifikanz jedes einzelnen
Prädiktors

Lösung ausblenden
TESTE DEIN WISSEN

Was sind die Modellannahmen bei k=1?

Lösung anzeigen
TESTE DEIN WISSEN

1. UV ist metrisch oder dichotom, AV ist metrisch
2. Linearität des Zusammenhangs
3. Homoskedastizität (Fehler verteilen sich über alle vorhergesagten Werte gleich)
4. Normalverteilung der Residuen
5. Unabhängigkeit der Beobachtungen


Prädiktor muss zudem var > 0 haben (muss variieren) 


Annahmen 2-4 können z.T. grafisch oder mit statistischen Tests geprüft
werden

Lösung ausblenden
TESTE DEIN WISSEN

Regressionsparameter bei k>1

Lösung anzeigen
TESTE DEIN WISSEN

Regressionsparameter werden nach wie vor so ermittelt, dass Summe der Abweichungsquadrate (Residuen) möglichst klein ist

  • Minimisation nur nicht mehr in Bezug zu einer einfachen Geraden, sondern zu
    einer Ebene, die durch Prädiktoren aufgespannt wird
  • Summe der Abweichungsquadrate trotzdem nur ein Skalar (kein Vektor), da weiterhin nur ein Outcome vorhergesagt wird
Lösung ausblenden
TESTE DEIN WISSEN

test

Lösung anzeigen
TESTE DEIN WISSEN

untersucht und modelliert linearen
Zusammenhang simultan für k Prädiktoren (k > 1) und 1 Outcome

Lösung ausblenden
  • 456692 Karteikarten
  • 7708 Studierende
  • 102 Lernmaterialien

Beispielhafte Karteikarten für deinen Multiple Lineare Regressionen Kurs an der Universität Wien - von Kommilitonen auf StudySmarter erstellt!

Q:

Was macht eine einfache lineare Regression?

A:

erlaubt Untersuchung & Modellierung des
linearen Zusammenhangs zwischen 1 Prädiktor (UV; Regressor) und
1 Outcome (AV; Regressand, Kriterium)

Q:

Was tun bei Verletzung der Homoskedastizität?


A:
  • Ausweichen auf andere Parameterschätzung.  --> gewichtete kleinste Quadrate
  • (bevorzugt): Verwendung von Bootstrap-Methoden
Q:

Unterschied einfach und multiple Regression

A:

Erweitert einfaches lineares Modell um weitere Prädiktoren
--> vieles, was für einfache Regression gilt, gilt auch für die multiple.

Neuer Aspekt: Prädiktoren stehen nicht nur (im besten Fall) mit Outcome in Zusammenhang, sondern auch untereinander

Multikollinearität (muss in Analyse berücksichtigt werden)

Q:

Was passiert bei k=1 mit dem Slope Parameter?

A:

Slope ist in unmittelbarem Zusammenhang mit
Produkt-Moment-Korrelation von Prädiktor X und Outcome Y

Slope ist bei k = 1 einfache Funktion der Korrelation (und umgekehrt)

--> Standardisierter Slope β (Beta) = Korrelation von X und Y
--> Alle Dateneigenschaften (Ausreißer, etc.), die Korrelation verzerren, verzerren auch den Slope-Parameter 

Q:

Wann ist Regressionsmodell besser? 

A:

je mehr Varianz es von Y (outcome) vorhersagt/erklärt


--> 

Vergleich der Varianz der vorhergesagten
Werte mit Varianz der beobachteten Werte

Mehr Karteikarten anzeigen
Q:

Was kann R sein?

A:

nur positiv

Q:

F-Test bei k= 1

A:

H0: b1=0 (H1: b1 ungleich 0) ungerichtet

Q:

F-Test

A:
  • Testet einseitig und ungerichtet
Q:

Was wird zudem in der Regressionsanalyse getestet?

A:

Signifikanz jedes einzelnen
Prädiktors

Q:

Was sind die Modellannahmen bei k=1?

A:

1. UV ist metrisch oder dichotom, AV ist metrisch
2. Linearität des Zusammenhangs
3. Homoskedastizität (Fehler verteilen sich über alle vorhergesagten Werte gleich)
4. Normalverteilung der Residuen
5. Unabhängigkeit der Beobachtungen


Prädiktor muss zudem var > 0 haben (muss variieren) 


Annahmen 2-4 können z.T. grafisch oder mit statistischen Tests geprüft
werden

Q:

Regressionsparameter bei k>1

A:

Regressionsparameter werden nach wie vor so ermittelt, dass Summe der Abweichungsquadrate (Residuen) möglichst klein ist

  • Minimisation nur nicht mehr in Bezug zu einer einfachen Geraden, sondern zu
    einer Ebene, die durch Prädiktoren aufgespannt wird
  • Summe der Abweichungsquadrate trotzdem nur ein Skalar (kein Vektor), da weiterhin nur ein Outcome vorhergesagt wird
Q:

test

A:

untersucht und modelliert linearen
Zusammenhang simultan für k Prädiktoren (k > 1) und 1 Outcome

Multiple Lineare Regressionen

Erstelle und finde Lernmaterialien auf StudySmarter.

Greife kostenlos auf tausende geteilte Karteikarten, Zusammenfassungen, Altklausuren und mehr zu.

Jetzt loslegen

Das sind die beliebtesten Multiple Lineare Regressionen Kurse im gesamten StudySmarter Universum

Multiple-Choice

Universität Düsseldorf

Zum Kurs
multiple choice

Bakersfield College

Zum Kurs
Multiple Choice

IU Internationale Hochschule

Zum Kurs
Lineare Regression

Universität Münster

Zum Kurs

Die all-in-one Lernapp für Studierende

Greife auf Millionen geteilter Lernmaterialien der StudySmarter Community zu
Kostenlos anmelden Multiple Lineare Regressionen
Erstelle Karteikarten und Zusammenfassungen mit den StudySmarter Tools
Kostenlos loslegen Multiple Lineare Regressionen