Docsity
Docsity

Prüfungen vorbereiten
Prüfungen vorbereiten

Besser lernen dank der zahlreichen Ressourcen auf Docsity


Download-Punkte bekommen.
Download-Punkte bekommen.

Heimse Punkte ein, indem du anderen Studierenden hilfst oder erwirb Punkte mit einem Premium-Abo


Leitfäden und Tipps
Leitfäden und Tipps

Einfache lineare Regression, Grafiken und Mindmaps von Statistik

Alle Informationen zur einfachen linearen Regression mit Beispielen

Art: Grafiken und Mindmaps

2022/2023

Zum Verkauf seit 22.07.2023

lynn.schmidt
lynn.schmidt 🇩🇪

13 dokumente


Unvollständige Textvorschau

Nur auf Docsity: Lade Einfache lineare Regression und mehr Grafiken und Mindmaps als PDF für Statistik herunter! Lineare Regressionsanalyse Einfache lineare Regression  Einfache = eine Variable  Lineare = Gerade  Y = 0 + 1*X + e o Y: erklärte Variable; AV; Kriterium o 0: Regressionskonstante; y-Achsenabschnitt (unbekannter fester Wert, somit keine Zufallsvariable) o 1: Steigungsparameter; Regressionsgewicht (unbekannter fester Wert, somit keine ZV) o X: erklärende Variable; UV; Prädiktor o e: Fehlerterm; Residuum mit Erwartungswert Null & geschätzter Varianz  e ist eine Zufallsvariable  Y ist eine Zufallsvariable für jeden festen Wert X (z.B. Y5 = b0 + b1 * 5 + e) o Die Regressionsgerade spiegelt alle Erwartungswerte für Yx wider, somit ist Yx normalverteilt mit dem Erwartungswert = vorhergesagter Wert vom Modell (Regressionsgerade), Yx ist dann jeweils ein Punkt auf der Normalverteilung mit Abstand e zum Erwartungswert  Es wurde nur eine UV variiert  Der Prädiktor erklärt das Kriterium bzw. das Kriterium wird durch den Prädiktor erklärt o Jedoch wird Y nicht vollständig durch X erklärt, sondern es kommen Fehler hinzu o Daher die Varianzzerlegung in erklärte Varianz & Fehlervarianz  Veränderung der erklärten Variable (AV) über die Veränderung der erklärenden Variablen (UV) aufzeigen o Die Abiturnote (AV) verändert sich, wenn sich der IQ (UV) verändert; Veränderungen des IQs erklären Veränderungen der Abiturnote  Regression: stellt fest, ob es eine Beziehung zwischen der AV & der UV gibt oder nicht o Zusammenhang  Kausalität  Ziele: o Schätzen konkreter Beziehungen, die ursprünglich nur abstrakte Parameter waren, d.h. nun Beschreibung der Realität/Population o Schätzen des Erwartungswertes der AV auf Basis der bekannten Werte der UV o Testen von Hypothesen, d.h. die empirische Gültigkeit prüfen, ob das Modell zur Prognose/Vorhersage verwendet werden kann (Erklärung/Vorhersage; kann die UV die AV vorhersagen/erklären?) o Abgabe von Prognosen  Vorgehen : o Modellparameter schätzen o Inferenzstatistik für Aussagen auf Populationsebene: Konfidenzintervalle für die Schätzer berechnen & Hypothesentests durchführen o Effektstärke R2 zeigt, wie gut das Modell Vorhersagen treffen kann  R2 = r2  Je größer R2, desto besser erklärt das Modell die Daten  [0-1] o Inhaltlich interpretieren  Voraussetzungen : o AV & UV sind metrisch o Lineare Beziehung zwischen AV & UV o Die Residuen sind unabhängig voneinander, normalverteilt & haben Varianzhomogenität/Homoskedastizität  Der Wert von Y (der Wert der AV) sollte allein durch die UV vorhersagbar sein  Beispiel: Die Studienmotivation (Prädiktor) sagt die Anzahl der besuchten Vorlesungen (Kriterium) voraus  Je höher der Zusammenhang zwischen Prädiktor & Kriterium, desto exakter ist die Güte der Vorhersage  Wenn Prädiktor & Kriterium nicht miteinander korrelieren (r = 0), dann ist die Variable kein hilfreicher Prädiktor  Die Regressionsgerade wird so in die Punktwolke gelegt, sodass die Vorhersage optimal ist/möglichst genau ist (Kleinster Abstand zu jedem Punkt) o Methode der kleinsten quadratischen Abweichung o Wahrer Wert & geschätzter Wert sollen sich minimal unterscheiden  Regressionsresiduum = Differenz zwischen wahrem & vorhergesagtem Wert (Abstand)  Voraussetzungen : o Unabhängigkeit der Regressionsresiduen, die Residuen korrelieren untereinander nicht o Residuen korrelieren nicht mit der UV o Residuen sind normalverteilt o Prädiktor & Kriterium sind intervallskaliert & normalverteilt o Varianzhomogenität der Residuen -> Homoskedastizität o Erwartungswert der Residuen ist Null