






Besser lernen dank der zahlreichen Ressourcen auf Docsity
Heimse Punkte ein, indem du anderen Studierenden hilfst oder erwirb Punkte mit einem Premium-Abo
Prüfungen vorbereiten
Besser lernen dank der zahlreichen Ressourcen auf Docsity
Download-Punkte bekommen.
Heimse Punkte ein, indem du anderen Studierenden hilfst oder erwirb Punkte mit einem Premium-Abo
Community
Finde heraus, welche laut den Docsity-Nutzern die besten Unis deines Landes sind
Kostenlose Leitfäden
Lade unsere Leitfäden mit Lernmethoden, Hilfen zur Angstbewältigung und von Docsity-Tutoren erstellte Tipps zum Verfassen von Haus- und Abschlussarbeiten kostenlos herunter
Zusammenfassung der Vorlesung Statistik 1 (Stand Frühjahrssemester 2017)
Art: Zusammenfassungen
1 / 10
Vollständiges Dokument herunterladen
durch Erwerb eines Premium-Tarifplans
und hol dir die Punkte, die dir in 48 stunden
Diese Zusammenfassung soll den gesamten Stoff der Vorlesung Statistik 1 (Stand Frühjahrssemester 2017) in kompakter Form ent- halten und soll an der Basisprüfung verwendet werden können. Ich kann leider weder Vollständigkeit noch die Abwesenheit von Fehlerngarantieren
1 ) Modell 2 ) Nullhypothese und Alternative 3 ) Teststatistik 4 ) Signifikanzniveau α 5 ) Verwerfungsbereich der Teststatistik K 6 ) Testentscheid
A ∪ B (oder); A ∩ B (und); Ac^ , A (nicht A) Zwei Mengen sind disjunkt, wenn sie kein gemeinsames Element besitzen. Axiome:
1) P ( A ) ≥ 0 2) P (Ω) = 1 3) P ( A ∪ B ) = P ( A ) + P ( B ) ⇐= A ∩ B = {} = ;
1 ) Summe von Elementarereignissen
∑^ i n = 1
P ( wi ) = 1
2 ) Laplace Modell: El.ereignisse gleich wa.
3 ) Mengenoperationen / Venn-Diagramme: z.B. Gegenereignis ( A und AC^ )
A , B sind unabhängig, wenn das Auftreten von A die Wa. von B nicht beeinflusst ⇐⇒ P ( A ∩ B ) = P ( A ) ∗ P ( B )
Die bedingte Wahrscheinlichkeit von Ereignis A wenn B eingetreten ist, wird mit P ( A | B ) bezeichnet. Es gilt:
P ( Ac^ | B ) = 1 − P ( A | B ) Satz von Bayes: P ( A | B ) =
Satz der totalen Wahrscheinlichkeiten: P ( X ) = P ( X | K ) ∗ P ( K ) + P ( X | K c^ ) ∗ P ( K c^ )
Funktion Ω æ ℜ ; X : A −→ X ( A ) = x
al l e x
P ( X = x ) = 1
Allgemein gilt: n = #Lose; x = #Gewinne; π = #Wa. Gewinn
( n x
= (^) x !( nn −! x )!
( n x
∗ πx^ ∗ (1 − π ) n − x
P ( X = x ) ∗ x Sind X , Y unabhängig so gilt: E ( aX + bY + c ) = a ∗ E ( X ) + b ∗ E ( Y ) + c
P ( X = x ) ∗ [ x − E ( x )]^2 V ar ( aX + bY + c ) = a^2 V ar ( X ) + b^2 V ar ( Y )
p V ar ( X )
x (^) e − λ x! ( x^ =^ 0, 1, 2,.. .)
- E ( X ) = λ , V ar ( X ) = λ Die Summe zwei voneinander unabhängigen und poisson-verteilten Zufallsvariablen ist ebenfalls poisson-verteilt: X ∼ Poi sson ( λX ), Y ∼ Poi sson ( λY ) → X + Y ∼ Poi s ( λX + λY )
m x )( N − m n − x ) ( Nn ) , {0, 1,... , min( n , m )}
- E ( X ) = nm N , V ar ( X ) = nm ( NN − (^2) ( mN −)(1) N^ − n )
Def. 1: Die Werte von π 0 bei denen H 0 nicht verworfen wird auf α , sind (1 − α )−VI für π Def. 2: Ein (1 − α )−VI enthält den wahren Parameter mit Wahrscheinlichkeit 1 − α.
Für α = 0.05 (95%-VI) kann die Normalapproximation be- nutzt werden. Dabei wird z = 1.64 für ein einseitiges VI und z = 1.96 für das zweiseitige VI eingesetzt:
x n ± z
x n^2
x n
Das 95%-Vorhersageintervall für ein Ereignis ist in der Re- gel grösser als das 95%-Vertrauensintervall für das erwarte- te Ereignis. Ersteres gibt den Bereich für den wahren Wert bei einer Messung an, während letzteres bei vielen Wieder- holungen einer Messung mit der Wahrscheinlichkeit 1 − α angibt, dass der Wert darin liegt.
Das α -Quantil ist der Wert qα , bei dem α ∗ 100% der Daten- punkte kleiner als qα sind. q 0.5 = “Median”, q 0.25 = “1. Quartil”, q 0.75 = “3. Quartil" Besteht unser Datensatz aus geordneten Werten x (1) ≤ x (2) ≤... ≤ x ( n ), können empirische α -Quantile wie folgt berechnet werden: 1 2
x ( αn ) + x ( αn +1)
wenn α ∗ n ∈ Z x ( αn + 12 )^ gerundet auf ganze Zahl wenn α ∗ n ∉ Z
Kennzahlen für die Lage arithmethische Mittel: ¯ x = (^) n^1 ∑ n i = 1 xi Median: q 0.5 (robust)
Kennzahlen für die Streuung empirische Standardabweichung:
sx =
n − 1
∑^ n i = 1
( xi − x ¯)^2
Inter-Quartile Range ( IQR ): IQR = q 0.75 − q 0.25 (robust)
Kennzahlen für linearen Zusammenhang V ar ( X ) = E (( X − μx )^2 ) wobei μx = E ( X ) Kovarianz: C ov ( X , Y ) = E [( X − E ( X )) ∗ ( Y − E ( X ))] = E ( X ∗ Y ) − E ( X ) ∗ E ( Y ) mit C ov ( X , X ) = V ar ( X ) Korrelation = “skalierte Kovarianz” Misst Stärke und Richtung von linearer Abhängigkeit. Kor- relation ∈ [−1, 1] ρX Y = C or r ( X , Y ) = C ov σx ( ∗ Xσ^ , Yy^ ) C or r ( X , Y ) = 1 ←→ Y = a + b ∗ X , b > 0 C or r ( X , Y ) = − 1 ←→ Y = a + b ∗ X , b < 0 X , Y unabhängig −→ C or r ( X , Y ) = 0
empirische Korrelation:
rX Y = sX Y sX ∗ sY
, sX Y =
∑ n i = 1 ( xi^ −^ x ¯)^ ∗^ ( yi^ −^ y ¯) n − 1 Standardisierung: Ein Datensatz kann standardisiert wer- den, so dass arithmetisches Mittel gleich Null und Standard- abweichung gleich 1 sind.
zi = xi − x ¯ sX
, ( i = 1,... , n )
Histogramm: Klassen konstanter Breite; Anzahl Be- obachtungen pro Klasse; Balken proportional zur Anzahl Beobachtungen in der jeweiligen Klasse
Boxplot: Rechteck, dass von den empirischen 25%- und 75%-Quantilen begrenzt wird; Linien, welche von dem Rechteck bis zum kleinsten bzw grössten Wert reichen, der höchstens 1.5 mal die Quartilsdifferenz von einem der beiden Quartile entfernt ist; Ausreisser sind als Ster- ne aufgeführt; ein Strich, welcher den Median anzeigt
empirische kumulative Verteilungsfunktion F n (·): Treppen- funktion, die bei jedem x ( i ) einen Sprung der Höhe (^1) n oder eines Vielfachen bei mehrfachem Auftreten des jeweiligen Wertes macht
Fn ( x ) =
n
Anzahl{ i | xi ≥ x }
Streudiagramm: Datenpunkte i mit Koordina- ten ( xi , yi ) werden in einer Ebene dargestellt
P ( X ≤ x ) =: F ( x ) kumulative Verteilungsfunktion f ( x ) = (^) d xd F ( x ) Wahrscheinlichkeitsdichte
⇒ F ( x ) =
∫ x
−∞
f ( x ′) d x ′
−∞
x f ( x ) d x ; V ar ( X ) = E (( X − E ( X ))^2 )
σx =
V ar ( X ) ; Quant i l : qα = F −^1 ( α )
X ∼ Uni f or m ([ a , b ]) Jeder Wert im Intervall [a,b] ist gleich wahrscheinlich.
f ( x ) =
b − a a^ ≤^ x^ ≤^ b 0 sonst
F ( x ) =
0 x < a x − a b − a a^ ≤^ x^ ≤^ b 1 x > b
E ( X ) = a + b 2
, V ar ( X ) = ( b − a )^2 12
, σX = b − a p 12
X ∼ E xp ( λ ) “Wartezeit auf Ausfälle” X mit Wertebereich Wx = ℜ+^ = [0, ∞) ist exponentiell ver- teilt mit Parameter λ ∈ ℜ+^ ( X ∼ eλ ), falls
f ( x ) =
λe − λx^ x ≥ 0 0 x < 0
F ( x ) =
1 − e − λx^ x ≥ 0 0 x < 0
E ( X ) =
λ
, V ar ( X ) =
λ^2
, σX =
λ
X ∼ N ( μ , σ^2 ) Häufigste Verteilung für Messwerte X mit Wertebereich Wx = ℜ ist normalverteilt mit Parame- ter μ ∈ ℜ und σ^2 ∈ ℜ+^ falls
f ( x ) =
σ
p 2 π
exp
( x − μ )^2 2 σ^2
Die kumulative Verteilungsfunktion ist nicht explizit dar- stellbar und wird deswegen tabelliert. Dabei reicht eine Ta- belle für die Standard-Normalverteilung da jede Normalver- teilung immer in eine Standard-Normalverteilung transfor- miert werden kann (siehe Standardisierung einer Zufallsva- riablen weiter unten).
E ( X ) = μ , V ar ( X ) = σ^2 , σX = σ
Standard-Normalverteilung Die Normalverteilung mit μ = 0 und σ^2 = 1 heisst Standard-Normalverteilung. Dichte und kumulative Verteilungsfunktion sehen wie folgt aus:
φ ( x ) =
p 2 π
exp
x^2 2
, Φ( x ) =
∫ x
−∞
φ ( y ) d y
P-Wert : p = P ( T > t ) = 1 − Ftn − 1 ( t ) Beachte: P ( T > t ) = 1 − P ( T <= t ), P ( T >= t ) = 1 − P ( T < t ) Ftn − 1 kann aus der Tabelle ausgelesen werden. Dazu sucht man in der Zeile n − 1 nach der Bedingung (z.B. T > 2.228). Die dazugehörige Spalte ( t 0.975) gibt einem den p-Wert an: p = 1 −0.975 = 0.025. Bei einem zweiseitigen Test währe p = 2(1 − 0.975) = 2 ∗ 0.05 = 0.05.
Vorzeichentest (Binomialtest)
1 ) Modell : X 1 ,... , Xn i i d wobei X 1 eine beliebige Ver- teilung hat. 2 ) Nullhypothese H 0 : μ = μ 0 ( μ ist der Median)
Alternative HA : μ 6 = μ 0 (oder < oder >) 3 ) Teststatistik V : Anzahl Xi mit Xi > μ 0 4 ) Signifikanzniveau : α 5 ) Verwerfungsbereich von T : μ 6 = μ 0 : K = [0, cu ] ∪ [ co , n ] cu und co müssen mit der Binomialverteilung oder der Normalapproximation berechnet werden. 6 ) Testentscheid : Überprüfen, ob Wert im Verwerfungs- bereich liegt
Wilcoxon-Test
95%-VI werden nach dem folgenden Schema berechnet. Dabei
μ 6 = μ 0 : [ cu , co ] μ < μ 0 : [−∞, co ] μ > μ 0 : [ cu , ∞]
B In der folgenden Formel für zweiseitiges Vertrauensin- tervall α /2 statt α verwenden.
co / u = xn ± t ( n −1,1− α ) σ^ ˆ X p n
= xn ± Φ−(1^1 − α ) σX p n B Die Formel mit t und ˆ σX gilt für den t-Test (geschätztes σ ) und diejenige mit Φ−^1 und σX für den z-Test (bekanntes σ ). Für Φ−^1 siehe Kapitel 6.
Bei gepaarten Stichproben kann auch der ungepaarte t-Test verwendet werden. gepaart ungepaart gleich grosse Stichproben können, müssen aber nicht gleich gross sein klare Zuordnung (rechts - links, vorher - nachher)
keine Zuordnung
mehr Macht weniger Macht
Sind Daten gepaart (z.B. Messung vor und nach der Einnah- me eines Medikamentes), arbeitet man mit den Differenzen innerhalb der Paare (Test für eine Stichprobe).
ui = xi − yi ( i = 1,... , n )
Sind Daten ungepaart wendet man den ungepaarten t-Test an. 1 ) Modell :
X 1 ,... , Xn i i d ∼ N ( μX , σ^2 ) Y 1 ,... , Ym i i d ∼ N ( μY , σ^2 )
2 ) Nullhypothese H 0 : μX = μY Alternative :
X (^) n − Y (^) m Spool
p 1/ n + 1/ m
S^2 pool =
n + m − 2
( n − 1) ˆ σ^2 x + ( m − 1) ˆ σ^2 y
Verteilung der Teststatistik unter H 0 : T ∼ tn + m − 2 4 ) Signifikanzniveau : α 5 ) Verwerfungsbereich von T :
Zwei-Stichproben t-Test bei ungleichen Varianzen (Welch-Test) In den meisten Fällen erhält man ähnliche P-Werte wie unter der Annahme von gleichen Varianzen.
X 1 ,... , Xn i i d ∼ N ( μX , σ^2 X ) Y 1 ,... , Ym i i d ∼ N ( μY , σ^2 Y )
Zwei-Stichproben Wilcoxon-Test (Mann-Whitney-Test)
X 1 ,... , Xn i i d ∼ FX Y 1 ,... , Ym i i d ∼ FY
Wobei FX eine beliebige Verteilungsfunktion und FY ( x ) = FX ( x − δ ) (d.h. Verteilungen sind identisch aber um δ ver- schoben). Die Berechnung des P-Werts sollte mit dem Com- puter erfolgen.
Gesucht ist eine Liste mit der Eigenschaft P (mindestens ein Fehler 1. Art) ≤ α. Die Bonferroni Korrek- tur setzt das Signifikanzniveau auf (^) mα , wobei m die Anzahl Tests ist. Der Nachteil besteht darin, dass die Liste zu “kon- servativ” sein kann und keine beobachteten Werte mehr enthält.
P
⋃ m i = 1
Fi
∑^ m i = 1
P ( Fi ) =
∑^ m i = 1
α m = α
Aus dem Datensatz soll ein linearer Zusammenhang gefun- den werden. Dabei sind die Fehler um die Gerade herum normal verteilt. Das Modell kann die folgende Form haben:
yi = β 0 + β 1 xi + ǫi , ǫi ∼ N (0, σ^2 ) i i d
Sind die β ’s nicht wie oben linear (z.B. keine exp ( βxi ) oder l og ( β 0 + β 1 xi + ǫi )), so ist das Modell ebenfalls nicht linear. # Datenpunkte = degrees of freedom (dof) + # β ’s Koeffizienten: β ˆ = σ ( β ˆ) ∗ t ( β ˆ) 95%-VI genau: V I ( β ) = β ± td f ,0.975 ∗ σ ( β ) approximativ: V I ( β ) = β ± 2 ∗ σ ( β ) Verwerfungsbereich :
K ( β ) =
−∞, − tn −2,1− α 2
tn −2,1− α 2 , ∞
p-Wert: Bsp: t ( β 0 ) = β 0 / σ ( β 0 ) = −0.419/0.246 = −1. − t 47,1−(p-Wert/2) = −1.7 → t 47,1−(p-Wert/2) = 1.7 → Tabelle t 47,0.95 = 1.7 → p-Wert/2 = 0.05 → p-Wert = 0.
Zeile darunter: β 1
Der Tukey-Anscombe-Plot zeigt die Fehlervarianz über die ganze Breite der Daten an.
Rechtsschief: Median < Erwartungswert, rechts flacher Linksschief: Median > Erwartungswert, links flacher
DISTR: 2nd → VARS
X ∼ Binom( n , π )
DISTR: 2nd → VARS
n x
⇒ n nCr x oder (^) x !( nn −! x )!
Daten müssen in Listen gespeichert werden. z.B.: {15, 8, −1, 2} → L 1 {: 2nd → ( }: 2nd → ) →: STO> Lx : 2nd → STAT (LIST) Freq(1/2) immer = 1 STAT → TESTS