Docsity
Docsity

Przygotuj się do egzaminów
Przygotuj się do egzaminów

Studiuj dzięki licznym zasobom udostępnionym na Docsity


Otrzymaj punkty, aby pobrać
Otrzymaj punkty, aby pobrać

Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium


Informacje i wskazówki
Informacje i wskazówki

wykład 8 analiza regresji, Schematy z Analiza regresji

METODA NAJMNIEJSZYCH KWADRATÓW DLA INNYCH. ZALEŻNOŚCI FUNKCYJNYCH. Analogicznie można postępować w dopasowaniu innych krzywych przedstawioną metodą ...

Typologia: Schematy

2022/2023

Załadowany 24.02.2023

Elzbieta84
Elzbieta84 🇵🇱

4.5

(78)

271 dokumenty

1 / 36

Toggle sidebar

Ta strona nie jest widoczna w podglądzie

Nie przegap ważnych części!

bg1
WYKŁAD 8
ANALIZA REGRESJI
Regresja
1. Metoda najmniejszych kwadratów-regresja prostoliniowa
2. Regresja krzywoliniowa
3. Estymacja liniowej funkcji regresji
4. Testy istotności współczynnika regresji liniowej
5. Zamiana przypadków nieliniowych na liniowe
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24

Podgląd częściowego tekstu

Pobierz wykład 8 analiza regresji i więcej Schematy w PDF z Analiza regresji tylko na Docsity!

WYKŁAD 8

ANALIZA REGRESJI

Regresja

**1. Metoda najmniejszych kwadratów-regresja prostoliniowa

  1. Regresja krzywoliniowa
  2. Estymacja liniowej funkcji regresji
  3. Testy istotności współczynnika regresji liniowej
  4. Zamiana przypadków nieliniowych na liniowe**

METODA NAJMNIEJSZYCH KWADRATÓW

METODA NAJMNIEJSZYCH KWADRATÓW

METODA NAJMNIEJSZYCH KWADRATÓW

METODA NAJMNIESZYCH

KWADRATÓW

y=A+Bx (1)

Zakładamy, że: a) niepewność w określaniu x jest zaniedbywalna ; b) każdy

wynik pomiaru yi podlega rozkładowi normalnemu; c) niepewności

wszystkich wartości y mają tę samą wartość: σy.

Prawdziwa wartość yi =A+Bxi (2)

Wynik pomiaru yi podlega rozkładowi normalnemu wyśrodkowanemu wokół swojej prawdziwej wartości z odchyleniem σy, więc prawdopodobieństwo zmierzonej wartości yi wynosi:

Prawdopodobieństwo otrzymania kompletnego zbioru wyników y 1 , …,yN jest iloczynem:

(3)

(4)

gdzie:

(5)

METODA NAJMNIESZYCH KWADRATÓW

Najlepsze przybliżenie nieznanych stałych A, B uzyskamy, gdy

prawdopodobieństwo jest największe, co odpowiada:

(6)

(7)

stąd otrzymujemy tzw. równania normalne o niewiadomych A i B:

(8)

(9)

rozwiązanie tego układu równań daje:

METODA NAJMNIESZYCH

KWADRATÓW

Różniczkując równanie (4) względem σy, a następnie

przyrównując uzyskaną pochodną do zera, ponadto

uwzględniając fakt, że liczba stopni swobody wynosi w tym

przypadku N-2 (N- niezależnych pomiarów minus dwa

wyznaczone parametry: A i B) , uzyskujemy następujące

wyrażenie na niepewność pomiarów y:

(13)

(4)

METODA NAJMNIESZYCH

KWADRATÓW

DEFINICJA

W obliczeniach statystycznych LICZBA STOPNI SWOBODY wynosi:

liczba niezależnych pomiarów (N) minus liczba parametrów

obliczonych z tych pomiarów

z prawa przenoszenia błędów otrzymujemy:

gdzie Δ dane jest równaniem (12)

(14)

( 15 )

(12)

METODA NAJMNIEJSZYCH KWADRATÓW

(ogólna zasada) (1)

Dana jest funkcja:

y= f(x; ao, a 1 ,....,am) (1)

zmiennej niezależne x oraz m+1 parametrów ao, a 1 ,....,am. Parametry te są stałe,

które należy wyznaczyć. W tym celu przeprowadza się n pomiarów x i y otrzy-

mując n par (xi, yi) i=1,2,...,n. Wstawiając wartości (xi , yi) do (1) otrzymujemy:

yi = f(xi; ao, a 1 ,....,am) i= 1, 2,..., n (2)

Jeśliby wartości x i y można było wyznaczyć bardzo dokładnie, to do znalezienia

m+1 parametrów wystarczyłoby przeprowadzić m+1 pomiarów. W rzeczywistości

wartości x i y są obarczone błędami, co nie pozwala na dokładne wyznaczenie

prawdziwych wartości tych parametrów. Z reguły przeprowadza się większą liczbę

pomiarów czyli n> m+1. W tym przypadku układ równań (2) jest sprzeczny.

METODA NAJMNIEJSZYCH KWADRATÓW

(ogólna zasada) (2)

Zadaniem naszym jest dobór takich parametrów ao, a 1 ,....,am aby równania (2)

były spełnione w możliwie najlepszym sposobie (czyli chcemy określić

najbardziej prawdopodobne wartości tych parametrów). Ponieważ. równania (2)

nie są ściśle spełnione, więc:

yi - f(xi; ao, a 1 ,....,am) =i i= 1, 2,..., n (3 )

gdzie i są odchyleniami mierzonych wartości od obliczonych ze wzoru (1).

Zasada najmniejszych kwadratów:

Najbardziej prawdopodobne parametry są takie, dla których

suma kwadratów odchyleńi jest najmniejsza:

(4)

METODA NAJMNIEJSZYCH KWADRATÓW

(ogólna zasada) (4)

Wprowadzając oznaczenia:

Układ równań (6) możemy zapisać ( tzw. postać normalna) :

[ o

,  o

] a o

+[ o

,  1

] a 1

+...+[ o

,  m

] a m

= [y,  o

]

[ 1 , o] ao +[ 1 ,  1 ] a 1 +...+[ 1 , m] am = [y,  1 ]

.........................................................................

[m, o]ao +[m,  1 ]a 1 +...+[m, m] am = [y, m]

(7)

Jest to układ m+1- równań liniowych z m+1 niewiadomymi: ao, a 1 ,....,am. Ponieważ: [r, s] = [s, r], więc macierz współczynników układu równań (7) jest macierzą symetryczną.

W szczególnym przypadku gdy m=1 oraz o(x) = 1;  1 (x) = x mamy przypadek

regresji prostoliniowej, w której ao = A (odcięta) oraz a 1 = B (nachylenie)

ZMIANA NIEKTÓRYCH PRZYPADKÓW NIELINIOWYCH FUNKCJI

REGRESJI NA LINIOWE

y  f ( x , a 1 , a 2 ,..., an )

o n n

o o

o n

o o a a

f a a

f a a

f y f x a a a 

    

   

  ( , , ,..., )( ) ( ) 2 ... ( )

2

1 1

1 2

Przypadek ogólny:

zmienne: x, y ; parametry: a 1 , a 2 , ..., an

linearyzacja:

Gdzie: przybliżona wartość parametru ai

„Dokładna” wartość ai = (^) +a i

ESTYMACJA LINIOWEJ FUNKCJI REGRESJI

y=A+Bx

Parametry A i B wyznacza się z próby, czyli są one estymatorami

następujących parametrów zależności:

y=α+βx

w populacji generalnej. Stwierdzono, że są one estymatorami nieobciążonymi

i zgodnymi. Obszar ufności dla prostej regresji y=α+βx, ograniczony tzw.

k rzywymi ufności , wyznacza się ze wzoru:

Gdzie oznacza wartość funkcji , wyznaczonej ze wzorów (10), (11)

oznacza wartość szacowanej funkcji regresji y= α +βx, tγ jest wartością zmiennej o

rozkładzie t-Studenta, wyznaczonej dla określonego 1-γ poziomu ufności dla k=N-

stopni swobody oraz:

Gdzie sr jest odchyleniem przeciętnym

do prostej regresji, obliczanym ze wzoru:

(21)

(22)

(23)

ESTYMACJA LINIOWEJ FUNKCJI REGRESJI

y=A+Bx

Obszar ufności dla prostej regresji y=α+βx, ograniczony tzw. k rzywymi ufności

wyznacza się ze wzoru:

(21)