




























Studiuj dzięki licznym zasobom udostępnionym na Docsity
Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium
Przygotuj się do egzaminów
Studiuj dzięki licznym zasobom udostępnionym na Docsity
Otrzymaj punkty, aby pobrać
Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium
Społeczność
Odkryj najlepsze uniwersytety w twoim kraju, według użytkowników Docsity
Bezpłatne poradniki
Pobierz bezpłatnie nasze przewodniki na temat technik studiowania, metod panowania nad stresem, wskazówki do przygotowania do prac magisterskich opracowane przez wykładowców Docsity
METODA NAJMNIEJSZYCH KWADRATÓW DLA INNYCH. ZALEŻNOŚCI FUNKCYJNYCH. Analogicznie można postępować w dopasowaniu innych krzywych przedstawioną metodą ...
Typologia: Schematy
1 / 36
Ta strona nie jest widoczna w podglądzie
Nie przegap ważnych części!
**1. Metoda najmniejszych kwadratów-regresja prostoliniowa
METODA NAJMNIESZYCH
KWADRATÓW
Zakładamy, że: a) niepewność w określaniu x jest zaniedbywalna ; b) każdy
wynik pomiaru yi podlega rozkładowi normalnemu; c) niepewności
wszystkich wartości y mają tę samą wartość: σy.
Prawdziwa wartość yi =A+Bxi (2)
Wynik pomiaru yi podlega rozkładowi normalnemu wyśrodkowanemu wokół swojej prawdziwej wartości z odchyleniem σy, więc prawdopodobieństwo zmierzonej wartości yi wynosi:
Prawdopodobieństwo otrzymania kompletnego zbioru wyników y 1 , …,yN jest iloczynem:
(3)
(4)
gdzie:
(5)
Najlepsze przybliżenie nieznanych stałych A, B uzyskamy, gdy
prawdopodobieństwo jest największe, co odpowiada:
(6)
(7)
stąd otrzymujemy tzw. równania normalne o niewiadomych A i B:
(8)
(9)
rozwiązanie tego układu równań daje:
METODA NAJMNIESZYCH
KWADRATÓW
Różniczkując równanie (4) względem σy, a następnie
przyrównując uzyskaną pochodną do zera, ponadto
uwzględniając fakt, że liczba stopni swobody wynosi w tym
przypadku N-2 (N- niezależnych pomiarów minus dwa
wyznaczone parametry: A i B) , uzyskujemy następujące
wyrażenie na niepewność pomiarów y:
(13)
(4)
METODA NAJMNIESZYCH
KWADRATÓW
DEFINICJA
W obliczeniach statystycznych LICZBA STOPNI SWOBODY wynosi:
liczba niezależnych pomiarów (N) minus liczba parametrów
obliczonych z tych pomiarów
z prawa przenoszenia błędów otrzymujemy:
gdzie Δ dane jest równaniem (12)
(14)
( 15 )
(12)
Dana jest funkcja:
y= f(x; ao, a 1 ,....,am) (1)
zmiennej niezależne x oraz m+1 parametrów ao, a 1 ,....,am. Parametry te są stałe,
które należy wyznaczyć. W tym celu przeprowadza się n pomiarów x i y otrzy-
mując n par (xi, yi) i=1,2,...,n. Wstawiając wartości (xi , yi) do (1) otrzymujemy:
yi = f(xi; ao, a 1 ,....,am) i= 1, 2,..., n (2)
Jeśliby wartości x i y można było wyznaczyć bardzo dokładnie, to do znalezienia
m+1 parametrów wystarczyłoby przeprowadzić m+1 pomiarów. W rzeczywistości
wartości x i y są obarczone błędami, co nie pozwala na dokładne wyznaczenie
prawdziwych wartości tych parametrów. Z reguły przeprowadza się większą liczbę
pomiarów czyli n> m+1. W tym przypadku układ równań (2) jest sprzeczny.
Zadaniem naszym jest dobór takich parametrów ao, a 1 ,....,am aby równania (2)
były spełnione w możliwie najlepszym sposobie (czyli chcemy określić
najbardziej prawdopodobne wartości tych parametrów). Ponieważ. równania (2)
nie są ściśle spełnione, więc:
yi - f(xi; ao, a 1 ,....,am) = i i= 1, 2,..., n (3 )
gdzie i są odchyleniami mierzonych wartości od obliczonych ze wzoru (1).
Zasada najmniejszych kwadratów:
Najbardziej prawdopodobne parametry są takie, dla których
suma kwadratów odchyleń i jest najmniejsza:
(4)
(ogólna zasada) (4)
Wprowadzając oznaczenia:
Układ równań (6) możemy zapisać ( tzw. postać normalna) :
[ o
, o
] a o
+[ o
, 1
] a 1
+...+[ o
, m
] a m
= [y, o
]
[ 1 , o] ao +[ 1 , 1 ] a 1 +...+[ 1 , m] am = [y, 1 ]
.........................................................................
[m, o]ao +[m, 1 ]a 1 +...+[m, m] am = [y, m]
(7)
Jest to układ m+1- równań liniowych z m+1 niewiadomymi: ao, a 1 ,....,am. Ponieważ: [r, s] = [s, r], więc macierz współczynników układu równań (7) jest macierzą symetryczną.
W szczególnym przypadku gdy m=1 oraz o(x) = 1; 1 (x) = x mamy przypadek
regresji prostoliniowej, w której ao = A (odcięta) oraz a 1 = B (nachylenie)
ZMIANA NIEKTÓRYCH PRZYPADKÓW NIELINIOWYCH FUNKCJI
REGRESJI NA LINIOWE
o n n
o o
o n
o o a a
f a a
f a a
f y f x a a a
( , , ,..., )( ) ( ) 2 ... ( )
2
1 1
1 2
Przypadek ogólny:
zmienne: x, y ; parametry: a 1 , a 2 , ..., an
linearyzacja:
Gdzie: przybliżona wartość parametru ai
„Dokładna” wartość ai = (^) +a i
Parametry A i B wyznacza się z próby, czyli są one estymatorami
następujących parametrów zależności:
w populacji generalnej. Stwierdzono, że są one estymatorami nieobciążonymi
i zgodnymi. Obszar ufności dla prostej regresji y=α+βx, ograniczony tzw.
k rzywymi ufności , wyznacza się ze wzoru:
Gdzie oznacza wartość funkcji , wyznaczonej ze wzorów (10), (11)
oznacza wartość szacowanej funkcji regresji y= α +βx, tγ jest wartością zmiennej o
rozkładzie t-Studenta, wyznaczonej dla określonego 1-γ poziomu ufności dla k=N-
stopni swobody oraz:
Gdzie sr jest odchyleniem przeciętnym
do prostej regresji, obliczanym ze wzoru:
(21)
(22)
(23)
Obszar ufności dla prostej regresji y=α+βx, ograniczony tzw. k rzywymi ufności
wyznacza się ze wzoru:
(21)