Docsity
Docsity

Przygotuj się do egzaminów
Przygotuj się do egzaminów

Studiuj dzięki licznym zasobom udostępnionym na Docsity


Otrzymaj punkty, aby pobrać
Otrzymaj punkty, aby pobrać

Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium


Informacje i wskazówki
Informacje i wskazówki

Analiza błędów pomiarowych w naukach przyrodniczych, Skrypty z Chimica Fisica

Podstawowe informacje związane z dokładnościami pomiarowymi, metodami ich wyznaczania i analizy

Typologia: Skrypty

2019/2020

Załadowany 22.09.2020

Helena_84
Helena_84 🇵🇱

4.7

(43)

396 dokumenty

1 / 31

Toggle sidebar

Pobierz cały dokument

poprzez zakup abonamentu Premium

i zdobądź brakujące punkty w ciągu 48 godzin

bg1
Analiza błędów pomiarowych
W naukach przyrodniczych kluczową rolę w weryfikacji wszelkich hipotez i teorii
naukowych odgrywa eksperyment i jego wynik. Częstokroć pojedynczy wynik
eksperymentalny leży u podstaw nowych teorii i odrzucenia dotychczasowych wyobrażeń o
danym zjawisku, czy wręcz wyobrażenia o otaczającym nas świecie. Ale aby eksperyment
naukowy mógł spełniać tak ważną rolę konieczna jest znajomość dokładności z jaką został on
wykonany. Warto zdać sobie sprawę z faktu, że wszelkie wielkości fizyczne wyznaczone
doświadczalnie, określone zostały z mniejszą lub większą dokładnością, nawet te podawane w
tablicach fizykochemicznych jako stałe podstawowe, powszechnie uznane za wielkości
„prawdziwe” i wykorzystywane we wzorach częstokroć bez wnikania jaka jest ich
dokładność. Od wieków wyznaczenie „prędkości” (a w zasadzie szybkości) światła zaprzątało
umysły naukowców próbujących dokonać jej pomiaru. Począwszy od prób Galileusza, który
nieudanie próbował dokonać tego pomiaru mierząc opóźnienie z jakim światło pokonuje
drogę pomiędzy obserwatorami na szczytach sąsiednich wzgórz, poprzez obserwacje
zaćmienia jednego z księżycy Jowisza, Io, wykonane przez Römera w 1675 r., których
konkluzją było przypisanie światłu skończonej prędkości czy coraz dokładniejsze pomiary
pomysłowych eksperymentów Fitzeau (1849 r.), Foucaulta (1850 r.) czy Michelsona (lata
1880-1930) prędkość z jaką przemieszcza się fala świetna określano coraz dokładniej. W
chwili obecnej podawana w tablicach fizykochemicznych wartość prędkości światła w próżni
(c = 299 792 458 m/s) jest określana jako wartość dokładna, czyli nie obarczona błędem. Czy
obecnie zaakceptowana wartość jest więc wyznaczona z nieograniczoną dokładnością?
Oczywiście, że nie, choć jednocześnie osiągnięta dokładność jest na tyle duża, że od 1983 r.
przyjęta wartość prędkości światła w próżni stanowi podstawę definicji metra.
W niniejszym rozdziale przedstawione zostaną podstawowe informacje związane z
dokładnościami pomiarowymi, metodami ich wyznaczania i analizy.
Pomiar
Podstawowym celem eksperymentu naukowego, niezależnie od tego czy
przeprowadza go z dużą dokładnością naukowiec, stosujący bardzo precyzyjną i
skomplikowana aparaturę, czy też student w trakcie zajęć laboratoryjnych jest dokonanie
pomiaru wielkości fizycznej, czyli wyznaczenie jej wartości (podanie wartości liczbowej wraz
z jednostką) i określenie dokładności z jaką pomiar został wykonany. Wartości różnych
wielkości uzyskuje się z pomiarów bezpośrednich bądź pośrednich. W pomiarze
bezpośrednim często odczytuje się wynik wprost ze wskazania przyrządu, przeważnie
1
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f

Podgląd częściowego tekstu

Pobierz Analiza błędów pomiarowych w naukach przyrodniczych i więcej Skrypty w PDF z Chimica Fisica tylko na Docsity!

Analiza błędów pomiarowych W naukach przyrodniczych kluczową rolę w weryfikacji wszelkich hipotez i teorii naukowych odgrywa eksperyment i jego wynik. Częstokroć pojedynczy wynik eksperymentalny leży u podstaw nowych teorii i odrzucenia dotychczasowych wyobrażeń o danym zjawisku, czy wręcz wyobrażenia o otaczającym nas świecie. Ale aby eksperyment naukowy mógł spełniać tak ważną rolę konieczna jest znajomość dokładności z jaką został on wykonany. Warto zdać sobie sprawę z faktu, że wszelkie wielkości fizyczne wyznaczone doświadczalnie, określone zostały z mniejszą lub większą dokładnością, nawet te podawane w tablicach fizykochemicznych jako stałe podstawowe, powszechnie uznane za wielkości „prawdziwe” i wykorzystywane we wzorach częstokroć bez wnikania jaka jest ich dokładność. Od wieków wyznaczenie „prędkości” (a w zasadzie szybkości) światła zaprzątało umysły naukowców próbujących dokonać jej pomiaru. Począwszy od prób Galileusza, który nieudanie próbował dokonać tego pomiaru mierząc opóźnienie z jakim światło pokonuje drogę pomiędzy obserwatorami na szczytach sąsiednich wzgórz, poprzez obserwacje zaćmienia jednego z księżycy Jowisza, Io, wykonane przez Römera w 1675 r., których konkluzją było przypisanie światłu skończonej prędkości czy coraz dokładniejsze pomiary pomysłowych eksperymentów Fitzeau (1849 r.), Foucaulta (1850 r.) czy Michelsona (lata 1880-1930) prędkość z jaką przemieszcza się fala świetna określano coraz dokładniej. W chwili obecnej podawana w tablicach fizykochemicznych wartość prędkości światła w próżni ( c = 299 792 458 m/s) jest określana jako wartość dokładna, czyli nie obarczona błędem. Czy obecnie zaakceptowana wartość jest więc wyznaczona z nieograniczoną dokładnością? Oczywiście, że nie, choć jednocześnie osiągnięta dokładność jest na tyle duża, że od 1983 r. przyjęta wartość prędkości światła w próżni stanowi podstawę definicji metra. W niniejszym rozdziale przedstawione zostaną podstawowe informacje związane z dokładnościami pomiarowymi, metodami ich wyznaczania i analizy.

Pomiar Podstawowym celem eksperymentu naukowego, niezależnie od tego czy przeprowadza go z dużą dokładnością naukowiec, stosujący bardzo precyzyjną i skomplikowana aparaturę, czy też student w trakcie zajęć laboratoryjnych jest dokonanie pomiaru wielkości fizycznej, czyli wyznaczenie jej wartości (podanie wartości liczbowej wraz z jednostką) i określenie dokładności z jaką pomiar został wykonany. Wartości różnych wielkości uzyskuje się z pomiarów bezpośrednich bądź pośrednich. W pomiarze bezpośrednim często odczytuje się wynik wprost ze wskazania przyrządu, przeważnie

wyskalowanego w jednostkach mierzonej wielkości. Przyrządy mogą być różnorodne, na przykład wagi, mierniki elektryczne, spektrometry, liczniki cząstek promieniowania. Częstokroć używanie przyrządów pomiarowych wymaga stosowania wzorców miar, jak np. odważniki, pojemniki miarowe (cylindry, pipety), przymiary (linijka, suwmiarka). Sposób wykonania pomiaru jest oparty na określonej metodyce, którą nazywamy metodą pomiarową. Na przykład pomiar prędkości może być oparty na zjawisku Dopplera, a temperaturę można mierzyć na podstawie zjawiska termoelektrycznego. Wśród metod pomiarowych szczególne znaczenie mają metody bezpośrednie, oparte na prawach fizycznych dających się wyrazić przez podstawowe stałe ( c, G, h, k, F, N A...) i podstawowe wielkości (długość l , czas t , masa m , temperatura T , prąd elektryczny I , światłość Iv , ilość substancji n ). W pomiarze pośrednim wartość określonej wielkości jest oznaczana na podstawie bezpośrednich pomiarów innych wielkości. Wynik pomiaru oblicza się używając wzoru wiążącego wielkość oznaczaną i wielkości mierzone. Na przykład gęstość substancji oblicza się na podstawie zmierzonych wartości masy i objętości. Pomiar pośredni często nazywa się oznaczaniem.

Prezentacja wyniku pomiaru Warto w tym momencie zwrócić uwagę na prawidłowy sposób prezentacji uzyskanego wyniku pomiarowego. Symbole wielkości piszemy czcionką pochyłą (kursywą), również ich indeksy górne i dolne, jeżeli są symbolami wielkości. Natomiast liczby i jednostki, a także symbole pierwiastków i cząstek elementarnych, piszemy czcionką prostą. Do nielicznych wyjątków należy symbol pH. Wielkości mianowane, prezentujemy jako wartości liczbowe, wskazujące ile razy zmierzona wartość jest większa od jednostki, wraz z podaniem miana jednostki. Stosowane mogą być różnorodne przeliczniki jednostek, choć należy dążyć do posługiwania się jednolitym systemem jednostek zwanym układem SI (franc. Systeme International d’Unites), wywodzącym się jeszcze z czasów Wielkiej Rewolucji Francuskiej. Częstokroć jednak, tradycyjny w danej dziedzinie sposób prezentacji wyników jest nie tylko wymagany, ale i najbardziej czytelny. Np. wiele metod spektroskopowych wykorzystuje odmienny sposób charakteryzowania fali elektromagnetycznej poczynając od określania częstości fal radiowych

( ν/Hz), liczb falowych fal w zakresie podczerwieni ( k /cm-1), długości fali w zakresie UV i

widzialnym ( λ/nm) czy jednostek energii promieniowania jonizującego ( E /eV).

Z innym przykładem możemy się spotkać przy podawaniu wyniku pomiaru szybkości: v = 72 km/h lub v = 20 m/s,

wykorzystania wartości poprawnej. W dalszej części niniejszego rozdziału będziemy się posługiwali pojęciem wartości prawdziwej jako głównego celu pomiaru eksperymentalnego. Kilka ważnych czynników wpływa na poprawność estymacji, a do najważniejszych należą błędy pomiarowe. Przede wszystkim mogą to być popełnione przez eksperymentatora ewidentne błędy, tzw. błędy grube. Błędy grube pochodzą z pomyłek eksperymentatora, niezauważonych przez niego niesprawności przyrządów i niewłaściwych warunków pomiaru. Błędy grube pojawiają się, gdy eksperymentator nieprawidłowo odczyta wskazania przyrządu, źle zanotuje liczby lub jednostki, pomyli się w obliczeniach, wykorzysta niewłaściwe dane literaturowe itp. Jedną z przyczyn błędów grubych u początkujących eksperymentatorów jest przesadne zaufanie do sprawnego działania przyrządów i niestaranne prowadzenie notatek laboratoryjnych. Rażąco duże błędy grube dają się łatwo wykryć i usunąć. Drugą grupę stanowią błędy systematyczne. Błędy systematyczne pochodzą z niesprawności przyrządów pomiarowych, niepoprawnej ich kalibracji ( skalowania ), nieidentyczności warunków pomiaru (temperatury, ciśnienia, wilgotności, zasilania przyrządu itp.) z warunkami kalibracji przyrządów, a także indywidualnych cech eksperymentatora i nieścisłości wzorów obliczeniowych. Typowymi przykładami źródeł takich błędów mogą być np. późniący się stoper lub błędny odczyt wyniku z miernika. Każdy eksperymentator ma indywidualny sposób wykonywania pomiaru, np. odczytu wskazań przyrządów, przez co wpływa na powstanie błędu systematycznego. Błąd systematyczny rzadko bywa stały, czyli niezależny od mierzonej wielkości. Może być złożoną funkcją wielkości. Błąd ten nie wynika z niestaranności eksperymentatora, jak błąd gruby, ale jest zależny od jego umiejętności manualnych i doświadczenia. Ocena wartości błędów systematycznych wymaga analizy wszystkich czynników aparaturowych i osobowych wpływających na wynik pomiaru. Można je w istotny sposób ograniczać wykonując pomiary metodami porównawczymi (różnicowymi, kompensacyjnymi) w stosunku do wzorców, o znanych wartościach poprawnych. Najważniejszą grupę stanowią jednak tzw. błędy przypadkowe. Charakteryzują się tym, że w serii pozornie identycznych powtórzeń pomiaru tej samej wartości mierzonej błędy te mogą być dodatnie, i ujemne, a także małe i duże. Powstają pod wpływem wielu czynników, których praktycznie nie daje się przewidzieć. Przyczyną błędów przypadkowych są niewielkie fluktuacje (wahania wokół wartości przeciętnej) temperatury, ciśnienia, wilgotności i innych parametrów zarówno w przyrządach pomiarowych i ich częściach, jak i w badanych obiektach, gdyż próbki użyte do kolejnych powtórzeń pomiaru mogą mieć

przypadkowo nieznacznie różne własności fizyczne i chemiczne. Również chwilowe zmiany przyzwyczajeń eksperymentatora, wynikające nawet z jego nastroju, mogą być przyczyną błędów przypadkowych. Błędy przypadkowe Δ x podlegają prawom statystyki matematycznej i dlatego bywają także nazwane błędami statystycznymi lub losowymi. Konsekwencją przypadkowości tych błędów jest możliwość ich opisania, a także przewidywania ich wartości za pomocą analizy statystycznej wyników wielokrotnie powtórzonych pomiarów. O ile nazwa błąd pomiarowy, jest synonimem „pomyłki“ w przypadku błędów grubych i systematycznych, o tyle błąd przypadkowy jest nierozerwalnie związany z istotą pomiaru i oznacza niemożliwą do uniknięcia niepewność pomiarową. Koniecznym jest więc określenie jednoznacznych reguł pozwalających tę wielkość oszacować (estymować), podobnie jak ma to miejsce w przypadku estymacji wartości mierzonej wielkości.

Niepewności pomiarowe (błędy przypadkowe) W dalszej części tego rozdziału zajmiemy się analizą przypadkowych niepewności pomiarowych. Mają one decydujący wpływ na określenie dokładności i precyzji pomiarów, a więc i dokładności eksperymentu naukowego. Pojęcie dokładności odnosi się zarówno do wyniku pomiaru – wartości zmierzonej, jak i do przyrządu lub metody pomiarowej. Wartość zmierzona jest dokładna, jeżeli jest zgodna z wartością prawdziwą mierzonej wielkości. Jest to oczywiście nieosiągalny ideał, ponieważ wszystkie zmierzone wartości są bardziej lub mniej niedokładne. Jednakże analiza błędów pomiarowych może wykazać, że jedne wartości są dokładniejsze od innych. Podobnie charakteryzujemy przyrządy i metody pomiarowe jako bardziej lub mniej dokładne. Niektórym przyrządom przypisuje się umowne klasy dokładności. Na dokładność pomiarową składają się zarówno błędy przypadkowe jak i systematyczne. Pojęcie precyzji jest związane z błędami przypadkowymi i odnosi się zarówno do wartości zmierzonych, jak i do przyrządów lub metod pomiarowych. Precyzja przyrządu lub metody pomiarowej zależy od pewnej przeciętnej wartości błędu przypadkowego, którym jest obarczony każdy wynik pomiaru. Wynik pomiaru otrzymany metodą bardzo precyzyjną ma mały błąd przypadkowy, zaś otrzymany metodą mniej precyzyjną ma większy błąd przypadkowy. Błędy pomiarów podaje się jako bezwzględne lub względne. Błąd bezwzględny jest wartością bezwzględną różnicy wartości zmierzonej i wartości prawdziwej, i jest miarą odchylenia wyniku pomiarowego od wartości prawdziwej:

x 3 ... xn ) część wyników może ulec powtórzeniu, zbiór różniących się wartości pozwala nam ocenić zarówno wartość prawdziwą mierzonej wielkości x , jak i niepewność pomiarową, na podstawie rozrzutu, rozproszenia (wariancji) otrzymanych wyników. Najczęściej używanym przybliżeniem wielkości prawdziwej jest średnia arytmetyczna wyników z próby:

n

x x

n

= ∑ i =^1 i

Najczęściej używaną miarą niepewności pomiarowej (miarą rozproszenia wyników) jest z kolei wariancja ( S^2 ) lub odchylenie standardowe z próby ( S ):

1

( )^2 2 1 −

n

x x S

n i i 1

( )^2

1 −

n

x x S

n i i

Przykład liczbowy: obliczanie średniej arytmetycznej i odchylenia standardowego; 10 pomiarów dało następujące wyniki:8,5; 9,1; 9,2; 10,1; 10,4; 11,4; 11,6; 11,8; 12,3; 12, xi (^) xi - x ( xi - x )^2 xi^2 8,5 -2,2 4,84 72, 9,1 -1,6 2,56 82, 9,2 -1,5 2,25 84, 10,1 -0,6 0,36 102, 10,4 -0,3 0,09 108, 11,4 0,7 0,49 129, 11,6 0,9 0,81 134, 11,8 1,1 1,21 139, 12,3 1,6 2,56 151, 12,6 1,9 3,61 158,

n i i

x 1

1

x x

n i i^

=

1

( x x )

n i i^

=

=

n i i

x 1

Uwaga: 2 1

( x x )

n i i^

=

= ∑ - n

=

n i i

x 1

(^2) x (^2) = 1163,68 – 10*(10,7) (^2) = 18,

Średnia (^) n

x x

n

= ∑ i =^1 i = 10,7; odchylenie standardowe

( )^2

1 −

n

x x S

n i i = 1,

Wyniki przedstawione w tabeli wyraźnie pokazują, że średnia arytmetyczna jest dobrą miara wielkości przeciętnej, wokół której skupione są otrzymane wartości. Suma odchyleń

wartości xi od średniej x , zgodnie z definicją średniej arytmetycznej, wynosi zero. Część uzyskanych wartości xi jest większa niż średnia, część mniejsza. W rezultacie odchylenie średnie nie może być wykorzystane jako miara rozproszenia tych wartości. Taką miarę można jednak uzyskać licząc sumę kwadratów tych odchyleń i normalizując w zależności od liczby

analizowanych wartości. Z tabeli wyraźnie jednak widać, że przedział x ± S nie obejmuje wszystkich przedstawionych w tabeli wartości. Czy możemy w takim razie uznać S za miarę niepewności pomiarowej?

Rozkład normalny W celu uzyskana interpretacji odchylenia standardowego rozpatrzmy najważniejszy (z punktu widzenia praktycznych i teoretycznych zastosowań) rozkład prawdopodobieństwa: rozkład normalny (zwany też rozkładem Gaussa). Funkcja gęstości prawdopodobieństwa rozkładu normalnego posiada postać:

2

2 2

( )

( )^1 σ

x m

fm x e

−^ −

gdzie m – jest wartością oczekiwaną (zwaną też wartością średnią), a σ - odchyleniem

standardowym zmiennej losowej podlegającej temu rozkładowi. Jest ona znormalizowana:

+∞ −∞

f ( x )⋅ dx = 1

co oznacza, że prawdopodobieństwo znalezienia x w całym zakresie od -∞ do +∞ wynosi 100%, a pole powierzchni pod wykresem funkcji wynosi 1.

Podstawienie u = ( x – m )/ σ pozwala dokonać zmiany zmiennych: x , który podlega

rozkładowi normalnemu N( m , σ) na zmienną u , która podlega standaryzowanemu rozkładowi

normalnemu N(0,1). Korzystając z powyższego podstawienia i dokonując zmiany granic całkowania możemy prawdopodobieństwo P{ a < x < b } wyrazić za pomocą wartości dystrybuanty, znalezionych w tablicach dystrybuanty rozkładu N(0,1):

{ } ( )^1

0 , 1

2 2

( ) ,

2 2

2

σ

σ

σ

σ

σ σ

f u du P a m u b m F b m F a^ m

Pa x b f x dx e dx e du

bm

am

bm

a m

b u a

b xm a

m

⋅ = − < < − = − −^ −

− − −

Przykład do rysunku 3: x : N(4,2) ⇒ u : N(0,1); P{6 < x < 8} = P{1 < u < 2}- pola zacieniowane na rys. 3

0,0 -4 -2 0 2 4 6 8 10

0,

0,

0,

0,4 (^) f(x)

x

N(0,1)

N(4,2)

Rys. 3 Normalizacja rozkładu normalnego N(4,2) do standaryzowanego rozkładu normalnego N(0,1). Zacieniowane pole określa obszary równego prawdopodobieństwa w obu rozkładach

W szczególności prawdopodobieństwo uzyskania wielkości x w zakresie ± σ od wartości

oczekiwanej m wynosi:

P{ m - σ < x < m + σ} ≈ 0,

Załóżmy, że wyniki serii pomiarów eksperymentalnych wielkości x podlegają takiemu

właśnie rozkładowi normalnemu N( m , σ). Ciągła funkcja rozkładu oznacza, że mógłby on

zostać osiągnięty w wyniku wykonania nieskończonej ilości pomiarów wielkości fizycznej x , której prawdziwa wartość wynosi m , a pomiar podlega wpływowi tylko błędów

przypadkowych, czyli obarczony jest określoną niepewnością pomiarową. Jej miarą jest σ.

Czy rzeczywiście możemy uznać taką interpretację za wiarygodną? Stosunkowo łatwo jest zaakceptować fakt, że wykresy ( histogramy ) opisujące zbiory skończone (o ograniczonej liczbie wartości np. n pomiarów x 1 , x 2 , x 3 ... xn ) będą dążyły wraz ze wzrostem ilości pomiarów do wykresów granicznych opisywanych funkcjami ciągłymi.

ni / f ( x )

x Rys. 4 Histogram skończonego zbioru wyników z dopasowaną funkcją gęstości prawdopodobieństwa rozkładu normalnego

Trudniej się jednak pogodzić z faktem, że rozkłady ciągłe jedynie asymptotycznie dążą do zera (czyli w przypadku rozkładu normalnego funkcja gęstości prawdopodobieństwa nie osiąga wartości 0 w całym przedziale od - ∞ do +∞). A to oznacza określone prawdopodobieństwo uzyskania wyniku pomiaru skrajnie odbiegającego od wielkości prawdziwej. Faktycznie jednak funkcje gęstości prawdopodobieństwa są funkcjami szybko zbieżnymi do zera i na ogół, poza pewnym wąskim przedziałem, prawdopodobieństwo otrzymania wyniku staje się znikomo małe.

40 60 80 100 120 140

f(x)

x

40 60 80 100 120 140

n (^) i

n (^) i

x

f(x)

x 1 x 2 xn

x

Rys. 5 Porównanie rozkładu zmiennej x (wykres górny) i rozkładu średniej (wykres dolny). Na wykresie zaprezentowano odpowiednie histogramy i funkcje gęstości prawdopodobieństwa rozkładu normalnego. Punkty x 1 , x 2 .... xn reprezentują przykładowy zbiór wyników serii n pomiarów zmiennej x ; x średnia serii

Zastanówmy się obecnie nad prostym pytaniem o rozkład wartości średniej. Załóżmy,

że wyniki serii pomiarów eksperymentalnych podlegają rozkładowi normalnemu N( m , σ).

Dokonując serii n pomiarów oczekujemy, że ich wyniki ułożą się zgodnie z funkcją gęstości prawdopodobieństwa danego rozkładu. Można więc oczekiwać, że największa liczba wyników skupiona będzie wokół wartości oczekiwanej m , choć znajdziemy wśród nich wartości mniejsze i większe, oraz odbiegające mniej lub bardziej od wartości oczekiwanej m. Jednakże licząc wartość średnią wyników serii pomiarowej możemy spodziewać się, że wartość ta będzie po pierwsze odbiegać znacznie mniej od wartości oczekiwanej m , niż skrajne wyniki pojedynczych pomiarów, a po drugie tym bardziej będzie zbliżona do m , im więcej wyników jest do tej wartości zbliżonych. Im więcej pomiarów wykonamy w celu policzenia z nich wartości średniej tym jej odchylenie od wartości oczekiwanej m powinno być mniejsze. Jednocześnie wykonując kilkanaście takich serii pomiarowych nie oczekujemy, że policzone wartości średnie będą identyczne, ale raczej, że podlegać będą również rozkładowi. Rozkład wartości średniej będzie oczywiście skupiony wokół tej samej wartości

oczekiwanej m , co rozkład pojedynczego pomiaru, ale wariancja wartości średniej będzie znacznie mniejsza.

Można wykazać, że jeżeli x podlega rozkładowi normalnemu N( m , σ), to x podlega

rozkładowi normalnemu N( m , σ n^ ). Co więcej, niezależnie od rozkładu wielkości x (może to

być rozkład opisywany dowolną funkcją gęstości prawdopodobieństwa, ze skończoną średnią

i wariancją), graniczny rozkład średniej arytmetycznej x (dla dużej ilości pomiarów, n > 50)

będzie rozkładem normalnym N( m , σ n^ ). Jest to kolejny argument podkreślający ważność

rozkładu normalnego i nosi nazwę twierdzenia Lindeberga-Levy’ego.

n =

f(x)

f(x)

n =

n =

Rys. 6 Rozkłady średnich f( x ) uzyskiwanych z serii 2, 8 lub 50 pomiarów zmiennej x podlegającej rozkładowi f(x)

Podsumujmy, jakie wnioski wynikają z powyższych rozważań. Po pierwsze uzasadniają one wybór średniej jako wartości poprawnej, czyli najlepszego przybliżenia wartości prawdziwej. Po drugie, przybliżenie to jest tym dokładniejsze (obarczone mniejszym błędem) im większa liczba pomiarów została wykonana. W granicznym przypadku nieskończonej ilości pomiarów doszlibyśmy do prawdziwej wartości mierzonej wielkości fizycznej. W praktyce trzeba sobie jednak zdawać sprawę z faktu, że nasze wcześniejsze założenie o braku błędów systematycznych jest obrazem wyidealizowanym. O ile

P{ x - u α^ σ n^ < m < x + u α^ σ n^ }= 1- α ⇐

P{- u α < u < u α} = 2F( u α)-1 = 1- α

n

m ∈ x ± u^ α^ σ

Przekształcenia:

P{- u α < u < u α} = 2F( u α)-1 = 1- α

u = ( x - m )⋅ n / σ

P{- u α < x^ − σ m ⋅ n < u α} = 1- α | ⋅σ / n

P{- uα n

σ (^) < (^) xm < uα n

σ } = 1- α | - x ; ⋅(-1)

P{ x - u α n

σ (^) < m < x + u α n

dla wybranego 1- α ⇒ u α

np. 1- α = 0,95 ⇒ u α = 1,

-u α 0 u α

1-α

f(x)

Rys. 7 Sposób znajdywania wartości u α przy konstrukcji przedziałów ufności

W rezultacie otrzymaliśmy przedział ufności, w którym wartość prawdziwa m jest

zawarta z prawdopodobieństwem 1- α.

n

m ∈ x ± u^ α^ σ

Wielkość 1- α nazywamy współczynnikiem ufności , a stworzony dla wybranego

współczynnika przedział nazywamy przedziałem ufności. Wartość 1- α przyjmuje się

subiektywnie, jako dowolnie duże, bliskie 1, prawdopodobieństwo. Jest ono miarą zaufania

do prawidłowego szacunku. Najczęściej wybierane wartości 1- α to 0,95 lub 0,99, a

znalezione dla nich wartości u α wynoszą odpowiednio 1,96 i 2,575. Zaletą estymacji przedziałowej w postaci przedziałów ufności jest precyzyjne określenie niepewności pomiarowej poprzez wyznaczenie granic przedziału, w którym mierzona wartość prawdziwa jest zawarta z określonym prawdopodobieństwem. Warto

zwrócić uwagę na fakt, że precyzja estymacji przedziałowej zależy od dwóch czynników:

wybranego współczynnika ufności 1- α (wpływ na wartość u α) i liczby wykonanych

pomiarów, n. Wymagając większego poziomu ufności w wykonane oznaczenie, przedział ufności ulega poszerzeniu (wzrasta wartość u α). Można jednak temu przeciwdziałać zwiększając liczbę pomiarów. W rezultacie można z góry zaplanować liczbę pomiarów niezbędnych do osiągnięcia określonej precyzji (zwanej często maksymalnym błędem szacunku , d - równym połowie wyznaczonego przedziału):

m ∈( x ± d ), gdzie d = u α^ σ n

stąd dla pożądanego d należy wykonać co najmniej n pomiarów:

2

2 2 d n > u α^ ⋅^ σ

Podkreślmy jednak po raz kolejny, że tego typu działania prowadzące do zwiększenia precyzji pomiarowej są skuteczne jedynie w odniesieniu do błędów przypadkowych.

Nie wspomnieliśmy jednak do tej pory jaką wartość σ wykorzystać we wzorze na

przedział ufności. Możemy sobie wyobrazić sytuację, że wariancja wyników pomiarowych σ^2

jest znana mimo, że przystępujemy do pomiaru nieznanej wielkości. Tak może się zdarzyć jeżeli dysponujemy właściwie skalibrowanym układem pomiarowym, np. poprzez wykonanie podobnych pomiarów wielkości fizycznych, których wartość prawdziwa jest znana. Typowym przykładem może być tutaj pracownia studencka. Z drugiej zaś strony wykonując

dużą ilość pomiarów ( n > 50) estymacja punktowa σ, którą uzyskujemy za pomocą

odchylenia standardowego S staje się na tyle precyzyjna, że możemy w miejsce σ

wykorzystać wartość odchylenia standardowego z próby, S.

Jeżeli jednak zarówno wartość prawdziwa jak i wariancja wielkości x : N( m , σ),

pozostają nieznane, a liczba pomiarów jest również ograniczona ( n < 50) konstrukcja przedziału ufności musi zostać zmieniona. Okazuje się, że wielkość:

t = xSmn

podlega rozkładowi t – Studenta ; nazwa rozkładu pochodzi od pseudonimu naukowego „Student” angielskiego matematyka W. Gosseta, który powyższe twierdzenie udowodnił. Funkcję rozkładu gęstości prawdopodobieństwa rozkładu t – Studenta, w którym zwyczajowo w miejsce zmiennej x stosuje się symbol t , przedstawia poniższy wzór, w którym mamy tylko jeden niezależny parametr k , tzw. liczbę stopni swobody :

Wykonując n pomiarów x 1 , x 2 ... xn , licząc x , S i wybierając poziom ufności 1- α (0,95; 0,99 ..),

przedział ufności dla średniej tworzymy wg wzorów podanych w tabeli poniżej: Tabela 1. Przedziały ufności

Model I

x : N( m , σ), σ znane lub σ nie znane, n >50, σ = S

Model II

x : N( m , σ), σ nie znane, n <

( ) n

u m x α^ σ ∈ ± (^ ) n

mx ± t^ α S

Znajdowanie u α:

P{- u α < u < u α} = 2F( u α)-1 = 1- α

tablice dystrybuanty rozkładu normalnego

Znajdowanie t α :

P{| t |> t α} = α

tablice wartości tα dla różnych k = n -1 i α

Zależność wielkości fizycznych Zrozumienie metodyki pomiaru wielkości fizycznej, omówionej powyżej, pozwala nam przystąpić do odkrywania podstawowych praw wiążących różne wielkości fizyczne. Określony model fizyczny badanego zjawiska, poparty odpowiednim opisem matematycznym (wzorem), pozwala zrozumieć naturę badanych zjawisk. Dla eksperymentatora dokonującego nowych odkryć naukowych czy szukającego potwierdzenia teoretycznych rozważań kluczowe jest przede wszystkim uzyskanie potwierdzenia istnienia zależności dwóch wielkości fizycznych. Doświadczenie zaprojektowane w celu potwierdzenia i znalezienia tego związku między dwiema wielkościami fizycznymi x i y musi polegać na pomiarze obu tych wielkości równocześnie. Co więcej pomiar taki nie może się ograniczyć tylko do otrzymania pojedynczej pary wartości obu wielkości, ale niezbędne jest uzyskanie co najmniej kilku takich punktów we współrzędnych zmiennych x i y. Najczęściej stosowaną metodą prowadzącą do tego celu jest takie zaprojektowanie eksperymentu, w którym jednej z tych wielkości (zwanej zmienną niezależną ) przyporządkowane są wartości drugiej wielkości, zwanej zmienną zależną. Związek między dwiema wielkościami może być wzajemny, zmiany jednej zmiennej powodują zmiany drugiej i odwrotnie. Często jednak wyraźnie można wyróżnić zmienną zależną i niezależną, co uzasadnia wspomniany model eksperymentu, w którym eksperymentator zmienia jedną z wielkości , np. stężenie substancji i mierzy zmianę wartości drugiej wielkości np. szybkość reakcji. Gdyby udało się zmierzyć

obie te wielkości bezbłędnie, w szerokim zakresie zmian jednej z nich, niezbyt skomplikowane dopasowanie odpowiedniej funkcji matematycznej pozwoliłoby uzyskać odpowiedni opis matematyczny zjawiska. Czy jednak fakt, że pomiar obu wielkości obarczony jest niepewnością pomiarową nie powoduje takiego utrudnienia tego zadania, iż staje się ono niewykonalne? Na rysunku poniżej przedstawiono przykład eksperymentu, w którym wyraźnie widoczna jest zależność zmiennej y od zmian zmiennej x , zależność prawdopodobnie liniowa. Powstaje jednak pytanie jak najlepiej tego typu zależność liniową narysować wśród porozrzucanych na wykresie punktów eksperymentalnych.

e (^) i = y y (^) i - ^ i

y =^ b^0 + b x 1

(^00 5 10 )

10

20

30

y

x

Rys. 9 Wykres punktowy – graficzna ilustracja metody najmniejszych kwadratów

Ustalenie postaci funkcji, która opisuje zależność między zmiennymi nazywamy regresją. Z praktycznego punktu widzenia ograniczymy się w dalszej dyskusji do regresji II rodzaju, czyli liniowej lub nieliniowej funkcji y = f ( x ) znalezionej metodą najmniejszych kwadratów.

Metoda najmniejszych kwadratów Omówimy metodę najmniejszych kwadratów w oparciu o funkcję liniową, po pierwsze ze względu na jej przejrzystość, a po drugie ważność zależności liniowych w naukach przyrodniczych. Załóżmy, że istnieje prawdziwa liniowa zależność wielkości y od x , którą możemy zapisać w postaci:

y = β 0 + β 1 ⋅ x

Estymacja punktowa nieznanych parametrów β 0 i β 1 pozwala nam znaleźć najbardziej

optymalne ich oszacowanie, czyli przedstawić poszukiwaną zależność liniową w postaci:

y = b 0 + b 1 ⋅ x