Pobierz 1 Przestrzeń zdarzeń elementarnych i więcej Ćwiczenia w PDF z Sztuka tylko na Docsity! 1 Przestrzeń zdarzeń elementarnych Przestrzeń zdarzeń elementarnych jest pojęciem pierwotnym w teorii praw- dopodobieństwa. W zastosowaniach tej teorii zdarzenia elementarne inter- pretuje się jako możliwe przypadki, wyniki doświadczenia, stany obiektów, wystąpienia zjawisk, itp., jednak zawsze w takiej sytuacji, kiedy istnieje nie- pewność, który z przypadków, wyników, stanów, itd. pojawił się bądź pojawi się w przyszłości. Zbiory zdarzeń elementarnych, czyli podzbiory danej przestrzeni zdarzeń ele- mentarnych nazywamy krótko zdarzeniami. Zbiór pusty nazywamy zdarze- niem niemożliwym, a całą przestrzeń — zdarzeniem pewnym. O zdarzeniach elementarnych, które należą do danego zdarzenia, mówimy, że mu sprzyjają. Oznaczenia: • Ω — przestrzeń zdarzeń elementarnych; • ω — zdarzenie elementarne; • A ⊂ Ω — zdarzenie; • A′ = Ω \ A — zdarzenie przeciwne. Jeśli np. rozpatrujemy doświadczenie polegające na rzucie kostką, to zda- rzeniami elementarnymi będą poszczególne wyniki: 1, 2, 3, 4, 5, 6. Prze- strzeń zdarzeń elementarnych jest zbiorem Ω = {1, 2, 3, 4, 5, 6}. Zdarzeniem jest każdy jego podzbiór, np. A = {1, 3, 5} (wyrzucenie nieparzystej liczby oczek); zdarzeniem przeciwnym jest wtedy A′ = {2, 4, 6}(wyrzucenie parzy- stej liczby oczek). (Wszystkich zdarzeń jest 26 = 64 — dlaczego?) Jak widać w konkretnym problemie zbiór Ω musi być zdefiniowany, i na ogół nie powinno to sprawiać problemu. Jednak trzeba sobie zdawać spra- wę, że zdarzenia nie są elementami zbioru Ω, lecz jego podzbiorami. Zatem należy rozpatrywać jakąś klasę F podzbiorów zbioru Ω. Może to być klasa wszystkich podzbiorów, ale może też być mniejsza. W wyborze tej klasy nie ma całkowitej dowolności: aby poprawnie rozwijać teorię klasa F musi mieć trzy cechy: 1. F 6= ∅; 2. A ∈ F ⇒ A′ ∈ F ; 3. A1, A2, . . . ∈ F ⇒ ⋃∞ n=1An ∈ F . 1 Te własności zapewniają, że suma, przekrój (iloczyn), czy dopełnienie zda- rzenia też jest zdarzeniem. Rodzinę zbiorów o takich własnościach nazywamy ciałem zdarzeń. Definicja 1 Niech F będzie ciałem zdarzeń. Funkcję liczbową P : F → [0, 1] nazywamy prawdopodobieństwem jeśli: P1. ( A1, A2, . . . ∈ F oraz Ai ∩ Aj = ∅ dla i 6= j ) ⇒ P (⋃∞n=1An) = ∑∞ n=1 P (An); P2. P (Ω) = 1. Trójkę (Ω,F , P ) nazywamy przestrzenią probabilistyczną. Na danym ciele zdarzeń można określić różne prawdopodobieństwa. Umie- jętne określenie zarówno zbioru Ω jak i prawdopodobieństwa ma podstawowe znaczenie dla skuteczności zastosowania teorii. Definicja prawdopodobieństwa jest stosunkowo prosta, ale warunki P1 i P2 są na tyle ”mocne”, że można z nich wywnioskować następujące własności prawdopodobieństwa. Własności prawdopodobieństwa 1. P (∅) = 0; 2. P ( ⋃n k=1Ak) = ∑n k=1 P (Ak), o ile Ai ∩Aj 6= ∅; 3. Jeżeli A,B ∈ F oraz A ⊂ B, to P (A) ¬ P (B); 4. Jeżeli A1, A2, . . . ∈ F , to P ( ⋃∞ k=1Ak) ¬ ∑∞ k=1 P (Ak); 5. Jeżeli A,B ∈ F , to P (A ∪B) = P (A) + P (B)− P (A ∩B). Przykładowo wykażemy własność 5. Mamy B = (A∩B)∪ (B \A), zatem z warunku P1: P (B) = P (A ∩B) + P (B \A), czyli P (B \ A) = P (B)− P (A ∩B). Ale także A ∪B = A ∪ (B \A), więc P (A ∪B) = P (A) + P (B \A), i podstawiając P (B \ A) = P (B)− P (A ∩B) otrzymujemy tezę. 2 Odpowiedź: zmienić. Prawdopodobieństwo, że samochód jest za drzwiami, które wskazał na początku, wynosi 1/3. Zatem za tymi drugimi musi być z prawdopodobieństwem 2/3. Zadanie jest mylące, bo wiele osób sądzi, że wprawdzie na początku szansa właściwego wyboru jest 1/3, ale skoro pozostało dwoje drzwi do wyboru, to szanse są równe. Nie jest to prawda, bo prowadzący nie otworzy drzwi za którymi jest samochód, a więc jego postępowanie nie jest całkiem losowe. Inaczej: gdyby na początku kazać uczestnikowi wybrać drzwi i zapytać, jaka jest szansa na to, że samochód jest za tymi drzwiami, a jaka jest szansa, że za pozostałymi dwoma, to bez wątpienia powiedziałby, że 1/3 i 2/3. Fakt otwarcia jednych drzwi nie zmienia tych prawdopodobieństw. 4 Prawdopodobieństwo warunkowe Czasem dysponujemy informacjami, na podstawie których należy wyelimi- nować pewne zdarzenia elementarne, ponieważ nie będą mogły one wystąpić. W takiej sytuacji należy rozważać prawdopodobieństwo warunkowe. Zakładamy, że określona jest przestrzeń probabilistyczna (Ω,F , P ) i ma- my warunek ograniczający, tzn. pewne zdarzenie B ∈ F , P (B) > 0. Przez wystąpienie zdarzenia A pod warunkiem zdarzenia B rozumiemy zdarze- nie A ∩ B. Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem zdarzenia B oznaczamy P (A|B). Prawdopodobieństwo warunkowe można obliczyć tworząc przestrzeń proba- bilistyczną, w której przestrzenią zdarzeń elementarnych będzieB. Będziemy rozważać klasę FB = {A ∩B : A ∈ F}, która jest ciałem zdarzeń. Na tym ciele określamy nową funkcję prawdopo- dobieństwa: P (A|B) = P (A ∩B) P (B) , A,B ∈ F , P (B) > 0. Jeżeli P (A|B) = P (A), to zdarzenia A i B nazywamy niezależnymi. Wtedy mamy P (A ∩B) = P (A) · P (B), i zwykle ten warunek podaje się jako definicję zdarzeń niezależnych. Przykłady 1. Niech Zn, n = 1, 2, . . . oznacza zdarzenie polegające na tym, że no- wo zainstalowane urządzenie znajdować się będzie w stanie zdatno- ści przez okres n kolejnych miesięcy. Wiadomo, że P (Z6) = 0, 89 i 5 P (Z12) = 0, 53. Obliczyć prawdopodobieństwo, że urządzenie pracują- ce 6 miesięcy będzie zdatne do użytku przez dalsze 6 miesięcy. P (Z12|Z6) = P (Z12 ∩ Z6) P (Z6) = P (Z12) P (Z6) = 0, 53 0, 89 = 0, 6. 2. Prawdopodobieństwo występowania zakłóceń przy przesyłaniu sygna- łu impulsowego (zdarzenie A) jest równe P (A) = 0, 012, natomiast prawdopodobieństwo stłumienia sygnału (zdarzenie B) przez zakłóce- nie wynosi P (B|A) = 0, 25. Jakie jest prawdopodobieństwo, że wystąpi zakłócenie tłumiące sygnał? P (A ∩B) = P (A) · P (B|A) = 0, 003. Twierdzenie 1 (o prawdopodobieństwie całkowitym) Jeżeli zdarzenia H1,H2, . . . ,Hn tworzą podział przestrzeni zdarzeń elementarnych i P (Hi) > 0 dla i = 1, 2, . . . n, to dla dowolnego zdarzenia A zachodzi równość: P (A) = n ∑ i=1 P (A|Hi)P (Hi). Dowód. Ponieważ A = ∑n i=1(A∩Hi) oraz A∩Hi są parami rozłączne, więc P (A) = n ∑ i=1 P (A ∩Hi) = n ∑ i=1 P (A|Hi)P (Hi). Przykład Prawdopodobieństwo, że przedmiot wyprodukowany przez ma- szynę M będzie pierwszego gatunku wynosi 0,7. Dla maszyny N to prawdo- podobieństwo wynosi 0,8. Na maszynie M zrobiono dwa przedmioty, a na N trzy. Obliczyć prawdopodobieństwo, że wszystkie przedmioty są pierwszego gatunku. Rozwiązanie. Niech Ai oznacza zdarzenie, że i-ty przedmiot jest pierwszego gatunku, H1, że został zrobiony na maszynie M, a H2, że został zrobiony na maszynie N. Wtedy P (Ai) = P (Ai|H1)P (H1) + P (Ai|H2)P (H2) = 0, 7 · 0, 4 + 0, 8 · 0, 6 = 0, 76. Ponieważ zdarzenia Ai są niezależne, więc P (A1 ∩ · · · ∩A5) = P (Ai)5 = 0, 254. 6 Twierdzenie 2 (wzór Bayesa) Jeżeli hipotezy Hi, i = 1, 2, . . . , n stano- wią pełny układ wyłączających się zdarzeń, to prawdopodobieństwo hipotezy Hk pod warunkiem, że zaszło zdarzenie A wynosi P (Hk|A) = P (Hk)P (A|Hk) P (A) = P (Hk)P (A|Hk) ∑n i=1 P (Hi)P (A|Hi) . Przykłady 1. W partii 1000 żarówek może występować 0, 1, . . . , 5 wadliwych żaró- wek. Możliwości te są jednakowo prawdopodobne. Wzięto losowo 100 żarówek, i wszystkie okazały się dobre. Jakie jest prawdopodobieństwo, że wszystkie są dobre? Rozwiązanie. Niech Hi będzie zdarzeniem, że i żarówek jest wadliwych, A — że losowo wybranych 100 jest dobrych. Wtedy mamy P (Hi) = 1 6 , P (A|Hi) = (1000−i 100 ) (1000 100 ) dla i = 0, 1, . . . , 5, więc P (H0|A) = P (H0)P (A|H0) ∑5 i=0 P (Hi)P (A|Hi) = 1 · 16 1 · 16 + 910 · 16 + 899999 · 910 · 16 · · · = 0, 214. 2. Wiadomo, że 90% produkcji pewnego wyrobu spełnia wymagania nor- my. Stosując uproszczoną kontrolę wyrobu uznaje się wybraną sztukę za dobrą z prawdopodobieństwem 0,98 gdy jest ona rzeczywiście dobra, i z prawdopodobieństwem 0,05, gdy jest zła. Jakie jest prawdopodo- bieństwo, że sztuka uznana za dobrą jest rzeczywiście dobra? Rozwiązanie. Niech H1: sztuka dobra; H2 = H ′ 1: sztuka zła; A1: uzna- nie za dobrą; A2 = A ′ 1: uznanie za złą. Po rachunkach: P (H1|A1) ≈ 0, 998. Można też obliczyć, że P (H1|A2) = 0, 159 = 15, 9%. Zatem jest dość duże prawdopodobieństwo, że sztuka uznana za złą jest dobra. 3. W czasie egzaminu 50% studentów odpisywało. Spośród studentów uczciwych zdało 60%, a z grupy oszukujących 40%. Jakie jest prawdo- podobieństwo, że student, który zdał egzamin, jest uczciwy? 7 stąd n > log 0, 01 log(56 ) = −2 log(56) ≈ 22,26, a więc n = 26. Przykład Stacja radiolokacyjna wykrywa obiekt będący w polu obserwacji z prawdopodobieństwem 0,93 przy każdym obrocie anteny. Jaka musi być liczba obrotów, aby obiekt został wykryty z prawdopodobieństwem 0,999? Rozwiązanie. Zdarzenie przeciwne: prawdopodobieństwo, że obiekt nie bę- dzie wykryty wynosi P (0) = ( n 0 ) p0(1− p)n = (1− p)n. Ma być (1− p)n < 0, 001, stąd n > log 0, 001 log(1− p) ≈ 2, 6, a więc n = 3. 6 Zmienne losowe Niech (Ω,F , P ) będzie przestrzenią probabilistyczną. Definicja 2 Zmienną losową nazywamy funkcję X : Ω→ R, taką, że dla dowolnego x ∈ R {ω ∈ Ω : X(ω) < x} ∈ F . Warunek podany w definicji oznacza, że zbiór zdarzeń elementarnych dla których wartości X są mniejsze od x jest zdarzeniem. W typowych zagad- nieniach praktycznych ten warunek jest spełniony, i dlatego najważniejsze jest zapamiętanie, że zmienna losowa przyporządkowuje zdarzeniom liczby. Tradycyjnie zmienne losowe oznaczamy dużymi literami łacińskimi:X,Y,Z, . . .. Przykład Rozpatrzmy doświadczenie polegające na rzucie dwiema kost- kami. Niech ωij oznacza zdarzenie elementarne polegające na tym, że na pierwszej kostce wypadnie i a na drugiej j. Funkcja określona wzorem X(ωij) = i+ j 10 jest zmienną losową, bo każdy ze zbiorów {X < x}, tj. {ωij ∈ Ω : X(ωij) < x} jest zdarzeniem. Zauważmy np., że dla x ¬ 2 zbiór {X < x} jest pusty, bo zmienna X nie może mieć wartości mniejszych niż 2. Jeśli 2 < x ¬ 3, to {X < x} = {ω11}; jeśli 3 < x ¬ 4, to {X < x} = {ω11, ω12, ω21}, itd. Jeśli x > 12, to zdarzenie {X < 12} jest pewne. Każdemu z powyższych zdarzeń odpowiada jego prawdopodobieństwo. Roz- kład prawdopodobieństwa można zapisać w tabeli: x ∈ (−∞, 2] (2, 3] (3, 4] (4, 5] (5, 6] (6, 7] (7, 8] P (X < x) 0 1 36 3 36 6 36 10 36 15 36 21 36 · · · · · · (8, 9] (9, 10] (10, 11] (11, 12] (12,∞)26 36 30 36 33 36 35 36 1 Definicja 3 Niech X będzie zmienną losową. Funkcję F : R→ [0, 1], F (x) = P (X < x) nazywamy dystrybuantą zmiennej losowej. Przykład Powyższa tabela jest w istocie tabelą dystrybuanty. Wykres: 1 1 2 3 4 5 6 7 8 9 10 11 12−1 x y Rysunek 1: Wykres dystrybuanty Twierdzenie 3 Jeżeli F (x) jest dystrybuantą zmiennej losowej X, x1, x2 ∈ R oraz x1 < x2, to P (x1 ¬ X < x2) = F (x2)− F (x1). 11 Dowód. P (x1 ¬ X < x2) = P (X x1 ∩X < x2) = = −P (X x1 ∪X < x2) + P (X x1) + P (X < x2) = = −1 + (1− P (X < x1)) + P (X < x2) = F (x2)− F (x1). Twierdzenie 4 Dystrybuanta F (x) zmiennej losowej jest funkcją niemale- jącą, lewostronnie ciągłą. Ponadto lim x→−∞ F (x) = 0, lim x→∞ F (x) = 1. Ze względu na charakter dystrybuanty wyróżniamy dwa typy zmiennych losowych. Definicja 4 Zmienną losową nazywamy typu dyskretnego (lub dyskretną, skokową), gdy jej dystrybuanta jest funkcją przedziałami stałą i posiada prze- liczalną ilość punktów nieciągłości (skoków). Obrazem (przeciwdziedziną) zmiennej typu dyskretnego jest przeliczalny podzbiór zbioru R składający się z tych wartości argumentu, dla których dystrybuanta nie jest ciągła. Oznaczmy P (xi) = pi. Wtedy zbiór par {(xi, pi)} przekazuje pełną informa- cję o zmiennej losowej skokowej. Przykład Dla rzutu dwiema kostkami i zmiennej X(ωij) = i + j mamy tabelę: xi 2 3 4 5 6 7 8 9 10 11 12 pi 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 Funkcję P (x) def = P (X = x) nazywamy funkcją prawdopodobieństwa zmien- nej typu dyskretnego. Przykład Z partii 100 części, wśród których jest 10 braków, wybrano losowo 5 części. Niech X będzie zmienną losową oznaczającą ilość braków w tej próbie. Wyznaczyć funkcję prawdopodobieństwa. Zmienna X przyjmuje wartości xi, xi = 0, 1, . . . , 5 oraz P (xi) = ( 90 5−xi )(10 xi ) (100 5 ) . Tabela (przybliżone wartości do 3 miejsc po przecinku) 12 bezwzględnie zbieżny, to jego sumę nazywamy wartością oczekiwaną (prze- ciętną) zmiennej losowej X i oznaczamy E(X) lub EX. Przykład Student potrafi odpowiedzieć na a) 5 z 10 pytań egzaminacyj- nych; b) 10 z 20 pytań egzaminacyjnych. Na egzaminie losuje 3 pytania. Jaka jest wartość oczekiwana liczby pytań na które odpowie? Rozwiązanie. a) xi 0 1 2 3 pi 1 12 5 12 5 12 1 12 Zatem EX = 5 + 2 · 5 + 3 · 1 12 = 18 12 = 1,5. b) xi 0 1 2 3 pi 12 114 45 114 45 114 12 114 Zatem EX = 45 + 2 · 45 + 3 · 12 114 = 171 114 = 1,5. Własności wartości oczekiwanej. 1. Jeżeli zmienna losowa X = c =const, to EX = c. 2. E(cX) = cEX. 3. E(X + Y ) = EX + EY . 4. Jeżeli zmienne losowe X, Y są niezależne, to E(XY ) = EX · EY . Uwaga. Zmienne losowe X, Y nazywamy niezależnymi, gdy P (X < x ∧ Y < y) = P (X < x) · P (Y < y). Przykład Trzy przyrządy niezależnie od siebie podlegają kontroli. Praw- dopodobieństwo, że poszczególne przyrządy nie będą działały są równe od- powiednio p1, p2, p3. Wykazać, że wartość oczekiwana liczby niedziałających przyrządów jest równa p1 + p2 + p3. Rozwiązanie. Określamy zmienne X1,X2,X3 wzorem Xi = { 1 i− ty przyrząd nie działa 0 i− ty przyrząd działa 15 Wtedy EXi = pi dla i = 1, 2, 3. Niech Z będzie liczbą niedziałających przy- rządów: Z = X1 +X2 +X3. Wtedy EZ = EX1 + EX2 + EX3 = p1 + p2 + p3. Korzystając z definicji obliczymy wartości oczekiwane niektórych zmiennych losowych. Wartość oczekiwana rozkładu Bernoullego Wiemy, że P (p, n, k) = (n k ) pk(1− p)n−k dla k = 0, 1, . . . , n. Zatem EX = n ∑ k=0 k ( n k ) pk(1− p)n−k. Aby obliczyć tę sumę korzystamy z dwumianu Newtona. (p + q)n = n ∑ k=0 ( n k ) pkqn−k ∣ ∣ ∣ ∣ d dp n(p+ q)n−1 = n ∑ k=0 k ( n k ) pk−1qn−k |·p pn(p+ q)n−1 = n ∑ k=0 k ( n k ) pkqn−k. Podstawiając q = 1− p otrzymujemy np = n ∑ k=0 k ( n k ) pk(1− p)n−k, czyli EX = np. Wartość oczekiwana rozkładu Poissona Ponieważ P (λ, k) = λ ke−λ k! dla k = 0, 1, 2, . . ., więc EX = ∞ ∑ k=0 k λke−λ k! = e−λ ∞ ∑ k=1 k λk k! = λe−λ ∞ ∑ k=1 λk−1 (k − 1)! = λe −λ ∞ ∑ k=0 λk k! = λ. 16 8 Wariancja zmiennej losowej Rozważmy dwa zakłady o wynik rzutu monetą: 1. jeżeli wypadnie orzeł wygrywamy 1 zł, jeżeli reszka tracimy 1 zł; 2. jeżeli wypadnie orzeł wygrywamy 100 zł, jeżeli reszka tracimy 100 zł. Wartość oczekiwana odpowiednich zmiennych losowych jest w obu przypad- kach taka sama (równa 0), ale w pierwszym przypadku wartości zmiennej nie odbiegają zbytnio od wartości oczekiwanej, a w drugim — tak. Druga zmienna jest bardziej ”rozproszona”. Definicja 6 Wariancją zmiennej losowej nazywamy liczbę VarX = E(X − EX)2. Spotyka się także oznaczenie D2X. Zauważmy, że E(X − EX)2 = E(X2 − 2XEX + (EX)2) = E(X2)− (EX)2, zatem VarX = E(X2)− (EX)2. Dla zmiennych wspomnianych wyżej mamy Var(X) = E(X2) (bo EX = 0). W pierwszym przypadku jest to 1, w drugim 1002 = 10000. Wariancja ma wymiar kwadratu zmiennej losowej. Czasem wygodniej jest posługiwać się pierwiastkiem z wariancji. Nazywa się go odchyleniem stan- dardowym i oznacza σX : σX = √ VarX. Twierdzenie 5 Niech X ma rozkład Bernoullego. Wtedy VarX = npq, gdzie q = 1− p. 17 Dystrybuanta wynosi więc F (x) = ∫ x a dt b− a = x− a b− a dla x ∈ [a, b] Dla x < a jest F (x) = 0, dla x > b jest F (x) = 1. Możemy obliczyć wartość oczekiwaną: EX = ∫ b a x 1 b− adx = a+ b 2 , i wariancję: VarX = ∫ b a x2 1 b− adx− (EX) 2 = b3 − a3 3(b− a) − ( a+ b 2 )2 = (b− a)2 12 . Przykłady 1. Załóżmy, że napięcie U = Umax sinϕ prądu zmiennego ma losową fazę ϕ o rozkładzie jednostajnym na przedziale [−π2 , π2 ]. Znaleźć dystrybu- antę i gęstość napięcia U . Mamy F (u) = 0 dla u ¬ −Umax P ( ϕ < arcsin u Umax ) dla −Umax < u < Umax 1 dla u Umax , bo P ( Umax sinϕ < u ) = P ( ϕ < arcsin u Umax ) . Ale P (ϕ < ϕ0) = ϕ0 + π/2 π = 1 π ϕ0 + 1 2 dla |ϕ0| < π/2 (najprostszy sposób obliczenia: zauważyć, że to prawdo- podobieństwo można interpretować jako pole prostokąta o podstawie ϕ0 + π/2 i wysokości 1/π). Zatem P ( ϕ < arcsin u Umax ) = 1 π arcsin u Umax + 1 2 , więc f(u) = 1 π 1 √ 1− u2 U2max 1 Umax = 1 π 1 √ U2max − u2 dla |u| < Umax oraz f(u) = 0 dla |u| Umax 20 2. X ma rozkład jednostajny na [−1, 2]. Znaleźć dystrybuantę i gęstość zmiennej losowej Y = X2. F (y) = 0 dla y ¬ 0 P (X2 < y) dla 0 < y ¬ 4 1 dla y > 4 ale P (X2 < y) = P (|X| < √y) = = { P (−√y < X < √y), 0 < y ¬ 1 P (X < √ y), 1 < y ¬ 4 = = { 2 3 √ y , 0 < y ¬ 1 1+ √ y 3 , 1 < y ¬ 4 . Zatem gęstość wynosi f(y) = 0 , y ¬ 0 1 3 √ y , 0 < y ¬ 1 1 6 √ y , 1 < y ¬ 4 0 , y > 4 . Definicja 9 Rozkładem wykładniczym nazywamy rozkład określony funk- cją gęstości f(x) = { 0 dla x < 0 λe−λx dla x 0 gdzie λ jest parametrem rozkładu. Zatem dystrybuanta wynosi F (x) = { 0 dla x < 0 1− e−λx dla x 0 Można sprawdzić, że EX = 1 λ , VarX = 1 λ2 . Rozkład wykładniczy jest stosowany w teorii niezawodności, bo dobrze opi- suje czas pracy elementów niestarzejących się. Jeżeli T jest czasem pracy takiego elementu, to τ = 1λ jest średnim czasem pracy, a parametr λ = 1 τ jest nazywany intensywnością uszkodzeń. Niestarzenie się elementu oznacza, 21 że prawdopodobieństwo awarii w danym przedziale czasu nie zależy od wieku elementu. Określamy tę własność jako brak pamięci rozkładu wykładniczego. Mamy więc P (T > t0 + t|T > t0) = P (T > t), co łatwo sprawdzić bezpośrednio, bo P (T > t) = 1− P (T ¬ t) = 1− (1− e−λt) = e−t/τ więc P (T > t0 + t|T > t0) = P (T > t0 + t) P (T > t0) = e− t+t0 τ e− t0 τ = e−t/τ . Przykład Zmienna losowa X ma rozkład wykładniczy o wartości oczekiwa- nej 1. Znaleźć gęstość zmiennej losowej Y = lnX oraz obliczyć P (Y > 0). Rozwiązanie. Obliczamy dystrybuantę: G(y) = P (Y < y) = P (lnX < y) = P (X < ey) = F (ey) = 1− e−ey . Zatem g(y) = ( 1− e−ey )′ = e−e y ey = ey−e y , oraz P (Y > 0) = 1− P (Y ¬ 0) = 1− ( 1− e−e0 ) = e−1 = 0, 3679. Definicja 10 Rozkładem normalnym nazywamy rozkład określony funkcją gęstości f(x) = 1√ 2π e−x 2/2. Mówimy wtedy, że zmienna losowa ma rozkład N(0, 1). Uwaga: można wykazać, że: ∫ ∞ −∞ e−x 2/2 = √ 2π. Jeżeli zmienna losowa Y ma rozkład N(0, 1), to zmienna X = σY +m ma rozkład N(m,σ). Piszemy wtedy X ∼ N(m,σ) i mówimy, że zmienna ma rozkład normalny z parametrami m,σ. 22 X ∼ N(−50, 100). Obliczamy P (|X| < 150) = P (−150 < X < 150) = P (−100 < X + 50 < 200) = = P ( − 1 < X + 50 100 < 2 ) = Φ(2)− Φ(−1) = = Φ(2)− 1 + Φ(1) = 0, 9772 − 1 + 0,8413 = 0,8185. 2) P (X < 0) < P (X + 50 < 50) = P (X+50 100 < 1 2 ) = Φ(0,5) = 0,6915. 2. Przedmiot jest traktowany jak produkt wysokiej jakości, jeżeli wartość bezwzględna odchylenia jego rozmiarów od rozmiarów nominalnych nie przekracza 2,5 mm. Losowe odchylenia rozmiarów przedmiotu od rozmiarów nominalnych mają rozkład N(0; 2,1). Określić średnią ilość produktów wysokiej jakości, jeżeli wytworzono 100 przedmiotów. Rozwiązanie. Niech X będzie odchyleniem rozmiaru od rozmiaru nomi- nalnego. Potraktujemy próbę 100 przedmiotów jako próbę Bernoullego i wyliczymy prawdopodobieństwo sukcesu p: p = P (|X| < 2,5) = P (2,5 < X < 2,5) = P ( − 25 21 < X 2,1 < 25 21 ) = = Φ (25 21 ) − Φ ( − 25 21 ) = 2Φ(1,19)− 1 = 0,766. Zatem wartość oczekiwana liczby sukcesów w 100 próbach wynosi np = 100 · 0,766 = 76,6. 3. Odchylenie losowe wymiaru detalu wyprodukowanego na danej ma- szynie od wymiaru nominalnego ma zerową wartość oczekiwaną i od- chylenie standardowe równe 5µm. Ile trzeba wyprodukować detali aby z prawdopodobieństwem niemniejszym niż 0,9 był wśród nich choćby 1 detal dobry, jeżeli dla detalu dobrego dopuszczalne jest odchylenie wymiaru od wymiaru nominalnego niewiększe niż 2µm? Rozwiązanie. Obliczymy najpierw prawdopodobieństwo wyproduko- wania detalu dopuszczalnego. P (|X| < 2) = P (−2 < X < 2) = P ( − 2 5 < X 5 < 2 5 ) = = Φ (2 5 )− Φ(− 2 5 ) = 2Φ (2 5 )− 1 = 0,3108. Stosujemy teraz schemat Bernoullego. Prawdopodobieństwo zera suk- cesów w n próbach wynosi (0,6892)n, więc n musi spełniać nierówność 25 1− (0,6892)n 0,9. Zatem n log 0,1 log 0,6892 = −1 log 0,6892 = 6,19. Należy wyprodukować 7 detali. Rozkład χ2. NiechXi, i = 1, 2, . . . , n będą niezależnymi zmiennymi losowymi o rozkładzie N(0, 1). Określamy χ2 = χ2n = n ∑ i=1 X2i i mówimy, że zmienna losowa χ2 ma rozkład chi-kwadrat o n stopniach swo- body. Zmienna χ2 ma dla małych n rozkład asymetryczny, ale wraz ze wzrostem n jej rozkład zbliża się do rozkładu normalnego. Przyjmuje się, że dla n > 30 dystrybuanta Φ(x) rozkładu normalnego przybliża dystrybuantę rozkładu chi-kwadrat wystarczająco dobrze. 26