Задачи - упражнение - Теория вероятностей и математическая статистика (4), Упражнения из . Irkutsk State Technical University
dimon_87
dimon_8721 March 2013

Задачи - упражнение - Теория вероятностей и математическая статистика (4), Упражнения из . Irkutsk State Technical University

PDF (184.7 KB)
4 страница
344количество посещений
Описание
Задачи, тесты и упражнения по предмету математика. Теория вероятностей и математическая статистика. Задачи и решения. Упражнения с ответами. Разные варианты. Часть 4.
20очки
пункты необходимо загрузить
этот документ
скачать документ
предварительный показ3 страница / 4
это только предварительный показ
консультироваться и скачать документ
это только предварительный показ
консультироваться и скачать документ
предварительный показ закончен
консультироваться и скачать документ
это только предварительный показ
консультироваться и скачать документ
это только предварительный показ
консультироваться и скачать документ
предварительный показ закончен
консультироваться и скачать документ
Конспект по ТВ и МС - конспект - Теория вероятностей и математическая статистика

Понятие случайного события. Опр. Испытанием называется фиксированный тип опыта. Пр.: Наудачу извлекается карта из колод. Опр. Случайным событием называется выделенный рез-т некоторого испытания (в конкретном испытании событие может наступать, а может и не наступать).Пр.: а) Извлечена карта красной масти; б) извлечён туз; в) извлечена 7-ка крестей. Пусть, например, извлекли даму «бубен»  а) наступила б) нет в) нет. Статистическое определение вер-ти. Пусть проведено N-испытаний, в которых событие А наступило Na раз, тогда отношение (Na/N) назыв. Частностью наступления события А в Nиспытаниях.Опр.: Пусть условия проведения некоторого испытания можно с точностью произвести неограниченное число раз, тогда вер-тью P(A) наступления события А в одном испытании назыв. Такое число, около которого группируются значения частности (Na/N) при неограниченном увеличении числа испытаний N. ,т.е. P(A)=lim(Na/N). (На практике полагают P(A)≈(Na/N) при достаточно большом N) Следствие: 0≤Na≤N; 0≤(Na/N)≤1; lim0≤lim(Na/N)≤lim1 ; 0≤P(A)≤1. Классификация случайных событий. 1)Два события называются равными, если одно из них наступает т.и т.т.к. насту-пает другое. 2)Опр.: Два события назыв. равновозможными или вер-ти их насту-пления равны в смысле статистического наступления симметричных ситуаций. 3)Опр.: Событие назыв. достоверным, (Е) если оно наступает в каждом из испыта- ний. Ne=N=>P(E)=lim(Ne/N)=1 ; P(E)=14)Опр.: Событие назыв. невозможным, если оно не наступает ни в одном из испытаний. ∅-невозможность события. Невозможность события определено одно-значно для фиксированного типа испытания. Пр.: исп. брос. кости ∅={7}. 5)Опр.: Два события назыв. не совместимыми, если наступление одного из них исключает наступление другого. 6) События А1, А2,…Ак – назыв. единственно возможными, если в рез-те испытания хотя бы одно из них наступает. Пр.: Исп – бросание монета. А)-орёл В)-решка. Событие А1;А2…Ак – образуют полную сист. если они попарно не совместимы и единственно возможны. Опр.: Два события образующие полную систему назыв. парой взаимно противоположных событий. (А )-противоположное событие. Пр.: Извлечение карты. А- красная масть; А- черная масть. Операция на события. I.Операция сложения событий. Опр.: Суммой А+В событий А и В назыв. такое событие, которое считается наступившим, если наступило или событие А или В или вместе. Пр.: Извлечение карты: А- извлечен туз; В- извлечены бубны. а)Пусть рез-т: извлечена 7-ка бубен. А+В –наступило. б)Пусть рез-т: извлечен король крестей => А+В –не наступило.А+А = Е II.Опр. Произведением событий А и В назыв. такое событие А и В, кот. Считается наступившим, если события А и В наступили одновременно. Пр. Бросание кости. А={1,2,3} В={3,4,} А⋅В={3}. Замечание: соб. А и В не совместимы  А⋅В=∅. Классическое определение вер-ти. Опр. Пусть некоторое испытание имеет “n” исходов, причем эти исходы равновозможны единственно возможны и попарно не совместимы. Пусть наступлению событию А благоприятствует «m» исходов из «n», тогда вер-сть Р(А) наступления события А определяется по формуле: P(A)=(m/n). Пр. В коробке 6 белых шаров и 8 красных. Извлекается 1 шар. Вер-ть того что он белый ? Реш.: n=6+8=14; m=6; P(A)=6/14=3/7. Основные теоремы теории вероятности. I.Теоремы сложения вероятностей. Общая формула: P(A+B)=P(A)+P(B)-P(AB).; В частности: Пусть А и В не совместимы, тогда А⋅В=∅ ; P(AB)=P(∅)=0 ,т.е. имеем: Теорема: Вероятность суммы двух несовместимых событий = сумме их вероятно-стей., т.е. P(A+B)=P(A)+P(B). 1)Следствие: Пусть события А1,А2,…Ак образуют полную систему, тогда Р(А1)+…+Р(Ак)=1. Док-во: В частности события А1,А2,…Ак –единственно возможны (т.к.)полная сист.), т.е. А1+…+Аn=Е => Р(А1+…+Ак)=Р(Е). По теор. слож. вер-тей: Р(А1)+…+Р(Ак)=1. II.Следствие: Если А и А –пара противоположных событий, то Р(А)+Р(А )=1. Условная вер-ть и теорема умножения вер-ти. Опр.: Условной вер-тью Рв(А) назыв. вер-ть наступлений событий А предполо-жений наступлений событий В. ; Пр.: Испыт. извлечение карты. А-извлечена картинка, В- извлечена 7-ка. ; Рв(А)=0/4=0 ; Рв (А)=(16/36-4)=0,5Опр.: Два события назыв. независимыми, если вер-ть наступления одного из них не зависит от того считается ли другое событие наступившим или нет. Т.е. А и В независ.  Рв(А)= =Рв(А) , Ра(В)=Ра(В). ; Можно доказать что А и В независимы  Р(А)=Рв(А). В примере выше А и В зависимы т.к. Рв(А)≠Рв(А). Теорема Умножения вероятностей. Т. ~Р(АВ)=Р(А)Ра(В) ~Р(АВС)=Р(А)Ра(В)Рав(С). Следствие. А и В независимы  Р(АВ)=Р(А)Р(В), т.е. в частности вер-ть произведений 2-х независимых событий равна произведению их вер-стей. Теорема для независимых вер-тей.=> Р(В1)Р(В2)+Р(В1)Р(В2). Пр.: Два стрелка одновременно выстреливают в мишень. Вер-ть попадания для 1-го =0,6; для 2-го 0,8.; Найти: А)Вер-ть того что в мишени будет 1 пробоина. В)будет хотя бы одна пробоина. Реш.: В мишени будет 1 пробо-ина т.ит.т.к. 1-ый попал и 2- ой промахнулся, 1-ый промахнулся и 2-ой попал. А=(В1В2+В1В2)=Р(В1В2)+Р(В1В2). Используем терему для независ. вер-тей. Р(В1)=0,6; Р(В1)=1-0,6=0,4;

Р(В2)=0,8; Р(В2)=0,2.; Р(А)=0,6⋅0,2+0,4⋅0,8=0,44. ХОТЯБЫ 1 => Р(с)=Р(А+D) {D-2-е попадание} P(D)=P(B1⋅B2)=P(B1)P(B2) =0,6⋅0,8=0,48.; P(c)=0,92. Формула полной вер-ти. Т. Пусть события А1,А2,…Ак – образуют полную систему и F-некотор. Событие, тогда вер-ть этого события может быть найдена по след. ф-ле: P(F)=P(A1)Pa1(F)+P(A2)Pa2(F)+…P(Ak)Pak(F) Пусть дополнительно событие F отлично от невоз-можного PF(Ai)=(P(Ai)⋅Pai(F)/ P(F) ) –формула гипотезы, где 1≤i≤к. Пр.: (в тетради на стр.17-18). Тема: Повторные независимые испытания. Формула

Бернулли mnmm

n qpCnPm

− =,

)!(!

!

mnm

n C

m

n −=

Теорема: Пусть проведено “n” повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вер-тью р. Тогда вер-ть Pm,n что в этих испытаниях событие А будет n раз выполняться по формуле. Формула Пуассона (редких событий). Теорема. Пусть проведено n повторных независимых испытаний, в каждом из которых события А наступает с вер-тью р, причем 1)число испытаний достаточно велико (n≥100) 2)Величина λ=np≤10, тогда вер-ть Pm,n того, что в этих испытаниях событие А наступит m раз вычисл. по

след. приближ. ф-ле: λλ −

= e m

nPm m

! ,

Локальная теорема Муавра – Лапласа. Теорема: Пусть проведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вер-тью р., причем. 1)число испытаний достаточно велико 2)npq≥10, где q=1-р, тогда вер-ть Рm,n того, что в этих n испытаниях событие А наступит m раз

вычисляется по ф-ле: π2

1 )( =xf Свойства функции

Гаусса: 1)Четность f(-x)=f(x); 2)Не отрицательность f(x)>0; 3) lim f(x)=lim f(x)=0 {при х∞}; Практическое правило: если х≥5,то будем полагать, Интегральная теорема Муавра-Лапласа. Т.: Пусть проведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вер- тью р, причём. 1)число испытаний достаточно велико. 2)Значение npq≥20. ; Тогда вер-ть того, что число m наступлений событий А в этих испытаниях окажется заключено в границах от m1 до m2 вычисляется по след. приближ. ф-ле.

xd х x

eхФгде npq

npm Ф

npq

npm ФmmmP

− =−−−=≤≤ 

  

  

  

0 2

2

2

2 )(_,12(2

1 )

21 ( π

Св-ва функции Лапласа. 1)Нечётность Ф(-х)=-Ф(х); 2)Монотонно возрастающая Ф(х); 3)limФ(х)=1 {где х+∞}; limФ(x)=-1 {где х-∞}. На практике: если х≥5, полагаем что Ф(х)≈1 График у=Ф(х) в пределах от –1 до 1. Следствие из интегральной теоремы Муавра Лапласа. Пусть выполнили условие применимости интегральной теоремы М.Лапласа, тогда: 1)Вер0ть того, что число m наступлений события А в n испытаниях отличается от величины np не более, чем на эпсилон (E) (по абсолютной величине) вычисл. По след. ф-ле:

 

 

 =≤−

npq

E ФEnpmP )( 2)Вер-ть того что

частость (доля) m/n наступлений событий А в n испытаниях отличается от вер-ти р не более чем на ∆ (по абсолютной

величине) вычисл. По след. ф-ле: ( )   

  ∆=∆≤−

pq

n Фp

n

m P

n

E =∆

Тема: Дискретная случайная величина и её характеристика. Случайная величина и её закон распределения. Опр.: Случайной величиной называется переменная, кот. В рез-те испытания принимает то или иное числовое значение. Пр1)число попаданий в мишень дискретная случ. величина;Пр2) рост человеканепрерывная случ. величина.; Опр. Случайная величина назыв. дискретной, если число её возможных значений конечно или счётно (множество счетное, если его можно перенумеровать натур. числами). Опред.: Случ. величина назыв. непрерывной, если её значение полн-остью заполняют некоторый интервал. Опред. Законом распределения дискретной случайной величины назыв. такая таблица, в которой перечислены все возможные значения этой случайной величины (без повторений) с соответствующими им вероятностями.

Xi X1 X2 … Xk

Pi P1 P2 … Pk Следствие: Из определения закона распределения следует что события (Х=х),…, (Х=хк) –образуют полн. Систему. => Р(Х=х1)+…+Р(Х=хк)=1 р1+р2+…+рк=1 основное св-во закона распределения. Арифметические операции над случайными величинами. Опр.: Случайные величины х и у назыв. равными, если их законы распределения точно совпадают и для любого числа α события (х=α) и (у=α) равны. Опр.: Случайные величины Х и Y назыв. независимыми, если для любых i и j события (X=xi) и (Y=yj)- независ. Пр. В коробке 5 белых шаров, 8красных и 10 синих. Х-число шаров при одном извлечении. У-число кр. Шаров при одном извлечении. X иY – зависимы; ((Х=1)(Y=1) –не совместимы не зависимы. Опр.:(Умножение случайной величины на число). Пусть х- случ. величина. И α- некоторое число, тогда случ. величиной αх назыв. случ. величина со следующим законораспределением:

X: Хi X1 … Xk

Pi P1 … Pk αx: αxi αx1 αx2 … αxk pi p1 p2 … pk Опр.: Суммой (разностью, произведением) случайных величин х и у называется такая случ. величина Z, которая принимает значение Zl в некотор. Испытании, если в этом испытании хi yi значение величин Xi Yi таковы: Zl = xiyi. Параметры распределения (дискретных) случайных величин. Опр.: Пусть закон распределения случайной величины Х имеет вид.

X: xi x1 x2 … xk pi p1 p2 … pk

, тогда математическим ожиданием М(Х) назыв. число, вычисляемое по ф-

ле kkii

k

i pxpxpxxM ++=∑=

= ...)(

111

Неформально: Математическое ожидание случ. величины – такое число, около которого группир-ся значение этой случ. величины. Св-ва математического ожидания. 1) М(С)=С, где С- пост. случ. величина. 2)М(αх)=αМ(х); α- некоторое число. 3)М(Х±Y)=М(X)±M(Y). 4)Пусть случ. вели-чины X иY- независимы, тогда М(XY)=M(X)M(Y). 5)Пусть х1,…,хn- случ. вели-чины такие, что M(x1)=…=M(xn)=a; M((x1+…+xn)/n)=a. Дисперсия (дискретной ) случайной величины. Опр.: Пусть закон распределения случ. величины Х имеет вид: Х:

xi x1 x2 … xk

pi p1 p2 … pk Дисперсией D(X)- этой случ. величины называется число, вычисл. по ф-ле:

kpXMkxpXMxipXMix k

i XMxMxD 2))((...1

2))(1( 2))((

1 )2))((()( −++−=−

= ∑=−=

Неформально: Дисперсия случ. величины яв-ся мерой разброса значений этой случ. величины около её мат. ожидания. Св-ва дисперсии: 1)D(С)=0, С- пост. случ. величина. 2)D(αX)=αв квадрате⋅D(X). 3)Пусть случ. величины X иY-незави-симы =>D(X±Y)=D(X)+D(Y). 4)D(X)=M(X в квадрате) – М в квадрате(Х). 5)Пусть случ. величины Х1,Х2,…Хn- независимы и D(X1)=…=D(Xn)=σ в квадрате. ; тогда D((x1+…+xn)/n)=(σ в квадрате)/n).

Замечание: )( XD – назыв. среднеквадратическим

отклонением случ. величины X и часто обозначается через

σ(сигма). )( XD=σ Теорема: Пусть случ. величина Х биномиально распределена с параметрами n и p, тогда M(X)=np; D(X)=npq; q=1-p; M(X/n)=p; D(X/n)=(pq)/n. Док- во: Пусть Х- число наступившего события А в n повторн. независ. исп-ях в каждом из которых соб А наступает с вер- тью р => Х=Х1+Х2+…+Хn,где Xi- число наступ-его соб-я А в i испытаний (1≤i≤n). Х1,Х2,…Хn– независ. и одинаково распределены. 1≤i ≤ n.

Xi Xj 0 1 Pj q p

M(Xi)=0⋅q+1⋅p=p. ;

qppqpqqpppqpXiD =+=+=−+−= )()1()0()( 2222

M(X)=M(X1+…+Xn)=M(X1)+…+M(Xn)=p+…+p=np. D(X)=D(X1+…+Xn)=D(X1)+…+D(Xn)=pq+..+pq=npq. Теорема доказана. Пример: Пусть Х-бином. Распред-а n=3, p=0,8 ; M(X)=3⋅0,8=2,4 ; D(X)=3⋅0,8⋅0,2=0,48. Функция распред-я (дискретной) случайной величины. Опр.: Ф-ей распред-я F(x) случ. величины Х назыв. такая функция, значение которой в т. х численно равно вер-ти того, что в некотор. Испытании значение этой случ. величины окажется меньше, чем х, т.е. F(x)=P(X<x). Функция распределения дискретной случ. величины яв-ся кусочно – постоянной, она претерпевает скачки в точках

возможных значений этой случ. величины, а величины этих скачков=соответствующим вер-стям. Св-ва функции распределения: 1) F(X)-неубывающая функция; 2) 0≤F(X)≤1; 3)limF(X)=0, где х-∞., limF(X)=1, где х+∞.; 4)F(α≤x<β)=F(β)-F(α). Док-во: 2) F(X)=P(X<x) т.к. D≤P≤1 => D≤F(X)≤1. ; 3)limF(X)=limP(X<x)=P(X<-∞)=0, где х в пределах стремится к -∞. ; limF(X) =limP(X<x)=P(X<+∞)=1, где х в пределах стремится к +∞. 4)F(β)=P(X<β)=P((X<α)+(α≤X<β)=P(X<α)+P(α≤β)=F(α)+P( α≤X<β). Непрерывная случайная величина. Плотность распределения вер-ти непрерывной случайной величины. Опр. Плотность распред-я вер-ти: ϕ=ϕ(х) непрерывной случ. величины Х наз-ся такая функция, что для произвольного отрезка[α,β] вер-ть того, что в некотор. Испытании знач-ие случ. величины Х окажется принадлежащим данному отрезку, вычисляется по ф-ле:

∫=≤≤ β

α ϕβα dxxxP )()(

Геометрический смысл плотности распределения. Вер-ть того, что знач-ие случ. величины Х окажется принадлежащим некотор. отрезку [α,β] численно равна площади S[α,β] под кривой плотности распред-я ϕ=ϕ(х) на [α,β]. Теорема: (Характеристическое св-во плотности распределения.) Функция ϕ=ϕ(х) яв-ся плотностью распределения некотор. непрерывной случайной величины Х т.и т.т.к. выполняют след. условия. 1)Не отрицательность, т.е. ϕ(х)≥0 (при всех Х); 2)Условия нормировки {интеграл от -∞ до +∞}⋅ϕ(х)dx=1 ; Док-во: Пусть ϕ(х)- плотность распределения случ. величины Х. 1)Предположим, что ϕ(х)<0 на некотор.[α,β]

=>P(α≤x≤β)= ∫ β

α ⋅ϕ(х)dx<0 невозможною =>

предположение неверно. 2)

∫ +∞

∞− =+∞<<−∞= 1)()( xPdxxϕ

Парадокс нулевой вероятности. Т. Для непрерывной случ. величины вер-ть принять какое-

либо точечное значение=0.Док-во: P(x=α)=P(α≤x≤α)= ∫ α

α

⋅ϕ(x)dx=0.Теорема доказана. Следствие: Пусть Х- не прерывная случайная величина, тогда справедливы равенства: P(α≤x≤β)=P(α≤x<β)=P(α<X≤β)=P(α<X<β). Док- во:P(α≤X≤β)=P((α≤X<β)+(X=β))=P(α≤X<β)+P(X=β)=P(α≤X <β)- доказано. Далее аналогично. Ф-ция распред-я непрерывной случайной величины. Пусть ϕ=ϕ(х)- плотность распред-я случ. величины Х.; F(X)=? ;

F(X)=P(X<x)=P(-∞<X<x)= ∫ ∞− x

dxx)(ϕ . F(x)=

∫ ∞− x

dxx)(ϕ .; Обратно по т. об интеграле с переменным

верхним пределом. ϕ(x)=F′(x) Математическое ожидание и дисперсия непрерывной случайной величины. Дискретная случайная Непрерывная случайная Величина величина. 1)Закон распределения Х: хi … xk 1)Плотность

pi … pn распред-я ϕ=ϕ(х) 2)Мат. ожидание M(X)=∑xipi M(X)={предел от

- ∞ до +∞}⋅xϕ(x)dx {от i=1 до к}2)Мат. ожидание. 3)Дисперсия D(X)=∑(xi-M(x))квадрат⋅pi 3)ДисперсияD(X)=

{предел от -∞ до +∞}⋅ (x-M(x))квадрат⋅ϕ(x)dx

Нормально распределённая случайная величина. Опр. Говорят что непрерывная случ. величина Х имеет нормальный закон распределения с параметрами а и σ, если её плотность распределения вер-ти имеет вид:

22

2)(

2

1 )( σ

πσ ϕ

ax

n ex

−−

= (где а,σ-числа σ>0).;

Теорема. Пусть Х- нормально распределена с параметрами а и σ => M(X)=a; D(X)=σ квадрат .; Рассмотрим как изменяется график ϕ{отN}⋅(Х) с изменением параметров а и σ. 1)Пусть σ=const 2)Пусть а=const Теорема. Пусть Х- нормально распределена с параметрами а и σ, тогда справедливы формулы.

1)  

 

  

  

 −− 

  

 −=≤≤ σ

αϕ σ

βϕβα aaxP 2

1 )( ;

2)

)(),()( 2

XDXMa E

EaxP ==→ 

  

 =≤− σ

σ ϕ

; 3)

Лапласафункцияхгде ax

xF N

_)(_, 2

1

2

1 )( −

  

 −+= ϕ σ

ϕ

Центральная предельная теорема Муавра Лапласа как следствие из неё. Т. Пусть случ. величины Х1,Х2,…Хn- независимы и одинаково распределены, тогда закон распределения их суммы (т.е. случ. величины Х=Х1+Х2+…+Хn) неограниченно приближаются к нормальному при неограниченном увеличении n.; Следствие: Биномиальное распределение переходит в нормальное при неограниченном увеличении n.; Док-во: Пусть Х биномиально распределена с параметрами n и p. Пусть более точно Х- число наступления события А в n повторных независимых испытаниях в каждом из которых событие А наступ. с вер-тью р, тогда Х=Х1+Х2+…+Хn, где Хi-число наст-ий соб-ия А в i-ом испытании (i=1,2,…n). Хi- независ. и одинаково распределены по центральной предел- ой теореме. Следствие доказано.; Пусть X=m- биномиально распределена с параметрами n и p => для нормального распр-ия известно, что вер-ть попадания в отрезок.

 

 

 

 

 −−  

 

 −=≤≤ npq

npm

npq

npm mmmP iϕϕ 2

21 2

1 )( -

Интегральная теорема Муавра Лапласа. Геометрически приближение биномиального закона к нормальному, означает, что с ростом n точка (m, Pm,n) (где m=0,1,2,3,…) неограниченно приближается к нормальной кривой ϕN(x) для котор. а=np, σ=√npq Тогда полагают, что Pm,n≈ϕN(m) => подставляя в выражение ϕN(x) x=m, a=np, σ=√npq

npq

npm

e npq

nPm 2

2)(

2

1 ,

−−

≈ π

-Локальная теорема

Муавра Лапласа Двумерные случайные величины. Опр. Вектор Z=(x,y) компоненты Х и У которые яв-ся случ- ми величинами назыв-ся случайным вектором, или двумерной случайной величиной. Например: X-рост чел-ка; У-вес чел-ка  это двумерные непрерывные величины. Рез-т им-я двумерной случ. величины- это точка плоскости. Опр. Связь между переменными назыв. статистической, если каждому значению одной переменной ставится в соответствие закон распределения другой. Задание статистической связи между двумя переменными равносильна заданию двумерной случайной величины. Рассмотрим двумерные дискретные случ. величины закона распределения, в данном случае задаётся с помощью таблицы вида: Yi| yi где Pij=P((X=xi)(Y=yj)) Xi | * * | * Совместный закон распределения случ-х величинин. Xi***********************Pij Основное св-во совместного закона распределения

1 ,,

=∑ ji

P ji

Опр. Закон распределения одной переменной

при фикс-ом значении др-ой назыв.ус-ным распределением. Опр.: Связь между переменными наз-ся функциональной, если каждому значению одной переменной ставится в соответствие однозначно определенное значение другой переменной. Опр.: Функциональная зависимость между значениями одной переменной и усл-ми матам-ми ожиданиями другой назыв. корреляционной. Корреляция бывает двух видов: а) (xi, Mxi (Y))- корреляционная зависимость у по х; б) (Myj(X)yj)- коррел. зависимость х по у. Опр. Ф-я ϕ=ϕ(х,у)- назыв. плотностью распределения двумерной случайной величины Z, если для произвольных чисел α, β, γ, δ (α<β, γ<δ) вер-ть того, что значения случ-ой величины Z окажется принадлежащим прямоуг-ку α≤Х≤β,

γ≤Y≤δ вычисл-ется по ф-ле: YX

YMXMXYM

σσρ )()()( −

= ;

)( )(

,,,)( )(

YD Y

XD X

== σσ , где а величина

XY йKковариацменазывYMXMXYM .)()()( ←−

Коэффициент корреляции и его св-ва. Опр. Коэффициентом корреляции случ. величин Х и У назыв. число, вычисляемое по ф-ле: ρ=(M(XY)- M(X)M(Y))/(σXσY), где σX=√D(X), σY=√D(Y), а M(XY)- M(X)M(Y)- ковариация KXY. Модуль коэфф-та корреляции не превосходит 1, т.е. -1≤ρ≤1.; Если модуль коэфф-та |ρ|=1, то между случайными величинами существует линейная функциональная зависимость.; Пусть ρ- коэфф-нт корреляции случайных величин X и Y: ρ=(M(XY)-M(X)M(Y))/(σXσY) ; Заменяя в последнем выражении входящие величины на их выборочные оценки, получаем формулу для вычисления выборочного коэфф-нта

корреляции r: YSXS

yxxy r

⋅− = µ=⋅− yxxy -выборочная

ковариация, т.к. xS

yxb 2 µ= ,

ySxy b 2

µ = ;

ySxS xy

b yx

b 22

2µ = ; xybyxbrrxybyxb ±=⇒=

2 ,

«+»,если 0;0 >> yx

b xy

b ; «-» если

0;0 << yx

b xy

b .Если r>0,то связь между переменной

называется прямой.Если r<0- связь называется обратной. Связь между переменными признается тесной, если |r|≥0,7; умеренной если 0,4≤|r|≤0,7; слабой если |r|<0,4. Основное св-во коэфф-та корреляции: |r|≤1.; Предельное значение коэфф-та корреляции: 1) |r|=1,т.и т.т.к. byx*bxy=1 => прямые регрессии совпадают. 2) r=0 т.и т.т.к. µ=0  byx=0

S [α,β]

ϕ=ϕ(x)

а1 а2

ϕN1 ϕN2

σ1 σ2

σ2>σ1

Pm,n ϕN(m) ϕ=ϕN(x)

m

и bxy=0 => прямые регрессии перпендикулярны.; Если r=0 то говорят, что между переменными х и у отсутствует линейная корреляционная зависимость. Двумерный нормальный закон распределения. Опр. Случайная величина Z=(X,Y) наз-ся распр-ой по двумерному нормальному закону, если её плотность распределения вер-ти имеет следующий вид:

),( 212

1 ),( YXLe

YX

yxN

− =

ρσπσ ϕ ,где

 

 

 

  

 − + 

  

 −  

  

 − − 

  

 − −

= 2

2 2)1(2

1 ),(

Y

Y

Y

Y

X

X

x

x ayayaXaxyxL σσσ

ρ σρ

,

где

)(,,)(,),(,),( YD Y

XD X

YM Y

aXM X

a ==== σσ

Теорема: Пусть Z=(X,Y)- двум-ая кор-ая случ-ая величина, тогда корр-ционные зависимости между X и Y линейны более точно справедливы формулы: Mx(Y)=a Y+(ρ(σY)/(σX))⋅(x-aX)- корр-ная зависимость у по х. ; Замечание: В дальнейшем  Mx(Y)=Уx; My(X)=Xy Закон больших чисел. Неравенство Чебышева, Лемма Чебышева. Лемма Чебышева: Пусть среди значений случ. вел-ны Z нет отриц-х, тогда вер-ть того, что в некотором испытании значение этой случ-ой величины окажется больше, чем А (А-нек. число) оценивается по ф-ле: P(Z>A)≤M(Z)/A; Равносильно утверждение: P(Z≤A)≥1-(M(Z))/A. Неравенство Чебушева.: Вер-ть того, что в некотором испытании значение величины Yбудет отличаться от математического ожидания этой случайной величины не более чем на ε (по абсолютной величине) оценивается по ф-

ле: ( ) 2 )(

1)(( E

YD EYMYP −≥≤− Следствие 1). Пусть

Y=(x1+…xn)/n, где х1,х2,…хn-независимы, M(xi)=ai, D(Xi)≤C, где С- некоторое число i-1,2,…n, тогда справедливо нер-во.

( ) 21...1...1 nECEn naan nxxP −≥≤++−++ Следствие 2) Пусть имеется n независимых случайных х1,х2,хn чисел, имеющих одинаковые математические ожидания M(Xi)=a и дисперсиями, ограниченными числом С, тогда справедливы

неравенства D(Xi)≤C. ( ) 21... nECEan nxixP −≥≤−++ Следствие 3) Пусть имеется n повторных независ. испытаний, в каждом из которых событие может произойти с … n. С каждой вер-тью число успехов n повторн. незав. Испыт. Х=m- биномиальный закон распределения. M(Xбин)=np; D(Xбин)=npq.

Рассмотрим нер-во Чебышева: 2

1))(( E

npq EXMXP −≥≤− ,

применим получится 2

1)( E

npq EnpmP −≥≤− Следствие 4) Для

частости (доли) признака в повторных независимых испытаниях доля или частость X=m/n; M(m/n)=p; D(m/n)=pq/n. Применим нер-во Чебышева к этой

случайной величине, получим: 2

1))(( nE

pq EXMXP −≥≤− ;

2 1)(

nE

pq Ep

n

m P −≥≤− -это также называется нер-вом Бернулли. Следствие 5) Устойчивость среднего арифметического. Практически достоверно можно утверждать, что при достаточно большом n среднее арифметическое случ. величины сколь угодно мало отличается от среднего арифметического их математических ожиданий. Предполагается независимость

 1...21...21 =≤+++−+++ ∞→

 

  

E

a naaa

n nxxxP

n Lim Говорят,

что среднее число случайных величин сходится к вер-ти их

математических ожиданий → a

naaaP

n nxxx ++++++ ...21...21

Замечание: Следствие 5 получается из следствия 1, если в правой части перейти к пределу при n∞ Следствие 6) Устойчивость частости (доли) Практически достоверно, что доля успехов в n повторных независимых испытаниях сколь угодно мало отличается от их вер-ти успеха (при достаточно большом числе испытания n)

( ) 1=≤− ∞→

Ep n

m P

n Lim ,или же → pP

n

m Замечание:

следствие 6 получ. Из следствия 4, если в правой части перейти к пределу при n∞. Вариационный ряд. Пусть имеется некотор. признак Х,котор. подлежит изучению. Значение признака х назыв. их вариантами. Рассмотрим совокупность элементов – носителей признака. Кол-во элементов назыв. объемом совокупности. ; Если признак х принимает изолированные значения, то он назыв. дискретным, если знач. Признака заполняют нек. интервал, то он интервальный. Пример: Х- размер обуви  дискретный признак; Х- ростинтервальный признак. Кол- во элементов совокупности, кот обладает данными

значениями признака назыв. частотой этой варианты. Суммы всех частот = n. ∑ni=n; (ni/n)=Wi.; Опр.: Вариационным рядом называется таблица, содержащая варианты в порядке возрастания и соответствующие им частоты или частости. Вариационный ряд – дискретный если варианты дискретны. Если признак принимает непрерывные значения, то интервал его значения разбив. на частности соответствующими частотами или частостями – такой ряд –интервальный. Характеристики вариационного ряда.

1) Среднее значение iwix n

inixX ∑=∑= Ср. знач. вар. ряда

явл. аналогом мат. ожидатия случайной величины.;

2) iWXix n

inXix ) 2

( 2)(2 −∑=−∑=σ Диспер. вар. ряда явл

аналогом дисперсии случ. величины.; 3)Среднеквадратич. Отклонения  σ σ=√из σквадрат.; Упрощённый метод вычисления хар-к вариацион. ряда. Пусть К- разность между соседними значениями варианта. С- это наиболее часто встречающаяся варианта или варианта, стоящая в середине ряда. Математическая статистика. Пусть имеется нек. признак Х, подлежащий изучению. Вся совокупность элементов –носителей этого признака назыв. генеральной совокупностью, а кол-во элементов N- объёмом генеральной совокупности.; Пусть признак Х может принимать значения х1, х2,…хm с соответствующими частотами N1,N2,…N, причем Сумма этих частот= N.; Вариационный ряд, полученный для признака Х –получ. на всей совокупности назыв. генер. вар.

рядом. Его характеристики назыв. генеральными: oX -

генеральная средняя; 2оσ -генер. дисперсия; σ -генер.

средняя квадратическое отклонение; N

M p= . Как правило

генер. вар. ряд и его генер. хар. не известны. Найти или оценить неизвестные параметры ген. Совокупности –это задача мат. статистики. Опр.: Оценкой неизвест-ного параметра назыв. случ. величина, с помощью которой делаются выводы о значении неизвестного параметра.; В мат. статистике оценки находятся с помощью выборочного метода. Выборочный метод закл. в том, что из всей генер. ссовокупности случайным образом отбирается некоторая её часть, которая назыв. случайной выборкой.; По рез-там этой выборки делаются выводы о генер. совокупности, причем эти выводы делаются с определ. Точностью и надёжностью. Для того чтобы выборка адекватно отражала генеральную совокупность она должна удовлетворять след. требованиям. 1) Массовость, т.е. выборка должна быть достаточно большого объёма, чтобы проявить массовые закономерности. 2) Случайность, т.е. каждый элемент ген. совокупности должен иметь одинаков. вер-ть, чтобы попасть в выборку. Выборка, удовлетворяющая этим требованиям называется представительной или презентавительной. Поскольку выборка образована случайным образом , то все её хар-ки явл. случайными величинами. Хар-ки выборки могут служить оценками неизвестных параметров ген. совокупности. Требования к оценке: 1) Несмещённость. Оценка Х параметра а назыв. несмещённой, если её мат ожидание совпадает с её параметром М(Х)=а.; 2) Состоятельность. Оценка назыв. состоят., если она сходится по вер-ти к оцениваемому параметру, т.е. при достаточно большом числе испытаний n, практически достоверно что оценка сколь угодно мало отличается от оцениваемого параметра. LimP(|X-a|<E)=1 при хбесконечности.; 3)Состоятельная оценка назыв. эффективной, если она имеет минимальную дисперсию среди всех состоятельных оценок. Случайные характеристики выборочного вариац. ряда. Пусть образована случ выборка объема р и при обследов. выборки Х получ. вариац. ряд. х1 х2 … хm

n1 n2 … nm Сумма ni=n -этот ряд выборочный вариационный. Его

характеристики: вX -выборочная средняя. 2 в

σ -выборочн.

дисперсия. в

σ -выб. ср. квадр. отклон. n

m W = -? Выборочн.

характеристики назыв. случайными величинами, кот. могут служить оценками для неизвестного параметров генер. совокупности. Теорема1): Для повторн. и бесповторной выборок выборочная средняя явл. несмещённой состоятельной оценкой для генеральной средней (сигма о квадрат).; Теорема2): Для повторной и бесповторной выборок выборочная дисперсия явл. смещённой состоятельной оценкой для генеральной средней. Несмещённой оценкой явл. выборочная дисперсия.

1

2 2

− ⋅=

n

nвS σ ; 22 onS σ→ .Замечание: При достаточно большом

объёме выборке n эти объёмы практически совпадают.; Теорема 3. Для поторн. и бесповторных выборок выборочная доля w явлю несмещён. состоят. оценкой для ген. доли р; wp. Характеристика оценок для повторной и бесповторной выборки.

Замена неизвестных параметров их выборочными оценками

назыв. точечным оцениванием. 22 xSв ≡σ Интервальное

оценивание. Формула доверительной вер-ти. Пусть Z- оценка неизв-го параметра h (h=p генер-ая доля, Z=w – выборочная доля). Если полагая, что h≈Z, то это точечное оценивание (p≈w).; Под интервальным оцени-ванием неизвестного параметра h понимают следующее: из теорет- х соображен. находят закон распредел-я оценки Z – плотность распред-я вер-ти )( xZϕϕ= ; по результатам

серии из n измерений находят значение оценки Z, а затем для избранного значения Е>0 вычисляют вер-ть того, что неизвестное значение параметра h накрывается интервалом (Z-E, Z+E), т.е. вычисляют вер-ть. P(|Z-h|<E):

∫ +

− =≤−

EZ

EZ dxxZEhZP )()|(| ϕ при этом эта вер-ть назыв.

доверительной вер-тью, а интервал (Z-E, Z+E)- доверительным интервалом, а Е –произвольная ошибка выборки.; Теорема: Закон распред-я выборочной средней неограниченно приближается к нормальному при неограниченном увеличении объёма выборки. Если Х- нормально распределена с параметром а=М(Х) и

)( xD=σ , тогда ( ) ( )σϕ EEaXP =≤− || .; Пусть вXX → ; вXвXMa =→ )( -ген. средняя;

XвXD σσ =→ )( Формула доверительной вер-ти имеет

вид: ( ) X

E EвXвXP

σ ϕ=≤− )|(| . Пусть Хw; aM(w)=p –ген.

доля ; wwD σσ =→ )(

Элементы проверки статистических гипотез. Опр. Статистической гипотезой наз-ся любое предположение о виде или параметре неизвестного закона распред-я. Обычно проверяемую гипотезу обозначают через Но.; Пусть дан вариационный ряд.

возмож-ые знач. признака Х

Х1 Х2 … Хк ∑

число объектов n1 n2 … nk n Гипотеза Но: {Обязательно формулировать при задачах} Случайная величина Х-з/п рабочего имеет нормальный закон распред-я с параметрами а=151,6; σ=24,3 (отклонение эксперем-х данных от теорет-х вызвано случ-ми факторами). Экспери-ментальные данные ni- эмпирические частоты (см. вар. ряд). (i=1,2,…m, где m- число тнтервалов). Теоретич-ие данные (см. гипотезу Но);

( ) ( )( ) ),...2,1(,,121)1( miaixaixixXixPip =−−−−=≤≤−= σϕσϕ ; частотыкиетеоретичесinp _− . В качестве меры расхождения

между эксперим-ми и теорит-ми данными испол-ют

статистику 2χ (хи). inp inpn

m

i

2)(

1

2 −

= ∑=χ Статистика –

случайная вел. с парам.; При достаточно большом n закон

распределения статистики 2χ известен и не зависит от

закона распред-я случ. величины Х. При n∞ эта

статистика имеет так называемое 2χ распределение с K=m-

S-1 степенями свободы. (m-число интервалов; S- число параметров закона распр-я Х).; Опр.: Уравнением значимости наз-ся вер-ть отвергнуть гипотезу Но, когда она верна. α- ур-нь значимости (тоже что и эпсило). Опр.:

Пороговым значениемk, 2

αχ - наз-ся число, определ-ое

равенством ααχχ => ), 2( kP . Опр.: Правило по которому

гипотеза Но приним-ся или отвергается наз-ся статистическим критерием.

Оцен

ка Среднее квадратическое отклонение

повторная бесповторная

вX n oвX 2

)( σσ = )1(

2 )`(

N

n

n oвX −=

σσ

W )1()(

N

n

n

pq w −=σ

)1()`( N

n

n

pq w −=σ

Оцен

ка

Мат. ожидани

е

Дисперсия повт.

выборка бесповт. выборка

выб. средн

. вX

XвXM =)(

n oвXD 2

)( σ

=

)1( 2

)( N

n

n oвXD −=

σ

выб. доля W

pwM =)( n

pq wD =)(

)1()( N

n

n

pq wD −=

Критерий Пирсона: Если вычисл-оезначение статистики

2χ меньше порогового значения k, 2

αχ ,то гипотеза Но

приним-ся, в противном случае отвеграется на ур-не значимости α. Замечание: Отвержение гипотезы Но, когда она верна – ошибка 1-го рода. Наоборот вер-ть принять гипотезу h когда она не верна –ошибка 2-рода. Коэффициент корреляции и его св-ва (продолжение). 1)Пусть ρ- коэфф-нт корреляции случ. Величин X и Y

YX

YMXMXYM

σσ ρ )()()( −= . Заменяя в последнем

выражении входящие величины на их выборочные оценки, получаем формулу вычисления выборочного коэфф-нта

корреляции r: ySxS

yxxy r

⋅−= , где µ=⋅− yxxy -выборочная

ковариация.; Известно 2 xS

yxb µ= ;

2 yS

xyb µ=

22

2

ySxS xybyxb

µ=⇒ ;

2rxybyxb = . Т.к. знаки коэфф-та коррел-ции r с одной

стороны и коэфф-тов прямых регрессий

xybyxb , совпадают (определяются знаки µ), то справедлива

формула: xybyxbr ±= , где зн. «+»- в случае 0,0 >> xybyxb ,

зн. «-»- если 0,0 << xybyxb . Опр.: Если r>0, то связь между

переменными наз-ся прямой. Если r<0- связь обратная. Опр. Связь между переменными тесная, если |r|≥0,7;умеренной если 0,4≤|r|≤0,7; слабой если |r|<0,4. Основное св-во коэфф-та корреляции |r|≤1. Предельное значение коэфф-та корреляции.

Пусть|r|=1 т.ит.т.к. 1=xybyxb по

геометрическому смыслу коэфф-нт прямых регрессий

αtgyxb = , а βctgxyb =

tgα⋅ctgβ=1; tgα⋅1/tgβ=1; tgα=tgβ=>прямые регрессии паралельны, но т.к. он

имеютобщую точку ( yx , ), то

прямые регрессии совпадают. Вывод: при |r|=1 прямые регрессии совпадают.2)r=0 т.ит.т.к. µ=0 т.ит.т.к. 0=yxb и

0=xyb ; )( xxyxbyxy −=− ;

)(_;.____ yyxybxxхпоурегрессийпрямаяyxy −=−−=

; xyx = -

прямая регрессий х по у.; Замечание: Если r=0, то говорят, что между переменными х и у отсутствуеет линейная зави- симость. Дополнение: Ур-ия прямых регрессий имеют вид:

)( xx xS

yS ryxy −=− ,

)( yy yS xSrxyx −=− ,

( )SyyyryS yyx −=− , ( )yS yyrxS xyx −=− . Обозначим

yS

yy y

−=* , xS

xx x

−=* , в

терминах эти ур-ния прямых регрессий имеют вид:

tgα=r, ctgβ=r; tgα=tg(α-

β)= r

r

rr

rr

tgtg

tgtg

2

12

)/1(1

/1

1

− =

⋅+ −

= ⋅+

− βα

βα ; tgϕ= r

r

2

12 − .

Оценка значимости коэфф-та корреляции. Рассмотрим следующую гипотезу Но: коэфф-нт корреляции=0, т.е r=0. В кач-ве меры доверия к справедливости данной гипотезы

исп-ся статистика. 21

2

r

nr t

− = . Закон распр-я данной

статистики известен: она имеет так называемые распредел- е Стьюдента с k=n-2 степенями свободы.; Опр. Пороговое значение kt ,1 α− , для статистики t определяется равенством

αα =−> ),1|(| kttP .; Критерий Стьюдента: Если

вычисленное значение статистики t удовлетворяет нер-ву

ktt ,1 α−≤ - гипотеза n-Ho принимается, в противном

случае – отвергается на уровне значимости α.

t попадает в эту область с вер-тью 0,95

х по у

у по х

у по х

х по у

у* по х*

ϕ х* по у*

α

β

)(xtϕ

S=0,95

kt 95,0− kt 95,0

Если α=0,05

комментарии (0)
не были сделаны комментарии
Напиши ваш первый комментарий
это только предварительный показ
консультироваться и скачать документ
Docsity не оптимизирован для браузера, который вы используете. Войдите с помощью Google Chrome, Firefox, Internet Explorer 9+ или Safari! Скачать Google Chrome