Tema 1 Estadistica II, Apuntes de Estadística. Universidad Carlos III de Madrid (UC3M)
laumr4
laumr4

Tema 1 Estadistica II, Apuntes de Estadística. Universidad Carlos III de Madrid (UC3M)

PDF (182 KB)
6 páginas
2Número de descargas
4Número de visitas
100%de 1 votosNúmero de votos
Descripción
Asignatura: teoria estadistica elemental, Profesor: silvi silvi, Carrera: Estadística y empresa, Universidad: UC3M
20 Puntos
Puntos necesarios para descargar
este documento
Descarga el documento
Vista previa3 páginas / 6
Esta solo es una vista previa
3 páginas mostradas de 6 páginas totales
Descarga el documento
Esta solo es una vista previa
3 páginas mostradas de 6 páginas totales
Descarga el documento
Esta solo es una vista previa
3 páginas mostradas de 6 páginas totales
Descarga el documento
Esta solo es una vista previa
3 páginas mostradas de 6 páginas totales
Descarga el documento

Teoŕıa Estad́ıstica Elemental II

Teoŕıa (resumida) del 1er Tema

José Manuel Izquierdo Universidad Carlos III de Madrid

2do. cuatrimestre, 2017-2018

Los análisis estad́ısticos comúnmente envuelven varias variables aleatorias. Por ejemplo, en el contexto financiero, podemos estar interesados en los precios de diferentes acciones a cierto momento, no sólo en el precio de una acción. En el contexto de estudios por encuestas, analizamos las respuestas a las distintas preguntas que se le hacen a un individuo, no sólo una respuesta. Estas variables están relacionadas con el mismo experimento aleatorio (el precio del mercado en un determinado momento, las respuesta de un individuo escogido al azar), lo que significa, en particular, un mismo espacio muestral. Por ello, estamos interesados en el comportamiento conjunto de varias variables aleatorias, asociadas a un mismo experimento.

1. Vectores aleatorios discretos

Sean X e Y variables aleatorias discretas definidas sobre un mismo espacio muestral. El vector aleatorio (X,Y ) toma valores en un subconjunto numerable de R2 y estamos interesados en la probabilidad de que el vector tome esos valores. La función de masa de probabilidad conjunta de las variables X e Y es la función pX,Y : R2 → [0, 1] definida por:

pX,Y (x, y) = P (X = x, Y = y)

= P ({ω ∈ Ω : X(ω) = x} ∩ {ω ∈ Ω : Y (ω) = y}) (1)

Similar al caso univariante, si x /∈ X(Ω) o y /∈ Y (Ω) entonces P (X = x, Y = y) = 0, y∑ x

∑ y

P (X = x, Y = y) = 1.

Las funciones de masa de probabilidad P (X = x) y P (Y = y) las podemos obtener a partir de la función de masa de probabilidad conjunta marginalizando de manera adecuada. Para ello, note que Ω = ∪x{ω : X(ω) = x} = ∪y{ω : Y (ω) = y}. Usando la aditividad de la medida de probabilidad

P (X = x) = P ({ω : X(ω) = x}) = P ({ω : X(ω) = x} ∩ (∪y{ω : Y (ω) = y})) =

∑ y

P ({ω : X(ω) = x} ∩ {ω : Y (ω) = y})

= ∑ y

P (X = x, Y = y)

1

Cambiando X por Y en los cáculos anteriores obtenemos la f.m.p. de Y a partir de la conjunta,

P (Y = y) = ∑ x

P (X = x, Y = y)

En este contexto las funciones P (X = x) y P (Y = y) son llamadas marginales de X y Y respectivamente.

Ejemplo. Sea X una variable que toma valores 1, 2, 3 e Y una que toma valores 1, 2, 3, 4. Suponga que la probabilidad de que el par (X,Y ) tome el valor (x, y) viene dada por la entrada x, y de la siguiente tabla.

1 2 3 4

1 0,10 0,05 0,05 0,00 2 0,15 0,10 0,05 0,00 3 0,20 0,15 0,10 0,05

Entonces la marginal de X se obtiene sumando las columnas y la de Y las filas.

Cuando X e Y son discretas, la función de probabilidad condicional de X dado Y = y se define por la probabilidad condicional

P (X = x|Y = y) = P (X = x, Y = y) P (Y = y)

.

De esta forma, las probabilidades condicionales del tipo P (X ∈ A|Y = y) se calculan usando la siguiente identidad:

P (X ∈ A|Y = y) = ∑ x∈A

P (X = x|Y = y)

Ejemplo. Siguiendo con el ejemplo anterior,

P (X > 1|Y = 1) = 0, 35; P (X > 1|Y = 2) = 0,25

Algunos modelos univariados que hemos discutido puede extenderse al caso bivariado de forma natural. Es el caso de la Distribución Multinomial:

Decimos que (X,Y ) sigue una distribución Multinomial con parámetros n y p, q, si

P (X = k, Y = j) = n!

k! j! (n− k − j)! pk qj (1− p− q)n−k−j . (2)

Siendo, p y q probabilidades tales que p+ q < 1 y k y j enteros no negativos tales que k + j ≤ n. El modelo está asociado a la repetición de n experimentos independientes donde pueden ocurrir dos tipos de éxitos o un fracaso. Siendo p la probabilidad de tener el primer tipo de éxito, en una realización del experimento, q la de obtener un éxito del segundo tipo y X e Y el número de éxitos de cada tipo, obtenidos en las n repeticiones. P (X = k) en (??) es la probabilidad de observar un total de k éxitos en n experimentos independientes, cada uno con probabilidad p de que sea éxito.

2

2. Independencia de variables aleatorias discretas

Recordemos que dos eventos A y B son independientes si

P (A ∩B) = P (A)P (B)

Hablaremos de independencia de variables si una toma valores de manera independiente a los valores que tome la otra. En otras palabras, las variables discretas X e Y son independientes si los eventos

{ω ∈ Ω : X(ω) = x} y {ω ∈ Ω : Y (ω) = y}

son independientes para todo x, y ∈ R. Es decir, X e Y son independientes si la función de masa de probabilidad conjunta es el producto de las marginales,

P (X = x, Y = y) = P (X = x)P (Y = y) para todo x, y ∈ R

Observación: X e Y son independientes si y solamente si existen funciones f, g : R→ R tal que

PX,Y (x, y) = P (X = x, Y = y) = f(x)g(y) para todo x, y ∈ R

aún cuando f, g no sean las marginales de las variables en cuestión.

Ejemplo. Sean X,Y variables aleatorias con función de masa conjunta definida por

P (X = x, Y = y) = 1

x!y! λxµye−(λ+µ) x, y = 0, 1, . . .

Factorizando tenemos que

P (X = x, Y = y) =

( λx

x!

)( µy

y! e−(λ+µ)

) = f(x)g(y),

con f(x) = λx/x! y g(y) = µye−(λ+µ)/y!, de manera que X e Y son independientes. Sin embargo, las funciones f y g no son funciones de masa de probabilidad. De hecho, las marginales de X,Y son

P (X = k) = 1

k! λke−λ y P (Y = k) =

1

k! µke−µ para k = 0, 1, . . .

Es conveniente extender el concepto al caso multivariado, pero primero introduciremos una práctica notación que es estándard en teoŕıa de probabilidades:

Para X1, . . . , Xn : Ω→ R y A1, . . . , An ⊂ R escribimos

{X1 ∈ A1, . . . , Xn ∈ An} = ∩ni=1{ω ∈ Ω : Xi(ω) ∈ Ai}

Definición (independencia de variables aleatorias). Las variables aleatorias X1, . . . , Xn son independientes si para cualquier sucesión de intervalos A1, . . . , An ⊂ R se cumple

P (X1 ∈ A1, . . . , Xn ∈ An) = P (X1 ∈ A1) · · ·P (Xn ∈ An)

3

3. Funciones de vectores aleatorios

Muchas veces estamos interesados en una función de un vector aleatorio. Es común observar n variables y que nos interesen los valores extremos (el más pequeño y el más grande entre todos los va- lores observados). También es común estar interesados en el promedio. En general, dado un conjunto de n variables aleatorias X1, X2, . . . , Xn y una función g : Rn → R, nos puede interesar calcular la función de masa de probabilidad de la variable aleatoria definida por U = g(X1, X2, . . . , Xn).

Distribución del mı́nimo. SeanX1, X2, . . . , Xn variables aleatorias y denotemos por Un el mı́nimo de ellas, es decir

Un = mı́n{X1, X2, . . . , Xn}.

Es fácil comprobar que {Un > k} = {X1 > k,X2 > k, . . . ,Xn > k}

y en consecuencia, si X1, X2, . . . , Xn son independientes se tiene

P (Un > k) = P (X1 > k)P (X2 > k) . . . P (Xn > k) (3)

Si X1, X2, . . . , Xn son variables independientes e idénticamente distribúıdas (i.i.d.), entonces (??) tiene la forma

P (Un > k) = [P (X1 > k)] n (4)

Por lo tanto, la f.m.p. de Un la podemos escribir como

P (Un = k) = P (Un > k − 1)− P (Un > k) = [P (X1 > k − 1)]n − [P (X1 > k)]n (5)

Ejemplo. Sean X1, X2, . . . , Xn variables i.i.d geométricas de parámetro p = 1 − q (Xi ∼ Geo(p) para 1 ≤ i ≤ n). En este caso

P (Xi > k) = ∞∑

j=k+1

pqj−1 = qk, para k = 1, 2, 3, . . .

Sustituyendo en (??) se tiene que

P (mı́n{X1, X2, . . . , Xn} = k) = [qk−1]n − [qk]n = [qn]k−1(1− qn).

Es decir, el mı́nimo de variables i.i.d. con distribución geométrica de parámetro p es también una variable geométrica, pero de parámetro 1− qn = 1− (1− p)n.

Distribución del máximo. Consideremos ahora el máximo

Vn = máx{X1, X2, . . . , Xn}

de n variables aleatorias. Note que

{Vn ≤ k} = {X1 ≤ k,X2 ≤ k, . . . ,Xn ≤ k}

Si las variables son independientes se tiene entonces que

FVn(k) = P (Vn ≤ k) = P (X1 ≤ k)P (X2 ≤ k) . . . P (Xn ≤ k)

4

y si son i.i.d. FVn(k) = [P (X1 ≤ k)]n. (6)

Ejemplo. Continuando con el ejemplo en el que X1, X2, . . . , Xn son i.i.d, geométricas de parámetro p, la función de distribución del máximo Vn = máx{X1, X2, . . . , Xn} es

FVn(k) = [1− P (X1 > k)]n = (1− qk)n para k = 1, 2, . . .

Suma de variables aleatorias. Consideremos X,Y variables aleatorias discretas y Z = X + Y . Claramente Z es discreta y toma el valor z si y solamente si X toma el valor x e Y toma el valor z − x. Aśı que

P (Z = z) = P (∪x{X = x, Y = z − x}) =

∑ x

P (X = x, Y = z − x)

Fórmula de convolución. Si X,Y son variables aleatorias discretas e independientes entonces Z = X + Y tiene f.m.p.

P (Z = z) = ∑ x

P (X = x)P (Y = z − x)

En el caso particular en que X,Y son no negativas, P (X = x) = 0 si x < 0 y P (Y = z − x) = 0 si x > z. En ese caso,

P (X + Y = z) =

z∑ x=0

P (X = x)P (Y = z − x)

y decimos que la f.m.p. de X + Y es la convolución de las funciones de probabilidad de X y Y .

Ejemplo. Sean X,Y v.a. independientes con distribución de Poisson de parámetros λ y µ respec- tivamente. Usando la fórmula de convolución

P (X + Y = z) = z∑

x=0

( 1

x! λxe−λ

)( 1

(z − x)! µz−xe−µ

) =

1

z! (λ+ µ)ze−(λ+µ)

Es decir, si X ∼ Poisson(λ) e Y ∼ Poisson(µ) son independientes entonces la suma X + Y ∼ Poisson(λ+ µ).

El Teorema de transferencia anterior puede extenderse al caso multivariado de la siguiente manera:

Sean X,Y variables discretas y g : R2 → R entonces

E[g(X,Y )] = ∑ x

∑ y

g(x, y)P (X = x, Y = y) (7)

Usando (??) podemos introducir un importante indicador del grado de dependencia lineal entre dos variables aleatorias: La covarianza entre las variables X,Y es

Cov(X,Y ) = E[(X − µX)(Y − µY )] siendo µX = E(X) y µY = E(Y ).

Otros resultados importantes que podemos demostrar de forma sencilla con la fórmula de tran- ferencia (??) son:

5

1. Linealidad del valor esperado: Si Z = g(X,Y ) = aX + bY , con a, b ∈ R, entonces

E(Z) = E(aX + bY ) = aE(X) + bE(Y )

2. Fórmula para la covarianza: Cov(X,Y ) = E(XY )− E(X)E(Y )

3. Varianza de combinaciones lineales: Para todo a, b ∈ R,

V ar(aX + bY ) = a2V ar(X) + b2V ar(Y ) + 2abCov(X,Y ).

En particular, V ar(aX + b) = a2V ar(X).

4. Esperanza del producto y varianza de la suma de v.a. independientes: Si X,Y son independientes entonces

E(XY ) = E(X)E(Y )

V ar(X + Y ) = V ar(X) + V ar(Y )

4. Esperanza Condicional

La Esperanza Condicional de X dado el evento Y = y, la cual denotaremos por E(X|Y = y), es el valor esperado asociado a la función de masa de probabilidad condicional P (X = x|Y = y). Esto es,

E[X|Y = y] = ∑ x

x P (X = x|Y = y)

El siguiente resultado es un versión de la fórmula de particionamiento ya discutida.

Fórmula de particionamiento.

E[X] = ∑ y

E[X|Y = y]P (Y = y)

6

comentarios (0)
No hay comentarios
¡Escribe tú el primero!
Esta solo es una vista previa
3 páginas mostradas de 6 páginas totales
Descarga el documento