Pobierz Probabilidad y Estadística: Conceptos Fundamentales i więcej Streszczenia w PDF z Biologia tylko na Docsity! Probabilidad Introducción Fenómeno determinista: es aquel que, cuando se reproduce en las mismas condiciones, podemos predecir con certeza cuál va a ser el resultado. Fenómeno aleatorio: es aquel que en cada manifestación, aunque se produzca bajo idénticas condiciones, el resultado no se puede predecir con certeza, y sólo es conocido después de su realización. Sucesos aleatorios: constituyen las categorías potenciales del fenómeno, de forma que alguno de esos sucesos, después de la realización del fenómeno, se transformará en observación o resultado. Pero una mayor reducción de nuestro nivel de incertidumbre no sólo se logra con la enumeración del conjunto de sucesos aleatorios que puedan manifestarse, sino asignando a cada suceso un indicador de las posibilidades que tiene de acontecer: ese indicador no es otra cosa que lo que denominamos probabilidad. La probabilidad será, pues, la medida del grado de incertidumbre consustancial a cada suceso aleatorio, de manera que al no poder conocer de antemano y con certeza cuál va a ser el resultado del fenómeno aleatorio, al menos se intenta cuantificar qué posibilidades tiene de presentarse cada uno de sus sucesos. Experimento aleatorio Experimento: entendemos cualquier acción que pueda dar lugar a resultados identificables. Podemos encontrar: Si los resultados del experimento pueden ser distintos y no se sabe cuál de ellos aparecerá al final, el experimento se llamará aleatorio. Si el resultado es siempre el mismo diremos que es cierto o seguro, denominándose el experimento que lo origina determinista. Ejemplo: Una ruleta puede parar en un número del uno al cinco. Este experimento es aleatorio pues se puede repetir todas las veces que deseemos, conocemos cuáles son sus posibles resultados, no sabemos cual de estos posibles resultados aparecerá y, repetidos en las mismas condiciones, puede obtenerse cualquier resultado. La Probabilidad La probabilidad nace de la necesidad de cuantificar los posibles casos dentro de un suceso aleatorio. Gracias a esto, podemos ver sus comportamientos y reducir al máximo el grado de incertidumbre. La imposibilidad de conocer de antemano el resultado en los experimentos aleatorios genera incertidumbre pero •¿La intensidad de esta incertidumbre tiene que ser igual de unos experimentos a otros? El término de probabilidad es utilizado de múltiples maneras: La científica: donde la probabilidad puede expresarse numéricamente. La lógica o de hipótesis: que no puede medirse. Sucesos Espacio muestral: conjunto de todos los posibles resultados de un experimento aleatorio, E, llamando a casa uno de sus elementos integrantes suceso elemental. Suceso complementario El complementario de un suceso S, denominado S*, es el suceso compuesto por los elementos de E que no pertenecen a S. Se comprueba, en este caso sin dificultad, que: Concepto de probabilidad Probabilidad clásica Es con Laplace en 1812 cuando, con su definición de probabilidad conocida como clásica, comienza el definitivo arranque del Cálculo de Probabilidades. Laplace define la probabilidad de un suceso como el cociente entre el número de casos favorables y el número total de casos, siempre que todos sean igualmente posibles. Ejemplo: La probabilidad de extraer un as de una baraja perfecta de cuarenta cartas se calcula de la siguiente forma: el número de casos favorables es cuatro, pues en la baraja hay cuatro ases, y el número de casos posibles cuarenta, las cuarenta cartas que pueden extraerse, por lo cual la probabilidad de obtener un as es igual a 4/40 = 1/10. De la definición clásica de la probabilidad se desprenden una serie de propiedades: P(S) >=0. La probabilidad se ha definido como el cociente del número de casos favorables al suceso S y el número de casos posibles, por lo que el cociente no puede ser negativo, y su límite inferior O se alcanza cuando el número de casos favorables sea nulo. P(S) <=1. El número de casos favorables nunca puede ser mayor que el número total de casos, a lo sumo igual. Estas dos propiedades conducen a que la probabilidad de un suceso esté acotada, O<=P(S)>=l. Si el suceso es obtener cualquier número del 1 al 6, suceso cierto, el número de casos favorables (6) coincide con el total (6) y su cociente es la unidad. Si, por el contrario, el suceso consiste en que no salga ningún número del 1 al 6, suceso imposible, su probabilidad es cero, pues en el espacio muestral no hay ningún suceso que cumpla esta condición siendo, por tanto, el número de casos favorables cero. EJEMPLO Sea el experimento aleatorio consistente en arrojar un dado solamente una vez y el suceso de interés obtener número par. En el experimento: • El espacio muestral está integrado por los seis primeros números enteros, E= {1, 2, 3, 4, 5, 6}. • El suceso concreto, que denominaremos S, es un suceso compuesto, S = {número par} = {2, 4, 6}, es decir, obtenido siempre que al arrojar el dado el número resultante sea 2 o 4 o 6. • Planteado así el experimento, el número total de casos que pueden darse es seis, {1, 2, 3, 4, 5, 6}, y el de favorables tres, {2, 4, 6}. • Si suponemos que utilizamos un dado ideal (por lo cual todos los elementos del espacio muestral { 1, 2, 3, 4, 5, 6} son igualmente posibles, ninguno se manifiesta con más o menos intensidad que los otros), la teoría clásica define la probabilidad del suceso S, P(S), como el cociente del número de casos favorables, tres, respecto al del número total de casos posibles, seis. INCONVENIENTES La definición de probabilidad clásica presenta inconvenientes que hacen su aplicación muy limitada. Hemos dicho que, por ejemplo, el dado objeto del experimento aleatorio es ideal. Esta afirmación contiene implicaciones importantes. No existe ningún dado (o moneda, baraja, etc.) ideal, perfecto, pues no es absolutamente simétrico en cuanto a la forma, a las propiedades físicas de la materia con que está elaborado, etc., es decir, la utilización de la probabilidad clásica queda circunscrita únicamente al mundo matemático, pues sólo admite tratar con objetos ideales. La probabilidad clásica requiere que todos los casos sean igualmente posibles (principio de razón insuficiente). BASES DE LA TEORÍA Esta teoría se basa en dos pilares: En la experiencia de la estabilidad de las frecuencias relativas o regularidad estadística: a pesar del comportamiento irregular de los resultados individuales, los resultados promedios, en largas sucesiones de experimentos aleatorios, muestran una sorprendente regularidad. La frecuencia relativa de un suceso está comprendida entre 0 y 1 En la aceptación de la objetividad de la probabilidad EJEMPLO Un experimento aleatorio consiste en arrojar una moneda real, con todos los defectos que pueda tener una moneda corriente, y el suceso de interés consiste en obtener cara. Si el experimento se repite 10 veces, la frecuencia absoluta del número de caras resulta, por ejemplo, 4 y la frecuencia relativa es 4/10. Si arrojamos el dado 100 veces y el número de caras es 42, su frecuencia relativa es 42/100. Aumentando el número de veces que arrojamos la moneda en cada experimento, las frecuencias relativas pueden haber sido 0,413, 0,3905, ... , 0,40652, .. ., 0,39879, .. ., observándose que a Podemos leer que la probabilidad de que ocurra el suceso B es igual a la suma de las probabilidades condicionadas del suceso B con los distintos sucesos A por la probabilidad de cada suceso A Un ejemplo que puede explicar el teorema de la probabilidad total: TEOREMA DE BAYES Este teorema nos permite calcular la probabilidad de un suceso, habiendo obtenido información de antemano sobre ese suceso. Gracias este teorema, podemos calcular la probabilidad del suceso A, conociendo que el suceso A cumple con dicha característica condicionante de su probabilidad. El Teorema de Bayes es la forma inversa de comprender la probabilidad del teorema de la probabilidad total. Es decir, normalmente el teorema de la probabilidad total calcula la probabilidad de un suceso B, a partir de las probabilidades del suceso A. La fórmula para calcular el teorema de Bayes es la siguiente: Esto se lee de la siguiente manera: el Teorema de Bayes es la división en entre una probabilidad del suceso A por la probabilidad del suceso B, partido por el teorema de la probabilidad total. Un ejemplo del Teorema de Bayes el siguiente: INDENPENDECIA DE SUCESOS El concepto de independencia de sucesos se presenta mediante el siguiente ejemplo. Consideremos una bolsa con 10 bolas, 8 blancas y 2 negras, indistinguibles entre sí excepto por el color. Se extraen consecutivamente dos bolas y queremos determinar la probabilidad de que la segunda sea blanca. Para contestar a esta pregunta debemos diferenciar los dos procedimientos de extracción: con reemplazamiento y sin reemplazamiento. La extracción es con reemplazamiento cuando obtenida una bola vuelve a la bolsa, y sin reemplazamiento cuando queda fuera. Analicemos las consecuencias de seguir una u otra forma de extracción en el cálculo de la probabilidad buscada • En la extracción con reemplazamiento los sucesos considerados son independientes y en el segundo (sin reemplazamiento) no son independientes, son condicionados, la primera extracción condiciona, modifica, la probabilidad de la segunda. PROBABILIDAD LÓGICA Según los logicistas, la probabilidad como grado de creencia racional asociado a cada proposición o grupo de proposiciones, es una consecuencia que se desprende del diferente grado de implicación que pueda establecerse entre grupos de proposiciones o enunciados Para comprender mejor el sentido de la probabilidad lógica partamos, como ejemplo, donde las premisas iniciales sean • A1 ~ Todos los perros ladran • A2 ~ Pluto es un perro Y la conclusión • B ~ Luego Pluto ladra Las premisas A1 y A2 llevan necesariamente, es decir, con absoluta certeza, a la conclusión B, por lo que el grado de implicación entre ellas será total. En este caso, los logicistas dicen que la probabilidad lógica es igual a la unidad, pues otorgan el campo de variación [o; 1] a su medida de probabilidad, asimilando P = 1 a la situación de certeza Por el contrario, cuando la afirmación de las premisas iniciales conduce al no cumplimiento de la conclusión, ésta es imposible, y por tanto, la probabilidad asignada es cero. Sin embargo, hay muchos otros casos, en nuestras construcciones lógicas, donde el grado de implicación no toma ninguno de estos dos valores extremos, sino que se debe situar en algún punto del continuo que existe entre cero y uno. KEYNES Keynes mantiene que los grados de creencia no siempre pueden fijarse numéricamente, es decir, no siempre son cuantificables, bien: Por falta de conocimiento o evidencia suficiente sobre la relación que pudiera existir entre las premisas o en las proposiciones, Por la imposibilidad de establecer el conjunto completo de alternativas posibles que permitan aplicar el principio de razón insuficiente , al que Keynes llamó principio de indiferencia. Variable aleatoria discreta Una variable aleatoria es de tipo discreto cuando su campo de variación se compone de un número finito o numerable de puntos. La cantidad de masa de probabilidad recibe el nombre de función de cuantía de la variable aleatoria y la designamos de la siguiente forma: Variable aleatoria continua Una variable aleatoria es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números reales. La función de densidad representa la distribución de densidad de toda la población. Las propiedades de la función de densidad son: Apéndice función de densidad: Tema 3. Características de las distribuciones de probabilidad Esperanza matemática La esperanza matemática de una variable aleatoria X es el número que expresa el valor medio del fenómeno que representa dicha variable. Se calcula como el sumatorio de las probabilidad de que exista un suceso multiplicado por el valor del suceso aleatorio. E( )=∑xipiꜪ Por la ley de regularidad estadística (acuérdate de las teorías de probabilidad frecuentistas) se cumple que: X= ∑xi ¿ N Concepto La esperanza matemática de la distribución de probabilidad de una variable aleatoria se define como:Ꜫ Distribuciones de tipo discreto: o E( )=∑xipiꜪ Suma de cada valor que puede tomar la variable multiplicado por su probabilidad. Distribuciones de tipo continuo: o E( )=Ꜫ ∫ −∞ ∞ xf ( x )dx Donde f(x) es la función de densidad de la variable aleatoria, y f(x) dx la probabilidad elemental que puede asignarse a cada punto x Distribuciones de tipo mixto: o E( )= ∑xipi Ꜫ ∫ −∞ ∞ xf ( x )dx Si el dominio o campo de variación de consta de valores discretos e intervalos Ꜫ continuos. Existencia de la esperanza matemática La función de densidad es precisamente este contorno. Es una linea continua que representa la distribución de densidad de TODA LA POBLACIÓN. En las distribuciones de tipo discreto, si el dominio o campo de variación de la variable no está formado por un conjunto finito, sino por un conjunto infinito numerable, entonces: E( )=Ꜫ ∑ i=1 ∞ xipi Es una serie infinita que puede ser convergente o divergente. Por tanto, E( ) existirá si:Ꜫ E( )=Ꜫ ∑ i=1 ∞ |xi|pi < ∞ En las distribuciones de tipo continuo, si el dominio de la variable no es finito, la esperanza matemática se tendrá que expresar como integral impropia: E( )=Ꜫ ∫ −∞ ∞ xf ( x ) dx Que si no toma un valor finito conduce a que la esperanza matemática no existirá. Por tanto, para que exista debe cumplirse: E( )=Ꜫ ∫ −∞ ∞ |xi|f (x )dx < ∞ Propiedades de la esperanza matemática La esperanza matemática de una constante es igual a la misma constante. o E(C)=C Consideramos una constante como variable aleatoria, que recibe el nombre de degenerada o causal, cuya distribución es tal que P( =C)=1.Ꜫ La esperanza matemática de la suma algebraica de variables aleatorias es igual a la suma algebraica de las esperanzas matemáticas de cada una de esas variables aleatorias. o E( 1+ 2…+ n)= E( 1)+ E( 2)+…. E( n)Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ La esperanza matemática de un producto de variables aleatorias es igual al producto de las esperanzas de cada una de las variables aleatorias, si y sólo si son estadísticamente independientes. o E( 1* 2…* n)= E( 1)* E( 2)*…. E( n)Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ El valor medio o esperanza matemática, de las desviaciones de los valores de la variable aleatoria respecto a su media es igual a cero. E( -µ)=0Ꜫ Si a una variable aleatoria se le suma una constante su esperanza matemática queda modificada en esa misma constante, es decir, un cambio de origen en la variable aleatoria afecta a su esperanza matemática. E( -C)=E( )-CꜪ Ꜫ Si una variable aleatoria se multiplica por una constante su esperanza matemática queda multiplicada por esa constante. Un cambio de escala en la variable aleatoria afecta a su esperanza matemática. La desigualdad de Chebyshev es un teorema utilizado en estadística que proporciona una estimación conservadora (intervalo de confianza) de la probabilidad de que una variable aleatoria con varianza finita se sitúe a una cierta distancia de su esperanza matemática o de su media. Asimetría y curtosis Junto a las características relativas al valor resumen o media de una distribución de probabilidad y de la medida de la dispersión alrededor de ese valor medio, también es conveniente estudiar otros parámetros característicos que pueden informar sobre el perfil o forma de esa distribución. Estudiaremos, a continuación, una tipología de las distribuciones de probabilidad de acuerdo con la forma que tenga su representación gráfica, y estableceremos precisamente las medidas de forma que permitan tal clasificación. Tradicionalmente son dos las características de forma que se incluyen en este tipo de análisis, la asimetría y la curtosis. Asimetría Curtosis Tema 4. Distribuciones de probabilidades discretas Modelos discretos elementales Distribución uniforme discreta Recibe el nombre de distribución uniforme discreta la que describe el comportamiento de una variable aleatoria que puede tomar n valores distintos con la misma probabilidad cada uno de ellos, es decir, se reparte la masa total de probabilidad por igual o uniformemente, por lo que su función de cuantía es La función de distribución es igual a: La esperanza matemática es: La varianza: En el caso particular de que xj=j, es decir, si la variable aleatoria toma como valores los n primeros números naturales, entonces: Distribución binomial (0;1) o de Bernoulli