Docsity
Docsity

Przygotuj się do egzaminów
Przygotuj się do egzaminów

Studiuj dzięki licznym zasobom udostępnionym na Docsity


Otrzymaj punkty, aby pobrać
Otrzymaj punkty, aby pobrać

Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium


Informacje i wskazówki
Informacje i wskazówki

Probabilidad y Estadística: Conceptos Fundamentales, Streszczenia z Biologia

Una introducción detallada a los conceptos fundamentales de probabilidad y estadística. Abarca temas como el espacio muestral, sucesos aleatorios, probabilidad clásica, probabilidad frecuentista, axiomática de kolmogorov, probabilidad condicional, teorema de la probabilidad total, teorema de bayes, probabilidad lógica y probabilidad subjetiva. También se exploran conceptos avanzados como variables aleatorias discretas y continuas, función de distribución, esperanza matemática y distribuciones de probabilidad discretas como la uniforme discreta y la binomial. Este documento proporciona una sólida base teórica y práctica para comprender los principios fundamentales de la probabilidad y la estadística, lo que lo convierte en un recurso valioso para estudiantes universitarios, investigadores y profesionales en diversos campos.

Typologia: Streszczenia

2019/2020

Załadowany 22.09.2022

Baskitoo.
Baskitoo. 🇵🇱

3 dokumenty


Podgląd częściowego tekstu

Pobierz Probabilidad y Estadística: Conceptos Fundamentales i więcej Streszczenia w PDF z Biologia tylko na Docsity! Probabilidad Introducción  Fenómeno determinista: es aquel que, cuando se reproduce en las mismas  condiciones, podemos predecir con certeza cuál va a ser el resultado.  Fenómeno aleatorio: es aquel que en cada manifestación, aunque se produzca  bajo idénticas condiciones, el resultado no se puede predecir con certeza, y  sólo es conocido después de su realización.  Sucesos aleatorios: constituyen las categorías potenciales del fenómeno, de  forma que alguno de esos sucesos, después de la realización del fenómeno, se  transformará en observación o resultado.  Pero una mayor reducción de nuestro nivel de incertidumbre no sólo se logra  con la enumeración del conjunto de sucesos aleatorios que puedan  manifestarse, sino asignando a cada suceso un indicador de las posibilidades  que tiene de acontecer: ese indicador no es otra cosa que lo que denominamos probabilidad.   La probabilidad será, pues, la medida del grado de incertidumbre consustancial a cada suceso aleatorio, de manera que al no poder conocer de antemano y  con certeza cuál va a ser el resultado del fenómeno aleatorio, al menos se  intenta cuantificar qué posibilidades tiene de presentarse cada uno de sus  sucesos. Experimento aleatorio Experimento: entendemos cualquier acción que pueda dar lugar a resultados  identificables. Podemos encontrar:  Si los resultados del experimento pueden ser distintos y no se sabe cuál de ellos aparecerá al final, el experimento se llamará aleatorio.  Si el resultado es siempre el mismo diremos que es cierto o seguro,  denominándose el experimento que lo origina determinista. Ejemplo: Una ruleta puede parar en un número del uno al cinco. Este experimento es  aleatorio pues se puede repetir todas las veces que deseemos, conocemos cuáles son  sus posibles resultados, no sabemos cual de estos posibles resultados aparecerá y,  repetidos en las mismas condiciones, puede obtenerse cualquier resultado. La Probabilidad La probabilidad nace de la necesidad de cuantificar los posibles casos dentro de un  suceso aleatorio. Gracias a esto, podemos ver sus comportamientos y reducir al  máximo el grado de incertidumbre. La imposibilidad de conocer de antemano el resultado en los experimentos aleatorios  genera incertidumbre pero •¿La intensidad de esta incertidumbre tiene que ser igual de unos experimentos a  otros? El término de probabilidad es utilizado de múltiples maneras:  La científica:  donde la probabilidad puede expresarse numéricamente.   La lógica o de hipótesis: que no puede medirse. Sucesos Espacio muestral: conjunto de todos los posibles resultados de un experimento  aleatorio, E, llamando a casa uno de sus elementos integrantes suceso elemental. Suceso complementario El complementario de un suceso S, denominado S*, es el suceso compuesto por los  elementos de E que no pertenecen a S.  Se comprueba, en este caso sin dificultad, que: Concepto de probabilidad Probabilidad clásica Es con Laplace en 1812 cuando, con su definición de probabilidad conocida como clásica, comienza el definitivo arranque del Cálculo de Probabilidades. Laplace define la probabilidad de un suceso como el cociente entre el número de casos favorables y el número total de casos, siempre que todos sean igualmente posibles. Ejemplo: La probabilidad de extraer un as de una baraja perfecta de cuarenta cartas se calcula  de la siguiente forma: el número de casos favorables es cuatro, pues en la baraja hay  cuatro ases, y el número de casos posibles cuarenta, las cuarenta cartas que pueden  extraerse, por lo cual la probabilidad de obtener un as es igual a 4/40 = 1/10.  De la definición clásica de la probabilidad se desprenden una serie de propiedades:   P(S) >=0. La probabilidad se ha definido como el cociente del número de casos favorables al suceso S y el número de casos posibles, por lo que el cociente no puede ser negativo, y su límite inferior O se alcanza cuando el número de  casos favorables sea nulo.   P(S) <=1. El número de casos favorables nunca puede ser mayor que el número total de casos, a lo sumo igual.  Estas dos propiedades conducen a que la probabilidad de un suceso esté acotada,  O<=P(S)>=l.  Si el suceso es obtener cualquier número del 1 al 6, suceso cierto, el número de casos favorables (6) coincide con el total (6) y su cociente es la unidad.  Si, por el contrario, el suceso consiste en que no salga ningún número del 1 al 6, suceso imposible, su probabilidad es cero, pues en el espacio muestral no hay ningún suceso que cumpla esta condición siendo, por tanto, el número de casos favorables cero.  EJEMPLO Sea el experimento aleatorio consistente en arrojar un dado solamente una vez y el suceso de interés obtener número par. En el experimento: •  El espacio muestral está integrado por los seis primeros números enteros, E=  {1, 2, 3, 4, 5, 6}. •  El suceso concreto, que denominaremos S, es un suceso compuesto, S =  {número par} = {2, 4, 6}, es decir, obtenido siempre que al arrojar el dado el  número resultante sea 2 o 4 o 6.  • Planteado así el experimento, el número total de casos que pueden darse es  seis, {1, 2, 3, 4, 5, 6}, y el de favorables tres, {2, 4, 6}.  • Si suponemos que utilizamos un dado ideal (por lo cual todos los elementos del espacio muestral { 1, 2, 3, 4, 5, 6} son igualmente posibles, ninguno se  manifiesta con más o menos intensidad que los otros), la teoría clásica define la probabilidad del suceso S, P(S), como el cociente del número de casos  favorables, tres, respecto al del número total de casos posibles, seis. INCONVENIENTES La definición de probabilidad clásica presenta inconvenientes que hacen su aplicación  muy limitada. Hemos dicho que, por ejemplo, el dado objeto del experimento aleatorio es ideal. Esta  afirmación contiene implicaciones importantes. No existe ningún dado (o moneda,  baraja, etc.) ideal, perfecto, pues no es absolutamente simétrico en cuanto a la forma,  a las propiedades físicas de la materia con que está elaborado, etc., es decir, la utilización de la probabilidad clásica queda circunscrita únicamente al mundo matemático, pues sólo admite tratar con objetos ideales. La probabilidad clásica requiere que todos los casos sean igualmente posibles (principio de razón insuficiente). BASES DE LA TEORÍA Esta teoría se basa en dos pilares:  En la experiencia de la estabilidad de las frecuencias relativas o regularidad estadística: a pesar del comportamiento irregular de los resultados  individuales, los resultados promedios, en largas sucesiones de experimentos  aleatorios, muestran una sorprendente regularidad. La frecuencia relativa de un suceso está comprendida entre 0 y 1  En la aceptación de la objetividad de la probabilidad EJEMPLO Un experimento aleatorio consiste en arrojar una moneda real, con todos los defectos  que pueda tener una moneda corriente, y el suceso de interés consiste en obtener  cara. Si el experimento se repite 10 veces, la frecuencia absoluta del número de caras  resulta, por ejemplo, 4 y la frecuencia relativa es 4/10. Si arrojamos el dado 100 veces  y el número de caras es 42, su frecuencia relativa es 42/100. Aumentando el número  de veces que arrojamos la moneda en cada experimento, las frecuencias relativas  pueden haber sido 0,413, 0,3905, ... , 0,40652, .. ., 0,39879, .. ., observándose que a  Podemos leer que la probabilidad de que ocurra el suceso B es igual a la suma de las  probabilidades condicionadas del suceso B con los distintos sucesos A por la  probabilidad de cada suceso A Un ejemplo que puede explicar el teorema de la probabilidad total:  TEOREMA DE BAYES Este teorema nos permite calcular la probabilidad de un suceso, habiendo obtenido  información de antemano sobre ese suceso. Gracias este teorema, podemos calcular la probabilidad del suceso A, conociendo que  el suceso A cumple con dicha característica condicionante de su probabilidad.  El Teorema de Bayes es la forma inversa de comprender la probabilidad del teorema  de la probabilidad total. Es decir, normalmente el teorema de la probabilidad total  calcula la probabilidad de un suceso B, a partir de las probabilidades del suceso A. La fórmula para calcular el teorema de Bayes es la siguiente:  Esto se lee de la siguiente manera: el Teorema de Bayes es la división en entre una  probabilidad del suceso A por la probabilidad del suceso B, partido por el teorema de  la probabilidad total.  Un ejemplo del Teorema de Bayes el siguiente:    INDENPENDECIA DE SUCESOS El concepto de independencia de sucesos se presenta mediante el siguiente ejemplo.  Consideremos una bolsa con 10 bolas, 8 blancas y 2 negras, indistinguibles entre sí  excepto por el color. Se extraen consecutivamente dos bolas y queremos determinar la probabilidad de que la segunda sea blanca.  Para contestar a esta pregunta debemos diferenciar los dos procedimientos de  extracción: con reemplazamiento y sin reemplazamiento. La extracción es con  reemplazamiento cuando obtenida una bola vuelve a la bolsa, y sin reemplazamiento  cuando queda fuera.  Analicemos las consecuencias de seguir una u otra forma de extracción en el cálculo de la probabilidad buscada • En la extracción con reemplazamiento los sucesos considerados son independientes y en el segundo (sin reemplazamiento) no son independientes, son condicionados, la primera extracción condiciona, modifica, la probabilidad  de la segunda. PROBABILIDAD LÓGICA Según los logicistas, la probabilidad como grado de creencia racional asociado a cada  proposición o grupo de proposiciones, es una consecuencia que se desprende del  diferente grado de implicación que pueda establecerse entre grupos de proposiciones  o enunciados Para comprender mejor el sentido de la probabilidad lógica partamos, como ejemplo,  donde las premisas iniciales sean  • A1 ~ Todos los perros ladran  • A2 ~ Pluto es un perro  Y la conclusión • B ~ Luego Pluto ladra Las premisas A1 y A2 llevan necesariamente, es decir, con absoluta certeza, a la  conclusión B, por lo que el grado de implicación entre ellas será total. En este caso,  los logicistas dicen que la probabilidad lógica es igual a la unidad, pues otorgan el  campo de variación [o; 1] a su medida de probabilidad, asimilando P = 1 a la situación  de certeza Por el contrario, cuando la afirmación de las premisas iniciales conduce al no  cumplimiento de la conclusión, ésta es imposible, y por tanto, la probabilidad asignada es cero.  Sin embargo, hay muchos otros casos, en nuestras construcciones lógicas, donde el  grado de implicación no toma ninguno de estos dos valores extremos, sino que se  debe situar en algún punto del continuo que existe entre cero y uno. KEYNES Keynes mantiene que los grados de creencia no siempre pueden fijarse numéricamente, es decir, no siempre son cuantificables, bien:  Por falta de conocimiento o evidencia suficiente sobre la relación que pudiera  existir entre las premisas o en las proposiciones,  Por la imposibilidad de establecer el conjunto completo de alternativas posibles que permitan aplicar el principio de razón insuficiente , al que Keynes llamó  principio de indiferencia. Variable aleatoria discreta Una variable aleatoria es de tipo discreto cuando su campo de variación se compone  de un número finito o numerable de puntos. La cantidad de masa de probabilidad recibe el nombre de función de cuantía de la  variable aleatoria y la designamos de la siguiente forma:  Variable aleatoria continua Una variable aleatoria es continua si su conjunto de posibles valores es todo un  intervalo (finito o infinito) de números reales. La función de densidad representa la distribución de densidad de toda la población.  Las propiedades de la función de densidad son: Apéndice función de densidad:   Tema 3. Características de las distribuciones de probabilidad Esperanza matemática La esperanza matemática de una variable aleatoria X es el número que expresa el valor medio del fenómeno que representa dicha variable. Se calcula como el  sumatorio de las probabilidad de que exista un suceso multiplicado por el valor del  suceso aleatorio. E( )=∑xipiꜪ Por la ley de regularidad estadística (acuérdate de las teorías de probabilidad  frecuentistas) se cumple que: X= ∑xi ¿   N Concepto La esperanza matemática de la distribución de probabilidad de una variable aleatoria   se define como:Ꜫ  Distribuciones de tipo discreto: o E( )=∑xipiꜪ Suma de cada valor que puede tomar la variable multiplicado por su probabilidad.  Distribuciones de tipo continuo: o E( )=Ꜫ ∫ −∞ ∞ xf ( x )dx Donde f(x) es la función de densidad de la variable aleatoria, y f(x) dx la probabilidad  elemental que puede asignarse a cada punto x  Distribuciones de tipo mixto: o E( )= ∑xipi Ꜫ ∫ −∞ ∞ xf ( x )dx Si el dominio o campo de variación de   consta de valores discretos e intervalos Ꜫ continuos. Existencia de la esperanza matemática La función de densidad es  precisamente este contorno. Es una  linea continua que representa la  distribución de densidad de TODA LA POBLACIÓN. En las distribuciones de tipo discreto, si el dominio o campo de variación de la variable no está formado por un conjunto finito, sino por un conjunto infinito numerable,  entonces: E( )=Ꜫ ∑ i=1 ∞ xipi Es una serie infinita que puede ser convergente o divergente. Por tanto, E( ) existirá si:Ꜫ E( )=Ꜫ ∑ i=1 ∞ |xi|pi < ∞ En las distribuciones de tipo continuo, si el dominio de la variable no es finito, la  esperanza matemática se tendrá que expresar como integral impropia: E( )=Ꜫ ∫ −∞ ∞ xf ( x ) dx Que si no toma un valor finito conduce a que la esperanza matemática no existirá. Por  tanto, para que exista debe cumplirse: E( )=Ꜫ ∫ −∞ ∞ |xi|f (x )dx < ∞ Propiedades de la esperanza matemática  La esperanza matemática de una constante es igual a la misma constante. o E(C)=C Consideramos una constante como variable aleatoria, que recibe el nombre de degenerada o causal, cuya distribución es tal que P( =C)=1.Ꜫ  La esperanza matemática de la suma algebraica de variables aleatorias es igual a la suma algebraica de las esperanzas matemáticas de cada una de esas  variables aleatorias. o E( 1+ 2…+ n)= E( 1)+ E( 2)+…. E( n)Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ  La esperanza matemática de un producto de variables aleatorias es igual al producto de las esperanzas de cada una de las variables aleatorias, si y sólo si  son estadísticamente independientes. o E( 1* 2…* n)= E( 1)* E( 2)*…. E( n)Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ Ꜫ El valor medio o esperanza matemática, de las desviaciones de los valores de la  variable aleatoria respecto a su media es igual a cero. E( -µ)=0Ꜫ Si a una variable aleatoria se le suma una constante su esperanza matemática queda modificada en esa misma constante, es decir, un cambio de origen en la variable  aleatoria afecta a su esperanza matemática. E( -C)=E( )-CꜪ Ꜫ Si una variable aleatoria se multiplica por una constante su esperanza matemática queda multiplicada por esa constante. Un cambio de escala en la variable aleatoria  afecta a su esperanza matemática. La desigualdad de Chebyshev es un teorema utilizado en estadística que proporciona  una estimación conservadora (intervalo de confianza) de la probabilidad de que una  variable aleatoria con varianza finita se sitúe a una cierta distancia de su esperanza  matemática o de su media. Asimetría y curtosis Junto a las características relativas al valor resumen o media de una distribución de  probabilidad y de la medida de la dispersión alrededor de ese valor medio, también es  conveniente estudiar otros parámetros característicos que pueden informar sobre el perfil o forma de esa distribución. Estudiaremos, a continuación, una tipología de las distribuciones de probabilidad de  acuerdo con la forma que tenga su representación gráfica, y estableceremos  precisamente las medidas de forma que permitan tal clasificación. Tradicionalmente  son dos las características de forma que se incluyen en este tipo de análisis, la asimetría y la curtosis. Asimetría   Curtosis   Tema 4. Distribuciones de probabilidades discretas Modelos discretos elementales Distribución uniforme discreta Recibe el nombre de distribución uniforme discreta la que describe el  comportamiento de una variable aleatoria que puede tomar n valores distintos con la  misma probabilidad cada uno de ellos, es decir, se reparte la masa total de  probabilidad por igual o uniformemente, por lo que su función de cuantía es La función de distribución es igual a: La esperanza matemática es: La varianza: En el caso particular de que xj=j, es decir, si la variable aleatoria toma como valores los  n primeros números naturales, entonces: Distribución binomial (0;1) o de Bernoulli