Docsity
Docsity

Prepare for your exams
Prepare for your exams

Study with the several resources on Docsity


Earn points to download
Earn points to download

Earn points by helping other students or get them with a premium plan


Guidelines and tips
Guidelines and tips

Contraste de hipótesis: Conceptos clave y aplicaciones, Summaries of Design

Este documento proporciona una guía detallada sobre el contraste de hipótesis, un concepto fundamental en el análisis estadístico. Abarca temas como el establecimiento de hipótesis estadísticas (h0 y h1), el nivel de significación, el cálculo del estadístico de contraste y su p-valor, la aceptación o rechazo de h0, los requisitos de parametricidad, los tipos de errores (tipo 1 y tipo 2) y la potencia estadística. También se explican los diferentes tipos de contrastes (bilateral y unilateral), la comprobación de los supuestos de normalidad y homogeneidad de varianzas, y el análisis de varianza (anova) para comparar tres o más medias. Finalmente, se abordan las comparaciones múltiples post-hoc y los métodos para controlar el error por familias de tests, como la corrección de bonferroni y el test de tukey-hsd. Este documento proporciona una sólida base teórica y práctica para comprender y aplicar el contraste de hipótesis en diversos campos de estudio.

Typology: Summaries

2023/2024

Uploaded on 05/08/2024

crisestruch
crisestruch 🇬🇧

2 documents

1 / 5

Toggle sidebar

Related documents


Partial preview of the text

Download Contraste de hipótesis: Conceptos clave y aplicaciones and more Summaries Design in PDF only on Docsity!

HIPÓTESIS Y NIVEL DE SIGNIFICACIÓN El CONTRASTE establece una comparación para determinar si las diferencias observadas se deben a un efecto significativo del factor de estudio o a **diferencias por el efecto del azar.

  1. ESTABLECER LAS HIPÓTESIS ESTADÍSTICAS**
  • H0 → siempre establece igualdad , que no existen diferencias entre las medias observadas o entre los datos y el modelo.
  • H1 → establece que sí existen diferencias entre las medias observadas o entre los datos y el modelo. 2) ESTABLECER EL NIVEL DE SIGNIFICACIÓN 𝛼 (p < 0,05) 3) CÁLCULO DEL ESTADÍSTICO DE CONTRASTE CON SU P-VALOR Estadísticos según el tipo de contraste. Pueden ser para:
    • Prueba de normalidad (Shapiro Wilk o Kolmogorov).
    • Media poblacional (z o t).
    • Diferencia de las 2 medias.
    • Análisis de varianzas (ANOVA). El p- valor para cada estadístico representa qué tan probable es encontrar la diferencia observada por el efecto del azar , evitando cometer el error tipo 1. 4) ACEPTACIÓN O RECHAZO DE H
  • Si p-valor < nivel de significación ( 𝛼 )H0 se rechaza , por lo que hay diferencias significativas entre las medias comparadas.
  • Si p-valor > nivel de significación ( 𝛼 )H0 se acepta, por lo que no existen diferencias estadísticamente significativas entre las medias comparadas. En base a esta decisión se elabora la respuesta y las conclusiones (establecer cuál es la variable de respuesta y entre qué grupos se establece la comparación). REQUISITOS DE PARAMETRICIDAD
  • Variables cuantitativas medidas a nivel de intervalo.
  • Aleatoriedad en la asignación de los individuos a los grupos.
  • Distribución normal de las variables.
  • Homogeneidad de varianzas (homocedasticidad) → la varianza dentro de cada grupo debe ser la misma a todos los niveles de la variable de interés.

ERRORES DE DECISIÓN Las decisiones de una hipótesis se basan en observaciones obtenidas a partir de una muestra, por lo que están sujetas a posibilidad de error.

  • ERROR DE TIPO 1 : se comete cuando rechazamos H0 siendo cierta (digo que hay diferencias cuando no las hay).
  • ERROR DE TIPO 2: se comete cuando no rechazamos H0 siendo HA verdadera (acepto H0 habiendo diferencias significativas). La probabilidad de cometer ambos tipos de errores se designa como probabilidad 𝛂 y :
  • 𝛂 → probabilidad de cometer el error tipo 1 → 𝛂 = P (decidir H1 /H0 es cierta).
  • → probabilidad de cometer el error tipo 2 → = P (decidir H0 / H1 es cierta).
  • POTENCIA ESTADÍSTICA → capacidad de la prueba para detectar una diferencia cuando verdaderamente existe. Es el complementario de . Cuánto soy capaz de detectar que hay diferencias.
    • Potencia = 1-
    • Potencia = p (rechazar H0/ H0 es falsa).
    • Potencia = p (optar por H1 / H1 es cierta). TIPOS DE CONTRASTES La hipótesis alternativa puede establecer que las medias son diferentes (contraste bilateral, a 2 colas). Puede proponerse que la diferencia ocurra en 1 dirección , que una de las medias sea superior o inferior a la otra (contraste unilateral, a 1 cola). En ambos contrastes la H0 es nula. El establecimiento que se realiza a un contraste unilateral o bilateral debe hacerse al inicio del estudio, antes de realizar el análisis. Normalmente se trabaja con el contraste bilateral , pero en el diseño experimental o estado de conocimiento se puede plantear el unilateral (si está bien fundamentado).

COMPROBACIÓN DE LOS REQUISITOS DE PARAMETRICIDAD

  • PRUEBAS DE NORMALIDAD:
    • Comprobación visual → histograma, gráfico de densidad.
    • Test de estadísticos → Shapiro Wilk (n <30) o Kolmogorov (n >31).
    • Concluyo que los datos no son normales si p-valor < 0,05 (suele cumplirse en muestras grandes, n >50)
  • PRUEBA DE HOMOGENEIDAD DE VARIANZAS:
    • Test de Levene.
    • Compruebo que los datos no son homocedásticos cuando p-valor < 0,. CONTRASTE PARA 2 MEDIAS → MUESTRAS INDEPENDIENTES Se realiza un contraste para la diferencia de medias de 2 grupos (cada uno independiente del otro). Si las desviaciones típicas poblacionales (σ) son conocidas , se utiliza la distribución normal tipificada (puntuaciones z), normalmente en muestras grandes (n>500). En la mayoría de los casos, σ es desconocida y se debe usar la distribución t de student. ❖ DISTRIBUCIÓN T DE STUDENT Varía en función de los grados de libertad (tamaño muestral). Es similar a la distribución normal tipificada:
    • Área total bajo la curva es 1.
    • Se extiende indefinidamente en ambas direcciones en el eje horizontal, pero no llega a tocarlo.
    • La curva es simétrica en torno al 0.
    • A más grados de libertad , la curva tiende a la distribución normal. CONTRASTE PARA 2 MEDIAS → MUESTRAS PAREADAS O DEPENDIENTES Se establece un contraste para la diferencia de 2 medias pero ambas provienen del mismo grupo (ya no son independientes). También se utiliza la distribución t de student , pero cambia el cálculo de los grados de libertad y del estadístico de contraste.

CONTRASTE PARA 3 MEDIAS O MÁS → ANÁLISIS DE VARIANZAS (ANOVA) Tenemos k grupos y n individuos , con x 土s para cada grupo. Se realiza una comparación de la variabilidad entre grupos con la variabilidad dentro de los grupos → cálculo del estadístico F. ❖ DISTRIBUCIÓN F Estadístico para comparar la ratio de variación sistemática (entre grupos) con la variación no sistemática (dentro de grupos - error). Es una distribución de probabilidad continua asimétrica , con rango [0, +∞). Es una ratio (F) entre la varianza de 2 variables , dependiente de los grados de libertad (gl) del numerador y denominador. El área total bajo la curva es 1. El eje X se inicia en 0 y se extiende indefinidamente hacia la derecha , pero nunca toca el eje horizontal. Presenta asimetría hacia la derecha. ❖ TABLA DEL ANOVA VARIABILIDAD gl SC MC ESTADÍSTICO F ENTRE GRUPOS k - 1 SCG (^) 𝑀𝐶𝐺 = 𝑆𝐶𝐺 𝑔𝑙𝐸 𝐹𝑐^ =^ 𝑀𝐶𝐺 𝑀𝐶𝐸 DENTRO DE GRUPOS (error) n - k SCE (^) 𝑀𝐶𝐸 = 𝑆𝐶𝐸 𝑔𝑙𝐸 𝐹𝑐^ =^ 𝑀𝐶𝐺 𝑀𝐶𝐸 TOTAL n - 1 SCT ❖ CÁLCULO DEL ESTADÍSTICO DE CONTRASTE (Fc) SUMA DE CUADRADOS TOTAL (SCT) MEDIA DE CUADRADOS DE GRUPOS (MCG) 𝑆𝐶𝑇 = Σ(𝑥 𝑖

− 𝑥 𝑔𝑙𝑜𝑏𝑎𝑙)

2 𝑀𝐶𝐺 = 𝑆𝐶𝐺 𝑔𝑙𝐺 SUMA DE CUADRADOS DE GRUPOS (SCG) MEDIA DE CUADRADOS DE ERROR (MCE) 𝑆𝐶𝐺 = Σ 𝑛 𝑘

(𝑥

𝑘

− 𝑥

𝑔𝑙𝑜𝑏𝑎𝑙

)

2 𝑀𝐶𝐸 = 𝑆𝐶𝐸 𝑔𝑙𝐸 SUMA DE CUADRADOS DEL ERROR (SCE) F DE CONTRASTE (ESTADÍSTICO F) 𝑆𝐶𝐸 = Σ (𝑛𝑘 − 1) 𝑠𝑘 2 𝑆𝐶𝐸 = 𝑆𝐶𝑇 − 𝑆𝐶𝐺

𝐹𝑐 =

𝑀𝐶𝐺 𝑀𝐶𝐸

COMPARACIONES MÚLTIPLES (ANÁLISIS POST- HOC) Comparaciones por pares para determinar las diferencias entre cada posible combinación. Error por familias de test (series de tests en 1 solo set de datos). ❖ MÉTODOS PARA CONTROLAR EL ERROR POR FAMILIAS DE TESTS Evitar este incremento en la probabilidad de cometer el error tipo 1 y mantener el nivel de significación global fijado inicialmente → 𝛼 = 0,05 y 𝛼 = 0,01.

  • CORRECCIÓN DE BONFERRONI : corrige el nivel de significación (𝛼) por el número de comparaciones (m) según el número de grupos (k).
  • TEST DE TUKER - HSD: busca los niveles críticos de significación en un tipo de distribución t (distribución q), que varía en función del número de grupos (k) y los grados de libertad del error (V). ❖ CONSIDERACIONES
  • Si el número de grupos (k) es grande, al usar la corrección de Bonferroni, la probabilidad de cometer el error tipo 1 sería muy baja, pero la de cometer el error tipo 2 crece (se pierde poder estadístico).
  • La corrección de Bonferroni sería recomendable cuando la cantidad de grupos es pequeña. A medida que aumentan los grupos , el test de Tukey mantiene mejor el poder estadístico.