Notes sur les tests d'hypothèse - 1° partie, Notes de Mathématiques
Caroline_lez
Caroline_lez14 January 2014

Notes sur les tests d'hypothèse - 1° partie, Notes de Mathématiques

PDF (307.4 KB)
10 pages
292Numéro de visites
Description
Notes de mathématique sur les tests d'hypothèse - 1° partie. Les principaux thèmes abordés sont les suivants: les relations, le test de conformité, l'analyse de la variance (anova a un facteur).
20points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Aperçu3 pages / 10
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Aperçu avant impression terminé
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Aperçu avant impression terminé
Chercher dans l'extrait du document

Tests d'hypothèse (Ou d'adéquation)

Lors de notre étude des intervalles de confiance, rappelons nous sommes arrivées aux relations

suivantes:

(7.191)

et:

(7.192)

et:

(7.193)

et enfin:

(7.194)

qui permettaient donc de faire de l'inférence statistique en fonction de la connaissance ou non de

la moyenne ou de la variance vraie sur la totalité ou sur un échantillon de la population. En

d'autres termes de savoir dans quelles bornes se situait un moment (moyenne ou variance) en

fonction d'un certain niveau de confiance imposé. Nous avions vu que le deuxième intervalle ci-

dessus ne peut être que difficilement utilisé dans la pratique (suppose la moyenne théorique

connue) et nous lui préférons donc le troisième.

Nous allons également démontré en détails plus loin les deux intervalles suivants:

(7.195)

et:

(7.196)

Le premier intervalle ci-dessus ne peut être lui aussi que difficilement utilisé dans la pratique

(suppose la moyenne théorique connue) et nous lui préférons donc le deuxième.

Lorsque nous cherchons à savoir si nous pouvons faire confiance à la valeur d'un moment ou

d'une variable aléatoire en général avec une certaine confiance, nous parlons de "test d'hypothèse"

ou "test d'adéquation" ou encore de "test de conformité".

Les tests d'hypothèses sont destinés à vérifier si un échantillon peut être considéré comme extrait

d'une population donnée ou représentatif de cette population, vis-à-vis d'un paramètre comme la

moyenne, la variance ou la fréquence observée. Ceci implique que la loi théorique du paramètre

est connue au niveau de la population.

Par exemple, si nous souhaitons savoir avec une certaine confiance si une moyenne donnée d'un

échantillon de population est réaliste par rapport à la vraie moyenne théorique inconnue, nous

utiliserons le "test-Z" qui est simplement:

(7.197)

si la moyenne de toute la population se trouve bien dans les bornes pour la confiance donnée, la

moyenne de l'échantillon test de taille navec l'écart-type de toute la population connue!

Maintenant rappelons que nous avons démontré que si nous avions deux variables aléatoires de

loi:

(7.198)

alors la soustraction (différencier) des moyennes donne:

(7.199)

Donc pour la différence de deux moyennes de variables aléatoires provenant de deux échantillons

de population nous obtenons directement:

(7.200)

Nous pouvons alors adapter le test-Z sous la forme:

(7.201)

Cette relation est très utile lorsque pour deux échantillons de deux populations de données, nous

voulons vérifier s'il existe une différence significative des différences des moyennes théoriques à

un niveau de confiance donné et la probabilité associée pour avoir cette différence par exemple

donné par:

(7.202)

Donc:

(7.203)

Nous parlons du "test-Z de la moyenne à deux échantillons" et il est beaucoup utilisé dans

l'industrie pour vérifier l'égalité de la moyenne de deux populations de mesures.

Et si l'écart-type théorique n'est pas connu, nous utiliserons le"test-T" de Student (pas mal utilisé

en pharmaco-économie) démontré plus haut:

(7.204)

Dans la même idée pour l'écart-type, nous utiliserons le "test du khi-deux" aussi déjà démontré

plus haut:

(7.205)

Et lorsque nous voulons tester l'égalité de la variance de deux populations nous utilisons le "test-

F" de Fisher (démontré plus bas lors de notre étude de l'analyse de la variance):

(7.206)

Le fait que nous obtenions alors l'ensemble des valeurs satisfaisant à ce test borné à droite et (!) à

gauche est ce que nous appelons dans le cas général un "test bilatéral" car il comprend le test

unilatéral à gauche et unilatéral à droite. Ainsi, tous les tests susmentionnés sont dans une forme

bilatérale mais nous pourrions en faire une analyse unilatérale aussi!:

(7.207)

Signalons aussi que les tests d'hypothèses sur l'écart-type (variance), la moyenne ou la corrélation

sont appelés des "tests paramétriques" à l'inverse des tests non-paramétriques que nous verrons

plus loin.

Remarque: Il existe également une autre définition du concept de test paramétrique et non-paramétrique

(un peu différente car plus précise) à voir plus loin...

Enfin, de nombreux logiciels calculent ce que nous appelons la "p-value" qui est généralement (car

c'est le statisticien qui va faire le choix du niveau de qualité de son estimation) le risque limite

pour lequel nous passons de l'état d'hypothèse acceptée à l'état refusée.

Pour un test, le 5% de risque est celui de rejeter l'hypothèse alors même qu'elle est vraie. Si le

risque est 5% et que la p-value est inférieure, le test échoue (rejet de l'hypothèse). Nous acceptons

l'hypothèse si la p-value est plus grande que 5% (0.05). Au fait, plus la p-value est grande, mieux

c'est car l'intervalle de confiance est de plus en plus petit. Si l'intervalle de confiance vient à être

énorme (très proche de 100%) car la p-value est très petite alors l'analyse n'a plus vraiment de

sens physiquement parlant!

Remarque: Nous ne devrions jamais dire que nous "acceptons" une hypothèse ou encore qu'elle est"vraie"

ou "fausse" car ces termes sont trop forts. Nous devrions dire si nous "rejetons" ou non l'hypothèse et

qu'elle est éventuellement "correcte" ou "non correcte".

Nous allons dans ce qui suit démontrer l'origine du test-F de Fisher et par la même occasion nous

introduirons deux autres tests qui sont le "test-T homoscédastique" et le "test-

T hétéroscédastique".

10.1. ANALYSE DE LA VARIANCE (ANOVA a un facteur)

L'objectif de l'analyse de la variance (contrairement à ce que son nom pourrait laisser penser) est

une technique statistique permettant de comparer les moyennes de deux populations ou plus (très

utilisé dans le pharma ou dans les labos de R&D ou de bancs d'essais). Cette méthode, néanmoins,

doit son nom au fait qu'elle utilise des mesures de variance afin de déterminer le caractère

significatif, ou non, des différences de moyenne mesurées sur les populations.

Plus précisément, la vraie signification est de savoir si le fait que des moyennes d'échantillons sont

(légèrement) différentes peut être attribué au hasard de l'échantillonnage ou provient du fait que

facteur de variabilité engendre réellement des échantillons qui sont significativement différents (si

nous avons les valeurs de toute la population, nous n'avons rien à faire!).

Pour l'analyse de la variance abrégée "ANOVA à une facteur" (ANalysis Of VAriance) ou "ANAVAR à

un facteur" (ANAlyse de la VARiance), dite aussi "ANOVA à une voie", nous allons d'abord rappeler,

comme nous l'avons démontré, que la loi de Fisher-Snedecor est donnée par le rapport de deux

variables aléatoires indépendantes suivant une loi du khi-deux et divisée par leur degré de liberté

tel que:

(7.208)

et nous allons voir maintenant son importance.

Considérons un échantillons aléatoire de taille n, disons issu de la loi et un

échantillon aléatoire de taille m, disons issu de la loi .

Considérons les estimateurs de maximum de vraisemblance de l'écart-type de la loi Normale

traditionnellement notée dans le domaine de l'analyse de la variance par:

et (7.209)

Les statistiques ci-dessus sont les statistiques que nous utiliserions pour estimer les variances si

les moyennes théoriques sont connues. Donc nous pouvons utiliser un résultat démontré

plus haut lors de notre étude des intervalles de confiance:

(7.210)

Comme les sont indépendantes des (hypothèse!), les variables:

(7.211)

sont indépendantes l'une de l'autre.

Nous pouvons donc appliquer la loi de Fisher-Snedecor avec:

et (7.212)

ainsi que:

et (7.213)

Nous avons donc:

(7.214)

Soit:

(7.215)

Ce théorème nous permet de déduire l'intervalle de confiance du rapport de deux variances

lorsque la moyenne théorique est connue. Puisque la fonction du Fisher n'est pas symétrique, la

seule possibilité pour faire l'inférence c'est de faire appel au calcul numérique et nous noterons

alors pour un intervalle de confiance donné le test de la manière suivante:

(7.216)

Dans le cas où les moyennes sont inconnues, nous utilisons l'estimateur sans biais de la

variance traditionnellement notée dans le domaine de l'analyse de la variance par:

et (7.217)

Pour estimer les variances théoriques, nous utilisons le résultat démontré plus haut:

et (7.218)

Comme les sont indépendantes des (hypothèse!), les variables:

(7.219)

sont indépendantes l'une de l'autre. Nous pouvons donc appliquer la loi de Fisher-Snedecor avec:

et (7.220)

ainsi que:

et (7.221)

Nous avons donc:

(7.222)

Soit:

(7.223)

Ce théorème nous permet de déduire l'intervalle de confiance du rapport de deux variances

lorsque la moyenne empirique est connue. Puisque la fonction du Fisher n'est pas symétrique, la

seule possibilité pour faire l'inférence c'est de faire appel au calcul numérique et nous noterons

alors pour un intervalle de confiance donné le test de la manière suivante:

(7.224)

R. A. Fisher (1890-1962) est, comme Karl Pearson, l'un des principaux fondateurs de la théorie

moderne de la statistique. Fisher étudia à Cambridge où il obtint en 1912 un diplôme en

astronomie. C'est en étudiant la théorie de l'erreur dans les observations astronomiques que

Fisher s'intéressa à la statistique. Fisher est l'inventeur de la branche de la statistique appelée

l'analyse de la variance.

Au début du 20ème siècle, R. Fischer développe donc la méthodologie des plans d'expérience (cf.

chapitre de Génie Industriel). Pour valider l'utilité d'un facteur, il met au point un test permettant

d'assurer que des échantillons différents sont de natures différentes. Ce test est basé sur l'analyse

de la variance (des échantillons), et nommé ANOVA (analyse normalisée de la variance).

Prenons k échantillons de n valeurs aléatoires chacun (appelé "facteur explicatif" dans l'analyse de

la variance). Chacune des valeurs étant considérée comme une observation ou une mesure de

quelque chose ou sur la base de quelque chose (un lieu différent, ou un objet différent... bref: un

seul et unique facteur de variabilité entre les échatillons!). Nous aurons donc un nombre total

de N d'observations (mesures) donnée par:

(7.225)

si chacun des échantillons a un nombre identique de valeurs tel que (nous parlons

alors de "plan équilibré" à k niveaux.

Remarque: Si nous avons plusieurs facteurs de variabilité (par exemple: chaque lieu comparé à lui-même

plusieurs labos), nous parlerons alors d'ANOVA multifactorielle. Dès lors, s'il n'y a que deux facteurs de

variabilité, nous parlons d'ANOVA à deux facteurs.

Nous considérerons que chacun des k échantillons est issu (suit) d'une variable aléatoire suivant

une loi Normale.

En termes de test, nous voulons tester si les moyennes des k échantillons sont égales sous

l'hypothèse que leurs variances sont égales. Ce que nous écrivons sous forme d'hypothèse de la

manière suivante:

(7.226)

Autrement dit: les échantillons sont représentatifs d'une même population (d'une même loi

statistique). C'est-à-dire que les variations constatées entre les valeurs des différents échantillons

sont dues essentiellement au hasard. Pour cela nous étudions la variabilité des résultats dans les

échantillons et entre les échantillons.

Nous noterons i l'indice d'échantillon (de 1 à k) et j l'indice de l'observation (de 1 à n).

Donc sera la valeur de la j-ème observation de l'échantillon de données numéro i.

Selon l'hypothèse susmentionnée, nous avons:

(7.227)

Nous noterons par la moyenne empirique/estimée (arithmétique) de l'échantillon i :

(7.228)

et la moyenne empirique/estimée des N valeurs (soit la moyenne des ) donnée donc par:

(7.229)

En utilisant les propriétés de l'espérance et de la variance déjà démontrées plus haut nous savons

que:

et (7.230)

avec qui est la moyenne des moyennes vraies :

(7.231)

Maintenant, introduisons la "variance totale" comme étant la variance estimée sans biais en

considérant l'ensemble des N observations comme un seul échantillon:

(7.232)

où rappelons que le terme au numérateur est appelé "variation totale".

La variance entre échantillons (c'est-à-dire entre les moyennes des échantillons) est l'estimateur

de la variance des moyennes des échantillons:

(7.233)

Comme nous avons démontré que si toutes les variables sont identiquement distribuées (même

variance) la variance des individus vaut n fois celle de la moyenne:

(7.234)

alors la variance des observations (variables aléatoires dans un échantillon) est donnée par :

(7.235)

Nous avons donc ci-dessus l'hypothèse de l'égalité des variances qui est exprimée sous forme

mathématique pour les développements à suivre.

La variance résiduelle est l'effet des facteurs dits non contrôlés. C'est par définition la moyenne

des variances des échantillons.

(7.236)

Au final, ces indicateurs sont parfois résumés sous la forme suivante:

(7.237)

Remarquons que si les échantillons n'ont pas la même taille (ce qui est rare), nous avons alors:

(7.238)

Remarques:

R1. Le terme est souvent indiqué dans l'industrie par l'abréviation SST signifiant en anglais

"Sum of Squares Total" ou plus rarement TSS pour "Total Sum of Square".

R2. Le terme est souvent indiqué dans l'industrie par l'abréviation SSB signifiant en anglais

"Sum of Squares Between (samples)" ou plus rarement SSk pour "Sum of Squared Beetween

treatments".

R3. Le terme est souvent indiqué dans l'industrie par l'abréviation SSW signifiant en anglais

"Sum of Squares Within (samples)" ou plus rarement SSE pour "Sum of Squared due to Errors".

Indiquons que nous voyons souvent dans la littérature (nous réutiliserons un peu plus loin cette

notation):

(7.239)

avec donc l'estimateur sans biais de la variance des observations:

(7.240)

Avant d'aller plus loin, arrêtons-nous sur la variance résiduelle. Nous avons donc pour des

échantillons qui ne sont pas de même taille:

(7.241)

Ouvrons maintenant une petite parenthèse... Prenons le cas particulier deux échantillons

seulement. Nous pouvons alors écrire:

(7.242)

Soit en introduisant l'estimateur de maximum de vraisemblance de la variance:

(7.243)

Nous pouvons d'ailleurs observer que dans le cas particulier où:

(7.244)

commentaires (0)
Aucun commentaire n'a été pas fait
Écrire ton premier commentaire
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Docsity n'est pas optimisée pour le navigateur que vous utilisez. Passez à Google Chrome, Firefox, Internet Explorer ou Safari 9+! Téléchargez Google Chrome