Notes sur l'univers des événements - 1° partie, Notes de Mathématiques
Caroline_lez
Caroline_lez14 janvier 2014

Notes sur l'univers des événements - 1° partie, Notes de Mathématiques

PDF (271 KB)
5 pages
184Numéro de visites
Description
Notes de mathématique sur l'univers des événements - 1° partie. Les principaux thèmes abordés sont les suivants: les observables, les deux événements, l'axiomatique de kolmogorov, les probabilités conditionnelles, les ex...
20points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Aperçu3 pages / 5
Ceci c'est un aperçu avant impression
3 shown on 5 pages
Télécharger le document
Ceci c'est un aperçu avant impression
3 shown on 5 pages
Télécharger le document
Ceci c'est un aperçu avant impression
3 shown on 5 pages
Télécharger le document
Ceci c'est un aperçu avant impression
3 shown on 5 pages
Télécharger le document

Univers des événements.

Définitions :

D1. L'univers des événements, ou des "observables", U est l'ensemble de toutes les issues

(résultats) possibles, appelées "événements élémentaires", qui se présentent au cours d'une

épreuve aléatoire déterminée.

L'univers peut être fini (dénombrable) si les événements élémentaires sont en nombre fini ou

continu (non dénombrable) s'ils sont infinis.

D2. Un "événement" quelconque A est un ensemble d'événements élémentaires et constitue une

partie de l'univers des possible U. Il est possible qu'un événement ne soit constitué que d'un seul

événement élémentaire.

Exemple:

Considérons l'univers de tous les groupes sanguins possible, alors l'événement A "l'individu est de

rhésus positif" est représenté par:

(6.1)

alors que l'événement B "l'individu est donneur universel" est représenté par:

(6.2)

qui constitue donc un événement élémentaire.

D3. Soit U un univers et A un événement, nous disons que l'événement A "à lieu" (ou "se réalise") si

lors du déroulement de l'épreuve se présente l'issue i et que . Dans le cas

contraire, nous disons que A "n'a pas lieu".

D4. Le sous-ensemble vide de U s'appelle "événement impossible". En effet, si lors de l'épreuve

l'issue i se présente, nous avons toujours et donc l'événement n'a donc jamais lieu.

Si U est fini, ou infini dénombrable, tout sous-ensemble de U est un événement, ce n'est plus vrai

si U est non dénombrable (nous verrons dans le chapitre de Statistique pourquoi).

D5. L'ensemble U s'appelle aussi "événement certain". En effet, si lors de l'épreuve l'issue i se

présente, nous avons toujours (car U est l'univers des événements). L'événement U a donc

toujours lieu.

D6. Soit A et B deux sous-ensembles de U. Nous savons que les

événements et sont tous deux des sous-ensembles de U donc des événements

aussi respectivement conjoints et disjoints.

Si deux événements A et B sont tels que :

(6.3)

les deux événements ne peuvent pas êtres réalisables pendant la même épreuve, nous disons

alors qu'ils sont des "événements incompatibles".

Sinon, si :

(6.4)

les deux événements peuvent êtres réalisables dans la même épreuve (possibilité de voir un chat

noir au moment où on passe sous une échelle par exemple), nous disons inversement qu'ils sont

des "événements indépendants".

Pour résumer:

- Incompatibles : Ils ne peuvent se produire ensemble.

- Indépendants : la réalisation de l'un ne modifie pas la probabilité de réalisation de l'autre.

1.1. AXIOMatique de kolmogorov

La probabilité d'un événement sera en quelque sorte le répondant de la notion de fréquence d'un

phénomène aléatoire, en d'autres termes, à chaque événement nous allons attacher un nombre

réel, appartenant à l'intervalle [0,1], qui mesurera sa probabilité (chance) de réalisation. Les

propriétés des fréquences que nous pouvons mettre en évidence lors d'épreuves diverses nous

permettent de fixer les propriétés des probabilités.

Soit U un univers. Nous disons que nous définissons une probabilité sur les événements de U si à

tout événementA de U nous associons un nombre ou une mesure P(A), appelé "probabilité à priori

de l'événement A" ou "probabilité marginale de A".

A1. Pour tout événement A:

(6.5)

Ainsi, la probabilité de tout événement est un nombre réel compris entre 0 et 1 inclus (c'est du

bon sens humain...).

A2. La probabilité de l'événement certain ou de l'ensemble (somme) des événements possibles est

égale à 1:

(6.6)

A3. Si sont deux événements incompatibles (disjoints), alors:

(6.7)

la probabilité de la réunion ("ou") de deux événements incompatibles est donc égale à la somme

de leurs probabilités (loi d'addition). Nous parlons alors de "probabilité disjointe".

Par exemple, si nous considérons qu'il est impossible d'avoir les cheveux totalement blonds et

bruns en même temps et que chaque état à une probabilité de 50%, alors la probabilité d'être l'un

ou l'autre des couleurs est la somme des probabilités... Nous retrouverons ce genre de probabilité

dans le chapitre de Génie Industriel dans la méthode AMDEC des systèmes à structure complexe

pour un exemple pratique.

Autrement dit sous forme plus générale si est une suite d'évènements disjoints deux à

deux ( et ne peuvent pas se produire en même temps si ) alors :

(6.8)

Nous parlons alors de "s-additivité" car si nous regardons de plus près les trois axiomes ci-dessus

la mesure Pforme une s-algèbre (cf. chapitre de Théorie de la Mesure).

Une conséquence immédiate des axiomes (A2) et (A3) est la relation entre les probabilités d'un

événement A et son complémentaire, noté :

(6.9)

Définition: Si A et B sont indépendants (ou mutuellement exclusifs), nous savons que ,

alors (très important en statistiques!) :

(6.10)

la probabilité de l'intersection ("et") de deux événements indépendants est égale au produit de

leurs probabilités (loi de multiplication). Nous parlons alors de "probabilité conjointe" (c'est le cas

le plus fréquent).

Autrement dit sous forme plus générale, les événements sont indépendants si la

probabilité de l'intersection est le produit des probabilités :

(6.11)

Remarque: Attention à ne pas confondre "indépendants" et "incompatibles"!

Soit U un univers comportant un nombre fini n d'issues possibles:

(6.12)

Les événements:

(6.13)

sont donc appelés "événements élémentaires". Lorsque ces événements ont même probabilité,

nous disons qu'ils sont "équiprobables". Dans ce cas, il est très facile de calculer leur probabilité.

En effet, ces événements étant par définition incompatibles entre eux à ce niveau de notre

discours, nous avons en vertu de l'axiome 3 des probabilités :

(6.14)

mais puisque :

(6.15)

et que les probabilités du membre de droite sont par hypothèse équiprobables, nous avons :

(6.16)

1.2. PROBABILITÉS CONDITIONNELLES

Que pouvons-nous déduire sur la probabilité d'un évènement B sachant qu'un évènement A est

réalisé? En d'autres termes, nous voulons savoir s'il est possible de définir la probabilité d'un

événement conditionnellement (relativement) à un autre événement.

Ce type de probabilité est appelée "probabilité conditionnelle" ou "probabilité à posteriori"

de B sachant A, et se note dans le cadre de l'étude des probabilités conditionnelles:

P(B / A) (6.17)

et souvent dans la pratique pour éviter la confusion avec une possible division:

P(B | A) (6.18)

Nous avons aussi le cas:

P(A | B) (6.19)

qui est appelé "fonction de vraisemblance de A" ou encore "probabilité à priori" de A sachant B (cas

beaucoup moins intéressant....).

Historiquement, le premier mathématicien à avoir utilisé correctement la notion de probabilité

conditionnelle fut Thomas Bayes (1702-1761). Aussi parlons-nous souvent de Bayes ou de

bayésien dès que des probabilités conditionnelles sont en jeu: formule de Bayes, statistique

bayésienne...

La notion de probabilité conditionnelle que nous allons introduire est beaucoup moins simple

qu'elle ne paraît a priori et les problèmes de conditionnement sont une source inépuisable

d'erreurs en tout genre (il existe de fameux paradoxes sur le sujet).

Commençons d'abord par un exemple simpliste: Supposons que nous ayons deux dès. Imaginons

maintenant que nous ayons lancé seulement le premier dé. Nous voulons savoir quelle est la

probabilité qu'en lançant le second dé, la somme des deux chiffres vaille une certaine valeur

minimale. Ainsi, la probabilité d'obtenir cette valeur minimale fixée sachant la valeur du premier

dé est totalement différente de la probabilité d'obtenir cette même valeur minimale en lançant les

deux dès en même temps. Comment calculer cette nouvelle probabilité?

Formalisons la démarche:

Après le lancer du premier dé, nous avons:

(6.20)

Soit l'hypothèse que , nous pressentons que P(B / A) doit être proportionnel à P(B), la

constante de proportionnalité étant déterminée par la normalisation:

(6.21)

Soit maintenant (B est inclus dans le complémentaire de A donc les événements sont

incompatibles). Il est assez intuitif que sous l'hypothèse précédente nous ayons:

(6.22)

Ceci nous mène aux définitions suivantes des probabilités à posteriori et respectivement à prori:

et (6.23)

Ainsi, le fait de savoir que B est réalisé réduit l'ensemble des résultats possibles de U à B. A partir

de là, seules les éventualités de ont une importance. La probabilité de A sachant B et

inversement (par symétrie) doit donc être proportionnelle à !

Le coefficient de proportionnalité qui est le dénominateur permet d'assurer l'événement certain.

Effectivement, si les deux événements A et B sont incompatibles (pensez à l'histoire du chat noir et

de l'échelle par exemple), nous avons donc:

(6.24)

et nous voyons alors P(B / A) qui vaut P(B) et donc A n'apporte rien sur B et réciproquement!!

Une autre façon assez intuitive pour voir les choses est de se représenter la mesure de

probabilité P comme une mesure d'aires de sous-ensembles de .

En effet, si A et B sont deux sous-ensembles de d'aires respectives P(A) et P(B) alors à la

question de savoir qu'elle est la probabilité qu'un point du plan appartienne à B sachant qu'il

appartient à A il est assez évident de répondre que cette probabilité est donnée par:

(6.25)

Indiquons aussi que la définition des probabilités conditionnelles s'utilise souvent sous la forme

suivante :

(6.26)

appelée "formule des probabilités composées". Ainsi, la probabilité à posteriori

de B sachant A peut donc aussi s'écrire sous la forme:

(6.27)

Exemples:

Supposons une maladie comme la méningite. La probabilité de l'avoir sera

noté (chiffre arbitraire pour l'exemple) et un signe de cette maladie comme le mal

de tête sera noté . Supposons connue la probabilité à posteriori d'avoir mal à la tête si

nous avons une méningite:

(6.28)

commentaires (0)
Aucun commentaire n'a été pas fait
Écrire ton premier commentaire
Ceci c'est un aperçu avant impression
3 shown on 5 pages
Télécharger le document