Exercices sur les statistiques exhaustives et complètes, Exercices de Méthodes Mathématiques
Caroline_lez
Caroline_lez29 January 2014

Exercices sur les statistiques exhaustives et complètes, Exercices de Méthodes Mathématiques

PDF (259 KB)
2 pages
228Numéro de visites
Description
Exercices de mathématiques concernant les statistiques exhaustives et complètes. Les principaux thèmes abordés sont les suivants: Qui est absolument continue par rapport à qui ? Entropie et informations, Loi de Poisson, ...
20points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Aperçu2 pages / 2
Télécharger le document

Université de Rennes 1 Master de mathématiques Année 2012-2013 Statistique mathématique

TD 4 – Statistiques exhaustives et complètes

Exercice 1. Qui est absolument continue par rapport à qui ? On définit les mesures suivantes :

– µ1 la loi gaussienne centrée réduite, – µ2 la loi uniforme sur [0, 1], – µ3 la mesure de Lebesgue sur R, – µ4 la mesure de comptage sur N, – µ5 la loi de Poisson de paramètre 1, – µ6 la loi binomiale B(5, 1/3), – µ6 la mesure de densité (1/3) exp(−x)1Ix>0 + (2/3)e−x

2/2/ √ 2π.

Dire pour chaque couple de mesure si la première est absolument continue par rapport à la deuxième et donner sa densité si tel est le cas.

Exercice 2. Entropie et informations Soit µ et ν deux mesures de probabilités sur Rd. L’entropie relative de µ par rapport à ν est définie par

Ent(µ | ν)

 ∫ dµ

dν log

dν dν =

∫ log

dν dµ si µ est absolument continue par rapport à ν,

+∞ sinon.

1. Quel est le rapport entre entropie relative et information de Kullback-Leibler ?

2. Calculer ces quantités entre deux lois de Poisson et entre deux lois gaussiennes sur R. 3. En déduire les informations de Fisher dans les modèles statitiques suivants :(

Nn, { P(θ)⊗n

} θ>0

) et

( Rn,

{ N (m,σ2)⊗n

} m∈R,σ>0

) .

Exercice 3. Loi de Poisson

Soit (Nn,P(θ)⊗nθ>0) un modèle statistique et X = (X1, . . . , Xn) de loi P(θ)⊗n. Soit S = n∑ i=1

Xi.

1. Déterminer la loi conditionnelle de X sachant S = s. La statistique T est-elle exhaustive pour le paramètre θ ? Est-elle complète ?

2. Calculer l’information de Fisher contenue dans l’échantillon X, et celle contenue dans T . Commenter le résultat.

3. En déduire un estimateur UVMB (uniformément de variance minimum parmi les estimateurs sans biais) de θ.

Exercice 4. Loi conditionnelle et estimateur bayesien Soit (X1, . . . , Xn,M) un (n + 1)-uplet de v.a. dont la loi est définie de la façon suivante : sachant M = m, les v.a. X1, . . . , Xn sont i.i.d. de loi exponentielle de paramètre m et la loi de M est une loi gamma G(a, λ). Déterminez la loi de M sachant (X1, . . . , Xn). En déduire E(M |X).

1

docsity.com

Exercice 5. Estimateur UVMB et loi uniforme Soit X1, . . . , Xn un échantillon de loi U[0,θ]. Montrer que la v.a. T = max1≤i≤nXi exhaustive et complète. Quel est son biais ? En déduire un estimateur UVMB de θ.

Exercice 6. Loi normale Soit (Rn,N (m,σ2)⊗nm∈R,σ>0) un modèle statistique et X = (X1, . . . , Xn) de loi N (m,σ2)⊗n.

1. Déterminer la densité de X.

2. On suppose σ2 connu et m inconnu. Trouver l’information de Fisher In(m) de l’échantillon X.

3. On suppose à présent m donné et σ2 inconnu. Trouver les informations de Fisher In(σ2) et In(σ) de l’échantillon X.

4. On considère m et σ2 inconnus.

(a) Quel est l’EMV pour le paramètre (m,σ2) ?

(b) Déterminer l’information de Fisher de la distribution de X pour le paramètre (m,σ2).

Exercice 7. Translation-dilatation Soit (Rn,

{ Q⊗nθ

} θ∈R×R∗+

) un modèle statistique où θ = (m,σ) et Qθ admet la densité

fθ(x) = 1

σ exp

( −x−m

σ

) 1I{x>m}.

Déterminer une statistique exhaustive minimale pour le couple (m,σ).

Exercice 8. Un autre exemple Soit (Rn,

{ Q⊗nθ

} θ>0

) un modèle statistique où Qθ admet la densité

x 7→

 θ

eθ2 − 1 eθx si x ∈ [0, θ],

0 sinon

et (X1, . . . , Xn) de loi Q⊗nθ . Montrer que la statistique( sup

1≤i≤n Xi,

n∑ i=1

Xi

)

est exhaustive pour le paramètre θ.

Exercice 9. Loi multinomiale Soit M une v.a. de loi multinomiale de paramètres (n, p1, . . . , pk) avec p1 + · · · + pk = 1, où k est connu mais pas les (pi)i.

1. Déterminer une statistique exhaustive pour p. Quelle est sa dimension ?

2. Calculer la matrice d’information de Fisher.

Exercice 10. Lois de Pareto On considère un n-échantillon de densité fθ(x) = Kθx−1−1/θ1I[1,∞[(x) avec θ > 0.

1. Déterminer la constante Kθ. Que dire du modèle ?

2. Proposer des estimateurs de θ (moments, max de vraisemblance,...).

3. Sont-ils efficaces ?

2

docsity.com

commentaires (0)
Aucun commentaire n'a été pas fait
Écrire ton premier commentaire
Télécharger le document