Exercice sur le filtrage adaptatif, Exercices de Mathématiques
Caroline_lez
Caroline_lez28 January 2014

Exercice sur le filtrage adaptatif, Exercices de Mathématiques

PDF (137.9 KB)
3 pages
138Numéro de visites
Description
Exercices de mathématiques sur le filtrage adaptatif. Les principaux thèmes abordés sont les suivants: Introduction : filtrage de Wiener, Algorithme du gradient ou "de la plus grande pente" (gradient déterministe), Etude...
20points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Microsoft Word - td1_m1_tsch7_short_.doc

Master 1 d’électronique L.T.S.I. – Université de Rennes I

TD de filtrage adaptatif

1 Introduction : filtrage de Wiener

On désire reconstruire un signal d’intérêt, non directement observable issu d’un processus aléatoire {d(n)}n≥0 à partir d’un signal de référence issu d’un processus aléatoire {x(n)}n≥0 corrélé avec {d(n)}n≥0. On dispose par ailleurs d’une seconde observation, issue du processus aléatoire {y(n)}n≥0 lui-même défini comme la somme de {d(n)}n≥0 et d’un bruit perturbateur {b(n)}n≥0 :

( ) ( ) ( )y n d n b n= + (1.1)

On se propose par ailleurs d’estimer le signal d’intérêt par filtrage FIR du signal de référence. Cela revient à considérer que pour tout entier naturel n, l’estimée de d(n) peut s’écrire sous la forme suivante :

( ) ( ) ( ) ( ) 1

T

0

ˆ N

m d n h m x n m n

=

= − =∑ h x (1.2)

h et x(n) sont deux vecteurs de longueur N définis par :

( ) ( ) ( ) ( ) ( )T T0 1 1h h N n x n h n N⎡ ⎤ ⎡ ⎤= − = − +⎣ ⎦ ⎣ ⎦h x (1.3)

L'Erreur Quadratique Moyenne (EQM) de reconstruction en sortie du filtre est donnée par la quantité :

( ) ( )ˆE d n d n⎡ ⎤−⎣ ⎦ (1.4)

Il est possible de montrer que minimiser cette dernière est équivalent à minimiser l’EQM suivante :

( ) ( ) ( )2 2 T T,ˆ 2d E y n d nε σ⎡ ⎤= − = + −⎣ ⎦ y x x yh h Γ h Γ h (1.5)

où Γx=E[x(n)x(n)T] est la matrice d’autocorrélation du vecteur x(n), et Γx,y=E[x(n)y(n)] le vecteur d'intercorrélation entre le vecteur x(n) et l'observation bruitée y(n). Notons que les précités processus aléatoires sont supposés être stationnaires au sens large à l’ordre 2.

Le gradient de l'EQM vis-à-vis du vecteur h est donné par la relation suivante :

( )2 ,2 2d yε∇ = −x xh Γ h Γ (1.6)

Le filtre optimal au sens de l'EQM minimale, dit filtre de Wiener, noté ho est alors obtenu en minimisant et par la même occasion annulant ce gradient, ce qui mène à :

1 , y−=o x xh Γ Γ (1.7)

Remarque : le second signal d’observation issu du processus aléatoire {y(n)}n≥0n’est utilisé ici que pour l’apprentissage de la matrice d’intercorrélation Γx,y. Néanmoins, une fois cette dernière connue, seul le signal de référence est nécessaire pour estimer le signal d’intérêt. Une manière plus optimale de procéder serait d’exploiter conjointement le second signal d’observation issu de {y(n)}n≥0 et le signal de référence, ce qui est plus connu sous le nom de filtrage de Wiener vectoriel.

2 Algorithme du gradient ou "de la plus grande pente" (gradient déterministe)

L'algorithme du gradient à pas fixe est défini par :

docsity.com

Master 1 d’électronique L.T.S.I. – Université de Rennes I

( ) ( ) ( ) ( ) ( )( ) 0 (initialisation)

1n n f nμ

⎧ =⎪ ⎨

+ = − ∇⎪⎩

z

z z z (1.8)

f : z f(z) est une fonction à minimiser.

Par définition, l'algorithme {ĥ(n+1) = F(ĥ(n)), n=0,1,…} est dit stable (convergent) si pour tout vecteur ĥ(0), ĥ(n) tend vers le vecteur ho quand n tend vers l’infini.

On suppose que la matrice d'autocorrélation Γx est diagonale, autrement dit Γx =diag([λ1, λ2,…, λN]).

On considère maintenant que Γx est inversible mais non diagonale. Γx étant symétrique elle est diagonalisable, c’est-à-dire, elle admet la décomposition Γx = PΛP–1 où Λ est la matrice diagonale des valeurs propres {λi}i=1,..,N de Γx et P la matrice des vecteurs propres (colonnes) associés. D’autre part, le caractère symétrique de Γx nous assure qu’il est possible de trouver une matrice de passage P orthonormée (ou unitaire), c’est-à-dire, vérifiant la propriété PPT = PTP = IN. Il en résulte l’égalité PT = P–1.

Le changement de variable précédent, nous permet d’écrire l’égalité ( )nh = P ħ(n), et de ce fait d’écrire la ième composante de ( )nh en fonction d’éléments de P, B et ( )0h .

3 Etude de l'algorithme du gradient stochastique (LMS)

On considère l'erreur quadratique instantanée suivante :

Donner l'expression de l'algorithme du gradient permettant d’estimer le vecteur h en prenant comme fonction f l’EQM définie par l’équation (1.5).

Mettre l’algorithme précédent sous la forme ( ) ( )1n n+ =h Ah où ( ) ( )ˆ on n= −h h h , et expliquer comment se traduit sur ( )nh l'hypothèse de stabilité.

Expliquer pourquoi les composantes diagonales λi de Γx sont toutes positives. Puis, pour un vecteur initial ĥ(0) arbitraire, donner l'expression de ( )ih n , ième composante de ( )nh , en fonction de n, de ,o ih et de iλ .

En utilisant le changement de variable ħ(n) = PT ( )nh , montrer que l'on obtient ħ(n+1) = B ħ(n), où B est une matrice diagonale. Donner alors la condition de stabilité sur μ en fonction des valeurs propres de Γx.

Montrer qu’il est possible d’écrire ( )ih n sous la forme ( ) ( ) 1

1 2 N n

i j ij j

h n μλ α =

= −∑ . Vérifier ainsi que la

stabilité de l’algorithme dépend explicitement de la quantité maxi{|1-2μλi|}.

docsity.com

Master 1 d’électronique L.T.S.I. – Université de Rennes I

( )( ) ( ) ( )( )22 Td n y n nε = −h h x (1.9)

Supposons que {ĥ (n)}n≥0 soit un processus aléatoire vectoriel indépendant du processus vectoriel {x(n)}n≥0.

L’algorithme du gradient stochastique se déduit de l’algorithme du gradient déterministe en substituant dans l’équation (1.8) la quantité ( )( )ˆf nh par le gradient de l’équation (1.11) pris au point ĥ(n) et en remplaçant les quantités aléatoires y(n) et x(n) par les réalisations déterministes correspondantes.

Développer l’erreur quadratique précédente de manière analogue à l’équation (1.5), puis calculer son gradient par rapport au vecteur h pris au point ĥ(n). Donner alors l’expression de l’algorithme correspondant. Pourquoi peut-on qualifier cet algorithme de gradient stochastique ?

Ecrire le système d’équations définissant la méthode du gradient stochastique nommé également algorithme LMS (Least Mean Square). Pour quelle raison qualifie-t-on cette méthode de stochastique ? Montrer par ailleurs que l’étude de convergence de la quantité E[ĥ(n)] où les vecteurs ĥ (n) sont obtenus à l’aide de la méthode LMS, se ramène à celle effectuée dans la section précédente.

Quelle est la relation mathématique liant l’erreur quadratique précédente à celle définie par l’équation (1.5) ?

docsity.com

commentaires (0)
Aucun commentaire n'a été pas fait
Écrire ton premier commentaire
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Docsity n'est pas optimisée pour le navigateur que vous utilisez. Passez à Google Chrome, Firefox, Internet Explorer ou Safari 9+! Téléchargez Google Chrome