Docsity
Docsity

Prepare for your exams
Prepare for your exams

Study with the several resources on Docsity


Earn points to download
Earn points to download

Earn points by helping other students or get them with a premium plan


Guidelines and tips
Guidelines and tips

Algèbre 1 cours et exercices corrigés, Lecture notes of Algebra

Documents contenant le résumé de cours et des exercices corrigés.

Typology: Lecture notes

2023/2024

Uploaded on 01/20/2025

marc-adams-kader-diomande
marc-adams-kader-diomande 🇬🇧

2 documents

Partial preview of the text

Download Algèbre 1 cours et exercices corrigés and more Lecture notes Algebra in PDF only on Docsity!

IUT Robert Schuman C. Boubel, Mathématiques

Département Chimie 2011

Algèbre linéaire – Cours

Les informations à connaître sans hésitation sont sur fond grisé. Les quelques remarques

// en plus petits caractères //ne sont pas indispensables à la compréhension.

I Espaces vectoriels

I.1 Espaces vectoriels

Définition Un ensemble de vecteurs, dit « espace vectoriel » est un ensemble de choses

que l’on peut :

  • additionner entre elles,
  • multiplier par des nombres,

avec toutes les propriétés naturelles de cette addition et de cette multiplication (existence

d’un vecteur nul, associativité de +, distributivité etc.

1 )

Autrement dit, les vecteurs sont « presque » des nombres ; ils sont comme des nombres,

sauf qu’ils ne se multiplient pas entre eux. Les propriétés des vecteurs sont les propriétés

d’addition et de multiplication des vecteurs du plan ou de l’espace, que vous connaissez bien

et qui se traduisent par des dessins.

Cependant, dès qu’un ensemble d’objets mathématiques vérifie cette double propriété,

c’est un ensemble de « vecteurs », que ces derniers correspondent à des vecteurs du plan ou

de l’espace au sens intuitif, ou pas. Je choisis délibérément le terme très vague d’« objets »,

tant les vecteurs et les espaces vectoriels peuvent être présents à travers des réalités très

diverses, en mathématiques et en sciences.

Remarque. Ce n’est jamais un objet seul qui est ou n’est pas un vecteur, mais un ensemble

d’objets, que l’on peut additionner entre eux etc., qui est alors un ensemble de vecteurs : un

espace vectoriel.

Exemples. Exercice : trouver des exemples.

Vocabulaire. L’algèbre linéaire est l’étude des propriétés des espaces vectoriels et de tous

les concepts construits à partir d’eux.

Remarque. Dans le 2

ème tiret de la définition, je n’ai pas précisé si les nombres en question

sont réels ou complexes. Le plus souvent pour vous, il s’agit de nombres réels, et donc d’un

« espace vectoriel réel ». Vous pourrez parfois rencontrer des ensembles d’objets pouvant

être multipliés par des nombres complexes. Il s’agira d’« espaces vectoriels complexes ».

Les fonctions d’onde des électrons, en atomistique, sont par exemple des éléments d’un tel

espace.

Vocabulaire. En algèbre linéaire, il est courant d’appeler les nombres des scalaires, du

latin scala, échelle. En effet, les nombres (réels) s’ordonnent des plus petits vers les plus

  1. Voici la liste complète exacte de ces propriétés. (a1) L’addition est associative : (

−→ u +

−→ v ) +

−→ w =

−→ u + (

−→ v +

−→ w ). (a2) L’addition est commutative :

−→ u +

−→ v =

−→ v +

−→ u.. (a3) Il existe un vecteur, dit vecteur

nul, noté

−→ 0 , tel que

−→ u +

−→ 0 =

−→ u pour tout vecteur

−→ u. (a4) Tout vecteur

−→ u a un opposé, noté −

−→ u , tel

que

−→ u + (−

−→ u ) =

−→

  1. (b1) 1.

−→ u =

−→ u. (b2) α.(

−→ u +

−→ v ) = α.

−→ u + β.

−→ v. (b3) (α + β).

−→ u = α.

−→ u + β.

−→ u. (b4)

α.(β.

−→ u ) = (αβ).

−→ u.

grands, comme le long d’une échelle. Cela les différencie des vecteurs

2

. // Aujourd’hui, on

appelle « scalaire » tout nombre, par opposition à un vecteur, même dans le monde des espaces

vectoriels complexes où les nombres sont des nombres complexes. //

On note souvent les scalaires par des lettres grecques, contrairement aux vecteurs, notés

par des lettres latines, parfois surmontées d’une flèche :

u ou grasses : u.

Vocabulaire. Si E est un espace vectoriel, et si F est un sous ensemble de E qui est lui

aussi un espace vectoriel (pour les mêmes addition et multiplication), on dit que F est un

sous-espace vectoriel de E. Exemples : parmi les vecteurs E de l’espace, l’ensemble F des

vecteurs horizontaux, ou celui F

′ des vecteurs verticaux, sont des sous-espaces vectoriels de

E, mais ni le sous-ensemble S des vecteurs de norme égale à un, ni le sous-ensemble A des

vecteurs dont la coordonnée verticale vaut 1, ne le sont.

D’autres exemples : voir l’exercice 1 de la feuille d’exercices.

I.2 Combinaisons linéaires

L’opération fondamentale effectuée sur des vecteurs est la combinaison linéaire.

Définition Si

u 1 ,

u 2 ,... ,

un sont des vecteurs, et si α 1 , α 2 ,... , αn sont des scalaires, alors

on dit que le vecteur :

v = α 1

u 1 + α 2

u 2 +... + αn

un =

n ∑

i=

αi

ui

est une combinaison linéaire des vecteurs

u 1 ,

u 2 ,... ,

un.

Il est fabriqué à partir des

ui , à l’aide des deux opérations possibles sur des vecteurs :

multiplication par des nombres et addition entre eux. Toute l’algèbre linéaire repose

sur cette notion.

Trois notions également fondamentales sont alors tirées de celle de combinaison

linéaire.

(i) Vecteurs engendrés, familles génératrices. Si un certain vecteur

w est combinaison

linéaire de vecteurs

u 1 ,

u 2 ,... ,

un, on dit que

w est engendré, ou linéairement engendré,

par les vecteurs

ui.

Propriété/Définition Dans un espace vectoriel E, l’ensemble de tous les vecteurs engen-

drés par les vecteurs donnés

ui est un sous-espace vectoriel de E. Si ce sous-espace est E

tout entier, on dit que la famille (

u 1 ,

u 2 ,... ,

un) engendre E, ou est génératrice de E.

Exercice Donner des vecteurs de l’espace tels que le sous-espace qu’ils engendrent est le

sous-espace F des vecteurs horizontaux, ou celui F

′ des vecteurs verticaux.

Sur un dessin, l’espace vectoriel engendré par les vecteurs

u 1 ,

u 2 ,... ,

un est l’espace

correspondant au « quadrillage » qui se construit à partir d’eux.

  1. Selon l’Oxford English Dictionary, cette terminologie a été probablement introduite par le mathéma-

ticien et physicien irlandais William Rowan Hamilton en 1846. En construisant les quaternions, une sorte de

généralisation des nombres complexes, il a appelé « scalaire » leur partie réelle. Il explique que les nombres

réels se rangent de gauche à droite comme le long d’une échelle, alors qu’on ne peut ordonner ainsi les

nombres complexes ou les quaternions : the algebraically real part may receive, according to the question in

which it occurs, all values contained on the one scale of progression of numbers from negative to positive

infinity ; we shall call it therefore the scalar part. Cette information a été trouvée via wikipedia.

(ii) Familles libres ou liées. Supposons donnée une famille (

u 1 ,

u 2 ,... ,

un) de vecteurs.

Définition On dit que la famille (

u 1 ,

u 2 ,... ,

un) est liée si l’un des

ui est combinaison

linéaire des autres :

uj = α 1

u 1 + α 2

u 2 +... + αj− 1

uj− 1 + αj+

uj+1 +... + αn

un =

n ∑

i = 1

i 6 = j

αi

ui

pour certains αi bien choisis.

Dit en termes imagés, la famille (

u 1 ,

u 2 ,... ,

un) est dite liée dès qu’on peut fabriquer

un des

ui à partir des autres (par les opérations qui existent sur les vecteurs : multiplication

par des nombres et addition entre eux).

Définition Inversement, on dit que la famille est libre, ou linéairement indépendante, si

aucun de ses vecteurs

ui n’est combinaison linéaire des autres.

La seule manière de montrer qu’une famille est liée est donc de montrer qu’un de ses

vecteurs est combinaison linéaire des autres. Pour montrer qu’une famille est libre, il faut

montrer qu’aucun de ses vecteurs ne l’est.

Exercice et remarque Ceci revient à montrer que, si α 1 ,... , αn sont des scalaires tels que ∑ n

i=

αi

ui =

0 , alors c’est que tous les αi sont nuls. Cette dernière propriété est la définition

standard d’une famille libre. J’ai présenté plus haut une variante de cette définition, un peu

plus lourde à exprimer et à vérifier, mais peut-être plus parlante.

Le fait que (

u 1 ,

u 2 ,... ,

un) soit libre ou liée apparaît aussi sur un dessin, si l’on peut

dessiner la famille. En effet, dire que

uj est combinaison linéaire des autres vecteurs de la

famille, c’est dire qu’il appartient au sous-espace engendré par eux, ce qui peut se lire sur un

dessin. Cette remarque dessinatoire permet de comprendre la notion, cependant un dessin

est très rarement une preuve : pour prouver qu’une famille est libre, on utilise le critère

donné juste au-dessus avec les αi.

Remarque et exercices importants sur la taille des familles libres ou génératrices

Ces exercices permettent de s’approprier les deux notions introduites et de comprendre

la suite. Les réponses possibles sont oui/non/ça dépend. Soit (

u 1 ,... ,

un) une famille

génératrice d’un espace vectoriel E· On lui ajoute un certain vecteur

un+1. Est-elle encore

génératrice? Et si on lui retire un des

ui?

Soit (

u 1 ,... ,

un) une famille libre d’un espace vectoriel E· On lui ajoute un certain

vecteur

un+1. Est-elle encore libre? Et si on lui retire un des

ui?

Ce qui est donc plutôt difficile à obtenir, ce sont des familles génératrices petites, c’est-

à-dire comprenant un petit nombre de vecteurs, et de grandes familles libres, c’est-à-dire

composées d’un grand nombre de vecteurs. Ceci conduit au paragraphe suivant.

(iii) Bases, et par là dimension d’un espace vectoriel, coordonnées. On peut à

présent définir ce qu’est une base, dont vous avez déjà pu entendre parler en lycée. L’exercice

qui précède donne envie de regarder les familles délicates à obtenir : les familles libres de

taille maximale, c’est-à-dire qui cessent d’être libres si on leur ajoute un nouveau vecteur, et

les familles génératrices de taille minimale, c’est-à-dire qui cessent d’être génératrices si on

leur ôte un vecteur. Peut-être sont-elles remarquables? La réponse (admise) est oui, en cela

que ce sont les mêmes : une famille libre maximale est alors aussi génératrice, et génératrice

minimale, et une famille génératrice minimale est alors également libre, et libre maximale.

On donne un nom à ces familles remarquables.

Propriété/Définition On appelle base de E une famille de vecteurs qui est (les trois

conditions sont équivalentes) :

  • à la fois libre et génératrice de E,
  • libre de taille maximale (si on ajoute encore un vecteur, elle devient liée),
  • génératrice de taille minimale (si on lui retire un vecteur, elle cesse d’être génératrice).

Il se produit alors en outre le fait remarquable suivant. Vous pourriez en comprendre la

démonstration, mais je la passe car ce n’est pas l’essentiel pour vous.

Théorème Toutes les bases de E ont le même nombre de vecteurs.

Définition On appelle ce nombre la dimension de E.

Exercice. Vérifier que les bases de la droite R ont un vecteur, que celles du plan R

2 en ont

deux et celles de l’espace R

3 trois. La notion de dimension, qu’on vient de définir mathéma-

tiquement, correspond donc bien à la notion intuitive de dimension.

Si (

u 1 ,

u 2 ,... ,

un) est une base de E et

u un vecteur quelconque de E, alors

u s’écrit

d’une seule manière comme combinaison linéaire des

ui (facile – admis) :

u = x 1

u 1 + x 2

u 2 +... + xn

un =

n ∑

i=

xi

ui.

Vous connaissez déjà le vocabulaire suivant.

Vocabulaire Les nombres xi sont les coordonnées de

u dans la base (

u 1 ,

u 2 ,... ,

un).

Il apparaît donc qu’ en dimension d, les vecteurs ont d coordonnées.

Vecteurs vus sous forme de colonnes de chiffres. Si E est un espace où les familles

libres peuvent avoir un nombre infini de vecteurs (cela existe, mais vous en rencontrerez

rarement, sauf en mécanique quantique), on dit que E est de dimension infinie. Sinon, les

familles libres ne dépassent pas un certain nombre maximal n de vecteurs. Les familles libres

à exactement n vecteurs sont les bases : E est de dimension n. On peut alors représenter

les vecteurs de n’importe quel espace vectoriel de dimension n comme des colonnes de n

chiffres : la colonne de leurs coordonnées dans une base fixée. Souvent d’ailleurs, une base

est plus naturelle que les autres et est sous-entendue. Alors :

si

u =

x 1

xn

 et^

v =

y 1

yn

 ,^ alors^ α

u =

αx 1

αxn

 et^

u +

v =

x 1 + y 1

xn + yn

// Remarque en passant. La définition ci-dessus ne limite absolument pas la dimension à trois. Il

se trouve qu’on a une bonne intuition des espaces vectoriels jusqu’à la dimension trois, parce qu’ils

correspondent à une réalité physique usuelle et qu’on peut faire des dessins. Des espaces de dimension

quatre, cinq, etc., et même de dimension infinie se définissent cependant sans plus de difficulté que

ceux de dimension un, deux ou trois. Mathématiquement, cela ne fait pas de différence. Simplement,

on ne peut plus faire de dessin. Exemple. Quelle est la dimension de l’espace des colonnes de données

sur les mètres carrés construits, dans l’exercice 1 de la feuille d’exercices? //

Propriété/Remarque sur les familles libres On verra en exercice que le concept de

famille libre est un peu délicat. Une façon, cependant de comprendre ce qu’est une famille

libre, d’en construire une ou de s’assurer qu’une famille est libre, est d’utiliser la propriété

suivante (admise) : une famille (

u 1 ,

u 2 ,... ,

un) est libre si et seulement si

u 1 6 =

0 , et

u 2

n’est pas engendré par

u 1 , et

u 3 n’est pas engendré par (

u 1 ,

u 2 ) etc. jusqu’à

un.

Exercice : familles libres en dimension un, deux et trois. Vérifier les propriétés utiles

suivantes. En dimension un, une famille est libre, c’est un seul vecteur, non nul — ou la

famille vide. En dimension deux, ce sont deux vecteurs non colinéaires — ou un seul non

nul, ou la famille vide. En dimension trois, ce sont trois vecteurs non coplanaires — ou deux

non colinéaires, ou un seul non nul, ou la famille vide.

II Applications linéaires

II.1 Définition

Soit E 1 et E 2 deux espaces vectoriels et f une application de E 1 dans E 2.

E 1 E 2

f

On dit que f est linéaire si elle ne perturbe pas la combinaison linéaire, c’est-à-dire la multi-

plication des vecteurs par un nombre et l’addition des vecteurs entre eux, les deux opérations

définies sur les vecteurs. Plus précisément, appliquer à des vecteurs d’abord f , puis une com-

binaison linéaire, ou d’abord cette combinaison linéaire, puis f , revient au même :

Définition f est dite linéaire si pour tous

u ,

v , α et β : f (α

u + β

v ) = αf (

u )+ βf (

v ).

Ceci s’exprime aussi dans le schéma :

E 1

Horizontalement :

on applique f.

E 2

u ,

v → f (

u ), f (

v )

Verticalement :

on effectue une

combinaison linéaire.

α

u + β

v →

αf (

u ) + βf (

v )

= f (α

u + β

v )

où effectuer

puis

ou

puis →

revient au même.

Caractérisation. Si on choisit de représenter les vecteurs comme des colonnes de nombres,

on peut montrer que cette définition revient au même que la propriété suivante.

Propriété En notant

u =

  

x 1

. . . xn

   les vecteurs de l’espace de départ, alors^ f^ est linéaire

si et seulement si chaque coordonnée de f se calcule en :

  • multipliant chaque xi par un nombre,
  • faisant la somme du tout,

c’est-à-dire que f (

u ) est un vecteur dont chaque coordonnée est du type a 1 x 1 +... + anxn :

une combinaison linéaire des coordonnées xi de

u.

Bien sûr, il est toujours nécessaire de préciser en quelles variables f est linéaire. Par exemple,

si f = 2U ln K + V /(λ 1 λ 2 ), alors f est linéaire si on la considère comme fonction de U et V ,

mais pas si on la considère comme fonction de λ 1 et λ 2 et/ou de K.

Phénomènes physiques linéaires. La linéarité a une vie hors des mathématiques. Elle est

un concept important en sciences. On appelle linéaires des phénomènes où une grandeur est

fonction linéaire de certains paramètres. En simplifiant, ce sont les phénomènes où la fonction

f qui à une cause associe son effet, est linéaire. Si on ajoute deux causes, l’effet produit est

la somme des effets : si f (cause1) = effet1 et f (cause2) = effet2, alors f (cause1 + cause2) =

effet1 + effet2 ; si on augmente une cause, l’effet est augmenté d’autant : f (λ.cause1) =

λ.effet1. On dit que les effets se superposent. Les propriétés mathématiques des applications

linéaires donnent alors des outils pour étudier ces phénomènes.

Exemples. (i) En électricité, le courant à travers un circuit résistant est fonction linéaire

de la tension appliquée : I =

1

R

U. Si vous montez deux générateurs en série, l’intensité est

la somme des deux intensités qu’aurait entraînées chacun, seul. Ici en outre, la linéarité est

simplement une proportionnalité.

(ii) Dans une réaction chimique à cinétique linéaire, i.e. régie par une équation différen-

tielle linéaire, qu’on laisse se dérouler pendant un temps T , alors si on modifie au départ la

concentration en réactifs (« λ.cause »), la concentration en produits au temps T est modifiée

de la même façon (« λ.effet »). Ainsi, deux fois plus de réactifs donnent, au temps T , deux

fois plus de produits. Ce n’est pas le cas dans les réactions de cinétique non linéaire.

(iii) Le vecteur d’étirement

L d’un ressort est fonction linéaire de la force appliquée :

−→

L = −K

F , avec K la raideur du ressort. Ici encore, la linéarité est une simple proportion-

nalité, mais en trois dimensions.

(iv) La propagation des ondes sonores ou lumineuses est un phénomène linéaire remar-

quable et universel. Les ondes sonores produites par deux sources de son S 1 et S 2 , sont la

somme des ondes qu’aurait produites chacune S 1 et S 2 , seule : les ondes se superposent. Ou

encore, L’onde produite par la source S 1 dont on a multiplié la puissance par λ, est d’am-

plitude multipliée par λ. Les ondes sonores respectent la combinaison linéaire des sources de

son : la propagation des ondes est un phénomène linéaire. Mathématiquement, l’équation des

ondes, qui régit cette propagation, est linéaire. Le contraire serait déroutant : en présence

d’une source de son S 1 , émettre un autre son perturberait les ondes émises par S 1 , sans

simplement se superposer à elles.

Ici il s’agit d’une linéarité qui n’est pas une simple proportionnalité comme dans les

exemples précédents.

(v) Au contraire, un exemple de phénomène non linéaire sont les turbulences dans les

écoulements. En simplfiant abusivement, la turbulence engendrée par deux obstacles à un

écoulement n’est pas la somme, ou superposition, des turbulences qu’aurait produites chacun

des obstacles, seul. Ou encore, si on multiplie par λ la taille d’un obstacle, la turbulence

provoquée n’est pas la turbulence initiale, d’intensité multipliée par λ (si cela a un sens

... ), mais souvent quelque chose de beaucoup plus compliqué, de forme différente. Les

turbulences ne respectent pas la combinaison linéaire des causes qui les produisent, quel que

soit le sens qu’on peut donner à cette notion. La turbulence n’est pas un phénomène linéaire.

Notamment, l’énergie dissipée n’est pas fonction linéaire de la vitesse de l’écoulement etc.

(vi) L’exemple typique d’un phénomène non linéaire sont les frottements. Quand la

vitesse v d’une voiture double, l’intensité F du frottement dans l’air ne double pas, mais

plutôt, comme F ≃ k.v

2 , quadruple. Le frottement solide a aussi un comportement fortement

non linéaire. Si on pousse une chaise avec une force

F faible, son mouvement est nul (donc

la variation de réaction du support vaut −

F et compense exactement

F ). Mais si on exerce

F , il se peut qu’elle se mette soudain en mouvement (et on sent qu’une fois le mouvement

établi, le frottement diminue fortement, d’où un phénomène possible d’hystérésis : la chaise

peut demeurer en mouvement lorsqu’on ramène la force à

F ). Ce ne serait pas le cas si le

frottement dépendait linéairement de

F.

// (vii) Semblablement aux ondes, la conduction thermique est un phénomène linéaire remar-

quable et universel. Si on chauffe (sans phénomène de convection) un objet simultanément de plu-

sieurs manières (« cause1, cause2,... »), sa température, à chaque endroit, est la somme des tempé-

ratures qu’on aurait obtenues avec chacun de ces chauffages, indépendamment : T = T 1 + T 2 +... :

« effet1+effet2+... ». Là encore, l’équation de la chaleur, qui régit mathématiquement la propagation

de la chaleur, est une équation linéaire. //

II.2 Intermède technique : matrices

Ce paragraphe est une parenthèse introduisant de manière purement technique des objets

dont on va avoir besoin, les matrices. Il n’y a pour le moment rien à comprendre, seulement

à apprendre.

Définition/Propriété Une matrice est un tableau rectangulaire de chiffres , ici à p lignes

et q colonnes.

M =

m 1 , 1 m 1 , 2 m 1 , 3 · · · m 1 ,q

m 2 , 1 m 2 , 2 m 2 , 3 · · · m 2 ,q

m 3 , 1 m 3 , 2 m 3 , 3 · · · m 3 ,q

mp, 1 mp, 2 mp, 3 · · · mp,q

, notée en bref M = (mi,j )

p

i=

q

j=

Si λ est un scalaire et M

′ une autre matrice de même taille, on définit alors les matrices λM =

(λmi,j )

p

i=

q

j=

et M + M

′ = (mi,j + m

′ i,j

p

i=

q

j=

, comme pour les vecteurs, par multiplication

ou addition coordonnée par coordonnée. Ces opérations se comportent « bien », c’est-à-dire

font de l’ensemble des matrices à p lignes et q colonnes un espace vectoriel.

Exercice Quelle est la dimension de cet espace vectoriel?

Définissons maintenant une opération essentielle sur les matrices : leur produit.

Définition Soit M une matrice à p lignes et q colonnes, et M

′ une matrice à p

′ lignes et

q

′ colonnes. Si q = p

′ , on définit le produit M

′′ = M.M

′ comme la matrice à p lignes et q

colonnes suivante (exemple avec p = 3, q = p

′ = 2, q

′ = 2) :

m

′ 1 , 1

m

′ 1 , 2

m

′ 2 , 1

m

′ 2 , 2

m 1 , 1 m 1 , 2

m 2 , 1 m 2 , 2

m 3 , 1 m 3 , 2

m

′′ 1 , 1

Le coefficient m

′′ 1 , 1

vaut m 1 , 1 .m

′ 1 , 1

+m 1 , 2 .m

′ 2 , 1

. Il s’ob-

tient à partir de la ligne correspondante de M et de

la colonne correspondante de M

. On fait le produit

des coefficients reliés par les pointillés, et on somme

le tout.

On procède ainsi pour tous les coefficients de M

′′ :

m

′′ i,j

∑q(=p′)

k=

mi,k.m

′ k,j

Attention, si q 6 = p

′ , c’est-à-dire si les tailles des matrices ne s’enchaînent pas correctement

comme sur le dessin, leur produit n’est pas défini. Par exemple, les deux produits M.M

′ et

M

′ .M ne sont définis simultanément que si M et M

′ sont carrées de même taille.

Pour calculer le produit M.M

′ , procéder obligatoirement ainsi : disposer M en bas à

gauche, M

′ en haut à droite, et pour obtenir chaque coefficient du produit, suivre de la

main gauche la ligne correspondante de M , de la main droite la colonne correspondante de

M

′ , et additionner les produits successifs.

Propriétés du produit Ce produit a les même propriétés que produit des nombres, sauf

deux. Il est associatif : (M.M

′ ).M

′′ = M.(M

′ .M

′′ ), distributif par rapport à l’addition :

M.(M

  • M

′′ ) = M.M

  • M.M

′′ , il a un élément neutre qu’on verra plus bas etc

3 mais :

  • Le produit des matrices carrées de taille fixée n’est pas commutatif : en général,

M.M

′ 6 = M

′ .M. L’ordre dans le produit a donc de l’importance, vous n’en avez pas l’habi-

tude avec le produit de nombres. Prêtez-y attention.

  • On verra plus bas qu’on ne peut pas « diviser » par n’importe quelle matrice

non nulle, alors qu’on peut diviser par tout nombre non nul.

Les matrices sont donc une sorte de généralisation des nombres avec leurs opérations

d’addition et de produit. Elles possèdent beaucoup de leurs propriétés, mais pas toutes.

Produit d’une matrice et d’un vecteur On a vu plus haut qu’un vecteur peut se

représenter par la colonne de ses coordonnées, c’est-à-dire par une matrice à une seule

colonne. Si M est une matrice et

v un vecteur réprésenté sous cette forme, le produit M.

v ,

si les tailles concordent, est simplement un cas particulier de multiplication de matrices. Son

résultat est une matrice à une colonne, c’est-à-dire un vecteur.

II.3 Représentation matricielle d’une application linéaire

Observation préliminaire Si M est une matrice à p lignes et q colonnes, on peut définir

l’application « multiplication par M »,

v 7 → M.

v sur les vecteurs-colonnes

v. Quelle doit

être la taille de

v? Quelle propriété cette application vérifie-elle?

Soit à présent f une application linéaire de E 1 dans E 2 , deux espaces vectoriels. On a

vu en II.1 que chacune des coordonnées de f (

v ) est combinaison linéaire des coordonnées

−→ v. Par exemple :

notons

v =

x

y

z

 (^) , alors f (

v ) = f (

x

y

z

2 x − y + z

5 x − z

(Exercice : ici, quelle sont les dimensions de E 1 et de E 2 ?), alors f est codée par une

matrice, notée ici F , c’est-à-dire que :

f (

x

y

z

) = F.

x

y

z

, avec (exercice! ) M =

Exercice et observation fondamentale On remarque que le vecteur f (

v ) est le produit

F.

v de

v par une certaine matrice F. Laquelle? On dit que la matrice F code, ou repré-

sente, l’application linéaire f. Ce codage ou cette représentation fonctionne pour toutes les

applications linéaires :

Toute application linéaire f se code par une matrice F : si

v est représenté par la colonne

de ses coordonnées, f (

v ) = F.

v. Vous devez savoir établir sans peine la correspondance.

  1. D’autres propriétés paraissent tellement évidentes qu’on peut ne pas s’apercevoir qu’elles pourraient

ne pas être vérifiées, et qu’on doit s’en assurer. Par exemple, l’associativité et la commutativite avec la

multiplication par les scalaires : λ(M.M

′ ) = ((λM ).M

′ ) = (M.(λM

′ )), ou encore (λμ).M = λ(μM ).

Exercice Si une certaine application linéaire f est codée par une matrice F qu’on vous

donne, quelles sont les dimensions des espaces d’arrivée et de départ?

Lien avec le produit de matrices Il est naturel. Si f de E dans E

′ et g de E

′ dans

E

′′ sont deux applications linéaires, codées par les matrices F et G, alors l’application

g ◦ f :

v 7 → g(f (

v )) est encore linéaire (Exercice : c’est-à-dire? Le vérifier), et codée par

la matrice produit G.F.

Si : f : E → E

′ est codée par F

et : g : E

′ → E

′′ est codée par G,

alors : g ◦ f : E

f → E

g → E

′′ est codée par G.F.

Là est l’origine du produit inattendu introduit au paragraphe précédent.

Attention, cette multiplication n’est définie que si le nombre de colonnes de G est égal au

nombre de lignes de F (inutile de retenir par cœur, cela se voit quand on essaie de calculer

le produit) ; par ailleurs, si les produits G.F et F.G existent tous les deux, ils ne sont pas

forcément égaux car f (g(

v )) et g(f (

v )) ne le sont pas forcément.

Les propriétés du produit de matrices apparaissent alors naturelles. Par exemple, F.(G.

v ) =

(F.G).

v car f (g(

v )) = (f ◦ g)(

v ).

Dans toute la suite, on considère uniquement les matrices carrées de taille n et des espaces

vectoriel de dimension n fixée.

La matrice identité de taille n La correspondance matrices-applications linéaires va

nous permettre d’aller plus loin dans la compréhension du produit de matrices. Exercice.

L’application identité IdE d’un espace E, qui à

v associe

v est-elle linéaire? Quelle matrice

la code? Parmi les matrices carrées de taille n existe une matrice, notée In, qui est un élément

neutre pour le produit : M.In = In.M = M pour toute M. Qui est In? In, élément neutre

du produit, joue le rôle du nombre 1.

L’inverse d’une matrice Supposons qu’une application linéaire f de E dans E

′ , codée

par une matrice F , admet une réciproque :

E

f −→ ←−

f −^1

E

′ .

Alors on peut montrer que f

− 1 est linéaire. Notons F

′ la matrice qui la code. Exercice.

Quelles applications codent, et que valent, F.F

′ et F

′ .F? On en tire la définition suivante.

Définition Certaines matrices carrées M non nulles (la plupart) admettent une matrice,

notée M

− 1 , telle que M.M

− 1 = M

− 1 .M = In. Cette matrice est appelée l’inverse de M.

Elle existe exactement quand l’application linéaire f codée par M admet une réciproque, et

code cette réciproque.

Note Pour continuer le parallèle avec les nombres, comme

1

2

est dit l’inverse de 2 car

1

2

1

2

· 2 = 1, M

− 1 est dit l’inverse de M car M.M

− 1 = M

− 1 .M = In. Cependant, on

ne parle jamais de « diviser » par une matrice. En effet, si le sens de «

3

2

» est clair : « 3

divisé par 2 », celui de «

M

M

» ne l’est pas : veut-on dire M

′ .M

− 1 ou M

− 1 .M

′ ? On se

contente donc de parler de produit, à droite ou à gauche, par l’inverse M

− 1 de M. L’idée

est cependant bien de « diviser » par M. // Rq. : l’inverse est toujours inverse des deux côtés :

Si M.M

′ = In, alors M

′ .M = In aussi, et M

′ = M

− 1

. //

II.4 Point de vue géométrique sur les application linéaires : visualisation

de leur action sur le plan

Une bonne manière d’acquérir une compréhension des applications linéaires est de voir

leur effet géométrique, on dit leur « action ». Certaines applications vous rappelleront des

choses déjà vues en lycée.

On considère dans la suite une application linéaire f du plan R

2 dans lui-même, représentée

par une matrice M. On confond en outre f et sa matrice.

Tout repose sur une observation fondamentale : connaître l’image d’une base par une

application linéaire f , c’est connaître f.

(Cette observation est reformulée, de façon plus précise, dans la Moralité plus bas.)

En effet, considérons par exemple la base usuelle (

i ,

j ) du

plan, avec

i =

( 1 0

)

et

j =

( 0 1

)

. Soit

v =

( x y

)

un vecteur

quelconque du plan et f une application linéaire. Sur le dessin,

−→ v =

( 3 2

)

. Le quadrillage est celui des coordonnées relatives à

i ,

j ).

−→ i

−→ j

−→ v

Si on connaît f (

i ) et f (

j ), alors :

f (

v ) = f (x

i + y

j ) = x f (

i ) ︸ ︷︷ ︸

connu

+y f (

j ) ︸ ︷︷ ︸

connu

est connu. (1)

Plus précisément, f (

v ) a les mêmes coordonnées que

v , mais dans la base

4 image f ((

i ),

f (

j )).

Concrétisons cette observation sur des exemples. Les figures présentent l’image du plan

par f. Le vecteur

v est rappelé en gris pale.

  • Prenons M =

( 1 / 2 0 0 1 / 2

)

. On peut constater directement

que M.

v =

1

2

v , donc que M est l’homothétie de rapport

1

2

i.e. la contraction de rapport

1

2

. On peut aussi constater que

M.

i =

1

2

i et M.

j =

1

2

j , donc que le quadrillage s’appuyant

sur (M.

i , M.

j ) est deux fois plus petit. L’image f (

v ) de

v

a, dans ce nouveau quadrillage, les mêmes coordonnées que

v

dans celui de départ. C’est-à-dire que M.

v =

1

2

v.

f (

−→ i )

f (

−→ j )

f (

−→ v )

  • Prenons M =

( 1 0 0 − 1

)

, alors M.

i =

i et M.

j = −

j ,

donc que le quadrillage s’appuyant sur (M.

i , M.

j ) est le qua-

drillage initial, retourné par rapport à l’axe (Ox). L’image f (

v )

de

v a, dans ce nouveau quadrillage, les mêmes coordonnées

que

v dans celui de départ. C’est-à-dire que M.

v est le symé-

trique de

v par rapport à l’axe (Ox).

f (

−→ i )

f (

−→ j )

f (

−→ v )

  1. Si l’image reste une base, bien entendu.
  • Prenons M =

( 1 0 0 0

)

, alors M.

i =

i et M.

j =

donc que le quadrillage s’appuyant sur (M.

i , M.

j ) disparaît :

il est aplati (orthogonalement) sur l’axe des abscisses et f (

v ) =

x

i + y

0 est le projeté orthogonal de

v sur l’axe (Ox).

f (

−→ i ) f (

−→ v )

f (

−→ j ) =

−→ 0

  • Prenons enfin M =

( 1 − 1 0 1

)

, alors M.

i =

i et M.

j =

i +

j , donc que le quadrillage s’appuyant sur (M.

i , M.

j )

subit le traitement apparaissant sur la figure. Comme f (

v )

garde les coordonnées (x, y) = (3, 2) dans ce nouveau qua-

drillage, on peut trouver graphiquement son image.

f (

−→ i )

f (

−→ j )

f (

−→ v )

Comme (1) peut aussi s’écrire avec n’importe quelle base (

u 1 ,

u 2 ) à la place de (

i ,

j ),

on aurait pu effectuer les dessins qui précèdent avec n’importe quelle autre base.

Moralité Une application linéaire envoie la base sur n’importe quelle autre famille. Ensuite,

elle est déterminée : le quadrillage, c’est-à-dire les coordonnées, suivent le mouvement.

En particulier, si on reconnaît l’action de M sur une base —la base (

i ,

j ) ou une

autre—, on a donc reconnu M.

Ainsi, dans les exemples 2 et 3, on observe que M a l’effet, sur la base (

i ,

j ), respectivement

des applications linéaires « symétrie orthogonale par arpport à l’axe des abscisses » et

« projection orthogonale sur cet axe ». M est donc égale à ces applications.

Remarque pratique importante L’image des vecteurs de la base naturelle (

i ,

j ) se lit

sans calcul sur M. En effet, si M =

( a b c d

)

, alors :

M.

i =

a b

c d

a

c

et : M.

j =

a b

c d

b

d

donc les colonnes de la matrice M sont les coordonnées de M.

i et M.

j , dans la base

i ,

j ).

Exercice dont la solution est à connaître Soit rθ la rotation d’angle θ, du plan,

autour de l’origine. Cette application est linéaire : le vérifier. Elle a donc une matrice dans

la base naturelle (

i ,

j ). En déterminant les images de

i et

j par rθ, déterminer cette

matrice. Solution. La matrice de la rotation d’angle θ est

(

cos θ − sin θ

sin θ cos θ

)

, elle est un

objet classique et est notée Rθ.

III Résolution de systèmes et inversion de matrices.

III.1 Ce qu’il faut avoir compris

Définition Un système d’équations est un ensemble d’équations en une ou plusieurs incon-

nues, que l’on cherche à résoudre simultanément. Une solution du système est la donnée de

valeurs de toutes les inconnues, vérifiant les équations.

Exemple

−x + 2y + z = a

x + 2y + z = b

− 3 x − z = c

est un système (S) d’équations en les inconnues (x, y, z).

Une solution du système est la donnée de valeurs (x 0 , y 0 , z 0 ) de (x, y, z), vérifiant (S). En

aucun cas un x 0 seul, ou un couple (x 0 , y 0 ) ne peut être appelé « solution ».

Définition Une équation, ou un système d’équations, en les inconnues x 1 ,... , xn est

dit linéaire s’il est de la forme f (

u ) =

v avec f linéaire,

u le vecteur de coordonnées

(x 1 ,... , xn) et

v un vecteur de coordonnées fixées.

Si vous avez bien en tête ce qu’est une applications linéaire, il vous est clair qu’un système

est linéaire si ses inconnues ne subissent que des multiplications par des constantes puis des

additions entre elles.

Exemple/Exercice à maîtriser. Le système (S) plus haut est linéaire. Qui sont alors

u ,

−→ v , f?

Lien avec les matrices Ce point est crucial. Si un système f (

u ) =

v est linéaire, on

prend F la matrice codant f , et le système s’écrit donc :

F.

u =

v , avec

u inconnu, qu’on cherche, et

v donné.

Exemple/Exercice à maîtriser. Exprimer de la sorte le système (S).

Dans la suite, on s’intéresse à un système linéaire et carré, c’est-à-dire ayant autant d’équa-

tions —de lignes— que d’inconnues —de colonnes. La matrice qui le représente est donc

carrée.

La suite vise à faire comprendre que :

Résoudre un système ou inverser une matrice,

c’est (presque toujours) la même chose ;

par ailleurs, un ordinateur sait inverser les matrices.

L’avoir compris permet de faire résoudre des systèmes linéaires à un ordinateur, plutôt

que de le résoudre vous-même. C’est très utile dès que le système devient un peu lourd.

Par ailleurs, le « presque toujours » fait référence aux systèmes non inversibles, qui

demandent un petit travail supplémentaire pour se ramener à une inversion de matrice.

Nous ne traitons pas ce cas ici.

Une théorie est inutile, il suffit d’avoir compris le mécanisme sur un exemple.

Exemple/Exercice Vérifier que F est inversible, d’inverse F

− 1

1

2

− 1 1 0 − 1 2 1 3 − 3 − 2

. Par un

calcul presque immédiat, déterminer alors si (S) a ou n’a pas de solution, et s’il en a, donner

cette ou ces solution(s).

Indication : même problème avec des nombres Pour résoudre 2 x = 15, il suffit de

diviser par 2 les deux membres de l’équation.

Solution F est inversible, donc (S) : F.

u =

v est équivalent à : F

− 1 F.

u = F

− 1 .

v ,

c’est-à-dire

u = F

− 1 .

v. Le vecteur

u est solution si et seulement s’il vaut F

− 1 .

v. Donc

(S) a une solution, et une seule, le vecteur F

− 1 .

v. On peut le calculer et vérifier qu’il est

solution.

Exercice/Mise en garde Contrairement au cas des nombres, le côté par lequel on mul-

tiplie par F

− 1 a de l’importance. Que signifierait une multiplication des deux membres de

l’équation par F

− 1 à droite?

L’essentiel à savoir se résume ainsi.

Propriété Si la matrice M qui code un système linéaire est inversible, alors ce système

a une unique solution, qui se calcule comme ci-dessus si on connaît M

− 1

. Si M n’est pas

inversible, le système n’a jamais une unique solution :

  • soit il n’en a pas,
  • soit il en a une infinité

(résultat admis). Ce cours n’en dit pas plus sur ce cas.

III.2 Méthode pratique de résolution des systèmes linéaires

Les ordinateurs résolvent efficacement les systèmes linéaires. Comment font-ils? Ils ap-

pliquent la méthode dite du « pivot de Gauss

5 », dont le principe est extrêmement simple.

Voyons-la donc sur un exemple. Ce sera aussi l’occasion d’observer l’affirmation « Résoudre

un système ou inverser une matrice, c’est la même chose » fonctionner dans le sens contraire

à celui de paragraphe précédent. On va résoudre un système pour obtenir l’inverse d’une

matrice.

Résolution du système (S) par la méthode du pivot.

On écrit (S) en numérotant les lignes. On a

encadré le coefficient -1 en haut à gauche,

qui va jouer le rôle de « 1

er pivot ».

− 1 x + 2y + z = a (L 1 )

x + 2y + z = b (L 2 )

− 3 x − 4 z = c (L 3 )

On ajoute alors aux lignes (L 2 ) et (L 3 ) le

nombre adéquat de fois la ligne (L 1 ), pour

annuler les coefficients devant la première

inconnue, x. On n’oublie pas d’indiquer les

opérations effectuées sur les lignes, sans quoi

le calcul devient illisible —et « irrelisible » en

cas d’erreur. Le coefficient de y à la deuxième

ligne est encadré : il sera le pivot de l’étape

suivante.

−x + 2 y + z = a (L 1 )

4 y + 2z = b + a (L 2 +L 1 )

− 6 y − z = c − 3 a (L 3 −3L 1 )

À présent, on ajoute aux lignes (L 1 ) et (L 3 )

le nombre adéquat de fois la ligne (L 2 ), pour

annuler les coefficients devant la deuxième

inconnue, y. Comme le coefficient de x dans

(L 2 ) est maintenant nul, ceci ne détruit pas le

travail déjà accompli d’annulation des coeffi-

cients de x. Le coefficient de z à la troisième

ligne est encadré : il sera le pivot de l’étape

suivante et dernière.

−x + =

1

2

a −

1

2

b (L 1 −

1

2

L 2 )

4 y + 2 z = b + a (L 2 )

− 1 z = −

3

2

a +

3

2

b + c (L 3 +

3

2

L 2 )

À l’étape ci-dessus, le coefficient de z, à la

première ligne, a été annulé. C’est un hasard.

À présent, on ajoute aux lignes (L 1 ) et (L 2 )

le nombre adéquat de fois la ligne (L 2 ), pour

annuler les coefficients devant la troisième

inconnue, z. Ceci ne perturbe pas le travail

déjà accompli.

−x =

1

2

a −

1

2

b (L 1 )

4 y = − 2 a + 4b + 2c (L 2 +2L 3 )

−z = −

3

2

a +

3

2

b + c (L 3 )

  1. Carl Friedrich Gauss, 1777 – 1855. Mathématicien, astronome et physicien allemand de génie, dont

les contributions ont été extrêmement variées et parfois fondatrices, dans certains domaines. En réalité, la

méthode du pivot est connue des Chinois depuis au moins le premier siècle de notre ère : elle est exposée,

à travers 18 exercices, dans le livre central des mathématiques chinoises , Les neuf chapitres sur l’art ma-

thématique. Elle en constitue le chapitre huit, titré La disposition rectangulaire — les matrices ne datent

donc pas d’hier... Elle a été réinventée indépendamment par Gauss qui en avait besoin, dans son livre

Theoria motus corporum coelestium in sectionibus conicis solem ambientium (Théorie du mouvement des

corps célestes parcourant des sections coniques autour du soleil), paru en 1809. Source wikipedia.

Finalement : 

x = −

1

2

a +

1

2

b

y = −

1

2

a + b +

1

2

c

z =

3

2

a −

3

2

b − c.

Exercice et remarque importante En notant, comme au paragraphe précédent,

u =

( x y

)

le vecteur des inconnues et

v =

a b c

 , traduire le dernier système en une égalité

matricielle. Solution :

u = G.

v , avec G la matrice

1

2

− 1 1 0 − 1 2 1 3 − 3 − 2

. Mais alors F et G sont

donc réciproques :

G.

v =

u

F −→ ←−

G

v = F.

u ,

pour n’importe quel

u =

( x y

)

. Donc G code la réciproque de F , c’est-à-dire que G = F

− 1 .

Comme annoncé, avoir résolu le système signifie qu’on a inversé la matrice F.

// Note informative La méthode du pivot de Gauss tel que présentée ici est programmée de façon

beaucoup plus raffinée dans les algorithmes de résolution de systèmes, pour optimiser sa rapidité, sa

précision et son universalité (si on tombe sur un pivot nul, que fait-on ?). Cependant, son principe

de base n’est rien de plus que l’exemple simple ci-dessus. //

III.3 Un exemple d’apparition d’un système linéaire

Des systèmes linéaires apparaissent dans quantité de situations, sans forcément qu’on

s’y attendre. J’en donne un exemple mathématique ici. Par ailleurs le résultat obtenu vous

sera utile en Génie chimique par exemple.

« Méthode de Simpson

6 » de calcul approché d’une intégrale On suppose qu’on

connaît la valeur d’une fonction f en trois points a, b > a et c =

b+a

2

le milieu de [a, b] :

f (a) = α, f (b) = β et f (c) = γ. On veut estimer la valeur de l’intégrale

I =

b

a

f (x) dx.

Il s’agit de l’aire sous le graphe de f entre a et b. Ce graphe passe par les trois points

A = (a, α), B = (b, β) et C = (c, γ), mais sans plus d’information, on est contraint de faire

une hypothèse sur sa forme. Si le segment [a, b] est suffisamment petit par rapport à la taille

possible des pfluctuations de f , il n’est pas déraisonnable de penser que le graphe sera bien

approché par une parabole P d’axe vertical passant par A, B et C. Une telle parabole est

le graphe d’un polynôme P de la forme P (x) = U x

2

  • V x + W. On pourra alors prendre

comme valeur approchée :

I ≃

b

a

P (x) dx.

Exercice (i) En traduisant la contrainte que P passe par A, B et C, déterminer le polynôme

P. Simplification : puisque l’intégrale de f est inchangée si on translate la situation horizon-

talement, on peut supposer que l’intervalle [a, b] est centré en 0, c’est-à-dire que a = −b et

donc c = 0. On le suppose désormais. Par ailleurs on note h =

b−a

2

  1. Thomas Simpson, 1710-1761, mathématicien anglais. La méthode d’approximation décrite ici n’est pas

un véritable résultat mathématique, mais le calcul d’une approximation plausible. Elle correspond cependant

à un véritable théorème de Simpson, qui donne une majoration de l’erreur commise par l’approximation,

sous certaines conditions sur les dérivées de f.

(ii) Intégrer P pour obtenir l’approximation de I, qu’on exprimera en utilisant L = b − a

la longueur de [a, b].

Solution I ≃

α+4γ+β

6

L. Remarques de cohérence : La formule est bien homogène ; si x est

en secondes et f en mètres, l’aire I est en m.s. L’expression de I aussi. Par ailleurs, la somme

des coefficients au numérateur vaut 6. Il faut s’y attendre. En effet si f = K est constante,

l’aire vaut K.L, ce que fournit bien la formule

K+4K+K

6

L = K.L.

Question subsidiaire Au (i) de l’exercice, on a trouvé une seule solution. On pouvait

s’attendre à ce qu’il n’y en ait pas plus d’une. Pourquoi? Indication : si P 1 et P 2 conviennent

tous les deux, que vaut le polynôme P 2 − P 1 en x = a, x = b et x = c? Qu’en déduit-on?

IV Déterminant d’une matrice

Le déterminant d’une matrice est une notion fondamentale mais délicate. Ce cours

n’aborde que quelques notions à savoir sur lui.

« Définition » Le déterminant d’une matrice M carrée de taille n est la surface, pour

n = 2, ou le volume, pour n = 3 (ou pour n > 3 , avec le sens que vous pouvez imaginer), de

l’image du carré ou du cube unité par l’application linéaire représentée par M. Cette surface

est comptée négativement si l’application renverse l’orientation. Il est noté det M.

Le déterminant de M mesure donc combien la multiplication par M dilate ou contracte

les volumes.

// Vous trouverez rarement le déterminant défini ainsi dans les livres. Cependant, la définition ci-

dessus est une vraie définition possible du déterminant. Pour supprimer les guillemets, il suffirait de

définir rigoureusement les mots surface et volume. //

Cette définition se comprend bien une fois vue sur quelques exemples : le déterminant est

un concept simple, visuel et géométrique.

Soit M = I 2. Le carré unité est le carré C = [0, 1] × [0, 1]. L’image

de C par l’identité est C, de surface 1. Par ailleurs, l’identité préserve

l’orientation du plan. Donc det I 2 = 1.

−→ i

−→ j

Soit M = 2I 2. L’image de C par la multiplication par M est un

carré de côté 2, donc de surface 4. Par ailleurs, l’homothétie 2 I 2 pré-

serve l’orientation du plan, donc det(2I 2 ) = 4. f^ (

−→ i )

f (

−→ j )

Soit M = S =

( 1 0 0 − 1

)

la matrice de la symétrie orthogonale par

rapport à l’axe (Ox). L’image de C est son symétrique par rapport à

(Ox), qui est encore un carré de côté 1. Mais S renverse l’orientation

du plan. Donc det S = − 1.

f (

−→ i )

f (

−→ j )

Soit M = T =

( 1 − 1 0 1

)

. L’image de C est un parallélogramme

de base 1 et de hauteur 1, donc de surface 1. Par ailleurs, T préserve

l’orientation du plan, donc det T = 1.

f (

−→ i )

f (

−→ j )

Soit enfin M = P =

( 1 0 0 0

)

la matrice de la projection orthogonale sur l’axe (Ox).

L’image de C est le segment [0, 1] de cet axe, de surface nulle. Donc det P = 0. Le détermi-

nant se définit semblablement en dimension plus grande.

Calcul du déterminant Le déterminant d’une matrice M est une somme (compliquée) de

produits de coefficients de M , que les ordinateurs calculent serviablement. Ce cours n’en dit

pas plus.

Il peut seulement vous être utile de savoir le calculer pour M de taille 2 ou 3, seuls cas

où le calcul a figure humaine. En taille 2 :

det

a b

c d

= ad − bc.

En taille 3, ceux qui en auront besoin à l’avenir apprendront par exemple la « règle de

Sarrus

7 ».

Propriété fondamentale La propriété fondamentale

8 à connaître est :

F est inversible si et seulement si det(F ) 6 = 0.

// Remarque Vu la définition du déterminant, cette propriété n’est pas surprenante, qualitative-

ment. Si det F = 0, la multiplication par F « écrase » les volumes à zéro, comme plus haut la

projection orthogonale P. Elle envoie plusieurs points sur un même point, et donc ne peut avoir

d’application réciproque. La matrice F ne peut donc être inversible. Réciproquement, il n’est pas

déraisonnable de penser que si det F 6 = 0, donc si F n’aplatit pas les volumes, elle n’envoie jamais

deux points sur un même point, donc admet une réciproque, donc est inversible. Cette dernière

phrase n’est en rien une preuve. //

Conséquence Le calcul du déterminant... détermine donc si une matrice est inversible

ou pas. Ainsi, si un système (S) d’équations linéaires est codé par une matrice carrée M , et

si on sait que det M 6 = 0, alors, sans aucun calcul, on sait que (S) a une unique solution.

V Deux notions utiles : produit scalaire, produit vectoriel

V.1 Le produit scalaire

Vous l’utiliserez en dimension 2 et 3, mais il se définit semblablement en toute dimension.

Introduisons-le donc ainsi.

  1. Pierre-Frédéric Sarrus, 1798-1861, professeur de mathématiques à la faculté de Strasbourg ( !) La « règle

de Sarrus » est un truc de calcul du déterminant des matrices carrées de taille trois, que vous apprendrez

sur le tas si besoin, il n’y a rien à comprendre, juste à pratiquer.

  1. Ce n’en est que la moitié ; elle comprend également le fait que : det(F G) = (det F )(det G) (donc, si F

est inversible, det(F

− 1 ) =

1 det F

).

Définition Si

u =

 

x 1

. . .

xn

  (^) et

v =

 

y 1

. . .

yn

  (^) sont deux vecteurs colonnes, leur produit

scalaire est :

−→ u.

v = x 1 y 1 + x 2 y 2 +... + xnyn.

Propriétés

(a) Comme le produit de nombres, il est « distributif par rapport à la combinaison

linéaire », et commutatif :

u .(α 1

v 1 + α 2

v 2 ) = α 1

u.

v 1 + α 2

u.

v 2 et

u.

v =

v.

u.

(b)

u.

u = ‖

u ‖

2 où géométriquement, ‖

u ‖ =

x

2 1

  • x

2 2

+... + x

2 n

est la norme de

u

i.e. sa longueur. Ceci résulte du théorème de Pythagore, voir c-dessous.

(c) Si l’angle (

u ,

v ) vaut α, alors

u.

v = ‖

u ‖.‖

v ‖. cos α.

(d) Par conséquent,

u.

v = 0 si et seulement si

u ⊥

v ,

u.

v > 0 si et seulement si

u ,

v ) est aigu et

u.

v < 0 si et seulement si (

u ,

v ) est obtus.

Propriété (b) : un dessin à avoir en tête Le (i) est sim-

plement le théorème de Pythagore. En dimension 2, si

u est de

coordonnées (x 1 , x 2 ), le carré de sa longueur ‖

u ‖

2 vaut x

2 1

  • x

2 2

. Le

même raisonement continue en dimension plus grande.

−→ u

x 2

x 1

V.2 Le produit vectoriel

Celui-ci n’est défini qu’en dimension trois.

Définition Si

u =

x 1

x 2

x 3

 et

v =

y 1

y 2

y 3

 sont deux vecteurs en dimension 3, leur produit

vectoriel, noté

u ∧

v , ou parfois

u ×

v en physique, est le vecteur de coordonnées :

u ∧

v =

x 2 y 3 − x 3 y 2

x 3 y 1 − x 1 y 3

x 1 y 2 − x 2 y 1

Truc pour retenir cette définition. Disposer les colonnes de

u et

v côte à côte. Pour la

première coordonnée, rayer la première ligne et effectuer le produit en croix sur les autres :

x 1

x 2

x 3

y 1

y 2

y 3

Pour la deuxième, on peut faire de même en rayant la deuxième ligne, mais il faut alors

mettre un signe moins au résultat obtenu. Une autre façon de faire est de faire « tourner »

les coordonnées, c’est-à-dire de faire comme si les coordonnées des vecteurs se poursuivaient

en se répétant. Pour la troisième coordonnée, cela revient au même qu’au début. Cette

technique fait apparaître la logique du calcul.

x 1

x 2

x 3

x 1

y 1

y 2

y 3

y 1

x 1

x 2

x 3

x 1

x 2

y 1

y 2

y 3

y 1

y 2

c.à.d. comme au début :

x 1

x 2

x 3

y 1

y 2

y 3

Propriétés

(a) À moitié comme le produit de nombres :

u ∧ (α 1

v 1 + α 2

v 2 ) = α 1

u ∧

v 1 + α 2

u ∧

v 2

mais :

u ∧

v = −

v ∧

u. Le produit vectoriel est anticommutatif.

(b) La norme ‖

u ∧

v ‖ est l’aire du parallélogramme s’appuyant sur

u et

v :

−→ u

−→ v

c’est-à-dire que ‖

u ∧

v ‖ = ‖

u ‖.‖

v ‖.| sin α|, avec α l’angle (

u ,

v ). Par conséquent,

u ∧

−→ v =

0 si et seulement si

u et

v sont colinéaires.

(c) Si

u et

v ne sont pas colinéaires,

u ∧

v est orthogonal au plan (

u ,

v ), ce qui

donne sa direction.

(d) Si

u et

v ne sont pas colinéaires,

u ∧

v est tel que la base (

u ,

v ,

u ∧

v ) est

une base directe. Ceci donne le sens de

u ∧

v et donc finit de le caractériser.

−→ u

−→ −→u ∧ −→v v

Utilisations du produit vectoriel Électromagnétisme : force de Laplace, force de Lorentz ;

mécanique : moment cinétique d’une force, force de Coriolis.

VI Diagonalisation d’une matrice codant une application li-

néaire

Nous quittons les rappels. On s’intéresse désormais aux applications linéaires f d’un

certain espace E dans lui-même. En outre, pour exposer la nouvelle notion sans être parasité

par des problèmes techniques, on considère que la dimension dim E de E est 2. Tout ce qui

suit vaut en n’importe quelle dimension n, mais devient techniquement plus compliqué si

n > 2.

VI.1 Matrice codant une application linéaire dans différentes bases

On a vu plus haut que les coordonnées d’un vecteur dépendent de la base dans laquelle

on calcule ces coordonnées. Il en va de même pour la matrice codant une application linéaire

f de E dans E.

Rappel de la remarque pratique de la page 11 Si F =

( a b c d

)

est la matrice de f dans

une certaine base (

i ,

j ), alors les colonnes de la matrice F ,

( a c

)

et

( b d

)

, sont l’image de

f (

i ) de

i et l’image f (

j ) de

j , exprimées dans la base (

i ,

j ). Vous souvenez-vous?

Donc ici, f (

i ) =

( a c

)

dans la base (

i ,

j ), c’est-à-dire f (

i ) = a

i +c

j , et semblablement

f (

j ) = b

i + d

j.

Cependant, on aurait pu choisir une autre base pour construire la matrice codant f.

On aurait obtenu une autre matrice. Jusqu’ici, le problème n’apparaissait pas, car la base

était toujours sous-entendue, c’était la base correspondant aux coordonnées naturelles des

vecteurs du plan R

2 ou de l’espace R

3 .

Premier exemple d’expression d’une application dans deux bases différentes.

Considérons s la symétrie orthogonale par rapport à la droite d’équation y = x, et (

u ,

v )

la base (

( 1 1

)

,

( − 1 1

)

) (faire le dessin !). Alors s(

u ) =

u = 1.

u + 0.

v , c’est-à-dire que

s(

u ) est de coordonnées

( 1 0

)

dans la base (

u ,

v ). Donc la première colonne de la matrice

Mat(−→u ,−→v )(s) de s dans la base (

u ,

v ) est

( 1 0

)

. Semblablement, s(

v ) = −

u = 0.

u +

v , donc la deuxième colonne est

( 0 − 1

)

. Conclusion :

Mat(−→u ,−→v )(s) =

Récapitulons dans une définition.

Définition La matrice d’une application linéaire f dans une base (

u ,

v ) est la matrice

dont les colonnes donnent les coordonnées de f (

u ) et f (

v ) dans la base (

u ,

v ) :

si

f (

u ) = a

u + b

v

f (

v ) = c

u + d

v

, alors : Mat (

−→ u ,

−→ v )

(f ) =

a c

b d

Exercice. Faire le même travail avec la base (

i ,

j ) = (

( 1 0

)

,

( 0 1

)

). Solution. Comme

s(

i ) =

j et s(

j ) =

i ,

Mat (

−→ i ,

−→ j )

(s) =

Commentaire. Si je vous avais donné Mat (

−→ i ,

−→ j )

(s), vous auriez mis un peu de temps à

reconnaître s. En revanche, si je vous avais donné Mat(−→u ,−→v )(s), reconnaître s est plus facile :

on voit que s laisse fixe tous les points de la droite dirigée par

u , c’est-à-dire d’équation

y = x, et « renverse » la droite dirigée par

v , qui est orthogonale à la première. Il s’agit donc

de la symétrie orthogonale par rapport à la droite d’équation y = x. Enfin, si je vous avais

donné la matrice de s dans une base biscornue, vous auriez bien eu du mal à reconnaître s.

On voit sur cet exemple que, si f est une application linéaire donnée, l’effet de f sur le

plan sera facile à comprendre en regardant la matrice de f dans certaines bases bien choisies,

ou plus difficile à comprendre, voire totalement illisible, dans d’autres bases. Choisir une

bonne base pour exprimer f est donc un art important ; il est également délicat.

VI.2 Applications diagonales et diagonalisables

Un cas particulier où l’action de f sur le plan E est facile à comprendre est le cas où sa

matrice F dans la base naturelle (

i ,

j ) est diagonale.

Définition La diagonale d’une matrice carrée M = (mi,j )

n i,j=

est la ligne de coefficients

(mi,i)

n i=

qui va d’en haut à gauche à en bas à droite. Une matrice est dite diagonale si tous

ses coefficents non diagonaux sont nuls.

Une matrice n’a qu’une « diagonale », c’est ainsi. La matrice identité et la matrice nulle

sont les premiers exemples de matrices diagonales.

Ainsi, si Mat (

−→ i ,

−→ j )

(f ) =

( λ 1 0 0 λ 2

)

, f dilate ou contracte la direction des x l’un facteur

λ 1 , et celle des y d’un facteur λ 2. La symétrie orthogonale s

′ par rapport à l’axe des x, ou

la projection orthogonale p sur l’axe des x, sont d’autres exemples d’application diagonales.

Exercice. Que valent λ 1 et λ 2 dans ces cas?

Comme la base naturelle (

i ,

j ) n’a pas de raison de jouer un rôle particulier par rapport

aux autres bases, la définition vraiment importante est la suivante.

Définition On appelle diagonalisable une application f dont la matrice dans une certaine

base (

u ,

v ) est diagonale.

Introduisons par ailleurs du vocabulaire désignant quelques notions importantes.

Définition Si f est une application linéaire et que

v est un vecteur non nul tel que :

f (

v ) est colinéaire (autrement dit proportionnel) à

v , c’est-à-dire f (

v ) = λ

v pour un

certain scalaire λ,

v est appelé un vecteur propre de f. Le scalaire λ est appelé une

valeur propre de f (associée au vecteur propre

v ).

Conséquence Une autre façon de dire que f est diagonalisable est donc de dire qu’il

existe une base (

u ,

v ) formée de vecteurs propres de f. En effet, dire que Mat(−→u ,−→v )(f ) = ( λ 1 0 0 λ 2

)

est diagonale, c’est simplement dire que f (

u ) = λ 1

u et f (

v ) = λ 2

v.

Exemple En VI.1 plus haut, l’application s n’est pas diagonale, car Mat (

−→ i ,

−→ j )

(s) n’est pas

diagonale, mais est diagonalisable, car Mat(−→u ,−→v )(s) est diagonale, avec λ 1 = 1 et λ 2 = − 1.

Remarque Une application diagonale est bien sûr diagonalisable, puisqu’il existe une base

où sa matrice est diagonale : simplement la base (

i ,

j ).

Les application diagonalisables sont particulièrement simples. Pour d’autres raisons en-

core, que je n’explique pas ici, elles revêtent une importance particulière. Il peut donc être

utile de les détecter, et de trouver une base où leur matrice est diagonale , ce qu’on appelle

alors diagonaliser l’application. En outre, être diagonalisable est un phénomène courant

pour les applications linéaires, en un sens que je ne donne pas ici. On n’est donc pas en train

d’étudier des matrices d’un type rare.

Une propriété. Si une application linéaire f est diagonalisable, la base (

u ,

v ) dans laquelle

sa matrice Mat(−→u ,−→v )(f ) est diagonale est remarquable, car elle est unique à avoir cette

propriété —du moins avec les deux nuances ci-dessous.

  • bien sûr, si (

u ,

v ) est une base qui convient, alors toute base de vecteurs proportionnels

u , β

v ), pour n’importe quel α 6 = 0 et quel β 6 = 0, convient aussi. Exercice : vérifiez-le!

  • si λ 1 = λ 2 , alors n’importe quelle base convient. Exercice : montrez-le! Indication :

géométriquement, quel type d’application est f? (Réponse : une homothétie, une dilatation

autrement dit. Que sont alors f (

u ) et f (

v ), pour n’importe quels

u et

v ?)

Si elle existe, une base où Mat(f ) est diagonale est donc naturelle à rechercher. Par

exemple, si f est issue d’un problème physique, ses vecteurs propres et valeurs propres ont

alors un sens physique. Pour diagonaliser Mat(f ), voir la recette ci-dessous.

Exercice. Donner une raison géométrique, non calculatoire, prouvant qu’une rotation f

(d’angle non nul et non égal à π) n’est pas diagonalisable. Solution. L’image de n’importe

quel vecteur non nul a tourné par rapport à ce vecteur, donc ne lui est pas colinéaire. Donc

aucun vecteur ne peut être un vecteur propre de f. A fortiori, f ne peut être diagonalisable.

On se donne f de matrice F =

( a b

c d

)

dans la base naturelle (

i ,

j ) et on se demande si

f est diagonalisable.

L’introduction de ce polynôme peut paraître étrange ; il est en fait naturel, mais ce n’est pas

immédiatement visible. Dans notre cas de dimension 2, Pf (x) = (a − x)(d − x) − bc.

Conséquence dans notre dimension deux. Si Pf a deux racines réelles, alors f a deux

valeurs propres, donc deux vecteurs propres (non colinéaires) : f est diagonalisable. Si Pf

n’a pas de racine réelle, f n’a pas de valeur propre, donc n’est pas diagonalisable. Si enfin

Pf a une seule racine réelle λ, f peut être diagonalisable, avec deux fois la même valeur λ

sur la diagonale, ou pas, cela dépend et il faut réfléchir (un peu).

Détermination des vecteurs propres. Si f est diagonalisable, il reste à trouver ses

vecteurs propres

u et

v. Comme on connaît λ 1 et λ 2 , cela revient à résoudre les deux

équations :

f (

u ) = λ 1

u et f (

v ) = λ 2

v. (1)

On cherche

u et

v , c’est-à-dire qu’on cherche leurs coordonnées,

u =

( ux uy

)

et

v =

( vx vy

)

.

Les équations (1), codées matriciellement, deviennent un système d’équations sur

( ux uy

)

et ( vx vy

)

, qu’on résout. On sait que ces systèmes ont des solutions non nulles, car on sait, par

la propriété, que λ 1 et λ 2 sont bien valeurs propres de f. Ainsi on trouve un

u et un

v

qui conviennent, et finalement, Mat (

−→ u ,

−→ v )

(f ) =

( λ 1 0 0 λ 2

)

. Note : λ 1 et λ 2 n’ont pas d’ordre

privilégié, on les numérote comme on veut.

Recette — Déterminer si une application f est

diagonalisable et, si c’est le cas, la diagonaliser.

// Remarque culturelle après l’exercice En dimension deux, hormis quelques cas exceptionnels,

les applications linéaires sont de deux grands types :

  • celles qui sont diagonalisables,
  • celles qui ressemblent à des rotations.

En toute dimension, une affirmation semblable, mais techniquement un peu plus élaborée, reste

vraie. //

// Remarque. J’avais affirmé plus haut qu’il est « courant » qu’une application linéaire soit diago-

nalisable. On le voit ici, pour E de dimension deux. En effet, leur polynôme caractéristique Pf est

de degré deux, le graphe est donc une parabole (de concavité tournée vers le haut). On a alors « une

chance sur deux » : soit la parabole est toute entière au-dessus de l’axe des abscisses. Alors Pf n’a

pas de racine, c’est-à-dire que f n’a pas de valeur propre. Donc f n’est pas diagonalisable. Soit la

parabole coupe l’axe des abscisses. Alors Pf a deux racines, c’est-à-dire que f a deux valeurs propres.

Donc f est diagonalisable. (Le cas où la parabole est tangente à l’axe des abscisses est exceptionnel,

« infiniment peu probable ».) Ainsi en dimension deux, une application linéaire prise au hasard a

« une chance sur deux » d’être diagonalisable. //

VI.3 Changement de base pour la matrice d’une application linéaire

Soit f une transformation linéaire du plan R

2 .

Notation On note, ici, F (

−→ i ,

−→ j )

= Mat (

−→ i ,

−→ j )

(f ) la matrice de f dans une certaine base

i ,

j ) et F (

−→ u ,

−→ v )

= Mat (

−→ u ,

−→ v )

(f ) sa matrice dans une autre base (

u ,

v ).

Il existe un lien entre F (

−→ i ,

−→ j )

et F (

−→ u ,

−→ v )

. Nous allons montrer lequel, et voir un de ses

intérêts, en nous basant sur un exemple.

Prenons f la symétrie orthogonale par rapport à la droite D passant par l’origine et

inclinée d’un angle θ par rapport à l’axe des x (faire un dessin). On prend (

i ,

j ) la base

naturelle du plan R

2 et (

u ,

v ) la base où

u =

( cos θ sin θ

)

et

v =

( − sin θ cos θ

)

(dessin). Que

valent f (

u ) et f (

v )?

Exercice. Déterminer F(−→u ,−→v ). Solution. F(−→u ,−→v ) =

( 1 0 0 − 1

)

. En revanche, trouver F (

−→ i ,

−→ j )

n’est pas si facile (essayez !). En comprenant le lien entre F (

−→ i ,

−→ j )

et F (

−→ u ,

−→ v )

, et comme on

connaît F (

−→ u ,

−→ v )

, on va déterminer F (

−→ i ,

−→ j )

Étape 1 : construction d’une application g faisant subir à

i et

j la même chose

que ce que f fait subir à

u et

v. Pour cela, on introduit déjà la transformation p

suivante : p est linéaire et envoie

i sur

u et

j sur

v. Exercice : il n’y en a pas besoin ici,

mais au passage, reconnaissez-vous p? Regardez bien ce qui se passe sur un dessin. Solution

en note

9

. Notons alors que p a une réciproque, p

− 1 , définie par le fait que p

− 1 est linéaire et

envoie

u sur

i et

v sur

j. On construit alors la transformation g = p

− 1 ◦f ◦p suivante

10 :

p f p

− 1

i 7 →

u 7 → f (

u ) [=

u ici] 7 → p

− 1 (f (

u )) [= p

− 1 (

u ) =

i ici]

g : −→ j 7 →

v 7 → f (

v ) [= −

v ici] 7 → p

− 1 (f (

v )) [= p

− 1 (−

v ) = −

j ici]

Passage-clé à comprendre. Vérifions que g fait bien subir à (

i ,

j ) ce que f fait subir à

u ,

v ). Il y a deux façons de le comprendre.

  • L’application f conserve

u : f (

u ) =

u et renverse

v : f (

v ) = −

v. On voit, par le

schéma ci-dessus, que g agit de même sur

i et

j : g(

i ) =

i et g(

j ) = −

j.

  • Ce phénomène reste valable même si f n’est pas la symétrie orthogonale par rapport à

la droite (O

u ), mais n’importe quelle application linéaire. En effet, g est construite exprès

pour cela :

  • on amène (

i ,

j ) sur (

u ,

v ), par p,

  • on applique f , faisant donc subir à (

i ,

j ), qui viennent d’être placés sur (

u ,

v ),

l’effet de f ,

  • on remet le résultat à sa place, par p

− 1 .

Exercice. Pour vraiment comprendre, faites le calcul avec f l’application linéaire de ma-

trice quelconque Mat (

−→ u ,

−→ v )

(f ) =

( a b c d

)

. Reprenez le schéma ci-dessus en adaptant les

expressions entre crochets « [... ici] ».

Étape 2 : calcul des matrices de tout ce petit monde et conclusion. Déjà, remar-

quons que la matrice P = Mat (

−→ i ,

−→ j )

(p), de p dans la base (

i ,

j ) est (Exercice : laquelle ?)

la matrice donnant les coordonnées de

u et

v dans la base (

i ,

j ) : P =

( ux vx uy vy

)

.

Quelle est la matrice de g dans la base (

i ,

j )? On la connaît de deux façons :

  1. p est bien sûr la rotation d’angle θ.
  2. Je ne me suis pas trompé dans l’ordre d’écriture g = p

− 1 ◦ f ◦ p. On applique d’abord p, puis f , puis

p

− 1 , ce qui s’écrit bien g = p

− 1 ◦ f ◦ p.

  • Comme g fait subir à (

i ,

j ) ce que f fait subir à (

u ,

v ), alors :

Mat (

−→ i ,

−→ j )

(g) = Mat (

−→ u ,

−→ v )

(f ) = F (

−→ u ,

−→ v )

Si vous avez bien compris ce que c’est que la matrice d’une appication linéaire dans une

certaine base, cela doit vous être clair. Sinon, revenez à la définition d’une telle matrice.

  • Comme g = p

− 1 ◦f ◦p, alors, en notant P la matrice Mat (

−→ i ,

−→ j )

(p) dans la base (

i ,

j ) :

Mat (

−→ i ,

−→ j )

(g) = P

− 1

. Mat (

−→ i ,

−→ j )

(f ).P = P

− 1 .F (

−→ i ,

−→ j )

.P.

Ainsi, en rassemblant les deux égalités, on obtient le lien cherché entre F (

−→ i ,

−→ j )

= Mat (

−→ i ,

−→ j )

(f )

et F(−→u ,−→v ) = Mat(−→u ,−→v )(f ) :

F

(

−→ u ,

−→ v )

= P

− 1 .F (

−→ i ,

−→ j )

.P ,

où P est la matrice donnant les coordonnées de

u et

v dans la base (

i ,

j ) :

P =

ux vx

uy vy

On appelle P la matrice de passage de la base (

i ,

j ) vers la base (

u ,

v ). Cette formule per-

met de calculer facilement la matrice d’une application dans une certaine base, connaissant

sa matrice dans une autre.

Exemple/Exercice. Au début du paragraphe, il n’était pas si simple de calculer F (

−→ i ,

−→ j )

À présent, vous savez que F (

−→ i ,

−→ j )

= P.F

(

−→ u ,

−→ v )

.P

− 1 (pourquoi? regardez la formule encadrée

et multipliez chaque membre, à gauche par P et à droite par P

− 1 ). Truc. Si M =

( a b c d

)

est inversible, alors M

− 1

1

det M

( d −b −c a

)

. Rappels. cos

2 θ + sin

2 θ = 1, cos

2 θ − sin

2 θ =

cos 2θ et 2 cos θ sin θ = sin 2θ. Enfin à vous de jouer, calculez F (

−→ i ,

−→ j )

. Solution. F (

−→ i ,

−→ j )

( cos 2θ sin 2θ sin 2θ − cos 2θ

)

.

Remarque. Le calcul ci-dessus illustre la remarque de la fin du paragraphe VI.1. On recon-

naît et comprend bien f en voyant sa matrice F (

−→ u ,

−→ v )

dans la base (

u ,

v ). En revanche, f

est méconnaissable, codée dans la base (

i ,

j ).

Lien avec la diagonalisation de matrices. Si vous connaissiez une application f par

sa matrice F = Mat (

−→ i ,

−→ j )

(f ), que f est diagonalisable, et que vous avez trouvé une base

u ,

v ) telle que D = Mat (

−→ u ,

−→ v )

(f ) est diagonale, alors la formule encadrée fournit le lien

entre F et D :

D = P

− 1 .F.P,

où la matrice de passage P est, comme dit l’encadré, la matrice des coordonnées de (

u ,

v )

dans la base (

i ,

j ).

VI.4 Annexe : transposée d’une matrice, matrices symétriques

Soit M une matrice quelconque, à p lignes et q colonnes :

M = (ai,j )

p

i=1

q

j=1

a 1 , 1 a 1 , 2 a 1 , 3 · · · a 1 ,q

a 2 , 1 a 2 , 2 a 2 , 3 · · · a 2 ,q

ap, 1 ap, 2 ap, 3 · · · ap,q

Définition On appelle transposée de M et on note

t M ou M

t ou M

T la matrice à q lignes

et p colonnes dont les lignes sont les colonnes de M , et vice versa :

t M = (aj,i)

q

j=1

p

i=1

a 1 , 1 a 2 , 1 · · · ap, 1

a 1 , 2 a 2 , 2 · · · ap, 2

a 1 , 3 a 2 , 3 · · · ap, 3

a 1 ,q a 2 ,q · · · ap,q

La transposée de M s’obtient donc en « retournant » M par rapport à ce qu’on appellerait

sa diagonale, si elle était carrée : (a 1 , 1 , a 2 , 2 , a 3 , 3 ,.. .).

Définition Une matrice carrée M est dite symétrique si elle est égale à sa transposée :

t M = M.

Autrement dit, chaque coefficient non diagonal ai,j est égal à son coefficient symétrique

aj,i. Les matrices symétriques, qu’on rencontre couramment pour beaucoup de raisons, sont

notamment remarquables pour leur propriété suivante.

Propriété (admise) Toute matrice symétrique est diagonalisable, et même diagonalisable

dans une base orthonormée.

Algèbre linéaire – Exercices

Espaces vectoriels, familles de vecteurs

Exercice 1 Lesquels des ensembles suivants sont-ils naturellement des espaces vectoriels

sur R ou sur C?

L’ensemble des polynômes. L’ensemble des polynômes de degré plus petit qu’un degré

donné. L’ensemble des polynômes de degré plus grand qu’un degré donné. L’ensemble des

polynômes de degré donné. L’ensemble C des nombres complexes. L’ensemble des fonctions

de R dans R. L’ensemble des fonctions de R dans R

. Les différentielles en deux variables

U et V. L’ensemble des solutions de l’équation différentielle x

2 y

′′

  • xy

  • y = 0. L’ensemble

des solutions de l’équation différentielle x

2 y

′′

  • xy

  • y = 1. L’ensemble des colonnes de 27

chiffres indiquant le nombre de mètres carrés d’habitations construits une année donnée dans

chacun des pays membres de l’UE. L’ensemble des matrices à coefficients réels, à p lignes

et q colonnes. L’ensemble des matrices à coefficients complexes, à p lignes et q colonnes.

L’ensemble des matrices à coefficients réels.

Exercice 2 Soit

u ,

v et

w trois vecteurs de l’espace. On suppose que chacune des familles

u ,

v ), (

v ,

w ) et (

u ,

w ) sont libres. La famille (

u ,

v ,

w ) est-elle libre? (oui, toujours ;

non, jamais ; ça dépend...? Justifier.)

Exercice 3 Soit (

u 1 ,

u 2 ,

u 3 ) une famille de vecteurs, disons à dix coordonnées. On sup-

pose que (

u 1 ,

u 2 ,

u 3 ) est liée. Peut-on lui ajouter un vecteur

u 4 bien choisi pour que la

famille (

u 1 ,

u 2 ,

u 3 ,

u 4 ) soit libre? Justifier précisément, en trois lignes.

Exercice 4 Soit (

u ,

v ,

w ) une famille de trois vecteurs indépendants de l’espace. Les

familles (

u ,

v ), (

v ,

w ) et (

u ,

w ) sont-elle libres? (oui, toujours ; non, jamais ; ça dépend

...? Justifier.)

Exercice 5 La famille (

u ,

v ,

w ), donnée par :

u =

0

1

1

 ,

v =

1

1

0

 et

w =

2

3

1

 ,

est-elle libre?

Produits scalaire et vectoriel

Exercice 6 Soit dans l’espace les champs de vecteurs

→ u(x, y, z) =

y

−x

0

 (^) et

→ v (x, y, z) =

0

z

−y

. Calculer les coordonnées du champ

→ w =

→ u ∧

→ v. Sans calcul, trouver la valeur de

→ u ∧

→ v ).

→ u (faire un dessin).

Exercice 7 Calculer le moment cinétique

L , par rapport au centre O de la terre, d’une

personne de 70 kg, assise dans la salle (supposée située à la latitude 45˚). Rayon terrestre :

∼ 6400 km. Rappel : le moment cinétique d’un objet ponctuel M par rapport à un certain

point O est défini comme

L =

OM ∧

p , avec

p la quantité de mouvement de l’objet M :

−→ p = m.

v , m masse de M ,

v vitesse de M.