Baixe ´Algebra linear I e outras Resumos em PDF para Álgebra, somente na Docsity! Prof. Dr. Mauŕıcio Zahn UFPel Álgebra linear I Prefácio Este material foi elaborado durante o Primeiro Semestre letivo de 2016, para atender a Disciplina de Álgebra Linear I que ministrei para os cursos de F́ısica e Matemática da UFPel. Estas notas de aula estão sendo escritas como um material de apoio para os estudantes, em conjunto com as lista de exerćıcios, e corresponde ao conteúdo desenvolvido na referida disciplina. Mauŕıcio Zahn Caṕıtulo 1 Matrizes e sistemas lineares 1.1 Matrizes Definição 1.1 Chama-se matriz a uma tabela com m linhas e n colunas, cons- titúıda por números, chamados de elementos da matriz. Uma matriz será identificada por uma letra maiúscula e um elemento dessa matriz será indicado pela letra minúscula correspondente, acompanhada de dois ı́ndices i e j, onde o primeiro ı́ndice indica a linha em que tal elemento se encontra e o segundo ı́ndice a coluna onde o mesmo se encontra. Dessa forma, uma matriz A com m linhas e n colunas costuma ser representada, simbolicamente, por A = (aij)m×n. Assim, abrindo a notação matricial acima, escrevemos A = a11 a12 a13 ... a1n a21 a22 a23 ... a2n ..... ..... ..... ..... ..... am1 am2 am3 ... amn 2 Álgebra linear I Por exemplo, considerando a matriz B3×2 abaixo B = 2 −1 4 0 3 7 , temos que • b11, o elemento da linha 1 e coluna 1, vale 2; • b12, o elemento da linha 1, coluna 2, vale −1; • etc. Observe que a matriz B dada acima possui 3 linhas e duas colunas, por isso escrevemos B3×2. Dada uma matriz Am×n, dizemos que que m × n é o tamanho ou a ordem da matriz em questão. Quando m = n, ou seja quando o número de linhas é igual ao número de colunas, dizemos que a matriz é quadrada, e nesse caso os elementos aii formam a diagonal da matriz, também chamada de diagonal principal. Quando m 6= n, dizemos que a matriz é retangular. 1.1.1 Tipos especiais de matrizes Nessa seção vamos apresentar os principais tipos de matrizes. (a) Matriz nula. É uma matriz quadrada ou retangular, onde todas as entradas são nulas. Por exemplo, 02×2 = ( 0 0 0 0 ) e 02×4 e 02×4 = ( 0 0 0 0 0 0 0 0 ) Quando definirmos a soma de matrizes veremos que a matriz nula cor- responde ao neutro aditivo. (b) Matriz diagonal. É uma matriz quadrada onde aij = 0 se i 6= j. Exemplo: D = 2 0 0 0 −1 0 0 0 8 . M. Zahn 3 Uma outra forma de denotar essa mesma matriz é D = diag (2,−1, 8). (c) Matriz identidade. É uma matriz diagonal (e quadrada) definida por I3 = diag (1, 1, 1) = 1 0 0 0 1 0 0 0 1 . No caso quando forma uma matriz n× n, temos In = diag (1, 1, 1, ..., 1︸ ︷︷ ︸ n ) = 1 0 0 ... 0 0 1 0 ... 0 .... .... .... .... .... 0 0 0 ... 1 Uma outra maneira de denotar a matriz identidade de ordem n é escrever I = (δij)n×n, onde δij = 1, se i = j 0, se i 6= j . Quando definirmos os produto de matrizes, veremos que esssa matriz corresponde à unidade multiplicativa, i.e., é o neutro multiplicativo. (d) Matriz triangular inferior. É a matriz quadrada A = (aij) tal que aij = 0, se i < j. Ou seja, é uma matriz onde acima da diagonal as entradas são todas iguais a zero. Por exemplo, a matriz T = 2 0 0 −1 3 0 0 2 8 é uma matriz triangular inferior. (e) Matriz triangular superior. É a matriz quadrada A = (aij) tal que aij = 0, se i > j. Ou seja, é uma matriz onde abaixo da diagonal as entradas são todas iguais a zero. Por exemplo, a matriz T = 1 2 3 0 5 1 0 0 0 6 Álgebra linear I • c11 = a11 · b11 + a12 · b21 + ...+ a1n · bn1 = n∑ k=1 a1k · bk1; • c12 = a11 · b12 + a12 · b22 + ...+ a1n · bn2 = n∑ k=1 a1k · bk2; • etc. De forma geral, para determinar o elemento cij do produto C = A ·B, olhamos para a linha i de A e a coluna j de B, e então efetuamos o produto do primeiro elemento da linha i com o primeiro elemento da coluna j, e somamos co o produto do segundo elemento da linha i com o segundo elemento da coluna j, e assim por diante, até somar com o produto do último elemento da linha i com o último elemento da coluna j, ou seja, cij = n∑ k=1 aik · bkj . Por exemplo, dadas as matrizes A2×3 = ( 1 2 3 2 −1 0 ) e B3×2 = 2 −1 0 4 1 1 , temos que A ·B = ( 1 2 3 2 −1 0 )2 −1 0 4 1 1 = = ( 1 · 2 + 2 · 0 + 3 · 1 1 · (−1) + 2 · 4 + 3 · 1 2 · 2 + (−1) · 0 + 0 · 1 2 · (−1) + (−1) · 4 + 0 · 1 ) = ( 5 10 4 −6 ) Convém observar que, neste caso, A2×3 ·B3×2 resulta numa matriz 2× 2. Já o produto B3×2 ·A2×3 resultará numa matriz 3× 3. Ou seja, em geral o produto de matrizes não comuta, ou seja, em geral temos que A ·B 6= B ·A. De fato, pode acontecer que o produto A · B esteja definido, mas o produto B × A não esteja sequer definido. Por exemplo, se A2×3 e B3×4, temos que M. Zahn 7 A ·B estará bem definido, mas B ·A não tem sentido, verifique! Outro fato importante a ser observado é que dada uma matriz Am×n, temos que In é neutro multiplicativo à direita de A e que Im é neutro multiplicativo à esquerda de A, ou seja, Am×n · In = A e Im ·Am×n = A. Definição 1.5 Dizemos que duas matrizes A = (aij)m×n e B = (bij)m×n, de mesmo tamanho, são iguais se aij = bij , ∀i ∈ {1, 2, ...,m} e ∀j ∈ {1, 2, ..., n}. Ou seja, da mesma forma que estabelecemos uma igualdade de vetores (dois vetores são iguais quando as componentes de mesma posição são iguais), temos que duas matrizes são iguais quando seus elementos de mesma posição forem iguais. Para verificar uma série de propriedades envolvendo igualdade de matrizes, mostramos a igualdade entre seus elementos de mesma posição. Teorema 1.6 (Propriedades algébricas das matrizes) Sejam A,B,C matrizes e α, β ∈ R. Então, valem as seguintes propriedades (onde elas estiverem bem definidas) 01) A+ (B + C) = (A+B) + C. 02) A+B = B +A. 03) existe uma matriz 0 tal que A+ 0 = 0 +A = A (matriz nula). 04) para toda matriz A, existe uma matriz B tal que A+B = 0. Denotamos B = −A. 05) existe uma matriz I tal que A · I = I ·A = A. (matriz identidade) 06) α(A+B) = αA+ αB. 07) (α+ β)A = αA+ βA. 08) A · (B + C) = A ·B +A · C. 8 Álgebra linear I 09) A · (B · C) = (A ·B) · C. 10) α(A ·B) = (αA) ·B = A · (αB). Observação 1.7 Note que a propriedade 04) nos motiva o conceito de dife- rença entre matrizes. Ou seja, dadas duas matrizes A e B, de mesmo tamanho, podemos definir a diferença entre A e B pondo A−B = A+ (−B), que não deixa de ser parecido com a maneira que definimos a diferença de dois vetores. Mas cuidado, a matriz −A não recebe o nome de “simétrica”! Matriz simétrica é um conceito bem diferente e o veremos na Definição 1.11. Demonstração da Proposição. Faremos a prova de algumas apenas e dei- xaremos as demais para o leitor. 01) A+ (B + C) = (A+B) + C: Escreva B + C = S, onde S = (sij) é tal que sij = bij + cij . Dessa forma, escrevemos A+ (B + C) = A+ S = T = (tij), onde tij = aij + sij . Por outro lado, escreva A+B = Z, onde Z = (zij), tal que zij = aij + bij , Dessa forma, escrevendo (A+B) + C = Z + C = W = (wij), onde wij = zij + cij = (aij + bij) + cij = aij + (bij + cij) = aij + sij = tij . M. Zahn 11 usando (1.2) temos que cada elemento fij de F é dado por fij = p∑ `=1 mi` · c`j = p∑ `=1 ( n∑ k=1 aik · bk` ) · c`j = p∑ `=1 n∑ k=1 (aik · bk` · c`j) = = p∑ `=1 n∑ k=1 aik · (bk` · c`j) = n∑ k=1 p∑ `=1 aik · (bk` · c`j) = n∑ k=1 aik ( p∑ `=1 bk` · c`j ) = = n∑ k=1 aik · wkj . Por outro lado, denotando A · (B · C) = Am×n ·Wn×q = Gm×q, onde gij = n∑ k=1 aik · wkj = fij . Como gij = fij , ∀i ∈ {1, 2, ...,m} e ∀j ∈ {1, 2, ..., q}, conclúımos que as matrizes F e G são iguais, ou seja, que (A ·B) · C = F = G = A · (B · C). Obs. Na prova acima usamos uma propriedade “comutativa” para somatórios, ou seja, vale a propriedade n∑ i=1 p∑ j=1 F (i, j) = p∑ j=1 n∑ i=1 F (i, j), onde F (i, j) é uma expressão qualquer que depende dos ı́ndices i e j. Como um bom exerćıcio, prove essa igualdade. 12 Álgebra linear I 1.1.3 Matriz transposta Definição 1.8 Dada uma matriz A = (aij)m×n, definimos a matriz transposta de A , e denotamos por At, a matriz definida por At = (aji)n×m. Em palavras, dada uma matriz A, a transposta de A, At, é a matriz na qual sua primeira linha de At corresponde à primeira coluna de A, e assim por diante, ou seja, linhas se transformam em colunas. Vejamos um exemplo. Exemplo 1.9 A = ( 2 −1 7 1 0 3 ) 2×3 ⇒ At = 2 1 −1 0 7 3 3×2 Proposição 1.10 A transposição de matrizes goza das seguintes propriedades (onde elas estejam bem definidas): 01) (At)t = A. 03) (A+B)t = At +Bt. 02) (k ·A)t = k ·At, onde k ∈ R. 04) (A ·B)t = Bt ·At. Demonstração. Faremos a prova de 01), 03) e 04) e deixaremos as prova de 02) para o leitor. 01) (At)t = A. Seja aij o elemento da linha i e coluna j de A. Então aji é o elemento da linha j e coluna i de At Por fim, transpondo novamente, conclúımos que aij é o elemento da linha i e coluna j de (At)t. Portanto, conclúımos que, A = (At)t. 03) (A+B)t = At +Bt. Escreva C = A+B. Então, basta mostrar que Ct = At +Bt. M. Zahn 13 Sendo C = A+B, temos que o elemento cij da linha i e coluna j de C é dado por cij = aij + bij . Logo, o elemento cji = aji + bji é o elemento da linha j e coluna i de Ct. Do mesmo modo, aji é o elemento da linha j e coluna i de At e bji é o elemento da linha j e coluna i de Bt. Ou seja, conclúımos que Ct = At +Bt. 04) (A ·B)t = Bt ·At. Tome Am×n e Bn×p e escreva Cm×p = A · B. Então, o elemento cij de C é dado por cij = n∑ k=1 aik · bkj . Vamos mostrar que Ct = Bt ·At. Denotando por ctij o elemento na linha i e coluna j de Ct, temos que ctij = cji = n∑ k=1 ajk · bki = n∑ k=1 atkj · btik = n∑ k=1 btik · atkj , (1.3) onde atkj é elemento de At e btik é elemento de Bt. Por outro lado, definindo M = Bt ·At, com elemento mij = n∑ k=1 btik · atkj , segue de (1.3) que ctij = mij , ou seja, conclúımos que Ct = M = Bt ·At, e como C = A ·B, segue o resultado. Definição 1.11 Dizemos que uma matriz A é simétrica quando At = A e que A é anti-simétrica quando At = −A. 16 Álgebra linear I Mas como C também é inversa de A, temos que A · C = I, e com isso, a igualdade acima fica C = B · (A · C) = B · I = B =⇒ C = B, e isso prova a unicidade de inversa, como queŕıamos. Proposição 1.14 Valem as seguintes propriedades para uma matriz inverśıvel A: (a) (A−1)−1 = A. (b) (k ·A)−1 = k−1 ·A−1, onde k ∈ R \ {0}. Demonstração. (a) Como por hipótese A é inverśıvel, temos que existe inversa A−1 tal que A ·A−1 = I e A−1 ·A = I. Mas então, temos que A−1 também é inverśıvel, com inversa (A−1)−1 = A. (b) Basta observar que (kA)(k−1A−1) = k−1(kA)A−1 = (k−1k)(A ·A−1) = 1 · I = I, e (k−1A−1)(kA) = k(k−1A−1)A = (kk−1)(A−1 ·A) = 1 · I = I, e então temos que kA é inverśıvel, com inversa (kA)−1 = k−1A−1. Proposição 1.15 Sejam A e B duas matrizes quadradas inverśıveis de mesmo tamanho. Então, o produto A ·B também é inverśıvel, com inversa (A ·B)−1 = B−1 ·A−1. M. Zahn 17 Demonstração. De fato, como A e B são inverśıveis com inversas dadas, respectivamente, por A−1 e B−1, basta efetuar os produtos, usando a associa- tividade: (A ·B)(B−1 ·A−1) = A(B ·B−1)A−1 = A · I ·A−1 = A ·A−1 = I, e (B−1 ·A−1)(A ·B) = B−1(A−1 ·A)B = B−1 · I ·B = B−1 ·B = I, o que mostra que A ·B també é inverśıvel, com inversa (A ·B)−1 = B−1 ·A−1. 1.1.5 Potências de matrizes Motivados pelos conceitos de produto de matrizes e de matriz inverśıvel, pode- mos definir: Definição 1.16 Seja A uma matriz quadrada. Definimos as potências de A pondo A0 = I e An = A ·A · ... ·A︸ ︷︷ ︸ n fatores , ∀n ∈ N. Quando A for inverśıvel, definimos as potências negativas de A por A−n = (A−1)n = A−1 ·A−1 · ... ·A−1︸ ︷︷ ︸ n fatores . Segue diretamente dessa definição a Proposição abaixo, cuja demonstração fica como exerćıcio para o leitor: Proposição 1.17 Seja A uma matriz inverśıvel. Então, para n ∈ N fixado, An é inverśıvel, e (An)−1 = (A−1)n. 18 Álgebra linear I Exerćıcios 1. Prove que a matriz A = ( a b c d ) é inverśıvel se, e somente se, ad−bc 6= 0. Neste caso, mostre que a inversa é dada por A−1 = 1 ad− bc ( d −b −c a ) . 2. Mostre que, se A for uma matriz invert́ıvel, então At também é invert́ıvel, com (At)−1 = (A−1)t. 3. Suponha que A seja uma matriz inverśıvel. Mostre que se AB = AC, então B = C. Dê um exemplo de uma matriz não nula A tal que AB = AC, mas B 6= C. 4. Se A e B são matrizes quadradas e A é inverśıvel, verifique que (A+B)A−1(A−B) = (A−B)A−1(A+B). 1.1.6 Matriz na forma escalonada reduzida por linhas Definição 1.18 Dizemos que uma matriz A está na forma escalonada reduzida por linhas se: (i) numa linha não totalmente constitúıda por zeros, o primeiro elemento não nulo, chamado de pivô, vale 1; (ii) se existirem linhas totalmente nulas, elas estão localizadas na base da matriz; (iii) em duas linhas quaisquer não nulas, o pivô da linha superior localiza-se mais à esquerda do pivô da linha inferior; (iv) em cada coluna onde há um pivô, os demais elementos dessa coluna são zeros. M. Zahn 21 Dessa forma, sendo x = 2, na equação x + y = 3 vamos obter 2 + y = 3, e portanto y = 1. Assim, a solução do sistema dado é (x, y) = (2, 1). Repare que, geometricamente, cada equação no plano cartesiano R2, corresponde a equação de uma reta. Então a solução do sistema acima nos diz que essas retas são con- correntes, ou seja, se interceptam num ponto do plano cartesiano, exatemente no ponto de coordenadas (2, 1). No entanto, sabemos que duas retas no plano podem ser também coinci- dentes ou paralelas. No primeiro caso, o sistema assumiria infinitas soluções, e é chamado de indeterminado, já no segundo caso, o sistema não teria soluções, e seria chamado de imposśıvel ou incompart́ıvel. Como exerćıcio, observe que o sistemax+ y = 1, 2x+ 2y = 2 possui infinitas soluções, e podemos escrever isso, por exemplo, x = t, y = 1−t, ∀t ∈ R; e que o sistema x+ y = 1 2x+ 2y = −3 não tem solução. Dado um sistema linear a11x1 + a12x2 + ...+ a1nxn = b1 a21x1 + a22x2 + ...+ a2nxn = b2 ......................................... am1x1 + am2 x2 + ...+ amnxn = bn , podemos associá-lo a uma matriz da forma a11 a12 ..... a1n b1 a21 a22 ..... a2n b2 ..... ..... ..... ..... ..... am1 am2 ..... amn bn , 22 Álgebra linear I chamada de matriz aumentada do sistema. Um dos principais objetivos do estudo de matrizes é resolver sistemas li- neares. Uma maneira bastante útil de se resolver um sistema linear consiste em efetuar certas operações entre suas equações, com o intuito de obter outras equações equivalentes às originais. Tais operações, são chamadas de operações elementares e consistem em: (a) multiplicar uma equação por uma constante não nula; (b) trocar duas equações do sistema de posição; (c) substituir uma equação pela soma dela com um múltiplo de outra equação do sistema dado. Tais operações podem ser feitas sobre a matriz aumentada do sistema, ou seja, elas nos motivam definir: Definição 1.24 Dada uma matriz A, definimos as operações elementares sobre linhas de A por: (i) trocar duas linhas de posição; (ii) multiplicar uma linha por uma constante não nula; (iii) somar um múltiplo de uma linha a uma outra linha. Simbolicamente, chamando `i e `j as linhas i e j, i 6= j, de uma matriz A, temos que as três operações elementares sobre linhas, respectivamente, são (i) `i ↔ `j ; (ii) `i ↪→ k · `i; (iii) `i ↪→ `i + k · `j . Isto posto, podemos resolver um exerćıcio, utilizando as ideias acima. Exemplo 1.25 Resolver o sistema linear x+ 2y − 4z = −4 2x+ 5y − 9z = −10 3x− 2y + 3z = 11 . M. Zahn 23 Solução. A matriz aumentada do sistema é dada por1 2 −4 −4 2 5 −9 −10 3 −2 3 11 Efetuando as operações elementares sobre linhas como nos esquemas a se- guir, vamos obter (repare que vamos procurar construir uma “escada” onde os degraus serão pivôs, ou seja, faremos o primeiro elemento não nulo de cada linha da matriz ser igual a 1): 1 2 −4 −4 2 5 −9 −10 3 −2 3 11 `2 ↪→ `2 − 2`1−−−−−−−−−−−→ 1 2 −4 −4 0 1 −1 −2 3 −2 3 11 `3 ↪→ `3 − 3`1−−−−−−−−−−−→ 1 2 −4 −4 0 1 −1 −2 0 −8 15 23 `3 ↪→ `3 + 8`2−−−−−−−−−−−→ 1 2 −4 −4 0 1 −1 −2 0 0 7 7 `3 ↪→ 1 7 `3 −−−−−−−→1 2 −4 −4 0 1 −1 −2 0 0 1 1 , que corresponde ao sistema x+ 2y − 4z = −4 y − z = −2 z = 1 , o qual, facilmente verificamos que z = 1, y = −1 e x = 2. Logo, a solução dos sistema dado é (x, y, z) = (−2,−1, 1). Observação 1.26 Podeŕıamos continuar o procedimento, anulando-se agora os termos acima dos pivôs, ou seja, continuar como segue:1 2 −4 −4 0 1 −1 −2 0 0 1 1 `2 ↪→ `2 + 8`3−−−−−−−−−−−→ 1 2 −4 −4 0 1 0 −1 0 0 1 1 `1 ↪→ `1 − 2`2−−−−−−−−−−−→ 26 Álgebra linear I (b) Mostre que o segundo sistema tem uma infinidade de soluções e escreva o que isso significa quanto aos plannos representados por essas equações. 2. Resolva cada sistema linear abaixo, pelo método de eliminação de Gauss- Jordan: (a) x1 + x2 + 2x3 = 8 −x1 − 2x2 + 3x3 = 1 3x1 − 7x2 + 4x3 = 10 (b) 2x1 + 2x2 + 2x3 = 0 −2x1 + 5x2 + 2x3 = 1 8x1 + x2 + 4x3 = −1 3. Verifique se o sistema homogêneo abaixo possui uma solução não nula: x+ y − z = 0 2x+ 4y − z = 0 3x+ 2y + 2z = 0 . 4. Resolva cada sistema linear abaixo: (a) x+ 2y − 4z = −4 2x+ 5y − 9z = −10 3x− 2y + 3z = 11 (b) x+ 2y − 3z = −1 −3x+ y − 2z = −7 5x+ 3y − 4z = 2 (c) x+ 2y − 3z = 1 2x+ 5y − 8z = 4 3x+ 8y − 13z = 7 1.2.1 Matrizes elementares Definição 1.29 Dizemos que uma matriz quadrada de ordem n é elementar quando ela resulta de apenas uma operação elementar sobre linhas da matriz identidade In. Por exemplo, as matrizes( 0 1 1 0 ) , e 1 0 −2 0 1 0 0 0 1 M. Zahn 27 são matrizes elementares. Por quê? A importância das matrizes elementares é que as mesmas são usadas para efetuar operações elementares sobre linhas de uma matriz via multiplicação de matrizes. Ou seja, temos o seguinte resultado. Proposição 1.30 Sejam Am×n uma matriz e denote por Em×m a matriz ele- mentar obtida por uma operação elementar sobre linhas da matriz Im. Então, o produto E ·A é a matriz que resulta em efetuarmos a mesma operação elementar sobre linhas em A. Demonstração. Fica como exerćıcio. Esta proposição não será usada na prática, será apenas uma ferramenta para fins teóricos. Isto porque podemos, na prática, efetuar as operações ele- mentares sobre linhas diretamente na matriz desejada, sem precisar recorrer a produtos de matrizes elementares. Note que, ao efetuar uma operação elementar sobre linhas em uma matriz identidade I, determinando assim uma matriz elementar E, podemos aplicar em cima de E uma operação elementar “inversa” à anterior a fim de recuperar a matriz identidade. Por exemplo, se temos I3 e multiplicamos a linha 3 por 5, vamos obter a matriz elementar E = 1 0 0 0 1 0 0 0 5 . Agora, se multiplicarmos a linha 3 de tal matriz por 1 5 vamos recuperar I3. Em geral, para cada operação elementar sobre linhas existe uma operação elementar inversa, conforme a tabela: Op. sobre linhas de I que produzem E Op. sobre linhas de E que produzem I `i ↪→ k · `i `i ↪→ 1 k · `i `i ↔ `j `i ↔ `j `i ↪→ `i + k · `j `i ↪→ `i − k · `j 28 Álgebra linear I Proposição 1.31 Uma matriz elementar é invert́ıvel e a sua inversa é uma matriz elementar. Demonstração. Seja E uma matriz elementar, que é obtida por uma única operação elementar sobre linhas de I. Seja E0 a matriz elementar obtida de I ao se aplicar a operação elemen- tar inversa àquela que produziu E. Pela Proposição 1.30, e observando que operações elementares inversas se cancelam entre si, determinamos que E0 · E = I e E · E0 = I, o que mostra que a matriz elementar E é inverśıvel e além disso que sua inversa também é uma matriz elementar. Teorema 1.32 Seja An uma matriz quadrada. São equivalentes as afirmações: (a) A forma escalonada reduzida por linhas de An é In. (b) An pode ser expressa como o produto de matrizes elementares. (c) An é inverśıvel. Demonstração. (a)⇒ (b): Suponha que a forma escalonada reduzida por linhas de An seja In. Logo, segue que existe uma sequência de operações elementares sobre linhas que reduz A a In. Pela Proposição 1.30 segue que cada operação elementar sobre linhas pode ser efetuada multiplicando-se à esquerda da matriz A uma matriz elementar. Dessa forma, temos que existem E1, E2, ..., Ek matrizes elementares tais que Ek · ... · E2 · E1 ·A = In. Como pela Proposição 1.31 cada uma das matrizes elementares é invert́ıvel, de- notando por E−1j a inversa de cada Ej , j = 1, 2, ..., k, multiplicando a igualdade acima, à esquerda, sucessivamente por Ek−1, E−1k−1, ..., E−12 , E−11 , obtemos (E−11 · E2−1 · ... · E−1k )(Ek · ... · E2 · E1 ·A) = (E−11 · E2−1 · ... · E−1k )In, M. Zahn 31 sequência de operações elementares sobre linhas em I, na mesma ordem, obte- remos A−1. Ou seja, provamos o seguinte algoritmo de obtenção da inversa de uma metriz quadrada A: Teorema 1.35 (Algoritmo para obtenção de inversa) Dada uma matriz qua- drada A. Se efetuarmos uma sequência de operações elementares sobre linhas que reduza A à matriz identidade I, então essa mesma sequência de operações elementares sobre linhas, na mesma ordem, reduz I à A−1. Na prática, para determinar A−1, costuma-se escrever uma matriz aumen- tada (A|I), formada por dois grandes “blocos” A e I, e com isso, quando efetuarmos operações elementares sobre linhas para reduzir o primeiro bloco A em I, automaticamente o segundo bloco I será transformado em A−1, ou seja, simbolicamente, temos (A|I) −−−−−99K︸ ︷︷ ︸ Ek·...·E2·E1 (I|A−1) Para ilustrar esse algoritmo, vejamos um exemplo prático: Exemplo 1.36 Obtenha a inversa da matriz A = 2 2 1 1 2 0 1 −1 0 , se existir. Solução. A matriz aumentada é dada por (A | I) = 2 2 1 1 0 0 1 2 0 0 1 0 1 −1 0 0 0 1 Efetuaremos operações elementares sobre linhas nessa matriz até conseguir- mos obter I no primeiro bloco, dáı teremos A−1 no segundo bloco. Assim,2 2 1 1 0 0 1 2 0 0 1 0 1 −1 0 0 0 1 `1 ↔ `2−−−−−−→ 1 2 0 0 1 0 2 2 1 1 0 0 1 −1 0 0 0 1 `2 ↪→ `2 − 2`1−−−−−−−−−−−→ 32 Álgebra linear I 1 2 0 0 1 0 0 −2 1 1 −2 0 1 −1 0 0 0 1 `3 ↪→ `3 − `1−−−−−−−−−−→ 1 2 0 0 1 0 0 −2 1 1 −2 0 0 −3 0 0 −1 1 `2 ↔ `3−−−−−−→ 1 2 0 0 1 0 0 −3 0 0 −1 1 0 −2 1 1 −2 0 `3 ↪→ − 1 3 `3 −−−−−−−−−→ 1 2 0 0 1 0 0 1 0 0 1 3 − 1 3 0 −2 1 1 −2 0 `3 ↪→ `3 + 2`2−−−−−−−−−−−→ 1 2 0 0 1 0 0 1 0 0 1 3 − 1 3 0 0 1 1 − 4 3 − 2 3 `1 ↪→ `1 − 2`2−−−−−−−−−−−→ 1 0 0 0 1 3 2 3 0 1 0 0 1 3 − 1 3 0 0 1 1 − 4 3 − 2 3 , logo, conclúımos que A−1 = 0 1 3 2 3 0 1 3 − 1 3 1 − 4 3 − 2 3 . Como um exerćıcio, o leitor pode verificar que A ·A−1 = I3 e A−1 ·A = I3. Observação 1.37 Se durante o processo acima no primeiro bloco onde a ma- triz A deve ser transformada em I3, se alguma linha se tornasse nula, isso indicaria que a forma escalonada reduzida por linhas de A não é a identidade, ou seja, que A não seria inverśıvel. Por exemplo, na tentativa de encontrar uma inversa para B = 2 2 1 1 0 3 3 2 4 , veremos que uma linha do bloco onde deve aparecer I3 obteremos uma linha nula, o que indica que B não é inverśıvel. Exerćıcios 1. Seja A uma matriz 3 × 3. Encontre uma matriz B para a qual BA é a matriz que resulta de A permutando as duas primeiras linhas e depois multiplicando a terceira linha por seis. M. Zahn 33 2. Considere a matriz A = ( 1 0 −5 2 ) (a) Encontre matrizes elementares E1 e E2 tais que E2E1A = I. (b) Escreva A−1 como um produto de matrizes elementares. 3. Sejam e1, e2 e e3, respectivamente, as operações sobre linhas: “Trocar as linhas `1 e `2”; “Substituir `3 por 7`3” e “ Substituir `2 por −3`1 + `2”. Determine as matrizes quadradas elementares de ordem 3 corresponden- tes E1, E2 e E3. 4. Reduza cada uma das matrizes abaixo à forma canônica escalonada re- duzida por linhas. (a) A = 2 2 −1 6 4 4 4 1 10 13 8 8 −1 26 19 (b) B = 5 −9 6 0 2 3 0 0 7 5. Mostre que se A = 1 0 0 0 1 0 a b 1 é uma matriz elementar, então ab = 0. 6. Sejam A,B e C matrizes n × n tais que A = BC. Prove que se B é invert́ıvel, então qualquer sequência de operações elementares sobre as linhas que reduz B a In, também reduz A a C. 7. Utilizando-se do algoritmo para obter inversas de matrizes, encontre a inversa A−1 de A em cada caso, se A for inverśıvel. (a) A = 3 4 1 2 −7 −1 8 1 5 (b) A = 3 4 −1 1 0 3 2 5 4 (c) A = 1 2 3 0 2 3 0 0 3 (d) A = −1 3 −4 2 4 1 −4 2 9 36 Álgebra linear I Dessa forma, podemos definir o determinante de A, denotado por det A, pondo detA = a11, e nesse caso temos que a matriz A será inverśıvel se, e somente se detA 6= 0. Vamos mostrar que essa propriedade também valerá para matrizes n× n. Caso 2. Quando A tem tamanho 2 × 2. Nesse caso, a forma geral da matriz A é A = ( a11 a12 a21 a22 ) . Vamos supor que a11 6= 0. Pelo estudo do caṕıtulo anterior, temos que A será inverśıvel se, e somente se, ela for equivalente à matriz identidade I2, ou seja, se, e só se, a forma escalonada reduzida por linhas de A resultar em I2. Dessa forma, como estamos supondo a11 6= 0, podemos efetuar a seguinte operação elementar sobre linhas em A: ( a11 a12 a21 a22 ) `2 ↪→ `2 − a21 a11 `1 −−−−−−−−−−−−−→ ( a11 a12 0 a22 − a21 a11 · a12 ) = ( a11 a12 0 a11·a22−a21·a12 a11 ) , e disso, temos que, para a matriz A ser equivalente à matriz identidade I2, obrigatoriamente devemos impor que a11 · a22 − a21 · a12 6= 0. Assim, definimos o determinante da matriz A2×2 por detA = a11 · a22 − a21 · a12. Uma maneira simbólica de representar o determinante de uma matriz A = ( a11 a12 a21 a22 ) , de ordem 2, é escrever detA = a11 a12 a21 a22 = a11 · a22 − a21 · a12. M. Zahn 37 Dessa forma, uma matriz A2×2 será inverśıvel se, e somente se, for equiva- lente à I2 , o que é equivalente a dizer que detA 6= 0. Caso 03. Quando A tem tamanho 3 × 3. Novamente, A será inverśıvel se, e somente se, A ∼ I3, onde A = a11 a12 a13 a21 a22 a23 a31 a32 a33 . Vamos considerar que a11 6= 0 (se for igual a zero trocamos por uma linha onde o primeiro elemento seja diferente de zero), assim, efetuando as operações elementares sobre linhas `2 ↪→ `2 − a21 a11 · `1 e `3 ↪→ `3 − a31 a11 · `1, vamos obter de A a matriza11 a12 a13 0 a11·a22−a21·a12 a11 a11·a23−a21·a13 a11 0 a11·a32−a31·a12 a11 a11·a33−a31·a13 a11 Observe que A será inverśıvel se, e somente se, nenhuma das linhas da matriz acima for nula, ou seja, se, e só se, a11 · a11·a22−a21·a12 a11 a11·a23−a21·a13 a11 a11·a32−a31·a12 a11 a11·a33−a31·a13 a11 6= 0, ou seja, se, e só se, (a22 · a11 − a21 · a12)(a11 · a33 − a31 · a13)− − (a11 · a23 − a21 · a13)(a11 · a32 − a31 · a12) 6= 0, que equivale a a211 · a22 · a33 − a11 · a13 · a22 · a31 − a11 · a12 · a21 · a33 + a12 · a13 · a21 · a31− 38 Álgebra linear I −a211 · a23 · a32 + a11 · a12 · a23 · a31 + a11 · a13 · a21 · a32 − a12 · a13 · a21 · a31 6= 0, isto é, a11 (a11 · a22 · a33 − a13 · a22 · a31 − a12 · a21 · a33 − a11 · a23 · a32+ +a12 · a23 · a31 + a13 · a21 · a32) 6= 0, e como a11 6= 0, segue do produto acima que a11·a22·a33−a13·a22·a31−a12·a21·a33−a11·a23·a32+a12·a23·a31+a13·a21·a32 6= 0. Dessa maneira, para uma matriz A3×3, definimos detA=a11·a22·a33+a12·a23·a31+a13·a21·a32−a13·a22·a31−a12·a21·a33−a11·a23·a32, e temos que A será inverśıvel se, e somente se, detA 6= 0. Uma maneira simbólica de denotar o determinante de A3×3 é escrever detA = a11 a12 a13 a21 a22 a23 a31 a32 a33 Caso geral. Para poder encontrar um caso geral para definir o determinante de uma matriz An×n, vamos retomar os casos anteriores e fazer algumas con- siderações. Seja A2×2 dada por A = ( a11 a12 a21 a22 ) . Neste caso, podemos definir matrizes menores M11 e M12 por M11 = (a22) e M12 = (a21), onde M11 denota a matriz que se obtém de A eleminando-se a linha 1 e a coluna 1 de A e M12 é a matriz que se obtém de A eliminando-se a primeira linha e a segunda coluna. M. Zahn 41 regra passa a ser útil quando temos uma matriz quadrada maior, como 4× 4, 5× 5, etc., pois nesses casos não temos uma regra mais prática para o cálculo a não ser a definição geral. Observação 2.3 Na definição acima de determinante de uma matriz quadrada usamos a primeira linha para efetuar a expansão dos menores. No entanto, podeŕıamos usar outra linha ou até mesmo uma coluna para efetuar o cálculo do determinante. Como ilustração, vamos calcular o determinante da matriz A = 1 2 −1 1 3 2 2 1 3 dada como exemplo acima, expandindo os menores pela segunda coluna de A, e veremos que o determinante resultará também em 14: detA = 2 ·A12 + 3 ·A22 + 1 ·A32 = = 2 · (−1)1+2 1 2 2 3 + 3 · (−1)2+2 1 −1 2 3 + 1 · (−1)2+3 1 −1 1 2 = = −2(1 · 3− 2 · 2) + 3(1 · 3− (−1) · 2)− 1(1 · 2− (−1) · 1) = 2 + 15− 3 = 14. Exerćıcios 1. Calcule os seguintes determinantes: (a) 2 −1 3 5 (b) 3 −1 2 4 −2 −3 0 1 6 (c) 1 −1 2 −2 −3 2 −3 1 0 1 6 0 2 1 2 −1 2. Mostre que 1 x x2 1 y y2 1 z z2 = (y − x)(z − x)(z − y). 42 Álgebra linear I 2.2 Propriedades dos determinantes Nesta seção vamos apresentar as principais propriedades dos determinantes. Proposição 2.4 Seja A uma matriz quadrada. Então det(AT ) = det(A). Demonstração. Faremos a prova por indução sobre a ordem da matriz. Começamos com a base da indução n = 2: (i) Quando n = 2, seja A = ( a11 a12 a21 a22 ) , então temos que detA = a11 · a22 − a12 · a21. Por outro lado, temos que AT = ( a11 a21 a12 a22 ) , e disso segue que detAT = a11 · a22 − a12 · a21 = detA, logo, vale a base da indução. (ii) Suponha que a Proposição seja verdadeira para todas as matrizes de ta- manho k × k, ou seja, que detMk×k = detMT k×k, ∀Mk×k. Seja A(k+1)×(k+1). Então, calculando o determinante de A pela expansão dos menores pela primeira linha de A, obtemos detA = k+1∑ j=1 (−1)1+j · a1j · det(M1j), e como M1j é de tamanho k × k, para j = 1, 2, ..., (k + 1), segue pela hipótese de indução que det(M1j) = det(MT 1j), e dáı temos detA = k+1∑ j=1 (−1)1+j · a1j · det(MT 1j) = detAT , M. Zahn 43 pois o somando dessa igualdade corresponde à expansão por menores de detAT , usando a primeira coluna de AT . Logo, por (i) e (ii) a prova segue por indução matemática. Proposição 2.5 Se A for uma matriz triangular (superior ou inferior), então o determinante de A será simplesmente o produto dos elementos da diagonal principal de A. Demonstração. Observe que a transposta de uma matriz triangular inferior é uma matriz triangular superior, e vice-versa. Assim, vamos fazer a prova usando apenas matriz triangular inferior, pois a Proposição anterior garantirá o mesmo resultado para a triangular superior. Assim, seja An×n uma matriz triangular inferior. Faremos a prova por indução sobre a ordem da matriz. (i) Vejamos o caso n = 2 (base da indução). Ou seja, dada A = ( a11 0 a21 a22 ) , temos que detA = a11 · a22. Logo, vale a base da indução. (ii) Suponha o resultado válido para toda matriz triangular inferior de ordem k×k. Seja A uma matriz de ordem (k+1)× (k+1). Então, calculando o determinante de A via determinantes menores a partir da primeira linha de A, obtemos detA = k+1∑ j=1 (−1)1+j · a1j · det(M1j) = a11 · det(M11), visto que os demais somandos são iguais a zero. Como M11 é também uma matriz triangular inferior de ordem k×k, pela hipótese da indução segue que detM11 = a22 · a33 · ... · a(k+1),(k+1), 46 Álgebra linear I a12 · a21. Note que trocar de posição as linhas 1 e 2 corresponde a multiplicar A à esquerda por E, ou seja, teremos EA = ( a21 a22 a11 a12 ) , donde segue que det(EA) = a12 · a21 − a11 · a22 = −det(A). Note também que det(E) = −1, e então conclúımos também que det(EA) = −1 · det(A) = det(E) · det(A). (2.1) Se trabalharmos com matrizes 3× 3 também concluiremos os mesmos resulta- dos, em geral, o caso n× n. (b) Dada A = a11 ... a1n ... ... ... an1 ... ann . Fixemos uma linha i0 qualquer e multipliquemos a mesma por k 6= 0, ou seja, faremos a seguinte operação elementar sobre linhas em A: `io ↪→ k · `i0 , que corresponde à matriz elementar E = (eij)n×n, onde ei0i0 = k eij = 1, se i = j e i 6= i0 eij = 0, se i 6= j . Note que E é uma matriz diagonal diag (1, 1, ..., 1, k, 1, ...1), que assume o valor k na posição i0i0, logo, é uma matriz triangular, donde segue que det(E) = k. A ação dessa operação elementar na linha i0 de A corresponde a multiplicar A à esquerda por E, ou seja, corresponde á matriz EA = a11 .... a1n ... ... ... kai01 ... kai0n ... ... ... an1 ... ann . M. Zahn 47 Calculando o det(EA) expandindo por cofatores na i0-ésima linha, obtemos det(EA) = k · ai01(EA)i01 + ...+ k · ai0n(EA)i0n = k · ( n∑ p=1 ai0p(EA)i0p ) , e como (EA)i0j = (−1)i0+j · det(Mi0j) = Ai0j , segue que det(EA) = k · ( n∑ p=1 ai0p(A)i0p ) = k · det(A), o que conclui (b). Note que, neste caso, temos também que det(EA) = k · det(A) = det(E) · det(A). (2.2) (c) Novamente, dada a matriz Dada A = a11 ... a1n ... ... ... an1 ... ann , vamos efetuar a seguinte operação elementar sobre linhas em A: `i ↪→ `i + k · `j . Assim, a matriz elementar E correspondente a tal operação sobre linhas corresponde a uma matriz triangular (superior ou inferior, dependendo se i > j ou i < j). De qualquer modo, os elementos da diagonal serão todos 1 e dáı, segue que det(E) = 1. Do mesmo modo, a ação dessa mesma operação elementar sobre linhas na matriz A corresponde a multiplicar A à equerda pela matriz elementar E, ou seja, EA = a11 ... a1n ... ... ... ai1 + k · aj1 ... ain + k · ajn ... ... ... an1 ... ann . Dessa forma, calculando o determinante de EA desenvolvendo por cofatores na linha i, vamos obter det(EA) = n∑ p=1 (aip + k · ajp)(EA)ip, 48 Álgebra linear I onde (EA)ip denota o cofator do elemento (ea)ip da matriz EA. Como (EA)ip = (−1)i+p det(Mip) = Aip, segue que, com aux́ılio do Lema 2.7, obtemos det(EA) = n∑ p=1 (aip + k · ajp)Aip = n∑ p=1 aipAip + k · n∑ p=1 ajpAip = det(A) + k · 0, ou seja, det(EA) = det(A), provando (c). Note que, neste caso também temos a propriedade det(EA) = 1 · det(A) = det(E) · det(A). (2.3) Observando a prova da Proposição anterior em (2.1), (2.2) e (2.3), percebemos que, dada uma matriz quadrada A e uma matriz elementar E qualquer, de mesmo tamanho, então det(E ·A) = det(E) · det(A). (2.4) Essa propriedade nos inspira o seguinte resultado geral: Proposição 2.9 Sejam A e B duas matrizes quadradas de mesmo tamanho. Então det(A ·B) = det(A) · det(B). Demonstração. Vamos considerar dois casos: (i) Se A for inverśıvel1 - Então, nesse caso, temos que a forma escalonada re- duzida por linhas de A é In, ou seja, existe uma sequência finita de operações elementares que reduzem A em I, e como a cada operação elementar está associ- ada a uma matriz elementar, segue que existem E1, ..., Ek matrizes elementares tais que A = Ek · ... · E1 · I. Assim, de (2.4), segue que det(A ·B) = det((Ek · ... · E1) ·B) = det(Ek · (Ek−1 · ... · E1 ·B)) = 1Podeŕıamos supor B inverśıvel e concluiŕıamos o mesmo. M. Zahn 51 É importante observar que a matriz adjunta de uma matriz quadrada A, é definida como sendo uma matriz dos cofatores da matriz A, mas perceba que dispomos os respectivos cofatores Aij na ordem transposta ao elemento aij respectivo da matriz A, ou seja, o cofator Aij de aij corresponde ao elemento da linha j e coluna i de adjA. Isso foi definido propositalmente dessa maneira para cumprir a seguinte propriedade: A · adjA = (detA) · I. (2.5) De fato, basta efetuar os cálculos, observando o Lema 2.7: A · adjA = a11 a12 ... a1n a21 a22 ... a2n ..... ..... ..... ..... an1 an2 ... a1n A11 A21 ... An1 A12 A22 ... An2 ..... ..... ..... ..... A1n A2n ... Ann = = n∑ k=1 a1k ·A1k n∑ k=1 a1k ·A2k ... n∑ k=1 a1k ·Ank n∑ k=1 a2k ·A1k n∑ k=1 a2k ·A2k ... n∑ k=1 a2k ·Ank ..... ..... ... ..... n∑ k=1 ank ·A1k n∑ k=1 ank ·A2k ... n∑ k=1 ank ·Ank = = detA 0 ... 0 0 detA ... 0 ..... ..... ... ..... 0 0 ... detA = (detA) · I. Assim, de (2.5), supondo A inverśıvel, existe A−1 inversa de A tal que, multiplicando (2.5) à esquerda por A−1 vamos obter A−1 ·A · adjA = A−1 · (detA)I = (detA) ·A−1, ou seja, A−1 = 1 detA · adjA. Ou seja, acabamos de provar o seguinte resultado: 52 Álgebra linear I Proposição 2.11 Se A for uma matriz inverśıvel, então sua inversa A−1 é dada por A−1 = 1 detA · adjA. Dessa forma, dispomos de dois procedimentos para determinar a inversa de uma matriz quadrada A, se esta existir: podemos utilizar o algoritmo das operação elementares sobre linhas descrito no caṕıtulo anterior, ou podemos obter através do cálculo da matriz adjunta de A, conforme a Proposição acima. Teorema 2.12 (Regra de Cramer) Seja o sistema linear A · x = b, onde A = (aij)n×n corresponde à matriz dos coeficientes, x = (x1 x2 .... xn)T corresponde à matriz das incógnitas xi e b = (b1 b2 .... bn)T corresponde à matriz dos termos independentes, se o sistema possui solução única, então ela é dada por xi = detAi detA , onde detAi denota o determinante da matriz Ai obtida de A substituindo-se a coluna i pela matriz-coluna b. Demonstração. Suponha Ax = b o sistema linear na hipóteses do Teorema. Como existe solução única, segue que A é inverśıvel. Assim, existe A−1 inversa de A tal que, multiplicando a equação matricial Ax = b à esquerda por A−1, obtemos A−1 ·Ax = A−1 · b, ou seja, determinamos a solução x = A−1 · b, o que, pela Proposição 2.11 segue que a solução x do sistema é dada por x = A−1 · b = 1 detA (adjA)b, M. Zahn 53 onde (adjA)b = A11 A21 ... An1 A12 A22 ... An2 ..... ..... ..... ..... A1n A2n ... Ann b1 b2 ... bn = n∑ k=1 bkAk1 n∑ k=1 bkAk2 ... n∑ k=1 bkAkn Note que, definindo Ai por Ai = A11 ... Ai−1,1 b1 Ai+1,1 ... An1 A12 ... Ai−1,2 b2 Ai+1,2 ... An2 ..... ..... ..... ..... ..... ..... ..... A1n ... Ai−1,n bn Ai+1,n ... Ann , temos que detAi = b1 ·A1i + b2 ·A2i + ...+ bn ·Ani = n∑ k=1 bk ·Aki, e portanto, xi = 1 detA n∑ k=1 bk ·Aki = detAi detA . Exerćıcios 1. Dada a matriz A = 2 −1 3 3 2 1 1 4 1 . Determine a matriz inversa A−1 de duas formas: (a) usando o algoritmo de obtenção da inversa via operações elementares sobre linhas; (b) usando a matriz adjunta. 56 Álgebra linear I Definição 3.1 Chama-se um espaço vetorial real todo conjunto não vazio V , munido de duas operações: uma adição + : V × V → V (u, v) 7→ u+ v ∈ V e uma multiplicação por um escalar · : R× V → V (α, u) 7→ α · u ∈ V, tal que cumprem as seguintes propriedades: dados u, v, w ∈ V e α, β ∈ R, temos A1. u+ (v + w) = (u+ v) + w (associatividade); A2. u+ v = v + u (comutatividade); A3. ∃0 ∈ V tal que u+ 0 = u (existência do neutro aditivo em V ); A4. ∀u ∈ V , ∃ − u ∈ V tal que u+ (−u) = 0; M1. α(u+ v) = α · u+ α · v (distributividade); M2. (α+ β)u = α · u+ β · u (distributividade); M3. α(βu) = (αβ)u; M4. 1 · u = u. Dado um espaço vetorial real V , os elementos v ∈ V são chamados de ve- tores de V . Vamos trabalhar nesse curso com espaços vetoriais reais, ou seja, espaços vetoriais onde os escalares são números reais. No entanto, podeŕıamos consi- derar os escalares sendo números complexos, e então estaŕıamos trabalhando com espaços vetoriais complexos, ou, mais geralmente, podeŕıamos trabalhar com espaços vetoriais num corpo K, mas este tópico foge de um primeiro curso M. Zahn 57 de Álgebra linear. A seguir apresentamos alguns exemplos de espaços vetoriais. Exemplo 1. Como estudado na Geometria anaĺıtica, Os conjuntos de vetores R2 e R3, munidos da adição usual de vetores e o produto usual de um escalar por um vetor formam espaços vetoriais. Não é dif́ıcil mostrar as oito proprie- dades da definição de espaço vetorial para vetores do R3, por exemplo. Mais geralmente, para n ≥ 1, o conjunto Rn das n-uplas ordenadas, munido das operações + : Rn × Rn → Rn (x, y) 7→ x+ y, onde x = (x1, x2, ..., xn) e y = (y1, y2, ..., yn), e dáı x+y = (x1+y1, ..., xn+yn), e · : R× Rn → Rn (α, x) 7→ α · x, onde α · x = α(x1, ..., xn) = (αx1, ..., αxn), é um espaço vetorial real. Exemplo 2. O conjunto M(n, n) = {A = (aij)n×n : aij ∈ R, 1 ≤ i, j ≤ n} de todas as matrizes n× n, munido das operações de adição usual de matrizes e produto de um escalar por uma matriz é um espaço vetorial. De fato, basta visitar o Teorema 1.6, itens 01, 02, 03, 04, 06 e 07 do Teorema, e observar que, para qualquer matriz A ∈M(n, n) e para quaisquer α, β ∈ R, valem: (αβ)A = α(βA) e 1 ·A = A. Neste caso, os vetores de tal espaço são as matrizes n× n. Exemplo 3. Defina o conjunto C([a, b]) de todas as funções cont́ınuas em [a, b] com valores em R, ou seja, C([a, b]) = {f : [a, b]→ R : f é cont́ınua em [a, b]}, 58 Álgebra linear I munido com as operações usuais de adição de funções e multiplicação de uma constante por uma função, ou seja, + : C([a, b])× C([a, b])→ C([a, b]) (f, g) 7→ f + g, onde, ∀x ∈ [a, b], (f + g)(x) = f(x) + g(x), que é uma função cont́ınua, pois soma de funções cont́ınuas é uma função cont́ınua; e · : R× C([a, b])→ C([a, b]) (α, f) 7→ α · f, onde ∀x ∈ [a, b], (α·f)(x) = α·f(x), que é uma função cont́ınua, pois o produto de uma constante por uma função cont́ınua é uma função cont́ınua. Note que C([a, b]) 6= ∅, pois a função identicamente nula 0(x) = 0, ∀x ∈ [a, b] é cont́ınua. Vamos mostrar que C([a, b]) é um espaço vetorial. De fato, para isso, pre- cisamos verificar todas as oito propriedades da definição de espaço vetorial: dados f, g, h ∈ C([a, b]) e α, β ∈ R, temos: A1. (f + g) + h = f + (g + h): De fato, dado x ∈ [a, b], temos que ((f + g) + h)(x) = (f + g)(x) + h(x) = (f(x) + g(x)) + h(x) = = f(x)+(g(x)+h(x)) = f(x)+(g+h)(x) = (f +(g+h))(x), e como essa igualdade é verdadeira ∀x ∈ [a, b], conclúımos que (f + g) + h = f + (g + h). A2. f + g = g + f : De fato, dado x ∈ [a, b], temos que (f + g)(x) = f(x) + g(x) = g(x) + f(x) = (g + f)(x), e como essa igualdade é verdadeira ∀x ∈ [a, b], conclúımos que (f + g) + h = f + (g + h). M. Zahn 61 3. Verifique se são espaços vetoriais os seguintes conjuntos: (a) o R2 munido da adição usual e a multiplicação α(x, y) = (αx, 0). (b) o R2 munido da adição (x1, y1) + (x2, y2) = (x1 + 2x2, y1 + 2y2) e a multiplicação por escalar usual. (c) o R2 munido da adição (x1, y1) + (x2, y2) = (y1 + y2, x1 + x2) e a multiplicação por escalar usual. 4. Dados os espaços vetoriais V1 e V2, considere o conjunto E = V1 × V2, cujos elementos são os pares ordenados v = (v1, v2), onde v1 ∈ V1 e v2 ∈ V2. Defina operações que tornem V um espaço vetorial. 3.2 Subespaços vetoriais Nesta seção vamos estudar o conceito de subespaço vetorial de um espaço veto- rial, que na verdade trata-se de um espaço vetorial “menor” dentro do espaço dado, que preserva as mesmas operações do espaço “maior”. Definição 3.2 Seja V um espaço vetorial e considere W ⊂ V um subconjunto não vazio de V . Dizemos que W é um subespaço vetorial de V se cumprir as seguintes condições: para quaisquer u, v ∈W e α ∈ R, valem, (a) u+ v ∈W ; (b) α · u ∈W . Note que, dado um espaço vetorial V qualquer, um subconjunto W de V automaticamente herdará todas as oito propriedades de espaço vetorial, isso porque todo elemento de W é um elemento de V e por essa razão as propri- edades estarão válidas. No entanto, para que W possa ter uma estrutura de espaço vetorial, resta verificar se a adição e a multiplicação por escalar estão fechadas em W , ou seja, se somarmos dois vetores em W o vetor resultante deve continuar em W , e o mesmo para o produto de um escalar por um elemento de W . E exatamente essas duas exigências estão encerradas na definição acima de subespaço vetorial. 62 Álgebra linear I Observação 3.3 Convém notar que se W ⊂ V é um subespaço vetorial de V , obrigatoriamente segue que o neutro aditivo 0 de V também pertence a W . Isto se justifica pela propriedade (b) da definição de subespaço, tomando α = 0. Assim, se 0 6∈W , segue que W não é um subespaço vetorial de V . Abaixo apresentamos alguns exemplos e contra-exemplos de subespaço ve- torial. Exemplo 1. Todo espaço vetorial V possui pelo menos dois subespaços, cha- mados de subespaços triviais: o subespaço {0} formado apenas pelo vetor nulo e todo o espaço V , subespaço de si mesmo. Exemplo 2. Seja V = R2 com as operações de adição de vetores e multi- plicação de escalar por vetor usuais. Defina W ⊂ V por W = {(x, y) ∈ R2 : y = 2x}. Ou seja, estamos considerando como espaço vetorial V o plano cartesiano e tomamos como W o subconjunto do plano formado pelos pontos da reta y = 2x. Note que W 6= ∅, pois (0, 0) ∈ W , ou seja e reta y = 2x que define o subconjunto W passa pela origem do R2. Afirmamos que W é um subespaço vetorial de V . De fato, dados ~u = (a, 2a) e ~v = (b, 2b) elementos quaisquer de W e α ∈ R um escalar qualquer, segue que (a) ~u+ ~v = (a, 2a) + (b, 2b) = (a+ b, 2a+ 2b) = (a+ b, 2(a+ b)) ∈W ; (b) α · ~u = α · (a, 2a) = (α · a, α · 2b) = (αa, 2(αa)) ∈W . Logo, W é um subespaço de V . Podemos dar uma interpretação geometrica para esse exemplo. Observe o desenho abaixo, onde temos que W é o conjunto de pontoa do R2 sobre a reta y = 2x, uma reta que passa pela origem do plano R2 = V . Como estudado na Geometria anaĺıtica, sabemos que existe uma correspondência biuńıvoca entre ponto e vetor, segue que um vetor pertencerá a um conjunto se a “ponta da M. Zahn 63 seta” estiver no conjunto. Dessa forma, dados ~u,~v ∈ W e α ∈ R, vemos que ~u+ ~v ∈W e que α · ~u ∈W , e portanto, W ⊂ V é um subespaço vetorial de V (no desenho tomamos α < 0). Exemplo 3. No mesmo contexto do exemplo anterior, considere V = R2 e W subconjunto de V dado por W = {(x, y) ∈ R2 : y = 2x+ 1}. Neste caso temos que W não é um subespaço vetorial de V , pois, por exemplo, dado ~u = (a, 2a+ 1) um vetor qualquer em W e α 6= 1 um escalar, temos que α · ~u = α(a, 2a+ 1) = (αa, 2αa+ α) 6∈W, ou seja, o produto de um escalar por um vetor de W não fica em W . O mesmo aconteceria se somássemos dois elementos quaisquer de W : verificaŕıamos que a soma também estaria fora de W . Repare, neste exemplo que W é uma reta que não passa pela origem, logo, o vetor nulo não pertencendo a W já nos mostra que W não pode ser subespaço de V . Veja a ilustação abaixo. 66 Álgebra linear I Vamos mostrar também que C1([a, b]) ⊂ C([a, b]). De fato, dado g ∈ C1([a, b]), segue que g′ : [a, b] → R é cont́ınua. Portanto, do Cálculo inte- gral segue que g′ é integrável e então podemos definir G : [a, b]→ R por G(x) = ∫ x 0 g′(t) dt, que é cońınua. Pelo Teorema Fundamental do Cálculo segue que G(x) = g(x)− g(0), e então g(x) = G(x) + g(0), que será, portanto, cont́ınua. Logo, conclúımos que g ∈ C([a, b]), e dáı C1([a, b]) ⊂ C([a, b]). Por fim, mostremos que C1([a, b]) é um subespaço vetorial de C([a, b]). De fato, dados f, g ∈ C1([a, b]), segue que f ′ e g′ são cont́ınuas em [a, b], e como a soma de funções cont́ınuas é uma função cont́ınua, conclúımos que f ′ + g′ é cont́ınua em [a, b], ou seja, f ′ + g′ ∈ C1([a, b]). (3.1) Do mesmo modo, dado α ∈ R temos αf ′ é cont́ınua em [a, b], pois o produto de uma constante por uma função cont́ınua é uma função cont́ınua, ou seja, conclúımos que α · f ′ ∈ C1([a, b]). (3.2) Portanto, por (3.1) e (3.2) conclúımos que C1([a, b]) é um subespaço vetorial de C([a, b]). No que segue apresentaremos dois resultados importantes sobre subespaços vetoriais. Apenas devido à familiaridade com vetores em R3 vamos trabalhar com a notação vetorial ~v para denotar um vetor v de um espaço vetorial V , mas frisamos que se V for um espaço vetorial mais geral, como por exemplo C([a, b]), os vetores ~v serão funções cont́ınuas de [a, b] em R e, nesse caso, ~v = f , para f cont́ınua em [a, b]. Proposição 3.4 Sejam W1 e W2 dois subespaços vetoriais de um espaço ve- torial V . Então o conjunto W1 ∩W2 também é um subespaço vetorial de V . M. Zahn 67 Demonstração. Sejam W1 e W2 subespaços de V . Defina o conjunto W1 ∩W2 = {~u : ~u ∈W1 e ~u ∈W2}. Primeiramente observamos que W1 ∩W2 6= ∅ pois ~0 ∈ W1 e ~0 ∈ W2. Logo, o conjunto W1 ∩W2 está bem definido. Dados ~u,~v ∈W1 ∩W2 e α ∈ R. Logo, ~u,~v ∈W1 e ~u,~v ∈W2. Assim, temos que (i) ~u+ ~v ∈W1 e α~u ∈W1, pois W1 é subespaço vetorial de V . (ii) ~u+ ~v ∈W2 e α~u ∈W2, pois W2 é subespaço vetorial de V . Portanto, de (i) e (ii) temos que ~u+~v ∈W1∩W2 e α~u ∈W1∩W2, provando que W1 ∩W2 é um subespaço vetorial de V . Proposição 3.5 Sejam W1 e W2 dois subespaços vetoriais de um espaço ve- torial V . Então o conjunto W1 +W2 = {~w1 + ~w2 : ~w1 ∈W1 e ~w2 ∈W2} é um subespaço vetorial de V . Demonstração. Note que W1 +W2 6= ∅ pois ~0 ∈W1 e ~0 ∈W2 e é tal que ~0 = ~0 +~0 ∈W1 +W2. Logo, W1 +W2 está bem definida. Mostremos que W1 +W2 é um subespaço vetorial de V . Dados ~u,~v ∈W1 +W2 e α ∈ R. Então existem ~u1, ~v1 ∈W1 e ~u2, ~v2 ∈W2 tais que ~u = ~u1 + ~u2 e ~v = ~v1 + ~v2. 68 Álgebra linear I Então ~u+ ~v = (~u1 + ~u2) + (~v1 + ~v2) = ~u1 + (~u2 + ~v1) + ~v2 = = ~u1 + (~v1 + ~u2) + ~v2 = (~u1 + ~v1) + (~u2 + ~v2) ∈W1 +W2, pois ~u1 + ~v1 ∈W1 e ~u2) + ~v2 ∈W2, e α · ~u = α(~u1 + ~u2) = α~u1 + α~u2 ∈W1 +W2, pois α~u1 ∈W1 e α~u2 ∈W2, e isso conclui a prova da Proposição. Observação 3.6 Quando W1 ∩W2 = {0}, então o espaço vetorial W1 + W2 chama-se soma direta de W1 com W2 e nesse caso denotamos por W1 ⊕W2. Exerćıcios 1. Mostre que os seguntes subconjuntos do R4 são subespaços vetoriais: (a) W = {(x, y, z, t) ∈ R4 : x+ y = 0 e z − t = 0}. (b) S = {(x, y, z, t) ∈ R4 : 2x+ y − t = 0 e z = 0}. 2. Seja V = R2 e considere o subconjunto W = {(x, y) ∈ R2 : xy ≤ 0}. Desenhe W ⊂ R2 e verifique se W é um subespaço vetorial, justificando sua resposta. 3. Seja V o espaço vetorial real de todas as funções de R em R. Quais dos seguintes conjuntos de funções são subespaços de V ? (a) de todas as funções f tais que f(x2) = f(x)2. (b) de todas as funções f tais que f(0) = f(1). (c) de todas as funções f tais que f(−1) = 0. (d) de todas as funções cont́ınuas. M. Zahn 71 Por fim, apresentamos o importante conceito de dependeência e independên- cia linear. Definição 3.11 Seja V um espaço vetorial e ~v1, ..., ~vn vetores de V . Dizemos que esses vetores são linearmente independentes (abreviadamente, L.I.), se α1 · ~v1 + α2 · ~v2 + ...+ αn · ~v0 = ~0, se, e somente se, α = α2 = ... = αn = 0. No caso onde pelo menos um dos αi seja diferente de zero, dizemos que esses vetores são linearmente dependentes (abreviadamente, L.D.) Exemplo 1. Considerando V = R3, temos que os vetores ~u = (2, 4,−8) e ~v = (3, 6,−12) são linearmente dependentes (L.D.), pois α(2, 4,−8) + β(3, 6,−12) = (0, 0, 0) se, e somente se, 2α+ 3β = 0 4α+ 6β = 0 −8α− 12β = 0 Note que a terceira equação do sistema linear homogêneo acima é −4 vezes a primeira equação e a segunda é 2 vezes a primeira equação, portanto, resta apenas 2α+ 3β = 0⇒ α = −3β 2 . Assim, por exemplo, para β = 2 temos α = −3, e são tais que −3 ·~u+ 2 ·~v = −3 · (2, 4,−8) + 2 · (3, 6,−12) = (−6,−12, 24) + (6, 12,−24) = ~0, ou seja tal combinação linear resulta no vetor nulo sem que os escalares sejam todos nulos. Portanto, os vetores ~u e ~v dados são L.D. Exemplo 2. Considerando V = R3, sejam os vetores ~i = (1, 0, 0); ~j = (0, 1, 0) e ~k = (0, 0, 1), mostremos que os mesmos são L.I. 72 Álgebra linear I De fato, se α, β e γ são escalares tais que α~i+ β~j + γ~k = ~0, obtemos α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (0, 0, 0)⇔ (α, β, γ) = (0, 0, 0), ou seja, α = β = γ = 0, donde segue que o conjunto de vetores {~i, ~j, ~k} é L.I. Exemplo 3. Seja V o espaço vetorial das funções de R em R munido das operações usuais de soma de funções e produto de um escalar por uma função. Note que o vetor nulo nesse espaço é a função identicamente nula 0. Considere nesse espaço os vetores f = ex, g = 1 + e2x e h = 2. Afirmamos que esses três vetores são L.I. em V pois, sendo α, β, γ ∈ R escalares, temos que αf + βg + γh = 0⇔ αex + β(1 + e2x) + γ · 2 = 0, e como ex > 0, 1 + e2x > 0 e 2 > 0, ∀x, somos obrigados a concluir que α = β = γ = 0, ou seja, os vetores f, g e h são L.I. em V . Teorema 3.12 Um conjunto de vetores {~v1, ..., ~vn} de um espaço vetorial V é L.D. se, e somente se, um desses vetores for combinação linear dos demais. Demonstração. Primeiramente, suponha que o conjunto {~v1, ..., ~vn} de um espaço vetorial V seja L.D. Assim, dado um conjunto de escalares {α1, ..., αn}, segue queexiste pelo menos um escalar αj 6= 0 tal que a combinação linear a seguir seja o vetor nulo: α1~v1 + ...+ αj~vj + αn~vn = ~0. Disso segue que αj~vj = −α1~v1 − ...− αj−1~vj−1 − αj+1~vj+1 − ...− αn~vn, e, portanto, dividindo por αj 6= 0 obtemos ~vj = −α1 α1 ~v1 − ...− αn αj ~vn, M. Zahn 73 ou seja, mostramos que um dos vetores do conjunto {~v1, ..., ~vn} é combinação linear dos demais. Reciprocamente, suponha que vj = β1 ~v1 + ...+ βj−1~vj−1 + βj+1~vj+1 + ...+ βn~vn é uma combinação linear dos demais vetores do conjunto {~v1, ..., ~vn}. Vamos mostrar que tal conjunto é L.D. De fato, da igualdade acima é imediato que β1 ~v1 + ...+ βj−1~vj−1 − 1 · ~vjβj+1~vj+1 + ...+ βn~vn, e portanto, o conjunto {~v1, ..., ~vn} de vetores de V é L.D. Isso completa a prova do Teorema. Exerćıcios 1. Escreva a matriz A = ( 3 1 1 −1 ) como uma combinação linear das matri- zes M = ( 1 1 1 0 ) , N = ( 0 0 1 1 ) e P = ( 0 2 0 −1 ) . 2. Considere o espaccco vetorial P2 = {at2 + bt+ c : a, b, c ∈ R} e os vetores p1 = t2 − 2t+ 1, p2 = t+ 2 e p3 = 2t2 − t. (a) Escreva o vetor p = 5t2 − 5t+ 7 como combinação linear de p1, p2 e p3. (b) Determine uma condição para a, b e c de modo que o vetor at2+bt+c seja uma combinação linear de p2 e p3. 3. Seja V = C(R) o espaço vetorial das funções cont́ınuas de R em R, e considere os vetores f = cos2 x e g = sen2x. Quais dos seguintes vetores pertencem a [f, g]? (a) cos 2x (b) 3 + x2 (c) 1 (d) senx (e) 0 76 Álgebra linear I e ficam como exerḉıcio para o leitor. Mas o conjunto de vetores {(1,−3); (−2, 6)} não forma uma base para o R2. Por quê? Exemplo 2. Os espaços de funções possuem bases compostas por um número infinito enumerável de vetores. Por exemplo, seja P o espaço vetorial de todos os polinômios de qualquer grau, munido das operações usuais. Nesse caso, não é dif́ıcil mostrar que, por exemplo, o conjunto infinito de vetores {1, x, x2, x3, ...} forma uma base para P . Verifique! Exemplo 3. Seja Q( √ 2) o conjunto definido por Q( √ 2) = {a+ b √ 2 : a, b ∈ Q}. Munindo esse conjunto com a adição (a+ b √ 2) + (p+ q √ 2) = (a+ p) + (b+ q) √ 2, onde a, b, p, q ∈ Q, e a multiplicação por escalar α ∈ Q, α(a+ b √ 2) = αa+ αb √ 2, não é dif́ıcil mostrar que Q( √ 2) é um espaço vetorial sobre Q (não sobre os reais, pois os escalares α agora são tomados em Q). Isto posto, não é dif́ıcil mostrar que o conjunto {1, √ 2} de vetores de Q( √ 2) é uma base para Q( √ 2). Fica como exerćıcio para o leitor. Teorema 3.14 Seja {~v1, ..., ~vn} um conjunto de vetores não nulos de um espaço vetorial V que geram V . Então, podemos extrair uma base para V desse con- junto de vetores. Demonstração. Se o conjunto {~v1, ..., ~vn} for L.I., tal conjunto já é uma base para V e o Teorema está provado. Suponhamos então que o conjunto {~v1, ..., ~vn} seja L.D. A ideia consiste então em conseguir “tirar” os vetores desse conjunto que nos atrapalham no M. Zahn 77 que diz respeito à independência linear e que “não estragam” a geração de todo o V . Assim, se tal conjunto for L.D., então pelo Teorema 3.12 segue que pelo menos um dos vetores do conjunto acima é combinação linear dos demais. Sem perda de generalidade, assuma que ~vn seja esse vetor. Então, ~vn = α1~v1 + ...+ αn−1~vn−1. Logo, o conjunto {~v1, ..., ~vn−1} ainda gera V , pois sendo ~vn uma combinação linear dos demais, este é desnecessário para a geração de V . Se esse conjunto já for L.I., então o Teorema já está provado; mas se for L.D., então novamente pelo Teorema 3.12 segue que um deles é combinação linear dos demais, e portanto, desnecessário para a geração de V . Sem perda de generalidade, assuma que seja ~vn−1 esse vetor. Assim, temos que tal vetor pode ser descartado da lista anterior de tal modo que o conjunto {~v1, ..., ~vn−1} ainda gera V . Se tal conjunto já for L.I., então o Teorema está provado, e caso contŕario, novamente poderemos escrever um dos vetores restantes como combinação linear dos demais, sendo este, portanto, descessário. Ou seja, seguindo esse racioćınio um número finito de vezes, che- garemos a um conjunto de vetores {~v1, ..., ~vk} que ainda gera V e é L.I, ou seja, uma base de V . Teorema 3.15 Seja V um espaço vetorial gerado por um número finito de vetores ~v1, ..., ~vn. Então, qualquer conjunto com mais de n vetores será L.D. Demonstração. Suponha que V = [~v1, ..., ~vn]. Então, pelo Teorema anterior segue que podemos extrair dessa coleção uma base para V . Seja {~v1, ..., ~vk} tal base, com k ≤ n. Sejam ~w1, ..., ~wm m vetores de V , onde m > n. Vamos mostrar que a coleção {~w1, ..., ~wm} é L.D. Como tais vetores pertencem a V e 78 Álgebra linear I {~v1, ..., ~vk} é uma base, segue que existem escalares aij ∈ R tais que ~w1 = a11~v1 + a12~v2 + ...+ a1k~vk ~w2 = a21~v1 + a22~v2 + ...+ a2k~vk ... ~wm = am1~v1 + am2~v2 + ...+ amk~vk Sejam α1, ..., αm escalares tais que α1 ~w1 + ...+ αm ~wm = ~0. Assim, levando as m iguadades acima para esta combinação linear, vamos obter α1(a11~v1 + ...+ a1k~vk) + ...+ αm(am1~v1 + ...+ amk~vk) = ~0, ou seja, (α1a11 + α2a21 + ...+ αmam1)~v1 + ...+ (α1a1k + ...+ αmamk)~vk = ~0, e como os vetores ~v1,..., ~vk são L.I., obtemos a11α1 + a21α2 + ...+ am1αm = 0 ... a1kα1 + a2kα2 + ...+ amkαm = 0 , um sistema linear homogêneo com k equações a m incógnitas α1, α2, ..., αm. Como por construção k ≤ n < m, segue que tal sistema homogêneo admite solução não trivial, e portanto, teremos algum αj 6= 0, e com isso segue que os vetores ~w1, ~w2, ..., ~wm são L.D. Uma importante consequência do Teorema acima é seguinte resultado: Corolário 3.16 Qualquer base de um dado espaço vetorial V possui a mesma quantidade de vetores. M. Zahn 81 Se [~v1, ..., ~vk] = V , então o conjunto {~v1, ..., ~vk} será uma base para V , e nesse caso segue que k = n, c.f. a Definição 3.17. Por outro lado, se [~v1, ..., ~vk] 6= V , então existe pelo menos um vetor de V que não é combinação linear dos vetores ~v1,..., ~vk. Denotemos tal vetor por ~vk+1. Assim, temos que ~vk+1 ∈ V , mas ~vk+1 6∈ [~v1, ..., ~vk]. Logo, segue que {~v1, ..., ~vk, ~vk+1} ainda é L.I., pois sendo {~v1, ..., ~vk} L.I., segue que α1~v1 + ...+ αk~vk = ~0⇔ αi = 0,∀i ∈ {1, 2, ..., k} Portanto, com tais α’s temos que α1~v1 + ...+ αk~vk + αk+1~vk+1 = ~0⇔ αi = 0,∀i ∈ {1, 2, ..., k, k + 1}. Assim, sendo {~v1, ..., ~vk+1} L.I., temos que, se [~v1, ..., ~vk+1] = V , então o conjunto {~v1, ..., ~vk+1} já é uma base para V , mas se [~v1, ..., ~vk+1] 6= V , segue que existe pelo menos um vetor de V que não é combinação linear dos vetores ~v1,..., ~vk+1, o qual vamos denotar por ~vk+2. Assim, repetindo o racioćınio acima, temos que o conjunto {~v1, ..., ~vk+1, ~vk+2} também será L.I. e com isso segue que se [~v1, ..., ~vk+2] = V , então o con- junto {~v1, ..., ~vk+2} já será uma base para V ; e caso contrário existirá um vetor ~vk+3 ∈ V tal que ~vk+3 6∈ [~v1, ..., ~vk+2]. Repetindo-se o processo um número finito de vezes chegaremos em um ponto onde a coleção {~v1, ..., ~vk, ..., ~v`} será finalmente L.I., com [~v1, ..., ~v`] = V , sendo assim uma base para V . Teorema 3.19 (Teorema da dimensão) Sejam U e W dois subespaços de um espaço vetorial V . Se dimV <∞, então dim(U +W ) = dimU + dimW − dim(U ∩W ). Demonstração. Seja β1 = {z1, ..., zk} uma base para U ∩W . 82 Álgebra linear I Note então que dim(U ∩W ) = k. Como β1 é L.I. em U e também em W , segue pelo Teorema 3.18 do com- pletamento que existem ~u1, ..., ~u` ∈ U e ~w1, ..., ~wm ∈W tais que β2 = {~z1, ..., ~zk, ~u1, ..., ~u`} é base para U, e β3 = {~z1, ..., ~zk, ~w1, ..., ~wm} é base para W, e notamos disso que dimU = k + ` e dimW = k +m. Afirmammos que o conjunto β = {~z1, ..., ~zk, ~u1, ..., ~u`, ~w1, ..., ~wm} é uma base para o espaço U +W . De fato, basta mostrar (a) e (b) abaixo: (a) [β] = U + W . De fato, seja ~x ∈ U + W . Então, temos existem ~u ∈ U e ~w ∈W tais queque ~x = ~u+ ~w. Como β2 é base para U e β3 é base para W , podemos escrever ~u = α1~z1 + ...+ αk~zk + β1~u1 + ...+ β`~u`, e ~w = a1~z1 + ...+ ak~zk + b1 ~w1 + ...+ bm ~wm. Assim, ~x = ~u+~w = (α1+a1)z1+...+(αk+ak)zk+β1~u1+...+β`~u`+b1 ~w1+...+bm ~wm, logo, vale (a). (b) O conjunto β é L.I. De fato, seja α1~z1 + ...+ αk~zk + β1~u1 + ...+ β`~u` + γ1 ~w1 + ...+ γm ~wm = ~0. (3.5) Então, escrevendo α1~z1 + ...+ αk~zk + β1~u1 + ...+ β`~u`︸ ︷︷ ︸ ∈U = −γ1 ~w1 − ...− γm ~wm︸ ︷︷ ︸ ∈W , M. Zahn 83 e então segue que γ1 ~w1 − ... − γm ~wm ∈ U ∩ W , e com isso segue que existem escalares c1, ..., ck ∈ R tais que −γ1 ~w1 − ...− γm ~wm = c1~z1 + ...+ ck~zk, e portanto, c1~z1 + ...+ ck~zk + γ1 ~w1 + ...+ γm ~wm = ~0; e como a base β3 de W é L.I., segue que c1 = ... = ck = γ1 = ... = γm = 0. Assim, sendo os γj = 0, segue que (3.5) fica escrito como α1~z1 + ...+ αk~zk + β1~u1 + ...+ β`~u` = ~0. Como a base β2 de U é L.I., segue que α1 = ... = αk = β1 = ... = β` = 0. Portanto, o conjunto β é de fato L.I., valendo também o item (b). De (a) e (b) segue que β é uma base para U +W . Nesse caso, temos também que dim(U +W ) = k + `+m. Assim, por construção temos que dimU ∩W = k, dimU = k+ `, dimW = m+ k e dim(U +W ) = k + `+m, e portanto, dim(U+W ) = k+`+m = (k+`)+(m+k)−k = dimU+dimW−dim(U∩W ). Teorema 3.20 Seja β = {~v1, ..., ~vn} uma base para o espaço vetorial V . Então, todo vetor v ∈ V é escrito de maneira única como uma combinação linear dos vetores da base. Demonstração. Seja β = {~v1, ..., ~vn} uma base de V e seja ~v ∈ V . Como V = [~v1, ..., ~vn], segue que existem α1, ..., αn ∈ R tais que ~v = α1~v1 + ...+ αn~vn. (3.6) 86 Álgebra linear I Retornando ao Exemplo 1 da seção anterior, onde consideramos V = R2, vimos que o conjunto de vetores β = {~v1, ~v2}, onde ~v1 = (1, 1) e ~v2 = (0, 1), forma uma base para o R2. Isto porque eles são L.I. e [~v1, ~v2] = R2. Assim, dado ~w = (x, y) ∈ R2 um vetor qualquer de R2, podemos escrever ~w = (x, y) = x(1, 1) + (y − x)(0, 1) = x · ~v1 + (y − x) · ~v2. Dessa forma, dizemos que x e y − x são as coordenadas do vetor (x, y) na base {~v1, ~v2}, e escrevemos [(x, y)]β = [ x y − x ] Já na base {~i,~j}, onde ~i = (1, 0) e ~j = (0, 1), temos que ~w = (x, y) ∈ R2 é tal que ~w = (x, y) = x(1, 0) + y(0, 1) = x ·~i+ y ·~j; ou seja, nesse caso temos que as coordenadas do vetor ~w coincidem com os escalares da combinação linear dos vetores ~i e ~j. Devido a essa coincidência dizemos que {~i,~j} chama-se base canônica do R2. Quando estamos na base canônica escreveremos simplesmente as coordenadas de (x, y) ba base canônica por [(x, y)] = [ x y ] . Um fato importante que devemos notar consiste em perceber que os ele- mentos da matriz das coordenadas ficam dispostos de acordo com a ordem em que os elementos da base β aparecem. Por exemplo, se β = {(0, 1), (1, 0)} (base canônica do R2), e β1 = {(1, 0), (0, 1)}, note que os vetores que compõe ambas as bases são os mesmos, mas não estão dispostos na mesma ordem. Assim, temos que [(3,−2)]β = [ 3 −2 ] mas [(3,−2)]β1 = [ −2 3 ] . Por isso, vamos considerar de agora em diante uma base ser sempre orde- nada, ou seja, os vetores da base estão ordenados na ordem em que já aparecem. 3.5.2 Mudança de base Nesta seção mostraremos como efetuar a mudança de uma base para outra, de um dado vetor. M. Zahn 87 Sejam β = {~v1, ..., ~vn} e β1 = {~w1, ..., ~wn} duas bases quaisquer de um espaço vetorial V (bases ordenadas, c.f. comentado na seção anterior). Dado ~v ∈ V , temos que em cada uma das bases ~v possuirá uma representação única, a saber: ~v = x1~v1 + ...+ xn~vn (na base β), ~v = y1 ~w1 + ...+ yn ~wn (na base β1). Associando as coordenadas de ~v nas bases β e β1, respectivamente, temos [~v]β = x1 ... xn e [~v]β1 = y1 ... yn . Como {~v1, ..., ~vn} é base para V , segue que os vetores ~wi ∈ V devem ser escritos também como combinação linear dos ~vj , ou seja, ~w1 = a11~v1 + a21~v2 + ...+ an1~vn ~w2 = a12~v1 + a22~v2 + ...+ an2~vn ... ~wn = a1n~v1 + a2n~v2 + ...+ ann~vn Assim, como ~v = y1 ~w1 + ...+ yn ~wn, escrevemos ~v = y1(a11~v1 + a21~v2 + ...+ an1~vn) + ...+ yn(a1n~v1 + a2n~v2 + ...+ ann~vn) = = (a11y1 + ...+a1nyn)~v1 + (a21y1 + ...+a2nyn)~v2 + ...+ (an1y1 + ...+annyn)~vn, e como ~v = x1~v1 + ... + xn~vn e as coordenadas de um vetor numa base são únicas (Teorema 3.20), segue que x1 = a11y1 + ...+ a1nyn x2 = a21y1 + ...+ a2nyn ... 88 Álgebra linear I xn = an1y1 + ...+ annyn, o que, em notação matricial, fica: x1 ... xn = a11 · · · a1n · · · · · · · · · an1 · · · ann · y1 ... yn . Denotando [I]β1 β = a11 · · · a1n · · · · · · · · · an1 · · · ann , temos [~v]β = [I]β1 β · [~v]β1 , onde [I]β1 β recebe o nome de matriz de mudança da base β1 para a base β. Exerćıcios 1. Mostre que cada conjunto a seguir é uma base para o R2. Em seguida, determine as coordenadas do vetor −→u = (6, 2) em relação a cada uma das bases dadas. (a) α = {(3, 0); (0, 3)} (b) β = {(1, 2); (2, 1)} (c) γ = {(1, 0); (0, 1)} (d) δ = {(0, 1); (1, 0)} 2. Quais são as coordenadas de −→u = (1, 0, 0) em relação à base β = {(1, 1, 1); (−1, 1, 0); (1, 0,−1)} do R3? 3. Determinar as coordenadas do vetor u = (2, 1, 4) ∈ R3 em relação às bases: (a) canônica; (b) β = {(1, 1, 1); (1, 0, 1); (1, 0,−1)}. 4. Mostre que os vetores v1 = (2, 6, 3), v2 = (1, 5, 4) e v3 = (−2, 1, 7) formam uma base do R3. Expresse o vetor v = (3, 7, 1) como uma combinação linear de v1, v2 e v3. Quais são as coordenadas de v em relação à base {v1, v2, v3}?