Matrius i vectors teoria tardor  2017, Ejercicios de Matemáticas. Universitat de Barcelona (UB)
marmiro
marmiro

Matrius i vectors teoria tardor 2017, Ejercicios de Matemáticas. Universitat de Barcelona (UB)

PDF (600 KB)
99 páginas
2Número de visitas
Descripción
Asignatura: Matrius i Vectors, Profesor: Casas Casas, Carrera: Matemàtiques + Administració i Direcció d'Empreses, Universidad: UB
20 Puntos
Puntos necesarios para descargar
este documento
Descarga el documento
Vista previa3 páginas / 99
Esta solo es una vista previa
3 páginas mostradas de 99 páginas totales
Descarga el documento
Esta solo es una vista previa
3 páginas mostradas de 99 páginas totales
Descarga el documento
Esta solo es una vista previa
3 páginas mostradas de 99 páginas totales
Descarga el documento
Esta solo es una vista previa
3 páginas mostradas de 99 páginas totales
Descarga el documento
MVNotas.dvi

Introducción al álgebra lineal

Notas de un curso con el desafortunado t́ıtulo Matrices y vectores

Versión provisional

Eduardo Casas-Alvero

4 de enero de 2018

iv

Índice general

0. Preliminares 1

1. Espacios vectoriales 3 1.1. Los axiomas de espacio vectorial . . . . . . . . . . . . . . . . . . 3 1.2. Combinaciones lineales y reducción de ecuaciones . . . . . . . . . 9 1.3. Vectores independientes y generadores . . . . . . . . . . . . . . . 12 1.4. Subespacios, subespacio generado . . . . . . . . . . . . . . . . . . 15 1.5. Bases de un espacio vectorial . . . . . . . . . . . . . . . . . . . . 18 1.6. Nota sobre el uso de sumatorios . . . . . . . . . . . . . . . . . . . 23 1.7. Componentes de un vector en una base . . . . . . . . . . . . . . . 24 1.8. Reducción de vectores . . . . . . . . . . . . . . . . . . . . . . . . 26 1.9. Rango. Teorema de Rouché-Frobenius . . . . . . . . . . . . . . . 29 1.10. Representación de subespacios . . . . . . . . . . . . . . . . . . . 32 1.11. Intersección y suma de subespacios, fórmula de Grassmann . . . 37 1.12. Suma directa, subespacios suplementarios . . . . . . . . . . . . . 41

2. Matrices y aplicaciones lineales 43 2.1. Matrices: generalidades y rango . . . . . . . . . . . . . . . . . . . 43 2.2. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.3. Inversa de una matriz cuadrada . . . . . . . . . . . . . . . . . . . 52 2.4. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.5. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 58 2.6. Cálculo de matrices inversas . . . . . . . . . . . . . . . . . . . . . 64 2.7. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.8. Definición y propiedades formales de los determinantes . . . . . . 70 2.9. Aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . 78 2.10. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 84 2.11. Imagen y Núcleo de una aplicación lineal . . . . . . . . . . . . . . 88

Index 93

v

vi ÍNDICE GENERAL

Caṕıtulo 0

Preliminares

Se supondrán conocidas las nociones más elementales de teoŕıa de conjuntos y en particular las propiedades elementales de la unión, indicada por ∪ y la intersección, indicada por ∩ de conjuntos. Si A y B son conjuntos, se indicará por A−B el conjunto de elementos de A que no pertenecen a B.

El conjunto (finito) formado por n elementos a1, . . . , an se denotará {a1, . . . , an} mientras que el conjunto ordenado (o n-upla) formado por los mismos a1, . . . , an se denotará (a1, . . . , an). Conjuntos {a1, . . . , an} y {b1, . . . , bn} son iguales si y sólo si para cada ai, i = 1, . . . , n, existe bj con ai = bj , y rećıprocamente. En cambio, (a1, . . . , an) = (b1, . . . , bn) si y sólo si ai = bi, para i = 1, . . . , n.

Una aplicación f entre dos conjuntos A y B, indicada por f : A → B es una regla que a cada elemento de A le hace corresponder un elemento bien determinado de B, llamado la imagen de a y denotado por f(a). Se dice que a es una antiimagen (por f) de f(a); un elemento de B puede tener ninguna, una o más de una antiimágenes.

Dos aplicaciones f, g de A en B son iguales si y sólo si asignan la misma imágen a cualquier elemento de A: f = g si y sólo si fa) = g(a) para cualquier a ∈ A.

Si f : A → B y g : B → C son aplicaciónes, tambien lo es hacer corresponder a cada elemento a ∈ A la imagen por g de su imagen por f : esta aplicación se llama la composición o aplicación compuesta de f y g, y se denota por g ◦ f . Se tiene pues (g ◦ f)(a) = g(f(a)), cualquiera que sea a ∈ A.

Fijado un conjunto A, la aplicación IdA : A → A que hace corresponder a cada a ∈ A el mismo a se llama la identidad , o aplicación idéntica, de A. Se omite el sub́ıdice A en IdA si no hay peligro de confusión.

Una aplicación f : A → B se dice exhaustiva cuando cualquier b ∈ B es imagen de al menos un elemento de A, y se dice inyectiva cuando elementos distintos de A tienen siempre imágenes distintas. La aplicación f se dice biyec- tiva, o uno a uno, cuando es a la vez inyectiva i exhaustiva: en tal caso no sólo cada a ∈ E tiene un solo correspondiente por f en B, su imagen f(a), sino que cualquier elemento de B es imagen por f de un único vector de A. En caso de ser f biyectiva, haciendo corresponder a cada b ∈ B su única antimagen por f

1

2 CAPÍTULO 0. PRELIMINARES

se tiene una aplicación de B en A que se llama la aplicación inversa de f y se denota por f−1. Se cumple f ◦ f−1 = IdA y f−1 ◦ f = IdB.

El conjunto de los números reales, en adelante denotado por R, la suma y producto de números reales y sus propiedades básicas se suponen conocidos. En todo lo que sigue escalar es sinónimo de número real.

Caṕıtulo 1

Espacios vectoriales

1.1. Los axiomas de espacio vectorial

Es habitual en matemáticas la aparición, en contextos muy distintos, de objetos con propiedades similares y resulta ventajoso estudiar en abstracto, independientemente de cualquier contexto, el comportamiento de todos los ob- jetos que cumplen dichas propiedades. El Álgebra lineal se ocupa del estudio de un tipo de dichos objetos, los llamados espacios vectoriales, que responden a unas determinadas propiedades. De entre ellos, nos ocuparemos de los espacios vectoriales reales, definidos a continuación.

Un espacio vectorial real (o sobre los números reales) consiste en un conjunto E, cuyos elementos se llaman vectores , y dos operaciones:

– La primera, llamada suma e indicada por el signo +, asigna a cada par de vectores u, v un vector representado por u + v y llamado la suma de u y v.

– La segunda, llamada producto por escalares e indicada sin signo o por un punto · , asigna a cada par formado por un escalar a y un vector v un vector designado por av. Es usual llamar a av múltiplo o múltiplo escalar de v.

Todo ello sujeto a cumplir las siguientes condiciones:

(1) Propiedad asociativa de la suma: para cualesquiera u, v, w ∈ E,

(u+ v) + w = u+ (v + w).

(2) Existencia de elemento neutro: existe un vector, comunmente designado por 0 y llamado elemento neutro de la suma, vector nulo, vector cero o simplemente cero, que cumple

v + 0 = v

para cualquier v ∈ E.

3

4 CAPÍTULO 1. ESPACIOS VECTORIALES

(3) Existencia de opuesto: para cualquier vector v se cumple

v + (−1)v = 0.

El producto (-1)v se llama el opuesto de v; normalmente se escribe (−1)v = −v y u+ (−v) = u− v.

(4) Propiedad conmutativa de la suma: para cualesquiera u, v ∈ E

u+ v = v + u.

(5) Propiedad distributiva I: para cualesquiera u, v ∈ E y a ∈ R,

a(u+ v) = au+ av

(6) Propiedad distributiva II: para cualesquiera u ∈ E y a, b ∈ R,

(a+ b)u = au+ bu.

(7) Para cualesquiera u ∈ E y a, b ∈ R,

a(bu) = (ab)u.

(8) Para cualquier u ∈ E, 1 · u = u.

La misma definición se aplica con los números reales sustituidos por otros conjuntos de números (racionales, complejos, dando lugar a los espacios vecto- riales racionales y complejos) o por lo que se denomina un cuerpo abstracto, dando lugar a la noción de espacio vectorial sin más. Nosotros consideraremos aqúı exclusivamente espacios vectoriales reales y omitiremos el calificativo real, de modo que en adelante espacio vectorial significa espacio vectorial real.

Es habitual abusar del lenguaje y designar con la misma letra el conjunto de vectores E y el espacio vectorial del que forma parte, aunque este último es la terna formada por el conjunto de vectores y las dos operaciones y debeŕıa en rigor ser designado por (E,+, ·).

Obsérvese que la definición no dice nada sobre la naturaleza de los vectores y se refiere sólo la posibilidad de operar con ellos y a determinadas propiedes de las operaciones. Con ello, todo lo que se siga de la definición anterior (la totalidad de estas notas en particular) se aplica a cualquier objeto que satisfa- ga sus condiciones. A continuación se presentan algunos ejemplos de espacios vectoriales.

Ejemplo 1.1.1 El espacio Rn: Si n es un entero positivo, se toma como con- junto de vectores el conjunto de todas las n-uplas ordenadas de números reales, es decir

Rn = {(a1, . . . , an) | ai ∈ R para i = 1, . . . , n},

1.1. LOS AXIOMAS DE ESPACIO VECTORIAL 5

y las operaciones definidas por las reglas

(a1, . . . , an) + (b1, . . . , bn) = (a1 + b1, . . . , an + bn)

a · (a1, . . . , an) = (aa1, . . . , aan),

para cualesquiera (a1, . . . , an), (b1, . . . , bn) ∈ Rn y a ∈ R. Comprobamos a con- tinuación que se satisfacen las propiedades de la definición:

(1) Cualesquiera que sean (a1, . . . , an), (b1, . . . , bn), (c1, . . . , cn) ∈ Rn, por una parte

((a1, . . . , an) + (b1, . . . , bn)) + (c1, . . . , cn)

= (a1 + b1, . . . , an + bn) + (c1, . . . , cn)

= ((a1 + b1) + c1, . . . , (an + bn) + cn),

mientras por otra

(a1, . . . , an) + ((b1, . . . , bn) + (c1, . . . , cn))

= (a1, . . . , an) + (b1 + c1, . . . , bn + cn)

= (a1 + (b1 + c1), . . . , an + (bn + cn))

y la igualdad resulta de la propiedad asociativa de la suma de números reales.

(2) (0, . . . , 0) es elemento neutro puesto que, para cualquier (a1, . . . , an) ∈ Rn,

(a1, . . . , an) + (0, . . . , 0) = (a1 + 0, . . . , an + 0) = (a1, . . . , an)

(3) Cualquiera que sea (a1, . . . , an) ∈ Rn,

(a1, . . . , an) + (−1)(a1, . . . , an) =

(a1, . . . , an) + (−a1, . . . ,−an) = (0, . . . , 0)

(4) Cualesquiera que sean (a1, . . . , an), (b1, . . . , bn) ∈ Rn,

(a1, . . . , an) + (b1, . . . , bn) = (a1 + b1, . . . , an + bn),

mientras

(b1, . . . , bn) + (a1, . . . , an) = (b1 + a1, . . . , bn + an)

y la igualdad resulta de la propiedad conmutativa de la suma de números reales.

(5) Cualesquiera que sean (a1, . . . , an), (b1, . . . , bn) ∈ Rn y a ∈ R,

a((a1, . . . , an) + (b1, . . . , bn))

= a(a1 + b1, . . . , an + bn) = (a(a1 + b1), . . . , a(an + bn)),

6 CAPÍTULO 1. ESPACIOS VECTORIALES

mientras

a(a1, . . . , an) + a(b1, . . . , bn) =

(aa1, . . . , aan) + (ab1, . . . , abn) = (aa1 + ab1, . . . , aan + abn)

y la igualdad resulta de la propiedad distributiva de la suma y producto de números reales.

(6) Cualesquiera que sean (a1, . . . , an) ∈ Rn y a, b ∈ R,

(a+ b)(a1, . . . , an) = ((a+ b)a1, . . . , (a+ b)an),

mientras

a(a1, . . . , an) + b(a1, . . . , an)

= (aa1, . . . , aan) + (ba1, . . . , ban) = (aa1 + ba1, . . . , aan + ban)

y la igualdad resulta de nuevo de la propiedad distributiva de la suma y producto de números reales.

(7) Para cualesquiera (a1, . . . , an) ∈ Rn y a, b ∈ R,

a(b(a1, . . . , an)) = a(ba1, . . . , ban) = (a(ba1), . . . , a(ban))

mientras (ab)(a1, . . . , an) = ((ab)a1, . . . , (ab)an)

y la igualdad resulta de la propiedad asociativa del producto de números reales.

(8) Para cualquier (a1, . . . , an) ∈ Rn,

1 · (a1, . . . , an) = (1 · a1, . . . , 1 · an) = (a1, . . . , an).

El lector observará que para n = 1 se obtiene el propio conjunto R de los números reales con la estructura de espacio vectorial dada por la suma y el producto de números reales (salvo por la diferencia puramente formal de escribir (a) en lugar de a). Habitualmente dicho espacio vectorial se denota por la misma R usada para los números reales.

Ejemplo 1.1.2 Ecuaciones lineales: Si de nuevo n es un entero positivo, se toma como conjunto de vectores el conjunto de todas las ecuaciones lineales con n incógnitas x1, . . . , xn y coeficientes reales, es decir todas las expresiones

a1x1 + · · ·+ anxn = a,

con a1, . . . an (coeficientes) y a (término independiente) números reales. Dos ecuaciones a1x1 + · · ·+ anxn = a y b1x1 + · · ·+ bnxn = b son iguales si y sólo si

1.1. LOS AXIOMAS DE ESPACIO VECTORIAL 7

tienen los mismos coeficientes y el mismo término independiente: a1 = b1, . . . , an = bn, a = b.

Como operaciones se toman las habituales con ecuaciones, esto es, la suma de ecuaciones

(a1x1+· · ·+anxn = a)+(b1x1+· · ·+bnxn = b) = ((a1+b1)x1+· · ·+(an+bn)xn = a+b)

y el producto de una ecuación por un número real c

c(a1x1 + · · ·+ anxn = a) = (ca1x1 + · · ·+ canxn = ca).

Queda al lector comprobar que se cumplen las ocho condiciones de la de- finición. De hecho este ejemplo solo se diferencia del anterior en aspectos ti- pográficos y es esencialmente un espacio vecorialRn+1, puesto que cada ecuación a1x1+· · ·+anxn = a y la (n+1)-upla (a1, . . . , an, a) se determinan mutuamente, y la identificación de una con otra es compatible con las operaciones.

Ejemplo 1.1.3 Matrices n×m: Si n,m son enteros positivos, una matriz de n filas y m columnas, o matriz n × m, està formada por nm números reales, llamados coeficientes de la matriz, dispuestos en un rectángulo de n filas y m columnas. A n,m (tomados en el orden filas, columnas) los llamaremos las di- mensiones de la matriz. Usaremos un supeŕındice y un sub́ındice para indicar, respectivamente, la fila y la columna de cada coeficiente: aśı, aij denota el coefi- ciente en la fila i y columna j de la matriz. La matriz M , de n filas, m columnas y coeficientes aij se representa de las dos formas siguientes:

M =

 

a11 . . . a 1 m

... ...

an1 . . . a n m

  = (aij)i=1,...,n

j=1,...,m .

Para i = 1 . . . , n, su i-esima fila es el vector (ai1, . . . , a i m) ∈ R

m, también lla- mado i-ésimo vector fila. Para j = 1 . . . ,m, su j-esima cólumna es el vector (a1j , . . . , a

n j ) ∈ R

n, también llamado j-ésimo vector columna y que a menudo se representa en forma de columna

 

a1j ... anj

  .

Las matrices con una sola fila se llaman matrices fila) y las que tienen una sola columna, matrices columna).

El conjunto de todas las matrices de dimensiones fijadas n,m, con las ope- raciones

(aij)i=1,...,n j=1,...,m

+ (bij)i=1,...,n j=1,...,m

= (aij + b i j)i=1,...,n

j=1,...,m

y c(aij)i=1,...,n

j=1,...,m = (caij)i=1,...,n

j=1,...,m ,

8 CAPÍTULO 1. ESPACIOS VECTORIALES

para c ∈ R, es un espacio vectorial. Su elemento neutro es la llamada matriz cero, cuyos coeficientes son todos cero y que se representa por 0. De nuevo las comprobaciones quedan al lector y el ejemplo no es esencialmente nuevo: salvo por tener sus coeficientes dispuestos en n filas en lugar de una sola fila de nm elementos, las matrices n × m, con las operaciones precedentes, se comportan como los elementos de un espacio Rnm. Las diferencias aparecerán al considerar otros aspectos de las matrices, como su rango y el producto de matrices, que hacen uso de su estructura rectangular.

Ejemplo 1.1.4 Polinomios: El conjunto R[X ], de todos los polinomios en una variable X y con coeficientes reales, esto es, expresiones

anX n + an−1X

n−1 + · · ·+ a1X + a0

donde a0, . . . , an ∈ R y n es cualquier entero no negativo, con las operaciones habituales de suma y multiplicación de un polinomo por un número real, forman n espacio vectorial. Tambien lo forman los polinomios de grado no superior a un entero positivo prefijado d, puesto que la suma y el producto por un número real de polinomios de grado menor o igual que d tienen grado menor o igual que d.

Ejemplo 1.1.5 Funciones: Las funciones continuas de una variable real con las oeraciones habituales forman un espacio vectorial. Lo mismo ocurre con las fuciones derivables. Las comprobaciones son directas a patir de resultados elementales de teoŕıa de funciones (por ejemplo que la suma y el producto por un escalar de funciones continuas o derivables son, respectivamene, continuas o derivables).

Para cerrar esta sección presentamos una serie de propiedades relativas al cálculo en un espacio vectorial que se siguen directamente de las ocho condiciones de la definición: serán de uso constante a partir de ahora, a menudo sin ulterior referencia.

Observación 1.1.6 Debido a la propiedad conmutativa (4), además de (2) y (3) también se cumplen

0 + v = v + 0 = v y (−v) + v = v + (−v) = 0,

para cualquier v ∈ E.

Proposición 1.1.7 El elemento neutro 0 es único.

Demostración: Si 0′ cumple tamb́ıén la condición (2) de elemento neutro, es 0 = 0 + 0′ = 0′, usando 1.1.6. ⋄

Proposición 1.1.8 Para cualesquiera u, v, w ∈ E y cualquier a ∈ R se cumplen

(a) De v + u = w + u se deduce v = w ( ley de simplificación).

1.2. COMBINACIONES LINEALES Y REDUCCIÓN DE ECUACIONES 9

(b) a · 0 = 0.

(c) 0 · v = 0.

(d) De u+ v = w se deduce u = w − v.

(e) De au = v , a 6= 0, se deduce u = a−1w

(f) De av = 0 se deduce a = 0 o v = 0.

(g) Para cualquier entero positivo r y cualquier vector v, rv = v + r. . .+ v.

Como es habitual, usamos 0 para designar tanto el número real cero como el vector cero; las confusiones pueden evitarse escribiendo ~0 el vector cero, pero no suele ser necesario. El lector hara bién en identificar el significado de cada uno de los 0 que aparecen en el enunciado anterior. Demostración de 1.1.8

(a) Basta sumar −u a los dos miembros y usar (1) y (3).

(b) Por (2) es 0 = 0 + 0 de modo que multiplicando por a y usando (5), 0 + a · 0 = a · 0 = a · 0 + a · 0, y el resultado se sigue de (a).

(c) Es 0 = 0+0 de modo que, por (6), se cumple 0 ·v = 0 ·v+0 ·v y se procede como en el caso anterior.

(d) Basta sumar −v a los dos miembros y usar de nuevo (1) y (3).

(e) Basta multiplicar por a−1 los dos miembros y usar (7).

(f) Si a = 0 no hay nada que probar. En caso contrario se aplican (e) y (b).

(g) Basta tener en cuenta que r = 1+ r. . .+1 y aplicar primero (6) y luego (8).

1.2. Combinaciones lineales y reducción de ecua-

ciones

Si v1, . . . , vm son vectores de un espacio vectorial E, se llama combina- ción lineal de v1, . . . , vm a cualquier vector de la forma a1v1 + · · · + amvm con a1, . . . , am ∈ R. A los escalares a1, . . . , am se les llama coeficientes de la combinación lineal.

Consideraremos ahora ecuaciones lineales de la forma a1x1 + · · ·+ anxn = b como en el Ejemplo 1.1.2; nos referiremos a los ai como sus coeficientes y a b como su término independiente. El siguiente resultado es de comprobación directa, pero es básico en lo que sigue:

10 CAPÍTULO 1. ESPACIOS VECTORIALES

Lema 1.2.1 Cualquier solución común de ecuaciones lineales

fi : a i 1x1 + · · ·+ a

i nxn = bi, i = 1, . . . ,m,

es también solución de cualquier combinación lineal de ellas.

Consideremos ahora un sistema de ecuaciones como en el lema anterior, esto es,

f1 : a 1 1x1 + · · ·+ a

1 nxn = b1

...

fm : a m 1 x1 + · · ·+ a

m n xn = bm.

(1.1)

Describiremos a continuación un procedimiento iterativo, llamado reducción, que conduce a la resolución del sistema. El procedimiento se efectua con dos operaciones básicas:

– Intercambiar de dos ecuaciones manteniendo en su lugar las restantes.

– Mantener la primera ecuación y sumar a las restantes ecuaciones múltiplos de la primera.

El procedimiento se apoya fundamentalmente en el siguiente lema:

Lema 1.2.2 Un sistema de ecuaciones y el que resulta de aplicarle cualquiera de las anteriores operaciones básicas, tienen las mismas soluciones.

Demostración: La afirmación es evidente si se efectua un cambio de orden. El sistema tras una transformación del segundo tipo tiene ecuaciones

f ′1 = f1, f ′ 2 = f2 + c2f1 . . . f

′ m = fm + cmf1

con c1, . . . , cm ∈ R. Como cada una de las f ′ i es combinación lineal de f1, . . . , fm

toda solución del sistema original lo es del transformado por 1.2.1. Rećıproca- mente, puesto que de las igualdades anteriores resulta

f1 = f ′ 1, f2 = f

′ 2 − c2f

′ 1 . . . fm = f

′ m − cmf

′ 1,

cada una de las ecuaciones del sistema original es combinación lineal de las del sistema transfomado y por tanto cualquier solución del sistema transformado es solución del sistema original, de nuevo por 1.2.1. ⋄

Sistemas de ecuaciones con el mismo conjunto de soluciones se llaman equi- valentes . El procedimiento de reducción es como sigue, suponiendo que partimos del sistema (1.1) de más arriba:

– Si todos los coeficientes del sistema son cero, o el sistema no tiene ecuaciones, el proceso se da por finalizado. En caso contrario, si j1 es el menor ı́ndice para el que alguno de los coeficientes aij de la j-ésima incógnita es no nulo (usualmente será j1 = 1), se cambia el orden de las ecuaciones para que sea a1j1 6= 0 y a continuación, supuesto que ello es aśı, se toman

f ′1 = f1, f ′ 2 = f2 − (a

2 j1 /a1j1)f1 , . . . , f

′ m = fm − (a

m j1 /a1j1)f1,

de modo que los términos en xj1 de f ′ 2, . . . , f

′ m se cancelan.

1.2. COMBINACIONES LINEALES Y REDUCCIÓN DE ECUACIONES 11

– La ecuación f ′1 = f1 se va a mantener sin variación hasta el final del proceso. Con las restantes ecuaciones se repite el paso anterior. Tras un número finito de pasos se habrá obtenido el que llamaremos sistema reducido, compuesto en primer lugar por ecuaciones g1, . . . , gr, r ≤ m con algún coeficiente no nulo, de modo si el primer monomio no nulo de gi es el que tiene la incógnita xji , se cumple j1 < j2 < · · · < jr, y luego otrasm−r ≥ 0 ecuaciones gr+1, . . . gm con todos los coeficientes nulos.

El sistema reducido es pues de la forma

g1 : c 1 j1 xj1 + . . . + c

1 nxn = d1

g2 : c 2 j2 xj2 + . . . + c

2 nxn = d2

... ...

gr : c r jr xjr + · · ·+ c

r nxn = dr

gr+1 : 0 = dr+1

... ...

gm : 0 = dm

con c1j1 6= 0, . . . , c r jr

6= 0 y j1 < · · · < jr. En la mayoŕıa de los casos será de hecho j1 = 1, . . . , jr = r.

El sistema original y el reducido tienen las mismas soluciones por 1.2.2. Por lo tanto, si di 6= 0 para algún i = r + 1, . . . ,m, el sistema original es incom- patible. En caso contrario pueden ignorarse las ecuaciones gr+1, . . . , gm. De la ecuación gr, usando que cjr 6= 0, se calcula xjr como una función lineal de las restantes incógnitas que aparecen en la ecuación (o como un número si no las hay). Llevado este valor a gr−1 se calcula xjr−1 como función lineal de las restan- tes incógnitas, y aśı sucesivamente. Se obtiene aśı la llamada solución general del sistema: las incógnitas xj1 , . . . , xjr expresadas como funciones lineales de las restantes n− r incógnitas. Estas últimas son llamadas usualmente variables libres : dándoles valores arbitrarios y calculando las restantes según la solución general se obtienen todas las soluciones del sistema original. Se dice que n − r es el número de grados de libertad del sistema. Desde luego, en caso n− r = 0 todas las anteriores funciones lineales son constantes y el sistema tiene solución única.

En la práctica, para simplificar la escritura, es habitual llevar a cabo la reducción usando las (n + 1)-uplas de coeficientes y término independiente de cada ecuación, dispuestas como filas de una matriz, en lugar de las propias ecuaciones. A continuación se presenta un ejemplo sencillo, que es desde luego bastante más inteligible que el caso general explicado en abstracto.

Ejemplo 1.2.3 Se considera el sistema

y + z = 1

x+ y + 2z = 1

2x+ 3y + 5z = 3

12 CAPÍTULO 1. ESPACIOS VECTORIALES

La reducción procede como sigue:

0 1 1 1 1 1 2 1 2 3 5 3

→ 1 1 2 1 0 1 1 1 2 3 5 3

→ 1 1 2 1 0 1 1 1 0 1 1 1

→ 1 1 2 1 0 1 1 1 0 0 0 0

,

de modo que el sistema reducido es

x+ y + 2z = 1

y + z = 1

0 = 0.

El sistema es pues compatible y su solución general es

x = −z , y = 1− z

con un grado de libertad y z como variable libre.

Observación 1.2.4 Se llaman homogéneos los sistemas de ecuaciones cuyos términos independientes son todos cero. Todo sistema homogéneo es compati- ble, porque tiene la solución 0, . . . , 0, normalmente llamada la solución trivial . Puesto que las dos operaciones básicas de reducción dan lugar a sistemas ho- mogéneos si se aplican a sistemas homogéneos, si un sistema de ecuaciones es homogéneo, también lo es el que resulta de el tras reducción.

1.3. Vectores independientes y generadores

Vectores v1, . . . , vm, m > 0, de un espacio vectorial E se dice que son li- nealmente independientes (o que forman un conjunto de vectores linealmente independientes) si y sólo si la única combinación lineal nula de v1, . . . , vm es la que tiene todos los coeficientes cero. Para evitar excepciones en determinados enunciados, tomaremos el conjunto vaćıo como un conjunto de vectores inde- pendientes.

Ejemplo 1.3.1 Un solo vector v1 es linealmente independiente si y solo si es no nulo, por 1.1.8f.

Por el contrario, los mismos v1, . . . , vm, m > 0, se dicen linealmente depen- dientes si y sólo si existe una combinación lineal nula de v1, . . . , vm que no tiene todos los coeficientes cero.

Puesto que no consideraremos aqúı otros tipos de independencia o depen- dencia, omitiremos a menudo el adverbio linealmente.

Repitiendo las definiciones en otros términos, v1, . . . , vm son linealmente ide- pendientes cuando una igualdad

a1v1 + · · ·+ amvm = 0

1.3. VECTORES INDEPENDIENTES Y GENERADORES 13

sólo tiene lugar para a1 = · · · = am = 0, mientras que son linealmente de- pendientes cuando exite una igualdad como la anterior en la que alguno de los coeficientes ai, i = 1, . . . ,m, es ai 6= 0. En el primer caso suele decirse que la única combinación lineal nula de v1, . . . , vm es la trivial, mientras que en el se- gundo se dice que existe una combinación lineal nula no trivial de v1, . . . vm. Una combinación lineal nula no trivial de v1, . . . , vm se llama también una relación de dependencia entre v1, . . . , vm.

Es importante observar que la dependencia y la independencia lineal son relativas al conjunto de los vectores, no a cada uno de ellos considerados indi- vidialmente.

Ejemplo 1.3.2 Si, como en la sección 1.2, f1, . . . , fm son las ecuaciones de un sistema de ecuaciones lineales S, que supondremos compatible, y g1, . . . , gr las del sistema equivalente que se obtiene de S por reducción, las ecuaciones g1, . . . , gr son linealmente independientes y forman por tanto un sistema de ecuaciones lineales independientes equivalente a S. En efecto, se ha visto en 1.2 que si el primer monomio no nulo de cada ecuación gi es c

i ji xji , entonces la

incógnita xji no aparece (tiene coeficiene cero) en las ecuaciones siguientes gh, h > i. Para comprobar la independencia de las ecuaciones según la definición, supongamos tener una combinación lineal nula

b1g1 + b2g2 + · · ·+ brgr = 0. (1.2)

Puesto que la incógnita xj1 solo aparece efectivamente en la primera ecuación, el coeficiente de xi1 en el primer miembro de la igualdad (1.2) es b1cj1 ; como dicho coeficiente debe ser nulo por (1.2) y cj1 6= 0, se sigue b1 = 0.

Siendo b1 = 0, la igualdad (1.2) es ahora

b2g2 + · · ·+ brgr = 0.

Repitiendo a partir de ella el argumento anterior con la incógnita xj2 , que sólo aparece en g2, se obtiene b2 = 0. De la misma forma se obienen, sucesivamente, b3 = 0, . . . , br = 0, lo que demuestra la independencia lineal de g1, . . . , gr.

El ejemplo anterior muestra el que es un procedimiento habitual para probar la independencia lineal de un conjunto de vectores v1, . . . , vr: se parte de una combinación lineal nula de v1, . . . , vr y, con argumentos adecuados al caso, se acaba probando que todos los coeficientes de la combinación lineal deben ser cero.

Lema 1.3.3 Un conjunto de vectores que contenga el vector cero siempre es de vectores linealmente dependientes.

Demostración: Sean los vectores v1, . . . , vm. Puesto que la definición de de- pendencia/independencia no depende del orden de los vectores, si uno de ellos es nulo podemos suponer, salvo reordenarlos, v1 = 0. Entonces se tiene la com- binación lineal nula 1 · v1 +0 · v2 + · · ·+0 · vm = 0 cuyo primer coeficiente es no nulo. ⋄

La que sigue es una caracterización de la dependencia lineal:

14 CAPÍTULO 1. ESPACIOS VECTORIALES

Lema 1.3.4 Vectores v1, . . . , vm son linealmente dependientes si y sólo si uno de ellos es combinación lineal de los demás.

Demostración: ⇒) Si a1v1 + · · ·+ amvm = 0 y ai 6= 0, entonces

vi = a1 ai

v1 + · · ·+ ai−1 ai

vi−1 + ai+1 ai

vi+1 + · · ·+ am ai

vm.

⇐) Si vi = b1v1 + · · ·+ bi−1vi−1 + bi+1vi+1 + · · ·+ bmvm,

entonces

b1v1 + · · ·+ bi−1vi−1 − vi + bi+1vi+1 + · · ·+ bmvm = 0

y el coeficiente de vi es no nulo. ⋄

El siguiente resultado es algo más preciso

Lema 1.3.5 Si vectores v1, . . . , vm, m ≥ 2, son linealmente dependientes y v2, . . . , vm son linealmente independientes, entonces v1 es combinación lineal de v2, . . . , vm.

Demostración; Por hipótesis existen a1, . . . , am ∈ R, no todos cero, de manera que a1v1+· · ·+amvm = 0. Si fuera a1 = 0, seŕıa a2v2+· · ·+amvm = 0 con alguno de los coeficientes a2, . . . , am distinto de cero, y esto contradice la independencia de v2, . . . , vm. Necesariamente pues a1 6= 0, con lo que

v1 = − a2 a1

v2 − · · · − am a1

vm.

Lema 1.3.6 Cualquier subconjunto de un conjunto de vectores independientes es también un conjunto de vectores independientes.

Demostración: Si el subconjunto es vaćıo, no hay nada que probar. Si los vec- tores independientes son v1, . . . , vm, salvo reordenalos podemos suponer que los del subconjunto son v1, . . . , vr, 0 < r ≤ m. Si estos últimos fueran dependientes se tendŕıan a1, . . . , ar ∈ R, no todos nulos, de manera que a1v1+ · · ·+arvr = 0. Entonces

a1v1 + · · ·+ arvr + 0 · vr+1 + . . . 0 · vn = 0

seŕıa una relación de dependencia entre v1, . . . , vm, contra la hipótesis. ⋄

Vectores v1, . . . , vm, m > 0, de un espacio vectorial E se llaman generadores de E (o se dice que generan E) si y sólo si cualquier vector de E es combinación lineal de v1, . . . , vm.

Añadiendo vectores a un sistema de generadores se obtiene un sistema de generadores:

1.4. SUBESPACIOS, SUBESPACIO GENERADO 15

Lema 1.3.7 Si v1, . . . , vm son generadores de un espacio vectorial E, también lo son v1, . . . , vm, vm+1, . . . , vh para cualesquiera vm+1, . . . , vh ∈ E

Demostración: Por hipótesis cualquier vector v ∈ E se escribe v = a1v1 + · · ·+ amvm para ciertos a1, . . . , am ∈ R. Entonces v también se escribe

v = a1v1 + · · ·+ amvm + 0 · vm+1 + · · ·+ 0 · vh,

de donde la afirmación del enunciado. ⋄

Tamb́ıen puede reducirse el número de generadores en determinados casos:

Lema 1.3.8 Si vectores v1, . . . , vm generan E y uno de ellos es combinación lineal de los restantes vectores, entonces estos últimos son también generadores de E.

Demostración: Salvo reordenar los vectores, supongamos que es v1 = b2v2 + · · ·+ bmvm. Entonces, puesto que cualquier vector v ∈ E se escribe v = a1v1 + a2v2 + · · ·+ amvm, el mismo v se escribe también

v = (a2 + a1b2)v2 + · · ·+ (am + a1bm)vm,

que es una combinación lineal de v2, . . . , vm. ⋄

No todos los espacios vectoriales admiten un conjunto (finito como en la definición) de generadores:

Ejemplo 1.3.9 El espacio de los polinomios R[X ] (1.1.4) no admite un con- junto (finito) de generadores. En efecto, todas las combinaciones lineales de cualesquiera polinomios fijados P1, . . . , Pm tienen grado no superior al mayor de los grados de P1, . . . , Pm, y puesto que hay polinomios de grado arbitrariamente alto, no todo polinomio es combinación lineal de P1, . . . , Pm.

1.4. Subespacios, subespacio generado

Estamos interesados en los subconjuntos no vaćıos F de un espacio vectorial E que, con las restricciones a F de las operaciones de E, sean a su vez espacios vectoriales. Para ello es necesario en primer lugar que las restricciones a F de las operaciones de E sean realmente operaciones en F , esto es que la suma de dos vectores cualesquiera de F y los múltiplos escalares de un vector cualquiera de de F estén también en F . Como se verá a continuación, una vez satisfechas estas dos condiciones, las ocho condiciones de la definición de espacio vectorial son automáticamente satisfechas por F y las restricciones de las operaciones. Por ello se define como sigue:

Un subconjunto F de un espacio vectorial E se llama subespacio de E si y sólo si cumple las condiciones siguientes:

(a) F 6= ∅.

16 CAPÍTULO 1. ESPACIOS VECTORIALES

(b) v + w ∈ F para cualesquiera v, w ∈ F .

(c) av ∈ F para cualesquiera v ∈ F y a ∈ R.

Cuando un conjunto F cumple (b) y (c), se dice que es cerrado por suma y producto por escalares.

Observación 1.4.1 Las condiciones (b) y (c) aseguran que cualquier combina- ción lineal de vectores de F está en F . Esta condición puede a su vez reemplazar a las condiciones (a) y (b) de la definición dando lugar a una definición equiva- lente, como es inmediato verificar.

Como se ha dicho:

Proposición 1.4.2 Si F es un subespacio de E, F , con las restricciones de la suma y el producto por escalares de E, es un espacio vectorial.

Demostración: Las restricciones a F de las operaciones de E son desde lueo operaciones en F por las condiciones (b) y (c) de la definición de subespacio. Atendamos primero a la condición (2) de la definción de espacio vectorial: puesto que F 6= ∅, podemos tomar v ∈ F y entonces, por las propiedades (b) y (c) de la definición,

0 = v − v = v + (−1) · v ∈ F

con lo que la suma en F tiene elemento neutro, que es el mismo que el de la suma de E. Las restantes condiciones de la definición de espacio vectorial son satisfechas por F por el solo hecho de que ya lo eran en E. Aśı, por ejemplo, la suma de vectores de F es asociativa porque lo es la suma de vectores en E; el lector podrá usar el mismo argumento para las restantes condiciones. ⋄

Observación 1.4.3 Se ha visto en la demostración de 1.4.2 que el vector 0 per- tenece a cualquier subespacio. A la hora de verificar que un posible subespacio F es no vaćıo (condición (a)), es habitual probar que 0 ∈ F , puesto que de no ser aśı, F no seŕıa subespacio.

Observación 1.4.4 Visto que los subespacios de un espacio vectorial son a su vez espacios vectoriales, en adelante cualquier noción o resultado relativos a espacios vectoriales se aplicarán también, sin más, a sus subespacios. En parti- cular vectores v1, . . . , vm generan un subespacio F si y sólo si v1, . . . , vm ∈ F y cualquier vector de F es combinación lineal de v1, . . . , vm.

Ejemplo 1.4.5 Si E es un espacio vectorial, el subconjunto {0}, cuyo único elemento es 0, y el propio E son subespacios de E, como es inmediato comprobar. Los subespacios distintos de {0} se llaman no nulos . Es también subespacio el conjunto de todos los múltiplos escalares de un vector fijado v ∈ E.

Ejemplo 1.4.6 Fijado un entero positivo d, el conjunto de los polinomios de grado no superior a d es un subespacio del espacio de los polinomios R[X ] (cf. 1.1.4). En efecto, el conjunto es obviamente no vaćıo y tanto la suma de polinomios de grado no superior a d como el producto de uno de ellos por un número real tienen grado no superior a d.

1.4. SUBESPACIOS, SUBESPACIO GENERADO 17

El ejemplo que sigue será usado a menudo:

Ejemplo 1.4.7 Si E es un espacio vectorial y v1, . . . , vm ∈ E, m > 0, el conjun- to 〈v1, . . . , vm〉 de todas las combinaciones lineales de v1, . . . , vm es un subespacio de E. Para probarlo basta observar que obviamente 0 ∈ 〈v1, . . . , vm〉 (combina- ción lineal con todos los coeficientes cero), de modo que 〈v1, . . . , vm〉 6= ∅, y que para cualesquiera a1, . . . , am, b1, . . . , bm, c ∈ R tanto

(a1v1 + · · ·+ amvm) + (b1v1 + · · ·+ bmvm) = (a1 + b1)v1 + · · ·+ (am + bm)vm

como

c(a1v1 + · · ·+ amvm) = ca1v1 + · · ·+ camvm

son combinaciones lineales de v1, . . . , vm.

Para m = 1, 〈v1〉 es el subespacio de los múltiplos escalares de v1, an- teriormente mencionado en 1.4.5. La siguiente proposición viene a decir que 〈v1, . . . , vm〉 es el menor (respecto de la relación de inclusión) subespacio de E que contiene a v1, . . . , vm:

Proposición 1.4.8 Si E es un espacio vectorial y v1, . . . , vm ∈ E, por una parte v1, . . . , vm ∈ 〈v1, . . . , vm〉, mientras que por otra, si F es un subespacio de E y v1, . . . , vm ∈ F , entonces 〈v1, . . . , vm〉 ⊂ F .

Demostración: Esta claro que, para cualquier i = 1, . . . ,m,

vi = 0 · v1 + · · ·+ 1 · vi + · · ·+ 0 · vm

es uns combinación lineal de v1, . . . , vm y por tanto pertenece a 〈v1, . . . , vm〉. En cuanto a la segunda afirmación, cualquier v ∈ 〈v1, . . . , vm〉 es, por la definición de este último, una combinación lineal de v1, . . . , vm, y por lo tanto, debido a 1.4.1, es un elemento de F si v1, . . . , vm ∈ F . ⋄

A 〈v1, . . . , vm〉 se le llama el subespacio generado por v1, . . . , vm. La denomi- nación viene justificada por la siguiente proposición:

Proposición 1.4.9 Sean v1, . . . , vm ∈ E. El subespacio 〈v1, . . . , vm〉 está ge- nerado por v1, . . . , vm. Si v1, . . . , vm son generadores de un subespacio F ⊂ E, entonces F = 〈v1, . . . , vm〉.

Demostración: La primera afirmación se sigue directamente de la definición de 〈v1, . . . , vm〉. En cuanto a la segunda, si v1, . . . , vm son generadores de F , pertenecen a F de modo que, por 1.4.8, 〈v1, . . . , vm〉 ⊂ F , y cualquier vector de F es combinación lineal de v1, . . . , vm, de modo que F ⊂ 〈v1, . . . , vm〉, por la definición de este último. ⋄

18 CAPÍTULO 1. ESPACIOS VECTORIALES

1.5. Bases de un espacio vectorial

Un conjunto ordenado de vectores e1, . . . , en, n > 0, de un espacio vectorial E, se llama base de E si y sólo si es un conjunto de vectores independientes que generan E.

Con el fin de uniformizar ciertos resultados, convendremos en que cualquier espacio cuyo único vector sea el vector cero tiene el conjunto vaćıo como única base. En ocasiones la base vaćıa aparecerá como e1, . . . , en con n = 0.

Ejemplo 1.5.1 Los vectores

(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . .1)

forman una base de Rn, usualmente llamada la base canónica de Rn. En efecto, una igualdad

a1(1, 0, . . . , 0) + a2(0, 1, . . . , 0) + · · ·+ am(0, 0, . . . 1) = (0, 0, . . . , 0),

con a1, a2, . . . , an ∈ R, se traduce en

(a1, a2, . . . , am) = (0, 0, . . .0),

y por tanto en

a1 = 0, a2 = 0, . . . , am = 0,

por lo que los vectores son independientes. Son además generadores porque para cualquier (a1, a2, . . . , am) ∈ Rn se tiene

(a1, a2, . . . , am) = a1(1, 0, . . . , 0) + a2(0, 1, . . . , 0) + · · ·+ am(0, 0, . . . 1).

De acuerdo con 1.4.4 la definición de base se aplica sin más a los subespacios de un espacio vectorial: una base de un subespacio F 6= {0} de E es un conjunto ordenado de m > 0 vectores de F que son linealmente independientes y generan F . La única base de {0} es el conjunto vaćıo.

Según la definición, bases que consten de los mismos vectores tomados en distinto orden se considerarán distintas. En contextos más generales se definen bases formadas por infinitos vectores, en cuyo caso las bases que hemos definido aqúı se llaman bases finitas. No vamos a considerar bases infinitas, de modo que en lo que sigue base significa siempre base finita.

El resultado que figura a continuación va a ser de gran trascendencia en todo lo que sigue:

Teorema 1.5.2 Si e1, . . . , en y v1, . . . , vm son bases de un espacio vectorial E, entonces n = m.

La demostración del teorema va a necesitar los dos lemas que siguen; el segundo de ellos es en realidad la parte crucial.

1.5. BASES DE UN ESPACIO VECTORIAL 19

Lema 1.5.3 Si un sistema homogéneo de ecuaciones lineales tiene estricta- mente más incógnitas que ecuaciones, entonces tiene una solución distinta de 0, . . . , 0.

Demostración de 1.5.3: El sistema es compatible por ser homogéneo (1.2.4). Puesto que el número de ecuaciones del sistema reducido no es superior al de las del inicial, por la desigualdad de la hipótesis, el número de grados de libertad es positivo y dando valor 1 a la primera variable libre, y cero a las restantes, se tiene una solución no trivial. ⋄

Lema 1.5.4 Si un espacio vectorial E está generado por vectores e1, . . . , en, n > 0, entonces cualesquiera vectores v1, . . . , vm ∈ E con m > n forman un conjunto de vectores dependientes.

Demostración de 1.5.4: Puesto que e1, . . . , en generan E, se tendrán expre- siones

v1 = b 1 1e1 + · · ·+ b

n 1 en

...

vm = b 1 me1 + · · ·+ b

n men,

con bij ∈ R para i = 1, . . . , n, j = 1, . . . ,m. De acuerdo con la definición de vectores dependientes, buscamos a1, . . . , am ∈

R, no todos nulos, de modo que se cumpla

a1v1 + · · ·+ amvm = 0 (1.3)

o equivalentemente, usando las anteriores expresiones,

a1(b 1 1e1 + · · ·+ b

n 1 en) + · · ·+ am(b

1 me1 + · · ·+ b

n men) = 0.

Haciendo operaciones y agrupando términos, la última igualdad se escribe

(a1b 1 1 + · · ·+ amb

1 m)e1 + · · ·+ (a1b

n 1 + · · ·+ amb

n m)en = 0,

y resultará satisfecha si se cumplen

a1b 1 1 + · · ·+ amb

1 m = 0

...

a1b n 1 + · · ·+ amb

n m = 0.

(1.4)

El sistema de ecuaciones en x1, . . . , xm

b11x1 + · · ·+ b 1 mxm = 0

...

bn1x1 + · · ·+ b n mxm = 0

20 CAPÍTULO 1. ESPACIOS VECTORIALES

es homogéneo y tiene, por hipótesis, más incógnitas que ecuaciones. Por el Le- ma 1.5.3, podemos tomar como a1, . . . , am una solución del sistema distinta de 0, . . . , 0. Tales a1, . . . , am satisfacen (1.4), y por lo tanto (1.3), y no son todos cero, como se pretend́ıa. Ello prueba la dependencia lineal de v1, . . . , vm. ⋄

Final de la demostración de 1.5.2: El caso E = {0} es obvio. Suponga- mos E 6= {0} y que e1, . . . , en y v1, . . . , vm son bases de E. Si fuera n < m, como e1, . . . , em son generadores de E por ser base, el lema 1.5.4 probaŕıa que v1, . . . , vm son dependientes, contra la hipótesis de que también son base. Si n > m, el mismo argumento intercambiando los papeles de las dos bases lleva de nuevo a contradicción. La única posibilidad restante es pues n = m y la demostración está completa. ⋄

La primera consecuencia del teorema es la posibilidad de definir como sigue: Si E es un espacio vectorial y tiene base e1, . . . , en, se dice que n es la

dimensión de E, y se escribe n = dimE. En particular, la dimensión de un espacio reducido a su elemento neutro,E =

{0}, es cero. Es necesario subrayar que la definición precedente seŕıa ambigua, y por tanto inadmisible, sin el Teorema 1.5.2: en su ausencia no habŕıa garant́ıas de que tomando otra base, ésta tuviera el mismo número de elementos y diera lugar a la misma dimensión.

Los espacios vectoriales que no tienen base (finita) se llaman de dimensión infinita (porque de hecho si admiten bases con infinitos elementos). El espacio de los polinomios es un ejemplo de espacio vectorial sin base finita, por 1.3.9. En adelante no consideraremos espacios de dimensión infinita y, salvo mención expĺıcita en contra, todos los espacios vectoriales se supondrán con base finita.

De acuerdo con 1.4.4, si F es un subespacio de un espacio vectorial E y F tiene base v1, . . . , vm, tomamos dimF = m.

A continuación figuran una serie de corolarios: el primero lo es del Lema 1.5.4, y todos lo son del Teorema 1.5.2, aunque sólo sea por el hecho de que usan la noción de dimensión. Todos ellos son de uso muy frecuente.

Corolario 1.5.5 Si dimE = n, cualesquiera vectores v1, . . . , vm ∈ E con m > n son linealmente dependientes.

Demostración: Se sigue de 1.5.4, puesto que cualquier base de E es un sistema de n generadores. ⋄

Corolario 1.5.6 Cualquier conjunto de vectores independientes v1, . . . , vr de un espacio vectorial E está contenido en una base de E.

Demostración: Si el conjunto de vectores es vaćıo (r = 0) cualquier base de E lo contiene, de modo que en adelante suponenmos r > 0. Si v1, . . . , vr gene- ran E, ellos mismos forman base y no hay nada que probar. En caso contrario podemos tomar vr+1 ∈ E − 〈v1, . . . vr〉. Siendo los vectores v1, . . . , vr indepen- dientes, por 1.3.5, de ser v1, . . . , vr, vr+1 dependientes seŕıa vr+1 ∈ 〈v1, . . . vr〉 contra la elección de vr+1. Los vectores v1, . . . , vr, vr+1 son pues linealmente independientes.

1.5. BASES DE UN ESPACIO VECTORIAL 21

Se repite ahora el argumento partiendo de v1, . . . , vr, vr+1: si generan el espacio, son base y la demostración ha terminado. En caso contrario, se repite la construcción anterior para obtener vectores v1, . . . , vr, vr+1, vr+2 linealmente independientes y se repite el argumento a partir de ellos y sucesivamente.

En cada paso, o bien el conjunto de r+ i, i ≥ 0, vectores de que se parte ge- neran E, con lo que son base y concluye la demostración, o se añade al conjunto un nuevo vector dando lugar a un conjunto de r+ i+1 vectores independientes. Si no se alcanzara una base en algún paso, dándose constantemente la segunda opción, se tendŕıan conjuntos de r+ i+1 vectores independientes para i arbitra- rio, y ello contradice 1.5.5. El lector puede comprobar que de hecho el proceso concluye para i = dimE − r, pero esta ulterior precisión no es necesaria para concluir la demostración. ⋄

Es común usar 1.5.6 a traves del siguiente corolario:

Corolario 1.5.7 Si F es un subespacio de un espacio vectorial E, para cual- quier base v1, . . . , vr de F , existen vr+1, . . . , vm ∈ E de modo que v1, . . . , vr, vr+1, . . . , vm es base de E.

Demosración: Siendo v1, . . . , vr base de de F v1, . . . , vr son vectores indepen- dientes de E y basta aplicarles 1.5.6. ⋄

Acostumbra a decirse que la base v1, . . . , vr, vr+1, . . . , vm de G ha sido obte- nida como ampliación de la base v1, . . . , vr de F .

Corolario 1.5.8 (1) Si v1, . . . , vr ∈ E son vectores linealmente independien- tes, entonces r ≤ dimE

(2) Si v1, . . . , vr ∈ E son vectores linealmente independientes y r = dimE, entonces v1, . . . , vr son base de E.

Demostración: La primera afirmación se ha incluido para mayor claridad, pero es equivalente a la de 1.5.5. En cuanto a la segunda, basta observar que la base que por 1.5.6 contiene v1, . . . , vr debe tener r = dimE elementos (por 1.5.2), de manera que coincide con v1, . . . , vr, y estos últimos forman base. ⋄

Nos hemos restingido a considerar sólo espacios vectoriales con base: es nece- sario ver que sus subespacios también tienen base, en caso contrario no podŕıan ser tomados en consideración.

Corolario 1.5.9 Cualquier subespacio F de un espacio vectorial E tiene una base.

Demostración: Usaremos un argumento similar, aunque no idéntico, al de la demostración de 1.5.6, de modo que procederemos más rápidamente. Si F = {0} su base es el conjunto vaćıo. Suponiendo pues F 6= {0}, tomamos un vector no nulo v1 ∈ E. Siendo no nulo, constituye un conjunto (de un solo elemento) de vectores linealmente independientes, por 1.3.1. Supongamos pues haber obtenido vectores independientes v1, . . . , vr ∈ F , lo cual es cierto por lo menos para r = 1. Si dichos vectores generan F , forman base de F y la demostración ha

comentarios (0)
No hay comentarios
¡Escribe tú el primero!
Esta solo es una vista previa
3 páginas mostradas de 99 páginas totales
Descarga el documento