Capítulo 9: Diagonalización de matrices

Capítulo 9: Diagonalización de matrices. 1. Lección 33. Transformaciones lineales. Del mismo modo que el estudio de las funciones usuales es important...

10 downloads 285 Views 283KB Size
Capítulo 9: Diagonalización de matrices

1.

Lección 33. Transformaciones lineales

Del mismo modo que el estudio de las funciones usuales es importante para analizar las relaciones y la evolución de magnitudes escalares, es conveniente también estudiar funciones para magnitudes vectoriales; o para magnitudes cuyos valores son vectores de un espacio de más de 3 dimensiones. Las funciones más sencillas en que las variables son vectores en lugar de escalares son las transformaciones lineales. Una transformación lineal de Rn es una función f : Rn → Rn en que las variables son vectores, y que está dada por una ecuación matricial lineal [(y)] = [f (x)] = A · [x] donde A es una matriz n × n y [x] (respectivamente, [(y)]) es la matriz-columna del vector x (resp., del vector (y)). Ejemplo 1. Una transformación lineal de R3 es la    −1 3 1 2 0 · [f (x, y, z)] =  −1 3 −2 4

dada por la ecuación  x y  z

La anterior transformación lineal puede darse de forma más desarrollada como f (x, y, z) = (−x + 3y + z, −x + 2y, 3x − 2y + 4z) Por ejemplo, f (0, 1, 2) = (5, 2, 6). Algunas propiedades de las transformaciones lineales son las siguientes (en lo que sigue, f es cualquier transformación lineal, u, v vectores cualesquiera, r cualquier escalar). 1. Conservación de sumas y productos por escalares. f (u + v) = f (u) + f (v),

f (rv) = rf (v)

2. Conservación de combinaciones lineales. f (r1 v1 + · · · + rk vk ) = r1 f (v1 ) + · · · + rk f (vk )

1

1.1.

Matriz de una transformación lineal

Si f : Rn → Rn es una transformación lineal dada por la ecuación matricial [f (x)] = A · [x], entonces decimos que A es la matriz de la transformación, y escribimos A = M (f ). Para el comentario siguiente, nos centramos en el caso n = 3, aunque se pueden hacer consideraciones análogas en cualquier otro caso. Sea f : R3 → R3 una transformación lineal, y sea A = M (f ). Los vectores → − e1 = i = (1, 0, 0),

→ − e2 = j = (0, 1, 0),

→ − e3 = k = (0, 0, 1)

forman la base canónica de R3 . Si denotamos los elementos de la matriz A como los aij , entonces f (e1 ) = (a11 , a21 , a31 ),

f (e2 ) = (a12 , a22 , a32 ),

f (e3 ) = (a13 , a23 , a33 )

Es decir, la matriz A de la transformación lineal es la matriz de la sucesión de vectores f (e1 ), f (e2 ), f (e3 ). Por consiguiente, para conocer la matriz de la transformación f , basta conocer los valores f (ei ) para los vectores ei de la base canónica. Veamos algunos ejemplos en que podemos escribir la matriz de la transformación a partir de las imágenes de los vectores de la base. Ejercicio 1. Calcular la matriz de la transformación lineal que lleva cada vector del plano R2 a su simétrico con respecto al eje horizontal. La transformación lleva los puntos P, Q, R a P 0 , Q0 , R0 respectivamente. 6 rQ

rR 0 rR

r

P =P 0

r

Q0

De acuerdo con la descripción de la transformación, tendremos que (1, 0) 7→ (1, 0), puesto que los puntos del eje horizontal quedan fijos. Por otra parte, el punto (0, 1) va a su simétrico, (0, 1) 7→ (0, −1). La matriz será pues 

1 0 0 −1



Naturalmente, conocida lamatriz podemos   calcular  f (v) para  cualquier vec1 0 −2 −2 tor. Por ejemplo, f (−2, 3) = · = . 0 −1 3 −3 Luego f (v) = (−2, −3). Ejercicio 2. Calcular la matriz de la transformación lineal de R2 que lleva cada vector a su proyección en el eje vertical.

2

r6 Q=Q0 r

r

-

P0

P R0

r

rR

Se tiene que (1, 0) 7→ (0, 0) y (0, 1) → (0, 1). Por tanto la matriz será   0 0 0 1 De ese modo, tendremos f (a, b) = (0, b), para cualquier vector (a, b) ∈ R2 . Ejercicio 3. Calcular la matriz de la transformación gα del plano que consiste en girar cada vector un ángulo α en sentido positivo alrededor del origen. Q0

r r6 Q

P 0r

 



 r P

Usando la representación geométrica, se puede ver que gα (1, 0) = (cos α, sen α) y que gα (0, 1) = (−sen α, cos α). Por tanto, la matriz de la transformación será   cos α −sen α M (gα ) = sen α cos α De este modo, para cualquier vector (a, b) se tiene gα (a, b) = (acos α − bsen α, asen α + bcos α)

1.2.

Cambio de base y transformaciones lineales

Supongamos ahora que queremos hallar la matriz de la transformación de R2 que lleva cada vector a su simétrico respecto de la recta x = 2y. 6rQ r 0  R=R  P r  r  0  Q  P0 r

v2

6 KAA v =f (v 1 ) * 1   A   A  AAU f (v ) 2

Calcular los vectores f (e1 ) y f (e2 ) no es ahora tan directo como en los ejemplos anteriores. Ocurre, sin embargo, que hay otros vectores v1 , v2 que forman base y para los cuales es fácil calcular las imágenes. En efecto, tomando v1 = (2, 1) que está en la recta x = 2y, este vector queda fijo por la transformación, de modo que f (v1 ) = v1 . También el vector 3

perpendicular a dicha recta v2 = (−1, 2) cumple que f (v2 ) = −v2 , como se ve en la figura. Vamos ahora a hacer algunas consideraciones generales sobre estas situaciones, y volveremos al ejemplo más adelante. Sea f : Rn → Rn una transformación lineal y sea B = {u1 , u2 , . . . , un } una base de Rn . Para cada vector x, escribimos [x]B para indicar la matriz columna cuyos elementos son las coordenadas de x con respecto a la base B. Llamamos matriz de la transformación f respecto de la base B, MB (f ), a la matriz n × n cuyas columnas son [f (u1 )]B , [f (u2 )]B , . . . , [f (un )]B . Volviendo al ejemplo del comienzo de este apartado, se tiene que los vectores v1 , v2 forman una base B, porque la matriz de esa sucesión de vectores es   2 −1 P = 1 2 y su determinante es 6= 0. Se tiene: f (v2 ) = −v2

f (v1 ) = v1 , y además  [f (v1 )]B =



1 0

 ,

[f (v2 )]B =

0 −1



Por lo tanto,  MB (f ) =

1 0 0 −1



Sabiendo MB (f ), se puede calcular la matriz M (f ) de la transformación. Podemos ver en general de qué modo se hace esto. Sea A = M (f ) y C = MB (f ). Sea P , como antes, la matriz de la sucesión de vectores que forman la base. Como vimos en el capítulo anterior, se tiene P · [v]B = [v] Por la misma razón, se tendrá P · [f (v)]B = [f (v)] Por ser A la matriz de la transformación lineal, se tiene A · [v] = [f (v)] Esta igualdad vale también cuando tomamos la matriz de la transformación en otra base: C · [v]B = [f (v)]B Por lo tanto, tenemos P · C · [v]B = P · [f (v)]B = [f (v)] = A · [v] = A · P · [v]B Del hecho de que esta igualdad se cumple para todo v, se obtiene enseguida que P · C = A · P . 4

Escribimos esta ecuación a la que hemos llegado en forma más completa: M (f ) = P · MB (f ) · P −1

P · MB (f ) = M (f ) · P,

Volviendo al ejemplo anterior, hemos visto que     1 0 2 −1 MB (f ) = , P = 0 −1 1 2 Calculando la inversa, tenemos P

−1

1 = 5



2 −1

1 2



Luego 1 M (f ) = 5



2 −1 1 2

    1 0 2 · · 0 −1 −1

1 2



 =

3/5 4/5 4/5 −3/5



De esta manera se hace el cambio de base de la matriz de una transformación lineal.  Ejercicio 4.Sabiendo que la matriz de una transformación lineal g es 0 −2 2  −1 0 1 , calcular la matriz de g con respecto a la base B = {(1, 1, 1), (0, 1, 1), (1, 0, 1)}. −1 −2 3 La matriz de la nueva base será 

1 P = 1 1

0 1 1

 1 0  1

Si calculamos su inversa por el procedimiento visto en el capítulo anterior, tendremos   1 1 −1 0 1  P −1 =  −1 0 −1 1 Como sabemos que se tiene M (g) = P · MB (g) · P −1 , podemos despejar MB (g) para obtener MB (g) = P −1 · M (f ) · P Como conocemos las tres matrices de obtenemos  0 MB (g) =  0 0

1.3.

la derecha, hacemos su producto y  0 0 1 0  0 2

Composición de transformaciones f

g

Dos transformaciones Rn → Rn → Rn se pueden componer; y g ◦ f es una transformación lineal de Rn si f, g son transformaciones lineales. Se tiene (g ◦ f )(v) = g(f (v)).

5

Para cualquier vector v ∈ Rn se tiene entonces [g(f (v))] = M (g) · [f (v)] = M (g) · (M (f ) · [v]) Pero como debe ser [g(f (v))] = M (g ◦ f )[v] vemos que, para que esta igualdad se verifique para todo v, debe tenerse M (g ◦ f ) = M (g) · M (f ) Así, la matriz de una compuesta es igual al producto de las matrices de cada factor (en el orden indicado). Vamos a ver algún ejemplo. Ejercicio 5. Hallar la composición de dos giros en el plano. Sean gα y gβ los giros (alrededor del origen) de ángulos α, β respectivamente. Se tiene     cos α −sen α cos β −sen β M (gα ) = , M (gβ ) = sen α cos α sen β cos β Su compuesta gβ ◦ gα tendrá la matriz producto   cos βcos α − sen βsen α −cos βsen α − sen βcos α sen βcos α + cos βsen α −sen βsen α + cos βcos α Por conocidas relaciones trigonométricas, esta matriz será   cos(α + β) −sen(α + β) sen(α + β) cos(α + β) Pero esta es la matriz del giro de ángulo α + β. Luego la composición será gβ ◦ gα = gα+β Ejercicio 6. En R2 , sea g el giro de ángulo a la recta y = x. Calcular g ◦ h y h ◦ g.

π 2

y sea h la simetría con respecto

Empezaremos por escribir las matrices M (g) y M (h), viendo la acción de estas transformaciones sobre la base canónica e1 = (1, 0) y e2 = (0, 1). En primer lugar, el giro g cumplirá g(e1 ) = e2 y g(e2 ) = −e1 . En cuanto a la simetría h: =h(ı)

6 ı=h()

cumple que h(e1 ) = e2 y h(e2 ) = e1 . De esta manera, se tiene   0 −1 M (g) = , 1 0 6

 M (h) =

0 1

1 0



Haciendo los productos, tendremos 

1 0 0 −1





−1 0



M (h ◦ g) = M (h) · M (g) =

M (g ◦ h) = M (g) · M (h) =

0 1

Se puede comprobar que M (h ◦ g) coincide con la matriz de la simetría con respecto al eje horizontal (recta y = 0). De este modo, h ◦ g es la simetría con respecto al eje horizontal. Por otro lado, la matriz M (g ◦ h) coincide con la matriz de la simetría con respecto al eje vertical (recta x = 0). Luego g ◦ h es la simetría con respecto al eje vertical. En general, la compuesta en el plano de un giro (alrededor del origen) y una simetría (respecto de una recta que pasa por el origen) es una simetría. En las mismas condiciones, la composición de dos simetrías es un giro.

2. 2.1.

Lección 34. Vectores y valores propios Vectores propios

Consideremos de nuevo una simetría respecto de una recta en el plano. Sea r la recta de ecuación general mx − y = 0 y sea f la simetría respecto de esa recta. Como hemos comentado en la lección anterior, no es totalmente directo calcular las imágenes f (e1 ), f (e2 ) de los vectores de la base canónica. Sin embargo, si tomamos u1 = (1, m), vemos que ese vector tiene la dirección del eje de simetría r. Por tanto, f (u1 ) = u1 . Del mismo modo, la recta x + my = 0 es perpendicular a r. Así, el vector u2 = (m, −1) tiene dirección perpendicular al eje de simetría. Por tanto, f (u2 ) = −u2 . Estas propiedades hacen que sea fácil determinar la matriz de f respecto de la base formada por los vectores u1 , u2 . De modo más general, las transformaciones lineales pueden tener ciertas direcciones privilegiadas, de manera que los vectores en esa dirección se transforman en vectores con la misma dirección. Estos vectores, llamados vectores propios de la transformación, son importantes para describir la transformación; al mismo tiempo, esos vectores pueden proporcionar bases con respecto a las cuales la matriz de la transformación tiene una forma sencilla. Definición 1. Sea f : Rn → Rn una transformación lineal. Un vector v ∈ Rn se dice que es un vector propio para la transformación f cuando v 6= 0 y existe un número λ de manera que se tiene f (v) = λv En el ejemplo de la simetría anterior, u1 era un vector propio, porque f (u1 ) = u1 = 1 · u1 . También u2 es vector propio en esa transformación porque f (u2 ) = −u2 = −1 · u2 . 7

Si v es un vector propio para la transformación f , entonces el escalar λ que cumple la ecuación f (v) = λv está determinado por v. λ se llama el valor propio asociado a v. Una matriz cuadrada A de orden n determina una transformación lineal f tal que M (f ) = A. La condición de que un vector v 6= 0 sea un vector propio para f se puede poner en términos de la matriz A. En efecto, [f (v)] = A · [v],

f (v) = λv ⇔ A · [v] = λ[v] = (λIn ) · [v]

Por tanto, v es vector propio para f si y solo si existe un escalar λ de modo que se satisface la ecuación matricial A · [v] = (λIn )[v]. Podemos poner esta ecuación en la forma (λIn − A)[v] = 0 Sea M (f ) = A. Los vectores propios para f se llaman también vectores propios de la matriz A. Las consideraciones anteriores muestran que v 6= 0 es un vector propio de la matriz A si y solo si existe un escalar λ tal que (λIn − A)[v] = 0 donde 0 es una matriz columna nula.

2.2.

Cálculo de los vectores propios

Cuando conocemos el valor propio λ, es fácil calcular los vectores propios correspondientes a dicho valor propio, porque se trata de resolver un sistema de ecuaciones lineales (homogéneas). Ejercicio 1. Dada la matriz 

1 A =  −1 −2

2 4 2

 2 1  5

hallar los vectores propios correspondientes al valor λ = 3. Sabemos que los vectores que buscamos son los que verifican la ecuación matricial (3I3 − A)[v] = 0. Así, debemos escribir la matriz 3I3 − A.       3 0 0 1 2 2 2 −2 −2 3I3 − A =  0 3 0  −  −1 4 1  − =  1 −1 −1  0 0 3 −2 2 5 2 −2 −2 La ecuación que da los  2  1 2

vectores propios es      −2 −2 x 0 −1 −1  ·  y  =  0  −2 −2 z 0

Este es un sistema homogéneo que puede resolverse por el método general. La resolución nos conduce a la ecuación x−y −z = 0 solamente. Para cada valor de y, z obtenemos una solución, x = y + z. Aparece así un conjunto doblemente infinito (un plano) de soluciones: es el conjunto de todos los vectores directores 8

del plano x − y − z = 0. Ahora bien: para describir este conjunto basta dar dos vectores linealmente independientes de ese conjunto: todos los demás son sus combinaciones lineales. Por ejemplo, podemos tomar los vectores (1, 1, 0) y (1, 0, 1), que se obtienen tomando y = 1, z = 0 o y = 0, z = 1, respectivamente. Estos son vectores propios (con el valor propio λ = 3) y todas sus combinaciones lineales son vectores propios (excepto el vector 0; pero en adelante se sobreentenderá esta excepción). Tenemos, por tanto, esas dos maneras de describir la colección de los vectores propios (con valor propio λ): (1) son todos los del plano x − y − z = 0; y (2) son todas las combinaciones lineales de los vectores (1, 1, 0), (1, 0, 1).

2.3.

Cálculo de los valores propios

Cuando se conoce el valor propio λ, es sencillo como hemos visto hallar los vectores propios correspondientes. Sin embargo, el problema principal cuando se trata de calcular los vectores propios de una transformación lineal es hallar cuáles pueden ser los valores propios. Definición 2. Sea A una matriz cuadrada, de modo que A = M (f ) para alguna transformación lineal f . Un escalar λ se llama un valor propio para la matriz A cuando existe algún vector propio de la transformación f con valor propio λ (por ser vector propio ha de ser 6= 0). Cualquier escalar λ da lugar a una ecuación matricial (o sistema homogéneo) (λIn − A)X = 0 donde X es la matriz n × 1 de las incógnitas. Por la definición, λ es un valor propio si y solo si esa ecuación tiene alguna solución X 6= 0. El sistema de ecuaciones anterior (λIn − A)X = 0 tiene siempre la solución X = 0 (y por tanto es un sistema compatible). Esta se llama la solución trivial. Por tanto, si el sistema es compatible determinado, esa será la única solución y, en consecuencia, λ no será un valor propio. Por el contrario, si el sistema es compatible indeterminado, entonces tiene soluciones distintas de la solución trivial. Esas soluciones darán efectivamente vectores propios, y λ será un valor propio. Usamos el teorema de Rouché para dar la conclusión de la discusión anterior. El sistema homogéneo cuya matriz es λIn − A es determinado si y solo si esa matriz tiene rango n. Por tanto, λ es un valor propio si y solo si rg(λIn −A) < n. A su vez, el rango de dicha matriz es n si y solo si la matriz es regular, si y solo si su determinante es no nulo. En definitiva, tenemos: Proposición 1. λ es un valor propio de la matriz cuadrada A de orden n si y solo si |λIn − A| = 0 Puesto de otro modo: los valores propios de la matriz cuadrada A de orden n son las soluciones de la ecuación |xIn − A| = 0.

9

Definición 3. Si A es una matriz cuadrada de orden n, el desarrollo del determinante |xIn − A| es un polinomio, que se llama el polinomio característico de la matriz A. Los valores propios de la matriz A son las raíces de su polinomio característico. Ejercicio 2. Hallar los valores propios de la matriz del ejercicio 1. La matriz era



1  −1 −2

2 4 2

 2 1  5

El polinomio característico es x − 1 −2 −2 1 x−4 −1 = 2 −2 x − 5 = (x−1)(x−4)(x−5)+4+4−2(x−1)+2(x−5)+4(x−4) = x3 −10x2 +29x−20+8+4x−24 Esto nos dará pc(A) = x3 − 10x2 + 33x − 36 El problema de hallar las raíces de un polinomio no es, en general, fácil. En este caso, sin embargo, tenemos éxito buscando raíces enteras, que han de ser divisores de 36. Probando, podemos ver que 3 es una raíz y en definitiva que pc(A) = (x − 3)2 (x − 4) Luego 3, 4 son los valores propios de A. Ejercicio 3. Calcular todos los vectores propios de la matriz A del ejercicio anterior. Hemos calculado ya los valores propios. Son λ = 3 (con multiplicidad 2; es decir, (x − 3)2 es un factor del polinomio característico) y λ = 4. Hemos hallado en el ejercicio 1 los vectores propios de valor propio 3: son todos los vectores que son combinación lineal de (1, 1, 0), (1, 0, 1). Nos falta hallar los vectores propios para el valor propio 4. Sabemos que (las coordenadas de) dichos vectores son las soluciones del sistema de ecuaciones (4I3 − A)X = 0 es

Es decir, las soluciones del sistema homogéneo cuya matriz de coeficientes       4 0 0 1 2 2 3 −2 −2  0 4 0  −  −1 4 1  =  1 0 −1  0 0 4 −2 2 5 2 −2 −1

Haciendo transformaciones elementales de filas (y cambiando el orden de las indeterminadas y, z), podemos cambiar la matriz

10



1  −3 −2

 0 −1 2 2 , 2 1



 1 −1 0  −2 1 2 , −3 2 2



 1 −1 0  0 −1 2  0 −1 2

Al final, el sistema es equivalente a: x − z = 0,

−z + 2y = 0

El conjunto de soluciones es simplemente infinito, puesto que podemos darlo en función de un solo parámetro, la incógnita y, por ejemplo. Dándole el valor y = 1 a esa incógnita, obtenemos z = 2 = x. Luego el vector (2, 1, 2) es un vector propio para el valor λ = 4. Los demás vectores propios para ese valor son combinaciones lineales de dicho vector, porque solamente hay una incógnita cuyo valor se puede elegir libremente.   −5 12 Ejercicio 4. Hallar los vectores propios de la matriz A = −4 9 Hay que calcular primero el polinomio característico. x + 5 −12 = x2 − 4x − 45 + 48 = x2 − 4x + 3 4 x − 9 Los valores propios son las raíces del polinomio característico. En este caso, √ 4±2 4 ± 16 − 12 = x= 2 2 lo que da las dos raíces 1, 3. Ahora, hay que hallar los vectores propios para cada uno de esos dos valores propios. (i) Con λ = 1, calculamos la matriz λI2 − A = I2 − A. Será   6 −12 4 −8 Los vectores propios para ese valor son las soluciones del sistema de ecuaciones (I2 − A)X = 0. El sistema dado es equivalente a la ecuación x − y = 0. Esto da un conjunto simplemente infinito de soluciones, tomando y = t como parámetro. Todas ellas son combinación lineal de una solución no trivial cualquiera. Por ejemplo, podemos tomar u1 = (1, 1). Todos los vectores propios para el valor propio 1 son combinaciones de este. (ii) Ahora tomamos λ = 3. La matriz 3I2 − A será   8 −12 4 −6 El sistema de ecuaciones para calcular los vectores propios será ahora       8 −12 x 0 · = 4 −6 y 0 11

El sistema resulta equivalente ahora a la ecuación 2x − 3y = 0 El conjunto de soluciones es simplemente infinito y está formado por todos los vectores que son combinación lineal de (3, 2).

3. 3.1.

Lección 35. Diagonalización de matrices cuadradas Matrices diagonales

Además del interés que tienen por dar las direcciones invariantes de una transformación lineal, los vectores propios pueden ayudar a escribir la matriz de la transformación lineal en una forma especialmente sencilla. Una matriz cuadrada A = (aij ) se llama diagonal cuando se verifica que aij = 0 siempre que sea i 6= j. La condición indica simplemente que los elementos de la matriz que están fuera de la diagonal principal son todos nulos. Proposición 1. Si f : Rn → Rn es una transformación lineal y B es una base de Rn que está formada por vectores propios para f , entonces la matriz de f con respecto a la base B es una matriz diagonal. La razón de esta propiedad es que si B = {u1 , . . . , un } y cada vector ui es propio, entonces existen escalares λ1 , . . . , λn (iguales o distintos) de forma que f (ui ) = λi ui . Como la columna j de MB (f ) debe ser [f (uj )]B , tendremos que dicha columna j tendrá el elemento λj en el lugar j-ésimo, y 0 en todos los demás. En efecto, f (uj ) = λj uj = 0u1 + 0u2 + · · · + λj uj + · · · + 0un De ese modo, la matriz MB (f ) tiene en cada columna j al elemento λj en el lugar (j, j) de la diagonal; y ceros en los demás lugares. Luego la matriz es efectivamente diagonal. Proposición 2. Sea A una matriz cuadrada de orden n, y sea f la transformación lineal dada por esa matriz, A = M (f ). Supongamos que existe una base B de Rn formada por vectores propios de la matriz A, y sea P la matriz de los vectores de esa base. Entonces existe una matriz diagonal D tal que A = P · D · P −1 Esto se debe a que, en las condiciones de la proposición, MB (f ) es una matriz diagonal. Si llamamos D = MB (f ), entonces P · D · P −1 = M (f ) = A, por el resultado visto en la lección 33 sobre la relación entre matrices de una transformación lineal. Cuando ocurre la situación de la proposición anterior, hay básicamente una única matriz diagonal D que cumpla una ecuación de la forma A = Q · D · Q−1 , siendo Q una matriz invertible (en realidad, D no es única, pero solamente porque podemos cambiar el orden en que aparecen los elementos de la diagonal).

12

Esa matriz diagonal D se llama la diagonalización de la matriz A, o la forma diagonal de A. La matriz Q que cumple la ecuación A = Q·D ·Q−1 es invertible, y se llama una matriz de paso de la diagonalización. La matriz de paso no está unívocamente determinada por A. Una matriz cuadrada puede tener una diagonalización o no. Las matrices cuadradas que tienen una diagonalización se llaman matrices diagonalizables. Proposición 3. Una matriz cuadrada A de orden n es diagonalizable si y solo si existe una base de Rn que está formada por vectores propios para la matriz A. La manera de determinar si una matriz es diagonalizable es calcular todos sus vectores propios y encontrar si se puede construir una base formada por vectores propios. La condición necesaria y suficiente para que la matriz A sea diagonalizable es que el polinomio característico no tenga raíces complejas no reales; y que para cada valor propio λ cuya multiplicidad como raíz del polinomio característico sea k ≥ 2, existan k vectores propios linealmente independientes asociados al valor propio λ. Encontrar, si existe, la forma diagonal D de una matriz A se llama diagonalizar la matriz A. El método para intentar diagonalizar una matriz cuadrada A es: 1. Hallar el polinomio característico pc(A). 2. Resolver la ecuación pc(A) = 0 y hallar las raíces. Dichas raíces son los valores propios de la matriz. Si el polinomio tiene raíces no reales, entonces la matriz no es diagonalizable. 3. Para cada valor propio λ, hallar los vectores propios asociados, resolviendo el correspondiente sistema de ecuaciones. Las soluciones del sistema estarán dadas en función de k parámetros t1 , . . . , tk . Por otra parte, la multiplicidad de la raíz λ en el polinomio característico (esto es, el exponente de (x − λ) en la factorización del polinomio característico) será un cierto entero m. Siempre se verifica k ≤ m. Si k < m para alguno de los valores propios λ, entonces la matriz no es diagonalizable. 4. Si k = m, podemos dar a los parámetros t1 , . . . , tk sucesivamente los valores (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1). Se obtienen así m vectores propios para el valor propio λ que son linealmente independientes. Si esto ocurre para cada λ, la matriz es diagonalizable, y todos los vectores propios obtenidos dan una base de vectores propios. 5. Escribimos entonces la matriz de paso P que será la matriz de la base B formada por vectores propios. 6. La diagonalización de A es la matriz diagonal D en cuya diagonal figuran los valores propios en el orden correspondiente al orden en que hemos escrito los vectores de B (es decir, el primer elemento de D es el valor

13

propio del primer vector u1 de la base B; el segundo es el valor propio del segundo vector u2 de la base, etc). 7. Se puede comprobar la corrección del resultado calculando los productos A · P y P · D y comprobando que A · P = P · D (esta igualdad equivale a la igualdad A = P · D · P −1 ).  Ejercicio 1. Diagonalizar la matriz

3 1

1 3

 si es posible, y hallar en su

caso la matriz de paso. Calculamos el polinomio característico: x − 3 −1 = x2 − 6x + 9 − 1 = x2 − 6x + 8 −1 x − 3 Ahora, hallamos sus raíces que serán los valores propios. √ 6 ± 36 − 32 6±2 x= = 2 2 De este modo, vemos que los valores propios son 4 y 2. Ahora debemos calcular los vectores propios para cada uno de los valores propios. (i) λ = 2. La ecuación será       −1 −1 x 0 · = −1 −1 y 0 Esto da el sistema x + y = 0,

x = −t,

y=t

El conjunto de soluciones está formado por todos los vectores que son combinación lineal de u1 = (1, −1). (ii) Buscamos ahora los vectores propios para el valor propio λ = 4. La ecuación matricial será       1 −1 x 0 · = −1 1 y 0 El sistema de ecuaciones es x − y = 0,

x = t,

y=t

De este modo, los vectores propios correspondientes a λ = 4 son las combinaciones lineales de u2 = (1, 1). Existe una base de vectores propios que es B = {(1, −1), (1, 1)}. La matriz de esa base es la matriz de paso   1 1 P = −1 1 14

En cuanto a la forma diagonal, contiene los valores propios en la diagonal principal, en el mismo orden que los hemos considerado en la matriz de paso:   2 0 D= 0 4 Finalmente, podemos comprobar la solución viendo que AP = P D.       3 1 1 1 2 4 AP = · = 1 3 −1 1 −2 4       1 1 2 0 2 4 PD = · = −1 1 0 4 −2 4 La igualdad se cumple, de forma que la diagonalización es correcta. Ejercicio 2. Diagonalizar la matriz   8 −2 6  3 1 3  −9 3 −7 El polinomio característico es x − 8 2 −6 −3 x−1 −3 = (x + 7)(x − 1)(x − 8) − 108 − 9(x − 8)+ 9 −3 x + 7 +6(x + 7) + 54(x − 1) = (x3 − 2x2 − 55x + 56) − 162 + 72 + 42 + 51x = = x3 − 2x2 − 4x + 8 = (x − 2)2 (x + 2) Vemos de este modo que hay dos valores propios: λ = −2 que es simple, y λ = 2, que es doble (tiene multiplicidad 2.) Debemos calcular los vectores propios para cada valor propio. Empezamos por el valor doble, porque así se decidirá si la matriz es o no diagonalizable. La ecuación matricial es (para λ = 2)       0 x −6 2 −6  −3 1 −3  ·  y  =  0  z 0 9 −3 9 Se puede resolver este sistema homogéneo transformando la matriz de los coeficientes mediante operaciones elementales, como de costumbre:       6 −2 6 3 −1 3 3 −1 3  3 −1 3  ,  6 −2 6  ,  0 0 0  9 −3 9 9 −3 9 0 0 0 Aunque la matriz no está en forma escalonada simple, podemos resolverlo ya, porque vemos que equivale a la ecuación 3x − y + 3z = 0 15

que es la ecuación de un plano. Las incógnitas y, z pueden tomar cualquier valor, de forma que el conjunto de soluciones puede darse como x=

u − v, 3

y = u,

z=v

Así, el conjunto de soluciones está formado por las combinaciones lineales de los vectores (0, 3, 1), (1, 0, −1). Hemos obtenido esos vectores con los valores de los parámetros u = 3, v = 1 y u = 0, v = −1, respectivamente. En definitiva, los vectores propios para el valor propio 2 son las combinaciones lineales de: (0, 3, 1) y (1, 0, −1). Estudiamos ahora los vectores propios para el valor propio −2. La ecuación matricial es       −10 2 −6 x 0  −3 −3 −3  ·  y  =  0  9 −3 5 z 0 Hacemos las transformaciones elementales sobre la matriz del sistema       1 1 1 1 1 1 10 −2 6  3 3 3  ,  10 −2 6  ,  0 −12 −4  9 −3 5 0 −12 −4 9 −3 5 

1  0 0

1 12 0

 1 4 , 0



1  0 0

1 3 0

 1 1  0

El sistema se puede resolver ya. La incógnita z puede tomar cualquier valor, y tenemos que el sistema es equivalente a x + y = −z,

3y = −z

Tomando z = t, obtenemos las soluciones como z = t,

t y=− , 3

x=−

2t 3

Dando un valor no nulo a t, tendremos (por ejemplo, para t = −3), el vector propio (2, 1, −3). Hemos obtenido por tanto una base de vectores propios: (2, 1, −3), (0, 3, 1), (1, 0, −1). El primer vector es el de valor propio −2, los otros tienen valor propio 2. La matriz de paso es la matriz de los que acabamos de encontrar.  2 P = 1 −3

16

vectores de la base de vectores propios  0 1 3 0  1 −1

La diagonalización es la matriz 

−2 D= 0 0

0 2 0

 0 0  2

Comprobamos la igualdad AP = P D. 

  8 −2 6 2 1 3 · 1 AP =  3 −9 3 −7 −3 

2  1 −3

  0 1 −2 3 0 · 0 1 −1 0

0 2 0

  0 1 −4 3 0  =  −2 1 −1 6   0 −4 0  =  −2 2 6

 0 2 6 0  2 −2

 0 2 6 0  2 −2

El resultado es correcto. Ejercicio 3. Diagonalizar si es posible la matriz siguiente, dando en su caso la matriz de paso.   1 2 −1 0 1  A= 0 0 −2 3 Hallamos el polinomio característico x − 1 −2 1 0 x −1 = (x − 1)(x − 3)x + 2(x − 1) = 0 2 x − 3 (x − 1)(x2 − 3x + 2) Hay un valor propio λ = 1. Además, están las raíces del factor de segundo grado: √ 3±1 3± 9−8 = x= 2 2 En definitiva, el polinomio característico dará pc(A) = (x − 1)2 (x − 2) El valor propio λ = 1 tiene multiplicidad 2. Buscamos sus vectores propios.       0 −2 1 x 0  0 1 −1  ·  y  =  0  0 2 −2 z 0 Resolviendo el sistema de ecuaciones (y cambiando el orden de las incógnitas al orden y, z, x), obtenemos como matriz       1 0 0 1 −1 0 1 −1 0  −2 1 0  ,  0 −1 0  ,  0 1 0  2 −2 0 0 0 0 0 0 0

17

Tomando x = t, el sistema equivale a x = t,

z = 0,

y=0

Los vectores propios para λ = 1 son las combinaciones lineales de (1, 0, 0). Como solamente hay un vector propio linealmente independiente, y la multiplicidad de la raíz es 2, la matriz no es diagonalizable.

4.

Lección 36. Diagonalización ortogonal de matrices simétricas

4.1.

Potencias de matrices

En muchas ocasiones, es conveniente conocer el resultado de aplicar repetidamente una transformación lineal f . Es decir, interesa conocer las transformaciones f ◦ f = f 2 , f ◦ f 2 = f 3 , etc. Como toda transformación lineal f está descrita por una matriz cuadrada A = M (f ), el problema es equivalente al de calcular las potencias de una matriz cuadrada A: A2 , A3 , . . . , An . El problema, teóricamente fácil, puede ser muy trabajoso en la práctica. Sin embargo, hay una situación en que el problema es fácilmente manejable: cuando A es una matriz diagonal. En efecto: supongamos que D es una matriz diagonal, que escribiremos como D = diag(d1 , d2 , . . . , dn ), indicando así que d1 , d2 , . . . , dn son los elementos que aparecen en la diagonal principal de la matriz (el resto de elementos de la matriz es 0). Escribiendo las matrices, no es difícil convencerse de que las potencias de matrices diagonales siguen siendo diagonales. Concretamente, D2 = diag(d21 , d22 , . . . , d2n ),

Dk = diag(dk1 , dk2 , . . . , dkn )

De este modo, el cálculo de la potencia Dk de una matriz diagonal se reduce al cálculo de las potencias de los números que son los elementos de la diagonal; un cálculo mucho más fácil y rápido que el de las potencias de matrices arbitrarias. Si A es una matriz diagonalizable, también las potencias de A son bastante fáciles de calcular. Sea A diagonalizable, con forma diagonal D y matriz de paso P . Sabemos entonces que A = P · D · P −1 Se deduce de aquí que Ak = (P DP −1 )k = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = = P D(P −1 P )D(P −1 P )D · · · (P −1 P )DP −1

18

Como cada matriz P −1 P = In , y los productos In · X = X, para cualquier matriz X, observamos por la ecuación anterior que Ak = P Dk P −1 y el cálculo de la potencia queda reducido al de la potencia de una matriz diagonal, más el de la matriz inversa P −1 y los dos productos indicados. Ejercicio 1. Dada la matriz A siguiente, y los vectores de R2 : u, v, w, se considera la transformación lineal de R2 definida por A. Si aplicamos esta transformación reiteradamente, comenzando por el vector u, ¿qué vector se obtiene tras cuatro iteraciones? ¿Se llegará tras algún número de iteraciones a obtener el vector v? ¿y el vector w?  A=

−1 −3

2 4

 ,

u = (1, 2),

v = (511, 767),

w = (1023, 1531)

El primer paso debe ser diagonalizar la matriz A, siguiendo el método indicado en la lección anterior. Se obtiene que la forma diagonal D y la matriz de paso P son:     1 0 1 2 D= , P = 0 2 1 3 Debemos hallar también la inversa de P . Se tiene   3 −2 −1 P = −1 1 De este modo, estamos en condiciones de dar la  expresión general para la 1 0 k k matriz A , teniendo en cuenta que D = : 0 2k       1 0 1 2 3 −2 k k −1 A =P ·D ·P = · · = 1 3 −1 1 0 2k   3 − 2k+1 2k+1 − 2 = 3 − 3 · 2k 3 · 2k − 2 Podemos responder ahora a las preguntas planteadas. Es más práctico indicar primero la expresión general de Ak · [u] = [f k (u)].     3 − 2k+1 2k+1 − 2 1 k A · [u] = · = 2 3 − 3 · 2k 3 · 2k − 2  k+2   k+1  2 −1 2 − 2k+1 − 1 = = 3 · 2k − 1 3(2k+1 − 2k ) − 1 De este modo, para k = 4, tenemos f 4 (u) = (31, 47) En cuanto a las dos últimas preguntas, la condición de que se alcance el vector v en alguna iteración equivale a saber si existe algún k con la propiedad Ak · [u] = [v] 19

Es decir: 

2k+1 − 1 3 · 2k − 1



 =

511 767



Este es un sistema de ecuaciones (no lineales): 2k+1 = 512,

3 · 2k = 768

512 La segunda ecuación es 2k = 768 3 = 256 = 2 . Luego si k cumple la primera ecuación, cumple la segunda. Será entonces k = log2 256 = log2 28 = 8. Luego f 8 (u) = v.

Finalmente, la condición para w será  k+1    2 −1 1023 = 1531 3 · 2k − 1 El sistema de ecuaciones es 2k+1 = 1024,

2k =

1532 3

Pero 2 · 1532 3 6= 512. Luego el sistema no es compatible, y w no se alcanza en ninguna iteración.

4.2.

Bases ortogonales y ortonormales

Una base, formada por los vectores u1 , u2 , . . . , un , de Rn se dice que es ortogonal cuando se tiene ui ⊥uj para cada par de índices i 6= j. Sea P la matriz de la sucesión de vectores que forman una base B. Así, la columna j de P contiene las coordenadas del vector uj . Si consideramos la matriz traspuesta P t , tendremos que la fila i de P t contiene las coordenadas del vector ui (ya que es la columna i de P ). Por esta razón, la condición de que la base B sea ortogonal se puede expresar en términos de la matriz P de los vectores de dicha base: B es una base ortogonal si y solo si la matriz producto P t · P es diagonal. En efecto: el elemento de lugar (i, j) en el producto se obtiene multiplicando la fila i de P t por la columna j de P ; pero ese elemento no es entonces sino el producto escalar ui · uj . Luego estos elementos de la matriz P t · P son nulos si y solo si ui ⊥uj para todo par de vectores distintos de la base B; es decir, si y solo si la base B es ortogonal. Una base ortogonal se dice que es ortonormal cuando cada vector ui de dicha base es unitario (e.d., su módulo es 1). Si B es una base ortogonal y P es la matriz de los vectores de dicha base, entonces la condición de que la base sea ortonormal, puesta en términos de esa matriz, equivale a la de que P t · P = In . En efecto: la condición de ortonormalidad equivale a la de que los productos ui · ui den el valor 1; como ese será el elemento que figura en el lugar i-ésimo de la diagonal de P t · P , y los elementos son nulos fuera de la diagonal, resulta 20

que la base es ortonormal si y solo si la matriz P t P tiene unos en la diagonal principal; esto es, si y solo si es la matriz identidad. Con cierta inconsecuencia, las matrices cuadradas P de orden n, que cumplen que P t · P = In se llaman ortogonales. Por tanto, B es una base ortonormal si y solo si la matriz de los vectores de B es ortogonal.

4.3.

Matrices simétricas

Recordemos que una matriz cuadrada A se llama simétrica si A = At . Las matrices simétricas tienen la siguiente propiedad importante. Teorema. Toda matriz simétrica es diagonalizable. Además, puede elegirse una matriz de paso que sea ortogonal. Veremos algunos ejemplos para indicar el método para encontrar la forma diagonal de una matriz simétrica, y hallar una matriz de paso ortogonal. Este proceso se llama de diagonalización ortogonal. Describimos primero el proceso, en lo que tiene de diferente del proceso de diagonalización ya estudiado. Esta diferencia se halla solamente en la manera de escoger los vectores propios que forman la base que determina la matriz de paso. Lo veremos en dos fases. En primer lugar, veremos cómo escoger una base formada por vectores ortogonales. Una vez conseguido esto, sustituiremos cada vector ui de esa base por el correspondiente vector unitario |u1i | ui . De este modo, la base así formada será una base ortonormal. La primera fase es la más importante, ya que la segunda consiste en calcular el vector unitario correspondiente a cada vector de la base. Respecto a la manera de obtener una base ortogonal, hay que tener en cuenta que vectores correspondientes a valores propios distintos son ortogonales; de modo que lo único que hace falta es, para cada valor propio λ, elegir vectores propios para dicho valor, que sean linealmente independientes y ortogonales entre sí. Supongamos que hemos calculado todos los vectores propios para un cierto valor propio λ. Supongamos que todos esos vectores propios son combinación lineal de los vectores linealmente independientes u1 , u2 , u3 , por ejemplo. Entonces, u01 = u1 será el primer vector que escojamos para la nueva base. Después, buscamos un vector que sea combinación lineal de u1 , u2 , pero que sea además ortogonal a u1 . Para ello, elegimos u02 por las condiciones u02 = u2 − xu1 ,

u1 · u02 = 0

Esas condiciones dan una solución única para x; por tanto, determinan el vector u02 . Calculados así u01 , u02 , queremos hallar u03 . Como antes, buscamos un vector que sea combinación lineal de u1 , u2 , u3 y que sea ortogonal a u1 y u2 (esto implicará que es ortogonal a u01 , u02 ). Para ello, ponemos u03 = u3 − xu1 − yu2 ,

u1 · u03 = 0, 21

u2 · u03 = 0

De este modo, obtenemos los coeficientes x, y, y el nuevo vector u03 . Ejercicio 2. Diagonalizar ortogonalmente la matriz simétrica   3 0 −1  0 2 0  −1 0 3 Hacemos el proceso de diagonalización normal hasta encontrar una base de vectores propios. El polinomio característico es x − 3 0 1 0 x−2 0 = (x − 3)2 (x − 2) − (x − 2) = (x − 2)((x − 3)2 − 1) 1 0 x − 3 Un valor propio es x = 2. Los demás son las raíces del polinomio x2 − 6x + 8: son 2, 4. Así, 2 es un valor propio doble, 4 es simple. Hallamos los vectores propios para cada valor propio. Para el valor simple λ = 4, tendremos solamente un vector propio linealmente independiente. El sistema de ecuaciones obtenido para λ = 4 es x + z = 0,

2y = 0,

x+z =0

Esto equivale al sistema x + z = 0,

y=0

z puede tomar cualquier valor, de manera que el conjunto de soluciones es x = −t,

y = 0,

z=t

Obtenemos así el primer vector de la base de vectores propios: (1, 0, −1). El otro valor propio es λ = 2. El sistema de ecuaciones es −x + z = 0,

x−z =0

0 = 0,

El sistema equivale a la única ecuación x − z = 0. Tomamos y, z como parámetros, y el conjunto de soluciones es x = v,

y = u,

z=v

Un par de vectores propios linealmente independientes se puede obtener tomando, por ejemplo, (1, 0, 1) y (0, 1, 0). Estos vectores son ya ortogonales, por lo que no tenemos necesidad de aplicar el cambio del segundo vector descrito arriba. Pero supongamos que hubiésemos elegido los dos vectores como (1, 0, 1) y (1, 1, 1), que no son ortogonales. Entonces tomamos u1 = (1, 0, 1)

22

u2 debe verificar las condiciones u2 = (1, 1, 1) − x(1, 0, 1),

(1, 0, 1) · u2 = 0

Desarrollamos y resolvemos esas ecuaciones: u2 = (1 − x, 1, 1 − x),

(1, 0, 1) · (1 − x, 1, 1 − x) = (1 − x) + (1 − x) = 2 − 2x = 0

Luego debe ser 2x = 2 y x = 1. Por tanto, u2 = (0, 1, 0). Tenemos ya, pues, una base ortogonal de vectores propios: (1, 0, −1), (1, 0, 1), (0, 1, 0). Para obtener una base ortonormal, normalizamos cada uno de estos vectores (es decir, calculamos el vector unitario correspondiente, dividiendo por el módulo): √ √ 1 2 2 v1 = √ (1, 0, −1) = ( , 0, − ) 2 2 2 √ √ 1 2 2 , 0, ), v3 = (0, 1, 0) v2 = √ (1, 0, 1) = ( 2 2 2 Podemos ya escribir la matriz de paso P , que será una matriz ortogonal  √  √ 2 2 0 2 2   P =  √0 √0 1  2 0 − 22 2 La forma diagonal es la matriz 

4  0 0

0 2 0

 0 0  2

Ejercicio 3. Diagonalizar ortogonalmente la matriz   3 1 1 M = 1 3 1  1 1 3 Calculamos el polinomio característico x − 3 −1 −1 −1 x−3 −1 = (x − 3)3 − 2 − 3(x − 3) = −1 −1 x − 3 = x3 − 9x2 + 27x − 27 + 7 − 3x = x3 − 9x2 + 24x − 20 Se puede observar que el polinomio tiene la raíz x = 2. Dividiendo, pc(M ) = x3 − 9x2 + 24x − 20 = (x − 2)(x2 − 7x + 10) Para descomponer el segundo factor, hallamos sus raíces √ 7±3 7 ± 49 − 40 = x= 2 2 23

Así pues, las raíces son 5, 2, y obtenemos la factorización del polinomio característico pc(M ) = (x − 2)2 (x − 5) El valor propio λ = 2 es doble; y el valor propio λ = 5 es simple. Así, el conjunto de vectores propios para el valor propio 2 se expresará en términos de dos parámetros; y el de vectores propios para el valor 5 estará dado en términos de un parámetro. Pasamos a calcular los vectores propios. Para λ matricial      1 1 1 x  1 1 1 · y = 1 1 1 z

= 2 obtenemos la ecuación  0 0  0

El sistema equivale a la única ecuación x + y + z = 0. Podemos tomar y, z como parámetros, y obtenemos las soluciones x = −u − v,

y = u,

z=v

Dando valores (1, 0) y (0, 1) a los parámetros obtenemos dos vectores propios linealmente independientes para el valor propio λ = 2: (−1, 1, 0),

(−1, 0, 1)

Pasamos al valor propio λ = 5 y seguimos el mismo procedimiento.       2 −1 −1 x 0  −1 2 −1  ·  y  =  0  −1 −1 2 z 0 Transformando la matriz del sistema, obtenemos      1 1 1 −2 1 1 −2  1 −2 3 ,  0 1  ,  0 −3 0 −3 3 0 2 −1 −1

 1 −2 1 −1  0 0

y finalmente llegamos a la matriz 

 1 0 −1  0 1 −1  0 0 0

Tomamos z = t como parámetro, y el sistema nos dará x = t,

y = t,

z=t

Dando a t el valor t = 1, tenemos el vector propio (1, 1, 1). La base de vectores propios obtenida es así (−1, 1, 0), (−1, 0, 1), (1, 1, 1) Para obtener una base ortogonal, debemos cambiar los vectores correspondientes al valor propio λ = 2, que es doble. Sea 24

u1 = (−1, 1, 0),

u2 = (−1, 0, 1)

Entonces u01 = u1 = (−1, 1, 0). Para el segundo, ponemos u02 = u2 − xu1 = (−1, 0, 1) − (−x, x, 0) = (x − 1, −x, 1) Ahora, debemos hallar x para que los vectores u1 , u02 sean ortogonales: −(x − 1) − x = 0,

1 − 2x = 0,

2x = 1,

x=

1 2

De este modo, obtenemos una base con vectores ortogonales: (−1, 1, 0),

1 1 (− , − , 1), 2 2

(1, 1, 1)

Finalmente, debemos normalizar los tres vectores, dividiendo por su módulo, para obtener una base ortonormal. √ 2 1 1 1 1 √ (−1, 1, 0), √ (− , − , 1), √ (1, 1, 1) 2 3 2 2 3 Esto nos da la base ortonormal con vectores propios que se necesita: √ √ √ √ √ √ √ √ 2 2 6 6 6 3 3 3 , , 0), (− ,− , ), ( , , ) (− 2 2 6 6 3 3 3 3 La matriz de paso ortogonal P y la  √ √ √ − √22 − √66 √33  2 P = − √66 √33 2 6 3 0 3 3

forma diagonal D son:    2 0 0  , D =  0 2 0  0 0 5

Se puede comprobar para terminar, la ecuación M P = P D, haciendo los productos de matrices indicados.

5.

Ejercicios

1. Calcular la matriz de la transformación lineal de R2 que lleva cada vector a su proyección ortogonal sobre la bisectriz del segundo cuadrante x + y = 0 −−→ −−→ (es decir, transforma cada vector v = OX en el vector OY donde Y es el punto de corte de la recta dada con la perpendicular a dicha recta que pasa por el punto X; O es el origen de coordenadas) 2. Consideramos los siguientes vectores de R3 : v1 = (1, −1, 1),

v2 = (2, 0, 1),

v3 = (0, 1, −1),

v = (1, 2, −3)

Probar que los tres primeros vectores forman una base B, y calcular la matriz de la transformación lineal f que cumple f (v1 ) = 0,

f (v2 ) = v1 , 25

f (v3 ) = v

3. Dar las ecuaciones de la simetría de R2 con respecto a la recta de ecuación ax + by = 0. Obsérvese que pueden elegirse los coeficientes a, b de forma que a2+ b2 = 1, ydemuéstrese que la matriz de dicha simetría es de la A B forma , con determinante −1. B −A 4. Demostrar que si f es una transformación lineal de R2 con una matriz   a b −b a y con determinante 1, entonces f es un giro alrededor del origen de coordenadas. 5. Demostrar que la composición de dos simetrías respecto de rectas que pasan por el origen es igual a un giro alrededor del origen. 6. Probar que si una transformación lineal f : Rn → Rn está dada por la matriz cuadrada A (esto es, A = M (f )) y A tiene una matriz inversa A−1 , entonces la transformación g : Rn → Rn cuya matriz es A−1 es inversa de f (es decir, g(f (v)) = f (g(v)) = v) para cada vector v ∈ Rn ). 7. Para cada una de las dos transformaciones que siguen, ver si tiene inversa, y calcular la inversa cuando exista. (i) f (x, y, z) = (2x + 4y − 2z, 3x + y + 2z, 2y − x − 3z) (ii) g(x, y, z) = (2x + z, x + 2y + z, y − 2x − z) 8. Calcular los valores propios de la matriz   1 −1 1 −1  0 1 0 0     0 0 1 0  1 0 0 −1 9. Hallar todos los vectores propios de la matriz anterior. 10. Calcular todos los vectores propios  −1  6 0

de la matriz  0 2 1 6  0 1

11. Decir cuáles de las siguientes matrices son diagonalizables; y dar su forma diagonal y la matriz de paso cuando lo sean. 

 1 0 0  0 −1 1 , 0 0 −1

26



 5 −3 2  6 −4 4  4 −4 5

12. Misma pregunta para las  1  0 0

matrices  4 −4 1 0 , 4 −3



2 3 2 −1



13. Decir cuáles de las siguientes matrices son diagonalizables; y dar su forma diagonal y la matriz de paso cuando lo sean. 

   0 1 0 −9 4  −4 4 0  , −25 11 −2 1 2   6 2 14. Dada la matriz A = , hallar una matriz B tal que B 2 = A. 3 7 15. Diagonalizar la matriz  1 1 1 1  0 1 1 −1     0 0 −1 2  0 0 0 1 

16. Calcular las matrices A7 y B 10 , para las matrices siguientes.  A=

−5 −4

12 9



1 B= 0 −1

 ,

17. Diagonalizar ortogonalmente la matriz simétrica   2 0 −1  0 3 0  −1 0 2 18. Diagonalizar ortogonalmente la matriz  −1 0  0 1 0 1

27

simétrica  0 1  1

 0 −1 1 0  0 1