$ \rm A \in M_{n}(\mathbb{R}) \qquad A: \begin{pmatrix} λ_{11} & \dotso & λ_{\rm n1} \\ \vdots & & \vdots \\ λ_{\rm 1n} & \dotso & λ_{\rm nn} \end{pmatrix} $
$ λ_{\rm ij} \: \left\lvert \: \begin{array}{l} \rm i \leftarrow \text{columna} \\ \rm j \leftarrow \text{fila} \end{array} \right. $
Se dirá que $\rm A$ es invertible si existe $\rm B \in M_{n}(\mathbb{R})$ tal que:
$ \rm A \cdot B = B \cdot A = Id = \begin{pmatrix} 1 && \LARGE 0 \\ & \ddots & \\ \LARGE 0 && 1 \end{pmatrix} \qquad \begin{array}{l} \rm B = A^{-1} \\ \rm A = B^{-1} \end{array} $
$\bullet \: \rm A \in M_{1}(\mathbb{R}) \quad A = (λ)$
$\hphantom{\bullet \:} \rm A \rightarrow$ invertible $\Leftrightarrow λ \neq 0$
$\hphantom{\bullet \:} \rm A^{-1} = (λ^{-1})$
Ejemplo:
$ \rm A = \begin{pmatrix} 1 & 4 \\ 3 & 2 \end{pmatrix} \in M_{2}(\mathbb{R}) $
$ \rm A^{-1} = \begin{pmatrix} -\dfrac{2}{10} & \dfrac{4}{10} \\[1ex] \dfrac{3}{10} & -\dfrac{1}{10} \end{pmatrix} $
$ \rm A \cdot A^{-1} = \begin{pmatrix} 1 & 4 \\ 3 & 2 \end{pmatrix} \begin{pmatrix} -\dfrac{2}{10} & \dfrac{4}{10} \\[1ex] \dfrac{3}{10} & -\dfrac{1}{10} \end{pmatrix} = \begin{pmatrix} -\dfrac{2}{10} + \dfrac{12}{10} & \dfrac{4}{10} - \dfrac{4}{10} \\[1ex] -\dfrac{6}{10} + \dfrac{6}{10} & \dfrac{12}{10} - \dfrac{2}{10} \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} $
Ejemplo:
$ \begin{gather} \rm \underset{ \displaystyle \strut A \in M_{3}(\mathbb{R}) }{ A = \begin{pmatrix} 1 & -1 & 1 \\ 0 & 1 & 1 \\ 1 & 0 & 1 \end{pmatrix} } \qquad A^{-1} = \begin{pmatrix} -1 & -1 & 2 \\ -1 & 0 & 1 \\ 1 & 1 & -1 \end{pmatrix} \\[1em] \rm A \cdot A^{-1} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \end{gather} $
• Observaciones:
- La inversa si existe es única.
- Si $\rm A \cdot B = Id \Rightarrow B \cdot A = Id$
-
$\rm A \cdot B = Id$
$\rm \det(A \cdot B) = \det(A) \cdot \det(B) = \det(Id) = 1$
Por tanto:
$\rm \det(A^{-1}) = 1 \mathbin{/} \det(A) \mathrel{;} \det(A) \neq 0$
Entonces:
$\rm A$ es invertible $\Leftrightarrow \det({\rm A}) \neq 0$
Ejemplo:
$ \rm A = \begin{pmatrix} 1 & -2 \\ 2 & -4 \end{pmatrix} \mathrel{;} \det(A) = 1 \cdot (-4) - 2 \cdot (-2) = 0 \Rightarrow A $ no es invertible.
• Método de trabajo:
$ \rm A = \begin{pmatrix} 1 & 4 \\ 3 & 2 \end{pmatrix} $
$\rm \det(A) = 2 - 12 = -10 \Rightarrow det(A) \neq 0 \Rightarrow A$ es invertible.
1º. Transponer:
$ \rightarrow \begin{pmatrix} 1 & 3 \\ 4 & 2 \end{pmatrix} $
2º. Adjuntos:
$ \rightarrow \begin{pmatrix} 2 & -4 \\ -3 & 1 \end{pmatrix} $
3º. Dividir por $\rm \det(A)$:
$ \rightarrow \begin{pmatrix} -\dfrac{2}{10} & \dfrac{4}{10} \\[1ex] \dfrac{3}{10} & -\dfrac{1}{10} \end{pmatrix} $
Entonces:
$ \DeclareMathOperator{\adj}{Adj} \boxed{\rm A^{-1} =\dfrac{\adj(A^t)}{\det(A)}} $
Ejemplo:
$ \rm A = \begin{pmatrix} 1 & -1 & 1 \\ 0 & 1 & 1 \\ 1 & 0 & 1 \end{pmatrix} \qquad \det(A) = -1 \neq 0 $
$ \xrightarrow[]{\smash[b]{\text{transp.}}} \begin{pmatrix} 1 & 0 & 1 \\ -1 & 1 & 0 \\ 1 & 1 & 1 \end{pmatrix} \xrightarrow[]{\smash[b]{\text{adjuntos}}} \begin{pmatrix} 1 & 1 & -2 \\ 1 & 0 & -1 \\ -1 & -1 & 1 \end{pmatrix} \xrightarrow[]{\smash[b]{\text{div. det.}}} \begin{pmatrix} -1 & -1 & 2 \\ -1 & 0 & 1 \\ 1 & 1 & -1 \end{pmatrix} $
$\ast$ Definición:
$\rm A, B \in M_{n}(\mathbb{R})$
$\rm A$ y $\rm B$ son equivalentes si $\rm \exists \: C \in M_{n}(\mathbb{R})$, invertible, tal que $\rm A = C \cdot B \cdot C^{-1}$ $\mathrel{;}$ $\rm (B = C^{-1} \! \cdot A \cdot C)$.
• $\rm A, B \in M_{1}(\mathbb{R}) \rightarrow A$ y $\rm B$ son equivalentes si $\rm A = B$, pero si $\rm n \geq 2$ no.
• $ \begin{aligned}[t] \rm \det(A) &= \rm \det(C \cdot B \cdot C^{-1}) = \det(C) \cdot \det(B) \cdot \det(C^{-1}) = \\[1ex] &\rm = \det(C) \cdot (1 \mathbin{/} \det(C)) \cdot \det(B) = \det(B) \end{aligned} $
Consecuencias:
$\rm A$ y $\rm B$ eq. $ \DeclareMathOperator{\rg}{rg} \Rightarrow \begin{array}[t]{l} 1.\: \rm A \smash{\text{ invertible}} \Leftrightarrow B \smash{\text{ invertible.}} \\[1ex] 2.\: \rm \rg(A) = \rg(B) \quad (\rg \equiv \smash{\text{rango}}) \end{array} $
Ejemplo:
$ \rm A = \begin{pmatrix} 2 & -1 \\ 0 & 3 \end{pmatrix} \qquad B = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix} = \underset{ \displaystyle \begin{gathered} \uparrow \\ \rm C^{-1} \end{gathered} }{ \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} } \begin{pmatrix} 2 & -1 \\ 0 & 3 \end{pmatrix} \underset{ \displaystyle \begin{gathered} \uparrow \\ \rm \vphantom{\rm C^{-1}} C \end{gathered} }{ \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} } $
$\rm A$ y $\rm B$ son equivalentes.
$\rm B = C^{-1} \! \cdot A \cdot C \Rightarrow A = C \cdot B \cdot C^{-1}$
$\rm A^{10} =$ ?
$ \begin{aligned} \rm A^{10} &\rm = (C \cdot B \cdot C^{-1})^{10} = \\[1ex] &\rm = (C \cdot B \cdot C^{-1}) (C \cdot B \cdot C^{-1}) \dotsm (C \cdot B \cdot C^{-1}) = \\[1ex] &\rm = C \cdot B^{10} \cdot C^{-1} \end{aligned} $
$ \rm B^{10} = \begin{pmatrix} 2^{10} & 0 \\ 0 & 3^{10} \end{pmatrix} $
$ \begin{align} \llap{\Rightarrow {}} \rm A^{10} &= \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 2^{10} & 0 \\ 0 & 3^{10} \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 2^{10} & -3^{10} \\ 0 & 3^{10} \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} = \\[1ex] &= \begin{pmatrix} 2^{10} & 2^{10} - 3^{10} \\ 0 & 3^{10} \end{pmatrix} \end{align} $
$\ast$ Una matriz es diagonal si es de la forma:
$ \rightarrow \begin{pmatrix} λ_{11} &&\LARGE 0 \\ & \ddots & \\ \LARGE 0 && λ_{\rm nn} \end{pmatrix} $
Definición:
$\rm A ∈ M_{n}(\mathbb{R})$ es diagonalizable si es equivalente a una matriz diagonal.
$ \left. \begin{array}{l} \rm \bullet \: \exists \: B \in M_{n}(\mathbb{R}) \smash{\text{ diagonal}} \\[1ex] \rm \bullet \: \exists \: C \in M_{n}(\mathbb{R}) \smash{\text{ invertible}} \end{array} \right\} \Rightarrow $ tal que $ \rm B = C \cdot A \cdot C^{-1} \mathrel{;} A = C^{-1} \cdot B \cdot C $
Cuestiones:
- ¿Cuándo una matriz es diagonalizable?
- ¿Cuál es la forma diagonal?
- ¿Cuál es la matriz de cambio C?
$ \rm A : \begin{pmatrix} λ_{11} & \dotso & λ_{\rm n1} \\ \vdots && \vdots \\ λ_{\rm 1n} & \dotso & λ_{\rm nn} \end{pmatrix} $
Cálculo del polinomio característico $\rightarrow \DeclareMathOperator{\pcar}{Pcar} \pcar$
$\rm x \rightarrow$ variable
$ \begin{vmatrix} \rm λ_{11} - x & \dotso & λ_{\rm n1} \\ \vdots & \ddots & \vdots \\ λ_{\rm 1n} & \dotso & \rm λ_{nn} - x \end{vmatrix} = $ polinomio característico de $\rm A$
$\rm \det(A - x \cdot Id) = \pcar(A)$
Ejemplos:
• $ \rm A = \begin{pmatrix} 1 & 3 \\ 2 & 1 \end{pmatrix} $
$ \rm \pcar(A) = \det(A - x \cdot Id) = \begin{vmatrix} \rm 1 - x & 3 \\ \rm 2 & \rm 1 - x \end{vmatrix} = (1 - x)^2 - 6 = x^2 - 2x - 5 $
• $ \rm A = \begin{pmatrix} 1 & 3 & 2 \\ 0 & 2 & 1 \\ -3 & 4 & 0 \end{pmatrix} \qquad A - x \cdot Id = \begin{pmatrix} \rm 1 - x & 3 & 2 \\ 0 & \rm 2 - x & 1 \\ -3 & 4 & \rm -x \end{pmatrix} $
$ \begin{align} \rm \det(A - x·Id) &\rm = (1-x)(2-x)(-x) - 9 + 6(2-x) - 4(1-x) = \\[1ex] &\rm = -x^3 + 3x^2 - 4x - 1 = \pcar(A) \end{align} $
$\ast \: \rm A$ y $\rm B$ son equivalentes:
$\Rightarrow \rm \pcar(A) = \pcar(B)$
Demostración:
$ \begin{align} \rm \pcar(A) &= \rm \det(A - x \cdot Id) = \\[1ex] &= \rm \det \bigl( C^{-1} \cdot B \cdot C - x \cdot (\, \underbrace{C^{-1} \cdot Id \cdot C}_{Id} \,) \bigr) = \\[1ex] &= \rm \det \left( C^{-1} \cdot (B - x \cdot Id) \cdot C \right) = \\[1ex] &= \rm \det(C^{-1}) \cdot \det(B - x \cdot Id) \cdot \det(C) = \\[1ex] &= \rm \underbrace{(1 {∕} \det(C)) \cdot \det(C)}_1 \cdot \det(B - x \cdot Id) = \\[1ex] &= \rm \det(B - x \cdot Id) = \pcar(B) \end{align} $
Siendo que:
$\rm A$ diagonalizable $\Rightarrow \rm A$ es equivalente a $ \rm B = \begin{pmatrix} λ_{11} && \LARGE 0 \\ & \ddots & \\ \LARGE 0 && λ_{\rm nn} \end{pmatrix} $
$ \begin{align} \rm \pcar(A) = \pcar(B) = \begin{vmatrix} \rm λ_{11} - x && \LARGE 0 \\ & \ddots & \\ \LARGE 0 && \rm λ_{nn} - x \end{vmatrix} &\rm = (λ_{11} - x) \dotsm (λ_{nn} - x) = \\[1ex] &\rm = (-1)^n (x - λ_{11}) \dotsm (x - λ_{nn}) \end{align} $
$\rm \pcar(A)$ descompone totalmente en factores lineales, i.e. tiene $\rm n$ raíces (contando multiplicidades).
Ejemplo:
$ \rm A = \begin{pmatrix} 1 & -2 \\ 3 & 0 \end{pmatrix} \qquad \pcar(A) = (1-x)(-x) + 6 = x^2 - x + 6 $
$ \rm \dfrac{1 \pm \sqrt{1-24}}{2} \notin \mathbb{R} \Rightarrow A $ no diagonaliza.
$\ast$ Definición:
$\rm A \in M_{n}(\mathbb{R}), v \in \mathbb{R}^n$
$\rm v$ es un vector propio de $\rm A$ si $\exists \: λ \in \mathbb{R}$ tal que $\rm A \cdot v = λ \cdot v$
Ejemplo:
$ \begin{array}[t]{l} \rm A = \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \\[1ex] \rm v = (1, -1, -1) \\[1ex] \rm w = (1, 0, -1) \end{array} \qquad \begin{aligned}[t] \rm A \cdot v &\rm = \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \begin{pmatrix} 1 \\ -1 \\ -1 \end{pmatrix} = \begin{pmatrix} 3 \\ -3 \\ -3 \end{pmatrix} = \\[1ex] &\rm = 3 \begin{pmatrix} 1 \\ -1 \\ -1 \end{pmatrix} = 3v \end{aligned} $
$ \rm A \cdot w = \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix} = w $
$\ast$ Definición:
$\rm A \in M_{n}(\mathbb{R}), λ \in \mathbb{R}$
$λ$ es valor propio de $\rm A$ si $\exists \: \rm v \neq 0$ tal que $\rm A \cdot v = λ \cdot v$
$\rm v$ es vector propio de $\rm A \rightarrow$ VEP de $\rm A$
$λ$ es valor propio de $\rm A \rightarrow$ VAP de $\rm A$
$λ$ es VAP de $\rm A$ ($\exists \: \rm v \neq 0, A \cdot v = λ \cdot v$):
$\rm \Leftrightarrow \bar{x} = (x_{1}, \dotsc, x_{n}) \rightarrow A \cdot \bar{x} = λ \cdot \bar{x} \,$ tiene solución no trivial ($\rm \bar{x} \neq 0$).
$\rm \Leftrightarrow A \cdot \bar{x} - λ \cdot \bar{x} = 0 \,$ tiene solución no trivial.
$\rm \Leftrightarrow (A - λ \cdot Id) \bar{x} = 0$ tiene solución no trivial $\rm \Rightarrow (A - λ \cdot Id)$ singular (no invertible).
Si $\rm (A - λ \cdot Id)$ fuera invertible, y dado que $\rm \bar{x} \neq 0$, al multiplicar por su inversa a un lado y a otro de la igualdad ésta no se cumpliría.
$\rm \Leftrightarrow \det(A - λ \cdot Id) = 0 \Leftrightarrow λ$ raíz de $\rm \det(A - x \cdot Id)$
$\Leftrightarrow λ$ raíz de $\rm \pcar(A)$
Consecuencia:
$\rm A$ tiene como mucho $\rm n$ valores propios diferentes.
Ejemplo:
$ \rm A = \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} $
$ \rm \det(A - x Id) = \begin{vmatrix} \rm -3 - x & -2 & -4 \\ 4 & \rm 3 - x & 4 \\ 2 & 2 & \rm 3 - x \end{vmatrix} = -x^3 + 3x^2 + x - 3 = 0 $
$λ = 3 \mathrel{;} λ = 1 \mathrel{;} λ = -1$
$-1$ es VAP:
$ \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \begin{pmatrix} \rm x_1 \\ \rm x_2 \\ \rm x_3 \end{pmatrix} = - \begin{pmatrix} \rm x_1 \\ \rm x_2 \\ \rm x_3 \end{pmatrix} \quad $ tiene solución no trivial
$ \left. \begin{aligned} \rm -3x_1 - 2x_2 - 4x_3 &\rm = -x_1 \\[1ex] \rm 4x_1 + 3x_2 + 4x_3 &\rm = -x_2 \\[1ex] \rm 2x_1 + 2x_2 + 3x_3 &\rm = -x_3 \end{aligned} \, \right\} \Rightarrow \left. \begin{aligned} \rm -2x_1 - 2x_2 - 4x_3 &= 0 \\[1ex] \rm 4x_1 + 4x_2 + 4x_3 &= 0 \\[1ex] \rm 2x_1 + 2x_2 + 4x_3 &= 0 \, \llap{\cancel{\phantom{\rm 2x_1 + 2x_2 + 4x_3 = 0}}} \end{aligned} \right\} \Rightarrow $
$ \Rightarrow \begin{alignedat}{2} &&\rm -2x_1 - 2x_2 - 4x_3 &= 0 \\[1ex] &{+}\, &\rm 4x_1 + 4x_2 + 4x_3 &= 0 \\[1ex] \hline &&\rm 2x_1 + 2x_2 \hphantom{\rm {} + 0x_3} &=0 \end{alignedat} $
$ \Rightarrow \left. \begin{array}{l} \rm x_1 = -x_2 \\[1ex] \rm x_3 = 0 \end{array} \right\} \Rightarrow (1,-1,0) $
$λ$ VAP de $\rm A$:
$\rm E_λ =$ {sol. del sistema $\rm (A - λ \cdot Id) \bar{x} = 0$} $=$ {vectores propios de valor propio $λ$}
$\rm r_λ =$ multiplicidad de $λ$ como raíz de $\rm \pcar(A)$
Propiedad:
$\rm \dim E_λ \leq r_λ$
Consecuencia:
Si $\rm r_λ = 1$ (raíz simple) $\Rightarrow \rm \dim E_λ \leq 1$
Como $\rm 1 \leq \dim E \Rightarrow \dim E_λ = 1$
Teorema:
$\rm A \in M_{n}(\mathbb{ℝ}), λ_1, \dotsc, λ_s$ los diferentes valores propios, $\rm r_{λ_1}, \dotsc, r_{λ_s}$ sus multiplicidades, entonces $\rm A$ es diagonalizable:
$\Leftrightarrow \rm \dim E_{λ_1} \! + \dotsb + \dim E_{λ_s} \! = n$
$\Leftrightarrow \rm r_{λ_1} \! + \dotsb + r_{λ_s} \! = n \,$ y $\, \rm \dim E_{λ_i} \! = r_{λ_i}$
De ser esto así, la forma diagonal equivalente de la matriz $\rm A$ es:
$ \begin{pmatrix} \rm {λ_1}^{\displaystyle \times \, r_1} && \LARGE 0 \\ & \ddots & \\ \LARGE 0 && \rm {λ_s}^{\displaystyle \times \, r_s} \end{pmatrix} \leftarrow {} $ en la diagonal aparece tantas veces el valor propio como indique su multiplicidad.
Ejemplo:
$ \rm A = \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \qquad $ $\rm \pcar(A) = -x^3 + 3x^2 + x - 3$ raíces $\rightarrow 3, 1, -1$ multiplicidad $\rightarrow$ nº de veces que aparece cada factor: $\rm r_3 = 1 \mathrel{;} r_1 = 1 \mathrel{;} r_{-1} = 1$
$ \begin{array}{ll} \rm \dim E_3 = 1 = r_3 & \\[1ex] \rm \dim E_1 = 1 = r_1 &\quad \rm r_3 + r_1 + r_{-1} = 3 \\[1ex] \rm \dim E_{-1} = 1 = r_{-1} &\quad \rm \dim E_3 + \dim E_1 + \dim E_{-1} = 3 \\[1ex] &\quad \Rightarrow \rm A \smash{\text{ es diagonalizable}} \end{array} $
$ \begin{pmatrix} 3 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} $
Ejemplo:
$ \begin{array}{ll} \rm A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \quad & \rm \pcar(A) = \begin{vmatrix} \rm 1-x & 1 \\ 0 & \rm 1-x \end{vmatrix} = (1-x)^2 = (x-1)^2 \\[1ex] & \enspace \text{raíz} \rightarrow 1 \\[1ex] & \enspace \rm r_1 = 2 \quad \dim E_1 \! = ¿1 \text{ ó } 2? \\[1ex] & \rm ¿E_1? \quad (A - 1 \cdot Id) \bar{x} = 0 \\[1ex] & \qquad \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \begin{pmatrix} \rm x_1 \\ \rm x_2 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} \Rightarrow \underset{ \displaystyle \begin{array}{c} \Downarrow \\ \llap{\langle}(1,0)\rlap{\rangle \rlap{{} = \rm E_1}} \\ || \\ \rm \llap{\{}(k, 0)\rlap{, k \in \mathbb{R}\}} \end{array} }{\rm x_2 = 0} \\[1ex] & \Rightarrow \rm \dim E_1 = 1 < 2 = r_1 \\[1ex] & \Rightarrow \text{No diagonaliza.} \end{array} $
Ejemplo:
$ \rm A = \begin{pmatrix} 5 & 4 & -2 \\ 4 & 5 & 2 \\ -2 & 2 & 8 \end{pmatrix} \qquad \begin{aligned}[t] \rm \pcar(A) &= \begin{vmatrix} \rm 5-x & 4 & -2 \\ 4 & \rm 5-x & 2 \\ -2 & 2 & \rm 8 - x \end{vmatrix} = \\[1ex] &\rm = -x^3 + 18 x^2 - 81x = \\[1ex] &\rm = -x(x^2 - 18x + 81) = -x(x-9)^2 = 0 \end{aligned} $
$\rm λ = 0 \quad r_0 = 1$
$\rm λ = 9 \quad r_9 = 2$
$\rm E_0 \rightarrow \dim E_0 = 1 = r_0$
$\rm E_9 \rightarrow \dim E_9 = ¿1 \text{ ó } 2?$
$ \rm (A - 9 \cdot Id)\bar{x} = 0 \rightarrow \underset{ \displaystyle \begin{array}{c} \Downarrow \\ \rg = 1 \rlap{ {} \rightarrow \dim = \rm n - \rg \Rightarrow \dim E_9 = 2 = r_9 } \end{array} }{ \begin{pmatrix} -4 & 4 & -2 \\ 4 & -4 & 2 \llap{\color{red}{\Rule{5em}{.75ex}{-.6ex}}} \\ -2 & 2 & -1 \llap{\color{red}{\Rule{5em}{.75ex}{-.6ex}}} \end{pmatrix} } \begin{pmatrix} \rm x_1 \\ \rm x_2 \\ \rm x_3 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} $
$\Rightarrow$ Es diagonalizable.
$\ast$ Se tiene:
$\rm A$ diagonalizable.
$\rm B$ forma diagonal equivalente.
$\rm B = C^{-1} \cdot A \cdot C \qquad C \rightarrow$ "matriz de cambio"
¿$\rm C$?
Siendo $λ_1, \dotsc, λ_s$ los VAPS diferentes:
$ \begin{array}{lll} \rm E_{λ_1} & \rm v_1, \dotsc, v_{r_{λ_1}} & \text{vectores l.i. en } \rm E_{λ_1} \, (r_{λ_1}) \\[1ex] \rm E_{λ_2} & \rm v_{(r_{λ_1} + \, 1)}, \dotsc, v_{(r_{λ_1} + \, r_{λ_2})} & \text{vectores l.i. en } \rm E_{λ_2} \, (r_{λ_2}) \\[1ex] \vdots & & \\[1ex] \rm E_{λ_s} & \rm v_{(r_{λ_1} + \, \dotsb \, + \, r_{λ_{s-1}} \, + \, 1)}, \dotsc, v_{(r_{λ_1} + \, \dotsb \, + \, r_{λ_s}) \, = \, n} & \text{vectores l.i. en } \rm E_{λ_s} \, (r_{λ_s}) \end{array} $
l.i. $\equiv$ linealmente independiente/s
Entonces:
$\rm (v_1, \dotsc, v_n) = C$
Ejemplo:
$ \rm A = \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \qquad $ raíces $3, 1, -1$
$\rm E_3 : (A - 3 \cdot Id) \bar{x} = 0$
$ \left. \begin{alignedat}{3} \rm -6x_1& &\rm {} - 2x_2& & \rm {} - 4x_3 &= 0 \\[1ex] \rm 4x_1& && &\rm {} + 4x_3 &= 0 \\[1ex] \rm 2x_1& &\rm {} + 2x_2& &&= 0 \, \end{alignedat} \right\} \Rightarrow \enspace \begin{aligned} &\rm x_1 = -x_2 \\[1ex] &\rm x_1 = -x_3 \\[1ex] &\rm (1, -1, -1) : v_1 \end{aligned} $
$\rm E_1 : (A - Id) \bar{x} = 0$
$ \left. \begin{aligned} \rm -4x_1 - 2x_2 - 4x_3 &= 0 \\[1ex] \rm 4x_1 + 2x_2 + 4x_3 &= 0 \\[1ex] \rm 2x_1 + 2x_2 + 2x_3 &= 0 \end{aligned} \, \right\} \Rightarrow \enspace \begin{aligned} &\rm x_1 = -x_3 \\[1ex] &\rm x_2 = 0 \\[1ex] &\rm (1,0,-1) : v_2 \end{aligned} $
$\rm E_{-1} : (A + Id) \bar{x} = 0$
$ \left. \begin{aligned} \rm -2x_1 - 2x_2 - 4x_3 &= 0 \\[1ex] \rm 4x_1 + 4x_2 + 4x_3 &= 0 \\[1ex] \rm 2x_1 + 2x_2 + 4x_3 &= 0 \end{aligned} \, \right\} \Rightarrow \enspace \begin{aligned} &\rm x_1 = -x_2 \\[1ex] &\rm x_3 = 0 \\[1ex] &\rm (1,-1,0) : v3 \end{aligned} $
Por tanto:
$ \rm C = \begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \enspace \leftarrow $ los vectores propios se colocan en las columnas.
$\rm C^{-1} =$ ?
1º. ¿Es posible?
$ \rm \det(C) = \begin{vmatrix} 1 & 1 & 1 \\ -1 & 0 & -1 \\ -1 & -1 & 0 \end{vmatrix} = 1 \quad $ Obviamente sí.
$ \rm \Rightarrow C^{-1} = \dfrac{\adj(C{}^t)}{\det(C)} \qquad C^{-1} = \begin{pmatrix} -1 & -1 & -1 \\ 1 & 1 & 0 \\ 1 & 0 & 1 \end{pmatrix} $
$ \begin{align} \rm B &\rm = C^{-1} \cdot A \cdot C \\[1ex] &\downarrow \\[1ex] \begin{pmatrix} 3 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} &= \begin{pmatrix} -1 & -1 & -1 \\ 1 & 1 & 0 \\ 1 & 0 & 1 \end{pmatrix} \begin{pmatrix} -3 & -2 & -4 \\ 4 & 3 & 4 \\ 2 & 2 & 3 \end{pmatrix} \begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \end{align} $
$\ast$ Otro método para encontrar la matriz inversa, buscando la identidad:
$ \rm A = \begin{pmatrix} 1 & -2 & 0 & 0 \\[1ex] 0 & 1 & 0 & 0 \\[1ex] 1 & 1 & 0 & 1 \\[1ex] 1 & 1 & 1 & 0 \end{pmatrix} $
Procedimiento:
$ \left( \begin{matrix} 1 & -2 & 0 & 0 \\ 0 & 1 &0 & 0 \\ 1 & 1 & 0 & 1 \\ 1 & 1 & 1 & 0 \end{matrix} \middle| \begin{matrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{matrix} \right) \xrightarrow[ \begin{gathered} \rm F_3 - F_1 \\ \rm F_4 - F_1 \end{gathered} ]{} \left( \begin{matrix} 1 & -2 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 3 & 0 & 1 \\ 0 & 3 & 1 & 0 \end{matrix} \middle| \begin{matrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ -1 & 0 & 1 & 0 \\ -1 & 0 & 0 & 1 \end{matrix} \right) \rightarrow $
$ \xrightarrow[ \begin{gathered} \rm F_1 + 2 F_2 \\ \rm F_3 - 3 F_2 \\ \rm F_4 - 3 F_2 \end{gathered} ]{} \left( \begin{matrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 \end{matrix} \middle| \begin{matrix} 1 & 2 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ -1 & -3 & 1 & 0 \\ -1 & -3 & 0 & 1 \end{matrix} \right) \xrightarrow[\rm F_3 \leftrightarrow F_4]{} \left( \begin{matrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{matrix} \middle| \smash[b]{ \underbrace{ \begin{matrix} 1 & 2 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ -1 & -3 & 0 & 1 \\ -1 & -3 & 1 & 0 \end{matrix} }_{\text{matriz inversa}} } \; \right) $
Donde, por tal de alcanzar la matriz identidad en el lado izquierdo, se llevan a cabo operaciones de suma o resta a una fila de otra multiplicada por un número o se intercambian filas.
$\ast$ Truco para calcular el $\pcar(\rm A)$:
$\rm \pcar = (-1)^n x^n + (-1)^{n-1} d_{n-1} x^{n-1} + \dotsb + (-1)^0 d_0 x^0$
$\rm d_{n-1} \leftarrow$ suma de los menores (determinantes de las submatrices) resultado de suprimir $\rm n-1$ filas y columnas, y cuya diagonal esté sobre la diagonal principal.
Por tanto, puede escribirse también como:
$ \DeclareMathOperator{\tr}{tr} \rm \pcar = (-1)^n x^n + (-1)^{n-1} \tr(A) x^{n-1} + (-1)^{n-2} d_{n-2} x^{n-2} + \dotsb + \det(A) $
$\rm \tr(A) \leftarrow$ traza de $\rm A$ (suma de los elementos de la diagonal principal).
Ejemplo:
$ \rm A = \begin{pmatrix} 1 & -2 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 1 & 0 & 1 \\ 1 & 1 & 1 & 0 \end{pmatrix} $
$ \begin{align} \rm \pcar(A) &\rm = x^4 - (1+1)x^3 + \left( \begin{vmatrix} 1 & -2 \\ 0 & 1 \end{vmatrix} + 4 \begin{vmatrix} 1 & 0 \\ 1 & 0 \end{vmatrix} + \begin{vmatrix} 0 & 1 \\ 1 & 0 \end{vmatrix} \right) x^2 - \\[1ex] &\quad \rm - \left( 2 \begin{vmatrix} 1 & -2 & 0 \\ 0 & 1 & 0 \\ 1 & 1 & 0 \end{vmatrix} + 2 \begin{vmatrix} 1 & 0 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{vmatrix} \right) x + \begin{vmatrix} 1 & -2 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 1 & 0 & 1 \\ 1 & 1 & 1 & 0 \end{vmatrix} = \\[1ex] &\rm = x^4 - 2x^3 + 2x - 1 \end{align} $