Se define la exponencial de una matriz cuadrada A de orden n como
{e^A} = {I_n} + A + \dfrac{1}{{2!}}{A^2} + \dfrac{1}{{3!}}{A^3} + \cdots + \dfrac{1}{{n!}}{A^n} + \cdots = \sum\limits_{n = 0}^\infty {\dfrac{{{A^n}}}{{n!}}}.
Observamos que la definición es similar al desarrollo en serie de potencias de e^x.
Ejemplo: Calcular e^A siendo A=\left(\begin{array}{cc} \lambda_{1} & 0 \\0 & \lambda_{2} \\\end{array}\right).
{A^2} = \left( {\begin{array}{cc} {{\lambda _1}} & 0 \\ 0 & {{\lambda _2}} \\ \end{array} } \right)\left( {\begin{array}{cc} {{\lambda _1}} & 0 \\ 0 & {{\lambda _2}} \\ \end{array} } \right) = \left( {\begin{array}{cc} {\lambda _1^2} & 0 \\ 0 & {\lambda _2^2} \\ \end{array} } \right),
{A^3} = \left( {\begin{array}{cc} {{\lambda _1}} & 0 \\ 0 & {{\lambda _2}} \\ \end{array} } \right)\left( {\begin{array}{cc} {\lambda _1^2} & 0 \\ 0 & {\lambda _2^2} \\ \end{array} } \right) = \left( {\begin{array}{cc} {\lambda _1^3} & 0 \\ 0 & {\lambda _2^3} \\ \end{array} } \right),
\begin{darray}{rl}{e^A} &= I + A + \dfrac{{{A^2}}}{{2!}} +\dfrac{{{A^3}}}{{3!}} + \cdots = \\& = \left( {\begin{array}{cc}1&0 \\0&1 \end{array}} \right) + \left( {\begin{array}{cc}{{\lambda_1}}&0 \\0&{{\lambda_2}}\end{array}} \right) + \dfrac{1}{{2!}}\left( {\begin{array}{cc}{\lambda_1^2}&0 \\0&{\lambda_2^2}\end{array}} \right) + \dfrac{1}{{3!}}\left( {\begin{array}{cc}{\lambda_1^3}&0 \\0&{\lambda_2^3}\end{array}} \right)+\cdots \\& = \left( {\begin{array}{cc} {1 + {\lambda_1} + \dfrac{{\lambda_1^2}}{{2!}} + \dfrac{{\lambda_1^3}}{{3!}} + \cdots }&0 \\0&{1 + {\lambda_2} + \dfrac{{\lambda_2^2}}{{2!}} + \dfrac{{\lambda_2^3}}{{3!}} + \cdots }\end{array}} \right) = \left({\begin{array}{cc}{{e^{{\lambda_1}}}}&0 \\0&{{e^{{\lambda_2}}}} \end{array}} \right).\end{darray}
En este ejemplo no hay, evidentemente, nada especial sobre la dimensión, 2, de la matriz. Lo mismo es válido para matrices cuadradas de cualquier tamaño: la exponencial de una matriz diagonal, A, de orden n es la matriz diagonal de orden n cuyos elementos diagonales son las exponenciales de los elementos diagonales de A.
En particular, si A = aI_n entonces
{e^A} = {e^{a{I_n}}} = \left( {\begin{array}{cc} {{e^a}}&0& \cdots &0 \\ 0&{{e^a}}& \cdots &0 \\ {}&{}& \ddots &{} \\ 0&0& \cdots &{{e^a}} \end{array}} \right) = {e^a}{I_n}.
Y cuando a=0, e^{0I_n}=e^0I_n=I_n.
Propiedades:
- A conmuta con e^A, es decir, Ae^A=e^AA.
- Si A y B conmutan, es decir AB=BA, entonces e^{A+B}=e^Ae^B.
- e^A es no singular, y su inversa es e^{-A}.
Para cada valor t\in\mathbb{R} y A matriz n\times n, se tiene
e^{tA}=I_n+tA+\dfrac{1}{2!}t^2A^2+\dfrac{1}{3!}t^3A^3+\cdots
es decir, debemos considerar e^{tA} como una función de t\in\mathbb{R} cuyos valores son matrices n\times n. Entonces se cumple que \dfrac{d}{dt}e^{tA}=Ae^{tA} ya que
\begin{darray}{rl}\frac{d}{{dt}}\left( {{e^{tA}}} \right) &= \frac{d}{{dt}}\left( {{I_n} + tA + \frac{1}{{2!}}{t^2}{A^2} + \frac{1}{{3!}}{t^3}{A^3} + \cdots } \right) = A + {A^2}t + \frac{1}{{2!}}{t^2}{A^3} + \frac{1}{{3!}}{t^3}{A^4}+\cdots \\&= A\left( {{I_n} + tA + \frac{1}{{2!}}{t^2}{A^2} + \frac{1}{{3!}}{t^3}{A^3} + \cdots } \right) = A \cdot {e^{tA}}.\end{darray}
Cálculo de la exponencial de una matriz
Realizaremos el cálculo de la exponencial de una matriz con un método basado el en teorema de Cayley-Hamilton.
Consideremos una matriz A cuadrada de orden n y denotemos por \Delta(s) a su polinomio característico, es decir, \Delta(s)=\left|sI_n-A\right|=s^n+c_{n-1}s^{n-1}+\cdots+c_0, si definimos el correspondiente polinomio matricial formado por la sustitución de s por A, \Delta(A)=A^n+c_{n-1}A^{n-1}+\cdots+c_0I_n donde I_n es la matriz identidad, el teorema de Cayley-Hamilton garantiza que toda matriz satisface su ecuación característica y por lo tato \Delta(A)=[0] donde [0] es la matriz nula.
Podemos usar el polinomio característico para reducir el orden de un polinomio matricial. Sea P(s) un polinomio de grado mayor o igual que n, entonces, dividiendo P(s) entre \Delta(s) tendremos P(s)=\Delta(s)Q(s)+R(s) y el polinomio R(s) es de grado menor o igual a n-1.
Al considerar el correspondiente polinomio matricial P(A), como \Delta(A)=[0], entonces P(A)=R(A).
Además haciendo s=\lambda_i, i=1,\ldots,n con \lambda_i valores propios de A, como \Delta(\lambda_i)=0, tenemos P(\lambda_i)=R(\lambda_i).
Ejemplo: Sea la matriz A=\left(\begin{array}{cc} 2&3\\2&1\end{array}\right) que tiene como polinomio característico \Delta(s)=s^2-3s-4 y vamos a calcular el valor del polinomio P(A)=A^4-A^3-9 A^2-8 A-9I_2.
Dividiendo P(s)=s^4-s^3-9 s^2-8 s-9 por \Delta(s) tenemos
P(s)=\left(s^2-3 s-4\right) \left(s^2+2 s+1\right)+3 s-5
es decir, R(s)=3s-5 y entonces P(A)=R(A), P(A)=A^4-A^3-9 A^2-8 A-9I_2=3A-5I_2.
Uso del teorema de Cayley-Hamilton para determinar funciones analíticas con matrices
Sea f(s) una función analítica, es decir f(s) se puede expresar como f(s)=\displaystyle\sum_{k=0}^{\infty}a_ks^k y sea A una matriz cuadrada de dimensión n con polinomio característico \Delta(s) y valores propios \lambda_i, entonces podemos escribir f(s) como f(s)=\Delta(s)Q(s)+R(s) con R(s) de grado menor o igual a n-1. Entonces f(A)=R(A) y además, para s=\lambda_i
f(\lambda_i)=R(\lambda_i)=\displaystyle\sum_{k=0}^{n-1}a_k\lambda_i^k.
Para \lambda_i, i=1,\ldots,n la condición anterior define un conjunto de ecuaciones lineales para calcular los coeficientes a_0,\ldots,a_{n-1}.
Si consideramos la función f(s)=e^s=\sum\limits_{k = 0}^\infty {\dfrac{{{{{s} }^k}}}{{k!}}}, obtendremos que e^A=R(A)=\displaystyle\sum_{k=0}^{n-1}a_kA^k.
Ejemplo: Calcular e^A siendo A=\left(\begin{array}{cr} 2&-6\\1&-3 \end{array}\right).
El polinomio característico es \Delta(s)=s^2+s=s(s+1) que tiene como raíces \lambda_1=0 y \lambda_2=-1. En este caso R(s)=a_0+a_1s y, por lo tanto, e^A=a_0I_2+a_1A.
\begin{gathered}e^0=1=R(0)\Rightarrow a_0=1,\\ e^{-1}=R(-1)=a_0-a_1\Rightarrow a_1=1-e^{-1},\end{gathered}
entonces
{e^A} = \left( {\begin{array}{cc} 1&0 \\ 0&1 \end{array}} \right) + \left( {\begin{array}{cc} {2 – 2{e^{ – 1}}}&{ – 6 + 6{e^{ – 1}}} \\ {1 – {e^{ – 1}}}&{ – 3 + 3{e^{ – 1}}} \end{array}} \right) = \left( {\begin{array}{cc} {3 – 2{e^{ – 1}}}&{ – 6 + 6{e^{ – 1}}} \\ {1 – {e^{ – 1}}}&{ – 2 + 3{e^{ – 1}}} \end{array}} \right).
Si consideramos la función f(s)=e^{st}=\displaystyle\sum\limits_{k = 0}^\infty {\dfrac{{{{\left( {st} \right)}^k}}}{{k!}}}, y A una matriz cuadrada de orden n, entonces f(s)=\Delta(s)Q(s)+R(s), donde R(s)=\displaystyle\sum_{k=0}^{n-1}\alpha_k(t)s^k=\alpha_0(t)+\alpha_1(t)s+\cdots+\alpha_{n-1}(t)s^{n-1}, y sustituyendo s por A tendremos
e^{At}=\displaystyle\sum_{k=0}^{n-1}\alpha_k(t)A^k.
donde los coeficientes \alpha_k, k=0,\ldots,n-1 se determinan aplicando esa condición en los valores propios de la matriz A
e^{\lambda_i t}=\displaystyle\sum_{k=0}^{n-1}\alpha_k(t)\lambda_i^k.
En el caso de que aparezcan valores propios con multiplicidad mayor que 1 el conjunto de ecuaciones anteriores no son suficientes para el calculo de los coeficientes \alpha_k, y añadimos las que se obtienen teniendo en cuenta que el valor de las derivadas de f y de R en ese valor propio también son iguales,
f^{(j)}(\lambda_i)=R^{(j)}(\lambda_i)
que en este caso se traducen en
t^je^{\lambda_i t}=R^{(j)}(\lambda_i)
donde j varía desde 0 a la multiplicidad del valor propio \lambda_i.
Concluimos que si A es una matriz cuadrada de orden n que tiene como valores propios \lambda_i y consideramos R(s)=\alpha_0+\alpha_1s+\cdots \alpha_{n-1}s^{n-1} calculamos e^{At} como
\boxed{\color{blue}\left\{ \begin{gathered} {e^{At}} = R(A) \\ {t^j}{e^{{\lambda _i}t}} = {R^{(j)}}({\lambda _i})\\ \end{gathered} \right.}
donde j va desde 0 hasta la multiplicidad del valor propio \lambda_i.
Ejemplos con matrices de orden 2.
En este caso R(s)=\alpha_0+\alpha_1 s.
- A=\left(\begin{array}{rr}1 & 4 \\-1 & -3 \\\end{array}\right).
- A=\left(\begin{array}{cc}2&3\\2&1\end{array}\right) .
- A=\left( \begin{array}{cr} 2&-1\\4&2 \end{array}\right).
El polinomio característico es p(\lambda)=\lambda^2-4\lambda+8=(\lambda-(2+2i))(\lambda-(2-2i)) que tiene como valores propios \lambda_1=2+2i y \lambda_2=2-2i.
{e^{tA}} = \alpha_0+\alpha_1 A
donde \alpha_0 y \alpha_1 verifican
{e^{(2 + 2i)t}} = {\alpha _0} + {\alpha _1}(2 + 2i)
{e^{2t}}(\cos2t + i\operatorname{sen}2t) = {\alpha _0} + 2{\alpha _1} + 2i{\alpha _1},
\left\{ \begin{gathered} {\alpha _0} + 2{\alpha _1} = {e^{2t}}\cos 2t \\ 2{\alpha _1} = {e^{2t}}\operatorname{sen} 2t \\ \end{gathered} \right.
de donde \alpha_1=\dfrac{1}{2}e^{2t}\operatorname{sen}2t y \alpha_0=e^{2t}(\cos2t-\operatorname{sen}2t).
\begin{darray}{rl}{e^{At}} &= {e^{2t}}\left[ \left( \begin{array}{cc} \cos 2t – \operatorname{sen} 2t & 0 \\ 0 & \cos 2t – \operatorname{sen} 2t \\ \end{array}\right)+\left(\begin{array}{cc} \operatorname{sen} 2t & – \frac{1}{2}\operatorname{sen} 2t \\ 2\operatorname{sen} 2t & \cos 2t \\ \end{array}\right)\right]\\&=e^{2t}\left(\begin{array}{cc} \cos 2t & – \frac{1}{2}\operatorname{sen}2t \\ \operatorname{sen}2t & \cos 2t \\ \end{array}\right)\end{darray}.
Vemos ahora algún ejemplo para matrices de orden tres.
- A=\left( \begin{array}{crr} 3&-1&-1\\1&1&-1\\1&-1&1 \end{array}\right).
El polinomio característico es p(\lambda)=(\lambda-1)(\lambda-2)^2 y tiene dos valores propios \lambda_1=1 y \lambda_2=2 doble.
e^{At}=\alpha_0+\alpha_1A+\alpha_2 A^2
donde \alpha_0, \alpha_1 y \alpha_2 cumplen
\left\{ \begin{gathered} {e^t} = {\alpha _0} + {\alpha _1} + {\alpha _2}\\ {e^{2t}} = {\alpha _0} + 2{\alpha _1} + 4{\alpha _2}\\ t{e^{2t}} = {\alpha _1} + 2{\alpha _2}\\ \end{gathered} \right.
La solución es
\begin{darray}{l} {\alpha _0} = {e^{2t}} – 2t{e^{2t}}, \\ {\alpha _1} = – 2{e^{2t}} + 2{e^t} + 3t{e^{2t}}, \\ {\alpha _2} = {e^{2t}} – {e^t} – t{e^{2t}}.\\ \end{darray}
En esta caso A^2=\left(\begin{array}{crr} 7&-3&-3\\3&1&-3\\3&-3&1 \end{array}\right) y obtenemos
- A=\left(\begin{array}{crc} 1 & 0 & 0 \\ 2 & 0 & 1 \\ 2 & -1 & 0 \end{array} \right).
El polinomio característico es p(\lambda)=(\lambda-1)(\lambda^2+1) que tiene como valores propios \lambda_1=1, \lambda_2=i y \lambda_3=\overline{\lambda_2}=-i.
e^{At}=\alpha_0+\alpha_1A+\alpha_2 A^2
donde \alpha_0, \alpha_1 y \alpha_2 cumplen
\left\{ \begin{gathered} {e^t} = {\alpha _0} + {\alpha _1} + {\alpha _2}\\ {e^{it}} = {\alpha _0} + {\alpha _1}i – {\alpha _2} \Rightarrow \left\{ {\begin{array}{c} {{\alpha _0} – {\alpha _2} = \cos t} \\ {{\alpha _1} = \operatorname{sen} t} \\ \end{array} } \right. \\ \end{gathered} \right.
obteniendo
\left\{ \begin{darray}{l}
{\alpha _0} = \frac{1}{2}{e^t} – \frac{1}{2}\operatorname{sen} t + \frac{1}{2}\cos t, \\
{\alpha _1} = \operatorname{sen} t,\\
{\alpha _2} = \frac{1}{2}{e^t} – \frac{1}{2}\operatorname{sen} t – \frac{1}{2}\cos t.\\
\end{darray} \right.
En este caso A^2=\left(\begin{array}{crr} 1&0&0\\4&-1&0\\0&0&-1 \end{array}\right).
Concluimos que
e^{At}=\left( \begin{array}{ccc} e^t & 0 & 0 \\ 2 e^t-2 \cos t & \cos t & \operatorname{sen} t \\ 2 \operatorname{sen} t & -\operatorname{sen} t & \cos t \end{array} \right).