Exponencial de una matriz

Se define la exponencial de una matriz cuadrada A de orden n como

{e^A} = {I_n} + A + \dfrac{1}{{2!}}{A^2} + \dfrac{1}{{3!}}{A^3} + \cdots + \dfrac{1}{{n!}}{A^n} + \cdots = \sum\limits_{n = 0}^\infty {\dfrac{{{A^n}}}{{n!}}}.

Observamos que la definición es similar al desarrollo en serie de potencias de e^x.

Ejemplo: Calcular e^A siendo A=\left(\begin{array}{cc} \lambda_{1} & 0 \\0 & \lambda_{2} \\\end{array}\right).

{A^2} = \left( {\begin{array}{cc} {{\lambda _1}} & 0 \\ 0 & {{\lambda _2}} \\ \end{array} } \right)\left( {\begin{array}{cc} {{\lambda _1}} & 0 \\ 0 & {{\lambda _2}} \\ \end{array} } \right) = \left( {\begin{array}{cc} {\lambda _1^2} & 0 \\ 0 & {\lambda _2^2} \\ \end{array} } \right),

{A^3} = \left( {\begin{array}{cc} {{\lambda _1}} & 0 \\ 0 & {{\lambda _2}} \\ \end{array} } \right)\left( {\begin{array}{cc} {\lambda _1^2} & 0 \\ 0 & {\lambda _2^2} \\ \end{array} } \right) = \left( {\begin{array}{cc} {\lambda _1^3} & 0 \\ 0 & {\lambda _2^3} \\ \end{array} } \right),

\begin{darray}{rl}{e^A} &= I + A + \dfrac{{{A^2}}}{{2!}} +\dfrac{{{A^3}}}{{3!}} + \cdots = \\& = \left( {\begin{array}{cc}1&0 \\0&1 \end{array}} \right) + \left( {\begin{array}{cc}{{\lambda_1}}&0 \\0&{{\lambda_2}}\end{array}} \right) + \dfrac{1}{{2!}}\left( {\begin{array}{cc}{\lambda_1^2}&0 \\0&{\lambda_2^2}\end{array}} \right) + \dfrac{1}{{3!}}\left( {\begin{array}{cc}{\lambda_1^3}&0 \\0&{\lambda_2^3}\end{array}} \right)+\cdots \\& = \left( {\begin{array}{cc} {1 + {\lambda_1} + \dfrac{{\lambda_1^2}}{{2!}} + \dfrac{{\lambda_1^3}}{{3!}} + \cdots }&0 \\0&{1 + {\lambda_2} + \dfrac{{\lambda_2^2}}{{2!}} + \dfrac{{\lambda_2^3}}{{3!}} + \cdots }\end{array}} \right) = \left({\begin{array}{cc}{{e^{{\lambda_1}}}}&0 \\0&{{e^{{\lambda_2}}}} \end{array}} \right).\end{darray}

En este ejemplo no hay, evidentemente, nada especial sobre la dimensión, 2, de la matriz. Lo mismo es válido para matrices cuadradas de cualquier tamaño: la exponencial de una matriz diagonal, A, de orden n es la matriz diagonal de orden n cuyos elementos diagonales son las exponenciales de los elementos diagonales de A.

En particular, si A = aI_n entonces

{e^A} = {e^{a{I_n}}} = \left( {\begin{array}{cc} {{e^a}}&0& \cdots &0 \\ 0&{{e^a}}& \cdots &0 \\ {}&{}& \ddots &{} \\ 0&0& \cdots &{{e^a}} \end{array}} \right) = {e^a}{I_n}.

Y cuando a=0, e^{0I_n}=e^0I_n=I_n.

Propiedades:

  • A conmuta con e^A, es decir, Ae^A=e^AA.
  • Si A y B conmutan, es decir AB=BA, entonces e^{A+B}=e^Ae^B.
  • e^A es no singular, y su inversa es e^{-A}.

Para cada valor t\in\mathbb{R} y A matriz n\times n, se tiene

e^{tA}=I_n+tA+\dfrac{1}{2!}t^2A^2+\dfrac{1}{3!}t^3A^3+\cdots

es decir, debemos considerar e^{tA} como una función de t\in\mathbb{R} cuyos valores son matrices n\times n. Entonces se cumple que \dfrac{d}{dt}e^{tA}=Ae^{tA} ya que

\begin{darray}{rl}\frac{d}{{dt}}\left( {{e^{tA}}} \right) &= \frac{d}{{dt}}\left( {{I_n} + tA + \frac{1}{{2!}}{t^2}{A^2} + \frac{1}{{3!}}{t^3}{A^3} + \cdots } \right) = A + {A^2}t + \frac{1}{{2!}}{t^2}{A^3} + \frac{1}{{3!}}{t^3}{A^4}+\cdots \\&= A\left( {{I_n} + tA + \frac{1}{{2!}}{t^2}{A^2} + \frac{1}{{3!}}{t^3}{A^3} + \cdots } \right) = A \cdot {e^{tA}}.\end{darray}

Cálculo de la exponencial de una matriz

Realizaremos el cálculo de la exponencial de una matriz con un método basado el en teorema de Cayley-Hamilton.

Consideremos una matriz A cuadrada de orden n y denotemos por \Delta(s) a su polinomio característico, es decir,  \Delta(s)=\left|sI_n-A\right|=s^n+c_{n-1}s^{n-1}+\cdots+c_0, si definimos el correspondiente polinomio matricial formado por la sustitución de s por A, \Delta(A)=A^n+c_{n-1}A^{n-1}+\cdots+c_0I_n donde I_n es la matriz identidad, el teorema de Cayley-Hamilton garantiza que toda matriz satisface su ecuación característica y por lo tato \Delta(A)=[0] donde [0] es la matriz nula.

Podemos usar el polinomio característico para reducir el orden de un polinomio matricial. Sea P(s) un polinomio de grado mayor o igual que n, entonces, dividiendo P(s) entre \Delta(s) tendremos P(s)=\Delta(s)Q(s)+R(s) y el polinomio R(s) es de grado menor o igual a n-1.

Al considerar el correspondiente polinomio matricial P(A), como \Delta(A)=[0], entonces P(A)=R(A).

Además haciendo s=\lambda_i, i=1,\ldots,n con \lambda_i valores propios de A, como \Delta(\lambda_i)=0, tenemos P(\lambda_i)=R(\lambda_i).

Ejemplo: Sea la  matriz A=\left(\begin{array}{cc} 2&3\\2&1\end{array}\right) que tiene como polinomio característico  \Delta(s)=s^2-3s-4 y vamos a calcular el valor del polinomio P(A)=A^4-A^3-9 A^2-8 A-9I_2.

Dividiendo P(s)=s^4-s^3-9 s^2-8 s-9 por \Delta(s) tenemos

P(s)=\left(s^2-3 s-4\right) \left(s^2+2 s+1\right)+3 s-5

es decir, R(s)=3s-5 y entonces P(A)=R(A), P(A)=A^4-A^3-9 A^2-8 A-9I_2=3A-5I_2.

Uso del teorema de Cayley-Hamilton para determinar funciones analíticas con matrices

Sea f(s) una función analítica, es decir f(s) se puede expresar como f(s)=\displaystyle\sum_{k=0}^{\infty}a_ks^k y sea A una matriz cuadrada de dimensión n con polinomio característico \Delta(s) y valores propios \lambda_i, entonces podemos escribir f(s) como f(s)=\Delta(s)Q(s)+R(s) con R(s) de grado menor o igual a n-1. Entonces f(A)=R(A) y además,  para s=\lambda_i

f(\lambda_i)=R(\lambda_i)=\displaystyle\sum_{k=0}^{n-1}a_k\lambda_i^k.

Para \lambda_i, i=1,\ldots,n la condición  anterior define un conjunto de ecuaciones lineales para calcular los coeficientes a_0,\ldots,a_{n-1}.

Si consideramos la función f(s)=e^s=\sum\limits_{k = 0}^\infty {\dfrac{{{{{s} }^k}}}{{k!}}}, obtendremos que e^A=R(A)=\displaystyle\sum_{k=0}^{n-1}a_kA^k.

Ejemplo: Calcular e^A siendo A=\left(\begin{array}{cr} 2&-6\\1&-3 \end{array}\right).

El polinomio característico es \Delta(s)=s^2+s=s(s+1) que tiene como raíces \lambda_1=0 y \lambda_2=-1. En este caso R(s)=a_0+a_1s y, por lo tanto, e^A=a_0I_2+a_1A.

\begin{gathered}e^0=1=R(0)\Rightarrow a_0=1,\\ e^{-1}=R(-1)=a_0-a_1\Rightarrow a_1=1-e^{-1},\end{gathered}

entonces

{e^A} = \left( {\begin{array}{cc} 1&0 \\ 0&1 \end{array}} \right) + \left( {\begin{array}{cc} {2 – 2{e^{ – 1}}}&{ – 6 + 6{e^{ – 1}}} \\ {1 – {e^{ – 1}}}&{ – 3 + 3{e^{ – 1}}} \end{array}} \right) = \left( {\begin{array}{cc} {3 – 2{e^{ – 1}}}&{ – 6 + 6{e^{ – 1}}} \\ {1 – {e^{ – 1}}}&{ – 2 + 3{e^{ – 1}}} \end{array}} \right).

Si consideramos la función f(s)=e^{st}=\displaystyle\sum\limits_{k = 0}^\infty {\dfrac{{{{\left( {st} \right)}^k}}}{{k!}}}, y A una matriz cuadrada de orden n, entonces f(s)=\Delta(s)Q(s)+R(s), donde R(s)=\displaystyle\sum_{k=0}^{n-1}\alpha_k(t)s^k=\alpha_0(t)+\alpha_1(t)s+\cdots+\alpha_{n-1}(t)s^{n-1}, y sustituyendo s por A tendremos

e^{At}=\displaystyle\sum_{k=0}^{n-1}\alpha_k(t)A^k.

donde los coeficientes \alpha_k, k=0,\ldots,n-1 se determinan aplicando esa condición en los valores propios de la matriz A

e^{\lambda_i t}=\displaystyle\sum_{k=0}^{n-1}\alpha_k(t)\lambda_i^k.

En el caso de que aparezcan valores propios con multiplicidad mayor que 1 el conjunto de ecuaciones anteriores no son suficientes para el calculo de los coeficientes \alpha_k, y añadimos las que se obtienen teniendo en cuenta que el valor de las derivadas de f y de R en ese valor propio también son iguales,

f^{(j)}(\lambda_i)=R^{(j)}(\lambda_i)

que en este caso se traducen en

t^je^{\lambda_i t}=R^{(j)}(\lambda_i)

donde j varía desde 0 a la multiplicidad del valor propio \lambda_i.

Concluimos que si A es una matriz cuadrada de orden n que tiene como  valores propios \lambda_i y consideramos  R(s)=\alpha_0+\alpha_1s+\cdots \alpha_{n-1}s^{n-1} calculamos e^{At} como

\boxed{\color{blue}\left\{ \begin{gathered} {e^{At}} = R(A) \\ {t^j}{e^{{\lambda _i}t}} = {R^{(j)}}({\lambda _i})\\ \end{gathered} \right.}

donde j va desde 0 hasta la multiplicidad del valor propio \lambda_i.

Ejemplos con matrices de orden 2.

En este caso R(s)=\alpha_0+\alpha_1 s.

  • A=\left(\begin{array}{rr}1 & 4 \\-1 & -3 \\\end{array}\right).
El polinomio característico es p(\lambda)=(\lambda+1)^2 y hay un único valor propio \lambda=-1  de multiplicidad 2. 
 
{e^{tA}} = \alpha_0+\alpha_1 A
donde \alpha_0 y \alpha_1 verifican el sistema
 
{\begin{array}{cc}{{e^{ – t}} =R(-1)= {\alpha _0} – {\alpha _1}} \\ {t{e^{ – t}}=R'(-1) = {\alpha 1}} \end{array} }
 
cuyas soluciones son \alpha_0=e^{-t}(1+t) y \alpha_1=te^{-t}.
 
{e^{At}} = {e^{ – t}}\left[ {\left( {\begin{array}{cc} {1 + t} & 0 \\ 0 & {1 + t} \\ \end{array} } \right) + \left( {\begin{array}{rr} t & {4t} \\ { – t} & { – 3t} \\ \end{array} } \right)} \right] = {e^{ – t}}\left( {\begin{array}{cc} {1 + 2t} & {4t} \\ { – t} & {1 – 2t} \\ \end{array} } \right).
 
  • A=\left(\begin{array}{cc}2&3\\2&1\end{array}\right) .
El polinomio característico es p(\lambda)=(\lambda+1)(\lambda-4) que tiene como valores propios \lambda_1=-1 y \lambda_2=4.
{e^{tA}} = \alpha_0+\alpha_1 A
donde \alpha_0 y \alpha_1 verifican el sistema
 
\left\{\begin{gathered} {e^{ – t}} =R(-1)= {\alpha _0} – {\alpha _1}\\ {e^{4t}} =R(4)= {\alpha _0} + 4{\alpha _1} \\\end{gathered} \right.
 
restando de la segunda ecuación la primera 
 
5\alpha_1=e^{4t}-e^{-t}, \alpha_1=\dfrac{1}{5}\left(e^{4t}-e^{-t}\right),
\alpha_0=e^{-t}+\alpha_1=\dfrac{1}{5}\left(e^{4t}+4e^{-t}\right).
Por lo tanto
 
\begin{darray}{rl}{e^{At}}& = {\text{ }}\frac{1}{5}\left( {\begin{array}{cc} {{e^{4t}} + 4{e^{ – t}}} & 0 \\ 0 & {{e^{4t}} + 4{e^{ – t}}} \\ \end{array} } \right) + \frac{1}{5}\left( {\begin{array}{cc} {2{e^{4t}} – 2{e^{ – t}}} & {3{e^{4t}} – 3{e^{ – t}}} \\ {2{e^{4t}} – 2{e^{ – t}}} & {{e^{4t}} + 3{e^{ – t}}} \\ \end{array} {\text{}}} \right) \\&= \frac{1}{5}\left( {\begin{array}{cc} {2{e^{ – t}} + 3{e^{4t}}} & {{\text{}} – 3{e^{ – t}} + 3{e^{4t}}} \\ { – 2{e^{ – t}} + 2{e^{4t}}} & {3{e^{ – t}} + 2{e^{4t}}} \\ \end{array} } \right)\end{darray}
 
  • A=\left( \begin{array}{cr} 2&-1\\4&2 \end{array}\right).

El polinomio característico es p(\lambda)=\lambda^2-4\lambda+8=(\lambda-(2+2i))(\lambda-(2-2i)) que tiene como valores propios \lambda_1=2+2i y \lambda_2=2-2i.

{e^{tA}} = \alpha_0+\alpha_1 A

donde \alpha_0 y \alpha_1 verifican

{e^{(2 + 2i)t}} = {\alpha _0} + {\alpha _1}(2 + 2i)

{e^{2t}}(\cos2t + i\operatorname{sen}2t) = {\alpha _0} + 2{\alpha _1} + 2i{\alpha _1},

\left\{ \begin{gathered} {\alpha _0} + 2{\alpha _1} = {e^{2t}}\cos 2t \\ 2{\alpha _1} = {e^{2t}}\operatorname{sen} 2t \\ \end{gathered} \right.

de donde \alpha_1=\dfrac{1}{2}e^{2t}\operatorname{sen}2t y \alpha_0=e^{2t}(\cos2t-\operatorname{sen}2t).

\begin{darray}{rl}{e^{At}} &= {e^{2t}}\left[ \left( \begin{array}{cc} \cos 2t – \operatorname{sen} 2t & 0 \\ 0 & \cos 2t – \operatorname{sen} 2t \\ \end{array}\right)+\left(\begin{array}{cc} \operatorname{sen} 2t & – \frac{1}{2}\operatorname{sen} 2t \\ 2\operatorname{sen} 2t & \cos 2t \\ \end{array}\right)\right]\\&=e^{2t}\left(\begin{array}{cc} \cos 2t & – \frac{1}{2}\operatorname{sen}2t \\ \operatorname{sen}2t & \cos 2t \\ \end{array}\right)\end{darray}.

Vemos ahora algún ejemplo para matrices de orden tres.

  • A=\left( \begin{array}{crr} 3&-1&-1\\1&1&-1\\1&-1&1 \end{array}\right).

El polinomio característico es p(\lambda)=(\lambda-1)(\lambda-2)^2 y tiene dos valores propios \lambda_1=1 y \lambda_2=2 doble.

e^{At}=\alpha_0+\alpha_1A+\alpha_2 A^2

donde \alpha_0, \alpha_1 y \alpha_2 cumplen

\left\{ \begin{gathered} {e^t} = {\alpha _0} + {\alpha _1} + {\alpha _2}\\ {e^{2t}} = {\alpha _0} + 2{\alpha _1} + 4{\alpha _2}\\ t{e^{2t}} = {\alpha _1} + 2{\alpha _2}\\ \end{gathered} \right.

La solución es

\begin{darray}{l} {\alpha _0} = {e^{2t}} – 2t{e^{2t}}, \\ {\alpha _1} = – 2{e^{2t}} + 2{e^t} + 3t{e^{2t}}, \\ {\alpha _2} = {e^{2t}} – {e^t} – t{e^{2t}}.\\ \end{darray}

En esta caso A^2=\left(\begin{array}{crr} 7&-3&-3\\3&1&-3\\3&-3&1 \end{array}\right) y obtenemos

{e^{At}} =  \left( {\begin{array}{ccc}{ – {e^t} + 2{e^{2t}}}&{{e^t} – {e^{2t}}}&{{e^t} – {e^{2t}}} \\ { – {e^t} + {e^{2t}}}&{{e^t}}&{{e^t} – {e^{2t}}}\\ { – {e^t} + {e^{2t}}}&{{e^t} – {e^{2t}}}&{{e^t}} \end{array}} \right).
  • A=\left(\begin{array}{crc} 1 & 0 & 0 \\ 2 & 0 & 1 \\ 2 & -1 & 0 \end{array} \right).

El polinomio característico es p(\lambda)=(\lambda-1)(\lambda^2+1) que tiene como valores propios \lambda_1=1, \lambda_2=i y \lambda_3=\overline{\lambda_2}=-i.

e^{At}=\alpha_0+\alpha_1A+\alpha_2 A^2

donde \alpha_0, \alpha_1 y \alpha_2 cumplen

\left\{ \begin{gathered} {e^t} = {\alpha _0} + {\alpha _1} + {\alpha _2}\\ {e^{it}} = {\alpha _0} + {\alpha _1}i – {\alpha _2} \Rightarrow \left\{ {\begin{array}{c} {{\alpha _0} – {\alpha _2} = \cos t} \\ {{\alpha _1} = \operatorname{sen} t} \\ \end{array} } \right. \\ \end{gathered} \right.

obteniendo


\left\{ \begin{darray}{l} {\alpha _0} = \frac{1}{2}{e^t} – \frac{1}{2}\operatorname{sen} t + \frac{1}{2}\cos t, \\ {\alpha _1} = \operatorname{sen} t,\\ {\alpha _2} = \frac{1}{2}{e^t} – \frac{1}{2}\operatorname{sen} t – \frac{1}{2}\cos t.\\ \end{darray} \right.

En este caso A^2=\left(\begin{array}{crr} 1&0&0\\4&-1&0\\0&0&-1 \end{array}\right).

Concluimos que

e^{At}=\left( \begin{array}{ccc} e^t & 0 & 0 \\ 2 e^t-2 \cos t & \cos t & \operatorname{sen} t \\ 2 \operatorname{sen} t & -\operatorname{sen} t & \cos t \end{array} \right).

Scroll al inicio