cl5-02. Ilustración del método


Ejemplo. Sea T:{P}_{2}\to {P}_{2} una T.L. tal que T(a+bx+c{{x}^{2}})=(a+b+5c)+(3b)x+(3a-c){{x}^{2}} Hallar sus eigenvalores y eigenvectores.

Solución:

Necesitamos utilizar una base para hallar una matriz de transformación. Puesto que no se nos indica alguna base en particular, se utilizará la base canónica B=\{1,x,{{x}^{2}}\}.

Transformando cada vector de la base:

\begin{array}{rcl} T(1)&=&1+3{{x}^{2}} \\ T(x)&=&1+3x \\ T({{x}^{2}})&=&5-{{x}^{2}} \end{array}

Y hallando las coordenadas de tales transformadas respecto a la base (la misma) del espacio de llegada, se tiene:

\begin{array}{rcl} & {{\left[ T(1) \right]}_{B}}&=&(1,0,3) \\ & {{\left[ T(x) \right]}_{B}}&=&(1,3,0) \\ & {{\left[ T({{x}^{2}}) \right]}_{B}}&=&(5,0,-1) \end{array}

Por lo cual, la matriz asociada a T es:

A=\left[ \begin{array}{rrr} 1 & 1 & 5 \\ 0 & 3 & 0 \\ 3 & 0 & -1 \end{array} \right]
Ahora, hay que resolver la ecuación \det (A-\lambda I)=0, hallando el siguiente determinante:

\det (A-\lambda I)=\det \left( \begin{array}{rrr} 1-\lambda & 1 & 5 \\ 0 & 3-\lambda & 0 \\ 3 & 0 & -1-\lambda \end{array} \right) \begin{array}{rcl} \det (A-\lambda I)&=(3-\lambda )\left[ \left( 1-\lambda \right)\left( -1-\lambda \right)-15 \right] \\ & =(3-\lambda )\left[ {{\lambda }^{2}}-16 \right] \\ & =(3-\lambda )(\lambda -4)(\lambda +4)=0 \end{array}

Cuyas soluciones son: \lambda =3\vee \lambda =4\vee \lambda =-4, es decir los valores propios. Por convención, los valores propios se ordenan de mayor a menor, por lo cual se tiene:

\begin{array}{rcl} {{\lambda }_{1}}&=&4 \\ {{\lambda }_{2}}&=&3 \\ {{\lambda }_{3}}&=&-4 \end{array}
Luego, para encontrar los vectores propios debemos hallar bases para el núcleo Nu(A-\lambda I) luego de reemplazar los valores propios.

Para {{\lambda }_{1}}=4:

Nu(A-{{\lambda }_{1}}I)\Rightarrow \left( \begin{array}{rrr|r} 1-{{\lambda }_{1}} & 1 & 5 & 0 \\ 0 & 3-{{\lambda }_{1}} & 0 & 0 \\ 3 & 0 & -1-{{\lambda }_{1}} & 0 \end{array} \right)

Resolviendo:

\left( \begin{array}{rrr|r} -3 & 1 & 5 & 0 \\ 0 & -1 & 0 & 0 \\ 3 & 0 & -5 & 0 \end{array} \right)\sim ...\left( \begin{array}{rrr|r} -3 & 1 & 5 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right)

es decir, {{\alpha }_{2}}=0 y -3{{\alpha }_{1}}+5{{\alpha }_{3}}=0. Por lo cual:

Nu(A-{{\lambda }_{1}}I)=\left\{ \left( {{\alpha }_{1}},{{\alpha }_{2}},{{\alpha }_{3}} \right)\in {{\mathsf{\mathbb{R}}}^{3}}/{{\alpha }_{2}}=0\text{ }\wedge \text{ }-3{{\alpha }_{1}}+5{{\alpha }_{3}}=0 \right\}

Una base de este núcleo es:
{{B}_{\lambda 1}}=\left\{ \left( \begin{array}{r} 5/3 \\ 0 \\ 1 \end{array} \right) \right\}

Por lo cual, el primer vector característico es:

{{v}_{1}}=\left( \begin{array}{r} 5 \\ 0 \\ 3 \end{array} \right)
Para {{\lambda }_{2}}=3:

Nu(A-{{\lambda }_{2}}I)\Rightarrow \left( \begin{array}{rrr|r} -2 & 1 & 5 & 0 \\ 0 & 0 & 0 & 0 \\ 3 & 0 & -4 & 0 \end{array} \right)\sim ...\left( \begin{array}{rrr|r} -2 & 1 & 5 & 0 \\ 0 & 3 & 7 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right)

Es decir,

Nu(A-{{\lambda }_{2}}I)=\left\{ \left( {{\alpha }_{1}},{{\alpha }_{2}},{{\alpha }_{3}} \right)\in {{\mathsf{\mathbb{R}}}^{3}}/{{\alpha }_{2}}=-(7/3){{\alpha }_{3}}\text{ }\wedge \text{ }{{\alpha }_{1}}=(4/3){{\alpha }_{3}} \right\}

Por lo cual, el respectivo vector característico es:

{{v}_{2}}=\left( \begin{array}{r} 4 \\ -7 \\ 3 \end{array} \right)
Para {{\lambda }_{3}}=-4:

Nu(A-{{\lambda }_{3}}I)\Rightarrow \left( \begin{array}{rrr|r} 5 & 1 & 5 & 0 \\ 0 & 7 & 0 & 0 \\ 3 & 0 & 3 & 0 \end{array} \right)\sim ...\left( \begin{array}{rrr|r} 1 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right)

Es decir,

Nu(A-{{\lambda }_{3}}I)=\left\{ \left( {{\alpha }_{1}},{{\alpha }_{2}},{{\alpha }_{3}} \right)\in {{\mathsf{\mathbb{R}}}^{3}}/{{\alpha }_{2}}=0\text{ }\wedge \text{ }{{\alpha }_{1}}+{{\alpha }_{3}}=0 \right\}

Por lo cual, el respectivo vector característico es:

{{v}_{3}}=\left( \begin{array}{r} -1 \\ 0 \\ 1 \end{array} \right)

Finalmente, los vectores propios de la matriz de transformación son coordenadas respecto a la base B (canónica en este caso), de los vectores propios de la transformación, por lo cual los resultados quedan así:

Para {{\lambda }_{1}}=4, el eigenvector es: {{v}_{1}}=5+3{{x}^{2}}.
Para {{\lambda }_{2}}=3, el eigenvector es: {{v}_{2}}=4-7x+3{{x}^{2}}.
Para {{\lambda }_{3}}=-4, el eigenvector es: {{v}_{3}}=-1+{{x}^{2}}.

Se cumplirá en cada caso que:
T({{v}_{1}})={{\lambda }_{1}}{{v}_{1}}T({{v}_{2}})={{\lambda }_{2}}{{v}_{2}}T({{v}_{3}})={{\lambda }_{3}}{{v}_{3}}

cl5-01. Valores y vectores característicos


Definición. Sea (V,\oplus ,\odot ) un espacio vectorial no trivial. Sea T:V\to V; sea v \in V. Se dice que v es un vector característico de T si y solo si:
i)  v\ne {{\mathbf{0}}_{V}}
ii) T(v)=\lambda \odot v
Donde se denomina a \lambda como el valor propio de la transformación.

Son sinónimos: vector propio, vector característico, eigenvector o autovector. Así también las siguientes expresiones son equivalentes: valor propio, valor característico, eigenvalor o autovalor.

Ejemplo. Sea V=C_{[a,b]}^{k}, y sea el operador lineal T:V\to V, tal que T[f(x)] = f'(x). Halle ejemplos de valores y vectores propios de T

Solución:

Se conoce que una función que es igual a su derivada es f(x)={{e}^{x}}, cuya transformada se ajusta a la deficinión T(v)=\lambda \odot v, con \lambda =1.

Se puede verificar que T[{{e}^{2x}}]=2{{e}^{2x}}, por lo cual {e}^{2x} es un eigenvector, cuyo eigenvalor es \lambda =2.

En modo general, f(x)={{e}^{ax}} es un vector propio de la transformación dada, con \lambda =a, pues T[{{e}^{ax}}]=a{{e}^{ax}}.

Otro ejemplo serían ciertas funciones constantes. Por ejemplo f(x)=5, cuya transformada es un múltiplo del vector: T[5]=0.

Nótese que el valor propio sí puede ser cero, pero el vector propio no puede ser el neutro. En modo general, funciones constantes f(x)=k\ne 0, son vectores propios con \lambda =0, pues T[k]=\lambda k=0.


Método general para hallar vectores y valores propios de un operador lineal T

Para hallar los valores y vectores característicos de una transformación se hace uso de su representación matricial. En este caso, si {{A}_{T}} es la matriz que representa a T respecto a una base B, se busca que:

{{A}_{T}}{{[v]}_{B}}=\lambda {{[v]}_{B}}.

A condición que v\ne {{\mathbf{0}}_{V}}. Por facilidad de escritura, se expresa la ecuación como {{A}_{T}}\mathbf{v}=\lambda \mathbf{v}. Pasando todos los términos al lado izquierdo:

\mathbf{Av}-\lambda \mathbf{v}=\mathbf{0}

Para poder factorizar el factor común \mathbf{v}, es necesario multiplicar la matriz Identidad para aplicar las propiedades de la multiplicación matricial:

\mathbf{Av}-\lambda \mathbf{Iv}=\mathbf{0}

Luego se factoriza, resultando el siguiente sistema homogéneo:

(\mathbf{A}-\lambda \mathbf{I})\mathbf{v}=\mathbf{0}

Este sistema siempre tiene por lo menos la solución trivial, pero dado que la definición requiere que el vector v sea distinto del vector neutro, un modo de garantizar esto es lograr que el determinante de la matriz de coeficientes del sistema sea cero:

\det (\mathbf{A}-\lambda \mathbf{I})=0

La solución a esta última ecuación son los valores característicos \lambda, de la matriz de transformación, que son iguales a los valores característicos de la transformación. Existen hasta n valores propios, {{\lambda }_{1}},{{\lambda }_{2}}...{{\lambda }_{n}}, entre soluciones reales distintas, reales repetidas y complejas conjugadas, de la última ecuación.

Una vez hallados los valores propios que garantizan que el sistema homogéneo tenga (infinitas) soluciones no triviales, se los reemplaza en el sistema para obtener el espacio solución, que equivale a hallar el núcleo Nu(\mathbf{A}-\lambda \mathbf{I}). En el núcleo, todos los vectores excepto el neutro son característicos, pero para simplificar la respuesta, se eligen como vectores característicos de la matriz a los vectores del conjunto base de Nu(\mathbf{A}-\lambda \mathbf{I}).

Finalmente, se debe recordar que los vectores propios de la matriz son en realidad las coordenadas, con respecto a la base B, de los vectores propios de la transformación, \mathbf{v}={{[v]}_{B}}, con lo cual se puede obtener los vectores no nulos de V que cumplen con T(v)=\lambda \odot v.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl4-03. Ortogonalidad, ortonormalidad y proyecciones


Ortogonalidad y ortonormalidad.

Definición. Sea V un espacio vectorial euclidiano, y sean u,v\in V. Se dice que los vectores u y v son ortogonales si y solo si \left\langle u,v \right\rangle =0
Teorema. Sea V un espacio vectorial euclidiano, el vector neutro {0}_{v}\in V es ortogonal a todos los vectores del espacio V.
Definición. Sea V un espacio vectorial euclidiano. Sea el conjunto S=\left\{ {{v}_{1}},{{v}_{2}},\cdots {{v}_{n}} \right\}\subseteq V. Se dice que S es un conjunto ortogonal si y solo si \left\langle {{v}_{i}},{{v}_{j}} \right\rangle =\left\{ \begin{array}{rr} 0, & i\ne j \\ {{\left\| {{v}_{i}} \right\|}^{2}}, & i=j \end{array} \right.
Definición. Sea V un espacio vectorial euclidiano. Sea el conjunto S=\left\{ {{u}_{1}},{{u}_{2}},\cdots {{u}_{n}} \right\}\subseteq V. Se dice que S es un conjunto ortonormal si y solo si \left\langle {{v}_{i}},{{v}_{j}} \right\rangle =\left\{ \begin{array}{rr} 0, & i\ne j \\ 1, & i=j \end{array} \right.

De acuerdo a las definiciones, se observa que un conjunto ortogonal contiene vectores perpendiculares entre sí, por lo cual el vector neutro puede estar contenido en ellos. Por otra parte, un conjunto ortonormal contiene vectores perpendiculares entre sí y con norma unitaria; esta condición excluye la posibilidad que el neutro pertenezca al conjunto. Todo conjunto ortonormal es ortogonal, pero no todo conjunto ortogonal es ortonormal.

Teorema. Sea V un espacio vectorial euclidiano, y sea S \subseteq V tal que S no contiene al neutro. Se cumple que si S es ortogonal, entonces S es linealmente independiente.

Este teorema indica que, con excepción hecha para el vector neutro, la condición de ortogonalidad es más fuerte que la condición de independencia lineal. Si el conjunto no contiene al neutro, la condición de ortogonalidad garantiza automáticamente la independencia lineal.

Corolario. Sea V un espacio vectorial euclidiano. Todo conjunto ortonomal S \subseteq V es también linealmente independiente.

Proyección escalar y vectorial.

Definición. Sea V un espacio vectorial euclidiano, y sean u,v\in V. donde v\ne {{\mathbf{0}}_{v}}. Se define la proyección escalar del vector u sobre el vector v como: Pro{{y}_{v}}u=\frac{\left\langle u,v \right\rangle }{\left\| v \right\|}
Definición. Sea V un espacio vectorial euclidiano, y sean u,v\in V, donde v\ne {{\mathbf{0}}_{v}}. Se define la proyección vectorial del vector u sobre el vector v como: {{\vec{\mathop{Proy}}\,}_{v}}u=\frac{\left\langle u,v \right\rangle }{\left\| v \right\|}\odot \frac{v}{\left\| v \right\|}=\frac{\left\langle u,v \right\rangle }{{{\left\| v \right\|}^{2}}}\odot v

Estas definiciones son análogas a las proyecciones definidas en {{\mathsf{\mathbb{R}}}^{n}} mediante el producto punto. Mediante el producto interno, se puede generalizar la definición a cualquier espacio vectorial euclidiano.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl4-02. Norma, distancias y ángulos


Norma de un vector

Definición. Sea \left\langle V,\oplus ,\odot  \right\rangle  un espacio vectorial euclidiano, y sea v\in V; se define la norma del vector v, denotada por \left\| v \right\|, como: \left\| v \right\|=\sqrt{\left\langle v,v \right\rangle }. Es decir, la norma al cuadrado de un vector es el producto interno del vector consigo mismo: {{\left\| v \right\|}^{2}}=\left\langle v,v \right\rangleUn espacio que tiene una norma definida se denomina Espacio Normado.
Propiedades de la norma de un vector.
Sea \left\langle V,\oplus ,\odot \right\rangle un espacio vectorial euclidiano, se cumple que:
i) \forall v\in V\text{ }\left\| v \right\|\ge 0 ii) \forall v\in V\text{ }\left\| v \right\|=0\Leftrightarrow v={{\mathbf{0}}_{v}} iii) \forall k\in \mathsf{\mathbb{R}}\text{ }\forall v\in V\text{ }\left\| k\odot v \right\|=\left| k \right|.\text{ }\left\| v \right\| iv) \forall u,v\in V\text{ }\left\| u\oplus v \right\|\le \left\| u \right\|+\left\| v \right\| v) \forall u,v\in V\text{ }\left\| u-v \right\|=\left\| v-u \right\|
Ejemplo.
Sea V=C_{[0,1]}^{k} y sea f\in V tal que f(x)={{e}^{x}}, calcular la norma \left\| f \right\|.

Solución:

Por definición, {{\left\| f \right\|}^{2}}=\left\langle {{e}^{x}},{{e}^{x}} \right\rangle .
Utilizando el producto interno estándar en el espacio dado:{{\left\| f \right\|}^{2}}=\int\limits_{0}^{1}{{{e}^{x}}{{e}^{x}}dx}=\int\limits_{0}^{1}{{{e}^{2x}}dx}=\left. \frac{{{e}^{2x}}}{2} \right|_{0}^{1}=\frac{{{e}^{2}}-1}{2} Obteniendo la raiz cuadrada: \left\| f \right\|=\sqrt{\frac{{{e}^{2}}-1}{2}}


Distancia entre dos vectores

Definición. Sea \left\langle V,\oplus ,\odot  \right\rangle  un espacio vectorial euclidiano, y sea la función d:V\times V\to \mathsf{\mathbb{R}}; d es una función distancia si y solo si se cumplen las siguientes propiedades:
i) \forall {{v}_{1}},{{v}_{2}}\in V\text{ }d({{v}_{1}},{{v}_{2}})\ge 0 ii) \forall {{v}_{1}},{{v}_{2}}\in V\text{ }d({{v}_{1}},{{v}_{2}})=0\Leftrightarrow {{v}_{1}}={{v}_{2}} iii) \forall {{v}_{1}},{{v}_{2}}\in V\text{ }d({{v}_{1}},{{v}_{2}})=d({{v}_{2}},{{v}_{1}}) iv) \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ }d({{v}_{1}},{{v}_{3}})\le d({{v}_{1}},{{v}_{2}})+d({{v}_{2}},{{v}_{3}}) La expresión d({{v}_{1}},{{v}_{2}}) se lee como "la distancia entre {{v}_{1}} y {{v}_{2}}". Un espacio que tiene una métrica o función distancia definida se denomina Espacio Métrico. Aunque las funciones distancia pueden existir otros tipos de estructuras algebraicas, en el caso de un espacio vectorial euclidiano V, la métrica es inducida por el producto interno por via de la definición de norma:
\forall v\in V\text{ }d({{v}_{1}},{{v}_{2}})=\left\| {{v}_{1}}-{{v}_{2}} \right\|, donde \left\| v \right\|=\sqrt{\left\langle v,v \right\rangle }, y \left\langle v,v \right\rangle es el P.I. definido en V.
Ejemplo.
Sea V={{M}_{2\times 2}} y sean las matrices A=\left( \begin{array}{rr} 2 & 3 \\ -1 & 5 \end{array} \right) y B=\left( \begin{array}{rr} -2 & 2 \\ 4 & 2 \end{array} \right), calcular la distancia entre las matrices A y B. Utilice el siguiente producto interno en {{M}_{2\times 2}}:
\forall A,B\in {{M}_{2\times 2}}
\left\langle A,B \right\rangle ={{a}_{11}}{{b}_{11}}+4{{a}_{12}}{{b}_{12}}+2{{a}_{21}}{{b}_{21}}+{{a}_{22}}{{b}_{22}}

Solución:

Según la definición de distancia en un espacio vectorial euclidiano:
d(A,B)=\left\| A-B \right\|
Donde A-B=\left( \begin{array}{rr} 4 & 1 \\ -5 & 3 \end{array}\right)
pero \left\| A-B \right\|=\sqrt{\left\langle A-B,A-B \right\rangle }

=\left\langle \left( \begin{array}{rr} 4 & 1 \\ -5 & 3 \end{array} \right),\left( \begin{array}{rr} 4 & 1 \\ -5 & 3 \end{array} \right) \right\rangle

={{[4]}^{2}}+4.{{[1]}^{2}}+2{{[-5]}^{2}}+{{[3]}^{2}}=79
Entonces:
d(A,B)=\left\| A-B \right\|=\sqrt{79}


Ángulo entre dos vectores

Definición. Sea \left\langle V,\oplus ,\odot  \right\rangle  un espacio vectorial euclidiano, y sean u,v\in V dos vectores no nulos; se define el ángulo entre los vectores u y v, a la cantidad \theta \in [0,\pi ], tal que:{Cos}(\theta )=\frac{\left\langle u,v \right\rangle }{\left\| u \right\|.\left\| v \right\|}. Es decir: \theta ={arccos}(\frac{\left\langle u,v \right\rangle }{\left\| u \right\|.\left\| v \right\|})
Ejemplo.
Sea V={{P}_{2}} y sean los polinomios p,q,r\in {{P}_{2}}, tales que: p(x)=2{{x}^{2}}+x+1, q(x)={{x}^{2}}-2x+3 y r(x)=k{{x}^{2}}+kx-2. a) Calcular el ángulo entre los vectores p y q. b) De ser posible, hallar el valor de k\in {R} para que los polinomios p y r sean ortogonales (perpendiculares).

Solución:

a) Según la definición: {Cos}(\theta )=\frac{\left\langle p,q \right\rangle }{\left\| p \right\|.\left\| q \right\|} Utilizando el P.I. estándar en {{P}_{2}}:
\left\langle p,q \right\rangle =2-2+3=3
\left\| p \right\|=\sqrt{\left\langle p,p \right\rangle }=\sqrt{{{2}^{2}}+{{1}^{2}}+{{1}^{2}}}=\sqrt{6}, y
\left\| q \right\|=\sqrt{\left\langle q,q \right\rangle }=\sqrt{{{1}^{2}}+{{(-2)}^{2}}+{{3}^{2}}}=\sqrt{14}

{Cos}(\theta )=\frac{\left\langle p,q \right\rangle }{\left\| p \right\|.\left\| q \right\|}=\frac{3}{\sqrt{6}\sqrt{14}}=\frac{\sqrt{3}}{2\sqrt{7}}, o:
\theta =\arccos \left( \frac{\sqrt{3}}{2\sqrt{7}} \right)\approx 70.89{}^\circ

b) Ortogonalidad o perpendicularidad implica que el ángulo entre los vectores debe ser 90° (o \pi /2 radianes), cuyo coseno es cero:
{Cos}(\theta )=\frac{\left\langle p,r \right\rangle }{\left\| p \right\|.\left\| r \right\|}=\frac{3k-2}{\sqrt{6}\sqrt{2{{k}^{2}}+4}}=0
Es decir, 3k-2=0 o k=\frac{2}{3}.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl4-01. Espacios Vectoriales con Producto interno


Producto interno complejo.
 
Definición. Sea \left\langle V,\oplus,\odot \right\rangle un espacio vectorial, sobre el campo de escalares complejo. Se define el producto interno complejo como una función denotada por \left\langle .,. \right\rangle:V\times V\to \mathsf{\mathbb{C}} si y solo si, se cumple que:

1. \forall v\in V\left\langle v,v \right\rangle \ge 0
2. \forall v\in V\left\langle v,v \right\rangle =0\Leftrightarrow v={{{\mathbf{0}}}_{v}}
3. \forall {{v}_{1}},{{v}_{2}}\in V\left\langle {{v}_{1}},{{v}_{2}} \right\rangle =\overline{\left\langle {{v}_{2}},{{v}_{1}} \right\rangle }
4. \forall {{v}_{1}},{{v}_{2}}\in V\text{ }\forall \alpha \in \mathsf{\mathbb{C}}\text{ }\left\langle \alpha \odot {{v}_{1}},\text{ }{{v}_{2}} \right\rangle =\alpha \left\langle {{v}_{1}},{{v}_{2}} \right\rangle
5. \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ }\left\langle {{v}_{1}}+{{v}_{2}},\text{ }{{v}_{3}} \right\rangle =\left\langle {{v}_{1}},{{v}_{3}} \right\rangle +\left\langle {{v}_{2}},{{v}_{3}} \right\rangle

Algunas consecuencias inmediatas de la definición son las siguientes:

6. \forall {{v}_{1}},{{v}_{2}}\in V\text{ }\forall \alpha \in \mathsf{\mathbb{C}}\text{ }\left\langle {{v}_{1}},\text{ }\alpha \odot {{v}_{2}} \right\rangle =\overline{\alpha }\left\langle {{v}_{1}},{{v}_{2}} \right\rangle
7. \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ }\left\langle {{v}_{1}},{{v}_{2}}+\text{ }{{v}_{3}} \right\rangle =\left\langle {{v}_{1}},{{v}_{2}} \right\rangle +\left\langle {{v}_{1}},{{v}_{3}} \right\rangle

Donde \overline{\alpha} indica el complejo conjugado de {\alpha}.

Cuando el campo de escalares es el de los números reales la lista de estas propiedades se reduce debido a que la conjugación compleja se puede omitir en el caso de los números reales.

La principal consecuencia es que el producto interno real tiene una propiedad conmutativa que el producto interno complejo no tiene.

Producto interno real.
 
Definición. Sea \left\langle V,\oplus,\odot \right\rangle un espacio vectorial, sobre el campo de escalares reales. Se define el producto interno real como una función denotada por \left\langle .,. \right\rangle:V\times V\to \mathsf{\mathbb{R}} si y solo si, se cumple que:

1. \forall v\in V\left\langle v,v \right\rangle \ge 0
2. \forall v\in V\left\langle v,v \right\rangle =0\Leftrightarrow v={{{\mathbf{0}}}_{v}}
3. \forall {{v}_{1}},{{v}_{2}}\in V\left\langle {{v}_{1}},{{v}_{2}} \right\rangle ={\left\langle {{v}_{2}},{{v}_{1}} \right\rangle }
4. \forall {{v}_{1}},{{v}_{2}}\in V\text{ }\forall \alpha \in \mathsf{\mathbb{R}}\text{ } \left\langle \alpha \odot {{v}_{1}},\text{ }{{v}_{2}} \right\rangle =\left\langle {{v}_{1}},\alpha \odot \text{ }{{v}_{2}} \right\rangle =\alpha \left\langle {{v}_{1}},{{v}_{2}} \right\rangle
5. \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ } \left\langle {{v}_{1}}+{{v}_{2}},\text{ }{{v}_{3}} \right\rangle =\left\langle {{v}_{1}},{{v}_{3}} \right\rangle +\left\langle {{v}_{2}},{{v}_{3}} \right\rangle
Definición. Se denomina Espacio Euclidiano a todo Espacio Vectorial que tiene un Producto Interno.
Ejemplo. Sea V={{M}_{2\times 2}}. Determine si la función \left\langle \text{ },\text{ } \right\rangle :V\times V\to \mathsf{\mathbb{R}} tal que \left\langle A,B \right\rangle =\det (A)\det (B) es un producto interno (P.I.) en V.

Solución:

Se debe determinar si se cumplen las 5 propiedades del P.I. real:
i) \forall A\in {{M}_{2\times 2}}\text{ }\left\langle A,A \right\rangle \ge 0

Sea A\in {{M}_{2\times 2}}, luego:
\left\langle A,A \right\rangle =\det (A)\det (A)={{\left[ \det (A) \right]}^{2}}\ge 0
En consecuencia sí se cumple esta propiedad.

ii) \forall A\in {{M}_{2\times 2}}\text{ }\left\langle A,A \right\rangle =0\Leftrightarrow A={{\mathbf{0}}_{v}}

Sea A\in {{M}_{2\times 2}}, se demostrará la equivalencia demostrando las implicaciones en ambas direcciones por separado:

ii-a) A={{\mathbf{0}}_{v}}\to \left\langle A,A \right\rangle =0
Si A=\left( \begin{array}{rr} 0 & 0 \\ 0 & 0 \end{array} \right), luego {det(A)}=0, por lo cual se cumple que
\left\langle A,A \right\rangle ={{[\det (A)]}^{2}}=0

ii-b) \,\left\langle A,A \right\rangle =0\to A={{\mathbf{0}}_{v}}
Si \left\langle A,A \right\rangle =0, luego {det(A)}=0, pero esto no implica que la matriz A sea necesariamente la matriz neutra.

Contraejemplo:
SeaA=\left( \begin{array}{rr} 1 & 0 \\ 0 & 0 \end{array} \right), esta matriz no es la matriz nula, sin embargo su determinante es cero, lo que hace que \left\langle A,A \right\rangle =0.
La segunda propiedad no se cumple \therefore \left\langle \text{ },\text{ } \right\rangle no es un producto interno en el espacio dado.


Catálogo de Productos Internos Estándares

Aunque en un espacio vectorial euclidiano se pueden definir más de un producto interno, cuando no se especifica alguno se utiliza el denominado producto interno estándar en ese espacio.

{{\mathsf{\mathbb{R}}}^{n}}: En este espacio, el producto interno estándar es el conocido producto punto o producto escalar:
\forall \mathbf{x},\mathbf{y}\in {{\mathbb{R}}^{n}}
\left\langle \left( \begin{array}{r} {{x}_{1}} \\ {{x}_{2}} \\ \vdots \\ {{x}_{n}} \end{array} \right),\left( \begin{array}{r} {{y}_{1}} \\ {{y}_{2}} \\ \vdots \\ {{y}_{n}} \end{array} \right) \right\rangle ={{x}_{1}}{{y}_{1}}+{{x}_{2}}{{y}_{2}}+\cdots {{x}_{n}}{{y}_{n}}
=\sum\limits_{i=1}^{n}{{{x}_{i}}{{y}_{i}}}.
También puede expresarse como un producto matricial:
\left\langle \mathbf{x},\mathbf{y} \right\rangle={{\mathbf{x}}^{T}}\mathbf{y}=\left[ \begin{array}{rrrr} {{x}_{1}} & {{x}_{2}} & \cdots & {{x}_{n}} \end{array} \right]\left[ \begin{array}{r} {{y}_{1}} \\ {{y}_{2}} \\ \vdots \\ {{y}_{n}} \end{array} \right]
{{\mathsf{\mathbb{C}}}^{n}}: En este espacio, el producto interno estándar es:
\forall \mathbf{x},\mathbf{y}\in {{\mathbb{C}}^{n}}
\left\langle \left( \begin{array}{r} {{x}_{1}} \\ {{x}_{2}} \\ \vdots \\ {{x}_{n}} \end{array} \right),\left( \begin{array}{r} {{{\bar{y}}}_{1}} \\ {{{\bar{y}}}_{2}} \\ \vdots \\ {{{\bar{y}}}_{n}} \end{array} \right) \right\rangle ={{x}_{1}}{{\bar{y}}_{1}}+{{x}_{2}}{{\bar{y}}_{2}}+\cdots {{x}_{n}}{{\bar{y}}_{n}}
=\sum\limits_{i=1}^{n}{{{x}_{i}}{{{\bar{y}}}_{i}}}.
O, como producto matricial:
\left\langle \mathbf{x},\mathbf{y} \right\rangle ={{\mathbf{x}}^{T}}\mathbf{\bar{y}}=\left[ \begin{array}{rrrr} {{x}_{1}} & {{x}_{2}} & \cdots & {{x}_{n}} \end{array} \right]\left[ \begin{array}{r} {{{\bar{y}}}_{1}} \\ {{{\bar{y}}}_{2}} \\ \vdots \\ {{{\bar{y}}}_{n}} \end{array}\right]
Donde \overline{a} indica el complejo conjugado de {a}.
{{P}_{n}}: En el espacio de los polinomios de grado menor o igual que n, el producto interno estándar es:
\forall p,q\in {{P}_{n}}\left\langle p,q \right\rangle =
\left\langle {{a}_{0}}+{{a}_{1}}x+{{a}_{2}}{{x}^{2}}+{{a}_{n}}{{x}^{n}},{{b}_{0}}+{{b}_{1}}x+{{b}_{2}}{{x}^{2}}+{{b}_{n}}{{x}^{n}} \right\rangle
={{a}_{0}}{{b}_{0}}+{{a}_{1}}{{b}_{1}}+{{a}_{2}}{{b}_{2}}+\cdots {{a}_{n}}{{b}_{n}}=\sum\limits_{i=0}^{n}{{{a}_{i}}{{b}_{i}}}
{{M}_{mn}}: En el espacio de las matrices {{M}_{m\times n}}, el producto interno estándar es:
\forall A,B\in {{M}_{m\times n}}\left\langle A,B \right\rangle =
\left\langle \left( \begin{array}{rrrr} {{a}_{11}} & {{a}_{12}} & {...} & {{a}_{1n}} \\ {{a}_{21}} & {{a}_{22}} & {...} & {{a}_{2n}} \\ \vdots & \vdots & {} & \vdots \\ {{a}_{m1}} & {{a}_{m2}} & {...} & {{a}_{mn}} \end{array} \right),\left( \begin{array}{rrrr} {{b}_{11}} & {{b}_{12}} & {...} & {{b}_{1n}} \\ {{b}_{21}} & {{b}_{22}} & {...} & {{b}_{2n}} \\ \vdots & \vdots & {} & \vdots \\ {{b}_{m1}} & {{b}_{m2}} & {...} & {{b}_{mn}} \end{array} \right) \right\rangle
={{a}_{11}}{{b}_{11}}+{{a}_{12}}{{b}_{12}}+\cdots+{{a}_{ij}}{{b}_{ij}}+\cdots {{a}_{mn}}{{b}_{mn}}
=\sum\limits_{i=1}^{m}{\sum\limits_{j=1}^{n}{{{a}_{ij}}{{b}_{ij}}}}
C_{[a,b]}^{k}: En el espacio de las funciones clase C_{[a,b]}^{k}, el producto interno es:
\forall f,g\in C_{[a,b]}^{k}:
\left\langle f,g \right\rangle =\int\limits_{a}^{b}{f(x)g(x)dx}

Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl3-04. Matriz asociada a un transformación


Teorema. Sean V y W dos espacios vectoriales de dimensión n y m, respectivamente. Sean {B}_{1} y {B}_{2} sus respectivas bases. Sea T{:}\ V\rightarrow W una transformación lineal; entonces existe una única matriz {A}_{T} de m\times n tal que: 

{{[T(v)]}_{B2}}={{A}_{T}}.{{[v]}_{B1}}

La matriz {A}_{T} se denomina matriz de transformación correspondiente a T o representación matricial de T, con respecto a las bases {B}_{1} y {B}_{2}. Se suele representar también como {{A}_{{{T}_{B1B2}}}} para indicar que tal matriz utiliza trabaja exclusivamente con coordenadas respecto a las bases {B}_{1} y {B}_{2} en los espacios de partida y de llegada.

Construcción de una matriz de transformación. Sean {B}_{1} y {B}_{2} dos bases respectivas de los espacios V y W, tales que {{B}_{1}}=\left\{ {{v}_{1}},{{v}_{2}},\cdots {{v}_{n}} \right\} y {{B}_{2}}=\left\{ {{w}_{1}},{{w}_{2}},\cdots {{w}_{n}} \right\}. 

Si T{:}\ V\rightarrow W es una transformación lineal, entonces el procedimiento para calcular la matriz {{A}_{{{T}_{B1B2}}}} es el siguiente:

1.- Calcular T({v}_{i}), para i=1,2,...n 
2.- Determinar el vector de coordenadas de T({v}_{i}) respecto a la base B2, {{[T({v}_{i})]}_{B2}}.
3.- Construir la matriz {{A}_{{{T}_{B1B2}}}} eligiendo a {{[T({v}_{i})]}_{B2}} como la {i}-ésima columna de {A}_{T}.


{{A}_{{{T}_{B1B2}}}} = \left[ \begin{array}{rrrr} \uparrow  & \uparrow  & {} & \uparrow \\ {{[T({{v}_{1}})]}_{B2}} & {{[T({{v}_{2}})]}_{B2}} & \cdots  & {{[T({{v}_{n}})]}_{B2}} \\ \downarrow  & \downarrow  & {} & \downarrow \end{array} \right]

Utilización de la matriz de transformación. 
Si {{[v]}_{B1}} son las coordenadas de v \in V, entonces se puede calcular {{[T(v)]}_{B2}} mediante la expresión:

{{[T(v)]}_{B2}}={{A}_{T}}.{{[v]}_{B1}}, \forall v\in V.

Ejemplo 
Sea B=\left\{ {{e}^{x}},{{e}^{-x}},x{{e}^{x}},{{x}^{2}}{{e}^{x}} \right\} una base de V=gen(B), T:V\to V una transformación lineal tal que T(f)=f'(x), determine {{A}_{{{T}_{B}}}}.

Solución

1.- Transformar cada vector de la base del espacio de partida, B:

T({{e}^{x}})={{e}^{x}}
T({{e}^{-x}})=-{{e}^{-x}}
T(x{{e}^{x}})={{e}^{x}}+x{{e}^{x}}
T({{x}^{2}}{{e}^{x}})=2x{{e}^{x}}+{{x}^{2}}{{e}^{x}}

2.- Determinar las coordenadas de tales transformadas, respecto a la base del espacio de llegada, en este caso la misma base B para el mismo espacio V:

{{\left[ T({{e}^{x}}) \right]}_{B}}={{\left[ {{e}^{x}} \right]}_{B}}=(1,0,0,0)
{{\left[ T({{e}^{-x}}) \right]}_{B}}={{\left[ -{{e}^{-x}} \right]}_{B}}=(0,-1,0,0)
{{\left[ T(x{{e}^{x}}) \right]}_{B}}={{\left[ {{e}^{x}}+x{{e}^{x}} \right]}_{B}}=(1,0,1,0)
{{\left[ T({{x}^{2}}{{e}^{x}}) \right]}_{B}}={{\left[ 2x{{e}^{x}}+{{x}^{2}}{{e}^{x}} \right]}_{B}}=(0,0,2,1)

3.- Construir la matriz con las coordenadas halladas:

{{A}_{{{T}_{B}}}}=\left[ \begin{array}{rrrr} 1 & 0 & 1 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{array} \right].

Ejemplo 
Utilice la matriz del ejemplo anterior para calcular T({Cosh}(x))

Solución

Aunque se puede calcular mediante la regla de correspondencia que T({Cosh}(x))=Senh(x), se requiere en el ejercicio utilizar la matriz de transformación. La matriz de transformación opera entre coordenadas, así se necesita hallar {{\left[ {Cosh}(x) \right]}_{B}}:

Dado que {Cosh}(x)=\frac{{{e}^{x}}+{{e}^{-x}}}{2}, entonces vector de coordenadas es {{\left[ {Cosh}(x) \right]}_{B}}=(1/2,1/2,0,0)

Luego, se tiene que {{[T(v)]}_{B}}={{A}_{{{T}_{B}}}}{{[v]}_{B}}, es decir:

{{[T({Cosh}(x))]}_{B}}=\left[ \begin{array}{rrr} 1 & 0 & 1 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{array} \right]\left( \begin{array}{r} 1/2 \\ 1/2 \\ 0 \\ 0 \end{array} \right)=\left( \begin{array}{r} 1/2 \\ -1/2 \\ 0 \\ 0 \end{array} \right)

Lo que significa que:
T({Cosh}(x))=\frac{1}{2}{{e}^{x}}-\frac{1}{2}{{e}^{-x}}+0x{{e}^{x}}+0{{x}^{2}}{{e}^{x}}
Es decir:
T({Cosh}(x))=\frac{{{e}^{x}}-{{e}^{-x}}}{2}=Senh(x)

cl3-02. Inyectividad, sobreyectividad, composición e inversa


En cuanto funciones, las transformaciones lineales pueden tener la cualidad de inyectiva, sobreyectiva, pueden componerse bajo ciertas condiciones y, si son biyectivas pueden invertirse.

Inyectividad

Definición. Sean V y W espacios vectoriales cualesquiera. Sea la transformación lineal T{:}\ V\rightarrow W. T es inyectiva si y solo si se satisface la siguiente condición:

\forall {{v}_{1}},{{v}_{2}}\in V\text{    }{{v}_{1}}\ne {{v}_{2}}\Rightarrow T({{v}_{1}})\ne T({{v}_{2}}).

La contrapositiva de esta expresión (equivalente) suele utilizarse en las demostraciones:

\forall {{v}_{1}},{{v}_{2}}\in V\text{    }T({{v}_{1}})=T({{v}_{2}})\text{ }\Rightarrow {{v}_{1}}={{v}_{2}}.
Ejemplo. Sea la transformación lineal T:{{\mathsf{\mathbb{R}}}^{2}}\to {{P}_{2}} definida por T(a,b)=(a-2b){{x}^{2}}+(2a+b)x+(-a+3b). Determine si T es inyectiva.

Solución
Se determinará si T cumple con \forall {{v}_{1}},{{v}_{2}}\in {{\mathsf{\mathbb{R}}}^{2}}\text{ }T({{v}_{1}})=T({{v}_{2}})\text{ }\Rightarrow {{v}_{1}}={{v}_{2}}.

Sean {{v}_{1}}=({{a}_{1}},{{b}_{1}}) y {{v}_{2}}=({{a}_{2}},{{b}_{2}}) dos elementos arbitrarios de R2 tales que:
T({{a}_{1}},{{b}_{1}})=({{a}_{1}}-2{{b}_{1}}){{x}^{2}}+(2{{a}_{1}}+{{b}_{1}})x+(-{{a}_{1}}+3{{b}_{1}}), y
T({{a}_{2}},{{b}_{2}})=({{a}_{2}}-2{{b}_{2}}){{x}^{2}}+(2{{a}_{2}}+{{b}_{2}})x+(-{{a}_{2}}+3{{b}_{2}})

Si suponemos el antecedente verdadero, la siguiente expresión es verdadera:
({{a}_{1}}-2{{b}_{1}}){{x}^{2}}+(2{{a}_{1}}+{{b}_{1}})x+(-{{a}_{1}}+3{{b}_{1}})=
({{a}_{2}}-2{{b}_{2}}){{x}^{2}}+(2{{a}_{2}}+{{b}_{2}})x+(-{{a}_{2}}+3{{b}_{2}})

Lo que implica resolver el siguiente sistema

\left\{ \begin{array}{rcl}{{a}_{1}}-2{{b}_{1}}&=&{{a}_{2}}-2{{b}_{2}} \\ 2{{a}_{1}}+{{b}_{1}}&=&2{{a}_{2}}+{{b}_{2}} \\ -{{a}_{1}}+3{{b}_{1}}&=&-{{a}_{2}}+3{{b}_{2}} \end{array}\right. \left(\begin{array}{rr|r} 1 & -2 & {{{a}_{2}}-2{{b}_{2}}} \\ 2 & 1 & {2{{a}_{2}}+{{b}_{2}}} \\ -1 & 3 & {-{{a}_{2}}+3{{b}_{2}}} \end{array} \right) \sim ...\left(\begin{array}{rr|r} 1 & 0 & {{a}_{2}} \\ 0 & 1 & {{b}_{2}} \\ 0 & 0 & 0 \end{array} \right)

Se observa que {{b}_{1}}={{b}_{2}} y {{a}_{1}}={{a}_{2}}. En consecuencia, {{v}_{1}}={{v}_{2}} y la transformación dada es inyectiva.

Sobreyectividad

Definición. Sean V y W espacios vectoriales cualesquiera. Sea la transformación lineal T{:}\ V\rightarrow W. T es sobreyectiva si y solo si se satisface la siguiente condición:

\forall w\in W\text{ }\exists v\in V\text{  }w=T(v).
Ejemplo. Sea la transformación lineal T:{{P}_{2}}\to {{M}_{2\times 2}} definida por T(a{{x}^{2}}+bx+c) = \left( \begin{array}{rr} a+b+c & 2a-b+2c \\ a-2b+c & 2a-4b+2c \end{array} \right)
. Determine si T es sobreyectiva.

Solución

Se determinará si se cumple que \forall w\in {{M}_{2\times 2}}\text{ }\exists v\in {{P}_{2}}\text{ }w=T(v).

Sea w=\left( \begin{array}{rr} w1 & w2 \\ w3 & w4 \end{array} \right)\in {{M}_{2\times 2}} y v=a{{x}^{2}}+bx+c\in {{P}_{2}}; luego:

T(a{{x}^{2}}+bx+c)=

\left( \begin{array}{rr} a+b+c & 2a-b+2c \\ a-2b+c & 2a-4b+2c \end{array}\right) = \left( \begin{array}{rr} w1 & w2 \\ w3 & w4 \end{array} \right),

lo que implica resolver el sistema:

\left\{ \begin{array}{rcl}{a+b+c}&=&{w1} \\ {2a-b+2c}&=&{w2} \\ {a-2b+c}&=&{w3} \\ {2a-4b+2c}&=&{w4} \end{array}\right.

\left( \begin{array}{rrr|r} 1 & 1 & 1 & {{w}_{1}} \\ 2 & -1 & 2 & {{w}_{2}} \\ 1 & -2 & 1 & {{w}_{3}} \\ 2 & -4 & 2 & {{w}_{4}} \end{array} \right) \sim ...\left( \begin{array}{rrr|r} 1 & 1 & 1 & {{w}_{1}} \\ 0 & -3 & 0 & {{w}_{2}}-2{{w}_{1}} \\ 0 & 0 & 0 & {{w}_{3}}-{{w}_{2}}+{{w}_{1}} \\ 0 & 0 & 0 & {{w}_{4}}-2{{w}_{2}}+2{{w}_{1}} \end{array} \right).

El sistema es consistente solo si {{w}_{3}}-{{w}_{2}}+{{w}_{1}}=0 y {{w}_{4}}-2{{w}_{2}}+2{{w}_{1}}=0 ; por lo cual no cualquier vector w posee un respectivo v tal que T(v)=w. T no es sobreyectiva.

Biyectividad y Espacios Isomorfos

Definición. Sea la transformación lineal T{:}\ V\rightarrow W. T es biyectiva si y solo si T es inyectiva y sobreyectiva.
 Una transformación lineal es invertible si y solo si es biyectiva. Una transformación biyectiva recibe el nombre de Isomorfismo.
Definición. Sean V y W dos espacios vectoriales, se denominan espacios isomorfos si y solo si se puede construir un isomorfismo (biyección) entre V y W.

Composición

Definición. Sean las transformaciones lineales {T}_{1}{:}\ V\rightarrow W, y {T}_{2}{:}\ W\rightarrow Z, entonces la composición de T2 con T1 es la función {{T}_{2}}o{{T}_{1}}:V\to Z tal que {{T}_{2}}o{T}_{1}={{T}_{2}}[{{T}_{1}}(v)], \forall v\in V.
 La composición de T2 con T1, {{T}_{2}}o{{T}_{1}} es posible solo si el recorrido de T1 es subconjunto del dominio de T2.
Ejemplo. Sean las transformaciones lineales {{T}_{1}}:{{\mathsf{\mathbb{R}}}^{2}}\to {{P}_{2}} y {{T}_{2}}:{{P}_{2}}\to {{M}_{2\times 2}} definidas por:
{{T}_{1}}(a,b,c)=(a-c){{x}^{2}}+(b+c)x+c, y
{T}_{2}(a{{x}^{2}}+bx+c) = \left( \begin{array}{rr} a+b & b+2c \\ a-c & 2a+2c \end{array} \right). 
Determine, de ser posible, las composiciones {{T}_{1}}o{{T}_{2}} y {{T}_{2}}o{{T}_{1}}.

Solución

La composición {{T}_{1}}o{{T}_{2}} no es posible porque el recorrido de {{T}_{2}} no es un subconjunto del dominio de {{T}_{1}}. Por otra parte, la composición {{T}_{2}}o{{T}_{1}} es posible de efectuar:

{{T}_{2}}o{{T}_{1}}={{T}_{2}}({{T}_{1}})={{T}_{2}}([(a-c){{x}^{2}}+(b+c)x+c])
=\left( \begin{array}{rr} (a-c)+(b+c) & (b+c)+2c \\ (a-c)-c & 2(a-c)+2c \end{array} \right)=\left( \begin{array}{rr} a+b & b+3c \\ a-2c & 2a \end{array} \right)

Es decir:

{{T}_{2}}o{{T}_{1}}(a,b,c)=\left( \begin{array}{rr} a+b & b+3c \\ a-2c & 2a \end{array} \right).

Transformación Identidad

Definición. Sea V un espacio vectorial, y sea la transformación lineal {I}_{V}{:}\ V\rightarrow V, {I}_{V} es la transformación Identidad en V si y solo si {{I}_{V}}(v)=v,  \forall v\in V.

Transformación Inversa

Definición. Sea T:V\to W un isomorfismo (es decir, una transformación lineal biyectiva). Entonces, T es invertible y existe su transformación inversa {{T}^{-1}}:W\to V tal que:
{{T}^{-1}}oT={{I}_{V}}, y To{{T}^{-1}}={{I}_{W}}.
Ejemplo. Sea el isomorfismo T:{{S}_{2\times 2}}\to {{P}_{2}} tal que T\left( \begin{array}{rr} a & b \\ b & c \end{array} \right) = (a+b+c){{x}^{2}}+(-b-c)x+(-b+c). Determine su transformación inversa.

Solución

El procedimiento refleja los pasos que se sigue para hallar la transformación inversa de una función de variable real, tomamos la regla de correspondencia T(v) y la igualamos a un elemento típico del espacio de llegada, w = T(v). «Despejamos» v en función de w, y un cambio de variable final nos aclara sobre la regla de correspondencia de la inversa:

Sea w={{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}} un vector típico arbitrario del espacio de llegada. Entonces:

(a+b+c){{x}^{2}}+(-b-c)x+(-b+c)={{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}}.

Esta igualdad implica resolver el siguiente sistema:
\left\{ \begin{array}{rcl} a+b+c={{k}_{2}} \\ -b-c={{k}_{1}} \\ -b+c={{k}_{0}} \end{array} \right.

\left( \begin{array}{rrr|r} 1 & 1 & 1 & {{k}_{2}} \\ 0 & -1 & -1 & {{k}_{1}} \\ 0 & -1 & 1 & {{k}_{0}} \end{array} \right)\tilde{\ }...\left( \begin{array}{rrr|r} 1 & 0 & 0 & {{k}_{2}}+{{k}_{1}} \\ 0 & 2 & 0 & -{{k}_{1}}-{{k}_{0}} \\ 0 & 0 & 2 & {{k}_{0}}-{{k}_{1}} \end{array} \right).

Es decir, a={{k}_{2}}+{{k}_{1}}, b=(-{{k}_{1}}-{{k}_{0}})/2 y c=({{k}_{0}}-{{k}_{1}})/2.

Si originalmente la transformación T tiene la forma:
T\left( \begin{array}{rr} a & b \\ b & c \end{array} \right)={{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}},
La inversa tiene la forma:
{{T}^{-1}}({{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}})=\left( \begin{array}{rr} a & b \\ b & c \end{array} \right).

Reemplazando las expresiones halladas al resolver el sistema lineal, se tiene:
{{T}^{-1}}({{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}})=\left( \begin{array}{rr} {{k}_{2}}+{{k}_{1}} & (-{{k}_{1}}-{{k}_{0}})/2 \\ (-{{k}_{1}}-{{k}_{0}})/2 & ({{k}_{0}}-{{k}_{1}})/2 \end{array} \right),

que es la regla de correspondencia de la inversa de T.

cl3-03. Núcleo e Imagen de una Transformación


Núcleo y Nulidad de una Transformación.

Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define el Núcleo de T al conjunto de todos los elementos de V cuya transformada es el neutro de W: 

Nu(T)=\left\{ v\in V/T(v)={{0}_{w}} \right\}

Algunos autores utilizan el término Kernel en lugar de Núcleo, Ker(T).
 Sea T{:}\ V\rightarrow W una transformación lineal, el Núcleo de T es un subespacio de V
Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define la nulidad de T a la dimensión del respectivo Núcleo: 

\upsilon (T)=\dim(Nu(T))

Por lo tanto, 0\le \upsilon (T)\le \dim(V)

Imagen y Rango de una Transformación.

Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define Imagen de T al conjunto de todos los elementos de W que son la transformada de algún vector en el espacio de partida: 

{Im}(T)=\left\{ w\in W/\text{ }\exists v\in V\text{ }tal\text{ }que\text{ }w=T(v) \right\}

Algunos autores utilizan el término Recorrido en lugar de Imagen, Rec(T).
 Sea T{:}\ V\rightarrow W una transformación lineal, la Imagen de T es un subespacio de W
Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define rango de T a la dimensión de la respectiva Imagen: 

\rho (T)=\dim({Im}(T))

Por lo tanto, 0\le \rho (T)\le \dim(W)

Teorema de la Dimensión

Sea T{:}\ V\rightarrow W una transformación lineal, se cumple que: 

\upsilon(T) + \rho(T)=\dim(V)

Relación con la inyectividad y la sobreyectividad de una transformación

Teorema. Sea T{:}\ V\rightarrow W una transformación lineal, T es inyectiva si y solo si:
 \upsilon(T) = 0
Teorema. Sea T{:}\ V\rightarrow W una transformación lineal, T es sobreyectiva si y solo si:
 \rho(T) = \dim(W)
Teorema. Sean V y W dos espacios vectoriales, se dice que son isomorfos si y solo si \dim(V) = \dim(W).

Ejemplo Sea T:{{P}_{2}}\to {{R}^{4}} una transformación lineal tal que: 
T(a{{x}^{2}}+bx+c)=(a+b,b+c,a-c,a+2b+c), 
determine {Nu}(T) e {Im}(T).

Solución

Imagen.- Según la definición, se debe hallar todos los vectores w\in {{R}^{4}} tales que T(v)=w para algún v \in {P}_{2}. Sea
v=a{{x}^{2}}+bx+c\in {{P}_{2}} y sea w=({{w}_{1}},{{w}_{2}},{{w}_{3}},{{w}_{4}}), entonces se tiene que:

T(v)=(a+b,b+c,a-c,a+2b+c)=({{w}_{1}},{{w}_{2}},{{w}_{3}},{{w}_{4}}),

lo que implica resolver el siguiente sistema:

\left\{ \begin{array}{rcl} a+b={{w}_{1}} \\ b+c={{w}_{2}} \\ a-c={{w}_{3}} \\ a+2b+c={{w}_{4}} \end{array} \right. ,

\left( \begin{array}{rrr|r} 1 & 1 & 0 & {{w}_{1}} \\ 0 & 1 & 1 & {{w}_{2}} \\ 1 & 0 & -1 & {{w}_{3}} \\ 1 & 2 & 1 & {{w}_{4}} \end{array} \right)\sim ...\left( \begin{array}{rrr|r} 1 & 1 & 0 & {{w}_{1}} \\ 0 & 1 & 1 & {{w}_{2}} \\ 0 & 0 & 0 & {{w}_{3}}+{{w}_{2}}-{{w}_{1}} \\ 0 & 0 & 0 & {{w}_{4}}-{{w}_{2}}-{{w}_{1}} \end{array}\right) .

Las condiciones para que el sistema sea consistente se vuelven las condiciones de la imagen de T:

{Im}(T)=\left\{ {({{w}_{1}},{{w}_{2}},{{w}_{3}},{{w}_{4}})\in {{R}^{4}}}/{\begin{array}{r} & {{w}_{3}}+{{w}_{2}}-{{w}_{1}}=0 \\ & \wedge \text{ }{{w}_{4}}-{{w}_{2}}-{{w}_{1}}=0 \end{array}}\; \right\}.

Núcleo.- Según la definición, se debe hallar todos los vectores v\in {{P}_{2}} tales que T(v)={0}_{w}, entonces se tiene que:

T(v)=(a+b,b+c,a-c,a+2b+c)=(0,0,0,0),

lo que implica resolver el siguiente sistema:

\left\{ \begin{array}{rcl} a+b={0} \\ b+c={0} \\ a-c={0} \\ a+2b+c={0} \end{array} \right. ,

\left( \begin{array}{rrr|r} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right).

A partir de lo cual, podemos describir el núcleo de T:

Nu(T)=\left\{ {a{{x}^{2}}+bx+c\in {{P}_{2}}}/{\begin{array}{r} & a+b=0 \\ & \wedge \text{ }b+c=0 \end{array}}\; \right\}

cl1-03. Rango de una Matriz


Definición. Sea A una matriz m\times n, el rango de A es el número de filas no nulas que resultan luego de reducir por renglones a la matriz.

Notación. Se denota el rango de la matriz A como \rho\left(A\right), Rg\left(A\right) o r\left(A\right).

 

Ejemplo 1. Dada la matriz A=\scriptsize{\left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\ 3 & 1 & 2 & 0 \\ -2 & 1 & -3 & 1 \end{array}\right)}, calcule su rango.

Solución.


\left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\ 3 & 1 & 2 & 0 \\ -2 & 1 & -3 & 1 \end{array}\right)
\begin{array}{c} {\scriptsize f_{2}-3f_{1}} \\ \longrightarrow \\ {\scriptsize f_{3}+2f_{1}}\end{array}
\left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\ 0 & -5 & 5 & -3 \\ 0 & 5 & -5 & 3 \end{array}\right)
\stackrel{f_{3}+f_{2}}{\longrightarrow}
\left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\ 0 & -5 & 5 & -3 \\ 0 & 0 & 0 & 0 \end{array}\right)

Por consiguiente, el rango de la matriz A es 2.

Aplicación en el análisis de los sistemas de ecuaciones lineales

Teorema de Kronecker-Capelli. Sea el sistema de ecuaciones lineales Ax=b, entonces el sistema es consistente (o compatible) si y solo si el rango de A es igual al rango de la matriz aumentada \left(A|b\right); es decir \rho\left(A\right)=\rho\left(A|b\right)
Ejemplo 2. Analice el siguiente sistema de ecuaciones lineales: \left\{ \begin{array}{rcrcrcl}
x&+&2y&-&z&+&w&=&5 \\
3x&+&y&+&2z&& &=&2 \\
-2x&+&y&-&3z&+&w&=&3 
\end{array}\right.

Solución. La representación matricial del sistema Ax=b es \left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\3 & 1 & 2 & 0 \\ -2 & 1 & -3 & 1 \end{array}\right)\left(\begin{array}{c}x\\y\\z\\w \end{array}\right)=\left(\begin{array}{c}5\\2\\3 \end{array}\right)donde A=\scriptsize{\left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\3 & 1 & 2 & 0 \\ -2 & 1 & -3 & 1 \end{array}\right)} y b=\scriptsize{\left(\begin{array}{c}5\\2\\3 \end{array}\right)}.

La representación con matriz aumentada \left(A|b\right) es \left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\3 & 1 & 2 & 0&2 \\ -2 & 1 & -3 & 1 &3\end{array}\right)y su resolución mediante operaciones de renglón (forma escalonada) es


\left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\ 3 & 1 & 2 & 0&2 \\ -2 & 1 & -3 & 1 &3\end{array}\right)
\begin{array}{c} {\scriptsize f_{2}-3f_{1}} \\ \longrightarrow \\ {\scriptsize f_{3}+2f_{1}}\end{array}
\left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\ 0 & -5 & 5 & -3 &-13\\ 0 & 5 & -5 & 3 &13\end{array}\right)
\stackrel{f_{3}+f_{2}}{\longrightarrow}
\left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\ 0 & -5 & 5 & -3 &-13\\ 0 & 0 & 0 & 0 &0\end{array}\right)

donde se observa que el rango de la matriz aumentada \left(A|b\right) es 2. De la misma manera, al omitir la matriz b y analizar, se observa que el rango de A también es 2, es decir\rho \left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\ 0 & -5 & 5 & -3 &-13\\ 0 & 0 & 0 & 0 &0\end{array}\right)=\rho \left(\begin{array}{rrrr}1 & 2 & -1 & 1 \\ 0 & -5 & 5 & -3\\ 0 & 0 & 0 & 0\end{array}\right)Por consiguiente, el sistema de ecuaciones lineales es consistente.

Ejemplo 3. Analice el sistema de ecuaciones lineales del ejemplo previo que ha sido modificado como: 
\left\{ \begin{array}{rcrcrcl}x&+&2y&-&z&+&w&=&4 \\
3x&+&y&+&2z&& &=&1 \\
-2x&+&y&-&3z&+&w&=&1 
\end{array}\right.

Solución. La representación con matriz aumentada y su resolución mediante operaciones de renglón (forma escalonada) es


\left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &4\\ 3 & 1 & 2 & 0&1 \\ -2 & 1 & -3 & 1 &1\end{array}\right)
\begin{array}{c} {\scriptsize f_{2}-3f_{1}} \\ \longrightarrow \\ {\scriptsize f_{3}+2f_{1}}\end{array}
\left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\ 0 & -5 & 5 & -3 &-11\\ 0 & 5 & -5 & 3 &9\end{array}\right)
\stackrel{f_{3}+f_{2}}{\longrightarrow}
\left(\begin{array}{rrrr|r}1 & 2 & -1 & 1 &5\\ 0 & -5 & 5 & -3 &-11\\ 0 & 0 & 0 & 0 &2\end{array}\right)

donde se puede observar que la matriz aumentada \left(A|b\right) tiene rango 3, pero al omitir la aumentada b, se obtiene que el rango de A es 2. Por consiguiente, el sistema de ecuaciones lineales es inconsistente.

El rango provee además información sobre el tipo de solución cuando un sistema de ecuaciones lineales \left(A|b\right) es consistente. El número de incógnitas es el número de columnas n de la matriz A, mientras que el número de variables libres es igual a n-\rho. En consecuencia, un sistema de ecuaciones lineales consistente tiene infinitas soluciones, si y solo si, n-\rho es mayor que cero \left(n>\rho\right), pero tiene solución única si n=\rho.

En el sistema de ecuaciones lineales consistente del Ejemplo 2, se tiene que \rho=2 pero el número de incógnitas es n=4. Luego, la cantidad de variables libres es n-\rho=2 y el sistema de ecuaciones lineales tiene infinitas soluciones.

Ejemplo 4. Analice el siguiente sistema de ecuaciones lineales aplicando el concepto de rango: 
\left\{ \begin{array}{rcrcl}2x&-&3y&=&6 \\
x&-&3y&=&0 \\
3x&-&3y&=&12 
\end{array}\right.

Solución. La representación con matriz aumentada y su resolución mediante operaciones de renglón (forma escalonada) es

\left(\begin{array}{rr|r} 2 & -3 & 6\\ 1 & -3 & 0\\ 3 & -3 & 12 \end{array}\right) \begin{array}{c} \stackrel{f_{1} {\leftrightarrow} f_{2}}{\longrightarrow} \end{array}\left(\begin{array}{rr|r}1 & -3 & 0\\2 & -3 & 6\\3 & -3 & 12\end{array}\right) \begin{array}{c} {\scriptsize f_{2}-2f_{1}} \\ \longrightarrow \\ {\scriptsize f_{3}-3f_{1}}\end{array} \left(\begin{array}{rr|r} 1 & -3 & 0\\0 & 3 & 6\\0 & 6 & 12\end{array}\right) \stackrel{f_{3}-2f_{2}}{\longrightarrow}\left(\begin{array}{rr|r}1 & -3 & 0\\0 & 3 & 6\\0 & 0 & 0\end{array}\right) 

donde se puede observar que \rho\left(A|b\right)=\rho\left(A\right). Por consiguiente, el sistema de ecuaciones lineales es consistente.

El número de incógnitas es 2, y el rango es 2, por consiguiente, el sistema de ecuaciones lineales tiene solución única, pues la cantidad de variables libres es n-\rho=0.


Enlaces de interés

Clase Online
Plataforma SIDWeb
Referencias Bibliográficas

cl1-01. Matrices y Determinantes


Propiedades de la suma de matrices

Conmutatividad:
\forall\ A,B\in M_{m\times n} \text{ }A+B=B+A
Asociatividad:
\forall\ A,B,C\in {{M}_{m\times n}}\text{ }(A+B)+C=A+(B+C)
Existencia de la matriz neutro-aditivo:
\exists\ \text{ }{{\mathbf{0}}_{m\times n}}\text{ }\forall A\in {{M}_{m\times n}}\text{ }A+\mathbf{0}=A
Existencia de la matriz inverso-aditivo:
\forall\ A\in {{M}_{m\times n}}\text{ }\exists \text{ }A_{m\times n}^{*}\text{ }A+{{A}^{*}}=\mathbf{0}

Propiedades del producto de matrices

Asociatividad:
\forall\ A\in {{M}_{m\times n}}\text{ }\forall B\in {{M}_{n\times p}}\text{ }\forall C\in {{M}_{p\times q}}\text{ }(AB)C=A(BC)
Distribución por la derecha:
\forall\ A,B\in {{M}_{m\times n}}\text{ }\forall C\in {{M}_{n\times p}}\text{ }(A+B)C=AC+BC
Distribución por la izquierda:
\forall\ A\in {{M}_{m\times n}}\text{ }\forall B,C\in {{M}_{n\times p}}\text{ }A(B+C)=AB+AC

Propiedades del producto de un escalar por una matriz

Distribución respecto a la suma de matrices:
\forall\ k\in \mathbb{R}\text{ }\forall A,B\in {{M}_{m\times n}}\text{ }k(A+B)=kA+kB
Distribución respecto a la suma de escalares:
\forall\ {{k}_{1}},{{k}_{2}}\in \mathbb{R}\text{ }\forall A\in {{M}_{m\times n}}\text{ }({{k}_{1}}+{{k}_{2}})A={{k}_{1}}A+{{k}_{2}}A
(Pseudo) Asociatividad:
\forall\ {{k}_{1}},{{k}_{2}}\in \mathbb{R}\text{ }\forall A\in {{M}_{m\times n}}\text{ }({{k}_{1}}.{{k}_{2}})A={{k}_{1}}({{k}_{2}}A)
(Pseudo) Asociatividad:
\forall\ k\in \mathbb{R}\text{ }\forall A\in {{M}_{m\times n}}\forall B\in {{M}_{n\times p}}\text{ }k(AB)=(kA)B=A(kB)

Propiedades de la transposición de matrices

\forall\ A\in {{M}_{m\times n}}\text{ }{{\left( {{A}^{T}} \right)}^{T}}=A
\forall\ A,B\in {{M}_{m\times n}}\text{ }{{\left( A+B \right)}^{T}}={{A}^{T}}+{{B}^{T}}
Si el producto AB está definido, se cumple que
{{(AB)}^{T}}={{B}^{T}}{{A}^{T}}

Propiedades de la traza de una matriz

\forall\ A,B\in {{M}_{n\times n}}\text{ }tr\left( A+B \right)=tr(A)+tr(B)
\forall\ A,B\in {{M}_{n\times n}}\text{ }tr\left( AB \right)=tr(BA)
\forall\ k\in \mathbb{R}\text{ }\forall A\in {{M}_{n\times n}}\text{ }tr(kA)=k.tr(A)
\forall\ A\in {{M}_{n\times n}}\text{ }tr\left( A \right)=tr({{A}^{T}})

Propiedades de la inversa de una matriz

Si A,B\in {{M}_{n\times n}} son invertibles, entonces se cumple que:

AB es invertible y {{\left( AB \right)}^{-1}}={{B}^{-1}}{{A}^{-1}}
{{\left( {{A}^{-1}} \right)}^{-1}}=A
{{A}^{n}} es invertible y {{\left( {{A}^{n}} \right)}^{-1}}={{\left( {{A}^{-1}} \right)}^{n}}, donde n es un número entero.
{{A}^{T}} es invertible y {{\left( {{A}^{T}} \right)}^{-1}}={{\left( {{A}^{-1}} \right)}^{T}}
Si k\in \mathbb{R} y k\ne 0, entonces {{\left( kA \right)}^{-1}}=\frac{1}{k}\left( {{A}^{-1}} \right)

Propiedades del determinante de una matriz

\forall\ A,B\in {{M}_{n\times n}}\text{ }\det (AB)=\det (A)\det (B)
\forall\ A\in {{M}_{n\times n}}\text{ }\det (A)=\det ({{A}^{T}})
Si A\in {{M}_{n\times n}} es invertible, entonces \det ({{A}^{-1}})=\frac{1}{\det (A)}
\forall\ A\in {{M}_{n\times n}}\text{ }\forall k\in \mathbb{R}\text{ }\det (kA)={{k}^{n}}\det (A)

Operaciones de renglón (o de columna)

Sea A una matriz {{M}_{m\times n}}, donde {{f}_{i}} denota la i-ésima fila de la matriz (también, {{c}_{i}} la i-ésima columna) de la misma; con esta notación, describiremos las operaciones de renglón como sigue:

  • {{f}_{i}}\leftrightarrow {{f}_{j}}: Intercambiar dos filas de una matriz (o {{c}_{i}}\leftrightarrow {{c}_{j}} para el intercambio entre dos columnas).
  • k.{{f}_{i}}: Multiplicar un renglón por un escalar diferente de cero (k\ne 0).
  • {{f}_{i}}+k.{{f}_{j}}: Sumar a una fila un múltiplo de otra fila.

El resultado de aplicar una operación de renglón es una nueva matriz B, que no necesariamente es igual a la primera, pero se denomina «equivalente por renglones», es decir, B se puede obtener a partir de A mediante operaciones de renglón.

Operaciones de renglón y el determinante

Sean A y B dos matrices {{M}_{n\times n}} tal que B es equivalente por renglones a la matriz A.

Si A \stackrel{f_{1} {\leftrightarrow} f_{2}}{\longrightarrow} B, entonces {det(B) = -det(A)}
Es decir, al intercambiar de posición dos filas, el determinante de la nueva matriz B es el negativo del determinante de la matriz original A.
Si A \stackrel{k.{{f}_{i}}}{\longrightarrow} B, entonces {det(B)= k.det(A)} (k\ne 0)
Es decir, al multiplicar una fila por un escalar k diferente de cero, el determinante de la nueva matriz B es igual a k-veces el determinante de la matriz original A.
Si A \stackrel{{{f}_{i}}+k.{{f}_{j}}}{\longrightarrow} B, entonces {det(B) = det(A)}
Es decir, con esta operación de renglón, el determinante de la nueva matriz B es igual al determinante de la matriz original A.

Una matriz cuadrada que contiene una fila (o columna) compuesta enteramente de ceros, tiene un determinante igual a cero. Además, si en una matriz hay dos filas iguales (o columnas iguales), su determinante es cero.