cl2-02. Subespacios Vectoriales


Definición. Sea H un subconjunto no vacío del espacio vectorial V (H\subseteq V), se dice que H es un espacio vectorial de V si H es un espacio vectorial con las mismas operaciones definidas en V.

Teorema. Sea V un espacio vectorial y sea H un subconjunto no vacío de V. Entonces, H es un subespacio de V si y solo si se cumplen las siguientes condiciones:
1. \forall\ h_{\mathrm{1}},h_{\mathrm{2}}\ \mathrm{\in}\ H:h_{\mathrm{1}}\mathrm{\oplus}h_{\mathrm{2}}\ \mathrm{\in}\space H
2. \forall\ h\ \mathrm{\in}\ H\ \mathrm{\wedge}\ \forall\ \alpha\ \mathrm{\in}\ \mathbb{R}:\alpha\odot h\ \mathrm{\in}\space H

Expresado de otra forma, un subconjunto de vectores constituye un subespacio vectorial, si éste a su vez constituye un espacio vectorial y al mismo tiempo es un subconjunto de un espacio vectorial mayor.

Para determinar si un subconjunto es o no un subespacio vectorial, es necesario que sea no vacío y mostrar que cumple con los axiomas de cerradura:

1. \forall\ h_{\mathrm{1}},h_{\mathrm{2}}\ \mathrm{\in}\ H:h_{\mathrm{1}}\mathrm{\oplus}h_{\mathrm{2}}\ \mathrm{\in}\ H
(Cerradura bajo la suma).
2. \forall\ h\ \mathrm{\in}\ H\ \mathrm{\wedge}\ \forall\ \alpha\ \mathrm{\in}\ \mathbb{R}:\alpha\odot h\ \mathrm{\in}\ H
(Cerradura bajo la multiplicación por un escalar).

Una manera de determinar que H es no vacío, es demostrando que el vector nulo está en H, razón por la cual algunos autores indican como axioma adicional que n_V{{\in}H}. Es conveniente notar que si los axiomas 1 y 2 se satisfacen y H es no vacío, entonces existe al menos un elemento u\!\in\!H; así se tiene que (-1)\odot u{{\in}H} por el axioma 2, y u+(-1)\odot u=n_V\!\in\!H; de donde, si se cumplen los axiomas 1 y 2 además de que H es no vacío, es decir, n_V \! \in \! H.

Ejemplo. Determine si el subconjunto H de todos los vectores en \mathbb{R^3} de la forma \left(x_{\mathrm{1}},x_{\mathrm{2}},x_{\mathrm{1}} + x_{\mathrm{2}}\right) constituye un subespacio vectorial en \mathbb{R^3}.

Solución. Para determinarlo, se debe probar que H es no vacío (nótese que el vector (0,0,0) pertence a H), y que el subconjunto cumple con los axiomas de cerradura de la suma entre vectores y multiplicación por un escalar.

\mathbf{1.\quad \forall h_{\mathrm{1}},h_{\mathrm{2}}\mathrm{\in}H:h_{\mathrm{1}}\mathrm{\oplus}h_{\mathrm{2}}\mathrm{\in}H}

Sean h_{\mathrm{1}}=\left(x_{\mathrm{1}},x_{\mathrm{2}},x_{\mathrm{1}} + x_{\mathrm{2}}\right) y h_{\mathrm{2}}=\left(y_{\mathrm{1}},y_{\mathrm{2}},y_{\mathrm{1}} + y_{\mathrm{2}}\right) entonces:
h_{\mathrm{1}}\mathrm{\oplus}h_{\mathrm{2}}=\left(x_{\mathrm{1}} + y_{\mathrm{1}},x_{\mathrm{2}} + y_{\mathrm{2}},x_{\mathrm{1}} + x_{\mathrm{2}} + y_{\mathrm{1}} + y_{\mathrm{2}}\right) Nótese que la tercera componente es la suma de las dos primeras. Por consiguiente el axioma si se cumple.

\mathbf{2.\quad \forall\ h\ \mathrm{\in}\ H\ \mathrm{\wedge}\ \forall\ \alpha\ \mathrm{\in}\ \mathbb{R}:\alpha\odot h\ \mathrm{\in}\ H}

Sea h=\left(x_{\mathrm{1}},x_{\mathrm{2}},x_{\mathrm{1}} + x_{\mathrm{2}}\right) entonces:
\alpha\odot h=\alpha\odot\left(x_{1},x_{2},x_{1}+x_{2}\right)=\left(\alpha x_{1},\alpha x_{2},\alpha\left(x_{1},x_{2}\right)\right)Por consiguiente el axioma si se cumple.

En conclusión, al cumplir con los 2 axiomas entonces el subconjunto H, con las operaciones convencionales de suma entre vectores (\oplus) y multiplicación por un escalar (\odot\alpha), representa un subespacio vectorial.

Cuando no se especifican las operaciones, por definición, se asumen las operaciones convencionales de suma entre vectores (\oplus) y multiplicación por un escalar (\odot\alpha).

Enlaces de interés

Clase Online
Plataforma SIDWeb
Referencias Bibliográficas

cl5-02. Ilustración del método


Ejemplo. Sea T:{P}_{2}\to {P}_{2} una T.L. tal que T(a+bx+c{{x}^{2}})=(a+b+5c)+(3b)x+(3a-c){{x}^{2}} Hallar sus eigenvalores y eigenvectores.

Solución:

Necesitamos utilizar una base para hallar una matriz de transformación. Puesto que no se nos indica alguna base en particular, se utilizará la base canónica B=\{1,x,{{x}^{2}}\}.

Transformando cada vector de la base:

\begin{array}{rcl} T(1)&=&1+3{{x}^{2}} \\ T(x)&=&1+3x \\ T({{x}^{2}})&=&5-{{x}^{2}} \end{array}

Y hallando las coordenadas de tales transformadas respecto a la base (la misma) del espacio de llegada, se tiene:

\begin{array}{rcl} & {{\left[ T(1) \right]}_{B}}&=&(1,0,3) \\ & {{\left[ T(x) \right]}_{B}}&=&(1,3,0) \\ & {{\left[ T({{x}^{2}}) \right]}_{B}}&=&(5,0,-1) \end{array}

Por lo cual, la matriz asociada a T es:

A=\left[ \begin{array}{rrr} 1 & 1 & 5 \\ 0 & 3 & 0 \\ 3 & 0 & -1 \end{array} \right]
Ahora, hay que resolver la ecuación \det (A-\lambda I)=0, hallando el siguiente determinante:

\det (A-\lambda I)=\det \left( \begin{array}{rrr} 1-\lambda & 1 & 5 \\ 0 & 3-\lambda & 0 \\ 3 & 0 & -1-\lambda \end{array} \right) \begin{array}{rcl} \det (A-\lambda I)&=(3-\lambda )\left[ \left( 1-\lambda \right)\left( -1-\lambda \right)-15 \right] \\ & =(3-\lambda )\left[ {{\lambda }^{2}}-16 \right] \\ & =(3-\lambda )(\lambda -4)(\lambda +4)=0 \end{array}

Cuyas soluciones son: \lambda =3\vee \lambda =4\vee \lambda =-4, es decir los valores propios. Por convención, los valores propios se ordenan de mayor a menor, por lo cual se tiene:

\begin{array}{rcl} {{\lambda }_{1}}&=&4 \\ {{\lambda }_{2}}&=&3 \\ {{\lambda }_{3}}&=&-4 \end{array}
Luego, para encontrar los vectores propios debemos hallar bases para el núcleo Nu(A-\lambda I) luego de reemplazar los valores propios.

Para {{\lambda }_{1}}=4:

Nu(A-{{\lambda }_{1}}I)\Rightarrow \left( \begin{array}{rrr|r} 1-{{\lambda }_{1}} & 1 & 5 & 0 \\ 0 & 3-{{\lambda }_{1}} & 0 & 0 \\ 3 & 0 & -1-{{\lambda }_{1}} & 0 \end{array} \right)

Resolviendo:

\left( \begin{array}{rrr|r} -3 & 1 & 5 & 0 \\ 0 & -1 & 0 & 0 \\ 3 & 0 & -5 & 0 \end{array} \right)\sim ...\left( \begin{array}{rrr|r} -3 & 1 & 5 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right)

es decir, {{\alpha }_{2}}=0 y -3{{\alpha }_{1}}+5{{\alpha }_{3}}=0. Por lo cual:

Nu(A-{{\lambda }_{1}}I)=\left\{ \left( {{\alpha }_{1}},{{\alpha }_{2}},{{\alpha }_{3}} \right)\in {{\mathsf{\mathbb{R}}}^{3}}/{{\alpha }_{2}}=0\text{ }\wedge \text{ }-3{{\alpha }_{1}}+5{{\alpha }_{3}}=0 \right\}

Una base de este núcleo es:
{{B}_{\lambda 1}}=\left\{ \left( \begin{array}{r} 5/3 \\ 0 \\ 1 \end{array} \right) \right\}

Por lo cual, el primer vector característico es:

{{v}_{1}}=\left( \begin{array}{r} 5 \\ 0 \\ 3 \end{array} \right)
Para {{\lambda }_{2}}=3:

Nu(A-{{\lambda }_{2}}I)\Rightarrow \left( \begin{array}{rrr|r} -2 & 1 & 5 & 0 \\ 0 & 0 & 0 & 0 \\ 3 & 0 & -4 & 0 \end{array} \right)\sim ...\left( \begin{array}{rrr|r} -2 & 1 & 5 & 0 \\ 0 & 3 & 7 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right)

Es decir,

Nu(A-{{\lambda }_{2}}I)=\left\{ \left( {{\alpha }_{1}},{{\alpha }_{2}},{{\alpha }_{3}} \right)\in {{\mathsf{\mathbb{R}}}^{3}}/{{\alpha }_{2}}=-(7/3){{\alpha }_{3}}\text{ }\wedge \text{ }{{\alpha }_{1}}=(4/3){{\alpha }_{3}} \right\}

Por lo cual, el respectivo vector característico es:

{{v}_{2}}=\left( \begin{array}{r} 4 \\ -7 \\ 3 \end{array} \right)
Para {{\lambda }_{3}}=-4:

Nu(A-{{\lambda }_{3}}I)\Rightarrow \left( \begin{array}{rrr|r} 5 & 1 & 5 & 0 \\ 0 & 7 & 0 & 0 \\ 3 & 0 & 3 & 0 \end{array} \right)\sim ...\left( \begin{array}{rrr|r} 1 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right)

Es decir,

Nu(A-{{\lambda }_{3}}I)=\left\{ \left( {{\alpha }_{1}},{{\alpha }_{2}},{{\alpha }_{3}} \right)\in {{\mathsf{\mathbb{R}}}^{3}}/{{\alpha }_{2}}=0\text{ }\wedge \text{ }{{\alpha }_{1}}+{{\alpha }_{3}}=0 \right\}

Por lo cual, el respectivo vector característico es:

{{v}_{3}}=\left( \begin{array}{r} -1 \\ 0 \\ 1 \end{array} \right)

Finalmente, los vectores propios de la matriz de transformación son coordenadas respecto a la base B (canónica en este caso), de los vectores propios de la transformación, por lo cual los resultados quedan así:

Para {{\lambda }_{1}}=4, el eigenvector es: {{v}_{1}}=5+3{{x}^{2}}.
Para {{\lambda }_{2}}=3, el eigenvector es: {{v}_{2}}=4-7x+3{{x}^{2}}.
Para {{\lambda }_{3}}=-4, el eigenvector es: {{v}_{3}}=-1+{{x}^{2}}.

Se cumplirá en cada caso que:
T({{v}_{1}})={{\lambda }_{1}}{{v}_{1}}T({{v}_{2}})={{\lambda }_{2}}{{v}_{2}}T({{v}_{3}})={{\lambda }_{3}}{{v}_{3}}

cl5-01. Valores y vectores característicos


Definición. Sea (V,\oplus ,\odot ) un espacio vectorial no trivial. Sea T:V\to V; sea v \in V. Se dice que v es un vector característico de T si y solo si:
i)  v\ne {{\mathbf{0}}_{V}}
ii) T(v)=\lambda \odot v
Donde se denomina a \lambda como el valor propio de la transformación.

Son sinónimos: vector propio, vector característico, eigenvector o autovector. Así también las siguientes expresiones son equivalentes: valor propio, valor característico, eigenvalor o autovalor.

Ejemplo. Sea V=C_{[a,b]}^{k}, y sea el operador lineal T:V\to V, tal que T[f(x)] = f'(x). Halle ejemplos de valores y vectores propios de T

Solución:

Se conoce que una función que es igual a su derivada es f(x)={{e}^{x}}, cuya transformada se ajusta a la deficinión T(v)=\lambda \odot v, con \lambda =1.

Se puede verificar que T[{{e}^{2x}}]=2{{e}^{2x}}, por lo cual {e}^{2x} es un eigenvector, cuyo eigenvalor es \lambda =2.

En modo general, f(x)={{e}^{ax}} es un vector propio de la transformación dada, con \lambda =a, pues T[{{e}^{ax}}]=a{{e}^{ax}}.

Otro ejemplo serían ciertas funciones constantes. Por ejemplo f(x)=5, cuya transformada es un múltiplo del vector: T[5]=0.

Nótese que el valor propio sí puede ser cero, pero el vector propio no puede ser el neutro. En modo general, funciones constantes f(x)=k\ne 0, son vectores propios con \lambda =0, pues T[k]=\lambda k=0.


Método general para hallar vectores y valores propios de un operador lineal T

Para hallar los valores y vectores característicos de una transformación se hace uso de su representación matricial. En este caso, si {{A}_{T}} es la matriz que representa a T respecto a una base B, se busca que:

{{A}_{T}}{{[v]}_{B}}=\lambda {{[v]}_{B}}.

A condición que v\ne {{\mathbf{0}}_{V}}. Por facilidad de escritura, se expresa la ecuación como {{A}_{T}}\mathbf{v}=\lambda \mathbf{v}. Pasando todos los términos al lado izquierdo:

\mathbf{Av}-\lambda \mathbf{v}=\mathbf{0}

Para poder factorizar el factor común \mathbf{v}, es necesario multiplicar la matriz Identidad para aplicar las propiedades de la multiplicación matricial:

\mathbf{Av}-\lambda \mathbf{Iv}=\mathbf{0}

Luego se factoriza, resultando el siguiente sistema homogéneo:

(\mathbf{A}-\lambda \mathbf{I})\mathbf{v}=\mathbf{0}

Este sistema siempre tiene por lo menos la solución trivial, pero dado que la definición requiere que el vector v sea distinto del vector neutro, un modo de garantizar esto es lograr que el determinante de la matriz de coeficientes del sistema sea cero:

\det (\mathbf{A}-\lambda \mathbf{I})=0

La solución a esta última ecuación son los valores característicos \lambda, de la matriz de transformación, que son iguales a los valores característicos de la transformación. Existen hasta n valores propios, {{\lambda }_{1}},{{\lambda }_{2}}...{{\lambda }_{n}}, entre soluciones reales distintas, reales repetidas y complejas conjugadas, de la última ecuación.

Una vez hallados los valores propios que garantizan que el sistema homogéneo tenga (infinitas) soluciones no triviales, se los reemplaza en el sistema para obtener el espacio solución, que equivale a hallar el núcleo Nu(\mathbf{A}-\lambda \mathbf{I}). En el núcleo, todos los vectores excepto el neutro son característicos, pero para simplificar la respuesta, se eligen como vectores característicos de la matriz a los vectores del conjunto base de Nu(\mathbf{A}-\lambda \mathbf{I}).

Finalmente, se debe recordar que los vectores propios de la matriz son en realidad las coordenadas, con respecto a la base B, de los vectores propios de la transformación, \mathbf{v}={{[v]}_{B}}, con lo cual se puede obtener los vectores no nulos de V que cumplen con T(v)=\lambda \odot v.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl4-03. Ortogonalidad, ortonormalidad y proyecciones


Ortogonalidad y ortonormalidad.

Definición. Sea V un espacio vectorial euclidiano, y sean u,v\in V. Se dice que los vectores u y v son ortogonales si y solo si \left\langle u,v \right\rangle =0
Teorema. Sea V un espacio vectorial euclidiano, el vector neutro {0}_{v}\in V es ortogonal a todos los vectores del espacio V.
Definición. Sea V un espacio vectorial euclidiano. Sea el conjunto S=\left\{ {{v}_{1}},{{v}_{2}},\cdots {{v}_{n}} \right\}\subseteq V. Se dice que S es un conjunto ortogonal si y solo si \left\langle {{v}_{i}},{{v}_{j}} \right\rangle =\left\{ \begin{array}{rr} 0, & i\ne j \\ {{\left\| {{v}_{i}} \right\|}^{2}}, & i=j \end{array} \right.
Definición. Sea V un espacio vectorial euclidiano. Sea el conjunto S=\left\{ {{u}_{1}},{{u}_{2}},\cdots {{u}_{n}} \right\}\subseteq V. Se dice que S es un conjunto ortonormal si y solo si \left\langle {{v}_{i}},{{v}_{j}} \right\rangle =\left\{ \begin{array}{rr} 0, & i\ne j \\ 1, & i=j \end{array} \right.

De acuerdo a las definiciones, se observa que un conjunto ortogonal contiene vectores perpendiculares entre sí, por lo cual el vector neutro puede estar contenido en ellos. Por otra parte, un conjunto ortonormal contiene vectores perpendiculares entre sí y con norma unitaria; esta condición excluye la posibilidad que el neutro pertenezca al conjunto. Todo conjunto ortonormal es ortogonal, pero no todo conjunto ortogonal es ortonormal.

Teorema. Sea V un espacio vectorial euclidiano, y sea S \subseteq V tal que S no contiene al neutro. Se cumple que si S es ortogonal, entonces S es linealmente independiente.

Este teorema indica que, con excepción hecha para el vector neutro, la condición de ortogonalidad es más fuerte que la condición de independencia lineal. Si el conjunto no contiene al neutro, la condición de ortogonalidad garantiza automáticamente la independencia lineal.

Corolario. Sea V un espacio vectorial euclidiano. Todo conjunto ortonomal S \subseteq V es también linealmente independiente.

Proyección escalar y vectorial.

Definición. Sea V un espacio vectorial euclidiano, y sean u,v\in V. donde v\ne {{\mathbf{0}}_{v}}. Se define la proyección escalar del vector u sobre el vector v como: Pro{{y}_{v}}u=\frac{\left\langle u,v \right\rangle }{\left\| v \right\|}
Definición. Sea V un espacio vectorial euclidiano, y sean u,v\in V, donde v\ne {{\mathbf{0}}_{v}}. Se define la proyección vectorial del vector u sobre el vector v como: {{\vec{\mathop{Proy}}\,}_{v}}u=\frac{\left\langle u,v \right\rangle }{\left\| v \right\|}\odot \frac{v}{\left\| v \right\|}=\frac{\left\langle u,v \right\rangle }{{{\left\| v \right\|}^{2}}}\odot v

Estas definiciones son análogas a las proyecciones definidas en {{\mathsf{\mathbb{R}}}^{n}} mediante el producto punto. Mediante el producto interno, se puede generalizar la definición a cualquier espacio vectorial euclidiano.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl4-02. Norma, distancias y ángulos


Norma de un vector

Definición. Sea \left\langle V,\oplus ,\odot  \right\rangle  un espacio vectorial euclidiano, y sea v\in V; se define la norma del vector v, denotada por \left\| v \right\|, como: \left\| v \right\|=\sqrt{\left\langle v,v \right\rangle }. Es decir, la norma al cuadrado de un vector es el producto interno del vector consigo mismo: {{\left\| v \right\|}^{2}}=\left\langle v,v \right\rangleUn espacio que tiene una norma definida se denomina Espacio Normado.
Propiedades de la norma de un vector.
Sea \left\langle V,\oplus ,\odot \right\rangle un espacio vectorial euclidiano, se cumple que:
i) \forall v\in V\text{ }\left\| v \right\|\ge 0 ii) \forall v\in V\text{ }\left\| v \right\|=0\Leftrightarrow v={{\mathbf{0}}_{v}} iii) \forall k\in \mathsf{\mathbb{R}}\text{ }\forall v\in V\text{ }\left\| k\odot v \right\|=\left| k \right|.\text{ }\left\| v \right\| iv) \forall u,v\in V\text{ }\left\| u\oplus v \right\|\le \left\| u \right\|+\left\| v \right\| v) \forall u,v\in V\text{ }\left\| u-v \right\|=\left\| v-u \right\|
Ejemplo.
Sea V=C_{[0,1]}^{k} y sea f\in V tal que f(x)={{e}^{x}}, calcular la norma \left\| f \right\|.

Solución:

Por definición, {{\left\| f \right\|}^{2}}=\left\langle {{e}^{x}},{{e}^{x}} \right\rangle .
Utilizando el producto interno estándar en el espacio dado:{{\left\| f \right\|}^{2}}=\int\limits_{0}^{1}{{{e}^{x}}{{e}^{x}}dx}=\int\limits_{0}^{1}{{{e}^{2x}}dx}=\left. \frac{{{e}^{2x}}}{2} \right|_{0}^{1}=\frac{{{e}^{2}}-1}{2} Obteniendo la raiz cuadrada: \left\| f \right\|=\sqrt{\frac{{{e}^{2}}-1}{2}}


Distancia entre dos vectores

Definición. Sea \left\langle V,\oplus ,\odot  \right\rangle  un espacio vectorial euclidiano, y sea la función d:V\times V\to \mathsf{\mathbb{R}}; d es una función distancia si y solo si se cumplen las siguientes propiedades:
i) \forall {{v}_{1}},{{v}_{2}}\in V\text{ }d({{v}_{1}},{{v}_{2}})\ge 0 ii) \forall {{v}_{1}},{{v}_{2}}\in V\text{ }d({{v}_{1}},{{v}_{2}})=0\Leftrightarrow {{v}_{1}}={{v}_{2}} iii) \forall {{v}_{1}},{{v}_{2}}\in V\text{ }d({{v}_{1}},{{v}_{2}})=d({{v}_{2}},{{v}_{1}}) iv) \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ }d({{v}_{1}},{{v}_{3}})\le d({{v}_{1}},{{v}_{2}})+d({{v}_{2}},{{v}_{3}}) La expresión d({{v}_{1}},{{v}_{2}}) se lee como "la distancia entre {{v}_{1}} y {{v}_{2}}". Un espacio que tiene una métrica o función distancia definida se denomina Espacio Métrico. Aunque las funciones distancia pueden existir otros tipos de estructuras algebraicas, en el caso de un espacio vectorial euclidiano V, la métrica es inducida por el producto interno por via de la definición de norma:
\forall v\in V\text{ }d({{v}_{1}},{{v}_{2}})=\left\| {{v}_{1}}-{{v}_{2}} \right\|, donde \left\| v \right\|=\sqrt{\left\langle v,v \right\rangle }, y \left\langle v,v \right\rangle es el P.I. definido en V.
Ejemplo.
Sea V={{M}_{2\times 2}} y sean las matrices A=\left( \begin{array}{rr} 2 & 3 \\ -1 & 5 \end{array} \right) y B=\left( \begin{array}{rr} -2 & 2 \\ 4 & 2 \end{array} \right), calcular la distancia entre las matrices A y B. Utilice el siguiente producto interno en {{M}_{2\times 2}}:
\forall A,B\in {{M}_{2\times 2}}
\left\langle A,B \right\rangle ={{a}_{11}}{{b}_{11}}+4{{a}_{12}}{{b}_{12}}+2{{a}_{21}}{{b}_{21}}+{{a}_{22}}{{b}_{22}}

Solución:

Según la definición de distancia en un espacio vectorial euclidiano:
d(A,B)=\left\| A-B \right\|
Donde A-B=\left( \begin{array}{rr} 4 & 1 \\ -5 & 3 \end{array}\right)
pero \left\| A-B \right\|=\sqrt{\left\langle A-B,A-B \right\rangle }

=\left\langle \left( \begin{array}{rr} 4 & 1 \\ -5 & 3 \end{array} \right),\left( \begin{array}{rr} 4 & 1 \\ -5 & 3 \end{array} \right) \right\rangle

={{[4]}^{2}}+4.{{[1]}^{2}}+2{{[-5]}^{2}}+{{[3]}^{2}}=79
Entonces:
d(A,B)=\left\| A-B \right\|=\sqrt{79}


Ángulo entre dos vectores

Definición. Sea \left\langle V,\oplus ,\odot  \right\rangle  un espacio vectorial euclidiano, y sean u,v\in V dos vectores no nulos; se define el ángulo entre los vectores u y v, a la cantidad \theta \in [0,\pi ], tal que:{Cos}(\theta )=\frac{\left\langle u,v \right\rangle }{\left\| u \right\|.\left\| v \right\|}. Es decir: \theta ={arccos}(\frac{\left\langle u,v \right\rangle }{\left\| u \right\|.\left\| v \right\|})
Ejemplo.
Sea V={{P}_{2}} y sean los polinomios p,q,r\in {{P}_{2}}, tales que: p(x)=2{{x}^{2}}+x+1, q(x)={{x}^{2}}-2x+3 y r(x)=k{{x}^{2}}+kx-2. a) Calcular el ángulo entre los vectores p y q. b) De ser posible, hallar el valor de k\in {R} para que los polinomios p y r sean ortogonales (perpendiculares).

Solución:

a) Según la definición: {Cos}(\theta )=\frac{\left\langle p,q \right\rangle }{\left\| p \right\|.\left\| q \right\|} Utilizando el P.I. estándar en {{P}_{2}}:
\left\langle p,q \right\rangle =2-2+3=3
\left\| p \right\|=\sqrt{\left\langle p,p \right\rangle }=\sqrt{{{2}^{2}}+{{1}^{2}}+{{1}^{2}}}=\sqrt{6}, y
\left\| q \right\|=\sqrt{\left\langle q,q \right\rangle }=\sqrt{{{1}^{2}}+{{(-2)}^{2}}+{{3}^{2}}}=\sqrt{14}

{Cos}(\theta )=\frac{\left\langle p,q \right\rangle }{\left\| p \right\|.\left\| q \right\|}=\frac{3}{\sqrt{6}\sqrt{14}}=\frac{\sqrt{3}}{2\sqrt{7}}, o:
\theta =\arccos \left( \frac{\sqrt{3}}{2\sqrt{7}} \right)\approx 70.89{}^\circ

b) Ortogonalidad o perpendicularidad implica que el ángulo entre los vectores debe ser 90° (o \pi /2 radianes), cuyo coseno es cero:
{Cos}(\theta )=\frac{\left\langle p,r \right\rangle }{\left\| p \right\|.\left\| r \right\|}=\frac{3k-2}{\sqrt{6}\sqrt{2{{k}^{2}}+4}}=0
Es decir, 3k-2=0 o k=\frac{2}{3}.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl4-01. Espacios Vectoriales con Producto interno


Producto interno complejo.
 
Definición. Sea \left\langle V,\oplus,\odot \right\rangle un espacio vectorial, sobre el campo de escalares complejo. Se define el producto interno complejo como una función denotada por \left\langle .,. \right\rangle:V\times V\to \mathsf{\mathbb{C}} si y solo si, se cumple que:

1. \forall v\in V\left\langle v,v \right\rangle \ge 0
2. \forall v\in V\left\langle v,v \right\rangle =0\Leftrightarrow v={{{\mathbf{0}}}_{v}}
3. \forall {{v}_{1}},{{v}_{2}}\in V\left\langle {{v}_{1}},{{v}_{2}} \right\rangle =\overline{\left\langle {{v}_{2}},{{v}_{1}} \right\rangle }
4. \forall {{v}_{1}},{{v}_{2}}\in V\text{ }\forall \alpha \in \mathsf{\mathbb{C}}\text{ }\left\langle \alpha \odot {{v}_{1}},\text{ }{{v}_{2}} \right\rangle =\alpha \left\langle {{v}_{1}},{{v}_{2}} \right\rangle
5. \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ }\left\langle {{v}_{1}}+{{v}_{2}},\text{ }{{v}_{3}} \right\rangle =\left\langle {{v}_{1}},{{v}_{3}} \right\rangle +\left\langle {{v}_{2}},{{v}_{3}} \right\rangle

Algunas consecuencias inmediatas de la definición son las siguientes:

6. \forall {{v}_{1}},{{v}_{2}}\in V\text{ }\forall \alpha \in \mathsf{\mathbb{C}}\text{ }\left\langle {{v}_{1}},\text{ }\alpha \odot {{v}_{2}} \right\rangle =\overline{\alpha }\left\langle {{v}_{1}},{{v}_{2}} \right\rangle
7. \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ }\left\langle {{v}_{1}},{{v}_{2}}+\text{ }{{v}_{3}} \right\rangle =\left\langle {{v}_{1}},{{v}_{2}} \right\rangle +\left\langle {{v}_{1}},{{v}_{3}} \right\rangle

Donde \overline{\alpha} indica el complejo conjugado de {\alpha}.

Cuando el campo de escalares es el de los números reales la lista de estas propiedades se reduce debido a que la conjugación compleja se puede omitir en el caso de los números reales.

La principal consecuencia es que el producto interno real tiene una propiedad conmutativa que el producto interno complejo no tiene.

Producto interno real.
 
Definición. Sea \left\langle V,\oplus,\odot \right\rangle un espacio vectorial, sobre el campo de escalares reales. Se define el producto interno real como una función denotada por \left\langle .,. \right\rangle:V\times V\to \mathsf{\mathbb{R}} si y solo si, se cumple que:

1. \forall v\in V\left\langle v,v \right\rangle \ge 0
2. \forall v\in V\left\langle v,v \right\rangle =0\Leftrightarrow v={{{\mathbf{0}}}_{v}}
3. \forall {{v}_{1}},{{v}_{2}}\in V\left\langle {{v}_{1}},{{v}_{2}} \right\rangle ={\left\langle {{v}_{2}},{{v}_{1}} \right\rangle }
4. \forall {{v}_{1}},{{v}_{2}}\in V\text{ }\forall \alpha \in \mathsf{\mathbb{R}}\text{ } \left\langle \alpha \odot {{v}_{1}},\text{ }{{v}_{2}} \right\rangle =\left\langle {{v}_{1}},\alpha \odot \text{ }{{v}_{2}} \right\rangle =\alpha \left\langle {{v}_{1}},{{v}_{2}} \right\rangle
5. \forall {{v}_{1}},{{v}_{2}},{{v}_{3}}\in V\text{ } \left\langle {{v}_{1}}+{{v}_{2}},\text{ }{{v}_{3}} \right\rangle =\left\langle {{v}_{1}},{{v}_{3}} \right\rangle +\left\langle {{v}_{2}},{{v}_{3}} \right\rangle
Definición. Se denomina Espacio Euclidiano a todo Espacio Vectorial que tiene un Producto Interno.
Ejemplo. Sea V={{M}_{2\times 2}}. Determine si la función \left\langle \text{ },\text{ } \right\rangle :V\times V\to \mathsf{\mathbb{R}} tal que \left\langle A,B \right\rangle =\det (A)\det (B) es un producto interno (P.I.) en V.

Solución:

Se debe determinar si se cumplen las 5 propiedades del P.I. real:
i) \forall A\in {{M}_{2\times 2}}\text{ }\left\langle A,A \right\rangle \ge 0

Sea A\in {{M}_{2\times 2}}, luego:
\left\langle A,A \right\rangle =\det (A)\det (A)={{\left[ \det (A) \right]}^{2}}\ge 0
En consecuencia sí se cumple esta propiedad.

ii) \forall A\in {{M}_{2\times 2}}\text{ }\left\langle A,A \right\rangle =0\Leftrightarrow A={{\mathbf{0}}_{v}}

Sea A\in {{M}_{2\times 2}}, se demostrará la equivalencia demostrando las implicaciones en ambas direcciones por separado:

ii-a) A={{\mathbf{0}}_{v}}\to \left\langle A,A \right\rangle =0
Si A=\left( \begin{array}{rr} 0 & 0 \\ 0 & 0 \end{array} \right), luego {det(A)}=0, por lo cual se cumple que
\left\langle A,A \right\rangle ={{[\det (A)]}^{2}}=0

ii-b) \,\left\langle A,A \right\rangle =0\to A={{\mathbf{0}}_{v}}
Si \left\langle A,A \right\rangle =0, luego {det(A)}=0, pero esto no implica que la matriz A sea necesariamente la matriz neutra.

Contraejemplo:
SeaA=\left( \begin{array}{rr} 1 & 0 \\ 0 & 0 \end{array} \right), esta matriz no es la matriz nula, sin embargo su determinante es cero, lo que hace que \left\langle A,A \right\rangle =0.
La segunda propiedad no se cumple \therefore \left\langle \text{ },\text{ } \right\rangle no es un producto interno en el espacio dado.


Catálogo de Productos Internos Estándares

Aunque en un espacio vectorial euclidiano se pueden definir más de un producto interno, cuando no se especifica alguno se utiliza el denominado producto interno estándar en ese espacio.

{{\mathsf{\mathbb{R}}}^{n}}: En este espacio, el producto interno estándar es el conocido producto punto o producto escalar:
\forall \mathbf{x},\mathbf{y}\in {{\mathbb{R}}^{n}}
\left\langle \left( \begin{array}{r} {{x}_{1}} \\ {{x}_{2}} \\ \vdots \\ {{x}_{n}} \end{array} \right),\left( \begin{array}{r} {{y}_{1}} \\ {{y}_{2}} \\ \vdots \\ {{y}_{n}} \end{array} \right) \right\rangle ={{x}_{1}}{{y}_{1}}+{{x}_{2}}{{y}_{2}}+\cdots {{x}_{n}}{{y}_{n}}
=\sum\limits_{i=1}^{n}{{{x}_{i}}{{y}_{i}}}.
También puede expresarse como un producto matricial:
\left\langle \mathbf{x},\mathbf{y} \right\rangle={{\mathbf{x}}^{T}}\mathbf{y}=\left[ \begin{array}{rrrr} {{x}_{1}} & {{x}_{2}} & \cdots & {{x}_{n}} \end{array} \right]\left[ \begin{array}{r} {{y}_{1}} \\ {{y}_{2}} \\ \vdots \\ {{y}_{n}} \end{array} \right]
{{\mathsf{\mathbb{C}}}^{n}}: En este espacio, el producto interno estándar es:
\forall \mathbf{x},\mathbf{y}\in {{\mathbb{C}}^{n}}
\left\langle \left( \begin{array}{r} {{x}_{1}} \\ {{x}_{2}} \\ \vdots \\ {{x}_{n}} \end{array} \right),\left( \begin{array}{r} {{{\bar{y}}}_{1}} \\ {{{\bar{y}}}_{2}} \\ \vdots \\ {{{\bar{y}}}_{n}} \end{array} \right) \right\rangle ={{x}_{1}}{{\bar{y}}_{1}}+{{x}_{2}}{{\bar{y}}_{2}}+\cdots {{x}_{n}}{{\bar{y}}_{n}}
=\sum\limits_{i=1}^{n}{{{x}_{i}}{{{\bar{y}}}_{i}}}.
O, como producto matricial:
\left\langle \mathbf{x},\mathbf{y} \right\rangle ={{\mathbf{x}}^{T}}\mathbf{\bar{y}}=\left[ \begin{array}{rrrr} {{x}_{1}} & {{x}_{2}} & \cdots & {{x}_{n}} \end{array} \right]\left[ \begin{array}{r} {{{\bar{y}}}_{1}} \\ {{{\bar{y}}}_{2}} \\ \vdots \\ {{{\bar{y}}}_{n}} \end{array}\right]
Donde \overline{a} indica el complejo conjugado de {a}.
{{P}_{n}}: En el espacio de los polinomios de grado menor o igual que n, el producto interno estándar es:
\forall p,q\in {{P}_{n}}\left\langle p,q \right\rangle =
\left\langle {{a}_{0}}+{{a}_{1}}x+{{a}_{2}}{{x}^{2}}+{{a}_{n}}{{x}^{n}},{{b}_{0}}+{{b}_{1}}x+{{b}_{2}}{{x}^{2}}+{{b}_{n}}{{x}^{n}} \right\rangle
={{a}_{0}}{{b}_{0}}+{{a}_{1}}{{b}_{1}}+{{a}_{2}}{{b}_{2}}+\cdots {{a}_{n}}{{b}_{n}}=\sum\limits_{i=0}^{n}{{{a}_{i}}{{b}_{i}}}
{{M}_{mn}}: En el espacio de las matrices {{M}_{m\times n}}, el producto interno estándar es:
\forall A,B\in {{M}_{m\times n}}\left\langle A,B \right\rangle =
\left\langle \left( \begin{array}{rrrr} {{a}_{11}} & {{a}_{12}} & {...} & {{a}_{1n}} \\ {{a}_{21}} & {{a}_{22}} & {...} & {{a}_{2n}} \\ \vdots & \vdots & {} & \vdots \\ {{a}_{m1}} & {{a}_{m2}} & {...} & {{a}_{mn}} \end{array} \right),\left( \begin{array}{rrrr} {{b}_{11}} & {{b}_{12}} & {...} & {{b}_{1n}} \\ {{b}_{21}} & {{b}_{22}} & {...} & {{b}_{2n}} \\ \vdots & \vdots & {} & \vdots \\ {{b}_{m1}} & {{b}_{m2}} & {...} & {{b}_{mn}} \end{array} \right) \right\rangle
={{a}_{11}}{{b}_{11}}+{{a}_{12}}{{b}_{12}}+\cdots+{{a}_{ij}}{{b}_{ij}}+\cdots {{a}_{mn}}{{b}_{mn}}
=\sum\limits_{i=1}^{m}{\sum\limits_{j=1}^{n}{{{a}_{ij}}{{b}_{ij}}}}
C_{[a,b]}^{k}: En el espacio de las funciones clase C_{[a,b]}^{k}, el producto interno es:
\forall f,g\in C_{[a,b]}^{k}:
\left\langle f,g \right\rangle =\int\limits_{a}^{b}{f(x)g(x)dx}

Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas

cl3-04. Matriz asociada a un transformación


Teorema. Sean V y W dos espacios vectoriales de dimensión n y m, respectivamente. Sean {B}_{1} y {B}_{2} sus respectivas bases. Sea T{:}\ V\rightarrow W una transformación lineal; entonces existe una única matriz {A}_{T} de m\times n tal que: 

{{[T(v)]}_{B2}}={{A}_{T}}.{{[v]}_{B1}}

La matriz {A}_{T} se denomina matriz de transformación correspondiente a T o representación matricial de T, con respecto a las bases {B}_{1} y {B}_{2}. Se suele representar también como {{A}_{{{T}_{B1B2}}}} para indicar que tal matriz utiliza trabaja exclusivamente con coordenadas respecto a las bases {B}_{1} y {B}_{2} en los espacios de partida y de llegada.

Construcción de una matriz de transformación. Sean {B}_{1} y {B}_{2} dos bases respectivas de los espacios V y W, tales que {{B}_{1}}=\left\{ {{v}_{1}},{{v}_{2}},\cdots {{v}_{n}} \right\} y {{B}_{2}}=\left\{ {{w}_{1}},{{w}_{2}},\cdots {{w}_{n}} \right\}. 

Si T{:}\ V\rightarrow W es una transformación lineal, entonces el procedimiento para calcular la matriz {{A}_{{{T}_{B1B2}}}} es el siguiente:

1.- Calcular T({v}_{i}), para i=1,2,...n 
2.- Determinar el vector de coordenadas de T({v}_{i}) respecto a la base B2, {{[T({v}_{i})]}_{B2}}.
3.- Construir la matriz {{A}_{{{T}_{B1B2}}}} eligiendo a {{[T({v}_{i})]}_{B2}} como la {i}-ésima columna de {A}_{T}.


{{A}_{{{T}_{B1B2}}}} = \left[ \begin{array}{rrrr} \uparrow  & \uparrow  & {} & \uparrow \\ {{[T({{v}_{1}})]}_{B2}} & {{[T({{v}_{2}})]}_{B2}} & \cdots  & {{[T({{v}_{n}})]}_{B2}} \\ \downarrow  & \downarrow  & {} & \downarrow \end{array} \right]

Utilización de la matriz de transformación. 
Si {{[v]}_{B1}} son las coordenadas de v \in V, entonces se puede calcular {{[T(v)]}_{B2}} mediante la expresión:

{{[T(v)]}_{B2}}={{A}_{T}}.{{[v]}_{B1}}, \forall v\in V.

Ejemplo 
Sea B=\left\{ {{e}^{x}},{{e}^{-x}},x{{e}^{x}},{{x}^{2}}{{e}^{x}} \right\} una base de V=gen(B), T:V\to V una transformación lineal tal que T(f)=f'(x), determine {{A}_{{{T}_{B}}}}.

Solución

1.- Transformar cada vector de la base del espacio de partida, B:

T({{e}^{x}})={{e}^{x}}
T({{e}^{-x}})=-{{e}^{-x}}
T(x{{e}^{x}})={{e}^{x}}+x{{e}^{x}}
T({{x}^{2}}{{e}^{x}})=2x{{e}^{x}}+{{x}^{2}}{{e}^{x}}

2.- Determinar las coordenadas de tales transformadas, respecto a la base del espacio de llegada, en este caso la misma base B para el mismo espacio V:

{{\left[ T({{e}^{x}}) \right]}_{B}}={{\left[ {{e}^{x}} \right]}_{B}}=(1,0,0,0)
{{\left[ T({{e}^{-x}}) \right]}_{B}}={{\left[ -{{e}^{-x}} \right]}_{B}}=(0,-1,0,0)
{{\left[ T(x{{e}^{x}}) \right]}_{B}}={{\left[ {{e}^{x}}+x{{e}^{x}} \right]}_{B}}=(1,0,1,0)
{{\left[ T({{x}^{2}}{{e}^{x}}) \right]}_{B}}={{\left[ 2x{{e}^{x}}+{{x}^{2}}{{e}^{x}} \right]}_{B}}=(0,0,2,1)

3.- Construir la matriz con las coordenadas halladas:

{{A}_{{{T}_{B}}}}=\left[ \begin{array}{rrrr} 1 & 0 & 1 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{array} \right].

Ejemplo 
Utilice la matriz del ejemplo anterior para calcular T({Cosh}(x))

Solución

Aunque se puede calcular mediante la regla de correspondencia que T({Cosh}(x))=Senh(x), se requiere en el ejercicio utilizar la matriz de transformación. La matriz de transformación opera entre coordenadas, así se necesita hallar {{\left[ {Cosh}(x) \right]}_{B}}:

Dado que {Cosh}(x)=\frac{{{e}^{x}}+{{e}^{-x}}}{2}, entonces vector de coordenadas es {{\left[ {Cosh}(x) \right]}_{B}}=(1/2,1/2,0,0)

Luego, se tiene que {{[T(v)]}_{B}}={{A}_{{{T}_{B}}}}{{[v]}_{B}}, es decir:

{{[T({Cosh}(x))]}_{B}}=\left[ \begin{array}{rrr} 1 & 0 & 1 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{array} \right]\left( \begin{array}{r} 1/2 \\ 1/2 \\ 0 \\ 0 \end{array} \right)=\left( \begin{array}{r} 1/2 \\ -1/2 \\ 0 \\ 0 \end{array} \right)

Lo que significa que:
T({Cosh}(x))=\frac{1}{2}{{e}^{x}}-\frac{1}{2}{{e}^{-x}}+0x{{e}^{x}}+0{{x}^{2}}{{e}^{x}}
Es decir:
T({Cosh}(x))=\frac{{{e}^{x}}-{{e}^{-x}}}{2}=Senh(x)

cl3-02. Inyectividad, sobreyectividad, composición e inversa


En cuanto funciones, las transformaciones lineales pueden tener la cualidad de inyectiva, sobreyectiva, pueden componerse bajo ciertas condiciones y, si son biyectivas pueden invertirse.

Inyectividad

Definición. Sean V y W espacios vectoriales cualesquiera. Sea la transformación lineal T{:}\ V\rightarrow W. T es inyectiva si y solo si se satisface la siguiente condición:

\forall {{v}_{1}},{{v}_{2}}\in V\text{    }{{v}_{1}}\ne {{v}_{2}}\Rightarrow T({{v}_{1}})\ne T({{v}_{2}}).

La contrapositiva de esta expresión (equivalente) suele utilizarse en las demostraciones:

\forall {{v}_{1}},{{v}_{2}}\in V\text{    }T({{v}_{1}})=T({{v}_{2}})\text{ }\Rightarrow {{v}_{1}}={{v}_{2}}.
Ejemplo. Sea la transformación lineal T:{{\mathsf{\mathbb{R}}}^{2}}\to {{P}_{2}} definida por T(a,b)=(a-2b){{x}^{2}}+(2a+b)x+(-a+3b). Determine si T es inyectiva.

Solución
Se determinará si T cumple con \forall {{v}_{1}},{{v}_{2}}\in {{\mathsf{\mathbb{R}}}^{2}}\text{ }T({{v}_{1}})=T({{v}_{2}})\text{ }\Rightarrow {{v}_{1}}={{v}_{2}}.

Sean {{v}_{1}}=({{a}_{1}},{{b}_{1}}) y {{v}_{2}}=({{a}_{2}},{{b}_{2}}) dos elementos arbitrarios de R2 tales que:
T({{a}_{1}},{{b}_{1}})=({{a}_{1}}-2{{b}_{1}}){{x}^{2}}+(2{{a}_{1}}+{{b}_{1}})x+(-{{a}_{1}}+3{{b}_{1}}), y
T({{a}_{2}},{{b}_{2}})=({{a}_{2}}-2{{b}_{2}}){{x}^{2}}+(2{{a}_{2}}+{{b}_{2}})x+(-{{a}_{2}}+3{{b}_{2}})

Si suponemos el antecedente verdadero, la siguiente expresión es verdadera:
({{a}_{1}}-2{{b}_{1}}){{x}^{2}}+(2{{a}_{1}}+{{b}_{1}})x+(-{{a}_{1}}+3{{b}_{1}})=
({{a}_{2}}-2{{b}_{2}}){{x}^{2}}+(2{{a}_{2}}+{{b}_{2}})x+(-{{a}_{2}}+3{{b}_{2}})

Lo que implica resolver el siguiente sistema

\left\{ \begin{array}{rcl}{{a}_{1}}-2{{b}_{1}}&=&{{a}_{2}}-2{{b}_{2}} \\ 2{{a}_{1}}+{{b}_{1}}&=&2{{a}_{2}}+{{b}_{2}} \\ -{{a}_{1}}+3{{b}_{1}}&=&-{{a}_{2}}+3{{b}_{2}} \end{array}\right. \left(\begin{array}{rr|r} 1 & -2 & {{{a}_{2}}-2{{b}_{2}}} \\ 2 & 1 & {2{{a}_{2}}+{{b}_{2}}} \\ -1 & 3 & {-{{a}_{2}}+3{{b}_{2}}} \end{array} \right) \sim ...\left(\begin{array}{rr|r} 1 & 0 & {{a}_{2}} \\ 0 & 1 & {{b}_{2}} \\ 0 & 0 & 0 \end{array} \right)

Se observa que {{b}_{1}}={{b}_{2}} y {{a}_{1}}={{a}_{2}}. En consecuencia, {{v}_{1}}={{v}_{2}} y la transformación dada es inyectiva.

Sobreyectividad

Definición. Sean V y W espacios vectoriales cualesquiera. Sea la transformación lineal T{:}\ V\rightarrow W. T es sobreyectiva si y solo si se satisface la siguiente condición:

\forall w\in W\text{ }\exists v\in V\text{  }w=T(v).
Ejemplo. Sea la transformación lineal T:{{P}_{2}}\to {{M}_{2\times 2}} definida por T(a{{x}^{2}}+bx+c) = \left( \begin{array}{rr} a+b+c & 2a-b+2c \\ a-2b+c & 2a-4b+2c \end{array} \right)
. Determine si T es sobreyectiva.

Solución

Se determinará si se cumple que \forall w\in {{M}_{2\times 2}}\text{ }\exists v\in {{P}_{2}}\text{ }w=T(v).

Sea w=\left( \begin{array}{rr} w1 & w2 \\ w3 & w4 \end{array} \right)\in {{M}_{2\times 2}} y v=a{{x}^{2}}+bx+c\in {{P}_{2}}; luego:

T(a{{x}^{2}}+bx+c)=

\left( \begin{array}{rr} a+b+c & 2a-b+2c \\ a-2b+c & 2a-4b+2c \end{array}\right) = \left( \begin{array}{rr} w1 & w2 \\ w3 & w4 \end{array} \right),

lo que implica resolver el sistema:

\left\{ \begin{array}{rcl}{a+b+c}&=&{w1} \\ {2a-b+2c}&=&{w2} \\ {a-2b+c}&=&{w3} \\ {2a-4b+2c}&=&{w4} \end{array}\right.

\left( \begin{array}{rrr|r} 1 & 1 & 1 & {{w}_{1}} \\ 2 & -1 & 2 & {{w}_{2}} \\ 1 & -2 & 1 & {{w}_{3}} \\ 2 & -4 & 2 & {{w}_{4}} \end{array} \right) \sim ...\left( \begin{array}{rrr|r} 1 & 1 & 1 & {{w}_{1}} \\ 0 & -3 & 0 & {{w}_{2}}-2{{w}_{1}} \\ 0 & 0 & 0 & {{w}_{3}}-{{w}_{2}}+{{w}_{1}} \\ 0 & 0 & 0 & {{w}_{4}}-2{{w}_{2}}+2{{w}_{1}} \end{array} \right).

El sistema es consistente solo si {{w}_{3}}-{{w}_{2}}+{{w}_{1}}=0 y {{w}_{4}}-2{{w}_{2}}+2{{w}_{1}}=0 ; por lo cual no cualquier vector w posee un respectivo v tal que T(v)=w. T no es sobreyectiva.

Biyectividad y Espacios Isomorfos

Definición. Sea la transformación lineal T{:}\ V\rightarrow W. T es biyectiva si y solo si T es inyectiva y sobreyectiva.
 Una transformación lineal es invertible si y solo si es biyectiva. Una transformación biyectiva recibe el nombre de Isomorfismo.
Definición. Sean V y W dos espacios vectoriales, se denominan espacios isomorfos si y solo si se puede construir un isomorfismo (biyección) entre V y W.

Composición

Definición. Sean las transformaciones lineales {T}_{1}{:}\ V\rightarrow W, y {T}_{2}{:}\ W\rightarrow Z, entonces la composición de T2 con T1 es la función {{T}_{2}}o{{T}_{1}}:V\to Z tal que {{T}_{2}}o{T}_{1}={{T}_{2}}[{{T}_{1}}(v)], \forall v\in V.
 La composición de T2 con T1, {{T}_{2}}o{{T}_{1}} es posible solo si el recorrido de T1 es subconjunto del dominio de T2.
Ejemplo. Sean las transformaciones lineales {{T}_{1}}:{{\mathsf{\mathbb{R}}}^{2}}\to {{P}_{2}} y {{T}_{2}}:{{P}_{2}}\to {{M}_{2\times 2}} definidas por:
{{T}_{1}}(a,b,c)=(a-c){{x}^{2}}+(b+c)x+c, y
{T}_{2}(a{{x}^{2}}+bx+c) = \left( \begin{array}{rr} a+b & b+2c \\ a-c & 2a+2c \end{array} \right). 
Determine, de ser posible, las composiciones {{T}_{1}}o{{T}_{2}} y {{T}_{2}}o{{T}_{1}}.

Solución

La composición {{T}_{1}}o{{T}_{2}} no es posible porque el recorrido de {{T}_{2}} no es un subconjunto del dominio de {{T}_{1}}. Por otra parte, la composición {{T}_{2}}o{{T}_{1}} es posible de efectuar:

{{T}_{2}}o{{T}_{1}}={{T}_{2}}({{T}_{1}})={{T}_{2}}([(a-c){{x}^{2}}+(b+c)x+c])
=\left( \begin{array}{rr} (a-c)+(b+c) & (b+c)+2c \\ (a-c)-c & 2(a-c)+2c \end{array} \right)=\left( \begin{array}{rr} a+b & b+3c \\ a-2c & 2a \end{array} \right)

Es decir:

{{T}_{2}}o{{T}_{1}}(a,b,c)=\left( \begin{array}{rr} a+b & b+3c \\ a-2c & 2a \end{array} \right).

Transformación Identidad

Definición. Sea V un espacio vectorial, y sea la transformación lineal {I}_{V}{:}\ V\rightarrow V, {I}_{V} es la transformación Identidad en V si y solo si {{I}_{V}}(v)=v,  \forall v\in V.

Transformación Inversa

Definición. Sea T:V\to W un isomorfismo (es decir, una transformación lineal biyectiva). Entonces, T es invertible y existe su transformación inversa {{T}^{-1}}:W\to V tal que:
{{T}^{-1}}oT={{I}_{V}}, y To{{T}^{-1}}={{I}_{W}}.
Ejemplo. Sea el isomorfismo T:{{S}_{2\times 2}}\to {{P}_{2}} tal que T\left( \begin{array}{rr} a & b \\ b & c \end{array} \right) = (a+b+c){{x}^{2}}+(-b-c)x+(-b+c). Determine su transformación inversa.

Solución

El procedimiento refleja los pasos que se sigue para hallar la transformación inversa de una función de variable real, tomamos la regla de correspondencia T(v) y la igualamos a un elemento típico del espacio de llegada, w = T(v). «Despejamos» v en función de w, y un cambio de variable final nos aclara sobre la regla de correspondencia de la inversa:

Sea w={{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}} un vector típico arbitrario del espacio de llegada. Entonces:

(a+b+c){{x}^{2}}+(-b-c)x+(-b+c)={{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}}.

Esta igualdad implica resolver el siguiente sistema:
\left\{ \begin{array}{rcl} a+b+c={{k}_{2}} \\ -b-c={{k}_{1}} \\ -b+c={{k}_{0}} \end{array} \right.

\left( \begin{array}{rrr|r} 1 & 1 & 1 & {{k}_{2}} \\ 0 & -1 & -1 & {{k}_{1}} \\ 0 & -1 & 1 & {{k}_{0}} \end{array} \right)\tilde{\ }...\left( \begin{array}{rrr|r} 1 & 0 & 0 & {{k}_{2}}+{{k}_{1}} \\ 0 & 2 & 0 & -{{k}_{1}}-{{k}_{0}} \\ 0 & 0 & 2 & {{k}_{0}}-{{k}_{1}} \end{array} \right).

Es decir, a={{k}_{2}}+{{k}_{1}}, b=(-{{k}_{1}}-{{k}_{0}})/2 y c=({{k}_{0}}-{{k}_{1}})/2.

Si originalmente la transformación T tiene la forma:
T\left( \begin{array}{rr} a & b \\ b & c \end{array} \right)={{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}},
La inversa tiene la forma:
{{T}^{-1}}({{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}})=\left( \begin{array}{rr} a & b \\ b & c \end{array} \right).

Reemplazando las expresiones halladas al resolver el sistema lineal, se tiene:
{{T}^{-1}}({{k}_{2}}{{x}^{2}}+{{k}_{1}}x+{{k}_{0}})=\left( \begin{array}{rr} {{k}_{2}}+{{k}_{1}} & (-{{k}_{1}}-{{k}_{0}})/2 \\ (-{{k}_{1}}-{{k}_{0}})/2 & ({{k}_{0}}-{{k}_{1}})/2 \end{array} \right),

que es la regla de correspondencia de la inversa de T.

cl3-03. Núcleo e Imagen de una Transformación


Núcleo y Nulidad de una Transformación.

Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define el Núcleo de T al conjunto de todos los elementos de V cuya transformada es el neutro de W: 

Nu(T)=\left\{ v\in V/T(v)={{0}_{w}} \right\}

Algunos autores utilizan el término Kernel en lugar de Núcleo, Ker(T).
 Sea T{:}\ V\rightarrow W una transformación lineal, el Núcleo de T es un subespacio de V
Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define la nulidad de T a la dimensión del respectivo Núcleo: 

\upsilon (T)=\dim(Nu(T))

Por lo tanto, 0\le \upsilon (T)\le \dim(V)

Imagen y Rango de una Transformación.

Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define Imagen de T al conjunto de todos los elementos de W que son la transformada de algún vector en el espacio de partida: 

{Im}(T)=\left\{ w\in W/\text{ }\exists v\in V\text{ }tal\text{ }que\text{ }w=T(v) \right\}

Algunos autores utilizan el término Recorrido en lugar de Imagen, Rec(T).
 Sea T{:}\ V\rightarrow W una transformación lineal, la Imagen de T es un subespacio de W
Definición. Sea T{:}\ V\rightarrow W una transformación lineal, se define rango de T a la dimensión de la respectiva Imagen: 

\rho (T)=\dim({Im}(T))

Por lo tanto, 0\le \rho (T)\le \dim(W)

Teorema de la Dimensión

Sea T{:}\ V\rightarrow W una transformación lineal, se cumple que: 

\upsilon(T) + \rho(T)=\dim(V)

Relación con la inyectividad y la sobreyectividad de una transformación

Teorema. Sea T{:}\ V\rightarrow W una transformación lineal, T es inyectiva si y solo si:
 \upsilon(T) = 0
Teorema. Sea T{:}\ V\rightarrow W una transformación lineal, T es sobreyectiva si y solo si:
 \rho(T) = \dim(W)
Teorema. Sean V y W dos espacios vectoriales, se dice que son isomorfos si y solo si \dim(V) = \dim(W).

Ejemplo Sea T:{{P}_{2}}\to {{R}^{4}} una transformación lineal tal que: 
T(a{{x}^{2}}+bx+c)=(a+b,b+c,a-c,a+2b+c), 
determine {Nu}(T) e {Im}(T).

Solución

Imagen.- Según la definición, se debe hallar todos los vectores w\in {{R}^{4}} tales que T(v)=w para algún v \in {P}_{2}. Sea
v=a{{x}^{2}}+bx+c\in {{P}_{2}} y sea w=({{w}_{1}},{{w}_{2}},{{w}_{3}},{{w}_{4}}), entonces se tiene que:

T(v)=(a+b,b+c,a-c,a+2b+c)=({{w}_{1}},{{w}_{2}},{{w}_{3}},{{w}_{4}}),

lo que implica resolver el siguiente sistema:

\left\{ \begin{array}{rcl} a+b={{w}_{1}} \\ b+c={{w}_{2}} \\ a-c={{w}_{3}} \\ a+2b+c={{w}_{4}} \end{array} \right. ,

\left( \begin{array}{rrr|r} 1 & 1 & 0 & {{w}_{1}} \\ 0 & 1 & 1 & {{w}_{2}} \\ 1 & 0 & -1 & {{w}_{3}} \\ 1 & 2 & 1 & {{w}_{4}} \end{array} \right)\sim ...\left( \begin{array}{rrr|r} 1 & 1 & 0 & {{w}_{1}} \\ 0 & 1 & 1 & {{w}_{2}} \\ 0 & 0 & 0 & {{w}_{3}}+{{w}_{2}}-{{w}_{1}} \\ 0 & 0 & 0 & {{w}_{4}}-{{w}_{2}}-{{w}_{1}} \end{array}\right) .

Las condiciones para que el sistema sea consistente se vuelven las condiciones de la imagen de T:

{Im}(T)=\left\{ {({{w}_{1}},{{w}_{2}},{{w}_{3}},{{w}_{4}})\in {{R}^{4}}}/{\begin{array}{r} & {{w}_{3}}+{{w}_{2}}-{{w}_{1}}=0 \\ & \wedge \text{ }{{w}_{4}}-{{w}_{2}}-{{w}_{1}}=0 \end{array}}\; \right\}.

Núcleo.- Según la definición, se debe hallar todos los vectores v\in {{P}_{2}} tales que T(v)={0}_{w}, entonces se tiene que:

T(v)=(a+b,b+c,a-c,a+2b+c)=(0,0,0,0),

lo que implica resolver el siguiente sistema:

\left\{ \begin{array}{rcl} a+b={0} \\ b+c={0} \\ a-c={0} \\ a+2b+c={0} \end{array} \right. ,

\left( \begin{array}{rrr|r} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right).

A partir de lo cual, podemos describir el núcleo de T:

Nu(T)=\left\{ {a{{x}^{2}}+bx+c\in {{P}_{2}}}/{\begin{array}{r} & a+b=0 \\ & \wedge \text{ }b+c=0 \end{array}}\; \right\}

cl3-01. Transformaciones Lineales


Definición. Sean V y W espacios vectoriales cualesquiera. Una transformación lineal T{:}\ V\rightarrow W es una función que asigna a cada vector v\in V un vector único T(v)\in W y que satisface las siguientes condiciones:

1) \forall\ v_1, v_2\in V{:}\ T(v_1+v_2)=T(v_1)+T(v_2).
2) \forall\ v\in V,\ \forall \alpha\in \mathbb{R}{:}\ T(\alpha v)=\alpha T(v).
Ejemplo. Sean V=\mathbb{C}[a,b] y W=\mathbb{R} espacios vectoriales. Demuestre que la transformación T{:}\ V\rightarrow W definida por T(f)=\int_{a}^{b} f(x) dx es lineal.

Solución.
1) \forall\ f, g\in V{:}\ T(f+g)=T(f)+T(g).

\small{T(f)=\int_{a}^{b} f(x) dx \qquad T(g)=\int_{a}^{b} g(x) dx \qquad (f+g)(x)=f(x)+g(x)}\begin{array}{rcl}T(f+g)&=&\int_{a}^{b} (f+g)(x)dx\\T(f+g)&=&\int_{a}^{b} [f(x)+g(x)]dx\\T(f)+T(g)&=&\int_{a}^{b} f(x) dx + \int_{a}^{b} g(x) dx\end{array}

2) \forall\ f\in V,\ \forall \alpha\in \mathbb{R}{:}\ T(\alpha f)=\alpha T(f)

\small{(\alpha f)(x)=\alpha f(x) \qquad T(f)=\int_{a}^{b} f(x) dx \Longrightarrow T(\alpha f)=\int_{a}^{b} (\alpha f)(x) dx}\small{\int_{a}^{b} (\alpha f)(x) dx = \int_{a}^{b} \alpha f(x) dx = \alpha \int_{a}^{b} f(x) dx = \alpha T(f)}

Por consiguiente, T{:}\ V\rightarrow W es una transformación lineal.

 

Teorema. Sea T{:}\ V\rightarrow W una transformación lineal entonces:

La imagen del cero vector de V es el cero vector de W.
T(0_V)=0_W
La imagen del inverso de V es el inverso de V.
T(-v)=-T(v)
La transformada de la combinación lineal es la combinación lineal de la transformada.
\small{T(\alpha_1 V_1 + \alpha_2 V_2 + ... +\alpha_n V_n)=\alpha_1 T(V_1) + \alpha_2 T(V_2) + ... +\alpha_n T(V_n)}
Ejemplo. Sea T{:}\ \wp_2 \rightarrow \mathbb{R^3} una tranformación lineal tal que:\footnotesize{T(x+1)=\left(\begin{array}{r} 1 \\ 0\\ 1 \end{array}\right) \quad T(x^2 -1)=\left(\begin{array}{r} 0 \\ 1\\ 1 \end{array}\right) \quad T(2x^2+x-2)=\left(\begin{array}{r} 1 \\ 1\\ 0 \end{array}\right)}Determine T(ax^2+bx+c).

Solución.

T(ax^2+bx+c)=aT(x^2)+bT(x)+cT(1)
\left\{ \begin{array}{rcl}T(x)+T(1)&=&V_1 \\ T(x^2)-T(1)&=&V_2 \\ 2T(x^2)+T(x)-2T(1)&=&V_3 \end{array}\right.
\left(\begin{array}{rrr|r} 0 & 1 & 1 & V_1\\ 1 & 0 & -1& V_2 \\ 2&1&-2&V_3 \end{array}\right) \approx \left(\begin{array}{rrr|r} 1&0&-1&V_2 \\ 0&1&1&V_1 \\ 0&1&0&V_3 -2V_2 \end{array}\right)

\begin{array}{rclcrcc} T(x)&=&V_3 -2V_2 &\Longrightarrow& T(x)&=&{\left(\begin{array}{r} 1 \\ -1\\ 2 \end{array}\right)} \\ T(1)&=&V_1 - T(x) &\Longrightarrow & T(1)&=&{\left(\begin{array}{r} 0 \\ 1\\ 3 \end{array}\right)} \\ T(x^2)&=&V_2 + T(1) &\Longrightarrow & T(x^2)&=&{\left(\begin{array}{r} 0 \\ 2\\ 4 \end{array}\right)} \end{array} T(ax^2+bx+c) = a {\left(\begin{array}{r} 0 \\ 2\\ 4 \end{array}\right)} + b {\left(\begin{array}{r} 1 \\ -1\\ 2 \end{array}\right)} + c {\left(\begin{array}{r} 0 \\ 1\\ 3 \end{array}\right)}

Por consiguiente, T(ax^2+bx+c) = {\left(\begin{array}{c} b \\ 2a-b+c\\ 4a-2b+3c \end{array}\right)}

 

Ejemplo. Se consideran los conjuntos de vectores R y R', cuyas coordenadas se asocian a los puntos que forman los rombos ABCD y A'B'C'D' como se aprecia en la figura a continuación:

Si se define T{:}\ \mathbb{R^2}\rightarrow \mathbb{R^2} como T(x,y)=(-y,2x), grafique R''=T(R'); además, verifique que T es una transformación lineal.

Solución.
\begin{array}{l} {A'=(x,y)=(4,-4)\longrightarrow T(x,y)=(-y,2x)=(4,8)=A''}\\{B'=(x,y)=(6,-4)\longrightarrow T(x,y)=(-y,2x)=(4,12)=B''}\\{C'=(x,y)=(2,-2)\longrightarrow T(x,y)=(-y,2x)=(2,4)=C''}\\{D'=(x,y)=(4,-2)\longrightarrow T(x,y)=(-y,2x)=(2,8)=D''}\end{array}Por consiguiente, el conjunto de vectores R'' tiene como coordenadas los puntos que conforman el rombo A''B''C''D'' como se aprecia en la figura a continuación:

Para verificar que T es una transformación lineal, por definición se debe satisfacer las siguientes condiciones:

1) \forall\ v_1, v_2\in V{:}\ T(v_1+v_2)=T(v_1)+T(v_2).

Sean v_1=(x,y) y v_2=(x',y') dos vectores de \mathbb{R^2}.

\begin{array}{rcl} T(v_1+v_2)&=&T((x,y)+(x',y')) \\ &=&T(x+x',y+y')\\ &=&(-(y+y'),2(x+x')) \\ &=&(-y-y',2x+2x') \\ &=&(-y,2x)+(-y',2x') \\ &=&T(v_1)+T(v_2)\end{array}

2) \forall\ v\in V,\ \forall \alpha\in \mathbb{R}{:}\ T(\alpha v)=\alpha T(v).

Sean v=(x,y) un vector de \mathbb{R^2} y \alpha \in \mathbb{R}.

\begin{array}{rcl} T(\alpha v)&=&T(\alpha (x,y))\\&=&T(\alpha x,\alpha y)\\&=&(-\alpha y,2\alpha x)\\&=&\alpha(-y,2x)\\&=&\alpha T(v)\end{array}

Por consiguiente, T es una transformación lineal.


Enlaces de interés

Clase Online
Socrative Student
Plataforma SIDWeb
Referencias Bibliográficas