Archivo de la categoría: Álgebra

Vectores y valores propios, diagonalización de matrices

Vectores propios y valores propios

Definición 1: dado un endomorfismo f de un espacio vectorial E, f:E\rightarrow E, si existen vectores \boldsymbol v\in E tales que su imagen por f es otro vector proporcional a v, f\left(\boldsymbol v\right)=k\boldsymbol v\in E, siendo k un escalar, diremos que v es un vector propio de f, con valor propio k.

Ejemplo 1: La aplicación lineal f:\mathbb{R}^2\rightarrow\mathbb{R}^2 con matriz (en la base canónica)

\begin{pmatrix}3/5&4/5\\4/5&-3/5\end{pmatrix}

cumple que, para el vector (2, 1),

\begin{pmatrix}3/5&4/5\\4/5&-3/5\end{pmatrix}\begin{pmatrix}2\\1\end{pmatrix}=\begin{pmatrix}6/5+4/5\\8/5-3/5\end{pmatrix}=\begin{pmatrix}2\\1\end{pmatrix}

luego (2, 1) es un vector propio de f, con valor propio k = 1.

Condición para que existan valores y vectores propios

Teóricamente para encontrar los posibles valores propios de una aplicación lineal f planteamos la ecuación  lineal

f\left(\boldsymbol v\right)=k\boldsymbol v\Leftrightarrow f\left(\boldsymbol v\right)-k\boldsymbol v=\mathbf0\Leftrightarrow\left(f-k\mathbb{I}\right)=\mathbf0 [1]

, donde \mathbb{I} es la aplicacion identidad, \mathbb{I}\left(\boldsymbol v\right)=\boldsymbol v\right, y el símbolo 0 representa el vector nulo. Esto puede interpretarse como: los vectores propios de f han de ser vectores del núcleo de la aplicación \left(f-k\mathbb{I}\right). Recordando que para que el núcleo de una aplicación no sea el conjunto vacío se ha de cumplir que su determinante sea nulo, obtenemos la condición de existencia de valores y vectores propios:

\text{det}\;\begin{pmatrix}a_{11}-1&\dots&a_{1n}\\\vdots&\dots&\vdots\\a_{n1}&\cdots&a_{nn}-1\end{pmatrix}=0 [2]

Ejemplo 2: La aplicación del ejemplo 1 cumple la condición de existencia de vectores y valores propios:

\text{det}\begin{pmatrix}3/5-1&4/5\\4/5&-3/5-1\end{pmatrix}=\begin{vmatrix}-\frac25&\frac45\\\frac45&-\frac85\end{vmatrix}=\frac{16}{25}-\frac{16}{25}=0

Polinomio característico de la aplicación lineal

Para encontrar vectores propios de f, hemos visto que será lo mismo que encontrar los vectores del núcleo de la aplicación lineal \left(f-k\mathbb{I}\right) para los valores posibles de k. Estos valores k han de cumplir la condición [2]:

\text{det}\;\begin{pmatrix}a_{11}-k&\dots&a_{1n}\\\vdots&\dots&\vdots\\a_{n1}&\cdots&a_{nn}-k\end{pmatrix}=0 [3].

Al desarrollar este determinante, obtenemos un polinomio de grado n en la variable k, denominado polinomio característico de la aplicación lineal f. Para cada raíz de este polinomio, obtendremos uno de los valores propios de f.

Ejemplo 3: La aplicación del ejemplo 1 tiene por polinomio característico:

\text{det}\begin{pmatrix}3/5-k&4/5\\4/5&-3/5-k\end{pmatrix}=-\frac9{25}+k^2-\frac{16}{25}=k^2-1

con raíces k = +1, -1, que son los valores propios de f.

Propiedad 1: Una propiedad importante del polinomio característico es que no depende de las bases en la que expresemos la matriz de la aplicación f, por este motivo se le llama característico de f.

Determinación de los vectores propios

Para cada valor propio encontrado con el polinomio característico, planteamos la ecuación lineal [1], que será un sistema con n incógnitas del tipo indeterminado, pues su determinante es nulo (condición [2]). Las soluciones formaran un subespacio vectorial: el del núcleo de la aplicación \left(f-k\mathbb{I}\right).

Ejemplo 4: para el valor propio k = 1 de la aplicación del ejemplo 1, planteamos y resolvemos el sistema siguiente:

\begin{array}{l}\begin{pmatrix}3/5-1&4/5\\4/5&-3/5-1\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix}\Rightarrow\left.\begin{array}{r}-\frac25x+\frac45y=0\\\frac45x-\frac85y=0\end{array}\right\}\Rightarrow\\\left.\begin{array}{r}-\frac45x+\frac85y=0\\\frac45x-\frac85y=0\end{array}\right\}\Rightarrow x-2y=0\Rightarrow\boxed{x=2y}\end{array}

Cualquier vector que cumpla esta condición será un vector propio de f con valor propio k = 1, como por ejemplo los vectores (2, 1), (10, 5), (-4, -2), ...

Cuando el polinomio característico tiene raíces múltiples, no siempre será posible encontrar todos los vectores propios, como establece la siguiente propiedad:

Propiedad 2: la dimensión del subespacio Núcleo de \left(f-k\mathbb{I}\right) para raíces múltiples k es menor o igual  que la multiplicidad.

Ejemplo 5: La aplicación lineal que tiene por matriz

\begin{pmatrix}6&3&1\\-27&-14&-5\\65&36&13\end{pmatrix}

cumple la condición [2] de existencia de valores y vectores propios (comprobado con una calculadora de determinantes en línea). Calculemos su polinomio característico:

\begin{array}{l}\text{det }\begin{pmatrix}6-k&3&1\\-27&-14-k&-5\\65&36&13-k\end{pmatrix}=\left(6-k\right)\begin{vmatrix}-14-k&-5\\36&13-k\end{vmatrix}+27\begin{vmatrix}3&1\\36&13-k\end{vmatrix}-65\begin{vmatrix}3&1\\-14-k&-5\end{vmatrix}=\\\left(6-k\right)\left(-182+14k-13k+k^2+180\right)+27\left(39-3k-36\right)+65\left(-15+14+k\right)=\\\left(6-k\right)\left(k^2+k-2\right)+27\left(3-3k\right)-65+65k=\\6k^2+6k-12-k^3-k^2+2k+81-81k-65+65k=\\-k^3+5k^2-8k+4=0\end{array}

En casos reales deberíamos obtener las raíces de forma aproximada con ordenador, en este ejemplo didáctico las raíces son enteras, por Ruffini probamos con los divisores del término independiente, 4:

\begin{array}{l}\;\;\begin{array}{cccc}-1&5&-8&4\end{array}\\1\;\;\underline{\;\begin{array}{cccc}&-1&4&-4\end{array}}\\\begin{array}{cccc}\;\;-1&4&-4&\boxed0\end{array}\;\\\end{array}

Tenemos el primer valor propio, k = 1, es una raíz simple (multiplicidad = 2), y el subespacio vectorial asociado de valores propios tendrá, pues, dimensión 1 (geométricamente es una recta). Hemos reducido la ecuación característica a segundo grado, -k^3+5k^2-8k+4=\left(k-1\right)\left(-k^2+4k-4\right), la resolvemos directamente:

-k^2+4k-4=0\Rightarrow k=\frac{-4\pm\sqrt{16-4\cdot(-1)\cdot(-4)}}{-2}=2

El valor propio k = 2 es una raíz doble (multiplicidad = 2), el subespacio vectorial asociado de valores propios puede tener dimensión 1 (una recta) o 2 (un plano).

Diagonalización de endomorfismos (y matrices)

Propiedad 3: los vectores propios correspondientes a valores propios distintos de un endomorfismo f son linealmente independientes.

Por la propiedad 3, en una aplicación f en un espacio de dimensión n, no pueden haber más de n valores propios distintos, pues ese es el número máximo de vectores linealmente independientes.

Definición 2: dado un endomorfismo f de un espacio vectorial E, f:E\rightarrow E de dimensión n, si existen exactamente n valores propios de f, diremos que el endomorfismo (y su matriz) es diagonalizable.

El nombre "diagonalizable" proviene del hecho de que, si existen n vectores propios independientes, formaran una base del espacio, y si expresamos la matriz de f en esa base, entonces la matriz será diagonal, y sus elementos seran precisamente los valores propios. En efecto, si {u_1,u_2,...,u_n} es la base de vectores propios, con valores propios {k_1,k_2,...,k_n}, entonces la matriz de f en esa base está formada por las imágenes f(u_i)=k_iu_i expresadas en la misma base {u_1,u_2,...,u_n}, que es la matriz diagonal:

\begin{pmatrix}k_1&&\\&\ddots&\\&&k_n\end{pmatrix}

Ejemplo 6: la aplicación lineal del ejemplo 1, sobre el espacio \mathbb{R}^2, tiene dos valores propios, luego será diagonalizable: podemos tomar una base de \mathbb{R}^2 formada por vectores propios cualesquiera de f, y en esa base la matriz de f será:

\begin{pmatrix}1&0\\0&-1\end{pmatrix}

Ejemplo 7: la aplicación lineal f del ejemplo 5 tiene una raíz doble k = 2, para que sea diagonalizable ha de suceder que la dimensión del núcleo de (f - 2I) sea también 2. Vamos a comprobarlo, recordando que los vectores (x, y, z) del núcleo son aquellos que tienen por imagen el vector nulo, planteamos:

\left(f-2\mathbb{I}\right)\begin{pmatrix}x\\y\\z\end{pmatrix}=0\Leftrightarrow\begin{pmatrix}4&3&1\\-27&-16&-5\\65&36&11\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}4x+3y+z\\-27x-16y-5z\\65+6y+11z\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}

un sistema lineal homogéneo, que simplificamos:

\begin{array}{l}\begin{array}{c}27\cdot\\4\cdot\\\end{array}\begin{pmatrix}4x+3y+z\\-27x-16y-5z\\65+36y+11z\end{pmatrix}\sim\begin{pmatrix}108x+81y+27z\\-108x-64y-20z\\65+36y+11z\end{pmatrix}\sim\begin{pmatrix}4x+3y+z\\0x+17y+7z\\65+36y+11z\end{pmatrix}\sim\\\begin{array}{c}65\cdot\\\\-4\end{array}\begin{pmatrix}4x+3y+z\\0x+17y+7z\\65+36y+11z\end{pmatrix}\sim\begin{pmatrix}260x+195y+65z\\0x+17y+7z\\-260x-144y-44z\end{pmatrix}\sim\begin{pmatrix}4x+3y+z\\0x+17y+7z\\0x-51y-21z\end{pmatrix}\sim\\\begin{array}{c}\\51\\17\end{array}\begin{pmatrix}4x+3y+z\\0x+17y+7z\\0x-51y-21z\end{pmatrix}\sim\begin{pmatrix}4x+3y+z\\0x+867y+357z\\0x-867y-357z\end{pmatrix}\sim\begin{pmatrix}4x+3y+z\\0x+17y+7z\\0x+0y+0z\end{pmatrix}\end{array}

Vemos que nos quedan 2 ecuaciones independientes: la dimensión del núcleo de (f - 2I) es 1, no coincide con la multiplicidad del valor propio k = 2, luego la matriz no es diagonalizable. Resolviendo el sistema indeterminado podemos obtener los vectores propios del valor propio k = 2:

\begin{array}{l}\left.\begin{array}{r}4x+3y+z=0\\17y+7z=0\end{array}\right\}\Rightarrow\left.\begin{array}{r}4x+3y+z=0\\\boxed{y=-7z/17}\end{array}\right\}\Rightarrow4x-\left(21/17\right)z+z=0\Rightarrow\\4x-\left(4/17\right)z=0\Rightarrow\boxed{x=\left(1/17\right)z}\end{array}

o sea que nos queda los vectores (x, y, z) en función de z; por ejemplo, dado z = 17, entonces x =1 , y = -7, y obtenemos el vector propio (1, -7, 17) para el valor propio k = 2.

Obtengamos ahora un vector propio para el valor k = 1, o sea, resolvemos la ecuación (f - 1·I)v = 0, donde v = (x, y, z); esta vez usamos una hoja de cálculo para los detalles aritméticos:

pivote

Resolviendo las dos ecuaciones independientes:

\begin{array}{l}\left.\begin{array}{r}5x+3y+z=0\\6y+2z=0\end{array}\right\}\Rightarrow\left.\begin{array}{r}5x+3y+z=0\\\boxed{y=-z/3}\end{array}\right\}\Rightarrow4x-z+z=0\Rightarrow\boxed{x=0}\\\end{array}

Por ejemplo, para z = 3, obtenemos el vector propio (0, -1, 3). Como f no diagonaliza, no tenemos una base de vectores propios de f; lo que sí podemos hacer es completar los vectores propios de f con otro vector linealmente independiente para obtener una base que "casi diagonaliza". Por ejemplo, el vector (1, 0, 1) es claramente independiente de (1, -7, 17) y de (0, -1, 3). Tenemos pues la base {(1, -7, 17) , (0, -1, 3) , (1, 0, 1)}. ¿cuál será la matriz de f en esta base? Determinemos f((1, 0, 1), que resulta ser (7, -32, 78). ¿Cómo se expresa este vector en la base dada? Planteamos (7, -32, 78) = x·(1, -7, 17)+y·(0, -1, 3) + z·(1, 0, 1)  resolvemos este sistema, esta vez usamos una de las muchas páginas de Internet gratuitas que hacen el trabajo pesado (http://wims.unice.fr/wims/wims.cgi). obtenemos:

pivote2

Entonces concluimos que la matriz de f en la base que hemos diseñado es:

\begin{pmatrix}1&0&-\frac{25}3\\0&2&-\frac{79}3\\0&0&\frac{46}3\end{pmatrix}.

Ejemplo 8: comprobar si la matriz siguiente diagonaliza, teniendo en cuenta que está expresada en la base {(1, 1, 0), (1, 0, 1), (2, 2, 1)},

\begin{pmatrix}2&-3&0\\2&0&0\\0&-3&0\end{pmatrix}.

Antes que nada, si queremos comprobar que  {(1, 1, 0), (1, 0, 1), (2, 2, 1)} es realmente una base, calculamos el determinante que tiene por columnas los vectores, si son independientes el resultado ha de ser distinto de cero, lo hacemos con la web WolframAlpha:

determ

Vemos que es distinto de cero, luego efectivamente los vectores forman base. A continuación calculamos el polinomio característico del determinante, que recordemos que no depende de la base usada (propiedad 1), planteamos

det\begin{pmatrix}2-k&-3&0\\2&-k&0\\0&-3&-k\end{pmatrix}

y lo resolvemos de nuevo con WolframAlpha: el código es det {{2-k, 2, 0}, {-3, -k, -3}, {0, 0, -k}}, y el resultado -k (k^2 - 2 k + 6), este polinomio tiene una única raíz real, k = 0, con lo cual la matriz no es diagonalizable (ver definición 2).

 

Aplicaciones lineales

Competencias:

  1. Calcular el  núcleo e imagen de una aplicación lineal.
  2. Determinar una aplicación lineal conociendo las imágenes de los vectores de una base.

Conceptos:

  1. Conocer el concepto de aplicación lineal y su relación con las matrices.

separador2

Aplicaciones lineales

Las aplicaciones lineales, como todas las aplicaciones, son un tipo de correspondencia entre conjuntos, en este caso entre vectores de dos espacios vectoriales (para un recordatorio de las correspondencias entre conjuntos, ver el artículo Funciones), de hecho son funciones (o aplicaciones), pero con dos condiciones adicionales:

Definición 1: aplicación lineal entre espacios vectoriales. Una aplicación lineal es una función f que asigna vectores u de un espacio vectorial U a vectores f(u) = de otro espacio vectorial V, cumpliendo las siguientes condiciones de linealidad:

  1. f(u + u') = f(u) + f(u') = v + v', siendo u, u' vectores cualesquiera de U, y v, v' vectores de V
  2. k·f(u) = f(k·u) para cualquier vector u de U

Ejemplo 1: La correspondencia f que relaciona cada vector u del plano V_2 con el propio vector u girado 90⁰ en sentido horario, ¿es una aplicación lineal? Antes que nada, establecemos que es una aplicación: a cada vector u le corresponde un único vector f(u). Comprobemos ahora las condiciones de linealidad. La primera nos pregunta que pasa con las sumas de vectores: ¿es lo mismo sumar dos vectores u + u' y luego girar el resultado, que primero girar cada vector u, u' y luego sumar los vectores girados? Se puede ver gráficamente que esto es cierto sin dificultad (fig. 1)

Fig. 1: comprobación gráfica de que f(u + v) = f(u) + f(v)
Fig. 1: comprobación gráfica de que f(u + v) = f(u) + f(v)

La demostración general, algebraica, pasa por determinar cómo se transforman las componentes de un vector cualquiera u = (x, y) al aplicar el giro, resultando f(u) = v = (x', y'); la figura 2 nos muestra las relaciones entre (x, y), (x', y'):

Fig. 2: coordenadas de un giro cualquiera en el plano
Fig. 2: coordenadas de un giro de 90⁰ en el plano

\begin{array}{l}x'=u\cos\left(90^0-\alpha\right)=u\sin\left(\alpha\right)=y;\;\\y'=u\sin\left(90^0-\alpha\right)=-u\cos\left(\alpha\right)=-x\end{array}

Por tanto la rotación lo que hace es intercambiar valores i cambiar un signo: (x' , y') = (y, -x). Comprobemos ahora la propiedad 1 de linealidad:

\begin{array}{l}f\left(\boldsymbol u+\boldsymbol v\right)=f\left(\left(x_1,y_1\right)+\left(x_2,y_2\right)\right)=f\left(\left(x_1+x_2,y_1+y_2\right)\right)=\left(y_1+y_2,-x_1-x_2\right);\\f\left(\boldsymbol u\right)+f\left(\boldsymbol v\right)=f\left(\left(x_1,y_1\right)\right)+f\left(\left(x_2,y_2\right)\right)=\left(y_1,-x_1\right)+\left(y_2,-x_2\right)=\left(y_1+y_2,-x_1-x_2\right).\end{array}

En efecto coinciden, luego queda demostrada la propiedad 1. La otra propiedad es inmediata:

\begin{array}{l}f\left(k\boldsymbol u\right)=f\left(k\left(x_1,y_1\right)\right)=f\left(\left(kx_1,ky_1\right)\right)=\left(ky_1,-kx_1\right);\\kf\left(\boldsymbol u\right)=kf\left(\left(x_1,y_1\right)\right)=k\left(y_1,-x_1\right)=\left(ky_1,-kx_1\right).\end{array}

Por tanto la aplicación f de giro es una aplicación lineal.

Se suele expresar la relación de correspondencia de una aplicación lineal entre vectores por un diagrama como:

\begin{array}{l}f:\;U\rightarrow V\\\;\;\;\;u\rightarrow\;f(u)=v\end{array},

indicando que la aplicación es entre los espacios vectoriales U y V. En el ejemplo 1, el de la rotación, ambos espacios son el mismo V_2 de vectores del plano: f:\;V_2\rightarrow V_2, pero en general U y V pueden ser distintos.

Núcleo e imagen de una aplicación lineal

En una aplicación lineal f siempre se cumple que f(0) = 0, pero puede suceder que ningún otro vector u se relacione con el vector nulo, o bien que la ecuación f(u) = 0 tenga más soluciones que u = 0.  El conjunto de vectores u que son soluciones de f(u) = 0  se llama el núcleo de la aplicación lineal f. El núcleo como mínimo contiene el vector nulo 0.

Por otro lado, la ecuación v = f(u) siendo u la incógnita, no siempre tiene solución, y entonces no existe ningún vector u del espacio vectorial U al que le corresponda el vector v del espacio V. Definimos el conjunto imagen de la aplicación lineal f como el subconjunto de vectores v del espacio V tales que la ecuación v = f(u) tiene solución.

Ejemplo 2: La aplicación giro del ejemplo 1 tiene como Núcleo sólo el vector nulo 0,  pues ningún vector u al girarlo 90⁰ quedará reducido al 0.  Su conjunto imagen será todo el espacio V_2, pues para cualquier vector v, existe un vector u que cumple  v = f(u): basta con girar  v 90⁰ en sentido antihorario para obtener la solución u.

Ejemplo 3: Sea la aplicación f una proyección sobre el plano coordenado XY, entre el espacio V_3 y el espacio V_3, tal que f (x, y, z) = (x, y, 0). Cualquier vector (0, 0, z) del subespacio vectorial k · (0, 0, 1), generado por el vector unitario  = (0, 0, 1), se corresponde con el vector nulo (0, 0, 0); por tanto el Núcleo de f es el subespacio vectorial {k ·ẑ} siendo k un escalar cualquiera. Por otro lado la ecuación v = f(u) sólo tiene solución u si el vector v está en el plano XY; por ejemplo, el vector v = (1, 2, 3) no puede ser la proyección en el plano XY de ningún vector u = (x, y, z), pues no está contenido en el plano XY. Vemos que el subconjunto Imagen de la aplicación f son los vectores (x, y, 0)  del plano XY, pues son los únicos que se generan por la acción de f sobre V_3.

NOTA 1: Siendo la imagen de f todo el plano XY, también podríamos haber definido f según el esquema:

\begin{array}{l}f:\;V_3\rightarrow V_2\\(x,y,z)\rightarrow(x,y)\end{array}

En este caso, la imagen de f no es un subconjunto, sino que coincide con todo el espacio V_2.

NOTA 2: las aplicaciones lineales en las que coinciden los dos espacios vectoriales, f:\;U\rightarrow U, se llaman endomorfismos.

Tenemos las siguientes propiedades y definiciones importantes de las aplicaciones lineales:

Propiedad 1

  1. Para toda aplicación lineal f:\;U\rightarrow V, su núcleo y su imagen son subespacios vectoriales de U y de V, respectivamente.
  2. Para toda aplicación lineal (en dimensión no infinita) f:\;U\rightarrow V, se cumple que dimensión(U) = dimensión(subespacio núcleo de f) + dimensión(subespacio imagen de f)
  3. La aplicación lineal f es inyectiva si y sólo si núcleo(f) = {0}. En ese caso f se llama un monomorfismo.
  4. La aplicación lineal f:\;U\rightarrow V es exhaustiva si y sólo si el subespacio imagen(f) coincide con el espacio V. En ese caso f se llama un epimorfismo
  5. Si la aplicación f cumple la propiedad 3 y la 4 simultáneamente, entonces decimos que es una aplicación lineal biyectiva: un isomorfismo. Si además f es tal que f:\;U\rightarrow U, o sea que también es un endomorfismo, diremos que f es un automorfismo.

Ejemplo 4: la aplicación giro 90⁰ de los ejemplos 1 y 2 es un endomorfismo de V_2; además cumple la propiedad 1.3, luego es inyectiva, y monomorfismo. También cumple la 1.4, luego es biyectiva, y como es endomorfismo biyectivo, es un automorfismo. Su núcleo es el vector {0}, un subespacio vectorial de V_2 de dimensión cero, y su imagen es todo el espacio V_2, con dimensión 2, luego se cumple la igualdad 1.2 y también la propiedad 1.1.

Ejemplo 5: para calcular la dimensión de la imagen de la aplicación lineal definida por

\begin{array}{l}f\left(1,1,0\right)=\left(2,2,0\right)\\f\left(1,0,1\right)=\left(-3,0,-3\right)\\f\left(2,2,1\right)=\left(0,0,0\right)\end{array}

miramos si los tres vectores imagen son linealmente independientes entre sí, planteando la ecuación a(2,2,0) + b(-3,0,-3) + c(0,0,0) = 0, siendo a, b, c escalares, si sólo se cumple la igualdad con a = b = c = 0 entonces son linealmente independientes:

\begin{array}{l}a\left(2,2,0\right)+b\left(-3,0,-3\right)+c\left(0,0,0\right)=\left(0,0,0\right)\Rightarrow\\2a-3b=0;\;2a=0;-3b=0\Rightarrow\boxed{a=0,\;b=0}\end{array}

Como c queda indeterminado (puede tomar cualquier valor) resulta que los tres vectores son linealmente dependientes, así que la dimensión del espacio imagen es menor que tres. Evidentemente (2,2,0) y (-3,0,-3) sí son independientes entre sí, luego forman una base del subespacio imagen, el cual tiene dimensión 2 (pues hay dos vectores imagen linealmente independientes).

Por la propiedad 2, deducimos que la dimensión del núcleo de la aplicación es 3 - 2 = 1. Y por la propiedad 3, deducimos que la aplicación no es inyectiva.

Cualquier vector v que pertenezca al subespacio imagen ha de ser combinación lineal de la base {(2,2,0), (-3,0,-3)}; por ejemplo, para saber si el vector (1, -1, 1) pertenece al subespacio imagen, planteamos (1, -1, 1) = a(2,2,0) + b(-3,0,-3) = (2a-3b, 2a, -3b), igualando componentes obtenemos 2a - 3b = 1, 2a = -1, -3b = 1, por tanto a = -1/2, b = -1/3, pero la igualdad 2a - 3b = 1 no se cumple, luego (1, -1, 1) no pertenece al subespacio imagen.

Definición 2: Rango de una aplicación lineal

Se llama rango de una aplicación lineal f a la dimensión de su subespacio imagen.

Ejemplo 6: la aplicación giro 90⁰ de los ejemplos 1 y 2 tiene rango 2, y la aplicación del ejemplo 3 también tiene rango 2.

Aplicaciones lineales y bases vectoriales

Antiguamente, se identificaban las funciones con las fórmulas analíticas explícitas usadas para obtener las correspondencias, como por ejemplo f(x, y) = (2x -1, x + y). Actualmente el concepto de función es más amplio, no está vinculado necesariamente a una expresión analítica. En el caso de las aplicaciones lineales, hay una propiedad importante en este sentido:

Propiedad 2: Se puede determinar completamente una aplicación lineal entre espacios vectoriales, f:U\rightarrow V, dando los vectores transformados por f de una base vectorial cualquiera del espacio origen U.

Ejemplo 7: para determinar la aplicación del ejemplo 3, una proyección f:V_3\rightarrow V_3 sobre el plano coordenado XY, tomamos una base \left\{e_1,e_2,e_3\right\} de V_3. por ejemplo la base canónica {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, y obtenemos sus imágenes por f:  f(1, 0, 0) = (1, 0, 0), f(0, 1, 0) = (0, 1, 0), f(0, 0, 1) = ( 0, 0, 0). Entonces, dado un vector de V_3 cualquiera, u = (x, y, z), podemos obtener su imagen así:

1º) expresamos u como combinación lineal de los vectores de la base \left\{e_1,e_2,e_3\right\}, que expresamos así: u=\left(x,y,z\right)=u_1e_1+u_2e_2+u_3e_3. Los coeficientes u_1,u_2,u_3 se llaman componentes del vector u en la base \left\{e_1,e_2,e_3\right\}

2º) obtenemos f\left(u\right)=f\left(x,y,z\right)=f\left(u_1e_1+u_2e_2+u_3e_3\right)=u_1f\left(e_1\right)+u_2f\left(e_2\right)+u_3f\left(e_3\right)

En nuestro ejemplo, con la base canónica, los coeficientes son inmediatos: (x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1), luego f(x, y, z) = x·f(1, 0, 0) + y·f(0, 1, 0) + z·f(0, 0, 1) = x(1, 0, 0) + y(0, 1, 0) + 0 = (x, y, 0).

En el ejemplo 6 hemos usado la base canónica pues es la más simple, tan simple que al aplicar la propiedad 2 se obtienen resultados evidentes, lo cual ayuda a entender el significado de la propiedad, pero parece ser poco útil en la práctica; de hecho es todo lo contrario: en las aplicaciones prácticas y los problemas a menudo encontramos dificultades para encontrar expresiones analíticas de funciones, y  en cambio usando la propiedad 2 con bases adecuadas (no las canónicas) podemos determinar la aplicación lineal. En el siguiente ejemplo vemos una situación así.

Ejemplo 8: Consideremos un plano P en el espacio, tal que corta a los planos coordenados XZ y YZ a 45⁰ (figura 3)

aplica_lineals3

Definimos la aplicación f:P\rightarrow P realizando una rotación de 90⁰, según un eje perpendicular a P, en sentido antihorario, que afecta a todos los vectores contenidos en el plano P.  Dado un vector cualquiera u = (x, y, z) del plano P, ¿cuál es su vector imagen por f?

Podríamos obtener la expresión analítica de f tal como hemos hecho en el ejemplo 1, pero será mucho más fácil usar la propiedad 2 y nuestros conocimientos de espacios vectoriales: notemos que el plano P es un subespacio vectorial de V_3, y que f es un endomorfismo de P en P.

¿Qué base de P podemos tomar? En la figura 3 vemos que los vectores u (contenido en el plano XZ) y v (contenido en el plano YZ) están contenidos en P, y además son linealmente independientes; como la dimensión de P es 2, deducimos que el conjunto {u, v} es una base vectorial de P. Observad que no hemos dado componentes a los vectores u, v, de momento pueden ser cualesquiera, siempre que  estén en los planos XZ y con el YZ y formen un ángulo de 45⁰ con X y con Z, o con Y y con Z, respectivamente.

¿Cuales son las imágenes de u, v por f? Demos ahora valores a estos vectores, por ejemplo u = (1, 0, 1), v = (0, 1, 1) cumplen las condiciones exigidas. El giro de 90⁰ lleva al vector u a coincidir con el vector v: f(u) = v; y al vector v lo gira hacia el plano (-X)(-Z): f(v) = (-1, 0 ,-1) = -u. Ahora ya podemos expresar la imagen de cualquier vector w = (x, y, z) de P:

1º) Dado un vector w =(x, y, z) de V_2, sus coeficientes han de cumplir \left(x,y,z\right)=\lambda\boldsymbol u+\mu\boldsymbol v=\lambda\left(1,1,0\right)+\mu\left(0,1,1\right), con esto obtenemos los coeficientes \lambda,\;\mu

2º) obtenemos la imagen: f\left(x,y,z\right)=f\left(\lambda\boldsymbol u+\mu\boldsymbol v\right)=\lambda f\left(\boldsymbol u\right)+\mu f\left(\boldsymbol v\right)=-\lambda\boldsymbol v-\mu\boldsymbol u

Por ejemplo, el vector w = (2, 1, 3) pertenece al plano V_2, pues (2, 1, 3) = 2·(1, 0, 1) + 1·(0, 1, 1) = 2u + v; ¿cuál es la imagen por f del vector (1, 2, 1)? Será:

f\left(2,1,3\right)=f\left(2\boldsymbol u+1\boldsymbol v\right)=2f\left(\boldsymbol u\right)+1f\left(\boldsymbol v\right)=-2\boldsymbol v-\boldsymbol u=2\left(0,1,1\right)-\left(1,0,1\right)=\left(-1,2,1\right),

y podemos comprobar fácilmente que el vector f(w) tambien está en el plano V_2, ya que \left(-1,2,1\right)=-\left(1,0,1\right)+2\cdot(0,1,1)=-\boldsymbol u+2\boldsymbol v.

Matriz de una aplicación lineal

Dada una aplicación lineal f:U\rightarrow V entre dos espacios vectoriales, siendo la base de U los vectores \left\{u_1,u_2,\dots,u_n\right\}, su matriz asociada es la siguiente  disposición de las imágenes de los vectores de la base de U:

\begin{pmatrix}f\left(u_1\right)&f\left(u_2\right)&\dots&f\left(u_n\right)\end{pmatrix}

Como cada vector f(u_i) tendrá n componentes, se obtiene u cuadro numérico en el que cada columna representa las componentes del vector f(u_i).

Ejemplo 9: la aplicación linealf:P\rightarrow P del ejemplo 7 verifica que la base del espacio P (un plano) es {u , v} y sus imágenes por f son f(u) = v, f(v) = -u; entonces, la matriz asociada a f en las bases {u, v} es:

\begin{pmatrix}f\left(u\right)&f\left(v\right)\end{pmatrix}=\begin{pmatrix}0&-1\\1&0\end{pmatrix}

Observad que las componentes de los vectores imagen se disponen "en vertical", que hay dos columnas, una para cada vector de la base {u, v}, y cada columna tiene dos componentes. La primera columna indica que f(u) = 0·u + 1·v, y la segunda que f(v)=-1·u + 0·v.

Rango de una matriz

Antes se ha definido el rango de una aplicación lineal f como la dimensión de su espacio imagen; dada una matriz A cualquiera, su rango por columnas es el número máximo de columnas que, tomadas como vectores, son linealmente independientes. Si la matriz A es la matriz asociada a la aplicación f, entonces el rango de A coincide con el rango de f.  Por ejemplo, la matriz del ejemplo 8 tiene rango 2, pues sus dos columnas, vistas como vectores, son independientes, y por tanto la aplicación asociada tiene rango 2, equivalentemente, su espacio imagen tiene dimensión 2.

Por otro lado, dada una matriz A, definimos su rango por filas como el número máximo de filas que, tomadas como vectores, son linealmente independientes. Se cumple que los rangos por filas y por columnas siempre coinciden, así que podemos calcular el rango de la matriz como mejor nos convenga.

Matrices cuadradas y matrices rectangulares

Si una aplicación f hace corresponder espacios vectoriales de la misma dimensión n, entonces la matriz asociada tendrá n columnas (una por cada vector de la base) y n filas (pues cada columna se expresará según la misma base de n componentes): diremos que es una matriz cuadrada. En cambio si los espacios tienen dimensiones distintas, las matrices asociadas tendrán distinto número de filas que de columnas, serán matrices rectangulares. Por ejemplo, la aplicación de la nota 1 corresponde V_3 con V_2,  luego su matriz contendrá 3 columnas y dos filas, su aspecto será:

\begin{pmatrix}\square&\square&\square\\\square&\square&\square\end{pmatrix}

Matrices y bases

En el ejemplo 8, hemos expresado los vectores de la base de U, y sus imágenes, respecto a la propia base de U, {u , v}. Pero cualquier base vectorial es válida para expresar los vectores del espacio. Por ello, la matriz de la aplicación lineal depende de la base del espacio origen U y también de la base en la que se expresen los vectores imagen; cuando no se indica que base se está utilizando, se supondrá que las bases son las canónicas.

Operaciones con aplicaciones y con sus matrices

Se pueden definir las operaciones suma de funciones (f + g) y producto de una función por un escalar k·f de la siguiente forma:

(f + g)(x) = f(x) + g(x); k·f(x) = f(kx)

Resulta que estas operaciones tienen las propiedades habituales de la suma: asociativa, conmutativa, elemento neutro y elemento inverso), y las propiedades distributiva k(f + g) = k·f + k·g, (k + p)f = kf + p·f,  asociativa (kp)·f = k(p·f), y elemento neutro escalar1·f = f. Con ello podemos decir que el conjunto de aplicaciones lineales, junto con las operaciones definidas, es también un espacio vectorial.

Por otro lado, podemos hacer lo mismo con las matrices: definimos la suma de dos matrices (han de ser de las mismas dimensiones, o sea, número de filas y de columnas):

\begin{pmatrix}a_1^1&\dots&a_1^n\\\vdots&\vdots&\vdots\\a_m^1&\cdots&a_m^n\end{pmatrix}+\begin{pmatrix}b_1^1&\dots&b_1^n\\\vdots&\vdots&\vdots\\b_m^1&\cdots&b_m^n\end{pmatrix}=\begin{pmatrix}a_1^1+b_1^1&\dots&a_1^n+b_1^n\\\vdots&\vdots&\vdots\\a_m^1+b_m^1&\cdots&a_m^n+b_m^n\end{pmatrix}

y el producto de un escalar por una matriz:

k\begin{pmatrix}a_1^1&\dots&a_1^n\\\vdots&\vdots&\vdots\\a_m^1&\cdots&a_m^n\end{pmatrix}=\begin{pmatrix}ka_1^1&\dots&ka_1^n\\\vdots&\vdots&\vdots\\ka_m^1&\cdots&ka_m^n\end{pmatrix}

Con estas operaciones, las matrices forman un espacio vectorial.

Además tenemos la siguinte propiedad:

Propiedad 1: Dadas dos aplicaciones lineales f, g, con matrices asociadas F, G,  y un escalar k, se cumple que:

  1. la aplicación k·f tiene por matriz k·F
  2. la aplicación suma f + g tiene por matriz F + G

Hay otra operación con funciones que es importante: la composición de funciones; recordemos que dadas dos funciones f, g su composición se describe por \left(f\circ g\right)\left(x\right)=f\left(g\left(x\right)\right). También recordemos la definición de función inversa: dada la función f, su función inversa f^{-1} es aquella tal que al componerla con f resulta la función identidad: f\circ f^{-1}=I.

La composición de aplicaciones lineales y la inversa de una aplicación lineal también tienen correspondencias con las matrices: definimos el producto de matrices según la siguiente igualdad:

\begin{pmatrix}a_1^1&\dots&a_1^n\\\vdots&\vdots&\vdots\\a_m^1&\cdots&a_m^n\end{pmatrix}\cdot\begin{pmatrix}b_1^1&\dots&b_1^m\\\vdots&\vdots&\vdots\\b_n^1&\cdots&b_n^m\end{pmatrix}=\begin{pmatrix}{\textstyle\sum_{i=1}^n}a_1^ib_i^1&\dots&\textstyle\sum_{i=1}^na_1^ib_i^n\\\vdots&\vdots&\vdots\\\textstyle\sum_{i=1}^na_m^ib_i^1&\dots&\textstyle\sum_{i=1}^na_m^ib_i^m\end{pmatrix}

Que puede entenderse mejor siguiendo esta regla de formación: para hallar el elemento fila1-columna1 del producto de matrices A·B multiplicamos uno por uno los elementos de la 1ª fila de A por los elementos de la 1ª columna de B:

Fig. 4: obtención del primer elemento del producto de matrices

Fig. 4: obtención del primer elemento del producto de matrices

En general, multiplicamos uno por uno los elementos de la fila n de A por los elementos de la columna m de B para obtener el elemento de la fila n y columna m de A·B:

Fig. 5: obtención del último elemento de la 1ª fila del producto de matrices A·B
Fig. 5: obtención del último elemento de la 1ª fila del producto de matrices A·B

NOTA: las operaciones con matrices pueden, y creo que deberían hacerse en el siglo XXI, con calculadora o ordenador; hay numerosas páginas que hacen cálculo matricial on-line, como por ejemplo https://matrixcalc.org/es/  o la potente página Wolfram Alpha que todo estudiante debería conocer y utilizar,

También se puede definir la inversa de una matriz (A), como la matriz \left(A\right)^{-1} tal que el producto de ambas es igual a la matriz identidad, una matriz con unos en la diagonal y ceros en el resto de posiciones:

A\cdot\left(A\right)^{-1}=\begin{pmatrix}1&0&\dots&0&0\\0&1&0&0&0\\\vdots&\vdots&\vdots&\vdots&\vdots\\0&\dots&0&1&0\\0&0&\dots&0&1\end{pmatrix}

Tenemos la siguiente propiedad importante:

Propiedad 2: la aplicación composición de funciones f\circ g tiene por matriz el producto de matrices F·G, siendo F y G las matrices de f, g respectivamente dadas en las bases, y la aplicación inversa f^{-1} tiene por matriz la matriz inversa \left(A\right)^{-1}

Ejemplo 10: Llamemos f a la función proyección sobre el plano V_2 del ejemplo 3,

\begin{array}{l}f:V_3\rightarrow V_2\\\left(x,y,z\right)\rightarrow\left(x,y,0\right)\end{array},

y llamemos g a la función giro en el plano del ejemplo 1:

\begin{array}{l}g:V_2\rightarrow V_2\\\left(x,y\right)\rightarrow\left(y,-x\right)\end{array}

La composición g\circ f será:

\begin{array}{l}g\circ f:V_3\rightarrow V_2\rightarrow V_2\\\left(x,y,z\right)\rightarrow\left(x,y\right)\rightarrow\left(y,-x\right)\end{array}

(recordemos que \left(g\circ f\right)\left(x\right)=g\left(f\left(x\right)\right), literalmente, "primero se aplica f, y despues se aplica g".

Las matrices de f, g, en las bases canónicas, son:

\left(F\right)=\begin{pmatrix}1&0&0\\0&1&0\end{pmatrix},\;\left(G\right)=\begin{pmatrix}0&1\\-1&0\end{pmatrix}

entonces la matriz de la composición g\circ f se puede obtener multiplicando la matrices (G)·(F):

\left(G\right)\cdot\left(F\right)=\begin{pmatrix}0&1\\-1&0\end{pmatrix}\cdot\begin{pmatrix}1&0&0\\0&1&0\end{pmatrix}\;=\begin{pmatrix}0&1&0\\-1&0&0\end{pmatrix}

NOTA: observad que las matrices tienen dimensiones acordes con la aplicación a la que representan, si f:V_3\rightarrow V_2 entonces (F) tiene 2 filas y 3 columnas (matriz de 2x3), y si g:V_2\rightarrow V_2$ entonces (G) tiene 2 filas y 2 columnas (matriz de 2x3), en general si f:V_n\rightarrow V_m$ entonces (F) tiene m filas y n columnas (matriz de m x n).

Obtención de la imagen de un vector u por la función f a partir de la matriz (F) de la función

Para hallar la imagen f(u) dada la matriz (F) de la aplicación f, simplemente disponemos los elementos del vector u en forma de matriz columna, (u), y realizamos el producto de (F)·(u):

f\left(\boldsymbol u\right)=\left(F\right)\cdot\begin{pmatrix}u_1\\u_2\\\vdots\\u_n\end{pmatrix}

Para que esto funcione, la matriz (F) ha de tener el mismo número de  columnas que el número de elementos del vector u.

Ejemplo 11: La imagen del vector (-3, 5, 6) por la aplicación lineal g\circ f del ejemplo 9, una proyección en el plano XY seguida de un giro, se obtiene matricialmente así:

f\left(\boldsymbol u\right)=\begin{pmatrix}0&1&0\\-1&0&0\end{pmatrix}\cdot\begin{pmatrix}-3\\5\\6\end{pmatrix}=\begin{pmatrix}5\\3\end{pmatrix}

Matrices de cambio de base

Si tenemos una matriz de una aplicación f expresada según unas bases de los espacios vectoriales y queremos obtener la matriz de la misma aplicación f pero expresada en bases distintas, la podemos obtener mediante la siguiente propiedad:

Propiedad 3 (matrices del cambio de base). Si tenemos una aplicación lineal f:U\rightarrow V , tomando las bases ({\overrightarrow{au}}_1,{\overrightarrow{au}}_2,...,{\overrightarrow{au}}_n) del espacio U y ({\overrightarrow{av}}_1,{\overrightarrow{av}}_2,...,{\overrightarrow{av}}_n) del espacio V, entonces la matriz de la aplicación lineal contendrá las imágenes de los vectores \overrightarrow{au} expresados en la base de losvectores \overrightarrow{av}, llamemos a esta matriz (A).

Por otro lado,   si tomamos otras bases ({\overrightarrow{bu}}_1,{\overrightarrow{bu}}_2,...,{\overrightarrow{bu}}_n) del espacio U y ({\overrightarrow{bv}}_1,{\overrightarrow{bv}}_2,...,{\overrightarrow{bv}}_n) del espacio V, la matriz asociada a la aplicación será distinta, la llamaremos (B).

Entonces se cumple la relación entre matrices (B) = (Q)·(A)·(P), donde:

(Q) es la matriz que tiene por columnas los vectores \overrightarrow{bu} expresados en la base de los vectores \overrightarrow{au} (suele decirse: "los vectores de la nueva base de U expresados en la base antigua de U")

(P) es la matriz que tiene por columnas los vectores \overrightarrow{av} expresados en la base de los vectores \overrightarrow{bv} (suele decirse: "los vectores de la antigua  base de V expresados en la nueva base de V")

Ejemplo 12:  la matriz A de la aplicación del  ejemplo 7, dada en el ejemplo 8, utiliza la base {u, v}, si tomamos otra base {u', v'} dada por u' = u + v, v ' = u - v, ¿cuál será la matriz B de la aplicación en la nueva base?

Identificamos las matrices  de cambio de base (P), (Q):

Matriz Qnueva base {u', v'} expresada en la base antigua de U, la {u, v}, es evidente que

Q=\begin{pmatrix}1&1\\1&-1\end{pmatrix}

Matriz P:  vectores de la antigua  base {u, v},  expresados en la nueva base {u', v'}; observamos que u' + v' = 2u y que u' - v' = 2v, luego u = (1/2)(u' + v') y v = (1/2)(u' - v' ), luego:

P=\frac12\begin{pmatrix}1&1\\1&-1\end{pmatrix}

Aplicamos la propiedad 3:

\begin{array}{l}\left(B\right)=\left(Q\right)\left(A\right)\left(P\right)=\begin{pmatrix}1&1\\1&-1\end{pmatrix}\cdot\begin{pmatrix}0&-1\\1&0\end{pmatrix}\cdot\frac12\begin{pmatrix}1&1\\1&-1\end{pmatrix}=\\\frac12\begin{pmatrix}1&1\\1&-1\end{pmatrix}\cdot\begin{pmatrix}-1&1\\1&1\end{pmatrix}=\frac12\begin{pmatrix}0&2\\-2&0\end{pmatrix}=\begin{pmatrix}0&1\\-1&0\end{pmatrix}\end{array}

Espacios vectoriales

Competencias:

  1. Distinguir vectores linealmente independientes, de vectores linealmente dependientes.
  2. Determinar bases de subespacios vectoriales concretos.

Conceptos:

  1. Conocer las estructuras de espacio vectorial y subespacio vectorial.

Dependencia e independencial lineal de vectores

Definición 1: Un vector \overrightarrow v es una combinación lineal de los vectores {\overrightarrow u}_1,{\overrightarrow u}_2,\cdots,{\overrightarrow u}_n, si existen n números reales (o escalares) tales que se cumple \overrightarrow v=c_1{\overrightarrow u}_1+c_2{\overrightarrow u}_2+\cdots+c_n{\overrightarrow u}_n

Ejemplo 1: El vector \overrightarrow w=(2,4,6) se obtiene del vector \overrightarrow v=(1,3,6) por multiplicación por el escalar 2:  \overrightarrow w=2\cdot \overrightarrow v. Luego \overrightarrow w es combinación lineal de un único vector \overrightarrow v, con c=2

Ejemplo 2: El vector \overrightarrow w=(2,4,6) no puede ser combinación lineal de los vectores \overrightarrow v_1=(1,0,0),\overrightarrow v_1=(0,1,0), pues \left(2,4,6\right)=c_1\left(1,0,0\right)+c_2\left(0,1,0\right) implica que, tomando componentes uno a uno, 2=c_1,\;4=c_2,\;6=0, lo cual no tiene sentido.

Definición 2: Cuando un vector \overrightarrow v sea una combinación lineal de otros vectores, diremos que el conjunto \left\{\overrightarrow v,{\overrightarrow u}_1,{\overrightarrow u}_2,\cdots,{\overrightarrow u}_n\right\} es linealmente dependiente.

Ejemplo 3:  El vector \overrightarrow w=(2,4,6) del ejemplo 1, junto con el vector  \overrightarrow v=(1,3,6), forman un conjunto \left\{\overrightarrow v,\overrightarrow w\right\} linealmente dependiente.

Determinar si un conjunto dado de vectores {\overrightarrow u}_1,{\overrightarrow u}_2,\cdots,{\overrightarrow u}_n es linealmente dependiente  pasa por ver si alguno de sus vectores puede expresarse como combinación lineal de los demás; esto puede ser pesado de comprobar. Afortunadamente, la siguiente propiedad nos facilita el trabajo:

Propiedad 1: dado un conjunto de vectores {\overrightarrow u}_1,{\overrightarrow u}_2,\cdots,{\overrightarrow u}_n será linealmente dependiente si existe una combinación lineal de todos ellos que sea igual al vector nulo, c_1{\overrightarrow u}_1+c_2{\overrightarrow u}_2+\cdots+c_n{\overrightarrow u}_n=\overrightarrow 0, sin que sean todos los coeficientes c_1,c_2,...c_n todos nulos.

Ejemplo 4:  Los vectores \overrightarrow w=(2,4,6),\overrightarrow v_1=(1,0,0),\overrightarrow v_1=(0,1,0) no son linealmente dependientes, pues si intentamos aplicar la propiedad 1, todos los coeficientes de anulan:

\begin{array}{l}c_1\left(2,4,6\right)+c_2\left(1,0,0\right)+c_3\left(0,1,0\right)=\left(0,0,0\right)\Leftrightarrow\\\left.\begin{array}{r}\begin{array}{l}2c_1+c_2=0\\4c_1+c_3=0\\6c_1=0\end{array}\\\end{array}\right\}\Rightarrow c_1=0,\;c_2=0,\;c_3=0\end{array}

Definición 3: si un conjunto de vectores no es linealmente dependiente, diremos que es un conjunto linealmente independiente.

Ejemplo 5: El conjunto de vectores del ejemplo 4 es linealmente independiente.

NOTA 1: geométricamente, se puede visualizar la dependencia o independencia lineal usando la regla del paralelogramo para la suma de vectores; en la figura 1, el vector w puede verse como la diagonal de un paralelogramo  formado por los vectores u, v, convenientemente "alargados" según unos coeficientes, con ello concluimos que {u, v, w} son linealmente dependientes, pues existe una combinación lineal que expresa w en función de u, v. Equivalentemente, si {u, v, w} son linealmente dependientes, significa que existe una combinación, que en la figura es w = 2u + v; entonces es inmediato que puede hacerse w - 2u - v = 0, una combinación lineal con los escalares 1, -2, -1 que resulta ser cero, con coeficientes no todos nulos, y por la propiedad 1 el conjunto {u, v, w} es linealmente dependiente (l.d.)

Fig.1 : vectores linealmente dependientes
Fig.1 : Con dos vectores linealmente independientes en el plano puede formarse un paralelogramo; un tercer vector será necesariamente dependiente de los dos primeros, pues podrá expresarse en función de ellos mediante la regla del paralelogramo para la suma de vectores.

En el plano los vectores tienen sólo dos componentes; implica que, geométricamente, dos vectores u, w del plano son l.d. si y sólo si no se puede formar con ellos ningún paralelogramo, o sea, si u, w están en la misma recta (son colineales). Con vectores de tres componentes distintos, podremos tener un conjunto l.d. si y sólo si no podemos formar un paralelepípedo con ellos, o sea, si dos de ellos, al menos, son colineales (figura 3).

Fig. 2: dependencia lineal con vectores en el espacio; tres vectores pueden ser linealmente independientes si forman un paralelepípedo, un cuarto vector siempre se podrá expresar como una combinación lineal de los anteriores.
Fig. 2: dependencia lineal con vectores en el espacio; tres vectores pueden ser linealmente independientes si forman un paralelepípedo, un cuarto vector siempre se podrá expresar como una combinación lineal de los anteriores.

Espacios vectoriales

Definición 4: un espacio vectorial es una estructura matemática formada por un conjunto de vectores, un conjunto de escalares, una operación suma entre vectores (con las propiedades habituales de la suma: asociativa, conmutativa, elemento neutro y elemento inverso), y una operación producto de vector por escalar con las propiedades distributiva a(u + v) = au + av, (a + b)u = au + bu,  asociativa (ab)u = a(bu), y elemento neutro escalar 1u = u (los vectores se indican en negrita, los escalares en letra normal).

Ejemplo 6: El sistema de dos ecuaciones con dos incógnitas

\left.\begin{array}{r}c_1^1x_1+c_2^1x_2=0\\c_1^2x_1+c_2^2x_2=0\end{array}\right\}

si admite una solución x_1,\;x_2 significa que al sustituir esos valores en las ecuaciones se cumplen las igualdades; si existe una segunda soluciónx_1^',\;x_2^' distinta de la primera, entonces la suma x=\left(x_1+x_1^'\right),\;y=\left(x_2+x_2^'\right) también será una solución, así como su producto por cualquier escalar  k (numero real), kx=\left(x_1+x_1^'\right),\;ky=\left(x_2+x_2^'\right). Definiendo como vectores (x, y) a las soluciones del sistema, con la operación suma de soluciones y producto por un real k, el conjunto de soluciones del sistema es un espacio vectorial.

Ejemplo 7: los vectores del plano real, con la suma habitual (a, b) + (c, d) = (a + b, c + d), y el producto de un vector por un escalar k, k(a, b) = (ka, kb), es un espacio vectorial; esta suma vectorial coincide con la regla del paralelogramo usada para sumar vectores en Física.

NOTA 2: Estrictamente hablando, en Álgebra se definen los espacios vectoriales V (conjunto de vectores) sobre un "cuerpo" de escalares K, donde la palabra cuerpo denota otra estructura algebraica formada por un conjunto y unas operaciones; aquí estamos suponiendo que el cuerpo de escalares es el conjunto de los números reales\mathbb{R}, y que los vectores están formados por listas ordenadas de números reales (a, b, c, ...): son espacios vectoriales reales sobre el cuerpo de los reales, \mathbb{R}. Pero en general pueden definirse espacios vectoriales más abstractos, por ejemplo, podemos definir un espacio de vectores complejos y usar como cuerpo escalar el conjunto de números racionales \mathbb{Q}.

Conjuntos, o sistemas de vectores, generadores del espacio, y bases del espacio. Dimensión de un espacio vectorial.

Hay una importante relación entre espacios vectoriales y el concepto de dependencia/independencia lineal, que nos viene dada por la siguiente propiedad:

Propiedad 2: los (posiblemente infinitos) vectores de un espacio vectorial pueden obtenerse a partir de un número limitado de algunos de sus vectores, por combinación lineal de ellos.  Tal conjunto de vectores se denomina conjunto generador del espacio.

Ejemplo 8: Los vectores (1,1), (-1,0), (0,3) forman un sistema generador de todos los vectores del espacio vectorial V_2 de vectores reales (x,y), ya que siempre podremos encontrar coeficientes escalares a, b, c tales que (x,y) = a(1,1) + b(-1,0) +  c(0,3) para cualquier vector (x, y).

Se pueden formar muchos sistemas generadores válidos para cualquier espacio vectorial V_n, con un número variable de vectores; ahora bien, vimos en el apartado anterior que en V_2 se necesitan como mínimo dos vectores para formar, por combinación lineal (o la regla del paralelogramo) el resto de vectores (fig. 1), y en el caso de V_3 se necesitan tres vectores (fig.2). Cuando un sistema generador tiene el mínimo posible de vectores, se denomina una base del espacio vectorial.

Ejemplo 9: Los vectores (1,1), (-1,0), (0,3) del ejemplo 8 son  un sistema generador de V_2, pero no son base, pues el mínimo necesario de vectores reales en V_2 hemos visto que es dos. Si cogemos el sistema de dos vectores {(1,1), (-1,0)}, como son independientes (no son colineales, si lo fueran, sus componentes serian proporcionales) generan también todo V_2, luego son una base. Tomando el sistema {(-1,0), (0,3)} vemos que también son independientes, luego son base.

Definición 5: el número de vectores que contiene cualquier base de un espacio vectorial V_n se llama dimensión del espacio.

NOTA 3: todas las bases de un espacio tienen el mismo número de vectores siempre que el espacio vectorial sea de dimensión finita; para espacios de dimensión infinita no es cierto. Un ejemplo importante de espacio de dimensión infinita es el espacio de Hilbert,  con diversas aplicaciones científicas.

Subespacios vectoriales

Si tomamos una parte de los vectores de un espacio vectorial de dimensión n, V_n, ¿es posible que ese subconjunto de vectores sea también un espacio vectorial?  Para serlo, debería cumplir las condiciones de la definición 4. La siguiente propiedad nos da una herramienta más directa para saberlo.

Propiedad 3: dado un subconjunto W de los vectores de V_n, W será espacio vectorial si y sólo si se cumple que:

1 - para cualquier par de vectores u, w de W, el vector u + w también pertenece a W

2- para cualquier vector u de W, y cualquier escalar k, se cumple que el vector ku también pertenece a W

Cuando tal subconjunto W sea también espacio vectorial, diremos que es un subespacio vectorial de V_n.

Ejemplo 10: Tomemos el subconjunto de vectores W de V_2 expresados por c·(1, 1), donde c es un escalar cualquiera. Geométricamente, W es una recta que pasa por el origen y por el punto (1, 1). ¿Es subespacio vectorial? Veamos: dos vectores cualesquiera de W serán c(1, 1) y c'(1, 1), si los sumamos obtenemos c(1, 1) + c'(1, 1) = (c + c')(1, 1) que también pertenece a W, pues c + c' es un escalar. Por otra parte, k·c(1, 1) = (k·c)(1, 1) que también es de W, Luego por la propiedad 3, W es subespacio vectorial de V_2

En general, la dimensión de un subespacio vectorial W será menor que la del espacio total V; de hecho, si fueran iguales, entonces el subespacio no es tal, sino que hay una igualdad, W = V. También en general, dada una base de V, no será una base de W. En cambio, si tomamos cada vector de la base de V, y generamos todos los vectores posibles por combinación lineal, sí obtenemos subespacios vectoriales:

Propiedad 4: si tenemos una base de V_n, con n vectores, entonces las combinaciones lineales de esos vectores, tomados de uno en uno, de dos en dos, etc, forman subespacios vectoriales de dimensiones uno, dos, etc.

Ejemplo 11: una base de V_3 es {u=(1,0,0), v=(-1, 1,0), w=(0,1,1)}; las combinaciones lineales de uno en uno  ku, kv, kcon k un escalar cualquiera forman tres subespacios vectoriales de dimensión 1 (son rectas que pasan por el origen), las combinaciones lineales de dos en dos  au + bv, au + bw, av + bw, con a,b escalares cualesquiera, forman tres subespacios vectoriales de dimensión 2 (son planos que pasan por el origen), y si tomamos los tres vectores, au + bv + cw, el subespacio generado coincide con el espacio total V_3.  Por ejemplo, (x, y, z) = a(1,0,0) + b(-1, 1,0) = (a-b, -b, 0) es un subespacio vectorial de dimensión 2 en  V_3: un plano que pasa por el origen de coordenadas.

 Unión e intersección de subespacios vectoriales

Los conjuntos admiten las operaciones de unión e intersección; siendo los subespacios vectoriales subconjuntos, es lógico pensar que también admitirán esas operaciones. No obstante, se presenta una dificultad con las uniones de subespacios: si prolongamos dos vectores u, v distintos, obtenemos dos rectas U, W (figura 3), cada recta es un subespacio vectorial de dimensión 1, generado por el vector correspondiente. La intersección de las dos rectas es un punto, que se puede hacer corresponder con un subespacio de dimensión cero, pero la unión de las dos rectas (el conjunto de puntos que pertenece a U o a W) no cumple la condición 1 de la propiedad 3: para cualquier par de vectores u, v de U\cup W, el vector u + v no pertenece aU\;\cup\;W, pues vemos en la figura que la suma u + v por la regla del paralelogramo no pertenece ni a U ni a W.

Fig. 3: dos rectas obtenidas por prolongación de dos vectores independientes generan dos subespacios vectoriales
Fig. 3: dos rectas obtenidas por prolongación de dos vectores independientes generan dos subespacios vectoriales

Tenemos la siguiente propiedad para las uniones e intersecciones de subespacios vectoriales:

Propiedad 5: La intersección  U\cap W de subespacios vectoriales U, W siempre será también un subespacio vectorial, pero la unión U\cup W no lo será, excepto en casos especiales.

Para solventar esta dificultad con las uniones de subespacios se recurre a definir otro subespacio vectorial que incluya a los vectores de U\cup W más los mínimos adicionales que aseguren que se cumplen las condiciones exigidas por la propiedad 3. La siguiente propiedad nos dice como lograrlo.

Propiedad 6: dados dos subespacios U, V, el mínimo subespacio vectorial que incluye todos los vectores de la unión U\cup W es el generado por el conjunto \left\{u+v\;\vert\;u\in U,\;v\in V\right\}. Designamos a este subespacio por U + V, el subespacio suma de subespacios.

Ejemplo 12: El subespacio U generado por la prolongación del vector u = (1,1,1), que es au, y el subespacio V generado por v = (1, 0, -1), que es bv, siendo a, b escalares cualesquiera, tienen como suma el subespacio \left\{a\left(1,1,1\right)+b\left(1,0,-1\right)\vert\;a,\;b\in\mathbb{R}\right\}=\left\{\left(a+b,a,a-b\right)\;\vert\;a,\;b\in\mathbb{R}\right\}

La siguiente propiedad relaciona las dimensiones de los subespacios U, V con sus sumas e intersecciones.

Propiedad 7 (fórmula de Grassmann): dados dos subespacios U, V, se cumple que

\text{dim }U\;+\;\text{dim }V=\text{dim }\left(U+V\right)+\text{dim }\left(U\cap V\right)

Ejemplo 13: siguiendo con los subespacios U, V del ejemplo 12, la intersección de ambos es:

\left\{a\left(1,1,1\right)\right\}\cap\left\{b\left(1,0,-1\right)\right\}=\left\{\left(a,a,a\right)\right\}\cap\left\{\left(b,0,-b\right)\right\}=\left\{\left(0,0,0\right)\right\}

luego dim(U\cap V) = 0 (un punto aislado se considera de dimensión cero). Por la fórmula de Grassmann, la dimensión del subespacio suma será igual a la suma de las dimensiones de U, V, ambas valen 1 (son rectas en el espacio), luego dim(U \cup V) = 1 + 1 = 2, que es un plano en el espacio, que comprende las dos rectas U, V.

Definición 6: si la intersección de dos subespacios U, V es el vector cero, diremos que la suma de subespacios U + V es una suma directa de subespacios, y se escribe así: U\oplus V.

 Ejemplo 14: siguiendo con los subespacios U, V de los ejemplos 12 y 13, como su intersección es el vector nulo, su suma es directa:

U\oplus V=\left\{\left(a+b,a,a-b\right)\;\vert\;a,\;b\in\mathbb{R}\right\}

NOTA 3: El vector nulo 0 está presente en cualquier espacio o subespacio vectorial (es el elemento neutro de la suma de vectores), por ello, la intersección de subespacios siempre contiene al vector nulo. Geométricamente, los subespacios son rectas, planos o hiperplanos que pasan por el origen de coordenadas. La intersección de subespacios U, V sólo será distinta del conjunto {0} cuando o bien U esté contenido en V o bien V esté contenido en U. Por ejemplo, la intersección del plano U: (x, y, z) = a·(1,0,0) + b(0,1,0) con la recta V: c·(-1, 3, 0) es la propia recta V, pues V está contenida en U. En este ejemplo la suma U + V no es directa, el subespacio intersección tiene dimensión 1 y el subespacio suma tiene dimensión 2 (y se cumple la fórmula de Grassmann, como podeis verificar fácilmente).

separador2