1. Independencia lineal

Recordemos que un espacio vectorial es conjunto $V$ dotado con dos operaciones llamadas suma y multiplicación por escalar, que satisfacen las mismas propiedades que se cumplen para la suma y producto por escalar en $\mathbb{R}^{n}$.

Definición: Un conjunto de vectores $\left\{ v_{1},v_{2},\ldots ,v_{k}\right\} $ de un espacio vectorial $V$ es linealmente dependiente (L.D.) si existen escalares $ c_{1},c_{2},\ldots ,c_{k}$, al menos uno de los cuales no sea cero, tal que \begin{equation*} c_{1}v_{1}+c_{2}v_{2}+\cdots +c_{k}v_{k}=\mathbf{0}. \end{equation*} Un conjunto de vectores que no es linealmente dependiente se dice que es linealmente independiente. De forma explícita, un conjunto de vectores $\left\{ v_{1},v_{2},\ldots ,v_{k}\right\} $ de un espacio vectorial $V$ es linealmente independiente si la única solución del sistema de ecuaciones  \begin{equation*} c_{1}v_{1}+c_{2}v_{2}+\cdots +c_{k}v_{k}=\mathbf{0}. \end{equation*}
es la solución trivial $c_{1}=0, c_{2}=0,...,c_{k}=0$.

Teorema: Un conjunto de vectores $\left\{ v_{1},v_{2},...,v_{k}\right\} $ de un espacio vectorial $V$ es linealemente dependiente (L.D.) si y sólo si al menos uno de los vectores puede ser expresado como combinación lineal de los otros.

Ejemplo: ¿ Cuáles de los siguientes subconjuntos del espacio vectorial dado es linealmente dependiente?

  1. $\left\{ 1,x,x^{2}\right\}$ y $V=\mathcal{P}_{2}.$
  2. $\left\{ 1,\mathrm{sen}^{2}\left( x\right) ,\cos ^{2}\left( x\right) \right\} $ y $V=\mathcal{F}.$

Solución:

  1. Sean $a,b$ y $c$ tales que $a+bx+cx^{2}=0$. Derivando obtenemos $b+2cx=0$ y derivando nuevamente tenemos $2c=0$, con lo que $c=0,b=0$ y $a=0$. Es decir $\{1,x,x^{2}\}$ es un conjunto linealmente independiente.
  2. Por la identidad Pitagórica: $1=\mathrm{sen}^{2}\left( x\right) +\cos ^{2}\left( x\right) .$ Como $1$ es combinación lineal de $\mathrm{ sen}^{2}\left( x\right) $ y $\cos ^{2}\left( x\right) ,$ el conjunto es linealmente dependiente.

Ejemplo: Sea $\left\{ u,v,w\right\} $ un conjunto linealmente independiente en un espacio vectorial $V.$

  1. ¿Es $\left\{ u+w,u+v,v+w\right\} $ L.D o L.I. en $V?$
  2. ¿Es $\left\{ u-w,-u+v,v-w\right\} $ L.D o L.I. en $V?$

Solución:

1. Consideremos la combinación lineal \begin{equation} a\left( u+w\right) +b\left( u+v\right) +c\left( v+w\right) =\mathbf{0}. \end{equation} Reuniendo términos semejantes, $\left( a+b\right) u+\left( b+c\right) v+\left( a+c\right) w=\mathbf{0}.$ Dado que $\left\{ u,v,w\right\} $ es L.I. en $V,$ se tiene que \begin{equation*} \left\{ \begin{array}{rrr} a+b & = & 0 \\ b+c & = & 0 \\ a+c & = & 0 \end{array} \right. \quad \Rightarrow \quad \left[ \begin{array}{rrr} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 1 & 0 & 1 \end{array} \right] \rightarrow \cdots \rightarrow \left[ \begin{array}{rrr} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 2\end{array} \right] \quad \Rightarrow \quad \left\{ \begin{array}{ccrll} a & = & -b & = & 0 \\ b & = & -c & = & 0 \\ c & = & 0 & & \end{array} \right. \end{equation*} Por tanto, $a=b=c=0$ es la única solución del anterior sistema. Luego, $ \left\{ u+w,u+v,v+w\right\} $ es L.I. en $V.$

2. De nuevo, consideremos la combinación lineal \begin{equation} a\left( u-w\right) +b\left( -u+v\right) +c\left( v-w\right) =\mathbf{0}. \end{equation} Agrupando términos semejantes $\left( a-b\right) u+\left( b+c\right) v+\left( -a-c\right) w=\mathbf{0}.$ Como $\left\{ u,v,w\right\} $ es L.I. en $V,$  tenemos que
\begin{array}{rrr} a-b & = & 0 \\ b+c & = & 0 \\ -a-c & = & 0\end{array}
La solución de este sistema es $a=c$, $b=-c$ con $c$ una variable libre. Tomando $c\neq 0,$ existen escalares $a,b$ y $c$ no nulos que satisfacen las anteriores ecuaciones. Así, $\left\{ u-w,-u+v,v-w\right\} $ es L. D. en $V.$

 

2. Bases

Definición: Un subconjunto $\mathcal{B}$ de un espacio vectorial $V$ es una base para $V$ si

  1. $\mathcal{B}$ genera a $V$,
  2. $\mathcal{B}$ es linealmente independiente.

Ejemplo: A continuación, introducimos las bases estándares de los principales espacios vectoriales:

  1. Supongamos que $V=\mathbb{R}^{n}$, en este caso los vectores $\left\{ e_{1},e_{2},\ldots ,e_{n}\right\}$ forman una base que se llama la base canónica o base estándar. Por ejemplo, para $\mathbb{R}^{3}$ la base canónica es $\left\{e_{1}= \left[ \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right], e_{2}=\left[ \begin{array}{r} 0 \\ 1 \\ 0\end{array} \right], e_{3}=\left[ \begin{array}{r} 0 \\ 0 \\ 1\end{array} \right] \right\}.$
  2. Si $V=\mathcal{P}_{n}$, entonces los polinomios $\left\{ 1,x,x^{2},\ldots ,x^{n}\right\} $ forman una base que se llama la base canónica. Por ejemplo en $\mathcal{P}_{5} $ obtenemos la base $\left\{ 1,x,x^{2},x^{3},x^{4},x^{5}\right\}.$
  3. Si tomamos $V=M_{m\times n}$, entonces las matrices elementales $E_{ij}$ forman una base. Aquí $E_{ij}$ es una matriz de orden $m\times n$ cuya entrada $ij$ es igual a $1$ y las restantes entradas todas iguales a cero. Por ejemplo para $M_{2\times 3}$ obtenemos la base \[ E_{11}=\left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 0 & 0 \end{array}\right], E_{12}=\left[ \begin{array}{rrr} 0 & 1 & 0 \\ 0 & 0 & 0 \end{array} \right], E_{13}\left[ \begin{array}{rrr} 0 & 0 & 1 \\ 0 & 0 & 0 \end{array} \right], E_{21}=\left[ \begin{array}{rrr} 0 & 0 & 0 \\ 1 & 0 & 0 \end{array} \right], E_{22}=\left[ \begin{array}{rrr} 0 & 0 & 0 \\ 0 & 1 & 0 \end{array} \right], E_{23}=\left[ \begin{array}{rrr} 0 & 0 & 0 \\ 0 & 0 & 1\end{array} \right]. \]

Ejemplo: Halle una base para el subespacio $W$ de matrices antisimétricas de orden $2\times 2.$

Solución: Si $A$ es una matriz antisimétrica, se tiene que $A^{T}=-A$, es decir $A+A^{T}=0$. Luego,  $\left[ \begin{array}{rr} a & b  \\ c & d \end{array} \right]+\left[ \begin{array}{rr} a & c  \\ b & d \end{array} \right]=\left[ \begin{array}{rr} 0 & 0  \\ 0 & 0 \end{array} \right].$ Igualando componente a componente obtemos que $a=d=0$ y $c=-b.$ Por tanto, existe $b\in \mathbb{R}$ tal que $A=\left[ \begin{array}{rr} 0 & b  \\ -b & 0 \end{array} \right]=b\left[ \begin{array}{rr} 0 & 1  \\ -1 & 0 \end{array} \right].$ Concluimos entonces que $W=gen\left\{ \left[ \begin{array}{rr} 0 & 1 \\ -1 & 0 \end{array} \right] \right\}.$  De este modo, $\mathcal{B}=\left\{ \left[ \begin{array}{rr} 0 & 1 \\ -1 & 0 \end{array} \right] \right\} $ es una base para $W.$

Ejemplo: Halle una base para el siguiente subespacio de $\mathcal{P}_{3}:$ \begin{equation*} W=\left\{ a+bx-bx^{2}+ax^{3}\mid a,b\in \mathbb{R}\right\}. \end{equation*}

Solución: Notemos que \begin{equation*} p\left( x\right) \in W\quad \Leftrightarrow \quad p\left( x\right) =a+bx-bx^{2}+ax^{3}= a\left( 1+x^{3}\right) +b\left( x-x^{2}\right). \end{equation*} Como el conjunto $\left\{ 1+x^{3},\;x-x^{2}\right\} $ es L.I. en $\mathcal{P}_{3},$ podemos afirmar que \begin{equation*} \mathcal{B}_{2}=\left\{ p_{1}\left( x\right) =1+x^{3},\; p_{2}\left( x\right) =x-x^{2}\right\} \end{equation*} es una base para $W.$

Ejercicios de práctica

Te invitamos a practicar los conocimientos aprendidos en esta parte de la clase realizando los siguientes ejercicios.