En geometría vectorial, un concepto clave es la noción de base. Esto permite trabajar analíticamente con las coordenadas de los vectores con la de los escalares (y no más con los vectores definidos en el sentido, la longitud y dirección). Para ello, un vector (geometría vectorial) se puede escribir de manera única como una combinación lineal de vectores de la base.
Esta es la notación que vamos a tratar de obtener para los vectores de un espacio vectorial. Vamos a proceder en dos etapas, separando la cuestión de la unicidad y de la existencia.Cuando trabajamos con la geometría de vectores, ya sea en el plano o en el espacio, tenemos los conceptos de vectores colineales o no colineales y vectores coplanares o no coplanares.Tomemos la noción de vectores colineales. A menudo para demostrar que vectores $\vec u$ y $\vec v$ son colineales, se utiliza la propiedad siguiente : $\exists k\in \R,\ \vec u=k\vec v$. No es la igualdad exacta, sino la más general.En efecto, el vector nulo $\vec 0$ es colineal a todos los vectores.Bien, si no es el vector nulo, no existe ningún número real k tal que $\vec u=k\vec 0$.Por supuesto, en este caso escribimos $\vec 0=0\vec u$ para tener el resultado.Queremos generalizar estás nociones de colinelaidad y no colinealidad a los espacios vectoriales, distinguir el hecho de que tengamos o no el vector nulo.- La propiedad de no colinealidad de dos vectores $\vec u$ y $\vec v$ se escribe de manera general :\[\text{Sean $\alpha$ y $\beta$ dos escalares, }\alpha \vec u+\beta \vec v=\vec 0\implies \alpha =\beta =0.\]
- La propiedad de colinealidad de dos vectores $\vec u$ y $\vec v$ se escribe de manera general : $\exists (\alpha,\beta)\in \K^2\backslash \left\{(0,0) \right\}\vert\alpha \vec u+\beta \vec v=\vec 0$.
- La propiedad de no coplanariedad de tres vectores $\vec u$, $\vec v$ y $\vec w$ se escribe de manera general :\[\text{Sean $\alpha$, $\beta$ y $\gamma$ tres escalares, }\alpha \vec u+\beta \vec v+\gamma \vec w=\vec 0\implies \alpha =\beta =\gamma =0.\]
- La propiedad decoplanariedad tres vectores $\vec u$, $\vec v$ y $\vec w$ se escribe de manera general :\[\exists \left(\alpha ,\beta ,\gamma \right)\in \K^3\backslash \left\{ \left(0,0,0 \right) \right\}\vert\alpha \vec u+\beta \vec v+\gamma \vec w=\vec 0$.\]
Definición
Sea $E$ un espacio vectorial. Sean $\{v_1,v_2,\ldots,v_p\}$ una familia de $p$ vectores de $E$.La familia $\{v_1,v_2,\ldots,v_p\}$ es linealmente independiente si por definición toda combinación lineal de sus vectores nula, tiene todos sus coeficientes nulos.\[\forall {(\lambda_i)_{i=1,\ldots,p}}\in \K^p,\sum\limits_{i=1}^{p}{\lambda_iv_i=0_E}\implies \forall i=1,\ldots,p,\ \lambda_i=0\].Se dice entonces que esta familia de vectores son linealmente independientes.Una familia que no es linealmente independiente, se dice que es linealmente dependiente. Se dice entonces que esta familia de vectores es linealmente dependientes.La familia $\{v_1,v_2,\ldots,v_p\}$ es linealmete dependiente si y sólo si :\[\exists {(\lambda_i)_{i=1,\ldots,p}}\in \K^p,\ {{(\lambda_i)}_{i=1,\ldots,p}}\ne (0,0,\ldots,0)\wedge\ \sum\limits_{i=1}^p\lambda_iv_i=0_E\].Véase la animación
Nota
No hay que confundirse, no todos son nulos $\exists i\in {1,\ldots,p},\ \lambda_i\ne 0$ y no todos son cero $\forall i\in {1,\ldots,p},\ \lambda_i\ne 0$.
Ejemplo
Sea $E=\R^3$ y sea $A=\{(1,0,1),(-1,1,2 ),(-2,1,2 )\}$ una familia de elementos de $E$.
¿ Es la familia $A$ linealmente independiente o dependiente ?
Véase la solución
Sean $\alpha$, $\beta$, $\gamma$ tales que $\alpha (1,0,1)+\beta (-1,1,2)+\gamma (-2,1,2)=0\ (1)$ $(1)\iff \left\{ \begin{aligned} & \alpha -\beta -2\gamma =0 \\ & \ \ \ \beta +\gamma =0 \\ & \alpha +2\beta +2\gamma =0 \\ \end{aligned} \right.\iff \left\{ \begin{aligned} & \alpha -\gamma =0 \\ & \beta =-\gamma \\ & \alpha =0 \\ \end{aligned} \right.\iff \left\{ \begin{aligned} & \alpha =0 \\ & \beta =0 \\ & \gamma =0 \\ \end{aligned} \right.$Así, que la familia es linealmente independiente.
Ejemplo
$E=\R_2[X]$$C=\left\{1,X–\alpha,{(X-\alpha)}^2\right\}$ con $\alpha \in \R$.$D=\{X^2+3X–1,X^2–X+5,-7X^2+9X–17\}$.¿ Son las familias $C$ y $D$ linealmente independientes o dependientes ?
Véase la solución
Sean $a$, $b$, $c$ tales que :$a+b(X-\alpha)+c{(X-\alpha)}^2=0\iff a-\alpha b+\alpha^2c+(b-2c\alpha)X+cX^2=0$.Por identificación, esto implica que $a=b=c=0$ por lo tanto la familia $C$ es linealmente independiente.Sean $a$, $b$, $c$ tales que $(X^2+3X-1)+b(X^2-X+5)+c(-7X^2+9X-17)=0$.Es equivalente a $(a+b-7c)X^2+(3a-b+9c)X-a+5b-17c=0\ (1)$ $\iff \left\{ \begin{aligned} & (a+b-7c)=0 \\ & (3a-b+9c)=0 \\ & -a+5b-17c=0 \\ \end{aligned} \right.\iff \left\{ \begin{aligned} & a=-b+7c \\ & -3b+21c-b+9c=0 \\ & b-7c+5b-17c=0 \\ \end{aligned} \right.\iff \left\{ \begin{aligned} & a=-b+7c \\ & -4b+30c=0 \\ & b=4c \\ \end{aligned} \right.\iff \left\{ \begin{aligned} & a=0 \\ & b=0 \\ & c=0 \\ \end{aligned} \right.$ Se deduce que la familia $D$ es linealmente independiente.
Ejemplo
$E=C^0(\R,\R)$$F=\left\{f_1:x\mapsto{x^2},f_2:x\mapsto{e^x},f_3:x\mapsto \sin x \right\}$¿ Es la familia $F$ linealmente independiente o dependiente ?
Véase la solución
Sean $a$, $b$, $c$ tales que $af_1+bf_2+cf_3=0$. Esto significa que para cada $x$ real, en $ax^2+b{e^x}+c\sin x=0$.Para determinar los valores de $a$, $b$ y $c$, debemos obtener por lo menos tres ecuaciones independientes (si esto es posible ) a partir de la relación $ax^2+be^x+c\sin x=0$. Para ello, el método más simple consiste en elegir valores específicos para $x$, pero podemos también, en algunos casos «derivar» la relación con el fin de obtener ecuaciones más simples. Por ejemplo aquí, derivamos una primera vez la relación, obtenemos : $2ax+be^x+c\cos x=0\ (1)$.Si derivamos nuevamente, obtenemos : $2a+be^x-c\sin x=0\ (2)$.Si derivamos una tercera vez, obtenemos : $be^x-c\cos x=0\ (3)$.Tomamos $x=0$ de las tres ecuaciones anteriores, obtenemos el sistema : \[\left\{ \begin{aligned} & b+c=0\ \left(1 \right) \\ & 2a+b=0\ \left(2 \right) \\ & b-c=0\ \left(3 \right) \\ \end{aligned} \right.\iff \left\{ \begin{aligned} & a=0 \\ & b=0 \\ & c=0 \\ \end{aligned} \right.\]De donde deducimos que la familia es una familia linealmente independiente.Este no es el método más simple pero se debe retener ya que este puede ser útil en ciertos casos. Daremos una nueva demostración.A partir de la relación inicial $ax^2+be^x+c\sin x=0$. Tomamos $x=0$, recuperamos $b=0$, tomando $x=\pi$, obtenemos $c=0$, así $x=\frac{\pi }{2}$, obtenemos $a=0$.
Propriedad
Cualquier familia extraída de una familia linealmente independiente es una familia linealmente independiente.
Véase la animación
Véase la animación
Véase la prueba
Sea la familia linealmente independiente $\{v_1,v_2,\ldots,v_p\}=\{v_i \vert i=1,\ldots,p\}$.Sea $k$ un entero natural inferior (o igual ) a $p$. En una familia no hay orden. Consideremos una familia extraída $\{v_1,v_2,\ldots,v_k\}=\{v_i\vert i=1,\ldots,k\}$.
- Si $k=p$, el resultado es evidente.
- Si $k\lt p$, procederemos por reducción al absurdo.Suppongamos que esta familia es linealmente dependiente$\exists {{(\lambda_i)}_{i=1,\ldots,k}}\in \K^k,\ {{(\lambda_i)}_{i=1,\ldots,k}}\ne (0,0,\ldots,0)\wedge\ \sum\limits_{i=1}^{k}{\lambda_iv_i=0_E}$.Entonces $\sum\limits_{i=1}^{k}{\lambda_iv_i}+\sum\limits_{i=k+1}^{p}{0v_i=0_E}$ y ${(\lambda_i)}_{i=1,\ldots,p}\ne (0,0,\ldots,0)$.Así, la familia $\{v_1,v_2,\ldots,v_p\}=\{v_i\vert i=1,\ldots,p\}$ es linealmente dependiente, lo cual contradice la hipótesis.
Propriedad
Cualquier familia que contiene a una familia linealmente dependiente es linealmente dependiente.
Véase la prueba
Resulta de la demostración precedente, en efecto :Sea la familia $\{v_1,v_2,\ldots,v_p\}=\{v_i \vert i=1,\ldots,p\}$.Sea $k$ un entero natural inferior (o igual ) a $p$. En una familia, no hay orden. Consideremos la subfamilia $\{v_1,v_2,\ldots,v_k\}=\{v_i\vert i=1,\ldots,k\}$ linealmente dependiente.
- Si $k=p$, el resultado es evidente.
- Si $k\lt p$, $\exists {{(\lambda_i)}_{i=1,\ldots,k}}\in \K^k,\ {{(\lambda_i)}_{i=1,\ldots,k}}\ne (0,0,\ldots,0)\wedge\sum\limits_{i=1}^{k}\lambda_iv_i=0_E$.Entonces $\sum\limits_{i=1}^{k}\lambda_iv_i+\sum\limits_{i=k+1}^{p}0v_i=0_E$ y ${(\lambda_i)}_{i=1,\ldots,p}\ne (0,0,\ldots,0)$.Así, la familia $\{v_1,v_2,\ldots,v_p\}$ es linealmente dependiente.
Propriedad
Cualquier familia que contiene $0_E$ es linealmente dependiente.
Véase la prueba
Sea la familia $\{0_E,v_1,v_2,\ldots,v_p\}$. Tenemos ${{1.0}_{E}}+\sum\limits_{i=k+1}^{p}0v_i=0_E$. Por lo que la familia es linealmente dependiente.
Propriedad
En una familia linealmente dependiente, hay (al menos) un vector que se puede expresar como una combinación lineal de los demás.
Véase la prueba
Sea la familia linealmente dependiente $\{v_1,v_2,\ldots,v_p\}$.$\exists {{(\lambda_i)}_{i=1,\ldots,p}}\in \K^p,\ {{(\lambda_i)}_{i=1,\ldots,p}}\ne (0,0,\ldots,0)\wedge\ \sum\limits_{i=1}^{k}\lambda_iv_i=0_E$.Como no hay un orden en una familia, podemos suponer $\lambda_1$ es no nulo.Entonces $v_1=-\frac1\lambda\sum\limits_{i=2}^{p}{\lambda_iv_i}$. De ahí el resultado.
Veremos que esta noción de familia linealmente independiente nos dará la unicidad de la escritura de un vector como una combinación lineal de vectores de una base. Antes es necesario, obtener el origen de esta notación. Ésta será dada por la noción de familia generadora, siguiente.