[skip-to-content]
\(\newcommand{\identity}{\mathrm{id}} \newcommand{\notdivide}{{\not{\mid}}} \newcommand{\notsubset}{\not\subset} \newcommand{\lcm}{\operatorname{lcm}} \newcommand{\gf}{\operatorname{GF}} \newcommand{\inn}{\operatorname{Inn}} \newcommand{\aut}{\operatorname{Aut}} \newcommand{\Hom}{\operatorname{Hom}} \newcommand{\cis}{\operatorname{cis}} \newcommand{\chr}{\operatorname{char}} \newcommand{\Null}{\operatorname{Null}} \renewcommand{\gcd}{\operatorname{mcd}} \renewcommand{\lcm}{\operatorname{mcm}} \renewcommand{\deg}{\operatorname{gr}} \newcommand{\lt}{<} \newcommand{\gt}{>} \newcommand{\amp}{&} \)

Sección20.3Independencia Lineal

Sea \(S = \{v_1, v_2, \ldots, v_n\}\) un conjunto de vectores en un espacio vectorial \(V\text{.}\) Si existen escalares \(\alpha_1, \alpha_2 \ldots \alpha_n \in F\) de manera que no todos los \(\alpha_i\) son cero y

\begin{equation*} \alpha_1 v_1 + \alpha_2 v_2 + \cdots + \alpha_n v_n = {\mathbf 0 }, \end{equation*}

entonces \(S\) se dice linealmente dependiente. Si el conjunto \(S\) no es linealmente dependiente, entonces se dice que es linealmente independiente. Más específicamente, \(S\) es un conjunto linealmente independiente si

\begin{equation*} \alpha_1 v_1 + \alpha_2 v_2 + \cdots + \alpha_n v_n = {\mathbf 0 } \end{equation*}

implica que

\begin{equation*} \alpha_1 = \alpha_2 = \cdots = \alpha_n = 0\text{.} \end{equation*}

Si

\begin{equation*} v = \alpha_1 v_1 + \alpha_2 v_2 + \cdots + \alpha_n v_n = \beta_1 v_1 + \beta_2 v_2 + \cdots + \beta_n v_n, \end{equation*}

entonces

\begin{equation*} (\alpha_1 - \beta_1) v_1 + (\alpha_2 - \beta_2) v_2 + \cdots + (\alpha_n - \beta_n) v_n = {\mathbf 0}. \end{equation*}

Como \(v_1, \ldots, v_n\) son linealmente independientes, \(\alpha_i - \beta_i = 0\) para \(i = 1, \ldots, n\text{.}\)

La definición de dependencia lineal tiene más sentido si consideramos la siguiente proposición.

Supongamos que \(\{ v_1, v_2, \dots, v_n \}\) es un conjunto linealmente dependiente de vectores. Entonces existen escalares \(\alpha_1, \ldots, \alpha_n\) tales que

\begin{equation*} \alpha_1 v_1 + \alpha_2 v_2 + \cdots + \alpha_n v_n = {\mathbf 0 }, \end{equation*}

con al menos uno de los \(\alpha_i\) distinto de cero. Supongamos que \(\alpha_k \neq 0\text{.}\) Entonces

\begin{equation*} v_k = - \frac{\alpha_1}{\alpha_k} v_1 - \cdots - \frac{\alpha_{k - 1}}{\alpha_k} v_{k-1} - \frac{\alpha_{k + 1}}{\alpha_k} v_{k + 1} - \cdots - \frac{\alpha_n}{\alpha_k} v_n. \end{equation*}

Recíprocamente, supongamos que

\begin{equation*} v_k = \beta_1 v_1 + \cdots + \beta_{k - 1} v_{k - 1} + \beta_{k + 1} v_{k + 1} + \cdots + \beta_n v_n. \end{equation*}

Entonces

\begin{equation*} \beta_1 v_1 + \cdots + \beta_{k - 1} v_{k - 1} - v_k + \beta_{k + 1} v_{k + 1} + \cdots + \beta_n v_n = {\mathbf 0}. \end{equation*}

La siguiente proposición es consecuencia del hecho de que cualquier sistema homogéneo de ecuaciones lineales con más variables que ecuaciones tiene soluciones no triviales. Dejamos los detalles de la demostración como ejercicio al final del capítulo.

Un conjunto \(\{ e_1, e_2, \ldots, e_n \}\) de vectores en un espacio vectorial \(V\) se llama base para \(V\) si \(\{ e_1, e_2, \ldots, e_n \}\) es un conjunto linealmente independiente que genera \(V\text{.}\)

Ejemplo20.12

Los vectores \(e_1 = (1, 0, 0)\text{,}\) \(e_2 = (0, 1, 0)\text{,}\) y \(e_3 =(0, 0, 1)\) forman una base para \({\mathbb R}^3\text{.}\) El conjunto ciertamente genera \({\mathbb R}^3\text{,}\) pues un vector arbitrario \((x_1, x_2, x_3)\) en \({\mathbb R}^3\) se puede escribir como \(x_1 e_1 + x_2 e_2 + x_3 e_3\text{.}\) Además, ninguno de los vectores \(e_1, e_2, e_3\) se puede escribir como combinación lineal de los otros dos; luego, son linealmente independientes. Los vectores \(e_1, e_2, e_3\) no son la única base de \({\mathbb R}^3\text{:}\) el conjunto \(\{ (3, 2, 1), (3, 2, 0), (1, 1, 1) \}\) también es una base para \({\mathbb R}^3\text{.}\)

Ejemplo20.13

Sea \({\mathbb Q}( \sqrt{2}\, ) = \{ a + b \sqrt{2} : a, b \in {\mathbb Q} \}\text{.}\) Los conjuntos \(\{1, \sqrt{2}\, \}\) y \(\{1 + \sqrt{2}, 1 - \sqrt{2}\, \}\) son bases para \({\mathbb Q}( \sqrt{2}\, )\text{.}\)

De los dos ejemplos anteriores debiese quedar claro que un espacio vectorial dado tienen diferentes bases. De hecho, existe un número infinito de bases para cada uno de estos ejemplos. En general, no hay una base única para un espacio vectorial. Pero, cualquier base de \({\mathbb R}^3\) consiste de exactamente tres vectores, y cualquier base de \({\mathbb Q}(\sqrt{2}\, )\) consiste de exactamente dos vectores. Esto es una consecuencia de la siguiente proposición.

Como \(\{ e_1, e_2, \ldots, e_m \}\) es una base, es un conjunto linealmente independiente. Por la Proposición 20.11, \(n \leq m\text{.}\) Similarmente, \(\{ f_1, f_2, \ldots, f_n \}\) es un conjunto linealmente independiente, y la misma proposición implica que \(m \leq n\text{.}\) Concluimos que \(m = n\text{.}\)

Si \(\{ e_1, e_2, \ldots, e_n \}\) es una base para un espacio vectorial \(V\text{,}\) decimos que la dimensión de \(V\) es \(n\) y escribimos \(\dim V =n\text{.}\) Dejaremos la demostración del siguiente teorema como ejercicio.