Um Curso de Geometria Analítica e Álgebra Linear: Resumos

Reginaldo J. Santos

Departamento de Matemática
Instituto de Ciências Exatas
Universidade Federal de Minas Gerais

28 de outubro de 2018

5.1 Independência Linear
5.1.1 Os Espaços $\mathbb{R}^n$

Para cada inteiro positivo $n$, o espaço (vetorial) $\mathbb{R}^n$ é definido pelo conjunto de todas as $n$-uplas ordenadas $X=(x_1,\ldots,x_n)$ de números reais.


  1. A soma de dois vetores $V=(v_1,\ldots,v_n)$ e $W=(w_1,\ldots,w_n)$ de $\mathbb{R}^n$ é definida por \begin{equation}\label{defsomarn} V+W=(v_1+w_1,\ldots,v_n+w_n); \end{equation}
  2. A multiplicação de um vetor $V=(v_1,\ldots,v_n)$ do $\mathbb{R}^n$ por um escalar $\alpha$ é definida por \begin{equation}\label{defmulpern} \alpha\;V=(\alpha\, v_1,\ldots,\alpha\, v_n). \end{equation}


O vetor nulo de $\mathbb{R}^n$ é denotado por $\bar{0}$ e é definido por $ \bar{0}=(0,\ldots,0)$. Se $V~=~(v_1,\ldots,v_n)$ é um vetor do $\mathbb{R}^n$, então o simétrico de $V$ é denotado por $-V$ e é definido por $-V=(-v_1,\ldots,-v_n)$. A diferença de dois vetores no $\mathbb{R}^n$ é definida por $V-W=V+(-W)$. Se $V$ e $W$ são vetores do $\mathbb{R}^n$ tais que $W=\alpha V$, para algum escalar $\alpha$, então dizemos que $W$ é um múltiplo escalar de $V$.


Sejam $U=(u_1,\ldots,u_n)$, $V=(v_1,\ldots,v_n)$ e $W=(w_1,\ldots,w_n)$ vetores de $\mathbb{R}^n$ e $\alpha$ e $\beta$ escalares. São válidas as seguintes propriedades:

  1. $U+V=V+U$;
  2. $(U+V)+W=U+(V+W)$;
  3. $U+\bar{0}=U$;
  4. $U+(-U)=\bar{0}$;
  5. $\alpha(\beta U)=(\alpha\beta)U$;
  6. $\alpha(U+V)=\alpha U+\alpha V$;
  7. $(\alpha+\beta)U=\alpha U+\beta U$;
  8. $1U=U$.


5.1.2 Combinação Linear

Um vetor $V\in\mathbb{R}^n$ é uma combinação linear dos vetores $V_1, \ldots, V_k\in\mathbb{R}^n$, se existem escalares $x_1,\ldots,x_k$ que satisfazem a equação \begin{equation} \label{eqvcomlin} x_1V_1+ x_2V_2 + \ldots + x_kV_k = V \end{equation} ou seja, se a equação vetorial acima possui solução. Neste caso, dizemos também que $V$ pode ser escrito como uma combinação linear de $V_1, \ldots, V_k$.


Sejam $A$ uma matriz $m\times n$ e $B$ uma matriz $m\times 1$. O vetor $B$ é combinação linear das colunas de $A$ se, e somente se, o sistema $AX=B$ tem solução.


5.1.3 Independência Linear

Dizemos que um conjunto $\mathcal{S}=\{V_1,\ldots,V_k\}$ de vetores de $\mathbb{R}^n$ é linearmente independente (LI) se a equação vetorial \begin{equation} \label{ld.indlin} x_1V_1+ x_2V_2 + \ldots + x_kV_k = \bar{0} \end{equation} só possui a solução trivial, ou seja, se a única forma de escrever o vetor nulo como combinação linear dos vetores $V_1,\ldots,V_k$ é aquela em que todos os escalares são iguais a zero. Caso contrário, isto é, se a equação acima possui solução não trivial, dizemos que o conjunto $\mathcal{S}$ é linearmente dependente (LD).


Seja $A$ uma matriz $m\times n$.

  1. As colunas de $A$ são LI se, e somente se, o sistema $AX=\bar{0}$ tem somente a solução trivial.
  2. Se $m=n$, então as colunas de $A$ são LI se, e somente se, $$\det(A)\ne 0.$$


Em $\mathbb{R}^n$ um conjunto com mais de $n$ vetores é LD.


Um conjunto $\mathcal{S}\!=\!\{V_1,\ldots,V_k\}$ ($k>1$) de vetores é LD se, e somente se, pelo menos um dos vetores, $V_j$, for combinação linear dos outros vetores de $\mathcal{S}$.