MCTB010 – 1q’20 – Aula 2 (14.2.20)

Revisão de Álgebra Linear (1) – Operações vetoriais de \RR^n, (sub)espaços vetoriais

Para podermos lidar com campos vetoriais, é necessário poder manipulá-los algebricamente. Para tal, precisamos coletar as ferramentas para essa finalidade, fornecidas pela Álgebra Linear.

Operações vetoriais de \RR^n, axiomas de espaço vetorial

Lembremos que \RR^n pode ser entendido como o conjunto das listas ordenadas de n números reais x_1,\ldots,x_n:

    \[\begin{split} \vx &=(x_1,\ldots,x_n) \\ \Then x_j &=j\text{\emph{-\'{e}sima componente de} }\vx\ ,\\ &\phantom{=}j=1,\ldots,n\ .\end{split}\]

Por “ordenadas” entende-se que trocando duas componentes de \vx de lugar muda a lista, a menos que tais componentes sejam iguais. Os elementos de \RR^n são denominados vetores em \RR^n ou vetores n-dimensionais.

\RR^n é munido de duas operações vetoriais:

  • A soma (vetorial) de dois vetores \vx=(x_1,\ldots,x_n), \vy=(y_1,\ldots,y_n), dada por

        \[\begin{split}\vx+\vy &=(x_1+y_1,\ldots,x_n+y_n) \\ \Then x_j+y_j &=j\text{-\'{e}sima componente de }\vx+\vy\ ,\\ &\phantom{=}j=1,\ldots,n\ .\end{split}\]

  • A multiplicação (pelo) escalar (\alpha\in\RR) do vetor \vx=(x_1,\ldots,x_n), dada por

        \[\begin{split} \alpha\vx &=(\alpha x_1,\ldots,\alpha x_n) \\ \Then \alpha x_j &=j\text{-\'{e}sima componente de }\alpha\vx\ ,\\ &\phantom{=}j=1,\ldots,n\ . \end{split}\]

As operações vetoriais de \RR^n satisfazem a seguinte lista de propriedades, chamadas axiomas de espaço vetorial real ou sobre \RR (em referência ao corpo de escalares \RR, que é o conjunto dos números pelos quais podemos multiplicar vetores, chamados escalares. Não consideraremos outros corpos de escalares além de \RR). No que se segue, \vx,\vy,\vz\in\RR^n são vetores quaisquer e \alpha,\beta\in\RR são escalares quaisquer quando não especificados.

  1. \vx+\vy=\vy+\vx (comutatividade da soma);
  2. \vx+(\vy+\vz)=(\vx+\vy)+\vz (associatividade da soma);
  3. Existe um vetor \og em \RR^n tal que \vx+\og=\vx para todo vetor \vx em \RR^n (existência de elemento neutro para a soma). A saber,

        \[\og=(0,\ldots,0)\ ,\]

    i.e. todas as componentes de \og são iguais a zero;
  4. Dado um vetor \vx em \RR^n, existe um vetor -\vx em \RR^n tal que \vx+(-\vx)=\og (existência de inverso para a soma). A saber,

        \[-\vx=(-x_1,\ldots,-x_n)\ ,\]

    i.e. a j-ésima componente de -\vx é igual a -x_j para todo j=1,\ldots,n;
  5. (\alpha\beta)\vx=\alpha(\beta\vx) (associatividade da multiplicação escalar);
  6. \alpha(\vx+\vy)=\alpha\vx+\alpha\vy (distributividade da multiplicação escalar com respeito à soma vetorial);
  7. (\alpha+\beta)\vx=\alpha\vx+\beta\vx (distributividade da multiplicação escalar com respeito à soma escalar);
  8. 1\vx=\vx (elemento neutro para a multiplicação escalar).

Exercício 1. Verifique os axiomas (a)-(h) para as operações vetoriais de \RR^n.

Exercício 2. Verifique que \og é o único elemento neutro para a soma vetorial de \RR^n e que, para todo vetor \vx\in\RR^n, -\vx é o único inverso de \vx para a soma vetorial de \RR^n.

Alternativamente, os Exercícios 1 e 2 serão resolvidos num contexto mais geral mais adiante.

(Sub)espaços vetoriais


Definição 1. Um conjunto V\neq\varnothing munido de operações vetoriais de soma (vetorial) \vx+\vy (\vx,\vy\in V) e multiplicação escalar \alpha\vx (\alpha\in\RR, \vx\in V) satisfazendo os axiomas (a)–(h) enumerados acima é chamado de espaço vetorial (real ou sobre (o corpo de escalares) \RR). Neste caso, os elementos de V são chamados de vetores em V.

Propriedades das operações vetoriais que dependem apenas dos axiomas de espaço vetorial (identidades que seguem de um axioma específico dentre os axiomas (a)-(h) terão o axioma usado indicado sobre o sinal de igualdade quando necessário) valem para todos os espaços vetoriais, não apenas \RR^n! Em particular, tais propriedades não dependem das características específicas de \RR^n e sua operações vetoriais. Por exemplo:

  • Só existe um elemento neutro – portanto, justificadamente denotado por \og – para a soma vetorial de V. (de fato, dados vetores \vo_1,\vo_2\in V tais que

        \[\vx+\vo_1=\vx+\vo_2=\vx\]

    para todo vetor \vx\in V, tomando \vx=\vo_1 obtemos

        \[\vo_1+\vo_2=\vo_1\]

    e tomando \vx=\vo_2 obtemos

        \[\vo_2+\vo_1=\vo_2\ .\]

    Concluímos daí e do axioma (a) que \vo_1=\vo_2)
  • Dado \vx\in V, só existe um inverso de \vx para a soma vetorial de V – portanto, justificadamente denotado por -\vx (notação: \vx+(-\vy)=\vx-\vy). Em particular, -(-\vx)=\vx. (de fato, dado \vx\in V sejam vetores \vy,\vz\in V tais que \vx+\vy=\vx+\vz=\og. Somando-se \vz à primeira e última fórmulas, segue que

        \[\vz+(\vx+\vy)=\vz+\og\stackrel{(c)}{=}\vz\]

    e

        \[\vz+(\vx+\vy)\stackrel{(b)}{=}(\vz+\vx)+\vy\stackrel{(a)}{=}(\vx+\vz)+\vy=\og+\vy\stackrel{(c)}{=}\vy\ ,\]

    de onde concluímos que \vy=\vz. A última identidade segue disso e de (a))
  • 0\vx=\og. (de fato,

        \[0\vx+0\vx\stackrel{(g)}{=}(0+0)\vx=0\vx\ .\]

    Somando -0\vx à primeira e última fórmulas, concluímos que

        \[(0\vx+0\vx)-0\vx\stackrel{(b)}{=}0\vx+(0\vx-0\vx)\stackrel{(d)}{=}0\vx+\og\stackrel{(c)}{=}0\vx\]

    e 0\vx-0\vx\stackrel{(d)}{=}\og, logo 0\vx=\og)
  • \alpha\og=\og. (de fato,

        \[\alpha\og+\alpha\og\stackrel{(f)}{=}\alpha(\og+\og)\stackrel{(c)}{=}\alpha\og\ .\]

    De maneira análoga à prova da propriedade anterior, somando-se -\alpha\og à primeira e última fórmulas, concluímos que

        \[(\alpha\og+\alpha\og)-\alpha\og\stackrel{(b)}{=}\alpha\og+(\alpha\og-\alpha\og)\stackrel{(d)}{=}\alpha\og+\og\stackrel{(c)}{=}\alpha\og\]

    e \alpha\og-\alpha\og\stackrel{(d)}{=}\og, logo \alpha\og=\og)
  • (-\alpha)\vx=-(\alpha\vx)=\alpha(-\vx). Em particular, (-1)\vx\stackrel{(h)}{=}-\vx. (de fato,

        \[(-\alpha)\vx+\alpha\vx\stackrel{(g)}{=}(-\alpha+\alpha)\vx=0\vx=\og\]

    e

        \[\alpha(-\vx)+\alpha\vx\stackrel{(f)}{=}\alpha(\vx-\vx)=\alpha\og=\og\ .\]

    O resultado desejado segue da unicidade do inverso para a soma vetorial de V provada acima)
  • Se \alpha\vx=\og, então \alpha=0 ou \vx=\og. Em particular, se V\neq{\og}, 1 é o único escalar que satisfaz o axioma (h). (de fato, vimos acima que 0\vx=\og. Se, por outro lado, \alpha\neq 0, temos que

        \[\frac{1}{\alpha}(\alpha\vx)\stackrel{(e)}{=}\left(\frac{\alpha}{\alpha}\right)\vx=1\vx\stackrel{(h)}{=}\vx=\frac{1}{\alpha}\og=\og\ ,\]

    logo \vx=\og. Para a última afirmação, notar que se \alpha\vx=\vx para todo \vx\in V, então

        \[\alpha\vx-\vx=\alpha\vx+(-1)\vx\stackrel{(g)}{=}(\alpha-1)\vx=\vx-\vx\stackrel{(d)}{=}\og\ .\]

    Tomando \vx\neq\og qualquer resulta em \alpha=1).

Exercício 3. Prove a partir dos axiomas (a)-(h) e/ou de suas consequências provadas acima as seguintes propriedades, válidas para quaisquer vetores \vx,\vy\in  V e quaisquer escalares \alpha,\beta\in\RR

  • Se \alpha\vx=\alpha\vy e \alpha\neq 0, então \vx=\vy;
  • Se \alpha\vx=\beta\vx e \vx\neq\og, então \alpha=\beta;
  • -(\vx+\vy)=(-\vx)+(-\vy)=-\vx-\vy;
  • \vx+\vx=2\vx. Mais em geral, \sum^k_{i=1}\vx=k\vx. (para a definição do símbolo de somatória num espaço vetorial, ver o início da aula 3)

Dentre os exemplos de espaços vetoriais, podemos citar:

  1. Obviamente, \RR^n. Em particular, \RR (n=1) é espaço vetorial sobre si mesmo.
  2. Dado A\neq\varnothing, seja V o espaço das funções de A em \RR:

        \[ V=F(A,\RR)=\{f:A\To\RR\}\ .\]

    Definimos em tal V as operações vetoriais pontuais (a seguir, f,g:A\To\RR, p\in A, \alpha\in\RR são quaisquer)
    • Soma (vetorial):

          \[(f+g)(p)=f(p)+g(p)\ ;\]

    • Multiplicação escalar:

          \[(\alpha f)(p)=\alpha f(p)\ .\]

    A validade dos axiomas (a)-(h) para tais operações segue imediatamente da validade dos axiomas correspondentes no contradomínio (i.e. \RR). De fato, se f,g,h\in V, p\in A e \alpha,\beta\in\RR são quaisquer, então:
    1. (f+g)(p)=f(p)+g(p)=g(p)+f(p)=(g+f)(p);
    2. (f+(g+h))(p)=f(p)+(g+h)(p)=f(p)+(g(p)+h(p)) =(f(p)+g(p))+h(p)=(f+g)(p)+h(p)=((f+g)+h)(p);
    3. 0(p)\equiv 0 (i.e. 0(p)=0 para todo p\in A) satisfaz (f+0)(p)=f(p)+0=f(p) para todo p\in A;
    4. Dado f\in V, (-f)(p)=-f(p) (p\in A) satisfaz (f+(-f))(p)=f(p)-f(p)=0=0(p) para todo p\in A;
    5. ((\alpha\beta)f)(p)=(\alpha\beta)f(p)=\alpha(\beta f(p))=\alpha(\beta f)(p)=(\alpha(\beta f))(p);
    6. (\alpha(f+g))(p)=\alpha(f+g)(p)=\alpha(f(p)+g(p))=\alpha f(p)+\alpha g(p) =(\alpha f)(p)+(\alpha g)(p);
    7. ((\alpha+\beta)f)(p)=(\alpha+\beta)f(p)=\alpha f(p)+\beta f(p)=(\alpha f)(p)+(\beta f)(p) =((\alpha f)+(\beta f))(p);
    8. (1f)(p)=1f(p)=f(p).
    Em particular, se A=\{1,\ldots,n\}, n\in\NN então V=\RR^n e as operações vetoriais pontuais de \RR^n coincidem com as operações vetoriais usuais de \RR^n, logo as últimas satisfazem os axiomas (a)-(h), como apontado acima.
  3. Mais em geral, se A\neq\varnothing e W é um espaço vetorial (real), seja V o espaço das funções em A a valores em W:

        \[ V=F(A,W)=\{\vf:A\To W\}\ .\]

    Definimos em tal V as operações vetoriais pontuais (a seguir, \vf,\vg:A\To\RR, p\in A, \alpha\in\RR são quaisquer)

    • Soma (vetorial):

          \[(\vf+\vg)(p)=\vf(p)+\vg(p)\ ;\]

    • Multiplicação escalar:

          \[(\alpha \vf)(p)=\alpha \vf(p)\ .\]

    Tal como no exemplo (ii) acima, a validade dos axiomas (a)-(h) para tais operações segue imediatamente da validade dos axiomas correspondentes no contradomínio W. Os cálculos são exatamente os mesmos.

Mais exemplos podem ser obtidos a partir dos dados acima a partir da seguinte

Definição 2. Seja V um espaço vetorial, e W\subset V não-vazio. Dizemos que W é subespaço vetorial de V se, dados \vx,\vy\in W e \alpha\in\RR quaisquer, então

  1. \vx+\vy\in W;
  2. \alpha\vx\in W.

Se W\neq V, dizemos que W é subespaço vetorial próprio de V.

Mostraremos que todo subespaço vetorial W\subset V é um espaço vetorial se munido das operações vetoriais herdadas de V (o que sempre assumiremos ser o caso). De fato, os axiomas (a), (b) e (e)-(h) são claramente satisfeitos em W. O que nos resta fazer para obter a validade dos axiomas (c) e (d) em W é provar, respectivamente, que:

  • \og\in W. (se \vx\in W, segue de (ii) que 0\vx=\og\in W)
  • Se \vx\in W, então -\vx\in W. (se \vx\in W, segue de (ii) que (-1)\vx=-\vx\in W)

A vantagem de lidar com subespaços vetoriais é que verificar se W\subset V é subespaço vetorial de V é bem mais simples do que verificar os axiomas (a)-(h) em W. Em particular, ao verificarmos se W\neq\varnothing, é conveniente verificar se \og\in W. Se não for o caso, sabemos com certeza que W não é subespaço vetorial, mesmo se W não for vazio.

(Contra)exemplos de subespaços vetoriais:

  • V qualquer, W=\{\og\}: claramente \og+\og=\og e vimos que \alpha\og=\og para todo \alpha\in\RR, logo W é subespaço vetorial de (V) – o chamado subespaço vetorial trivial de V.
  • V=\RR^3, W=\{(x,y,z)\in V\ |\ z=0\}: claramente \og=(0,0,0)\in W. Além disso, temos que se (x,y,0),(x',y',0)\in W e \alpha\in\RR então

        \[(x,y,0)+(x',y',0)=(x+x',y+y',0)\in W\]

    e

        \[ \alpha(x,y,0)=(\alpha x,\alpha y,0)\in W\ .\]

  • V=\RR^n, W=\{\vx=(x_1,\ldots,x_n)\in V\ |\ \vx\text{ é solução de \eqref{ch1e2}}\}, onde \eqref{ch1e2} é o sistema linear homogêneo

    (1)   \begin{equation*}     \left{\begin{array}{cccccr}     A^1_1 x_1 & + & \cdots & + & A^1_n x_n & =0 \\     \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\     A^m_1 x_1 & + & \cdots & + & A^m_n x_n &= 0     \end{array}\right.\ .   \end{equation*}

    Claramente \og=(0,\ldots,0)\in W. Além disso, se \vx=(x_1,\ldots,x_n),\vy=(y_1,\ldots,y_n) pertencem a W e \alpha\in\RR, então

        \[ \left{\begin{array}{cccccr}   A^1_1(x_1+y_1) & + & \cdots & + & A^1_n(x_n+y_n) & =0 \\   \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\   A^m_1(x_1+y_1) & + & \cdots & + & A^m_n(x_n+y_n) & =0   \end{array}\right.\]

    e

        \[ \left{\begin{array}{cccccr}     A^1_1(\alpha x_1) & + & \cdots & + & A^1_n(\alpha x_n) & =0 \\     \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\     A^m_1(\alpha x_1) & + & \cdots & + & A^m_n(\alpha x_n) & =0     \end{array}\right.\ ,\]

    logo \vx+\vy e \alpha\vx também pertencem a W. Veremos mais adiante que esse é um exemplo genérico: todo subespaço vetorial de \RR^n é o espaço de soluções de algum sistema linear homogêneo. Por outro lado, se o lado direito de alguma das equações de (1) não fosse zero (i.e. o sistema passasse a ser não-homogêneo), então \og não pertenceria a W pois nesse caso tal equação obviamente não pode ser satisfeita. Logo, nesse caso W não pode ser subespaço vetorial de V.

Pedro Lauridsen Ribeiro

One Comment

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.