PiR2
Gostaria de reagir a esta mensagem? Crie uma conta em poucos cliques ou inicie sessão para continuar.

Abordagem em Exercícios de Dependência Linear

2 participantes

Ir para baixo

Abordagem em Exercícios de Dependência Linear Empty Abordagem em Exercícios de Dependência Linear

Mensagem por gabeieiel Sáb 15 Jun 2024, 22:08

Estou estudando dependência linear no espaço vetorial [latex]V^{3}[/latex], e percebi um padrão nos exercícios deste tema. Normalmente, o enunciado te dá três vetores [latex]\left \{ u,v,w \right \}[/latex], e te dá um outro conjunto de vetores "em função" (falando de dependência linear, essa terminologia pode causar confusão) do outro.

Por exemplo: "Sejam [latex]\left \{ u,v,w \right \}[/latex] vetores de [latex]V^{3}[/latex]. Prove que [latex]\left \{ 2u + w,u-v,v+w \right \}[/latex] é LI [latex]\Leftrightarrow \left \{u-w,u+v,u+w \right \}[/latex] é LI.

Qual é a melhor abordagem para lidar com essa transformação do conjunto de vetores? É comum, inclusive, que essa seja a parte mais difícil do exercício, restando apenas aplicação de propriedades axiomáticas após isso.
gabeieiel
gabeieiel
Padawan
Padawan

Mensagens : 63
Data de inscrição : 21/03/2023
Idade : 20
Localização : Colatina, ES, Brasil

Ir para o topo Ir para baixo

Abordagem em Exercícios de Dependência Linear Empty Re: Abordagem em Exercícios de Dependência Linear

Mensagem por DaoSeek Dom 16 Jun 2024, 23:44

A ideia é que existe uma matriz que leva um conjunto no outro, e essa matriz é invertível. Por exemplo, digamos que queremos mostrar que {u,v,w} é LI se e somente se {u+v+w, 5v+2w, 2v+w} é LI.

Daí você considera a matriz
\(A= \displaystyle \begin{bmatrix}
1&1&1\\
0&5&2\\
0&2&1
\end{bmatrix}\)

e repare que
\( \displaystyle \begin{bmatrix}
1&1&1\\
0&5&2\\
0&2&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
u+v+w\\
5v+2w \\
2v+w
\end{bmatrix}\)

Ou seja, a matriz A leva "um trio de vetores" no "outro trio". O ponto é que se essa matriz A for invertível, então vc sempre leva conjuntos LI em conjuntos LI. Se você já sabe sobre transformações lineares, tem outras maneiras mais diretas de verificar esse fato.

Mas se não sabe ou não quer usar, pode justificar direto pela definição mesmo:
Suponha que {u,v,w} é LI e considere uma combinação linear qualquer de {u+v+w, 5v+2w, 2v+w}:

a1 (u+v+w) + a2( 5v+2w) + a3(2v+w)

Podemos reorganizar os termos da forma
(a1.1 + a2.0+ a3.0) u + (a1.1 + a2.5 + a3.2)v + (a1.1 + a2.2 + a3.1)w

Sendo L1,L2,L3 as linhas da matriz A, os coeficientes que antecedem u,v,w são justamente as colunas de a1L1 + a2L2 + a3L3. Veja:

\( \displaystyle \left. \begin{array}{l}
L_1 = \begin{bmatrix}  1 & 1 & 1 \end{bmatrix}\\
L_2 = \begin{bmatrix}  0 & 5 & 2 \end{bmatrix}\\
L_3 = \begin{bmatrix}  0 & 2 & 1 \end{bmatrix}
\end{array} \right\} \implies \alpha_1 L_1 + \alpha_2 L_2 +\alpha_3 L_3 = \begin{bmatrix}
a_1\cdot 1  +a_2 \cdot 0 + a_3 \cdot 0 & a_1\cdot 1  +a_2 \cdot 5 + a_3 \cdot 2 & a_1\cdot 1  +a_2 \cdot 2 + a_3 \cdot 1
\end{bmatrix} \)

Já que {u,v,w} é LI, para que a combinação linear  a1 (u+v+w) + a2( 5v+2w) + a3(2v+w)  seja nula, precisaremos que a1L1 + a2L2 + a3L3 seja nulo. Mas A tem inversa e uma matriz é inversível se e somente se suas colunas são LI. Isso implica que a única maneira de a1 (u+v+w) + a2( 5v+2w) + a3(2v+w)  se anular é quando a1 = a2 = a3 = 0. Isso mostra que {u+v+w, 5v+2w, 2v+w} é LI. A volta é análoga (nem precisa fazer se você considerar a transformação inversa)

Basicamente o mesmo raciocínio se aplica em situações mais gerais como a que você propos:

Notamos que
\( \displaystyle \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
2u+w\\
u - v \\
v+w
\end{bmatrix} \) e
\( \displaystyle \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
u-w\\
u+v \\
u+w
\end{bmatrix}\)

Como as matrizes envolvidas são inversíveis temos

\( \displaystyle \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix}^{-1} \cdot \begin{bmatrix}
2u+w\\
u - v \\
v+w
\end{bmatrix}= \begin{bmatrix}
u-w\\
u+v \\
u+w
\end{bmatrix}\)

Ou seja, como \( \displaystyle A = \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix}^{-1} \) tem inversa, segue que {2u+w,u-v,v+w} é LI se somente se {u-w, u+v, u+w} for LI.
DaoSeek
DaoSeek
Jedi
Jedi

Mensagens : 240
Data de inscrição : 29/07/2022

gabeieiel gosta desta mensagem

Ir para o topo Ir para baixo

Abordagem em Exercícios de Dependência Linear Empty Re: Abordagem em Exercícios de Dependência Linear

Mensagem por gabeieiel Ter 18 Jun 2024, 14:59

DaoSeek escreveu:Mas A tem inversa e uma matriz é invertível se e somente se suas colunas são LI. 

Primeiramente, muito obrigado pela resposta! Entretanto, não entendi perfeitamente a colocação acima. Como assim "se suas colunas são LI"? Não estamos tratando apenas de coeficientes?
gabeieiel
gabeieiel
Padawan
Padawan

Mensagens : 63
Data de inscrição : 21/03/2023
Idade : 20
Localização : Colatina, ES, Brasil

Ir para o topo Ir para baixo

Abordagem em Exercícios de Dependência Linear Empty Re: Abordagem em Exercícios de Dependência Linear

Mensagem por DaoSeek Ter 18 Jun 2024, 21:18

O que estou usando é a seguinte propriedade:

Digamos que uma matriz é n x n e sejam \(L_1, L_2, ..., L_n\) as suas linhas. Se esses vetores forem LI, então a matriz é invertível. Se eles forem LD, a matriz não é invertível.

Por exemplo, a matriz \( \displaystyle \begin{bmatrix} 1 & 2 \\ 3 & 6 \end{bmatrix} \)  não é invertível pois os vetores \(L_1 = (1,2)\) e \(L_2 = (3,6)\) são linearmente dependentes.

Já a matriz \( \displaystyle \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \\ 0 & 1 & 3\end{bmatrix} \) é invertível, pois os vetores \(L_1 = (1,0,0), L_2 = (0,1,2), L_3 = (0,1,3)\) são Linearmente independentes.


O mesmo vale se trocarmos linhas por colunas:

a matriz \( \displaystyle \begin{bmatrix} 1 & 2 \\ 3 & 6 \end{bmatrix} \)  não é invertível pois os vetores \(C_1 = (1,3)\) e \(C_2 = (2,6)\) são linearmente dependentes.

Já a matriz \( \displaystyle \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \\ 0 & 1 & 3\end{bmatrix} \) é invertível, pois os vetores \(C_1 = (1,0,0), L_2 = (0,1,1), L_3 = (0,2,3)\) são Linearmente independentes.

Essa propriedade tem como consequencia por exemplo aquela regrinha ensinada usualmente no ensino medio: Se uma matriz quadrada tem duas linhas iguais, ou uma multiplo da outra, então o determinante é zero (lembrando que determinante é zero se somente se a matriz é invertível).
DaoSeek
DaoSeek
Jedi
Jedi

Mensagens : 240
Data de inscrição : 29/07/2022

Ir para o topo Ir para baixo

Abordagem em Exercícios de Dependência Linear Empty Re: Abordagem em Exercícios de Dependência Linear

Mensagem por Conteúdo patrocinado


Conteúdo patrocinado


Ir para o topo Ir para baixo

Ir para o topo

- Tópicos semelhantes

 
Permissões neste sub-fórum
Não podes responder a tópicos