Abordagem em Exercícios de Dependência Linear
2 participantes
Página 1 de 1
Abordagem em Exercícios de Dependência Linear
Estou estudando dependência linear no espaço vetorial [latex]V^{3}[/latex], e percebi um padrão nos exercícios deste tema. Normalmente, o enunciado te dá três vetores [latex]\left \{ u,v,w \right \}[/latex], e te dá um outro conjunto de vetores "em função" (falando de dependência linear, essa terminologia pode causar confusão) do outro.
Por exemplo: "Sejam [latex]\left \{ u,v,w \right \}[/latex] vetores de [latex]V^{3}[/latex]. Prove que [latex]\left \{ 2u + w,u-v,v+w \right \}[/latex] é LI [latex]\Leftrightarrow \left \{u-w,u+v,u+w \right \}[/latex] é LI.
Qual é a melhor abordagem para lidar com essa transformação do conjunto de vetores? É comum, inclusive, que essa seja a parte mais difícil do exercício, restando apenas aplicação de propriedades axiomáticas após isso.
Por exemplo: "Sejam [latex]\left \{ u,v,w \right \}[/latex] vetores de [latex]V^{3}[/latex]. Prove que [latex]\left \{ 2u + w,u-v,v+w \right \}[/latex] é LI [latex]\Leftrightarrow \left \{u-w,u+v,u+w \right \}[/latex] é LI.
Qual é a melhor abordagem para lidar com essa transformação do conjunto de vetores? É comum, inclusive, que essa seja a parte mais difícil do exercício, restando apenas aplicação de propriedades axiomáticas após isso.
gabeieiel- Padawan
- Mensagens : 63
Data de inscrição : 21/03/2023
Idade : 20
Localização : Colatina, ES, Brasil
Re: Abordagem em Exercícios de Dependência Linear
A ideia é que existe uma matriz que leva um conjunto no outro, e essa matriz é invertível. Por exemplo, digamos que queremos mostrar que {u,v,w} é LI se e somente se {u+v+w, 5v+2w, 2v+w} é LI.
Daí você considera a matriz
\(A= \displaystyle \begin{bmatrix}
1&1&1\\
0&5&2\\
0&2&1
\end{bmatrix}\)
e repare que
\( \displaystyle \begin{bmatrix}
1&1&1\\
0&5&2\\
0&2&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
u+v+w\\
5v+2w \\
2v+w
\end{bmatrix}\)
Ou seja, a matriz A leva "um trio de vetores" no "outro trio". O ponto é que se essa matriz A for invertível, então vc sempre leva conjuntos LI em conjuntos LI. Se você já sabe sobre transformações lineares, tem outras maneiras mais diretas de verificar esse fato.
Mas se não sabe ou não quer usar, pode justificar direto pela definição mesmo:
Suponha que {u,v,w} é LI e considere uma combinação linear qualquer de {u+v+w, 5v+2w, 2v+w}:
a1 (u+v+w) + a2( 5v+2w) + a3(2v+w)
Podemos reorganizar os termos da forma
(a1.1 + a2.0+ a3.0) u + (a1.1 + a2.5 + a3.2)v + (a1.1 + a2.2 + a3.1)w
Sendo L1,L2,L3 as linhas da matriz A, os coeficientes que antecedem u,v,w são justamente as colunas de a1L1 + a2L2 + a3L3. Veja:
\( \displaystyle \left. \begin{array}{l}
L_1 = \begin{bmatrix} 1 & 1 & 1 \end{bmatrix}\\
L_2 = \begin{bmatrix} 0 & 5 & 2 \end{bmatrix}\\
L_3 = \begin{bmatrix} 0 & 2 & 1 \end{bmatrix}
\end{array} \right\} \implies \alpha_1 L_1 + \alpha_2 L_2 +\alpha_3 L_3 = \begin{bmatrix}
a_1\cdot 1 +a_2 \cdot 0 + a_3 \cdot 0 & a_1\cdot 1 +a_2 \cdot 5 + a_3 \cdot 2 & a_1\cdot 1 +a_2 \cdot 2 + a_3 \cdot 1
\end{bmatrix} \)
Já que {u,v,w} é LI, para que a combinação linear a1 (u+v+w) + a2( 5v+2w) + a3(2v+w) seja nula, precisaremos que a1L1 + a2L2 + a3L3 seja nulo. Mas A tem inversa e uma matriz é inversível se e somente se suas colunas são LI. Isso implica que a única maneira de a1 (u+v+w) + a2( 5v+2w) + a3(2v+w) se anular é quando a1 = a2 = a3 = 0. Isso mostra que {u+v+w, 5v+2w, 2v+w} é LI. A volta é análoga (nem precisa fazer se você considerar a transformação inversa)
Basicamente o mesmo raciocínio se aplica em situações mais gerais como a que você propos:
Notamos que
\( \displaystyle \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
2u+w\\
u - v \\
v+w
\end{bmatrix} \) e
\( \displaystyle \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
u-w\\
u+v \\
u+w
\end{bmatrix}\)
Como as matrizes envolvidas são inversíveis temos
\( \displaystyle \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix}^{-1} \cdot \begin{bmatrix}
2u+w\\
u - v \\
v+w
\end{bmatrix}= \begin{bmatrix}
u-w\\
u+v \\
u+w
\end{bmatrix}\)
Ou seja, como \( \displaystyle A = \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix}^{-1} \) tem inversa, segue que {2u+w,u-v,v+w} é LI se somente se {u-w, u+v, u+w} for LI.
Daí você considera a matriz
\(A= \displaystyle \begin{bmatrix}
1&1&1\\
0&5&2\\
0&2&1
\end{bmatrix}\)
e repare que
\( \displaystyle \begin{bmatrix}
1&1&1\\
0&5&2\\
0&2&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
u+v+w\\
5v+2w \\
2v+w
\end{bmatrix}\)
Ou seja, a matriz A leva "um trio de vetores" no "outro trio". O ponto é que se essa matriz A for invertível, então vc sempre leva conjuntos LI em conjuntos LI. Se você já sabe sobre transformações lineares, tem outras maneiras mais diretas de verificar esse fato.
Mas se não sabe ou não quer usar, pode justificar direto pela definição mesmo:
Suponha que {u,v,w} é LI e considere uma combinação linear qualquer de {u+v+w, 5v+2w, 2v+w}:
a1 (u+v+w) + a2( 5v+2w) + a3(2v+w)
Podemos reorganizar os termos da forma
(a1.1 + a2.0+ a3.0) u + (a1.1 + a2.5 + a3.2)v + (a1.1 + a2.2 + a3.1)w
Sendo L1,L2,L3 as linhas da matriz A, os coeficientes que antecedem u,v,w são justamente as colunas de a1L1 + a2L2 + a3L3. Veja:
\( \displaystyle \left. \begin{array}{l}
L_1 = \begin{bmatrix} 1 & 1 & 1 \end{bmatrix}\\
L_2 = \begin{bmatrix} 0 & 5 & 2 \end{bmatrix}\\
L_3 = \begin{bmatrix} 0 & 2 & 1 \end{bmatrix}
\end{array} \right\} \implies \alpha_1 L_1 + \alpha_2 L_2 +\alpha_3 L_3 = \begin{bmatrix}
a_1\cdot 1 +a_2 \cdot 0 + a_3 \cdot 0 & a_1\cdot 1 +a_2 \cdot 5 + a_3 \cdot 2 & a_1\cdot 1 +a_2 \cdot 2 + a_3 \cdot 1
\end{bmatrix} \)
Já que {u,v,w} é LI, para que a combinação linear a1 (u+v+w) + a2( 5v+2w) + a3(2v+w) seja nula, precisaremos que a1L1 + a2L2 + a3L3 seja nulo. Mas A tem inversa e uma matriz é inversível se e somente se suas colunas são LI. Isso implica que a única maneira de a1 (u+v+w) + a2( 5v+2w) + a3(2v+w) se anular é quando a1 = a2 = a3 = 0. Isso mostra que {u+v+w, 5v+2w, 2v+w} é LI. A volta é análoga (nem precisa fazer se você considerar a transformação inversa)
Basicamente o mesmo raciocínio se aplica em situações mais gerais como a que você propos:
Notamos que
\( \displaystyle \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
2u+w\\
u - v \\
v+w
\end{bmatrix} \) e
\( \displaystyle \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
u\\
v\\
w
\end{bmatrix} = \begin{bmatrix}
u-w\\
u+v \\
u+w
\end{bmatrix}\)
Como as matrizes envolvidas são inversíveis temos
\( \displaystyle \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix}^{-1} \cdot \begin{bmatrix}
2u+w\\
u - v \\
v+w
\end{bmatrix}= \begin{bmatrix}
u-w\\
u+v \\
u+w
\end{bmatrix}\)
Ou seja, como \( \displaystyle A = \begin{bmatrix}
1&0&-1\\
1&1&0\\
1&0&1
\end{bmatrix} \cdot \begin{bmatrix}
2&0&1\\
1&-1&0\\
0&1&1
\end{bmatrix}^{-1} \) tem inversa, segue que {2u+w,u-v,v+w} é LI se somente se {u-w, u+v, u+w} for LI.
DaoSeek- Jedi
- Mensagens : 240
Data de inscrição : 29/07/2022
gabeieiel gosta desta mensagem
Re: Abordagem em Exercícios de Dependência Linear
DaoSeek escreveu:Mas A tem inversa e uma matriz é invertível se e somente se suas colunas são LI.
Primeiramente, muito obrigado pela resposta! Entretanto, não entendi perfeitamente a colocação acima. Como assim "se suas colunas são LI"? Não estamos tratando apenas de coeficientes?
gabeieiel- Padawan
- Mensagens : 63
Data de inscrição : 21/03/2023
Idade : 20
Localização : Colatina, ES, Brasil
Re: Abordagem em Exercícios de Dependência Linear
O que estou usando é a seguinte propriedade:
Digamos que uma matriz é n x n e sejam \(L_1, L_2, ..., L_n\) as suas linhas. Se esses vetores forem LI, então a matriz é invertível. Se eles forem LD, a matriz não é invertível.
Por exemplo, a matriz \( \displaystyle \begin{bmatrix} 1 & 2 \\ 3 & 6 \end{bmatrix} \) não é invertível pois os vetores \(L_1 = (1,2)\) e \(L_2 = (3,6)\) são linearmente dependentes.
Já a matriz \( \displaystyle \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \\ 0 & 1 & 3\end{bmatrix} \) é invertível, pois os vetores \(L_1 = (1,0,0), L_2 = (0,1,2), L_3 = (0,1,3)\) são Linearmente independentes.
O mesmo vale se trocarmos linhas por colunas:
a matriz \( \displaystyle \begin{bmatrix} 1 & 2 \\ 3 & 6 \end{bmatrix} \) não é invertível pois os vetores \(C_1 = (1,3)\) e \(C_2 = (2,6)\) são linearmente dependentes.
Já a matriz \( \displaystyle \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \\ 0 & 1 & 3\end{bmatrix} \) é invertível, pois os vetores \(C_1 = (1,0,0), L_2 = (0,1,1), L_3 = (0,2,3)\) são Linearmente independentes.
Essa propriedade tem como consequencia por exemplo aquela regrinha ensinada usualmente no ensino medio: Se uma matriz quadrada tem duas linhas iguais, ou uma multiplo da outra, então o determinante é zero (lembrando que determinante é zero se somente se a matriz é invertível).
Digamos que uma matriz é n x n e sejam \(L_1, L_2, ..., L_n\) as suas linhas. Se esses vetores forem LI, então a matriz é invertível. Se eles forem LD, a matriz não é invertível.
Por exemplo, a matriz \( \displaystyle \begin{bmatrix} 1 & 2 \\ 3 & 6 \end{bmatrix} \) não é invertível pois os vetores \(L_1 = (1,2)\) e \(L_2 = (3,6)\) são linearmente dependentes.
Já a matriz \( \displaystyle \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \\ 0 & 1 & 3\end{bmatrix} \) é invertível, pois os vetores \(L_1 = (1,0,0), L_2 = (0,1,2), L_3 = (0,1,3)\) são Linearmente independentes.
O mesmo vale se trocarmos linhas por colunas:
a matriz \( \displaystyle \begin{bmatrix} 1 & 2 \\ 3 & 6 \end{bmatrix} \) não é invertível pois os vetores \(C_1 = (1,3)\) e \(C_2 = (2,6)\) são linearmente dependentes.
Já a matriz \( \displaystyle \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \\ 0 & 1 & 3\end{bmatrix} \) é invertível, pois os vetores \(C_1 = (1,0,0), L_2 = (0,1,1), L_3 = (0,2,3)\) são Linearmente independentes.
Essa propriedade tem como consequencia por exemplo aquela regrinha ensinada usualmente no ensino medio: Se uma matriz quadrada tem duas linhas iguais, ou uma multiplo da outra, então o determinante é zero (lembrando que determinante é zero se somente se a matriz é invertível).
DaoSeek- Jedi
- Mensagens : 240
Data de inscrição : 29/07/2022
![-](https://2img.net/i/empty.gif)
» Física nos elevadores - Uma outra abordagem
» placa de um automovel
» Teoria dos Números - Congruência: uma abordagem objetiva
» Seja T é uma aplicação linear de um espaço vetorial (Algebra Linear)
» algebra linear:Ache uma aplicação linear
» placa de um automovel
» Teoria dos Números - Congruência: uma abordagem objetiva
» Seja T é uma aplicação linear de um espaço vetorial (Algebra Linear)
» algebra linear:Ache uma aplicação linear
Página 1 de 1
Permissões neste sub-fórum
Não podes responder a tópicos
|
|