If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

Projeções em subespaços com bases ortonormais

Projeções em subespaços com bases ortonormais. Versão original criada por Sal Khan.

Quer participar da conversa?

Nenhuma postagem por enquanto.
Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA1JV - No último vídeo, nós estávamos analisando as bases ortonormais. Bases ortonormais. E gente viu que elas formam, elas são, na verdade, um ótimo sistema de coordenadas que permite achar as coordenadas que a gente está procurando de uma maneira mais fácil. Então, facilita a busca por coordenadas. Vou colocar assim dessa maneira aqui. Sabendo disso, a gente já tem uma boa utilidade das bases ortonormais. Só que essa utilidade de facilitar a busca por coordenadas não é a única coisa que faz as bases ortonormais serem incríveis. Vamos supor que a gente tenha um subespaço "V", então "V" é subespaço. Vamos supor que "V" é subespaço de Rⁿ, então, "V" é um subespaço de Rⁿ. E vamos supor que a gente tem uma base para esse subespaço, uma base "B", formada pelos vetores v₁, v₂, v₃, todos os vetores até chegar em vn. Dessa maneira aqui, até chegar em vn. Então, isso aqui é uma base ortnormal para nosso subespaço "V". Então, a gente sabe que, se a gente quiser pegar um vetor "x" pertencente a Rⁿ, a gente pode representá-lo, a gente pode representá-lo como uma parte "V", que é a projeção ortogonal de "x" no subespaço "V". E uma outra parte de "W" que é a projeção de "x" no subespaço "V", no subespaço ortogonal "V". Isso aqui é só revisão. Mesmo assim eu vou reescrever isso aqui. Só vou colocar aqui. Esta aqui é a projeção de "x" no subespaço "V", vou escrever aqui, em que "V" pertence ao subespaço "V" e "W" pertence ao subespaço "V" transposto dessa maneira aqui. Sabendo disso também, a gente sabe que a gente tem como escrever que nosso vetor "x", uma outra maneira de representá-lo, seria como sendo toda a combinação linear de todos os vetores que estão aqui dentro. Mais essa projeção de "x" em "W", no subespaço "V" ortogonal. Então, vou escrever isso aqui, para colocar por extenso o que eu estou falando. Vai ficar c₁v₁ mais c₂v₂ mais c₃v₃ e assim vai até chegar em ck vezes vk, aqui eu botei vn, mas vou trocar para vk. Porque acho que o "n" vai ficar um pouco confuso por causa do Rⁿ. ck, vk. Isso se a gente tivesse uma matriz, se a gente quisesse achar essa projeção de "x" em "V" e a gente tivesse uma matriz "A" que fosse composta por todos esses vetores. Cada um desses vetores fosse uma coluna, a gente teria, por exemplo, isso aqui. A gente teria, na verdade, não teria essa vírgula aqui, estou confundindo a maneira de apresentar. A gente teria essa representação aqui mais ou menos até chegar em vk. E se a gente quisesse achar essa projeção de "x" em "V", a gente já viu nos últimos vídeos que isso aqui é muito complicado. A gente teria que pegar nossa projeção, essa projeção de "x" em "V", seria pegar essa matriz "A", multiplicar pela transposta de "A" vezes "A" e a inversa disso, vezes a transporta de "A", vezes o nosso vetor "x". Isso aqui, a gente já viu nos últimos vídeos que seria muito complicado de fazer. Sabendo que a gente pode representar dessa maneira aqui, aqui faltou mais o "W", não pode esquecer dessa parte, esse "W". Sabendo que a gente consegue fazer isso aqui, a gente sabe que toda essa parte aqui, toda essa parte aqui é, na verdade, a nossa projeção de "x" em "V". Da maneira que gente fez, de uma maneira parecida com o que a gente fez no último vídeo. A gente pode multiplicar os dois lados dessa equação por um vetor "vi". Aqui ficaria, por exemplo, multiplicar os dois lados pelo vetor vi, aqui ficaria vi vezes nosso vetor "x". Isso seria igual a c₁v₁vi mais c₂v₂vi, mais, até chegar em "civivi", até chegar, depois, em ck, vk, vi, esqueci as flechinhas. E, é claro, nosso último termo aqui, vi, que multiplica "W", que é a projeção de "x" em "V" ortogonal. Aqui tem nosso "W", não pode esquecer dele. Da mesma maneira que a gente viu no último vídeo, quando eu tiver dois vetores diferentes, que são um ortogonal ao outro, eles vão se cancelar se a gente fizer o produto deles. Isso aqui vai se cancelar, vai ficar zero, isso aqui também vai ficar a zero. isso aqui não vai ficar zero, isso vai ficar 1, vai dar o produto de "vi" com ele mesmo, vai dar 1. Isso aqui vai ficar "ci", mas a gente já chega aqui. Isso aqui vai dar zero e o produto de "vi" com "W", por definição, "W" faz parte de um conjunto ortogonal a esse vetor "vi". Qualquer vetor que eu pegar e multiplicar qualquer vetores desses "v" que eu pegar e multiplicar por esse "W" vai dar zero. Então, aqui cancela também e é zero. Dessa maneira, a gente fica com o resultado de que "ci" é igual a "vi", produto de "vi" com "x". E esse resultado é bem parecido com o que a gente teve no último vídeo. Mas lembre-se que a gente não está procurando, a gente não está assumindo que "vi" e "x" estão no mesmo subespaço. No caso, para achar "x", a gente só teria que pegar as coordenadas que seriam esses coeficientes. Nós estamos procurando a projeção de "x" em "V", no subespaço "V". É claro, a gente poderia usar toda essa fórmula aqui, mas a gente sabe um jeito mais fácil. Agora, gente sabe quais são esses coeficientes. Se a gente estivesse procurando, a projeção, deixe-me ver uma outra cor aqui, se a gente estivesse procurando a projeção de "x" em "V", agora, a gente poderia reescrever como sendo, esse c₁, no caso, seria v₁ e o produto com o "x", isso aqui vezes o próprio v₁, mais v₂ vezes o vetor "x" multiplicado pelo próprio vetor v₂, aqui é um v₂. E é isso até chegar em vk, multiplicado pelo vetor "x", isso aqui multiplicado pelo próprio vetor vk. E uma maneira, um um lado legal de pensar nessa forma aqui de representar a projeção de "x" em "V", é que se a gente quisesse achar a projeção do vetor "x" em uma linha, por exemplo. Em que essa linha fosse gerada por um vetor unitário e ela fosse gerada por qualquer "T" pertencente aos reais. A gente já definiu isso nos últimos vídeos. Se a gente quisesse achar a projeção de "x" nessa linha, a gente só teria que fazer o produto de "x" com "U", e novamente o produto com "U". E, realmente, o que a gente fez aqui em cima foi isso. A gente acabou de fazer, realmente, a gente está fazendo uma projeção de "x" em relação à própria linha do vetor. Isso é uma maneira legal de pensar. Só que eu falei, também, nos últimos vídeos que as projeções são, na verdade, transformações lineares. Então, vamos supor que eu realmente queira descobrir essa matriz de transformação. Nesse caso, vamos ver se, por acaso, o nosso conhecimento de bases ortonormais vai ajudar a gente em alguma coisa nisso. Eu vou começar anotando o que a gente já sabe, vou colocar mais para baixo aqui. A gente já sabe que, se a gente quisesse calcular a projeção de "x" em "V" a gente poderia descobrir a matriz de transformação, se a gente fizesse uma matriz "A" multiplicada por "A" transposta vezes "A". Isso aqui à inversa. Ainda multiplicada por "A" transposta vezes o vetor "x". E vamos anotar de novo mais uma coisa que a gente tem. A gente tem a nossa matriz "A" e ela é formada pelos vetores, no caso, os vetores são colunas v₁, v₂, até vk. E essa nossa matriz, agora vamos analisar uma coisa aqui. Essa nossa matriz "A" tem ordem "n" por "k". Então, quando a gente vai fazer "A" transposta vezes "A", a gente vai ter uma matriz, deixe-me fazer desse lado aqui, "A" transposta vezes "A". A gente vai ter uma matriz "k" por "n", porque a gente fez uma transposta de uma matriz "n" por "k". Multiplicado por uma matriz "n" por "k". Então, como resultado, a gente vai ter uma matriz "k" por "k", o nosso resultado, a nossa matriz vai ser "k" por "k". E vocês já vão ver por que isso é importante. Então, nós vamos fazer a multiplicação de "A" transporta que vai ser pegar todas essas curvas que vão virar linhas. Então, v₁, v₂, até chegar em vk. Isso aqui ainda multiplicado pela matriz normal que a gente já tem desenhado, só copiar. v₁, v₂, até chegar em vk. Agora, eu vou colocar um igual aqui embaixo, vou continuar aqui embaixo, estou sem espaço. Agora o que vai dar? Vamos ver o que vai acontecer quando a gente for multiplicar a nossa diagonal principal. Deixe-me pegar uma cor legal aqui para marcar isso. Acho que risquei coisa errada aqui, vou voltar. Então, quando a gente for multiplicar nosso primeiro termo aqui, primeira linha, primeira coluna. v₁ vezes v₁, que é 1. Quando a gente for multiplicar, agora deixe-me pegar outra cor. Quando a gente for multiplicar v₁, ou qualquer um desses outros termos, quanto dá v₁ vezes v₂? Por definição, eles são vetores ortogonais, então isso aqui vai dar zero. E a mesma coisa acontece quando eu multiplicar v₁ por v₃, por exemplo, vai dar zero. E isso aqui até chegar no último vetor vk, que também vai ser zero. O que acontece quando a gente multiplica a nossa segunda linha e a primeira coluna, v₂ vezes v₁. Isso também vai ser zero. Só que quando for para a segunda linha, e segunda coluna, isso aqui vai ser v₂ vezes v₂, que vai ser 1. A gente vai ter uma matriz em que a diagonal principal vai ser 1 e todos os outros termos, sem exceção, da nossa matriz, todos os outros termos, aqui vai ter zero, zero e zero. Todos os nossos outros termos da matriz vão ser zero. E como é o nome da matriz em que a diagonal principal é formada por 1 e todos os outros termos são zero? Isso é uma matriz identidade de ordem "k", porque nós temos aqui uma matriz "k" por "k". Então isso aqui é uma matriz identidade. E vocês já vão perceber, se vocês não perceberam ainda, vocês já vão perceber por que isso aqui é importante. Se a gente tem uma base ortonormal, então, a nossa multiplicação de "A" transposta, da matriz "A" transposta por "A" vai ser igual à identidade de ordem "k". Ou seja, nessa nossa fórmula aqui, isso aqui tudo vai ser, vou escrever aqui embaixo de novo, "A" transposta vezes "A" e a inversa, isso aqui vai ser a identidade em "k", inversa, que é a própria identidade. Ou seja, quando a gente for calcular a nossa projeção de "x" em "v", a gente vai poder escrever isso como sendo a matriz "A" vezes a identidade em "k", vezes "A" transposta, vezes o vetor "x". Só que essa identidade não vai não vai mudar em nada, não vai interferir no nosso cálculo. A gente pode simplesmente simplificar isso aqui como sendo "A" vezes "A" transposta, vezes o nosso vetor "x". E entre fazer isso tudo aqui e fazer isso aqui, eu prefiro fazer esse segundo, ficou muito simples porque achar uma transposta é muito fácil, é só trocar todas as linhas por colunas. Então, esse cálculo aqui vai ser muito mais fácil do que esse nosso cálculo aqui. Ou seja, com esse vídeo, vocês descobriram uma segunda utilidade das bases ortonormais. Espero ter ajudado vocês, pessoal. E até a próxima!