If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

Aproximação linear

Uma "linearização local" é a generalização de funções de plano tangente. Uma que pode ser aplicada a funções de múltiplas variáveis com qualquer número de entradas. Versão original criada por Grant Sanderson.

Quer participar da conversa?

Nenhuma postagem por enquanto.
Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA4JL - E aí, pessoal! Tudo bem? Nas aulas passadas nós vimos uma função com duas entradas e vimos como encontrar o plano tangente ao seu gráfico. Para isso, você encontra algum tipo de ponto de entrada, que podemos colocar como x₀ e y₀, e precisa encontrar uma nova função, uma função chamamos de L(f). Você quer encontrar o gráfico dessa função para ser um plano tangente ao gráfico. Essa função é chamada de linearização local. O que isso significa? Local significa que você está olhando para um ponto de entrada específico. Nesse caso, o ponto de entrada específico é x₀ e y₀. E o que significa linearização? Significa que você está se aproximando da função com algo mais simples, com algo mais linear. Eu já vou explicar melhor essa ideia de linearização. Mas o que eu quero mostrar aqui é que isso ajuda a representar uma função muito complicada, ajuda a simplificar. Basicamente, nós utilizamos derivadas parciais constantes para representar essa função. Nesta aula eu vou mostrar como escrever essa função na forma vetorial, que é algo mais ácil de se lembrar, porque você só vai utilizar essas duas variáveis como entrada. Lembrando das aulas passadas, a fórmula de linearização local era a derivada parcial em relação a x no ponto (x₀,y₀) que multiplica (x menos x₀) e você soma isso com a derivada de f em relação a y no ponto (x₀,y₀) e multiplica por (y menos y₀) e soma isso com f(x₀,y₀). Uma coisa importante: quando substitui esse ponto aqui na função, você vai ter x₀ menos x₀, que vai dar zero, e vai ter y₀ menos y₀, que vai dar zero. Portanto, esse termo vai sumir e esse aqui também, e vamos ficar com f(x₀,y₀). É isso que garante a sua linearização. Na verdade, é a própria função f no ponto específico. O que eu quero dizer é que cada vez mais que você estiver se aproximando desse ponto, isso aqui vai se aproximar de zero e isso aqui também. E o que significa a palavra linear? A palavra linear tem um significado muito importante, principalmente se estivermos falando de álgebra linear. Basicamente, o termo linear vem porque não tem nada de especial acontecendo com esse x, ou seja, ele está sendo multiplicado por uma constante e nesse y também: não tem um quadrado, não tem uma raiz quadrada, ele é um termo linear. Claro que tem uma explicação mais técnica para a palavra linear, mas nesse momento vamos ficar com essa ideia intuitiva. Cada uma dessas variáveis está sendo multiplicada por uma constante e não tem nenhum termo especial nelas, por isso elas são lineares. OK, agora vamos aprender a descrever essa função em termos de vetores. A primeira coisa que temos que fazer é transformar essa entrada em vetores. Então nós colocamos um vetor com os componentes [x,y] e eu vou chamar esse vetor de vetor X, mas eu vou destacar bastante para você não confundir com a variável x. Nós também podemos colocar a entrada na qual estamos nos aproximando, que tem os componentes x₀ e y₀. O interessante de transformar isso em vetor é que, por exemplo, se tem uma entrada aqui com uma, duas, três, quatro, cem variáveis, você pode escrever esse vetor com cem componentes. Fica mais fácil de escrever como um vetor. Agora, vamos olhar para esses dois primeiros termos da nossa linearização. Podemos pensar nisso como um produto escalar e aqui também tem um produto escalar, então podemos escrever isso como uma matriz com as derivadas parciais e ambos são avaliados em x₀. Eu estou destacando bem para mostrar que isso é um vetor que contém duas variáveis diferentes. Multiplicamos isso pela matriz que contém esse termo, ou seja, (x menos x₀), e esse outro termo, que é (y menos y₀). Podemos simplificar ainda mais. O vetor que contém as derivadas parciais é o vetor gradiente. Se você não lembra dele, eu sugiro que você dê uma revisada nas aulas da Khan Academy. Mas vamos lá. Ele é escrito com um delta de cabeça para baixo, ∇f, na entrada x₀ e no segundo termo, basicamente, você tem (x menos x₀) e (y menos y₀), ou seja, você está pegando a entrada, o vetor variável x, e está subtraindo por algum tipo de constante. Basicamente, você está pegando este vetor e subtraindo por esse. Assim você tem um produto escalar com esse aqui sendo um vetor com um componente e esse aqui sendo um vetor com dois componentes. O interessante em escrever isso é que você simplifica bastante. Por exemplo, você pode ter cem entradas e ainda ter essa mesma forma. A única coisa que teria que fazer é expandir os componentes do vetor, mas é muito mais fácil escrever assim do que assim. Quando realizar esse produto escalar, você vai chegar nisso. Mas, claro, ainda falta esse termo aqui. Ele significa que queremos avaliar a função no ponto de entrada, ou seja, mais f(x₀). Nós o chamamos de termo constante, e esse produto escalar de termo linear. Claro, mais tarde nós vamos começar a adicionar coisas mais complicadas, como termos quadráticos, enfim, outras coisas que vão tornar a fórmula um pouco mais complicada. Mas o que eu quero dizer é que geralmente você vai ver esse tipo de expressão para a linearização local e o interessante é que o único lugar que vai aparecer uma constante é aqui porque quando você avaliar a função nessa entrada, o resultado vai dar uma constante e o vetor gradiente nessa entrada também vai dar uma constante. Outra coisa também interessante é que quando você terminar de calcular tudo isso, talvez encontre algo mais simples, até mesmo do que a função f, e assim fica mais fácil de calcular as coisas. Quem sabe você não esteja escrevendo um programa no qual tenha que lidar com uma função complicada, e o tempo de execução se torna um problema. Mas quando você aproxima o ponto e aproxima o seu gradiente, isso ajuda a aproximar toda a função para perto desse ponto. Se quiser ver mais alguns exemplos dessa aproximação, você pode dar uma olhada nos textos da Khan Academy. Tem bastante coisa legal lá. Eu espero que essa aula tenha ajudado vocês, e até a próxima, pessoal!