If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

Forma vetorial da regra da cadeia multivariável

A regra da cadeia multivariável é comumente expressa em termos do gradiente e uma derivada vetorial. Isso a torna bem análoga à regra da cadeia de uma única variável. Versão original criada por Grant Sanderson.

Quer participar da conversa?

Nenhuma postagem por enquanto.
Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA2MP - Olá, meu amigo ou minha amiga! Tudo bem com você? Seja muito bem-vindo ou bem-vinda a mais um vídeo da Khan Academy Brasil. Neste vídeo, vamos continuar falando sobre a regra da cadeia multivariável. Esta expressão que temos aqui em cima é a regra da cadeia multivariável. Neste vídeo eu quero trabalhar em cima dessa regra novamente, mas com o objetivo de desenvolver a notação vetorial dessa regra. Isso vai nos ajudar a generalizar um pouco mais as coisas para quando a gente estiver trabalhando com um espaço intermediário que possua uma dimensão maior. Então, talvez, ao invés de escrever x(t) e y(t) como funções separadas, e ter que enfatizar que "x" e "y" possuem o mesmo espaço de entrada, e inclusive recebem a mesma variável, é melhor deixar as coisas mais limpas. E para isso, basta a gente dizer que existe uma função com um valor vetorial que recebe um único valor "t" e que, em seguida, produz algum tipo de vetor. Neste caso, você pode dizer que as componentes de "v" são x(t) e y(t), e tudo bem. Sendo assim, eu quero mostrar como tudo isso vai ficar se a gente utilizar uma notação vetorial. É agora que você pode me falar o seguinte: "Ah, a gente tem um dx/dt aqui e um dy/dt aqui, então, podemos calcular a derivada dessa função com um valor de vetor?" Bem, a derivada de "v" em relação a "t" é apenas as derivadas de cada componente. Então, neste caso, a derivada de "x" é dx/dt e a derivada de "y" é dy/dt. Isto é a derivada do valor do vetor. Agora você pode começar a notar algo aqui. Temos que uma das componentes foi multiplicada por um certo valor e a outra componente foi multiplicada por um outro certo valor. A gente pode pensar nessa multiplicação como um produto escalar. Sendo assim, isto é o produto escalar entre o vetor que contém as derivadas parciais (parcial de "f" em relação a "x" e parcial de "f" em relação a "y") e o vetor que contém as derivadas comuns: dx/dt e dy/dt. Claro, ambos são vetores especiais. Eles não são apenas vetores aleatórios. Se você reparar bem, o vetor aqui da esquerda é o gradiente de "f" e o vetor aqui da direita é o que acabamos de escrever aqui embaixo, ou seja, é a derivada de "v" em relação a "t". Só para economizar espaço aqui, eu vou apenas colocar v'(t). Isto está dizendo exatamente a mesma coisa que dv/dt. Então, esta é outra forma de escrever a regra da cadeia multivariável. Aí, talvez, para ser um pouco mais exato nisso, a gente possa dizer aqui que estamos calculando o gradiente de "f" de alguma coisa que você vai inserir em "f", que neste caso é o vetor "v". E é nesse vetor que está a saída desta função de valor vetorial, onde você está inserindo o "x" de "t" e o "y" de "t". Você faz isso para enfatizar que pega isto como uma entrada e aí multiplica (quer dizer, na verdade faz o produto escalar) com a derivada do vetor que está sendo avaliado. Ou seja, a derivada de v(t). Como eu falei, quando eu digo "multiplicar", nós estamos calculando o produto escalar entre estes dois vetores. Isto talvez seja mais familiar para você, porque lembra bastante a regra da cadeia com uma única variável. E só para relembrar isso: se você calcular a derivada de uma composição de duas funções de variáveis únicas f(g(x)), você calcula a derivada da função externa, que neste caso é o "f". Assim, teremos f'(g(x)). E aí multiplicamos isso com a derivada da função interna, que neste caso é "g". Ou seja, multiplicamos isto por g'(x). Isso é super útil em cálculo de variável única para calcular muitas derivadas. E aqui nós temos algo muito semelhante, não é? O gradiente funciona como uma espécie de extensão da derivada para as funções de múltiplas variáveis. Pelo menos para funções de múltiplas variáveis que tenham um valor escalar. Você pega a derivada da função externa, que tem em seu interior uma função que possui um caráter vetorial, aí você multiplica isso com a derivada do vetor, da função interior. Na verdade, nesse contexto, este é um produto escalar entre estes dois vetores. Isso pode significar que, se você tem uma função com diversas variáveis diferentes, digamos que você tenha algum f(x₁, x₂, x₃…), até chegar a x₁₀₀, o que você coloca na função, de verdade, é a função de valor vetorial. Por exemplo, vamos supor que este vetor aqui possui uma única variável. E para compô-lo, vai ter um monte de funções intermediárias, que você pode escrever como x₁(t), x₂(t), x₃(t) e vai fazendo isso até chegar a x₁₀₀(t). Todas estas são funções neste ponto. Estas são funções das componentes de seu vetor com o valor "v". Esta expressão ainda faz sentido, não é? Você ainda pode pegar o gradiente de "f". Claro, vai ter 100 componentes. Aí você pega esse gradiente de "f" com 100 componentes e faz o produto escalar com a derivada desse vetor. Enfim, isto é a versão geral da regra da cadeia multivariável. E o legal de escrever dessa forma é que você ainda pode interpretar tudo isso em termos da derivada direcional, que inclusive é o que vamos conversar no próximo vídeo. Enfim, espero que você tenha compreendido tudo direitinho que conversamos aqui e mais uma vez eu quero deixar para você um grande abraço e até a próxima!