
Korean: 
이전 영상에서는
다변수함수의 연쇄 법칙의
벡터 형태를 다루었습니다
기억을 되살려 보겠습니다
어떤 함수 f가 존재합니다
f는 100차원 
공간에서 왔을 때,
이러한 함수를 상상해봅시다
100차원 공간을 
상상할 수 없지만,
이론상 어떤 공간이
100차원이라고
 생각합시다
100차원 공간은 2차원에서
둘로 나뉠 수 있습니다
f는 스칼라 함수로,
함숫값이 수직선 위에 있습니다
f의 함숫값이 존재하는
어떤 수직선이 있습니다
이제부터 스칼라 함수 f를
위 벡터함수와 합성하겠습니다
즉, 어떤 함수가 하나의 수 t를 받아
고차원 공간에 함숫값을 
내놓는 것입니다
단일 변수 t에서
벡터로 가득찬 
고차원 공간으로
가는 것입니다
또, 그것이 단일 변수로 가고,
수직선 위의 수로 갑니다
스칼라 함수 f와 
벡터함수의 합성은

English: 
- [Voiceover] So, in the last video,
I introduced the vector form of
the multivariable chain rule
and just to remind ourselves,
I'm saying you have
some kind of function f,
and in this case I said it comes from
a 100 dimensional space,
so you might imagine--
Well, I can't imagine a
100 dimensional space,
but in principle, you're just thinking
of some area that's 100 dimensions,
it can be two if you wanted to think
more concretely in two dimensions.
And it's a scalar valued function
so it just outputs to a number line,
some kind of number line that I'll think
of as f as its output.
And what we're gonna do is we compose it
with a vector valued function
so some function that
takes in a single number t
and then outputs into that
super high dimensional space.
So you're thinking, you go
from the single variable t
to some very high dimensional space
that we think of as full of vectors,
and then you take from that
over to a single variable,
over to a number.
And you know, the way you'd write that out

English: 
is you'd say f composed
with the output of v,
so f composed with v of t,
and what we're interested in
doing is taking its derivative.
So the derivative of that composition is--
and I told you and we
kind of walked through
where this come from, the gradient of f,
evaluated at v of t, evaluated
at your original output,
that product, with the derivative of v,
the vectorized derivative,
and what that means, you know,
for v, you're just taking the
derivative of every component.
So when you take this and
you take the derivative
with respect to t, all that means is
that each component, you're
taking the derivative of it.
The x1 dt, the x2 dt, on and on until d
and then the one hundredth component dt.
So this was the vectorized form
of the multivariable chain rule.
And what I wanna do here is show

Korean: 
v의 함숫값이 f로 
들어가도록 표기합니다
즉,  f (v(t)) 로 적습니다
우리의 목표는  
f · v 의 도함수입니다
f · v 의 도함수가 
바로 이 식입니다
지난번에 말했듯이
f · v의 도함수는 
f의 기울기 벡터가
원래 함숫값인
v(t)로 계산되고
여기에 v의 도함수를 
곱한 것입니다
v의 벡터화된 도함수는
모든 성분의 
도함수를 얻습니다
벡터함수 v의
t에 대한 도함수는
각각의 성분을
 t에 대해 미분하는 것입니다
x1 , x2에서
x100 까지 
t에 대해 미분합니다
이 과정이 
다변수 함수의 연쇄법칙의
벡터 형태입니다
이제 할 것은 
f · v의 도함수가

Korean: 
방향 도함수와 유사한
형태임을 보이겠습니다
만약 방향 도함수에 대한
영상을 보지 않았다면,
돌아가서 보도록 합니다
여러분의 기억을 
되살려보겠습니다
스칼라 함수 f의 정의역
공간에 있다면,
어떤 벡터 v를 따라 이동하면,
v를 함수이름으로 
이미 쓰고 있으므로,
어떤 벡터 w라고 합시다
즉, v는 함수이고
w는 벡터입니다
그리고 벡터 v가
f의 함숫값에 얼마나
변화를 주는지 알아봅시다
그것은 방향 도함수에 
의해 알 수 있고,
f의 w 방향의 방향 도함수를
적겠습니다
f의 방향 도함수입니다
그리고 투입할 점 p를 써야하는데,
p는 100차원 벡터처럼
벡터입니다
이것을 계산하는 방법은
f의 기울기 벡터를 
취하는 것입니다
이것이 앞서 나블라 표기법을
사용한 이유입니다
이것을 어떻게 계산하는지에
대한 표기로,
같은 투입 벡터 p에 대해
계산된 f의 기울기 벡터입니다
즉, 어떤 투입할 벡터를

English: 
how this looks a lot like
a directional derivative.
And if you haven't watched the video
on the directional derivative,
maybe go back, take a look,
kind of remind yourself, but in principle,
you say, if you're in
the input space of f,
and you nudge yourself
along some kind of vector v,
and maybe just because I'm using v there,
I'll instead say some kind of vector w.
So not a function, just a vector.
And you're wondering, hey,
how much does that result
in a change to the output of f,
that's answered by the
directional derivative
and you'd write directional derivative
in the direction of w of f,
the directional derivative of f,
and I should say at some
point, some input point,
p for that input point and
it's a vector in this case,
like a 100 dimensional vector.
And the way you evaluate it,
is you take the gradient of f,
this is why we use the nabla
notation in the first place,
it's an indicative of how we compute it,
the gradient of f evaluated
at that same input point,
the same input vector p.
So here, just to be clear,
you'd be thinking of

English: 
whatever vector to your
input point, that's p.
But then the nudge, the nudge away
from that input point is w.
And you take the dot product
between that and the vector itself,
the vector that represents
your nudge direction.
But that looks a lot like
the multivariable chain rule up here,
except instead of w, you're
taking the derivative,
the vector value derivative of v,
so this whole thing you could say
is the directional derivative
in the direction of
the derivative of t, and
that's kind of confusing.
Directional derivative in the
direction of a derivative,
of f, and what point are you taking this,
at what point are you taking
this directional derivative?
Well, it's wherever the output of v is.
So this is very compact,
it's saying quite a bit here.
But a way that you could
be thinking about this,
is v of t, so I'm gonna
kind of erase here.
V of t has you zooming all about

Korean: 
p 라고 합시다
그리고 투입할 벡터 w에서
이동합니다
그리고 이것과 벡터 자신과
내적을 취합니다
이동하는 방향을 나타내는 
벡터입니다
그러나 이것은
위의 다변수 함수의 
연쇄법칙과 비슷합니다
단, w 대신에 v의 벡터 도함수를
취하는 것이 차이점입니다
따라서 t의 도함수의 방향에서
방향 도함수만 다룰 수 있고,
이것은 다소 혼란스럽습니다
f의 도함수의 방향에서의 
방향 도함수와
이 방향 도함수에서 취할
점은 무엇입니까?
이것은 v 입니다
이것은 매우 간단합니다
이것을 생각하는 방법은
V(t)이고, 여기를 지우겠습니다
V(t)는 갑자기 상승하고,

English: 
and as you shift t, it kind of moves you
through this space in some way.
And each one of these output points here
represents the vector,
v of t at some point,
the derivative of that, what
does this derivative represent?
That's the tangent vector to that motion,
you know, so you're zipping
about through that space,
the tangent vector to your motion,
that's how we interpret v prime of t,
the derivative of v with respect to t.
I mean why should that make sense?
Why should the directional derivative
in the direction of v prime of t,
this change to the
intermediary function v,
have anything to do with the
multivariable chain rule?
Well, remember what
we're asking when we say
dt of this composition is we're saying
we take a tiny nudge to t,
so that tiny change here,
in the value t, and we're wondering
what changed that result
in after the composition?

Korean: 
t를 이동시킴에 따라
V(t)는 이 공간을 
통해 이동합니다
각각의 점들은 
어떤 시점에서
V(t)의 나타내고
즉, V(t)의 도함수입니다
이 도함수는 무엇을 나타냅니까?
이 시점에서 탄젠트 벡터
(기울기 벡터)입니다
따라서 이 공간을 통해
급속히 진행하고
이 움직임에 대한
탄젠트 벡터는
V '(t)를 나타내고
t에 대해 V의 도함수입니다
이것이 어떤
의미를 가집니까?
V '(t)의 방향에서
방향 도함수가
즉, 매개 함수 V의 변화가
왜 다변수 함수의 연쇄법칙과
관련이 있을까요?
f(v(t))를 t에 대해 미분한 것은
미소 t에 대해,
즉, t의아주 작은 변화에 대해
그 결과로 이 합성, 
f(v(t))에 어떤 변화가
생길까요?

English: 
Well, at a given point,
that tiny nudge in t
causes a change in the
direction of v prime of t.
That's kind of the whole meaning
of this vector value derivative.
You change t by a little bit,
and that's gonna tell you
how you move in the output space.
But then you say, "Okay,
so I've moved a little bit
"in this intermediary
100 dimensional space,
"how does that influence the output of f
"based on the behavior of just
"the multivariable function f?"
Well, that's what the
directional derivative is asking.
It says you take a nudge in
the direction of some vector,
in this case, I wrote
v prime of t over here.
More generally, you
could say any vector w,
you take a nudge in that direction.
And more importantly, you know,
the size of v prime of t matters here.
If you're moving really
quickly, you would expect
that change to be larger, so the fact
that v prime of t would
be larger is helpful.
And the directional
derivative is telling you
the size of the change in f as a ratio
of the proportion of
that directional vector
that you went along. Right?

Korean: 
t의 아주 작은 변화는
v ' (t) 의 방향에 변화를 줍니다
이것이 이 벡터 도함수의
전체적인 의미입니다
t를 아주 조금 변화시키면,
출력되는 공간에서 어떻게
이동하는지 알 수 있습니다
이제 매개 100차원 공간에서
조금 이동하는 것은
다변수 함수 f의
특징에 기반하여
f의 함숫값에 어떤 영향을 줄까요?
이것이 바로 방향 도함수의
의미입니다
어떤 벡터의 방향으로 이동합니다
이 경우에서는 그 벡터가
v ' (t) 입니다
일반적으로  벡터 w라고 합시다
벡터 w의 방향으로 이동합니다
이때 v ' (t)의 크기는
다소 중요합니다
벡터 w의 방향으로 
매우 빠르게 이동하면
변화가 매우 클 것이므로,
v ' (t)는 클 수록 좋습니다
그리고 방향 도함수는
f의 변화의 크기를
따라서 이동한 방향 벡터에 대한
비율을 알려줍니다

Korean: 
방향 도함수에 대한 
또다른 표기법은
함수 f를 임의의 벡터 w에
대한 편미분입니다
근본적으로 이 벡터를
따라 이동한 것의 크기를
그 벡터 자신에 대한 비율로 나타내고,
함숫값의 변화를 고려하고,
그 비를 취합니다
이것은 다변수 함수의 
연쇄법칙을
이해하는 좋은 방법입니다
이것의 의미는,
v(t)가 어떤 방법으로
이동하는 것이므로,
이동함에 따라 속도의
크기와 방향은
함수 f의 함숫값의 변화를 
결정합니다
따라서 이것은
방향 도함수와 
다변수 함수의 연쇄법칙
모두를 잘 설명합니다
이것은 아주 간결한 해석입니다

English: 
You could--another notation
for the directional derivative
is to say partial f, and then partial
whatever that vector is.
Basically saying you
take size of that nudge
along that vector as a
proportion of the vector itself,
and then you consider
the change to the output
and you're taking the ratio.
So I think this is a very
beautiful way of understanding
the multivariable chain rule.
Cause it give this image of, you know,
you're thinking of v of
t, and you're thinking
of zipping along in some way,
and the direction and
value of your velocity
as you zip along is what determines
the change in the output
of the function f.
So hopefully, that helps
give a better understanding
both of the directional derivative
and of the multivariable chain rule.
It's one of those nice
little interpretations.
