
Korean: 
기본 조건은 
다음과 같습니다
두 변수 x, y 로 이루어진 
함수 f 가 있습니다
출력값으로는 
상수와 변수의 곱이 나옵니다
우리의 목표는
특정한 점에서 
근사를 하는 것입니다
이 내용은
국부 선형화를 다룬
이전의 영상에서 
찾아 볼 수 있습니다
그리고 여기에
국부 선형화 식을 
적어 놓았습니다
이 식은 국부 선형화의
일반화된 표현입니다
꽤 거칠어 보이는 표현이지만
각 부분별로 
쪼개어 살펴보면,
곧 같이 하겠지만, 
사실
그리 복잡하지 않습니다
이번 영상의 목표는
이 아이디어를 확장시켜
몇 항을 추가시키게 되면
이차 근사를 할 수 
있게 됩니다
이 것이 의미하는 바는
이제부터 우리는
x²,  xy,  y² 항
또한 사용할 수 있다는 것입니다
여기서 '이차' 란
두 변수가 곱해져 있는 
모든 경우를 말합니다
여기에는 x 두 개가 
곱해져 있고
여기는 x와 y 가 곱해져 있으며
여기는 y 가 
두 개 곱해져 있습니다
자 이제 
국부 선형화를 살펴 봅시다
굉장히 무언가 
많아 보이지만

English: 
- [Voiceover] So, our setup is
that we have some kind of two
variable function f of x, y,
who has a scaler output,
and the goal is to approximate it
near a specific input point,
and this is something
I've already talked about
in context of a local linearization,
and I've written out the full local,
the full local linearization,
hard words to say,
local linearization in its most
abstract and general form,
and it looks like quite the beast,
but once you actually break it apart,
which I'll do in a moment, it's, it's
not actually that bad.
And the goal of this video is gonna be
to extend this idea and it'll literally be
just adding terms onto this formula
to get a quadratic approximation.
And what that means is,
we're starting to allow
ourselves to use terms
like x squared, x times y, and y squared.
And quadratic basically just means
any time you have two
variables multiplied together.
So here you have two
Xs multiplied together,
here it's an x multiplied with a y,
and here y squared, that kind of thing.
So let's take a look at
this local linearization.
It seems like a lot,

English: 
but once you actually
kind of go through term
by term, um, you realize
it's a relatively simple function,
and if you were to plug in numbers
for the constant terms,
it would come out as
something relatively simple.
Cause this right here
where you're evaluating the function
at this specific input point,
that's just gonna be
some kind of constant.
That's just gonna output
some kind of number.
And similarly, when you do that to the,
the partial derivative, this little f of x
means partial derivative at that point,
you're just getting another number.
And over here, this is
also just another number,
but we've written it in
the abstract form so that
ah, you can see what you
would need to plug-in
for any function and for
any possible input point.
And the reason for having it like this,
the reason that it comes out to this form
is because of a few important properties
that this linearization has.
Let me move this stuff out of the way.
We'll get back to it in a moment, um, but
I just wanna emphasize
a few properties that this has
because it's gonna be
properties that we want
our quadratic approximation
to have as well.
First of all, when you
actually evaluate this function
at the desired point, at x knot, y knot,

Korean: 
항 별로 
나누어 살펴보면
 
상당히 간단한 
함수라는 것을 알 수 있습니다
그리고 여기 문자로 
표현되어 있는 상수항에
숫자를 넣을 경우에는
더욱 간단한 결과가 나옵니다
여기 f(x0,y0)로 표현되어 있는 식은
특정한 값을 대입할 경우,
즉, 어떠한 숫자를 대입할 경우,
출력값으로는 어떠한 숫자가
상숫값으로 나올 것입니다
이와 유사한 방법으로
여기 보이는 
f 의 x 에 대한 편도함수에
특정한 점을 대입할 경우
출력값으로는 
어떠한 숫자가 나옵니다
여기도 마찬가지로 
어떠한 숫자가 상수로 나옵니다
이렇게 추상적 표현으로 작성한 이유는
이렇게 쓸 경우 
함수의 종류에 관계 없이
어떠한 입력값을 넣어줘야 하는지
 알 수 있기 때문입니다
그리고 이러한 형태를 갖는 이유는
그리고 이러한 형태를 갖는 이유는
선형화가 가지는
중요한 속성 때문입니다
여기 이 것을 
옆으로 치우겠습니다
[치우는 중]
저는 이 식이 지니고 있는
몇 중요한 속성들을
강조하고자 합니다
이 속성들이 이차 근사에서도
잘 적용되기를 원하기 때문입니다
우선 우리가 이 함수를
우리가 원하는 점인 x0,y0 에서 살펴볼 때

English: 
what do you get?
Well, this constant term isn't influenced
by the variable, so you'll just get that f
evaluated at those points
x knot, y knot.
And now the rest of the terms.
When we plug-in x here,
this is the only place where
you actually see the variable.
Maybe that's worth pointing out, right?
We've got two variables here
and there's a lot going on,
but the only places where you
actually see those variables
show up where you have
to plug-in anything, um,
is over here and over here.
When you plug-in x knot
for our, our initial input,
this entire term goes to zero, right?
And then similarly when you
plug in y knot over here,
this entire term is gonna go to zero,
which multiplies out
to zero for everything.
So what you end up with,
you don't have to add anything else.
This is just a fact,
and this is an important fact
cause it tells you your,
your approximation for the function
at the point about which
you are approximating,
actually equals the value of
the function at that point.
So that's very good.
But we have a couple
other important facts also
because this isn't just
a constant approximation,

Korean: 
무엇을 얻을 수 있을까요?
상수항은
변수의 영향을 받지 않으므로
기존의 식 그대로
f(x0,y0) 라 적겠습니다
이 뒤의 항 중에서
여기 x 가
변수 x 가 등장하는 유일한 항입니다
이렇게 변수의 위치를 
확인하는 것이 중요합니다
자, 우리는 두 변수 x, y 를 살펴봐야 하고
아직 해야 할 일이 많이 있지만,
두 변수가 등장하는 장소는,
즉, 무언가를 대입해야 하는 장소는
여기와 여기밖에 없습니다
여기 x0 를 대입하면
이 항은 0이 됩니다
비슷한 방법으로 여기 y0 을 대입하면
이 항 또한 0이 됩니다
즉, 이 항은, 
0 곱하기 (상수) 꼴이 됩니다
대입을 마치면
더 이상 할 것은 
남아있지 않습니다
이 모든 과정은 
매우 분명합니다
여기서 얻을 수 있는
중요한 사실은
여기 보이는 함수의 근사가 
사실은
우리가 
근사하고자 하는 점에 있어서는
실제 함숫값과 
동일하다는 것입니다
매우 좋은 일입니다
하지만 우리는 여기서 더 알아야 할
중요한 사실이 있습니다
왜냐하면 이 것이 
단순히 상수 근사가 아닌

Korean: 
무언가를 더 해야 하기 때문입니다
여기 선형화 된 식의
x 에 대한 편도함수를 구하면,
어떤 결과가 나오나요?
이 편도함수를 직접 구했을때
어떤 것을 얻게 되나요?
자, 여기 원래 함수를 살펴보면
이 상수항은 
별 의미가 없습니다
미분하면 0이 되기 때문입니다
그리고 여기, 곱해진 식 
전체를 살펴보면
이는 상수 곱하기 (x- x0) 꼴입니다
그리고 이 항을
x 에 대해 미분하면
우리가 얻게 되는 것은 
상숫값입니다
f 의 x에 대한 편도함수에
(x0,y0) 를 대입한 상숫값 말입니다
그 뒤에 항은 X 가 없고
y 만 존재하므로,
이 항을 미분한 값도 0이 됩니다
즉,  함수 L 을
x 에 대해서 편미분한 값은
f 의 x 에 대한 편도함수에
(x0,y0)를 대입한 값이 됩니다
제가 말하고자 하는것은 단순히
L의 편도함수가 
f 의 편도함수와
모든 점에서 
일치한다는 것이 아니라,
L의 x에 대한 편도함수는 
어떠한 상숫값으로 나타나고

English: 
this is doing a little bit more for us.
If you were to take the partial derivative
of this linearization
with respect to x, um,
what do you get?
What do you get when you actually
take this partial derivative?
Well, if you look up at
the original function
this constant term is nothing,
so that just corresponds to a zero.
Over here, this entire thing
looks like a constant
multiplied by x minus something,
and if you differentiate this
with respect to x,
what you're gonna get
is that constant term,
which is the partial derivative of f
evaluated at our, our specific point.
And then the other term has no Xs in it,
it's just a y, which as far
as x concerned is a constant.
So this whole thing would be zero.
Which means the partial derivative
with respect to x is equal to the value
of the partial derivative
of our original function
with respect to x at that point.
Now notice, this is not saying
that our linearization has
the same partial derivative
as f everywhere, it's just saying that
its partial derivative
happens to be a constant

Korean: 
그리고 그 상숫값은
f 의 x 에 대한 편도함수에
특정한 입력값 (x0,y0) 를 
대입한 것이라는 사실입니다
방금 한 것을 
L의 y 에 대한 편도함수에도
동일하게 적용시킬 수 있습니다
L의 y 에 대한 편도함수는 
상수이며
그 상숫값은
f의 y 에 대한 편도함수에
입력값 (x0,y0)를 
대입한 값이 됩니다
이제 우리는 
세 가지 사실을 압니다
선형화된 식에서의
(x0,y0) 에서의 값을 알고,
L의 x 와 y 에 대한 편도함수와,
여기 선형화된 식의 
형태를 알고 있습니다
이제 우리는 이 식을 이용해
이차 근사를 할 것 입니다
여기 이 식을 우선 복사해놓고,
이 뒤에 항들을 추가하겠습니다
근사에 이용될 
이계 편도함수 정보가
원 함수와 들어맞도록 해야 합니다
굉장히 추상적으로 보이지만
곧 모든 것이 분명해지도록
한 번 해보겠습니다
지저분한 부분을
좀만 치우겠습니다
이제 우리는 이 식을 
확장해 나갈 것입니다
우선 이 식은 더 이상 
선형근사가 아니므로
함수의 이름을 바꾸겠습니다
우리는 이 식이 
이차 근사가 되기를 원하기에

English: 
and the constant that it is,
is the value of the
partial derivative of f
at that specific input point.
And you can do pretty much the same thing,
and you'll, you'll see that
the partial derivative of the
linearization with respect
to y is a constant,
and the constant that it happens to be
is the value of the
partial derivative of f
evaluated at that desired point.
So these are three facts.
You know the, the value of the
linearization at the point,
and the value of its two
different partial derivatives.
And these kind of define
the linearization itself.
Now what we're gonna do for
the quadratic approximation
is take this entire formula,
and I'm just literally gonna copy it here,
and then we're gonna add to it
so that the second partial
differential information
of our approximation matches
that of the original function.
Okay, that's kind of a mouthful,
but it'll become clear as I actually, um,
as I actually work it out.
Now, let me just kinda clean it up
at least a little bit here.
Um, so what we're gonna do is we're gonna
extend this, and I'm gonna change its name
because I don't want it to
be a linear function anymore.
What I want is for this to
be a quadratic function,

Korean: 
이제부터 Q(x,y)라 하겠습니다
이제 이 뒤에 항들을 추가하겠습니다
우리가 추가할 항들은
앞서 얘기했다시피
상수 a 곱하기 x²
더하기
상수 b 곱하기 xy 
더하기
상수 c 곱하기 y² 입니다
하지만 문제가 있습니다
이 식을 단순히 이 형태로 적으면
(x0, y0) 을 대입했을 때
문제가 생깁니다
이해가 되나요?
왜냐하면 근사하는 점의 
값을 대입할 경우
즉, 원함수의
근사하는 점을 논할 경우,
편도함수를 이용한 근사가
원 함수의 값과 
동일하게 나와야 하기 때문입니다
그리고 이 식이 
그 규칙을 어기는 이유는
여기 이 식에
(x0,y0) 를 대입할 경우
f(x0,y0) 가 
되지 않기 때문입니다
이 문제를 해결하기 위해
앞서 선형화 과정에서 했던 
방법을 적용하겠습니다
이 식에서는
단순히 x 만 
곱해주는 것이 아니라
(x-x0) 를 묶음으로 곱해주어야 합니다
그래야 앞서 말한 '규칙'을
x0 을 대입할 경우에
지킬 수 있기 때문입니다
자 그래서 방금 
적어놓은 이 항 대신에
이차 근사를 위해 
추가할 항은
어떠한 상수 a 에

English: 
so instead, I'm gonna call it q of x, y.
And now we're gonna add some terms,
and what I could do, what I could do
is add, you know, a constant
times x squared, since that's
something we're allowed,
plus some kind of constant times x, y
and then another constant times y squared.
But the problem there, is that,
if I just add these as they are,
then it might mess things up when I
plug-in x knot and y knot, right?
Well it was very important
that when you plug-in
those values, that you get the
original value of the function,
and that the partial derivatives
of the approximation also
match that of the function.
And that could mess things up,
because once you start plugging in
x knot and y knot over here,
that might actually mess with the value.
So we're basically gonna do the same thing
we did with the linearization,
where we put in,
every time we have an
x we kind of attach it,
we say x minus x knot,
just to make sure that
we don't mess things up
when we plug-in x knot.
So instead, instead of
what I had written there,
what we're gonna add as
our quadratic approximation
is some kind of constant,

English: 
and we'll fill in that
constant in a moment,
times x minus x knot squared,
and then we're gonna add
another constant multiplied by
x minus x knot
times y minus y knot
and then that times yet another constant,
which I'll call c multiplied by
y minus y knot squared.
All right, this is quite a lot going on.
This is a heck of a function
and these are three
different constants that
we're gonna try to fill in, um,
to figure out what they should be
to most closely approximate
the original function f.
Now the important part of making this
x minus x knot and y minus y knot
is that when we plug-in here,
when we plug-in, you know,
x knot for our variable x
and when we plug-in y
not for our variable y,
all of this stuff is just gonna go to zero
and it's gonna cancel out.
And moreover, when we take
the partial derivatives,
all of it's gonna go to zero as well.
And, and we'll see that in a moment,

Korean: 
 
(x-x0)² 를 곱하고
이 뒤에는
어떠한 상수 b에
(x-x0)
곱하기(y-y0)
더하기
어떠한 상수  c 곱하기
(y-y0)² 가 됩니다
음, 짧지 않은 과정입니다
 
우리는 이 식에서
세 가지 상수를 구해야 합니다
이 방법을 통해
함수 f 에 더욱 근사한 함수를
구할 수 있습니다
계속 강조하고 있듯이
(x-x0) 와 (y-y0) 꼴이
중요한 이유는
함수 Q에
 
x 대신 x0,
y 대신 y0 를 
대입할 경우
이 모든 항들은 0 이 되어
없어지게 됩니다
또한 이 식의 
편도함수를 구할 경우에도
모든 값은 0이 될 것입니다
그리고 이 과정을 
곧 보여드리겠습니다

English: 
maybe I'll just actually
show that right now.
Or rather, I think I'll
call the video done here
and then start talking about
how we fill in these
constants in the next video.
So I will see you then.

Korean: 
음, 지금 보여드리는게 좋겠습니다
음, 다시 생각해보니 
이 영상을 여기서 마치고
다음 영상에서
이 세가지 상수를
찾는 방법을 얘기하는게 
나을 것 같습니다
다음 영상에서 만납시다
