
Korean: 
저 사람들은 코도 연주자들입니다
(코도: 일본 전통 악기)
저들은 30~40명으로 구성된 
일본인 집단으로써
일본 연안 어느 섬마을에 살고 있으며
전통 일본 음악을 보전합니다
이 집단은 반(半)공동체적 성격을 지닌
독특한 집단입니다
저들은 아침 식사 전
10km 정도를 달립니다
이 아침식사는 오전 5시에 제공되죠
독특한 집단입니다
저는 그들의 공연을 놓치지 않을 것입니다
비록 그들이 보스턴 지역에
조만간 오지 않을 것 같아도 말이죠
비록 그들이 보스턴 지역에
조만간 오지 않을 것 같아도 말이죠
만약 여러분이 
코도 연주 공연에 가게 된다면
그리고 여러분이 더이상 젊지 않다면
여러분은 공연장에 
귀마개를 가지고 가고 싶을 것입니다

English: 
PROF.
PATRICK WINSTON: Well that's
the Kodo Drummers.
They're a group of about 30 or
40 Japanese people who live in
a village on some island off
the coast of Japan, and
preserve traditional
Japanese music.
It's an unusual semi
communal group.
They generally run about 10
kilometers before breakfast,
which is served at 5:00 AM.
Strange group.
Wouldn't miss a concert for
the world, although they,
alas, don't seem to be
coming down to the
Boston area very soon.
If you go to a concert
from the Kodo
Drummers--and you should--
and if you're no longer young,
you'll want to bring earplugs.

English: 
Because, as we humans get
older the dynamic range
control in our inner ear tends
to be less effective.
So that's why a person of my age
might find some piece of
music excruciatingly loud,
whereas you'll
think it's just fine.
Because you have better
automatic gain control.
Just like in any kind of
communication device there's a
control on how intense
the sound gets.
Ah, but I go off on a sidebar.
Many of you have looked
at me in astonishment
as I drink my coffee.
And you have undoubtedly have
been saying to yourself, you
know, Winston doesn't look like
a professional athlete,
but he seemed to have no trouble
drinking his coffee.
So today's material is going
to be pretty easy.
So I want to give you the side
problem of thinking about how
it's possible for somebody
to do that.
How is it possible?

Korean: 
왜냐하면, 인간은 나이가 들면
내이(內耳)의 동적범위 조절 기능이
떨어지기 때문입니다
그래서 제 나잇대 사람들은
어떤 음악을 고통스러울 정도로 
시끄럽게 느끼는 반면
여러분은 별 문제 없는 것입니다
왜냐하면 여러분은 더 나은 
자동이득조절장치(AGC)를 갖고 있어서죠
여느 의사소통 장치처럼
소리의 강도에 따라
소리를 조절하는 장치가 있습니다
이야기가 잠시 샜네요
여러분 중 많은 사람들은
제가 커피를 마실 때
놀란 표정으로 저를 봅니다
그리고 여러분은 의심할 여지없이
스스로에게 말하죠
교수님은 
전문 운동선수 같아 보이지는 않은데
커피마시는 데 아무 문제가 없어보여
아무튼 오늘 수업 내용은
꽤나 쉬울 것입니다
그래서 저는 여러분에게
누군가가 어떤 일을 하는게 어떻게 가능한지
생각할 수 있는 지엽적인 질문을
드리고 싶은 것입니다
어떻게 가능할까요?

English: 
How would you make a computer
program that could reach out
and drink a cup of coffee, if
it wanted a cup of coffee?
So that's one puzzle I'd
like you to work on.
There's another puzzle, too.
And that puzzle concerns
diet drinks.
This is a so-called Diet Coke.
Yeah, it's ripe.
If you take a Diet Coke and ask
yourself, what would a dog
think a Diet Coke is for?
That's another puzzle that you
can work on while we go
through the material
of the day.
So this is our first lecture
on learning, and I want to
spend a minute or two in the
beginning talking about the
lay of the land.
And then we'll race through
some material on nearest
neighbor learning.
And then we'll finish up
with the advertised
discussion of sleep.

Korean: 
여러분은, 커피를 원할 때
손을 뻗어서 커피를 마실 수 있는
컴퓨터 프로그램을 
어떻게 만드시겠습니까?
이게 제가 여러분이 
생각해봤으면 하는 수수께끼입니다
물론 다른 수수께끼도 있습니다
이 수수께끼는 
다이어트 음료에 관한 것입니다
이건 소위 말하는
다이어트 코카콜라입니다
잘 익었네요
여러분은 다이어트 코카콜라를 들고
스스로에게 다음과 같이 묻습니다
강아지는 다이어트 코카콜라가
무엇을 위한 것이라고 생각할까
이게 오늘 수업 진도를 나가면서
생각할 수 있는
또다른 수수께끼입니다
오늘 강의는 '학습'에 대한
첫 번째 수업입니다
수업 첫 1~2분 동안은
전반적인 개요를 말씀드린 후
최근접 이웃에 대해 
강의하도록 하겠습니다
최근접 이웃에 대해 
강의하도록 하겠습니다
그러고 나서 
수면에 대한 토의를 끝으로
오늘 수업을 마무리하겠습니다

English: 
Because I know many of you think
that because your MIT
students you're pretty tough,
and you don't need
to sleep and stuff.
And we need to address that
question before it's too late
in the semester to get
back on track.
All right.
So here's the story.
Now the way we're going
to look at learning is
there are two kinds.
There's this kind, and
there's that kind.
And we're going to talk a little
bit about both kinds.
The kind of the right is
learning based on observations
of regularity.
And computers are particularly
good at this stuff.
And amongst the things that
we'll talk about in connection
with regularity based learning
are today's topic, which is
nearest neighbors.

Korean: 
왜냐하면 저는 여러분 중 많은 분들이
스스로가 MIT 학생이라서
열심히 공부해야 하기 때문에
수면 따위 필요없다고 생각한다는 걸
알기 때문입니다
더 늦기 전에
그 질문에 대한 토의를 해야 합니다
더 늦기 전에
그 질문에 대한 토의를 해야 합니다
좋습니다.
이제 본격적인 강의를 시작하도록 하죠
우리가 배울 '학습'에는
두 가지 종류가 있습니다
우리가 배울 
'학습'에는 두 가지 종류가 있습니다
이런 종류가 있고
저런 종류가 있습니다
우리는 두 종류 모두에 대해
조금씩 알아볼 것입니다
오른쪽 종류의 학습은
규칙성 관찰을 기반으로 한 학습입니다
오른쪽 종류의 학습은
규칙성 관찰을 기반으로 한 학습입니다
컴퓨터는 이런 종류의 학습을
특히 잘 합니다
규칙성 기반 학습과 관련있는 것들 중
오늘 우리가 가장 먼저 이야기할 주제는
바로 '최근접 이웃' 입니다

English: 
Then a little bit downstream
we'll talk about neural nets.
And then somewhere near the end
of the segment, we'll talk
about boosting.
And these ideas come from
all over the place.
In particular, the stuff we're
talking about today, nearest
neighbors, is the stuff of which
the field of pattern
recognition--
it's the stuff of which pattern
recognition journals
are filled.
This stuff has been around
a long time.
Does that mean it's not good?
I hope not, because that would
mean that everything you
learned in 1801 is not good,
because the same course was
taught 1910.
So it has been around a while,
but it's extremely useful.
And it's the first thing to try
when you have a learning

Korean: 
강의 후반부 약간 동안은
신경망에 대해 배울 것입니다
그리고 강의 거의 끝무렵에는
부스팅에 대해 이야기하겠습니다
이러한 주제들은
다양한 분야에서 파생된 것입니다
특별히 오늘 우리가 배울 최근접 이웃은
패턴인식 분야에 속한 것입니다
패턴인식 분야에 속한 것입니다
최근접 이웃은 패턴 인식 분야 학술지에
빼곡하게 채워진 주제입니다
최근접 이웃은 패턴 인식 분야 학술지에
빼곡하게 채워진 주제입니다
최근접이웃은 예전부터 
존재해온 주제입니다
이것은 최근접이웃이 
좋지 않다는 걸 의미하는 걸까요?
저는 아니길 바랍니다
그것이 맞다면
여러분이 1801년에 배운 것이
좋지 않다는 걸 의미하기 때문입니다
왜냐하면 1910년에
같은 걸 가르치기 때문입니다
이렇듯 최근접 이웃은 꽤 오래되었으나
매우 유용한 방법입니다
그리고 최근접 이웃은 학습 문제를 풀 때
가장 먼저 시도하는 방법입니다

Korean: 
가장 간단한 방법이기 때문이죠
우리는 이해하기 어려운
어떠한 복잡한 방법을 사용하기 전에
언제나 가장 간단한 방법을
사용하고 싶어 합니다
언제나 가장 간단한 방법을
사용하고 싶어 합니다
그 가장 간단한 방법이 바로
최근접이웃이고 패턴인식입니다
그리고 신경망에 관한 것이 있는데
이건 생명과학을 모방하려는 
도전과도 같은 것입니다
이 신경망에 대해 이야기할 때
저는 많은 비판을 할 것입니다
이 신경망에 대해 이야기할 때
저는 많은 비판을 할 것입니다
그리고 이 부스팅은
이론적인 것입니다
인공지능과 컴퓨터학자들은
무언가를 발명해 왔고
빌려왔고 훔쳐왔고
옹호해 왔고
그리고 무언가를
개선해 왔습니다
그게 바로 오늘 학습에 관한 우리의 토의가 
이 주제들과 관련있는 이유입니다
그게 바로 오늘 학습에 관한 우리의 토의가 
이 주제들과 관련있는 이유입니다
이것들이 바로
규칙성에 기반한 학습입니다
여러분은 이 규칙성 기반 학습이
불도저 컴퓨팅의 하나라고
생각할 수 있습니다
왜냐하면, 컴퓨터가 이러한 일들을 할 때

English: 
problem, because it's
the simplest thing.
And you always want to try the
simplest thing before you try
something more complex that
you will be less likely to
understand.
So that's nearest neighbors
and pattern recognitions.
And the custodians of knowledge
about neural nets,
well this is sort of an attempt
to mimic biology.
And I'll cast a lot of calumny
on that when we get down there
to talk about it.
And finally, this is the gift
of the theoreticians.
So we in AI have invented some
stuff, we've borrowed some
stuff, we've stolen some stuff,
we've championed some
stuff, and we've improved
some stuff.
That's why our discussion of
learning will reach around all
of these topics.
So that's regularity
based learning.
And you can think of
this as the branch
of bulldozer computing.
Because, when doing these kinds
of things, a computer's

Korean: 
마치 불도저가 자갈을 처리하듯
정보를 처리하기 때문입니다
이 규칙성 기반 학습은 인간이 하는 
모든 종류의 학습을 위한
좋은 모델이라고는 말할 수 없습니다
어찌되었든, 우리는 학습이
인간 지능을 특징 짓는 것 중
하나라고 생각합니다
그래서 만약 우리가 학습에 관한
모델을 만들려고 한다면
규칙성 기반 학습 이 외의 것도
알아야 할 것입니다
규칙성 기반 학습 외의 것은 바로
제약에 기반한 학습입니다
규칙성 기반 학습 외의 것은 바로
제약에 기반한 학습입니다
이것을 인간과 유사한 부분 
이라고 칭합시다
이것을 인간과 유사한 부분 
이라고 칭합시다
그리고 일회성 학습과 같은 것을
얘기해보도록 하죠
일회성 학습은 오직 경험으로만 
학습되는 같은 것을 말합니다
일회성 학습은 오직 경험으로만 
학습되는 같은 것을 말합니다
그 후에는 설명 기반 학습에 대해
이야기 해 볼 것입니다

English: 
processing information like a
bulldozer processes gravel.
Now that's not necessarily a
good model for all the kinds
of learning that humans do.
And after all, learning is one
of the things that we think
characterizes human
intelligence.
So if we were to build models
of it and understand that we
have to go down this
other branch, too.
And down this other branch we
find learning ideas that are
based on constraint.
And let's call this the
human-like side of the picture.
And we'll talk about ideas
that enable, for example,
one-shot learning, where you
learn something definite from
each experience.
And we'll talk about explanation
based learning.

English: 
By the way, do you learn
by self explanation?
I think so.
I had an advisee once, who got
nothing but A's and F's.
And I said, what are the
subjects that you get A's in?
And why don't you get A's
in all of your subjects?
And he said, oh, I get A's in
the subjects when I convince
myself the material is true.
So the learning was a byproduct
of self explanation,
an important kind of learning.
But alas, that's downstream.
And what we're going to talk
about today is this path
through the tree, nearest
neighbor learning.
And here's how it works,
in general.
Here's just a general picture
of what we're talking about.
When you think of pattern
recognition, or nearest
neighbor based learning,
you've got some sort of
mechanism that generates
a vector of features.
So we'll call this the
feature detector.

Korean: 
그나저나 여러분은 스스로에게 
설명하면서 배우십니까?
제 생각엔 그럴 것 같습니다
저에게는 A와 F만 받는
한 지도 학생이 있었습니다
그에게 어떤 과목에서
A를 받는지 물어봤습니다
그리고 왜 모든 과목에서
A를 못 받는지도 물어봤습니다
제 지도학생은, 수업자료가
사실이라고 확신이 드는 과목에서
A를 받는다고 했습니다
이와 같이 학습은 자기 설명의 
부산물과도 같은 것입니다
자기 설명은 학습의 중요한 
종류 중 하나입니다
하지만 이건 나중에 배울 것입니다
우리가 오늘 이야기 할 주제는
여기에서 바로 이 부분에 해당하는
최근접 이웃입니다
최근접 이웃이 어떤건지
얘기해 보겠습니다
여기 우리가 오늘 이야기할
전반적인 그림을 그려보죠
여러분이 패턴인식이나
최근접이웃기반 학습을 생각할 때
여러분이 패턴인식이나
최근접이웃기반 학습을 생각할 때
여러 특징의 벡터를 생성하는
메커니즘과 같은 것을 떠올립니다
이것을 특징 인식기 라고 합시다

English: 
And out comes a vector
of values.
And that vector of values
goes into a
comparator of some sort.
And that comparator compares
the feature vector with
feature vectors coming from a
library of possibilities.
And by finding the closest
match the comparator
determines what some
object is.
It does recognition.
So let me demonstrate that with
these electrical covers.
Suppose they arrived on an
assembly line and some robot
wants to sort them.
How would it go about
doing that?
Well it could easily
use the nearest

Korean: 
그리고 각 벡터값들이 있습니다
각 벡터값들은 일종의
비교측정기에 들어갑니다
이 비교측정기는 
입력된 특징 벡터값들을
가능한 벡터들의 목록에 있는
특징 벡터들과 비교합니다
이런 과정을 통해 
가장 가까운 짝을 찾음으로써
비교 측정기는 특정 물체가 
무엇인지 결정합니다
인식 이라는 걸 하는거죠
이 전기 뚜껑을 사용해
이 과정을 보여드리겠습니다
전기 뚜껑들이 조립 라인에
놓여져있고
로봇들이 이 전기 뚜껑들을 
분류하고 싶다고 가정해봅시다
로봇들이 이 분류를
어떻게 할까요?
아마 최근접 이웃 분류 방법을
사용할 것 입니다

English: 
neighbor sorting mechanism.
So how would that work?
Well here's how if would work.
You would make some
measurements.
And it we'll just make some
measurements in two
dimensions.
And one of those measurements
might be the total area,
including the area
of the holes of
these electrical covers.
Just so you can follow what I'm
doing without craning your
neck, let me see if I can find
the electrical covers.
Yes, there they are.
So we've got one big blank
one, and several others.
So we might also measure
the hole area.
And this one here, this guy
here, this big white one has
no hole area, and its got the
maximum amount of total area.
So it will find itself
at that point in
this space of features.

Korean: 
아마 최근접 이웃 분류 방법을
사용할 것 입니다
어떤 방식으로 사용할까요?
이런 식으로 사용합니다
우선 어떤 측정 지표를
만듭니다
이 측정 지표를 일단 
두 가지로 만들어보죠
이 측정 지표를 일단 
두 가지로 만들어보죠
측정 지표 중 하나는
전체 면적입니다
전체 면적은 이 전기 뚜껑들의
구멍 면적도 포함합니다
전체 면적은 이 전기 뚜껑들의
구멍 면적도 포함합니다
여러분이 잘 이해할 수 있도록
전기 뚜껑들을 보여드리겠습니다
바로 이것들입니다
이제 측정 지표 나머지 하나랑
다른 몇 가지가 더 남아 있습니다
우리는 구멍의 면적을 
측정할 수도 있습니다
여기 이것과 저것
그리고 이 큰 흰 것은
구멍 면적이 없습니다
이것은 전체 면적의 최대를 차지합니다
때문에 이것은 저 붉은 점에 위치할 것입니다
때문에 이것은 저 붉은 점에 위치할 것입니다

Korean: 
그리고 여기 네 개의 소켓이
들어갈 수 있는 전기 뚜껑이 있는데요
그리고 여기 네 개의 소켓이
들어갈 수 있는 전기 뚜껑이 있는데요
이 뚜껑은 구멍 면적이 가장 크면서
전체 면적 또한 가장 큽니다
그러면 아마 이건 여기 위치하겠군요
그리고 저 두 개뿐 아니라
이것처럼 뚜껑이 없어서
전체 면적이 다른 모든 뚜껑의
1/2 밖에 되지 않는게 있습니다
이거는 여기 둡시다
그리고 마지막으로
이런 것이 하나 더 있습니다
바로 이거에요
면적의 반이 뚜껑이고
나머지 반이 전체 면적인 것
자, 한 번 봅시다
저건 어디로 갈까요?
아마 이 부근일 겁니다
이제 우리의 로봇은
조립라인을 살펴보며
조립라인에 실려오는 물체의
면적을 측정합니다
물론 노이즈가 존재합니다
전기 뚜껑 제조를 다양하게 
할 수 있기 때문입니다
따라서 로봇의 분류가 항상
정확하지는 않을 것입니다
하지만 아마 저기 쯤이겠군요

English: 
Then we've got the guy
here, with room for
four sockets in it.
That's got the maximum amount
of hole area, as well as the
maximum amount of area.
So it will be right straight
up, maybe up here.
Then we have, in addition to
those two, a blank cover, like
this, that's got about 1/2 the
total area that any cover can
have, so we'll put
it right here.
And finally, we've got one
more of these guys.
Oh yes, this one.
1/2 the hole area, and
1/2 the total area.
So I don't know, let's see.
Where will that go?
Maybe about right here.
So now our robot is looking on
the assembly line and it sees
something coming along, and
it measures the area.
And of course, there's noise.
There's manufacturing
variability.
So it won't be precisely
on top of anything.
But suppose it's right there.

English: 
Well it doesn't take any
genius human, human or
computer, to figure out that
this must be one of those guys
with maximum area and
maximum hole area.
But now let's ask some
other questions.
Where would
[TAPPING ON CHALK BOARD], what
would that be?
Or what would this be?
[TAPPING ON CHALK BOARD],
and so on.
Well we have to figure out
what those newly viewed
objects are closest to in order
to do an identification.
But that's easy.
We just calculate the distance
to all of those standard,
platonic, ideal descriptions
of things, and we find out
which is nearest.
But in general, it's a little
easier to think about

Korean: 
이 전기 뚜껑이 최대 전체 면적과
최대 구멍 면적을 가지는 뚜껑이라고
이 전기 뚜껑이 최대 전체 면적과
최대 구멍 면적을 가지는 뚜껑이라고
분류하는데에 천재적인 인간이나
컴퓨터가 필요하진 않습니다
하지만 이런 질문을 한 번
던져보겠습니다
이것은 어디로 분류될까요?
이것은 어디로 분류될까요?
아니면 이것은 어떻게 분류될까요?
이것은요?
이제 우리는 물체 인지를 위해
저렇게 새로워 보이는 물건이
무엇과 가장 가까운지 구별해내야 합니다
이건 쉽습니다
저 모든 기준점과의 거리, 물성
물체의 이상적인 특징을 계산하면
저 모든 기준점과의 거리, 물성
물체의 이상적인 특징을 계산하면
무엇이 가장 가까운지
찾을 수 있습니다
하지만 보통은 이렇게 
생각하면 더 쉽습니다

English: 
producing some boundaries
between these various idealize
places, so that we can just
say, well which area
is the object in?
And then we'll know
instantaneously to what
category it belongs.
So if we only had two, like the
purple one and the yellow
one, it would be easy.
Because, we would just construct
a line between the
two, with a line between the
purple and yellow as a
perpendicular bisector.
And so drawing it out instead of
talking about it, if there
were only two, that would
be the boundary line.
Anything south of the dotted
line would be purple, and
anything north would
be yellow.
And now we can do this with
all the points, right?
So we can figure out-- oh could
you, Pierre, could you
just close the lap top please?
So if we want to do this with
all these guys it would go
something like this--
I better get rid of these
dotted x's before

Korean: 
이런 공간 사이에 
여러 경계선을 그린 다음
어느 영역에 물체가 
들어갈 것인지 말이죠
어느 영역에 물체가 
들어갈 것인지 말이죠
그 즉시 우리는 특정 물체가
어느 분류에 속하는지
알 수 있습니다
그래서 만약 이 보라색 점과
노란색 점, 단 두개만 있다면
분류가 쉬워집니다
왜냐하면 보라색과 노란색 사이에
수직이등분선을 그으면
둘의 경계가 만들어지기 때문이죠
그래서 만약 뚜껑이 
두 개밖에 없다면
그 자체가 경계선이
되는 것입니다
점선 아래에 있는 것은
다 보라색이 되고
점선 위에 있는 것은
다 노란색이 되는 것이죠
우리는 이제 이 방법을 모든 부분에
사용할 수 있습니다, 맞죠?
피에르 노트북 좀 닫아줄래요?
피에르 노트북 좀 닫아줄래요?
모든 전기 뚜껑 분류에
이 방법을 사용하고자 한다면
이런 방식으로 일어날 겁니다
헷갈리기 전에

Korean: 
점으로 된 x 들을 
지우는 게 낫겠군요
자 봅시다. 이 두 점만
존재한다면
우리는 그 사이에 
수직이등분선을 그을 수 있습니다
우리는 그 사이에 
수직이등분선을 그을 수 있습니다
이 두 개의 점이 전부라면
저는 이렇게 수직이등분선을
긋겠습니다
그리고 이 두 개의 점이 전부라면
저는 이렇게 수직이등분선을
긋겠습니다
그리고 이 두 개의 점이 전부라면
저는 이런 선을
오, 제가 뭘 하고 있는지
알아차리셨나요?
저는 수직이등분선을 
긋고 있는 중입니다
그리고 이 수직이등분선들은
이 공간을 나누는데
필요한 선입니다
최종적으로 이 공간은
이렇게 나뉘어집니다
이런 걸 시험에 출제한다고
말씀드리지는 않겠지만
지난 10년동안 매 번 
이런 문제가 시험에 나왔습니다
공간을 나누고 무언가를
생성해내기 위해
이름을 부여해봅시다

English: 
they confuse me.
Let's see, if these were the
only two points, then we would
want to construct a
perpendicular bisector between
the line joining them.
And if these two were the only
points, I would want to
construct this perpendicular
bisector.
And if these two were the only
points, I would want to
construct a perpendicular
bisector.
And if these two points were
the only ones involved I'd
want to construct--
oh, you see what I'm doing?
I'm constructing perpendicular
bisectors, and those are
exactly the lines that
I need in order to
divide up this space.
And it's going to divide
up like this.
And I won't say we'll give you
a problem like this on an
examination, but we have every
year in the past ten.
To divide up a space
and produce--
something we would like
to give a name.

Korean: 
이름을 부여한 것의
권위를 갖게 된다는
럼펠스틸스킨 효과 아시죠
이것들을 결정 경계 라고
명명합시다
이것들은 샘플 공간에 생성된
단순한 결정 경계입니다
간단한 아이디어로부터
만들어졌죠
하지만 결정 경계에 대해 아직 좀 더
이야기할 게 남아 있습니다
왜냐하면 저는 무엇인가를 
식별하는 용도로만
결정 경계를 설명했기 때문입니다
결정 경계에 대해 매우 중요한
또다른 용도가 있습니다
결정 경계에서 매우 중요한
또다른 용도가 있습니다
바로 이것인데요
제가 이전에는 보지 못했던
새로운 전기 뚜껑을 가져와서
오로지 구멍 면적만
측정했다고 합시다
오로지 구멍 면적만
측정했다고 합시다
그리고 그 구명 면적이
이 정도 값을 가진다고 한다면

English: 
You know, Rumpelstiltskin
effect, when you have a name
you get power over it.
So we're going to call these
decision boundaries.
OK so those are the simple
decision boundaries, produced
in a sample space,
by a simple idea.
But there is a little bit
more to say about this.
Because, I've talked about this
as if we're trying to
identify something.
There's another way of thinking
about it that's
extremely important.
And that is this.
Suppose I come in with a brand
new cover, never before seen.
And I only measure, well
let's say I only
measure the hole area.
And the hole area
has that value.

Korean: 
전체 면적에 가장 가까운 값은
무엇이 될 것 같습니까?
저는 잘 모르겠습니다
다만, 만약 어떤 게 
특정 면에서 유사하다면
다른 면에서도 유사할 것이라는
약한 원칙같은 게 있습니다
다른 면에서도 유사할 것이라는
약한 원칙같은 게 있습니다
이 원칙을 토대로 추측해보자면,
전체 면적은
저 오렌지색 점의 전체 면적과
유사할 것입니다
이 전기 커버 예시는
굉장히 억지스러워서
더 이상 얘기하지 않겠습니다
다만, 저는 저기 첫 번째 원칙에 대해
많이 이야기하고 싶습니다
다만, 저는 저기 첫 번째 원칙에 대해
많이 이야기하고 싶습니다
첫 번째 원칙이라 함은,
어떤 게 특정 면에서 유사하다면
다른 면에서도 유사할 것이라는
원칙입니다
왜냐하면 대부분의 교육에
이 원칙이 적용되기 때문입니다
동화, 법률 사건, 의료 사건
경영 사건 등등
만약 여러분이 처한 상황에서
특정 부분과 유사한 무언가를 본다면
만약 여러분이 처한 상황에서
특정 부분과 유사한 어떠한 걸 본다면
그 무언가는 다른 부분에서도 
유사할 것입니다

English: 
What is the most likely
total area?
Well I don't know.
But there's a kind of weak
principle of, if something is
similar in some respects,
it's likely to be
similar in other respects.
So I'm going to guess, if you
hold a knife to my throat and
back me into a corner, that it's
total area is going to be
something like that orange
cover whole, total area.
So this is a contrived example,
and I don't make too
much of it.
But I do want to make
a lot of that first
principal, over there.
And that is the idea that, if
something is similar in some
respects, it's likely to be
similar in other respects.
Because that's what most
of education is about.
Fairy tales, legal
cases, medical
cases, business cases--
if you can see that there are
similar in some respects to a
situation you've got now, then
it's likely that they're going
to be similar in other
respects, as well.

English: 
So when we're learning, we're
not just learning to recognize
a category, we're learning
because we're attempting to
apply some kind of precedent.
That's the story on that.
Well that's a simple idea but
does it have any application?
The answer is sure.
Here's an example.
My second example, the example
of cell identification.
Suppose you have some
white blood cells,
what might you do?
You might measure the total
area of the cell.
And not the hole area, but
maybe the nucleus area.
And maybe you might measure four
or five other things, and
put this thing in a high
dimensional space.
You can still measure
the nearness in a
high dimensional space.
So you can use the
idea to do that.
It works pretty well.
A friend of mine once started a
company based on this idea.
He got wiped out, of course,
but it wasn't his fault.
What happened is that somebody
invented a better stain and it
became much easier
to just do the

Korean: 
그래서 우리가 학습할 때
분류를 인식하는 것만을 배우는 게 아니라
그래서 우리가 배울 때
분류를 인식하는 것만을 배우는 게 아니라
선행 사건을 현재에 적용하려고
시도하는 학습이 일어나는 것입니다
그런겁니다
이러한 단순한 원칙을
적용하는 분야가 있을까요?
물론입니다
예시를 들어보겠습니다
세포 인식에 관한 예시입니다
여러분이 백혈구를 가지고 
있다고 가정해봅시다
여러분은 무엇을 할 것입니까?
아마 세포 전체 면적을
측정하거나
구멍 면적이 아니라 
핵 면적을 측정하거나
이 외 여러 가지 것들을 
측정할 것입니다
그 후 그 측정값들을
고차원 공간에 넣겠죠
여러분은 이 고차원 공간 내
거리 역시 측정할 수 있습니다
여러분은 이 고차원 공간 내
거리 역시 측정할 수 있습니다
이렇게 단순한 방법을
사용할 수 있습니다
꽤나 잘 사용되는 방법이죠
제 친구가 이 방법을 바탕으로 
회사를 차린 적이 있었습니다
물론 회사는 망했습니다만
친구의 잘못이 아니었습니다
무슨 일이 일어난 것이냐면
누군가가 더 나은 기술을 개발했고
억지 기법만으로 얼굴 인식을 
하는게 더 쉬워진 것입니다

Korean: 
억지 기법만으로 얼굴 인식을
하는게 더 쉬워진 것입니다
저는 두 개의 예시를 
소개했습니다
처음에 말했던 전기 뚜껑의 예시와
세포의 예시였습니다
저는 어떠한 생각이 여러분이
예상치 못한 곳에서
모양을 바꿔 다시 나타날 수 있다는 것을
보여드리고자 합니다
모양을 바꿔 다시 나타날 수 있다는 것을
보여드리고자 합니다
다음 문제를 생각해봅시다
여러분은 잡지 기사
여러 개를 갖고 있습니다
그리고 여러분은 특정 문제를
접근하는 방식을 배우고자 합니다
그리고 여러분은 특정 문제를
접근하는 방식을 배우고자 합니다
여러분은 자신의 질문과 관련있는
기사를 어떻게 찾으시겠습니까?
여러분은 자신의 질문과 관련있는
기사를 어떻게 찾으시겠습니까?
이것은 정보 검색에 관심있는 사람들이
수 십 년간 연구해온 수수께끼입니다
여기 간단한 방법이 있습니다
저는 다시 한번 두 개의 지표를
그리겠습니다

English: 
recognition by brute force.
So let's see, that's
two examples.
the introductory example of the
holes of the electrical
covers, and the example
of cells.
And what I want to do now is
show you how the idea can
reappear in disguised forms in
areas where you might not
expect to see it.
So consider the following
problem.
You have a collection of
articles from magazines.
And you're interested in
learning something about how
to address a particular
question.
How do you go about finding the
articles that are relevant
to your question?
So this is a puzzle that has
been studied for decades by
people interested in information
retrieval.
And here's the simple
way to do it.
I'm going to illustrate, once
again, in just two dimensions.

Korean: 
하지만 이 지표들은 여러 지표들에
적용될 수 있어야 합니다
여러분은 각 잡지기사의 단어 수를 센 다음
그 단어 수를 해결하고자 하는 
질문의 단어 수와 비교하면 됩니다
그 단어 수를 해결하고자 하는 
질문의 단어 수와 비교하면 됩니다
여러분이 단어 100개에 
관심 있다고 해봅시다
저는 칠판에 두 단어만 적겠습니다
우리는 두 개의 잡지에서 나온
기사에 대해 생각해 볼 것입니다
일단, 우리가 사용할 
단어는 무엇입니까?
단어 하나는 hack 이라고 합시다
이 단어는 hacker, hacking 과 같은
파생어를 포함합니다
다른 단어는 컴퓨터라고 합시다
고로, 컴퓨터 공학 잡지에서 나온 기사들이
이 공간에 위치한다는 것에 대해
당연하게 생각할 것입니다

English: 
But it has to be applied in
many, many dimensions.
The idea is you count up the
words in the articles in your
library, and you compare the
word counts to the word counts
in your probing question.
So you might be interested
in 100 words.
I'm only going to write two on
the board for illustration.
So we're going to think about
articles from two magazines.
Well first of all, what words
are we going to use?
One word is going to be hack,
and that will include all
derivatives of hack-- hacker,
hacking, and so on.
And the other word is going
to be computer.
And so it would not be
surprising for you to see that
articles from Wired Magazine
might appear
in places like this.

Korean: 
이 공간에 있는 기사들은 
컴퓨터와 hack 단어를
많이 사용한다는 것을 의미합니다
뚜렷한 차이를 보여드리기 위해
선택할 다음 잡지는
도시와 시골 이라는 잡지입니다
이건 매우 멋진 잡지입니다
이 잡지를 읽은 사람들은
사회적 기생충이 될 정도로 말이죠
이 잡지를 읽은 사람들은
사회적 기생충이 될 정도로 말이죠
이 잡지 역시 
hack 단어를 사용합니다
왜냐하면 말을 다루는 전문용어에
hacking 이라는 단어가 있기 때문입니다
그러므로 도시와 시골 잡지에서 
나온 모든 기사는
여기 이 부근에 위치할 것 같습니다
그리고 이 잡지에서 컴퓨터 전문가를 고용해
주간 사냥 결과를 추적한 기사가 있다면
그 기사는 여기 즈음 위치하겠죠
이제 여러분이 탐색하고자 하는
질문이 있습니다
물론 여러분의 탐색 질문은
상대적으로 단어 수가 적겠죠

English: 
They would involve lots of uses
of the word computer, and
lots of uses of the word hack.
And now for the sake of
illustration, the second
magazine from which we are going
to draw articles is Town
and Country.
It's a very tony magazine, and
the people who read out Town
and Country tend to be
social parasites.
And they still use
the word hack.
Because you can talk about
hacking, there's some sort of
specialize term of art in
dealing with horses.
So all the Town and Country
articles would be likely to be
down here somewhere.
And maybe they would be one like
that when they talk about
hiring some computer expert to
keep track of the results so
the weekly hunt, or something.
And now, in you come
with your probe.
And of course your probe
question is going to be

English: 
relatively small.
It's not going to have
a lot of words in it.
So here's your here's
your probe question.
Here's your unknown.
Which article's going
to be closest?
Which articles are going
to be closest?
Well, alas, all those Town and
Country articles are closest.
So you can't use the nearest
neighbor idea, it would seem.
Anybody got a suggestion
for how we might
get out of this dilemma?
Yes, Christopher.
CHRISTOPHER: If you're looking
for word counts and you want
to include some terms of
computer, then wouldn't you
want to use that as a threshold,
rather than the
nearest neighbor?
PROF.
PATRICK WINSTON: I don't
know, it's a good idea.
It might work, who knows.
Doug?
DOUG: Instead of using decision
boundaries that are
perpendicular bisectors, if you
treated Wired and Town and
Country as sort of this
like, [INAUDIBLE]

Korean: 
물론 여러분의 탐색 질문은
상대적으로 단어 수가 적겠죠
많은 단어가 있지는 않을 것입니다
여러분의 탐색 질문은 이곳에 위치합니다
여러분의 탐색 질문은 이곳에 위치합니다
어느 기사가 가장 가까이에 있습니까?
어느 기사가 가장 가까이에 있습니까?
아마 도시와 시골 잡지 기사가
가장 가깝겠군요
여기서는 최근접 이웃 방식을
사용하지 못하는 것처럼 보입니다
최근접 이웃 방식을 사용할 수 있게 하는
아이디어가 있는 학생 있나요?
크리스토퍼
교수님이 단어 수를 살펴보고자 하고
컴퓨터 관련 단어를 포함하고 싶다면
최근접 이웃을 사용하는 대신
단어 자체를 역치로 사용하는게 낫지 않나요?
최근접 이웃을 사용하는 대신
단어 자체를 역치로 사용하는게 낫지 않나요?
잘 모르겠지만, 좋은 생각 같군요
잘 모르겠지만, 좋은 생각 같군요
이 학생 말이 맞을 수 있습니다
더그?
잡지 기사들을 분류하는데
수직이등분선 대신 두 개의 잡지 자체를
결정 경계와 같이 사용하는 건 어떨까요?

English: 
targets.
And they would look like some
[? great radial ?], here.
I guess, some radius
around curves.
If it's within a certain
radius then--
PROF.
PATRICK WINSTON: Yes?
[? SPEAKER 1: Are we, ?]
necessarily, have it done with
some sort of a
[? politidy distance ?]
metric?
PROF.
PATRICK WINSTON:
Oh, here we go.
We're not going to use any
[? politidy distance ?]
metric.
We're going to use some
other metric.
SPEAKER 1: Like alogrithmic,
or whatnot?
PROF.
PATRICK WINSTON: Well,
algorithmic,
gees, I don't know.
[LAUGHTER]
PROF.
PATRICK WINSTON: Let
me give you a hint.
Let me give you a hint.
There are all those articles up
there, out there, and out
there, just for example.
And here are the Town and
Country articles.
They're out there, and out
there, for example.
And now our unknown
is out there.
Anybody got an idea now?
Hey Brett, what do you think?
BRETT: So you sort of
want the ratio.
Or in this case, you can
take the angle--
PROF.

Korean: 
결정 경계와 같이 사용하는 건 어떨까요?
잡지를 사용해 만든 결정 경계들은
곡선의 반지름처럼 그려질 것 같아요
그래서 특정 반지름 안에 잡지 기사가 있다면
(웃음소리)
계속 말해주세요
잡지들 자체가
일종의 측정 지표가 될 수 있지 않나요?
일종의 측정 지표가 될 수 있지 않나요?
일종의 측정 지표가 될 수 있지 않나요?
아, 한 가지 말씀드리자면
우리는 곡선 지표가 아닌
우리는 곡선 지표가 아닌
다른 지표를 사용할 것입니다
알고리즘 같은 거요?
알고리즘이라, 어휴, 저도 모르겠어요
알고리즘이라, 어휴, 저도 모르겠어요
알고리즘이라, 어휴, 저도 모르겠어요
(웃음소리)
제가 힌트 하나 드리겠습니다
제가 힌트 하나 드리겠습니다
제가 힌트 하나 드리겠습니다
컴퓨터 공학 잡지의 모든 기사들은
여기 있구요
도시와 시골 잡지 기사들은
여기 있습니다
그리고 여기 우리의 탐색 질문이 있죠
자, 이제 뭔가 떠오르는 학생 있나요?
브렛, 어떻게 생각하죠?
교수님은 비율 같은 걸 원하거나
아니면 이 경우에는 각도를 재는거죠
아니면 이 경우에는 각도를 재는거죠

Korean: 
아, 좀 더 정교해지고 있군요
아, 좀 더 정교해지고 있군요
무엇 사이의 각도죠?
벡터 사이의 각도요
벡터 사이의 각도요
벡터 말이죠
좋습니다
우리는 다른 지표를 사용할 겁니다
기하학적 거리는 잊고
벡터 사이의 각도를
측정할 것입니다
벡터 간 각도는 실제로
벡터 간 각도의 코사인값을 측정하는 겁니다
어떻게 계산할 수 있는지 봅시다
일단 벡터 간 각도에 코사인을 취합니다
이 각도를 세타 라고 합시다
이건 미지수에 잡지 기사를 
곱한 값들의 합과 동일합니다
이건 미지수에 잡지 기사를 
곱한 값들의 합과 동일합니다
저것들은 여러 차원에 
존재하는 값에 불과합니다
그리고 이것을 다른 
벡터들의 크기로 나눕니다
그리고 이것을 다른 
벡터들의 크기로 나눕니다
벡터 u 의 크기로 나누고

English: 
PATRICK WINSTON: Let's be-- ah,
there we go, we're getting
a little more sophisticated.
The angle between what?
BRETT: The angle between
the vectors.
PROF.
PATRICK WINSTON: The vectors.
Good.
So we're going to use
a different metric.
What we're going to do is,
we're going to forget
including a distance, and we're
going to measure the
angle between the vectors.
So the angle between the
vectors, well let's actually
measure the cosine of the angle
between the vectors.
Let's see how we can
calculate that.
So we'll take the cosine of the
angle between the vectors,
we'll call it theta.
That's going to be equal to the
sum of the unknown values
times the article values.
Those are just the values
in various dimensions.
And then we'll divide that
by the magnitude
of the other vectors.
So we'll divide by the magnitude
of u, and we'll

English: 
divide by the magnitude of the
art vector to the article.
So that's just the dot
product right?
That's a very fast
computation.
So with a very fast computation
you can see if
these things are going to be
in the same direction.
By the way, if this vector here
is actually identical to
one of those articles, what
will the value be?
Well then a cosine will be 0 and
we'll get the maximum die
of the cosine, which is 1.
Yeah, that will do it.
So if we use any of the articles
to probe the article
space, they'll find themselves,
which is a good
thing to have a mechanism do.
OK.
So that's just the dot product
of those two vectors.
And it works like a charm.
It's not the most sophisticated
way of doing
these things.
There are hairy ways.
You can get a Ph.D. by doing
this sort of stuff in some new
and sophisticated way.
But this is a simple way.

Korean: 
잡지 기사 벡터 크기로 나눕니다
단순 벡터 내적 연산이 되었습니다
매우 빠른 계산법이죠
이렇게 빠른 계산법으로
이것들이 같은 방향으로 
가는지 볼 수 있습니다
한편, 여기 이 벡터가
다른 잡지기사의 벡터와 사실상 같다면
그 벡터값은 무엇이 될까요?
코사인값은 0 이 되고
최대 코사인값인 1을 얻습니다
네, 그렇게 됩니다
그래서 만약 잡지 기사 공간을 살펴보기 위해
아무 잡지 기사를 사용한다면
그 기사들은 자기 자신을 찾을 것입니다
매우 유용한 방법이죠
좋습니다
저건 단지 두 벡터의 내적 연산이었습니다
저 계산은 마법처럼 작동합니다
내적 계산은 가장 정교한 방법이 아니며
내적 계산은 가장 정교한 방법이 아니며
다른 복잡한 방법들도 있습니다
다른 새롭고 정교한 방법을 찾을 때
박사학위를 취득할 수 있습니다
그러나 이게 단순한 방법입니다

English: 
It works pretty well.
And you don't have to strain
yourself, much,
to implement it.
So that's cool.
That's an example where
we have a very
non-standard metric.
Now let's see, what
else can we do?
How about a robotic
arm control?
Here we go.
We're going to just
have a simple arm.
And what we want to do is, we
want to get this arm to move
that ball along some trajectory
at a speed,
velocity, and acceleration
that we have determined.
So we've got two
problems here.
Well let's see, we've got two
problems because, first of
all, we've got angles,
theta 1 and theta 2.

Korean: 
꽤나 잘 쓰이죠
그러니 적용 분야에 제한을 두지 마세요
그러니 적용 분야에 제한을 두지 마세요
멋있죠
이제까지 비표준 측정 지표의 
예시를 보았습니다
이제까지 비표준 측정 지표의 
예시를 보았습니다
자, 또 무얼 할 수 있을까요
로봇 팔 제어는 어떻습니까?
봅시다
여기 팔이 있는데,
이 팔이 저 공을
지정한 속력, 속도, 가속도로
특정 궤도를 따라 움직이게 하고 싶습니다
여기에는 두 가지 문제가 있습니다
첫 번째 문제는 2 개의 각도,
세타 1과 세타 2가 있다는 겁니다
첫 번째 문제는 2 개의 각도,
세타 1과 세타 2가 있다는 겁니다

English: 
It's a 2 degree of 3 of arm, so
there are only two angles.
So the first problem we have
is the kinematic problem of
translating the (x,y)-cordinates
of the ball,
the desired ones, into the
theta 1, theta 2 space.
That's simple kinematic
problem.
No f equals ma there.
It Doesn't involve forces,
or time, or
acceleration, anything.
Pretty simple.
But then we've got the problem
of getting it to go along that
trajectory with positions,
speeds, and
accelerations that we desire.
And now you say to me, well I've
got 801, I can do that.
And that's true, you can.
Because, it's Newtonian
mechanics.
All you have to do is
solve the equations.

Korean: 
오직 두 개의 각도만 있습니다
그래서 우리의 첫 번째 문제는
x, y 좌표상의 공 운동을
세타 1, 세타 2 공간으로
변형해야 한다는 것입니다
이건 간단한 운동학적 문제입니다
F = ma 같은게 아닙니다
힘이나 시간, 가속도와 같은 건 필요 없습니다
힘이나 시간, 가속도와 같은 건 필요 없습니다
매우 간단합니다
하지만 이제 이 공을 저 궤도를 따라
원하는 위치, 속도, 가속도로
움직여야 한다는 문제를 갖게 됩니다
원하는 위치, 속도, 가속도로
움직여야 한다는 문제를 갖게 됩니다
여러분은 저한테 이렇게 말할 수 있겠죠
저는 801이 있으니까 할 수 있어요
맞습니다, 할 수 있어요
왜냐하면 이건 뉴턴 역학이기 때문입니다
여러분은 방정식을 풀기만 하면 됩니다

English: 
There are the equations.
Good luck.
Why are they so complicated?
Well because of the complicated
geometry.
You notice we've got some
products of theta 1 and theta
2 in there, somewhere,
I think?
You've got theta 2's.
I see an acceleration squared.
And yeah, there's a theta 1
dot times a theta 2 dot.
A velocity times a velocity.
Where the hell did
that come from?
I mean it's supposed to
be f equals ma, right?
Those are Coriolis forces,
because of
the complicated geometry.
OK.
So you hire Berthold Horn, or
somebody, to work these
equations out for you.
And he comes up with something
like this.
And you try it out and
it doesn't work.
Why doesn't it work?
It's Newtonian mechanics,
I said.
It doesn't work because we
forgot to tell Berthold that
there's friction in
all the joints.
And we forgot to tell him that
they've worn a little bit

Korean: 
저 방정식을 말이죠
화이팅
저 방정식들은 왜 저렇게 복잡합니까?
복잡한 기하학 때문입니다
저 식 어딘가에 세타 1과 세타 2를 곱한 값이
있다는 것은 알아차리신 것 같습니다
저기 세타 2 가 있습니다
가속도의 제곱값도 보이네요
그리고 저기 세타 1 점 곱하기 
세타 2 점이 있네요
속도 곱하기 속도입니다
저것들은 도대체 어디서 온 걸까요?
저것들은 F = ma 여야 하는데 말이죠
저것들은 복잡한 기하학에서 비롯된
코리올리의 힘입니다
좋아요
여러분은 저명한 학자를 고용해
방정식을 풀게 할 수도 있습니다
그러면 그는 이런 해답을 내놓겠죠
그러면 여러분이 풀고자 하지만
풀리지 않습니다
왜 풀리지 않나요?
제가 말씀드렸듯이 이건 
뉴턴 역학이기 때문입니다
우리가 그 저명한 학자에게
팔 관절에 마찰이 있다는 걸
말하지 않아서 방정식이 안풀리는 것입니다
우리가 그 저명한 학자에게
어제부터 팔이 조금씩 닳았다고

Korean: 
말하지 않아서 입니다
우리가 그 저명한 학자에게
우리가 만든 측정지표가
정교하지 않다고 말하지 않아서 입니다
그래서 사람들은 이렇게 결론내렸습니다
이 방정식은 그냥 풀리지 않는다고 말이죠
여러분이 다른 질량의 공을 가질 때마다
처음부터 다시 해야 합니다
여러분이 다른 질량의 공을 가질 때마다
처음부터 다시 해야 합니다
끔찍한 일입니다
정말 모르겠습니다
이런 일을 수월하게 할 수 있으면서
이 방정식들을 풀지 않아도 
되는 방법이 있습니다
그 방법을 설명해보죠
우리는 시간에 대한 것을
무시하고
거대한 표를 작성하는 것에 대해
이야기 할 것입니다
거대한 표를 작성하는 것에 대해
이야기 할 것입니다
그 거대한 표 위에서 일어나는 
일은 다음와 같습니다
세타 1, 세타 2, 세타 3, 오,
두 개만 있다고 했죠
다시 세타 1이 있습니다
이 세타 1은 각속도 입니다
그리고 가속도가 있죠
우리는 각속도와 가속도가 있는
큰 표를 갖고 있습니다
그리고 이 팔을 어린 시절의
자신에게 주어

English: 
since yesterday.
And we forgot that the
measurements we make on the
lab table are not
quite precise.
So people try to do this.
It just doesn't work.
As soon as you get a ball of a
different weight you have to
start over.
It's gross.
So I don't know.
I can do this sort of thing
effortlessly, and I couldn't
begin to solve those
equations.
So let's see.
What we're going to do is we're
going to forget about
the problem for a minute.
And we're going to talk
about building
ourselves a gigantic table.
And here's what's going
to be on the table.
Theta 1, theta 2, theta 3,
oops, there are only two.
So that's theta 1 again,
but it's the
velocity, angular velocity.
And then we have the
accelerations.
So we're going to have a big
table of these things.
And what we're going to
do, is we're going to

Korean: 
그리고 이 팔을 어린 시절의
자신에게 주어
매 1000분의 1초마다
가능한 조합을 모두 적도록 합니다
매 1000분의 1초마다
가능한 조합을 모두 적도록 합니다
그러면 요람에서 아이가 장난치듯
팔이 흔들어 지겠죠
아직 여기서 끝이 아닙니다
우리가 기록해야 할 게
두 개 더 있습니다
무엇인지 감이 오시나요?
바로 첫 번째 모터의 토크와
두 번째 모터의 토크입니다
자 이제, 우리는 이 모든 것의 
기록을 갖고 있습니다
이 기록으로 무얼 하겠습니까?
무얼 하는지 설명하겠습니다
우리는 우리가 원하는 이 궤도를 
작은 조각으로 나눌 겁니다
우리는 우리가 원하는 이 궤도를 
작은 조각으로 나눌 겁니다
그럼 저렇게 작은 조각이 생기죠
저 작은 조각 안에서는
변화가 크게 일어나지 않습니다
가속도, 속도, 위치말입니다
가속도, 속도, 위치말입니다

English: 
give this arm a childhood.
And we're going to write down
all the combinations we ever
see, every 100 milliseconds,
or something.
And the arm is just going to
wave around like a kid does in
the cradle.
And then, we're not
quite done.
Because there are two other
things we're going to record.
Can you guess what they are?
There are going to be the torque
on the first motor, and
the torque on the
second motor.
And so now, we've got a whole
bunch of those records.
The question is, what do
we got to do with it?
Well here's what we're
going to do it.
We're going to divide this
trajectory that we're hoping
to achieve, up into
little pieces.
And there's a little piece.
And in that little
piece nothing is
going to change much.
There's going to be an
acceleration, velocity, position.

English: 
And so we can look those
up in the table that
we made in the childhood.
And we'll look around and find
the closest match, and this
will be the set of values for
the positions, velocities, and
accelerations that are
associated with that
particular movement.
And guess what we can do now?
We can say, in the past, the
torques associated with that
particular little piece of
movement lie right there.
So we can just look it up.
Now this method was thought
up and rejected, because
computers weren't
powerful enough.
And then, this is the age
of recycling, right?
So the idea got recycled when
computers got strong enough.
And it works pretty well,
for things like this.
But you might say to me, well
can it do the stuff that we
humans can do, like this?

Korean: 
그리고 우리는 아까 만들어놓은 표에서
가속도, 속도, 위치를 찾을 수 있습니다
이런 방식으로 가장 가까운 값을 찾으면
그게 바로 특정 움직임에 관련된
위치와 속도와 가속도 값이 되는 것입니다
위치와 속도와 가속도 값이 되는 것입니다
이제 무얼 할 수 있는지 감이 오시나요?
어떤 움직임의 특정 조각과 관련된 토크가 
과거에 저기 있었다고 말할 수 있습니다
어떤 움직임의 특정 조각과 관련된 토크가 
과거에 저기 있었다고 말할 수 있습니다
그러므로 우리는 그저 찾기만 하면 됩니다
컴퓨터가 그다지 강력하지 않았을 시기에는
이 방법이 받아들여지지 않았습니다
그러나 지금은 재활용의 시대입니다, 맞죠?
이 방법은 컴퓨터가 강력해지자
다시 떠오르기 시작했고
이런 문제들에 꽤나 잘 쓰이게 됩니다
하지만, 이렇게 인간이 할 수 있는 일을
이 방법으로 할 수 있을지에 대한 
궁금증이 생길 수 있습니다

English: 
And the answer is, let's look.
So this is a training
phase, it's
going through its childhood.
You see what's happening
is this.
The initial table won't
be very good.
But that's OK.
Because there are only a small
number of things that it's
important for you to
be able to do.
So when you try those
things it's still
writing into the table.
So the next time you try that
particular motion, it's going

Korean: 
어떤지 일단 한 번 봅시다
이건 훈련기입니다
유년기를 지나고 있죠
무슨 일이 일어나는지 보일 겁니다
초기 표는 그다지 좋지 않습니다만
괜찮아요
왜냐하면 여러분이 할 수 있는 일도
별로 없기 때문이죠
왜냐하면 여러분이 할 수 있는 일도
별로 없기 때문이죠
그래서 여러분이 저러한 일을 할 때에도
여전히 표를 적고 있을 겁니다
다음에 특정 움직임을 할 때에는
표 작성이 좀 더 나아질 겁니다

Korean: 
왜냐하면 기존에 작성된 표에
새로운 내용을 덧붙이기만 
하면 되기 때문이죠
새로운 내용을 덧붙이기만 
하면 되기 때문이죠
그래서 이게 점점 가면 갈수록
더 좋아질수 밖에 없는 것입니다
제가 했던 것만큼이나 좋습니다
꽤 괜찮습니다, 그렇지 않나요?
이 동영상 끝부분에 
재미로 보여드리고 싶은게 있는데요
이 동영상 끝부분에 
재미로 보여드리고 싶은게 있는데요
여러분 중에 조로 영화 본 분 계시죠?
이 로봇 팔이 채찍질 사용을 학습하는데
일어난 일입니다

English: 
to be better at it, because
its got better stuff to
interpolate [? amongst ?]
in that table.
So that's why this thing is
getting better and better as
it goes on.
That's as good as I was doing.
Pretty good, don't you think?
There's just one thing I want
to show at the end of this
clip just for fun.
Maybe you've seen some
old Zorro movies?
So here's a little set up where
this thing has learned
to use a lash.

Korean: 
채찍이 있고, 저 아래 촛불이 있습니다
한 번 보시죠
꽤 잘 학습합니다, 그렇지 않나요?
그러면 이 학습이 얼마나 빨리 일어날까요?
다른 슬라이드로 돌아가서 알려드리겠습니다
여기 학습 속도가 얼마나 빨라지는지에 대한
그래프가 있습니다. 급격히 빨라지죠.
저건 어떠한 훈련도 하지 않은 로봇팔이
직선을 얼마나 잘 따라가는지에 대한
곡선 그래프입니다
그리고 약간의 훈련을 시키면
더 나은 값을 갖죠
제 생각에 이것은 꽤나 멋있는 것 같습니다
간단하지만, 효과적이죠
하지만 여러분 중 누군가는 여전히
이 방식은 특별한 경우에만 가능한 것이라고
말할 수도 있습니다
저는 늙은 윈스턴이 커피를 마실 때
이 방식을 사용했는지 궁금합니다
저는 늙은 윈스턴이 커피를 마실 때
이 방식을 사용했는지 궁금합니다

English: 
So here's the lash, and there's
a candle down there.
So watch this.
Pretty good, don't you think?
So how fast does the learning
take place?
Let me go back to that other
slides and show you.
So here's some graphs to show
you how fast goes, boom.
That gives you the curves of how
well the robot arm can go
along a straight line, after
no practice with just some
stuff recorded in the memory.
And then with a couple of
practice runs do give it
better values amongst which
to interpolate.
So I think that's pretty cool.
So simple, but yet
so effective.
But you still might say, well,
I don't know, it might be
something that can be done
in special cases.
I wonder if old Winston uses
something like that when he
drinks his coffee?
Well we' ought to
do the numbers

English: 
and see if it's possible.
But I don't want to
use coffee, it's
the baseball season.
We're approaching the
World Series.
We might as well talk about
professional athletes.
So let's suppose that this
is a baseball pitcher.
And I want to know how much
memory I'll need to record a
whole lot of pitches.
Is there a good pitcher
these days?
The Red Socks suck so I
don't do Red Socks.
Clay Buchholz, I guess.
I don't know, some pitcher.
And what we're going to do, is
we're going to say for each of
these little segments
were going to record
100 bytes per joint.
And we've got joints
all over the place.
I don't know how many are
involved in doing a baseball
pitch, but let's just say
we have had 100 joints.

Korean: 
일단 그게 가능한지 한 번 봅시다
일단 그게 가능한지 한 번 봅시다
하지만 커피를 사용하고 싶진 않네요
야구 시즌이잖아요
세계 선수권으로 주제를 바꿔봅시다
우리는 아마 프로 선수들에 대한
이야기를 하겠죠
그렇다면, 이게 야구 투수라고
가정해봅시다
그리고 저는 모든 투구의 수를
기록하는데에
메모리가 얼마나 필요한지
알고 싶습니다
요즘 좋은 투수가 누가 있죠?
레드삭스팀은 못하니까
레드삭스팀은 제외합시다
제 생각에는 클레이 벅홀츠가
좋은 투수 같군요
모르겠어요, 아무 투수라고 합시다
그리고 우리가 할 일은, 이 수 많은
작은 조각들이
연결 부위 당 100 바이트를 
기록하도록 하는 것입니다
우리는 모든 연결 부위 정보를 갖고 있습니다
야구공을 던질 때 얼마나 많은 관절이
필요한지는 잘 모르겠습니만
일단 100개의 관절이 필요하다고 해봅시다

Korean: 
그리고 우리는 야구공 던지기의 과정을
작은 조각으로 나눠야 합니다
빠른 진행을 위해
100개의 조각이 있다고 합시다
투수가 하루에 얼마나 공을 던지나요?
뭐라고요?
하루에 던지는 수요?
하루에 던지는 수요?
네, 하루에 던지는 공의 수요
대략 100개 정도 됩니다
모두가 100 개 정도의
공을 던진다는 것을 압니다
그래서 저는, 한 명의 투수가 
그의 일생 동안 던지는
모든 투구 수를 기록하는데
메모리가 얼마나 필요한 지 알고 싶습니다
그걸 알기 위해 좀 더 질문을 해보죠
1년에 몇 일 동안 투수가 공을 던집니까?
겨울 야구 시즌도 있으니
대략 100개라고 해봅시다
잘 모르겠습니다만, 100개보다 좀 더 많을 수도 있고

English: 
And then we have to divide
the pitch up
into a bunch of segments.
So let's just say for sake
of argument that
there are 100 segments.
And how many pitches does a
pitcher throw in a day?
What?
SPEAKER 2: In a day?
PROF.
PATRICK WINSTON:
In a day, yeah.
This, we all know,
is about 100.
Everybody knows that
they take them out
after about 100 pitches.
So what I want to know is how
much memory we need to record
all the pitches a pitcher
pitches in his career.
So we still have to work on
this little bit more.
How many days a year does
a pitcher pitch?
Well, they've got winter ball,
and that sort of thing, so
let's just approximate
it as 100.
I don't know, some of these may
be a little high, some of

English: 
the others may be a low.
And of course, the career--
just to make things easy--
is 100 years.
So that's one, two, three,
four, five, six.
So we have 10 to
the 12th bytes.
Is that the hopelessly
big to store in here?
CHRISTOPHER: 10 to 100
[INAUDIBLE] or
just 100 times throwing?
PROF.
PATRICK WINSTON: 100
pitches in a day--
Christopher's asking
some detail--
and what we're gong to do
is we're going to record
everything there is to know
about one pitch, and then
we're going to see how
many pitches, he
pitches in his lifetime.
And we're going to
record all that.
Trust me.
Trust me.
OK. so we want to know if this
is actually a practical scale.
And this, by the way, is
cocktail conversation, who
knows, right?
But it's useful to work out
these numbers, and know some
of these numbers.
So the question we have
to ask is, how much

Korean: 
100개보다 좀 더 적을 수도 있습니다
계산의 편의를 위해
그들의 총 경력은
100년으로 하겠습니다
하나, 둘, 셋, 넷, 다섯, 여섯
우리는 10개에서 12개의 
바이트를 갖고 있습니다
여기에 저장하기에는
너무 클까요?
10에서 100 또는
단지 100번 던지는 것인가요?
단지 100번 던지는 것인가요?
하루에 100번 던지는 것에 대해
크리스토퍼가 좀 더 구체적으로 물어봤습니다
우리가 이제부터 할 것은
한 개의 투구로 추정되는 것을 기록해서
한 명의 투수가 그의 일생동안
몇 개의 공을 던지는지 볼 것입니다
우리는 그 모든 것을 기록할 겁니다
절 믿으세요
절 믿으세요
우리는 이게 현실적으로 
가능한지 알고 싶습니다
그나저나 지금 이렇게 하는 건
그저 가볍게 이야기하는 거에요
하지만 이 수치들로 예측을 하고
이 수치에 대해 아는 건 꽤나 유용합니다
하지만 이 수치들로 예측을 하고
이 수치에 대해 아는 건 꽤나 유용합니다
그래서 여기서 지금 던져야 할 질문은

English: 
computation is in there?
And the first question relevant
to that is, how many
neurons do we have
in our brain?
Volunteer?
Neuroscience?
No one to volunteer?
All right.
Well this is a number you should
know, because this is
what you've got in there.
There are 10 to the 10th neurons
in the brain, of which
10 to the 11th are in the
cerebellum, alone.
What the devil do
I mean by that?
I mean that your cerebellum is
so full of neurons that it
dwarfs the rest of the brain.
So if you exclude the
cerebellum, you've got about
10 to 10th neurons.
And there about 10 to
the 11th neurons in
the cerebellum, alone.
What's the cerebellum for?
Motor control.
Interesting.
So we're a little short.

Korean: 
어느 정도의 계산이 필요하냐는 것입니다
이와 유사한 첫 번째 질문은
우리 뇌에 신경 세포가 얼마나 있느냐 입니다
대답해보실 분?
뇌과학전공 없나요?
대답할 분 없나요?
좋습니다
그 숫자는 여러분이 알아야 할 숫자인데
여러분이 가지고 있는 숫자이기 때문입니다
뇌에는 10에서 10번째 신경세포가 있습니다
그 중 10에서 11번째는 소뇌에만 존재하죠
그런 의미에서 악마는 무얼 할까요?
제 말은, 소뇌가 신경 세포로 가득차서
뇌의 다른 부위를 
왜소해보이게 만든다는 거죠
그래서 소뇌를 제외한다면
대략 10에서 10번째 신경세포만 존재합니다
그리고 소뇌에만
10에서 11번째 신경세포가 있죠
소뇌의 기능이 뭐죠?
신체의 움직임을 제어합니다
흥미롭군요
저것들이 그저 신경 세포의
숫자라는 것을 깜빡했네요

English: 
Oh, but we forget, that's just
the number of neurons.
We have to count up the
number of synapses.
Because conceivably, we might
be able to adjust those
synapses, right?
So how many synapses
does a neuron have?
The answer is, it depends.
But the ones in the
cerebellum--
I should be pointing back
there, I guess--
10 to the 5th.
So if we add all that up
we have 10 to the 16th.
No problem.
It's just that existence proves
that you don't have to
worry too much about
having storage.
So maybe our cerebellum
functions, in some way, as a
gigantic table.
And that's maybe how we learn
motor skills, by filling up
that table as we run around
emerging from the cradle,

Korean: 
저것들이 그저 신경 세포의 
숫자라는 것을 깜빡했네요
우리는 시냅스의 숫자도 세야 합니다
왜냐하면 시냅스도 조절할 수 있어야 
하기 때문입니다
왜냐하면 시냅스도 조절할 수 있어야 
하기 때문입니다
그렇다면 신경 세포에 시냅스가
몇 개 있습니까?
신경 세포에 따라 다릅니다
하지만 소뇌에 있는 시냅스는
제가 추측하건대
10^5개일 것 같습니다
신경세포와 시냅스를 모두 더하면
10^16개가 있습니다
문제 없죠
이것은 여러분이 저장가능한지에 대해
너무 걱정할 필요가 없다는 것을 반증합니다
이것은 여러분이 저장가능한지에 대해
너무 걱정할 필요가 없다는 것을 반증합니다
아마 우리 소뇌는
거대한 표처럼 작동할 것입니다
그래서 어떤 동작을 배우는 것은
그 거대한 표를 채우는 것과 같겠죠
우리가 어떤 동작을 배우는 것은
그 거대한 표를 채우는 것과 같겠죠

Korean: 
우리가 어떤 동작을 배우는 것은
그 거대한 표를 채우는 것과 같겠죠
이제까지 팔 움직임에 대해 이야기 해 보았습니다
이제까지 얘기한 것은 굉장히 직설적이었고
이해하기 쉬웠습니다
물론 몇 가지 문제들이 존재하죠
첫 번째 문제, 만약 샘플 공간이
이렇게 생겼다면 어떨까요?
첫 번째 문제, 만약 샘플 공간이
이렇게 생겼다면 어떨까요?
첫 번째 문제, 만약 샘플 공간이
이렇게 생겼다면 어떨까요?
저런 경우에는 무슨 일이 일어날까요?
저런 경우에는 무슨 일이 일어날까요?
저런 경우에는 무슨 값이
가장 중요해지죠?
x 값입니다, 그렇죠?

English: 
learning how to manipulate
ourselves as we go on.
So that's the story
on arm control.
Now all this is pretty
straightforward, easy to
understand.
And of course, there
are some problems.
Problem number one, what
if the space of
samples looks like this?
[TAPPING ON CHALK BOARD]
What's going to happen
in that case?
Well what's going to happen
in that case is that the--
let's see, which values are
going to be more important?
The x values, right?

English: 
The y values are spread out
all over the place.
So you'd like the spread of
the data to sort of be the
same in all the dimensions.
So is there anything we
can do to arrange
for that to be true?
Sure, we can just normalize
the data.
So we can borrow from our
statistics course and say,
well, let's see, we're
interested in x.
And we know that the variance
of x is equal to 1 over n
times the sum of the values,
minus the mean value squared.
That's a measure of how much
the data spreads out.
So now, instead of using x, we
can use x prime, which is
equal to x over sigma.
What's the variance of
that going to be?
x over sigma sub x.
Anybody see, instantaneously,
what the variance of

Korean: 
y 값은 모든 곳에 널리 퍼져 있습니다
그래서 여러분은 이렇게 흩어진 데이터를 분류해서
모든 차원에 대해 동일하게 만들고 싶을 겁니다
이렇게 하는 게 맞도록 하는
어떤 방법이 존재하나요?
당연하죠, 데이터를 정규화시키면 됩니다
통계학의 개념을 빌려와서 설명하자면
우리는 x 를 구하고자 하는데
1/n 곱하기 편차의 합 빼기 평균의 제곱이
x 의 분산인 걸 압니다
1/n 곱하기 편차의 합 빼기 평균의 제곱이
x 의 분산인 걸 압니다
분산은 데이터가 얼마나 퍼져있는지를
나타내는 정도입니다
그래서 x를 사용하는 대신에
x 프라임을 사용할 수 있습니다
x 프라임은 x/시그마와 같죠
x 프라임의 분산은 무엇이 될까요?
x/시그마 sub x 가 될 것입니다
이것의 분산은 무엇인지 바로 보이시나요?

English: 
that's going be?
Or do we have to work it out?
It's going to be 1, Work
out the algebra for me.
It's obvious, it's simple.
Just substitute x prime into
this formula for variance, and
do the algebraic high
school manipulation.
And you'll see that the variance
turns out not to be
of this new variable, this
transformed variable you want.
So that problem, the non
uniformity problem, the spread
problem, is easy to handle.
What about that other problem?
No cake without flour?
What if it turns out
that the data--

Korean: 
이것의 분산은 무엇인지 바로 보이시나요?
따로 계산식을 풀어야 하나요?
분산은 1 인데, 왜 그런지
방정식을 풀어보도록 하죠
매우 간단 명료합니다
분산식에서 x 프라임으로 바꾸고
고등 수학 방정식을 풀면 됩니다
분산식에서 x 프라임으로 바꾸고
고등 수학 방정식을 풀면 됩니다
이 분산값이 새로운 게 아니라
여러분이 구하고자 했던 것입니다
그러므로, 데이터가 균일하지 않거나
데이터가 퍼져있는 문제는 
쉽게 해결할 수 있습니다
다른 문제들은 어떨까요?
밀가루 없는 케이크가 존재하나요?
여러분이 갖고 있는 데이터가
두 개의 차원으로 존재한다면

Korean: 
여러분이 갖고 있는 데이터가
두 개의 차원으로 존재한다면
정답은 더이상 y 값에 좌우되지 않습니다.
무슨 일이 일어날까요?
거리만 측정하기 때문에
종종 이상한 결과값을 얻게 될 것입니다
거리는 답안을 찾는데 있어
혼란만 가중시킬 뿐인데 말이죠
그래서 두 번째 질문은 
무엇이 문제가 되는가 입니다
무엇이 문제인지 적어보죠
세 번째 질문은, 만약 답이 더이상
데이터에 의해 좌우되지 않는다면
어떻게 되는가 입니다
그렇게 된다면 밀가루 없이
케이크를 만들어야 하는 일이 생기겠죠
한 번 이런 질문을 받은 적이 있습니다
엄청난 신용카드 회사의 
중요한 직책을 맡게 된
수업 수강생이 저에게 물었었는데요
인공지능을 사용해 부도가 언제 
일어나는지를 예측 가능한지 물어봤습니다

English: 
you have two dimensions and the
answer, actually, doesn't
depend on y at all.
What will happen?
Then you're often going to get
screwy results, because it'll
be measuring a distance
that is merely
confusing the answer.
So problem number two is the
what matters problem.
Write it down, what matters.
Problem number three is, what
if the answer doesn't depend
on the data at all?
Then you've got the trying to
build a cake without flour.
Once somebody asked me--
a classmate of mine, who went
on to become an important
executive in an important credit
card company-- asked me
if we could use artificial
intelligence to determine when

Korean: 
인공지능을 사용해 부도가 언제 
일어나는지를 예측 가능한지 물어봤습니다
저는 아니라고 대답했습니다
왜냐하면 사용 가능한 데이터가
그 질문과 상관이 없기 때문이었습니다
왜냐하면 사용 가능한 데이터가
그 질문과 상관이 없기 때문이었습니다
그는 밀가루 없이 케이크를
만드려고 했던 것이죠
그건 불가능합니다
이 일화로 끝으로 최근접 이웃에 
대한 강의를 마칠까 합니다
이 일화로 끝으로 최근접 이웃에 
대한 강의를 마칠까 합니다
아, 수면에 대한 얘기를 
잠깐 하고 싶은데요
지금은 지워진, 아까 저 왼쪽 편 가지에서
우리는 인간 측면에서의 학습에 
대해 배웠습니다
그 때 제가 일회성 학습
에스컬레이션 학습에 대해 얘기했었죠
그 때 제가 일회성 학습
에스컬레이션 학습에 대해 얘기했었죠
에스컬레이션 학습이란
문제 해결 없이 배울 수 없다는 걸 말합니다
에스컬레이션 학습이란
문제 해결 없이 배울 수 없다는 걸 말합니다
여러분의 수면시간과 문제해결이
어떤 연관성이 있는지 묻고 싶습니다
여러분의 수면시간과 문제해결이
어떤 연관성이 있는지 묻고 싶습니다
이 질문에 대답하기 위해 여러분은
이런 분야의 전문가와 같은
사람들에게 찾아가겠죠
이런 분야의 전문가와 같은
사람들에게 찾아가겠죠
어느 정도의 수면 시간이 필요한지에
대한 지식을 충분히 갖고 있는
사람들은 누구입니까?
그리고 그 사람들이 누구인지 
모르면 어떡하죠?
이걸 알고 있는 사람은
바로 미국 군인들입니다

English: 
somebody was going
to go bankrupt?
And the answer was, no.
Because the data available was
data that was independent of
that question.
So he was trying to make a cake
without flour, and you
can't do that.
So that concludes what
I want to say
about nearest neighbors.
No I want to talk a little
bit about sleep.
Over there on that left-side
branch, now disappeared, we
talked about the human
side of learning.
And I said something
about one-shot, an
escalation based learning.
And what that means is,
you don't learn
without problem solving.
And the question is, how is
problem solving related to how
much sleep you get?
And to answer questions like
that, of course, you want to
go to the people who are the
custodians of the kind of
knowledge you are
interested in.
And so you would say, who are
the custodians of knowledge
about how much sleep you need?
And what happens if
you don't get it?
And the answer is the
United States Army.

English: 
Because they're extremely
interested in what happens
when you cross 10 or 12 times
zones, and have no sleep, and
have to perform.
So they're very interested
in that question.
And they got even more
interested after the first
Gulf War, which was the
most studied war in
history, up to that time.
Because, there were after action
reports they were full
of examples like this.
The US Forces, in a certain part
of the battlefield, and
drawn up for the night.
And those are Bradley fighting
vehicles, there, and back here
Abrams tanks.
And they're all just kind
of settling down for
good night's sleep.
They've been up for about 36
hours straight, by the way.
When, much to their amazement,
across their field-of-view
came a column of
Iraqi vehicles.
And both sides were enormously
surprised.
A firefight broke out.

Korean: 
왜냐하면 이들은 10~12시간 가량을 자지 않고
임무를 수행해야 할 때 무슨 일이 일어나는지 
매우 알고 싶어하기 때문이죠
임무를 수행해야 할 때 무슨 일이 일어나는지 
매우 알고 싶어하기 때문이죠
그래서 미군들은 적정 수면 시간에
대해 알고 싶어 합니다
그들은 당시 가장 연구가 잘 된 전쟁인
1차 걸프전 이후 적정 수면 시간에 대해
더더욱 알고 싶어 했습니다
왜냐하면 전쟁 이후 보고서에
적정 수면과 관련된 수많은 사례들이
제기되었기 때문이죠
전쟁 당시, 일부 전장에서
밤을 꼬박 샌 미군이 있었습니다
전쟁 당시, 일부 전장에서
밤을 꼬박 샌 미군이 있었습니다
그들은 브래들리 장갑차 (BFV)를
운전하는 군인들이었고
그 뒤에는 에이브람스 탱크를 이끄는 
군인들이 있었습니다
그리고 그들은 어느날
밤에 자기 위해 정착을 했죠
그들은 이 때까지 36시간 내내
깨어 있었습니다
그때 갑자기 그들의 시야에 
한 무리의 이라크군 탱크가
그들 쪽으로 오는게 들어왔습니다
미군과 이라크군 모두 매우 놀랐습니다
총격전이 시작되었습니다

Korean: 
이라크군 쪽의 선두 탱크가
먼저 총을 쐈습니다
그러자 이 브래들리 장갑차에 있던 병사들은
적군 탐색을 시작하고 총을 마구 쐈습니다
이건 결국 동족 살해가 되어버렸죠
여기서 흥미로운 사실은 
이 병사들이 전쟁 이후 보고서에
맹세코 일직선으로만 총을 쏘았다고
보고했다는 것입니다
맹세코 일직선으로만 총을 쏘았다고
보고했다는 것입니다
병사들의 포격 실력은 
전혀 손상되지 않았었습니다
병사들의 포격 실력은 
전혀 손상되지 않았었습니다
하지만 포격 타겟이 어디에 위치하는지
포격 타겟이 무엇인지
포격 타겟이 맞는지 여부의 결정이
모두 엉망이 되어버린 것입니다
이 일화 이후 수면 부족에 대한 연구가
활발하게 이루어졌습니다
이 일화 이후 수면 부족에 대한 연구가
활발하게 이루어졌습니다
여러분은 스스로를 힘들게 공부하는
MIT 학생이라고 생각합니다, 그렇죠?
여러분은 스스로를 힘들게 공부하는
MIT 학생이라고 생각합니다, 그렇죠?
이들은 특수 부대원들입니다
MIT 공부는 결코 특수 부대보다 안 힘듭니다
특수 부대원들 대상으로 이루어진
실험을 하나 말씀드리도록 하죠
특수 부대원들 대상으로 이루어진
실험을 하나 말씀드리도록 하죠
그 당시에는 특수 부대에
사격 통제팀이라는게 있었습니다

English: 
The lead vehicle, over
here, on the Iraqi
side caught on fire.
So these guys, in the Bradley
fighting vehicles, went around
to investigate, whereupon, these
guys started blasting
away, in acts of fratricidal
fire.
And the interesting thing is
that all these folks here
swore in the after action
reports that they were firing
straight ahead.
And what happened was their
ability to put ordnance on
target was not impaired
at all.
But their idea of where the
target was, what the target
was, whether it was a target,
was all screwed up.
So this led to a lot of
experiments in which people
were sleep deprived.
And by the way, you think
you're a tough
MIT student, right?
These are Army Rangers.
It doesn't get any tougher
than this, believe me.
So here's one of the
experiments that was performed.
In those days they had
what they called

English: 
fire control teams.
And their job is to take
information from an observer,
over here, about a target,
over here.
And tell the artillery, over
here, where to fire.
So they kept some of
these folks up
for 36 hours straight.
And after 36 hours they all
said, we're doing great.
And at that time they were
bringing fire down on
hospitals, mosques, churches,
schools, and themselves.
Because, they couldn't do the
calculations anymore, after 36
hours without sleep.
And now you say to me, well I'm
a MIT student, I want to
see the data.
So let's have a look
at the data.

Korean: 
그 당시에는 특수 부대에
사격 통제팀이라는게 있었습니다
사격 통제팀은 정착병으로부터 
타겟의 정보를 받아
사격 통제팀은 정착병으로부터 
타겟의 정보를 받아
포병대에게 어디로 포를 쏠 지
알려줍니다
특수 부대에서는 이 사격 통제팀의
병사 일부를 36시간 동안 재우지 않았습니다
특수 부대에서는 이 사격 통제팀의
병사 일부를 36시간 동안 재우지 않았습니다
36시간 이후 이 병사들은
일을 잘하고 있다고 대답했습니다
그러나 그들은 병원, 회교 사원, 교회, 학교, 
그들 자신에게 포를 쏘게 하고 있었습니다
그러나 그들은 병원, 회교 사원, 교회, 학교, 
그들 자신에게 포를 쏘게 하고 있었습니다
36시간 동안 잠을 자지 못하자
더이상 계산을 할 수 없었기 때문입니다
36시간 동안 잠을 자지 못하자
더이상 계산을 할 수 없었기 때문입니다
자 이제 여러분은 관련 데이터를 보고 싶겠죠
자 이제 여러분은 관련 데이터를 보고 싶겠죠
관련 데이터를 한 번 보겠습니다

Korean: 
관련 데이터를 한 번 보겠습니다
관련 데이터를 한 번 보겠습니다
72시간 동안 잠을 자지 않았을 때
일어나는 일입니다
이것들은 단순한 일입니다
숫자를 더하거나 단어 철자를 말하는 등
매우 간단한 계산이 필요한 일입니다
숫자를 더하거나 단어 철자를 말하는 등
매우 간단한 계산이 필요한 일입니다
72시간 동안 잠을 자지 않으면
여러분의 능률은 초기보다
30% 까지 떨어집니다
이렇듯 수면 부족은
능률을 떨어뜨립니다
이렇듯 수면 부족은
능률을 떨어뜨립니다
수면 부족은 축적됩니다
사람마다 필요한 수면 시간은 다양하겠지만
누군가가 8시간의 수면이 필요하다고 하면서
실제로는 7시간만 잠을 잔다고 해봅시다

English: 
OK.
So there it goes.
That's what happens to you after
72 hours without sleep.
These are simple things to do.
Very simple calculations you
have to do in your head, like
adding numbers, spelling words,
and things like that.
So after 72 hours without
sleep, your performance
relative to what you were at
the beginning is about 30%.
So loss of sleep destroys
ability.
[BELL RINGING]
Sleep loss accumulates.
So you say, well I need
eight hours of sleep--
and what you need, by
the way, varies--
but I'm going to get by was
seven hours of sleep.

English: 
So after 20 days of one hour's
worth of sleep deprivation,
you're down about 25%.
If you say, well I need eight
hours of sleep, but I'm going
to have to get by with just six,
after 20 days of that,
you're down to about 25% of
your original capability.
So you might say, well
does caffeine help?
Or naps, naps in this case.
And the answer is, yes,
a little bit.
Some people argue that you get
the more affect out of the
sleep that you do get if
you divide it into two.
Winston Churchill always
took a three
hour nap in the afternoon.
He said that way he got a day
and a half's worth of work out
of every day.
He got the full amount
of sleep.
But he divided it
into two pieces.
Here's the caffeine one.
So caffeine does help.
And now you say, well, shoot,
I think I'm going to take it
kind of easy this semester.
And I'll just work hard during
the week before finals.

Korean: 
이렇게 20일 동안 1시간씩 줄어든 수면시간은
75%의 능률 하락으로 이어질 것입니다
8시간의 수면 시간이 필요하다고 하면서
6시간만 잔다면
20일 후에 여러분의 원래 능력의
25% 까지 능률이 떨어진다는 거죠
혹시 카페인이 도움이 좀 될까요?
아니면 이 경우 낮잠이 도움이 될까요?
네, 조금은 도움이 됩니다
적정 수면 시간의 절반만큼 잔다면
더 많은 영향을 받을 것이라고
주장하는 사람들도 있습니다
윈스턴 처칠은 항상 오후에
세 시간 정도 낮잠을 잤습니다
윈스턴 처칠은 항상 오후에
세 시간 정도 낮잠을 잤습니다
그는 낮잠이 하루 반나절 만큼의 일을
더 할 수 있게 한다고 말했습니다
그는 낮잠이 하루 반나절 만큼의 일을
더 할 수 있게 한다고 말했습니다
그는 적정 수면 시간을 꽉 채워 잤습니다
하지만 적정 수면 시간을 절반으로 나눠
밤과 낮에 잤죠
카페인의 경우
카페인은 실제로 도움이 됩니다
그렇다면 이제 여러분은
이번 학기는 편하게 공부하고
그렇다면 이제 여러분은
이번 학기는 편하게 공부하고
기말 고사 직전 일주일만
열심히 공부하자고 생각할 수 있습니다

English: 
Maybe I won't even bother
sleeping for the 24 hours
before the 6034 final.
That's OK.
Well let's see what
will happen.
So let's work the numbers.
Here is 24 hours.
And that's where your
effectiveness is after 24 hours.
Now let's go over to the same
amount of effectiveness on the
blood alcohol curve.
And it's about the level
at which you
would be legally drunk.
So I guess what we ought to do
is to check everybody as they
come in for the 6034 final, and
arrest you if you've been
24 hours without sleep.
And not let you take any finals
again, for a year.
So if you do all that, you
might as well get drunk.
And now we have one thing
left to do today.
And that is address the original
question of, why it
is that the dogs and cats in the
world think that the diet
drink makes people fat?

Korean: 
기말 고사 직전 일주일만
열심히 공부하자고 생각할 수 있습니다
저라면 기말고사 하루 전일지라도
수면 시간을 줄이지는 않을 것입니다
잠을 자도 괜찮습니다
무슨 일이 일어나는지 한 번 봅시다
숫자를 다뤄보죠
24시간이 있습니다
저것은 24시간 이후의
여러분의 능률을 보여줍니다
저것은 24시간 이후의
여러분의 능률을 보여줍니다
혈중 알코올 농도 그래프에서
같은 정도의 능률을 찾아보죠
혈중 알코올 농도 그래프에서
같은 정도의 능률을 찾아보죠
24시간 이후의 능률은
합법적인 음주 수치와 유사합니다
24시간 이후의 능률은
합법적인 음주 수치와 유사합니다
그래서 제 생각에 저희가 해야할 일은
6034 기말고사에 참석하는 학생들을 
모두 검사해서
24시간동안 잠을 자지 않았을 경우
체포하는 것입니다
그리고 1년 동안 모든 과목의 기말고사를
치지 못하도록 하는 거죠
그래서 여러분이 잠을 하루동안 안 자면
술에 취한 것과 같다는 것입니다
자 이제 오늘 수업 때 할 일은
한 가지만 남아 있습니다
바로 가장 초기 질문에 대답하는 것인데요
왜 개와 고양이들이 다이어트 음료가
사람들을 살 찌게 만드는 것인지
생각하냐는 것입니다

Korean: 
이 질문에 대한 답은 무엇일까요?
왜냐하면 저와 같은 뚱뚱한 사람들이
이런 엉망인 음료를 마시기 때문입니다
그래서 개와 강아지들에게
말할 수 있는 능력이 없고
여러 사건들을 결합할 수 있는 능력이 없고
어떠한 방식으로든 말할 수 있는 능력이 없고
이것은 살찌기 싫다는 결과인 것입니다
이것은 살찌기 싫다는 결과인 것입니다
살찐 것의 결과가 아니라는 거죠
개와 고양이들에게 그런 일은 없습니다
그래서 그들이 하는 것은 여러분이
신경써야 하는 것입니다
그래서 그들이 하는 것은 여러분이
신경써야 하는 것입니다
여러분이 신경써야 하는 것은
상관 관계와 인과 관계의 혼동입니다
개와 고양이들은 상관 관계들을 보지만
원인을 이해 못 하기에, 실수를 하는 것이죠

English: 
What's the answer?
It's because only fat guys
like me drink this crap.
So since the dogs and cats don't
have the ability to tell
themselves stories, don't have
that capacity to string
together events into narratives,
they don't have
any way of saying, well this is
a consequence of desiring
not to be fat.
Not a consequence
of being fat.
They don't have that story.
And so what they're doing is
something you have to be very
careful about.
And that thing you have to be
very careful about is the
confusion of correlation
with cause.
They see the correlation, but
they don't understand the
cause, so that's why they
make a mistake.
