
Korean: 
안녕하세요, Jabril입니다. Crash Course AI에 오신 것을 환영합니다!
신경망으로 인공 두뇌를 만드는 하나의 방법이 있습니다.
수백만 개의 뉴런과 수십억 (또는 수조)개의 
뉴런 사이의 연결을 만드는거에요.
오늘날 일부 신경망은 빠르며 사람보다
일부 작업을 더 잘 할 수 있을 만큼 커졌는데요,
예를 들자면 날씨를 예측하거나, 
체스를 하는 것 처럼요.
그러나 우리가 Crash Course에서 이야기해 왔듯이
인공 지능, 신경망은 스스로 작동하지 않습니다.
그러나 우리가 Crash Course에서 이야기해 왔듯이
인공 지능, 신경망은 스스로 작동하지 않습니다.
그들은 실수를 통해 문제를 해결하는 법을 배워야 합니다.
우리가 하는 것과 비슷하게 들리죠?
 
신경망은 알고리즘을 사용하여 실수를 처리합니다.
역전달 알고리즘을 사용하여 오류를 일으킨
모든 뉴런이 계산을 조정하는지 확인하죠.
이건 나중에 또 분석해 보겠습니다.
신경망에는 두 가지 주요 부분이 있습니다.
그것은 아키텍쳐와 웨이트 입니다.

English: 
Hey, I’m Jabril and welcome to Crash Course AI!
One way to make an artificial brain is by
creating a neural network, which can have
millions of neurons and billions (or trillions)
of connections between them.
Nowadays, some neural networks are fast and
big enough to do some tasks even better than
humans can, like for example playing chess
or predicting the weather!
But as we’ve talked about in Crash Course
AI, neural networks don’t just work on their
own.
They need to learn to solve problems by making
mistakes.
Sounds kind of like us, right?
INTRO
Neural networks handle mistakes.
using an algorithm called backpropagation
to make sure all the neurons that contributed
to an error get their math adjusted, and we’ll
unpack this a bit later.
And neural networks have two main parts: the
architecture and the weights.

Korean: 
아키텍처는 뉴런과 그들 사이의 연결을 포함합니다.
그리고 가중치는 뉴런이 출력을 얻기 위해 계산을 하려는
정도를 미세 조정하는 숫자입니다.
신경망이 실수를 한다는 의미는
가중치가 올바르게 조정되지 않았음을 의미합니다.
나중에 더 나은 예측을 하기 위해 
이들을 업데이트 해야 합니다.
신경망 아키텍처에서 가장 적합한 가중치를 찾는 작업을
 최적화라고 합니다.
최적화의 기본 원리 이해하는 가장 좋은 방법은
제 친구 존 그린봇이 알려줄 거에요.
최적화의 기본 원리 이해하는 가장 좋은 방법은
제 친구 존 그린봇이 알려줄 거에요.
수영장을 관리한다고 가정해 봅시다.
다음 주에 얼마나 많은 사람들이 올지 예측해서
충분한 구조 요원을 배치 할 수 있도록 하려고 합니다.
간단한 방법은, 지난 몇 주 동안 매일 수영하러 온 사람의 숫자와 화씨 온도와 같은 일부 데이터 요소를 그래프로 표시하는 것입니다.
간단한 방법은, 지난 몇 주 동안 매일 수영하러 온 사람의 숫자와 화씨 온도와 같은 일부 데이터 요소를 그래프로 표시하는 것입니다.
그런 다음 그래프에서 패턴을 찾고 예측할 수 있습니다.
컴퓨터가 이 최적화를 수행하는 방법을
선형 회귀라고 합니다.
우리는 데이터 포인트에 맞는 종류의 그래프에
임의의 직선을 그리면서 시작합니다.
우리는 데이터 포인트에 맞는 종류의 그래프에
임의의 직선을 그리면서 시작합니다.

English: 
The architecture includes neurons and their
connections.
And the weights are numbers that fine-tune
how the neurons do their math to get an output.
So if a neural network makes a mistake, this
often means that the weights aren’t adjusted
correctly and we need to update them so they
make better predictions next time.
The task of finding the best weights for a
neural network architecture is called optimization.
And the best way to understand some basic
principles of optimization is with an example
with the help of my pal John Green Bot.
Say that I manage a swimming pool, and I want
to predict how many people will come next
week, so that I can schedule enough lifeguards.
A simple way to do this is by graphing some
data points, like the number of swimmers and
the temperature in fahrenheit for every day
over the past few weeks.
Then, we can look for a pattern in that graph
to make predictions.
A way computers do this is with an optimization
strategy called linear regression.
We start by drawing a random straight line
on the graph, which kind of fits the data
points.

Korean: 
최적화를 하려면, 추측이 얼마나 잘못되었는지
알아야 합니다.
선 사이의 거리를 계산해서
각 데이터 포인트를 모두 합산하면
그리고 그것은 오류값을 줍니다.
우리가 만든 선이 얼마나 큰 오류값을 주는지
정량화하고 있습니다.
선형 회귀의 목표는 오류를 가능한 작게 조정하는 것입니다.
우리는 이 선이 가능한 한 훈련 데이터에 적합하길 원합니다.
결과를 최적의 선이라고 합니다.
이 직선을 사용하여 얼마나 많은 수영 선수들이
어떤 온도에서도 나타나는지 예측할 수 있습니다.
그러나 일부는 논리를 무시합니다.
예를 들어, 매우 추운 날에는 마이너스 숫자가
나오기도 하고,
위험할 정도로 더운 날에는 수영장이 감당할 수 없는
정도의 숫자가 나오기도 합니다.
보다 정확한 결과를 얻으려면
두 가지 이상의 특성을 고려해야 합니다.
예를 들어 습도를 추가해서
2d 그래프를 3d로 만들 수 있습니다.
그리고 우리의 가장 최적화된 선은 평면같이
생겼을 수도 있습니다.
그러나 우리가 갑자기 비가 올지 안 올지 여부와 같은
네 번째 기능을 추가하면
이것을 더 이상 시각화할 수 없습니다.

English: 
To optimize though, we need to know how incorrect
this guess is.
So we calculate the distance between the line
and each of the data points, add it all up,
and that gives us the error.
We’re quantifying how big of a mistake we
made.
The goal of linear regression is to adjust
the line to make the error as small as possible.
We want the line to fit the training data
as much as it can.
The result is called the line of best fit.
We can use this straight line to predict how
many swimmers will show up for any temperature,
but parts of it defy logic.
For example, super cold days have a negative
number, while dangerously hot days have way
more people than the pool can handle.
To get more accurate results, we might want
to consider more than two features, like for
example adding the humidity which would turn
our 2d graph into 3d.
And our line of best fit would be more like
a plane of best fit.
But if we added a fourth feature, like whether
it’s raining or not, suddenly we can’t
visualize this anymore.

English: 
So as we consider more features, we add more
dimensions to the graph, the optimization
problem gets trickier, and fitting the training
data is tougher.
This is where neural networks come in handy.
Basically, by connecting together many simple
neurons with weights, a neural network can
learn to solve complicated problems, where
the line of best fit becomes a weird multi-dimensional
function.
Let’s give John Green-bot an untrained neural
network.
To stick with the same example, the input
layer of this neural network takes features
like temperature, humidity, rain, and so on.
And the output layer predicts the number of
swimmers that will come to the pool.
We’re not going to worry about designing
the architecture of John Green-bot’s neural
network right now.
Let’s just focus on the weights.
He’ll start, as always, by setting the weights
to random numbers, like the random line on
the graph we drew earlier.

Korean: 
더 많은 특성을 고려할수록,
그래프에 더 많은 차원을 추가합니다.
최적화의 문제는 더욱 까다로워지고 
훈련 데이터는 더 강해집니다.
여기서 신경망이 유용하게 쓰입니다.
기본적으로 많은 간단한 뉴런을 가중치로 연결하게 되면,
신경망은 복잡한 문제를 푸는 방법을 배우고
최적화 되는 선은 이상한 다차원의 함수가 됩니다.
최적화 되는 선은 이상한 다차원의 함수가 됩니다.
John Green-bot에게 훈련되지 않은 신경망을
줘 봅시다.
동일한 예로 계속하려면, 이 신경망의 입력층은
온도, 습도, 비 등의 특징을 취합니다
동일한 예로 계속하려면, 이 신경망의 입력층은
온도, 습도, 비 등의 특징을 취합니다
그리고 출력층에서는 수영장에 올
사람들의 숫자를 예측합니다.
우리는 지금은 존 그린봇의 신경망 아키텍쳐를
디자인하는 것에 대해 걱정하지 않을 것입니다.
우리는 지금은 존 그린봇의 신경망 아키텍쳐를
디자인하는 것에 대해 걱정하지 않을 것입니다.
가중치에 집중 할 거에요.
그는 언제나처럼 가중치를 임의의 숫자로 설정하여 시작할 겁니다.
우리가 앞서 그린 그래프의 임의의 선처럼요.

Korean: 
이번에만, 단지 하나의 임의의 선이 아닙니다.
많은 입력을 가지고 있기 때문에 많은 선들이 결합되어
하나의 어지러운 함수를 만듭니다.
많은 입력을 가지고 있기 때문에 많은 선들이 결합되어
하나의 어지러운 함수를 만듭니다.
전반적으로 이 신경망은 이상한 다차원 비슷한 모양이라
정말 일컬어 부를 만한 이름이 없습니다.
전반적으로 이 신경망은 이상한 다차원 비슷한 모양이라
정말 일컬어 부를 만한 이름이 없습니다.
이 신경망을 훈련시키기 위해 우리는 존 그린봇에게
지난 10일 간 수영장의 측정 값을 제공할 겁니다.
이것 또한 실제 출석 결과를 알 수 있는 데이터가 될 수
있기 때문이죠.
이것 또한 실제 출석 결과를 알 수 있는 데이터가 될 수
있기 때문이죠.
우리는 화씨 80도, 65% 습도, 비가 안오는 첫째 날로 
시작합니다.
비가 오지 않는 것은 0으로 표시합니다.
뉴런은 가중치를 이 특성들에게 곱하고, 결과를 더하고, 
숨겨진 층에 정보를 전달하여 출력 신경망이
뉴런은 가중치를 이 특성들에게 곱하고, 결과를 더하고, 
숨겨진 층에 정보를 전달하여 출력 신경망이
답을 얻을 때까지 계속 작업할 것입니다.
존 그린봇, 어떻게 생각해?
145 명이 수영장에 있었네요!
이전과 마찬가지로, 신경망의 출력값과
실제 수영장 출석 값에는 차이가 있습니다.
-실제로는 100명이 왔습니다.

English: 
Only this time, it’s not just one random
line.
Because we have lots of inputs, it’s lots
of lines that are combined to make one big,
messy function.
Overall, this neural network’s function
resembles some weird multi-dimensional shape
that we don’t really have a name for.
To train this neural network, we’ll start
by giving John Green-bot a bunch of measurements
from the past 10 days at the swimming pool,
because these are the days where we also
know the output attendance.
We’ll start with one day, where it was 80
degrees Fahrenheit, 65% humidity, and not
raining (which we’ll represent with 0).
The neurons will do their thing by multiplying
those features by the weights, adding the
results together, and passing information
to the hidden layers until the output neuron
has an answer.
What do you think, John Green-bot?
John Green-bot: 145 people were at the pool!
Just like before, there is a difference between
the neural network’s output and the actual
swimming pool attendance -- which was recorded
as 100 people.

English: 
Because we just have one output neuron, that
difference of 45 people is the error.
Pretty simple.
In some neural networks though, the output
layer may have a lot of neurons.
So the difference between the predicted answer
and the correct answer is more than just one
number.
In these cases, the error is represented by
what’s known as a loss function.
Moving forward, we need to adjust the neural
network’s weights so that the next time
we give John Green-bot similar inputs, his
math and final output will be more accurate.
Basically, we need John Green-bot to learn
from his mistakes, a lot like when we pushed
a button to supervise his learning when he
had the perceptron program.
But this is trickier because of how complicated
neural networks are.
To help neural networks learn, scientists
and mathematicians came up with an algorithm
called backpropagation of the error, or just
backpropagation.
The basic goal is to look at the loss function
and then assign blame to neurons back in the
previous layers of the network.

Korean: 
우리가 하나의 출력 뉴런만을 갖고 있기 때문에
에러는 45만큼 차이나는 값입니다.
꽤 간단해요.
일부 신경망의 출력 층에는 많은 뉴런이 있을 수도
있습니다.
예측된 대답과 실제 정답의 차잇값은
하나보다는 많습니다.
예측된 대답과 실제 정답의 차잇값은
하나보다는 많습니다.
이 경우, 오류는
손실 함수라고 알려진 것으로 대표됩니다.
계속해서 신경망의 가중치를 조정해서
다음번에 존 그린봇에게 비슷한 입력값을 줄 때
그의 계산과 최종 결과가 좀 더 정확해지도록 합니다.
기본적으로, 우리는 존 그린봇이 실수로부터 
배우게 해야 합니다.
이는 그가 퍼셉트론 프로그램을 배울 때 강화학습을
시키는 버튼을 눌렀던 것과 매우 유사합니다.
그러나 이것은 신경망의 복잡한 정도 때문에
까다롭습니다.
신경망 학습을 돕기 위해, 과학자들과 수학자들은 오류의
역전파 또는 역전파 알고리즘이란 것을 생각해냈습니다.
신경망 학습을 돕기 위해, 과학자들과 수학자들은 오류의
역전파 또는 역전파 알고리즘이란 것을 생각해냈습니다.
기본 목표는 손실 함수를보고 네트워크의 이전 계층에서
다시 뉴런에 책임을 할당하는 것입니다.
기본 목표는 손실 함수를보고 네트워크의 이전 계층에서
다시 뉴런에 책임을 할당하는 것입니다.

Korean: 
일부 뉴런의 계산이 다른 뉴런들보다
오류에 대한 책임이 더 많을 때
그들의 무게는 더 조정될 것입니다.
이 정보는 거꾸로 공급되어 역 전파의 아이디어에서 비롯된 곳으로 갑니다.
예를 들어, 출력 뉴런에서 온 오류는 레이어로 돌아가고,
조정된 가중치를 숨겨진 층의 뉴런 출력에 다시 적용합니다.
예를 들어, 출력 뉴런에서 온 오류는 레이어로 돌아가고,
조정된 가중치를 숨겨진 층의 뉴런 출력에 다시 적용합니다.
그리고 숨겨진 층의 뉴런에서 온 오류는 레이어로 돌아
와 조정된 가중치를 특성들에게 적용합니다.
그리고 숨겨진 층의 뉴런에서 온 오류는 레이어로 돌아
와 조정된 가중치를 특성들에게 적용합니다.
기억하세요, 목표는 가장 오류가 적은 최상의 가중치
조합을 찾는 것입니다.
최적화에 숨겨진 논리를 은유적으로 설명하기 위해,
존 그린봇을 생각풍선으로 은유적인 여행을 좀 보내보죠.
최적화에 숨겨진 논리를 은유적으로 설명하기 위해,
존 그린봇을 생각풍선으로 은유적인 여행을 좀 보내보죠.
우리 신경망의 가중치가 지도에 있는 위도 및 경도와
같은 것이라고 가정해 봅시다.
우리 신경망의 가중치가 지도에 있는 위도 및 경도와
같은 것이라고 가정해 봅시다.
그리고 신경망의 오류는 고도입니다. 낮을수록 좋습니다.
탐험가 존 그린 봇은 가장 깊은 계곡에서
가장 낮은 지점을 찾는 퀘스트를 수행중입니다.

English: 
Some neurons’ calculations may have been
more to blame for the error than others, so
their weights will be adjusted more.
This information is fed backwards, which is
where the idea of backpropagation comes from.
So for example, the error from our output
neuron would go back a layer and adjust the
weights that get applied to our hidden layer
neuron outputs.
And the error from our hidden layer neurons
would go back a layer and adjust the weights
that get applied to our features.
Remember: our goal is to find the best combination
of weights to get the lowest error.
To explain the logic behind optimization with
a metaphor, let’s send John Green Bot on
a metaphorical journey through the Thought
Bubble.
Let’s imagine that weights in our neural
network are like latitude and longitude coordinates
on a map.
And the error of our neural network is the
altitude -- lower is better.
John Green-bot the explorer is on a quest
to find the lowest point in the deepest valley.

Korean: 
가장 낮은 지점의 위도와 경도는 
-오류가 가장 작은 부분이죠-
신경망의 글로벌 최적 해법의 가중치입니다.
그러나 존 그린봇은 실제 계곡이 어디 있는지 모릅니다.
신경망에 초기 가중치를 임의로 설정하여
그를 정글 한 가운데로 던집니다.
신경망에 초기 가중치를 임의로 설정하여
그를 정글 한 가운데로 던집니다.
그가 아는 ​​것은 그의 현재 위도, 경도,
그리고 고도 입니다.
어쩌면  운이 좋아서 가장 깊은 계곡 옆에 있을 지도 
모릅니다.
그러나 그는 또한 멀리 떨어진 산의 꼭대기에 있을 수도
있습니다.
이걸 아는 유일한 방법은 탐험하는 것입니다!
정글이 너무 밀집되어 있기 때문에 멀리 보기 어렵습니다.
존 그린봇이 할 수있는 최선의 방법은 둘러 보고
추측하는 것 입니다.
그는 북동쪽으로 움직여서 조금 아래로 내려갈 수 있음을
알았습니다.
그래서 조금 내려가서 그의 위도와 경도를 업데이트합니다.
이 새로운 위치에서, 그는 주위를 둘러보고 자신의 
고도를 조금 더 낮추는 다른 단계를 선택합니다.
이 새로운 위치에서, 그는 주위를 둘러보고 자신의 
고도를 조금 더 낮추는 다른 단계를 선택합니다.
그리고 또 다르게 가보고, 또 움직이고
모든 용감한 발걸음마다, 그는 좌표를 업데이트하고 
고도를 줄입니다.
결국 존 그린봇은 주변을 둘러보고
더 이상 내려갈 수 없다는 것을 알게 되었습니다.

English: 
The latitude and longitude of that lowest
point -- where the error is the smallest -- are
the weights of the neural network’s global
optimal solution.
But John Green-bot has no idea where this
valley actually is.
By randomly setting the initial weights of
our neural network, we’re basically dumping
him in the middle of the jungle.
All he knows is his current latitude, longitude,
and altitude.
Maybe we got lucky and he’s on the side
of the deepest valley.
But he could also be at the top of the highest
mountain far away.
The only way to know is to explore!
Because the jungle is so dense, it’s hard
to see very far.
The best John Green-bot can do is look around
and make a guess.
He notices that he can descend down a little
by moving northeast, so he takes a step down
and updates his latitude and longitude.
From this new position, he looks around and
picks another step that decreases his altitude
a little more.
And then another… and another.
With every brave step, he updates his coordinates
and decreases his altitude.
Eventually, John Green-bot looks around and
finds that he can’t go down anymore.

Korean: 
그는 가장 깊은 계곡의 가장 낮은 지점을 찾은 듯
자축합니다.
아니면 ...그는 생각합니다.
전체 지도를 보면 존 그린 봇은 "아래로" 떨어졌을 때
작은 협곡의 바닥 만 발견했음을 알 수 있습니다.
전체 지도를 보면 존 그린 봇은 "아래로" 떨어졌을 때
작은 협곡의 바닥 만 발견했음을 알 수 있습니다.
그가 시작한 곳보다 훨씬 낫지만 가장 깊은 계곡의 
제일 낮은 부분이 아닌것은 확실합니다.
그가 시작한 곳보다 훨씬 낫지만 가장 깊은 계곡의 
제일 낮은 부분이 아닌것은 확실합니다.
그는 방금 부분적인 최적의 답을 찾았습니다.
오류를 만드는 가중치의 값이 상대적으로 작지만,
하지만 가장 작을 수는 없습니다.
미안해, 친구야
고마워요, 생각 풍선
역전파 및 학습에는 항상
많은 작은 단계를 포함하고 있으며
어느 신경망에나 최적화는 까다롭습니다.
은유적인 지도를 탐험하는 최적화의 예제로 돌아가보면,
우리는 결코 확신할 수 없습니다.
우리가 옳은 방향으로 향하고 있는지, 또는
오류가 가장 작은 최저 지점에에 도달 했는지
다시 이것은 글로벌 최적 솔루션입니다.
그러나 우리에게 더 나은 탐색을 도와 줄 트릭이
발견되었습니다.
예를 들어, 탐색기를 지도 어딘가에 놓으면 그들은 가장
낮은 계곡에서 정말 멀리 떨어져 있을 수 있습니다
거대한 산맥이 방해하고 있구요.

English: 
He celebrates, because it seems like he found
the lowest point in the deepest valley!
Or... so he thinks.
If we look at the whole map, we can see that
John Green-bot only found the bottom of a
small gorge when he ran out of “down.”
It’s way better than where he started, but
it’s definitely not the lowest point of
the deepest valley.
So he just found a local optimal solution,
where the weights make the error relatively
small, but not the smallest it could be.
Sorry, buddy.
Thanks, Thought Bubble.
Backpropagation and learning always involves
lots of little steps, and optimization is
tricky with any neural network.
If we go back to our example of optimization
as exploring a metaphorical map, we’re never
quite sure if we’re headed in the right
direction or if we’ve reached the lowest
valley with the smallest error -- again that’s
the global optimal solution.
But tricks have been discovered to help us
better navigate.
For example, when we drop an explorer somewhere
on the map, they could be really far from
the lowest valley, with a giant mountain range
in the way.

English: 
So it might be a good idea to try different
random starting points to be sure that the
neural network isn’t getting stuck at a
locally optimal solution.
Or instead of restarting over and over again,
we could have a team of explorers that start
from different locations and explore the jungle
simultaneously.
This strategy of exploring different solutions
at the same time on the same neural network
is especially useful when you have a giant
computer with lots of processors.
And we could even adjust the explorer’s
step size, so that they can step right over
small hills as they try to find and descend
into a valley.
This step size is called the learning rate,
and it’s how much the neuron weights get
adjusted every time backpropagation happens.
We’re always looking for more creative ways
to explore solutions, try different combinations
of weights, and minimize the loss function
as we train neural networks.
But even if we use a bunch of training data
and backpropagation to find the global optimal
solution… we’re still only halfway done.

Korean: 
따라서 신경망이 로컬에서 최적의 솔루션을 고수하지
않도록 다른 임의의 시작점을 시도하는 것이 좋습니다.
따라서 신경망이 로컬에서 최적의 솔루션을 고수하지
않도록 다른 임의의 시작점을 시도하는 것이 좋습니다.
아니면 계속 다시 시작하는 대신, 각자 다른데서 시작해
 동시에 정글을 탐험하도록 팀을 짤 수도 있습니다.
아니면 계속 다시 시작하는 대신, 각자 다른데서 시작해
 동시에 정글을 탐험하도록 팀을 짤 수도 있습니다.
같은 신경망에서 동시에 다양한 솔루션을 탐색하는
이 전략은
여러분이 프로세서가 많은 큰 컴퓨터를 갖고 있을 때 
특히 유용합니다.
그리고 우리는 탐험가의 걸음 크기를 조정하여
작은 언덕을 찾아 계곡으로 내려 가려고
할 때 바로 언덕을 밟을 수 있습니다.
이 걸음의 크기를 학습 속도라고 하며, 역전파가 발생할
때 마다 뉴런 가중치가 조정되는 정도입니다.
이 걸음의 크기를 학습 속도라고 하며, 역전파가 발생할
때 마다 뉴런 가중치가 조정되는 정도입니다.
우리는 항상 더 창의적으로 탐험하는 방법을 찾고 있고,
다른 조합의 가중치로 손실 함수를 최소화하며 
신경망을 훈련시키려 합니다.
하지만 글로벌 최적 해법을 찾기 위해 
많은 훈련 데이터와 역전파를 사용하더라도
우리는 아직 절반 정도 해냈습니다.

Korean: 
AI 훈련의 나머지 절반은, 시스템이 새로운 질문에 대답
할 수 있는지 여부를 확인하는 것 입니다.
정답키를 공부한 뒤에 시험을 보는 것처럼,
우리가 전에 본 문제해결하는 것은 쉽습니다.
정답키를 공부한 뒤에 시험을 보는 것처럼,
우리가 전에 본 문제해결하는 것은 쉽습니다.
우리는 A를 얻을 수도 있지만 실제로는 그렇게 많이
배우진 않았습니다.
배운 것을 실제로 테스트하려면, 우리는 전에 보지 못한
문제를 해결해 봐야 합니다.
신경망도 마찬가지 입니다.
이 모든 시간 동안 존 그린봇은 수영장 데이터로
그의 신경망을 훈련했습니다.
그의 신경망에는 온도, 습도, 비, 요일, 풍속 등의
수십 가지 특성이 있지만,
잔디의 길이, 수영장 주변의 나비 수 및 인명 구조 원의 
평균 GPA도 있습니다.
잔디의 길이, 수영장 주변의 나비 수 및 인명 구조 원의 
평균 GPA도 있습니다.
컴퓨터가 처리 가능한 한, 정확하게 패턴을 찾기 위해
더 많은 데이터가 나을 수 있습니다.
컴퓨터가 처리 가능한 한, 정확하게 패턴을 찾기 위해
더 많은 데이터가 나을 수 있습니다.
시간이 지남에 따라 역전파는 뉴런 가중치를 조정하여
신경망의 출력이 훈련 데이터와 일치하도록 합니다.
시간이 지남에 따라 역전파는 뉴런 가중치를 조정하여
신경망의 출력이 훈련 데이터와 일치하도록 합니다.
훈련 데이터에 적합 하다는것, 복잡한 신경망에서 우리는
다차원의 함수를 찾고 있다는걸 기억하세요.
훈련 데이터에 적합 하다는것, 복잡한 신경망에서 우리는
다차원의 함수를 찾고 있다는걸 기억하세요.
때때로 역전파는 신경망을 특정 데이터에 적합하게
만드는 데 너무 능숙합니다.

English: 
The other half of training an AI is checking
whether the system can answer new questions.
It’s easy to solve a problem we’ve seen
before, like taking a test after studying
the answer key.
We may get an A, but we didn’t actually
learn much.
To really test what we’ve learned, we need
to solve problems we haven’t seen before.
Same goes for neural networks.
This whole time, John Green-bot has been training
his neural network with swimming pool data.
His neural network has dozens of features
like temperature, humidity, rain, day of the
week, and wind speed… but also grass length,
number of butterflies around the pool, and
the average GPA of the lifeguards.
More data can be better for finding patterns
and accuracy, as long as the computer can
handle it!
Over time, backpropagation will adjust the
neuron weights, so that neural network’s
output matches the training data.
Remember, that’s called fitting to the training
data, and with this complicated neural network,
we’re looking for a multi-dimensional function.
And sometimes, backpropagation is too good
at making a neural network fit to certain

Korean: 
때때로 역전파는 신경망을 특정 데이터에 적합하게
만드는 데 너무 능숙합니다.
큰 데이터 세트에서 우연의 일치가 많이 있는 것을
볼 수 있습니다.
예를 들어, Maine의 이혼율은 미국의 마가린 소비량과
관련이 있을 수 있습니다
또는 스키 수익은 침대 시트에 갇혀 죽어가는 사람들의
수와 관련이 있을 수 있습니다.
또는 스키 수익은 침대 시트에 갇혀 죽어가는 사람들의
수와 관련이 있을 수 있습니다.
신경망은 이런 종류의 관계 찾기에 정말 좋습니다.
그리고 이건 큰 문제가 될 수 있는데 왜냐하면, 
신경망에 이러한 바보 같은 상관 관계를 준수하지 않는
새로운 데이터를 제공하면
이상한 오류가 발생할 수 있기 때문이죠.
이 위험은 과적합으로 알려져 있습니다.
과적합을 방지하는 가장 쉬운 방법은
신경망을 단순하게 유지하는 것 입니다.
우리가 잔디길이나 나비 숫자같은 데이터가 없이 
존 그린 봇의 수영장 프로그램을 재훈련 하면
정확성이 변하지 않는 것을 관찰 한 뒤
이러한 특성들은 무시하는 것이 가장 좋습니다.
정확성이 변하지 않는 것을 관찰 한 뒤
이러한 특성들은 무시하는 것이 가장 좋습니다.
신경망의 훈련은 많은 수학을 하는 것만은 아닙니다.
AI 시스템의 기능으로 다양한 문제를 가장 잘 표현하는
방법을 고려해야 하며,
이러한 프로그램이 어떤 실수를 하는지
 신중하게 고려해야 합니다.

English: 
data.
See, there are lots of coincidental relationships
in big datasets.
Like for example, the divorce rate in Maine
may be correlated with U.S. margarine consumption,
or skiing revenue may be correlated with the
number of people dying by getting trapped
in their bedsheets.
Neural networks are really good at finding
these kinds of relationships.
And it can be a big problem, because if we
give a neural network some new data that doesn’t
adhere to these silly correlations, then it
will probably make some strange errors.
That’s a danger known as overfitting.
The easiest way to prevent overfitting is
to keep the neural network simple.
If we retrain John Green-bot’s swimming
pool program /without/ data like grass length
and number of butterflies, and we observe
that our accuracy doesn’t change, then ignoring
those features is best.
So training a neural network isn’t just
a bunch of math!
We need to consider how to best represent
our various problems as features in AI systems,
and to think carefully about what mistakes
these programs might make.

English: 
Next time, we’ll jump into our very first
lab of the course, where we’ll apply all
this knowledge and build a neural network
together.
Crash Course Ai is produced in association
with PBS Digital Studios.
If you want to help keep Crash Course free
for everyone, forever, you can join our community
on Patreon.
And if you want to learn more about the math
of k-means clustering, check out this video
from Crash Course Statistics.

Korean: 
다음 시간에는 첫 번째 실습으로 넘어가 이 모든 지식을 
적용하고 신경망을 함께 구축 할 것입니다.
다음 시간에는 첫 번째 실습으로 넘어가 이 모든 지식을 
적용하고 신경망을 함께 구축 할 것입니다.
크래쉬 코스 Ai는 협회에서 제작됩니다
PBS 디지털 스튜디오와 함께.
그리고 신경망 뒤의 수학에 대해 더 배우고 싶으시다면
크래시 코스 통계에서 배울 수 있습니다.
그리고 신경망 뒤의 수학에 대해 더 배우고 싶으시다면
크래시 코스 통계에서 배울 수 있습니다.
그리고 K-평균 군집화의 계산에 대해 더 배우고 싶다면
크래시 코스 통계에서 배울 수 있습니다.
그리고 K-평균 군집화의 계산에 대해 더 배우고 싶다면
크래시 코스 통계에서 배울 수 있습니다.
