
English: 
Jabril: D7
John-Green-bot: Miss.
John-Green-bot: I-9
Jabril: NOOOOOOOOOO
Hey, I’m Jabril and welcome to Crash Course
AI!
John-Green-bot might struggle with some things
like natural language processing and moving
through the real world, but using AI he’s
pretty good at board games.
AI researchers spend a LOT of time trying
to teach AI how to beat humans at games, & this

Korean: 
자 브릴: D7
존 그린 봇: 미스.
존 그린 봇: I-9
자 브릴: NOOOOOOOOOO
안녕하세요, 자브릴입니다.
Crash Course AI에 오신 것을 환영합니다!
존 그린봇은 자연어 처리나 현실에서 움직이는 것과 같은
몇 가지 문제로 어려움을 겪을 수 있습니다.
그러나 AI를 사용하면 그는 보드 게임을 
꽤나 잘합니다.
AI 연구자들은 게임에서 인간을 이기는 방법을 가르치기 
위해 많은 시간동안 노력하고 있습니다.

Korean: 
그리고 이건 게임이 재미 있기 때문이 아닙니다.
게임은 새로운 AI알고리즘 및 접근 방식을 테스트하기 
위해 제한된 시나리오를 제공합니다.
게임에서 AI가 이기거나 잃는 이유를 알기 쉽습니다.
왜냐하면 보통 '승리'에 대한 객관적인 측정이나
점수가 있기 때문이죠.
AI가 예시를 통해 배우고, 시도해 보며 점차 개선하기
때문에 훌륭합니다.
게임은 기본적으로 AI가 정말 좋아지려면 많은 훈련
데이터가 필요하다는 신념 하에
자체 훈련데이터를 제공합니다.
AI는 훈련데이터를 만들기 위해 스스로를 대항하고
더 나은 게임 전략을 발전시킬 수도 있습니다.
또는 AI를 통해 이전 게임들의 승리 전략을 보도록
프로그래밍 할 수 있습니다. (인간 전문가가 한 게임도요)
또는 AI를 통해 이전 게임들의 승리 전략을 보도록
프로그래밍 할 수 있습니다. (인간 전문가가 한 게임도요)
전문적인 인간 게이머와 AI를 비교하는 것은
AI가 시간이 지남에 따라 어떻게 개선되고 있는지
알아내는 데 도움이 될 수 있습니다.
이 비교는 또한 우리에게 AI가 해결할 수 있는 문제의
난이도에 대한 감각을 제공합니다.
즉, 존 그린봇이 배틀쉽에서 저를 이기도록 가르칠 수
있다면 그것보다 단순한 어떤 게임에서든지
저를 이길 수 있게 가르칠 수 있습니다.
마지막으로, 게임은 쿨합니다.
(그리고 그것은 매우 중요합니다!)

English: 
isn’t just because games are fun.
Games provide constrained scenarios for testing
new AI algorithms and approaches.
In a game, it’s easy to know whether the
AI is winning or losing, because there’s
usually a score or some objective measure
of “winning.”
This is great because AI learns from examples,
trying things out, and slowly improving.
Games basically provide their own training
data, which is a big relief because AI systems
need lots of training data to get really good.
An AI can even play against itself to generate
training data and evolve better game strategies.
Or an AI can be programmed to look at previous
games (even games played by expert humans)
for strategies that lead to victory.
Comparing AIs against expert human gamers
can also help us figure out how an AI is improving
over time.
This comparison also gives us a sense of the
difficulty of problems an AI can solve.
In other words, if I can teach John-Green-Bot
to beat me at battleship, I can probably also
teach him to beat me at any game that’s
simpler than battleship.
Finally, games are cool (and that’s important
too!).

Korean: 
모두가 수학 및 문제 해결이기 때문에 
때로는 AI프로그래밍이 조금 어렵고 건조할 수 있습니다.
그리고 게임은 이 모든것을 배우게 할 재미있는
동기 부여를 제공 할 수 있습니다.
이것이 저의 첫 AI 데모중 일부가 게임인 이유입니다.
이러한 모든 이유로 게임과 컴퓨팅은 깊게 빠져들 가치가 
있는 풍부한 역사를 가지고 있습니다.
이러한 모든 이유로 게임과 컴퓨팅은 깊게 빠져들 가치가 
있는 풍부한 역사를 가지고 있습니다.
살펴보기 위해, 생각 거품으로 가 봅시다.
인간은 기계가 우리의 전략 게임을 이길 수 있다는
아이디어에 매혹되어 왔습니다.
인간은 기계가 우리의 전략 게임을 이길 수 있다는
아이디어에 매혹되어 왔습니다.
1770년에, 발명가인 울프강 본 켐펠런은 오스트리아의
황녀 마리아 테레사에게 발명품을 공개했습니다.
1770년에, 발명가인 울프강 본 켐펠런은 오스트리아의
황녀 마리아 테레사에게 발명품을 공개했습니다.
기계식 터크는 시계와 같은 장치로,
그것은 체스를 하는 것처럼 보였습니다.
체스 조각은 욕조 크기만한 상자에 걸려 있는
막대에 붙어 있었습니다.
마리아 황후가 보드 위에서 움직임을 만들기 위해
기계를 작동시키는 크랭크를 돌려서
체스 조각을 기계적으로 움직였습니다.
놀랍게도 기계는 대부분의 도전자를 이길 수있었습니다.
그러나, 그것은 정교한 사기 였고 기계식 터크는 실제로
안에 숨겨진 사람에 의해 움직이고 있었습니다.
그러나, 그것은 정교한 사기 였고 기계식 터크는 실제로
안에 숨겨진 사람에 의해 움직이고 있었습니다.
기계가 체스를 하게 하는 것은 실제로
정말 복잡합니다.

English: 
Sometimes AI programming can feel a bit difficult
or dry because of all the math and troubleshooting,
and games can provide a fun motivation to
learn all this stuff.
This is the reason why some of my first AI
demos were games.
For all these reasons, games and computing
have a rich history that’s worth diving
into.
For that, let’s go to the Thought Bubble.
Humans have always been fascinated by the
idea that machines could beat us at our own
strategy games.
In 1770, the inventor Wolfgang von Kempelen
revealed an invention to the Empress Maria
Theresa of Austria.
The Mechanical Turk was a clock-like contraption
that appeared to play chess.
Chess pieces were attached to rods that were
hooked into a bathtub-sized box.
After Empress Maria made a move on the board,
she turned a crank that activated the machine,
which would move chess pieces mechanically.
To her surprise, the machine was able to beat
most challengers.
However, it was an elaborate hoax and The
Mechanical Turk was actually controlled by
a person hidden inside!
Getting a machine to play chess is actually
really complicated.

English: 
So when AI researchers first tried to tackle
the problem in the late 1940s and early 1950s,
they focused on simpler chess situations.
Like, games with only a few pieces remaining
on the board or full games played on a small
6x6 board without any bishops.
At the same time, researchers worked on an
AI that could play checkers, because checkers
looked easier… although it was really almost
as complicated.
The first program to play a legitimate game
of checkers was built by IBM in 1956.
And, in a classic cold war move, two programs
that could play a full chess game were developed
in parallel by the US and Russia in 1957.
But these programs didn’t get /good/ for
another 40 years.
Checkers was first, with a program called
Chinook which started dominating masters in
1995.
Chess followed when a computer called Deep
Blue beat the chessmaster Garry Kasparov in
1997.
Thanks Thought Bubble.
Since then, strategy games have been mastered
one-by-one, with the most recent victories

Korean: 
AI 연구자들이 1940년대 후반과 1950년대 초반에
그 문제와 씨름할 때
그들은 더 단순한 체스 상황에 초점을 맞췄습니다.
보드 위에 몇 조각 만 남은 게임이나
6*6칸의 작은 보드에서 비숍 없이 풀 게임 처럼요.
보드 위에 몇 조각 만 남은 게임이나
6*6칸의 작은 보드에서 비숍 없이 풀 게임 처럼요.
동시에 연구원들은
체커를 플레이 할 수있는 AI를 작업했습니다.
체커가 더 쉬워 보여서 그랬지만
실제로는 거의 비슷하게 복잡합니다.
합법적인 게임을 하는 최초의 체커 프로그램은
1956년 IBM에 의해 구축되었습니다.
그리고 고전적인 냉전 체제에서 전체 체스 게임을 할 수
있는 두 프로그램이 개발되었습니다
1957년 미국과 러시아와 동시에요.
그러나 이 프로그램들은 40년 동안 좋은 
성적을 얻지 못했습니다.
체커는 1995 년에 마스터를 지배하기 시작한 
Chinook이라는 프로그램으로 처음 시작되었습니다.
체커는 1995 년에 마스터를 지배하기 시작한 
Chinook이라는 프로그램으로 처음 시작되었습니다.
그 뒤를 따라 체스에서는 1997 딥 블루라는 컴퓨터가
체스마스터인 개리 가스파로브를 이겼습니다.
그 뒤를 따라 체스에서는 1997 딥 블루라는 컴퓨터가
체스마스터인 개리 가스파로브를 이겼습니다.
고마워요 생각 거품.
그 이후로 하나씩 전략 게임이 마스터되었습니다.
가장 최근 승리로는

English: 
over humans at Go in 2017, DOTA 2 in 2018,
and Starcraft II in 2019.
Okay, so the best way to understand the difficulty
of teaching AI to play games is through an
example.
Oh John Green Bot.
So let’s start with a really simple goal:
teaching John-Green-bot to play tic-tac-toe.
One of the ways that we can think about playing
tic-tac-toe is as a tree with all the possible
moves from any given state of what the game
board looks like.
For example, if this is the current game state,
it’s John-Green-bot’s turn, and he’s
using Xs… there are three places he can
go.
We can draw a tree representing possible outcomes
for each of these options, and all of the
options his opponent (me, or anyone else)
can take:
Because computers think with numbers, each
outcome can be assigned a reward -- a number
like a 1 for a win, and -1 for a loss or tie.

Korean: 
2017년 바둑,  2018년 DOTA 2에서
2019년 스타 크래프트 II가 있습니다.
AI가 게임을 하도록 가르치는 것이 어렵다는 것을 
이해하는 가장 좋은 방법은 예시입니다.
AI가 게임을 하도록 가르치는 것이 어렵다는 것을 
이해하는 가장 좋은 방법은 예시입니다.
존 그린 봇~
따라서 존 그린 봇에게 틱택토를 하도록 가르치는
간단한 목표부터 시작해 보겠습니다.
우리가 틱택토 게임에 대해 생각할 수있는 방법 중 하나는
게임 보드 모양의 주어진 상태에서 가능한
모든 움직임을 가진 나무입니다.
예를 들어, 이 화면은 현재 게임 상태이고,
존 그린 봇의 차례입니다.
그리고 그는 X를 사용하여 갈 수있는 세 곳이 있습니다.
이러한 각 옵션에 대해 가능한 결과를
나타내는 트리를 그리고
그의 상대 (나 또는 다른 사람)가 취할 수있는
모든 옵션을 그릴 수 있습니다.
컴퓨터는 숫자로 생각하기 때문에 각 결과에 승리는 1,
패배나 타이는 -1 같은 숫자로 할당할 수 있습니다.
컴퓨터는 숫자로 생각하기 때문에 각 결과에 승리는 1,
패배나 타이는 -1 같은 숫자로 할당할 수 있습니다.

English: 
Basically, John-Green-bot will need to search
through the tree of possibilities to find
his win.
To decide which choice to make, John-Green-bot
will assume that in each tree, both he AND
his opponent will make the best possible choices.
In other words, his policy (or his framework
for making decisions) will alternate between
choosing the branch that will maximize the
outcome of winning on his turn, and minimize
the outcome of his opponent winning on their
turn.
This is called the minimax algorithm.
Then, each game state can be assigned a value
based on how likely it leads to John-Green-bot
winning, and he can decide which move to make
based on his policy.
Looking at this tree, John-Green-bot will
always pick option 1.0, and win the game!
Of course, this was a pretty small tree because
we were looking at a game in progress.
To draw the whole tic-tac-toe tree from beginning
to end, we would need to represent about 250,000
boards.
That seems like a lot, but it would take like
a half a second for a powerful modern computer
to compute this many options.

Korean: 
기본적으로 존 그린 봇은 승리를 위해 
가능성을 트리에서 검색해야 합니다.
기본적으로 존 그린 봇은 승리를 위해 
가능성을 트리에서 검색해야 합니다.
어떤 선택을 할지 결정하기 위해 존 그린 봇은
각 나무에서 그와 그의 상대 모두
최선의 선택을 할 수 있도록 예측할 것입니다.
다시 말해서, 그의 정책(또는 결정을 내리기 위한 프레임
워크)은 자신의 차례에 승리 결과를 극대화하고
다시 말해서, 그의 정책(또는 결정을 내리기 위한 프레임
워크)은 자신의 차례에 승리 결과를 극대화하고
상대방이 차례에 승리하는 결과를 최소화 할 지점을 선택
하는 것 사이를 번갈아 가며 나타납니다.
이것을 minimax 알고리즘 이라고 합니다.
그런 다음, 존 그린 봇의 승리로 연결될 가능성에 따라 
각 게임 상태에 값을 할당할 수 있습니다.
그는 그의 정책에 따라 움직임을 결정할 수 있습니다.
이 트리를 보면 존 그린봇은
항상 옵션 1.0을 선택하고 게임에서 승리합니다.
물론 이것은 아주 작은 트리였기 때문에
우리는 진행중인 게임을 볼 수 있었습니다.
틱택토 전체를 처음부터 끝까지 그리려면
약 250,000판을 나타내야 합니다.
틱택토 전체를 처음부터 끝까지 그리려면
약 250,000판을 나타내야 합니다.
많은 것 같지만 강력한 최신 컴퓨터의 경우
이를 계산하는 데에 0.5 초가 걸립니다.
많은 것 같지만 강력한 최신 컴퓨터의 경우
이를 계산하는 데에 0.5 초가 걸립니다.

English: 
By laying out all the possibilities and taking
the paths that led to a win, John-Green-bot
can solve tic-tac-toe.
This means that John-Green-bot will always
achieve the best possible outcome, either
a win or a tie, no matter how his opponent
plays.
Thanks John Green Bot.
But we can’t solve all games this way.
Checkers, for example, has about 10 to the
20th power board states… or 10 followed
by 20 zeros.
That’s more board states than there are
grains of sand on Earth!
Chess has 10 to the 50th power board states.
And Go has 10 to the 250th power board states.
To put those huge numbers into perspective,
there are only 10 to the 80th atoms in the
entire known universe!
Computer scientists have theorized that it
would be impossible for conventional computers
to calculate this many states due to the laws
of physics.

Korean: 
모든 가능성을 제시하고 승리로 이끄는 길을 택함으로써
존 그린 봇은 틱택토를 해결할 수 있습니다.
모든 가능성을 제시하고 승리로 이끄는 길을 택함으로써
존 그린 봇은 틱택토를 해결할 수 있습니다.
이는 존 그린봇이 항상 이기거나 타이가 되는
최상의 결과를 달성하게 합니다.
그의 상대방에 어떻게 플레이하던지요.
고마워, 존 그린 봇
그러나 이 방법으로 모든 게임을 해결할 수는 없습니다.
예를 들어, 체커는 10의 20제곱만큼, 또는 10에 0이 20개
붙은 만큼의 경우의 수를 갖고 있습니다.
예를 들어, 체커는 10의 20제곱만큼, 또는 10에 0이 20개
붙은 만큼의 경우의 수를 갖고 있습니다.
그것은 지구상의 모래 알갱이보다
더 많은 보드 상태입니다!
체스는 10의 50제곱만큼의 경우의 수가 있습니다.
그리고 Go(바둑)는 10의 250제곱 만큼이죠.
이 거대한 숫자를 더 넓게 보자면, 우주에는 10의 80제곱
만큼의 원자가 있다고 알려져 있습니다.
이 거대한 숫자를 더 넓게 보자면, 우주에는 10의 80제곱
만큼의 원자가 있다고 알려져 있습니다.
컴퓨터 과학자들은 물리학 법칙 때문에 이 많은 상태를
평범한 컴퓨터가 계산하는 것이 불가능하다고
이론을 세웠습니다.

English: 
Like, for example, if you combined all planets
and stars and everything in the whole universe
into a single supercomputer, it still wouldn’t
be powerful enough to solve the game of Go.
But some people have hope that quantum computers
may be able to get there one day...
So, if figuring out all of the board states
could be mathematically impossible, how did
computers beat the number one ranked human
masters in Chess and Go?
Many modern systems, including Google’s
AlphaGo computer that beat a human master
in Go in 2017, use an algorithm called Monte
Carlo Tree Search.
Monte Carlo is a famous casino, so whenever
you see the term “monte carlo,” it’s
a good bet that the algorithm will be using
randomness and chance to solve a problem.
Combining Monte Carlo randomness and regular
tree search like minimax, modern game AIs
decide which part of the huge tree to search
by guessing at odds.
Basically, they want higher odds that the
part of the game tree they search will lead
to a win.
But these aren’t just random guesses like
we would make in many casino games, AI systems
can simulate millions of “what-if” scenarios
and use math to estimate the likelihood of

Korean: 
예를 들어, 모든 행성과 별과 모든 우주의 모든 것을
하나의 슈퍼 컴퓨터로 결합한 경우에도
여전히 Go 게임을 해결할 만큼 강력하지는 않습니다.
그러나 어떤 사람들은 양자 컴퓨터가
언젠가는 그에 도달하길 희망합니다.
따라서 모든 보드 상태를 계산하는 것이
수학적으로 불가능할 수 있다면,
컴퓨터가 체스와 바둑에서 1위인 인간을
어떻게 이겼을까요?
바둑 간 마스터를 2017년에 이긴 Google의 알파고를 
포함한 현대의 시스템은
몬테 카를로 트리 검색이라는 알고리즘을 사용합니다.
몬테 카를로는 유명한 카지노인데,
“몬테 카를로”라는 용어를 여러분이 보게 되면
문제를 해결하는 데에 알고리즘은 임의성과
찬스를 사용하기에 좋은 내기입니다.
몬테카를로 무작위성 및 미니맥스와 같은 규칙적인 트리
탐색을 결합하면
최신 게임 AI는 거대한 나무의 어느 부분을 탐색할지
배당률로 추측합니다.
기본적으로 그들은 승리로 이끄는 탐색을 하는
게임 트리 부분에 대한 높은 배당률을 원합니다.
기본적으로 그들은 승리로 이끄는 탐색을 하는
게임 트리 부분에 대한 높은 배당률을 원합니다.
그러나 이들은 많은 카지노 게임에서 만들 수 있는
임의 추측이 아닙니다.
AI 시스템은 수백만 개의 “what-if”시나리오를
수학을 사용하여 시뮬레이션 할 수 있습니다.

English: 
winning if they choose one path or another.
In each “what-if” scenario, the AI considers
making one particular move and then simulates
playing a large number of (but not all) possible
games, where the next moves are chosen at
random.
By averaging these possible outcomes, the
AI estimates how “good” that particular
move is.
It’s so much faster to estimate a handful
of choices than exhaustively calculate each
branch of the game tree.
And some computers can even do this estimation
in real time.
One example of this is Google’s DeepMind
which defeated human professional players
at Starcraft II in 2019 --- where time is
very critical.
Of course, Starcraft II, Go, and Tic-Tac-Toe
aren’t all the types of games that humans
play.
Other games require other strategies and have
other computational challenges:
IBM’s Watson question-answering system was
able to beat human Jeopardy! champions in
two televised matches in 2011.
Watson listened for keywords in the clue and
tried to use a knowledge graph to figure out
responses.
And we’ll talk more about knowledge graphs
in a future episode.

Korean: 
그들이 하나의 또는 어떤 경로를 선택했을 때 승리할
가능성을 수학으로 계산합니다.
각 “what-if”시나리오에서 AI는 하나의 특정 움직임을
고려하고, 가능한 많은 게임을 시뮬레이션합니다.
(전부는 아닙니다만)
여기서 다음 움직임은 무작위로 선택됩니다.
(전부는 아닙니다만)
여기서 다음 움직임은 무작위로 선택됩니다.
이러한 가능한 결과에 대한 평균으로, 
AI는 그 특정 움직임이 얼마나 “좋은”지 측정합니다.
이러한 가능한 결과에 대한 평균으로, 
AI는 그 특정 움직임이 얼마나 “좋은”지 측정합니다.
각 게임 트리의 가지를 철저하게 계산하는 것보다
몇 가지 선택을 측정하는 것이 훨씬 빠릅니다.
각 게임 트리의 가지를 철저하게 계산하는 것보다
몇 가지 선택을 측정하는 것이 훨씬 빠릅니다.
일부 컴퓨터는 이 측정을 실시간으로 수행할 수도 있습니다.
이에 대한 한 가지 예는 스타크래프트II 에서 2019년 
인간 프로들을 물리친 구글의 딥마인드입니다.
이 게임은 시간이 매우 중요합니다.
물론 스타 크래프트 II, 바둑, 틱택토가
인간이 하는 모든 유형의 게임은 아닙니다.
물론 스타 크래프트 II, 바둑, 틱택토가
인간이 하는 모든 유형의 게임은 아닙니다.
다른 게임에는 다른 전략이 필요하며
또 다른 도전적인 계산 문제가 있습니다.
IBM의 왓슨 질문-응답 시스템은 Jeopardy에서 2011년에
방송에서 인간을 상대로 두 번 우승했습니다.
IBM의 왓슨 질문-응답 시스템은 Jeopardy에서 2011년에
방송에서 인간을 상대로 두 번 우승했습니다.
Watson은 힌트에서 키워드를 듣고 지식 그래프를
사용하여 답을 알아 내려고 노력했습니다.
Watson은 힌트에서 키워드를 듣고 지식 그래프를
사용하여 답을 알아 내려고 노력했습니다.
지식 그래프에 대해서는 다음 에피소에드에서 
더 이야기하겠습니다.

Korean: 
왓슨은 완벽하지 않았고, 
상황에 따라 조금 문제가 있었습니다.
예를 들어 "토론토가 뭐야? 라고 물어본 질문에서
"미국의 도시"라고 대답했습니다.
예를 들어 "토론토가 뭐야? 라고 물어본 질문에서
"미국의 도시"라고 대답했습니다.
하지만 왓슨은 여전히 전체 인간 참가자보다
더 나았습니다.
진화 신경망은 강화 학습처럼
환경을 입력으로 사용합니다.
그러나 이 방법은 여러 신경망 구조를 시도하는 멀티
에이전트를 소개합니다.
다음 세대를 위한 성공적인 것들을 구축합니다.
살아남기에 더 좋은 동물과 같은 종류의 동물이
유전자를 전염시킵니다.
예를 들어 AI 마리오는
슈퍼 마리오 월드 레벨을 플레이할때
마리오에게 어떤 버튼을 누를 수 있는지, 레벨에서 "오른
쪽"으로 멀리 갈수록 좋다는 것을 알려주면서 배웁니다.
마리오에게 어떤 버튼을 누를 수 있는지, 레벨에서 "오른
쪽"으로 멀리 갈수록 좋다는 것을 알려주면서 배웁니다.
이 AI는 기본적으로 버튼을 임의로 으깨서 시작합니다.
그러나 일부 으깬 버튼이 오른쪽으로 갈 수록
성공적인 시도라는 것을 기억하고 배웁니다.
다음 실습에는 존 그린 봇이 쓰레기를 파괴하는 비디오
게임을 깨기 위해 이 접근법으로 자체 AI를 구축할 것입니다.
다음 실습에는 존 그린 봇이 쓰레기를 파괴하는 비디오
게임을 깨기 위해 이 접근법으로 자체 AI를 구축할 것입니다.
AI가 우리를 이길 수 없는, 인간이 항상 유리한,
그런 안전한 게임이 있을까요?

English: 
Watson wasn’t perfect and struggled a bit
with context.
For example, it famously guessed “What is
Toronto?” on something in the category “US
Cities.”
But Watson was still able to do better than
human contestants overall.
Evolutionary neural networks use the environment
as an input, like reinforcement learning.
But this approach introduces /multiple/ agents
who try multiple neural network structures,
and then build on successful ones for the
next generation.
Sort of like animals, the ones that are better
at surviving get to pass on their genes.
For example, the AI MarI/O can learn how to
play a Super Mario World level by telling
MarI/O what buttons it can push and that getting
farther to the “right” in the level is
good.
This AI will start by basically mashing buttons
at random, but as some button mashes get it
farther to the right, it remembers and learns
from those successful attempts.
In the next lab, we’ll build our own AI
to use this approach to /crush/ a video game
that we built where John-Green bot destroys
trash.
So, are there any games that are safe to play,
where humans will always have an edge and

English: 
AI won’t be able to beat us?
Computers definitely seem to struggle with
parts of language like humor, irony, metaphor,
and wordplay.
Computers also aren’t great at understanding
and predicting real people, who don’t always
act “optimally,” so social games could
be more difficult too.
But AI systems are finding some success in
bluffing games like online poker, so it’s
important not to underestimate them.
John Green Bot: All - in.
Computers might also struggle with creativity
or surprise, because there’s not a really
clear way to assign values to states.
It’s difficult to assign a number to “how
creative” something is, compared to saying
“go as far right as you can in the Mario
level” or “achieve a winning state in
a chess game.”
So, considering all of that, maybe games like
charades would be pretty stacked for a human
victory.
Or… what about pictionary?
Hide-and seek???

Korean: 
AI가 우리를 이길 수 없는, 인간이 항상 유리한,
그런 안전한 게임이 있을까요?
컴퓨터는 분명히 유머, 아이러니, 은유, 단어놀이와 같은 
언어 일부에는 어려움을 겪는 것 같습니다.
컴퓨터는 분명히 유머, 아이러니, 은유, 단어놀이와 같은 
언어 일부에는 어려움을 겪는 것 같습니다.
컴퓨터는 또한 최적화하도록 행동하지 않는 
현실의 인간에 대한 이해력이 좋지 않습니다.
따라서 사회적인 게임은 더 어려울 것입니다.
그러나 AI 시스템은 온라인 포커와 같은 허풍 게임에는
성공적입니다.
그러므로 그들을 과소 평가하지 않는 것이 중요합니다.
존 그린 봇 : 올인.
컴퓨터는 또한 창의성과 놀라움으로 어려움을 겪을 수 
있습니다.
왜냐하면 상태에 값을 할당하는
명확한 방법이 없기 때문입니다.
무언가가 얼마나 "창의적"인지 숫자를 할당하기 어렵죠.
가령 "마리오에서 최대한 멀리 가는 것" 또는
"체스 게임에서 승리 상태를 달성하는 것"과 비교했을 때
그렇습니다.
"체스 게임에서 승리 상태를 달성하는 것"과 비교했을 때
그렇습니다.
따라서 모든 것을 고려하면 제스처 게임 같은 것은
인간의 승리하기에 좀 유리할 겁니다.
따라서 모든 것을 고려하면 제스처 게임 같은 것은
인간의 승리하기에 좀 유리할 겁니다.
아니면 ... 단어를 보고 그림을 그려서 맞추는 게임은
어떨까요?
아니면 숨바꼭질은요??

English: 
We’d love to hear in the comments what games
you think are safe from AI.
But in the next episode, which is another
lab, we’ll program an AI system to learn
how to play an arcade-like game… and I’ll
beg John Green bot for my poker money back.
I’ll see ya then
Crash Course is produced in association with
PBS Digital Studios.
If you want to help keep Crash Course free
for everyone, forever, you can join our community
on Patreon.
And if you want to learn more about the history
of games, we have a whole series about that.

Korean: 
우리는 댓글에  여러분이 AI로부터 안전한 게임에는 
어떤 게임이 있는지 듣고 싶습니다.
하지만 다음 에피소드에서, 다른 실습으로 아케이드 
게임을 하는 방법에 대한 AI 시스템을 프로그래밍합니다.
그리고 존 그린 봇에게 내 포커 머니를 돌려달라고 
부탁할거에요...
그럼 나중에 만나요!
크래시 코스는 PBS 디지털 스튜디오와 
연합하여 제작됩니다.
Crash Course가 모두를 위해 무료일수 있도록
도움을 주시고 싶으면 Patron 커뮤티에 가입해주세요!
Crash Course가 모두를 위해 무료일수 있도록
도움을 주시고 싶으면 Patron 커뮤티에 가입해주세요!
그리고 역사에 대해 더 알고 싶다면
게임의 전체 시리즈가 있습니다.
