
English: 
If there’s one deep net that has completely
dominated the machine vision space in recent
years, it’s certainly the convolutional
neural net, or CNN.
These nets are so influential that they’ve
made Deep Learning one of the hottest topics
in AI today.
But they can be tricky to understand, so let’s
take a closer look and see how they work.
CNNs were pioneered by Yann Lecun of New York
University, who also serves as the director
of Facebook's AI group.
It is currently believed that Facebook uses
a CNN for its facial recognition software.
A convolutional net has been the go to solution
for machine vision projects in the last few
years.
Early in 2015, after a series of breakthroughs
by Microsoft, Google, and Baidu, a machine

Chinese: 
在近几年，如果某个深度网络已经完全主导机器视觉，
它肯定是卷积神经网络，或CNN。这些网络的影响力已经让
深度学习成为，今天AI中最热门的话题之一。但它们
理解起来比价复杂，让我们来仔细
了解下，看看他们是如何工作的。
CNN是由纽约大学的Yann Lecun首创，他也担任
Facebook AI组的负责人。目前Facebook已经将CNN应用到它的面部识别软件。
 
在过去几年，卷积网络已经成为机器视觉项目的解决方案。
早在2015年，经过微软，谷歌和百度一系列的突破，

Korean: 
최근 기계 시각 인식 관련 분야에 있어서 
가장 많이 쓰이는 딥 넷이 있다면,
그건 확실히 Convolutional Neural Net 
이라고 할 수 있답니다.
줄여서 CNN이라고 하죠.
이 네트워크는 매우 큰 영향력을 가져서,
CNN이 인공지능을 최근 가장 뜨거운 이슈로 만들었다고 해도,
과언이 아닙니다.
그러나 CNN은 이해하기 까다롭습니다.
그러니, 어떻게 작동하는지 한번 자세히 살펴보자구요!
CNN은 뉴욕 대학의 Yann Lecun에 의해서 고안되었어요.
그는 또한 페이스북 AI 그룹을 이끌고 있는 사람이죠.
페이스북이 CNN을 안면 인식 소프트웨어에 사용하고 있다고 합니다.
Convolutional Net은,
지난 몇년간 머신 비전 분야의 해결책으로 사용되왔습니다.
2015년 초에,
이 분야의 돌파구가
마이크로소프트, 구글, 바이두에 의해서 마련된 후에,
기계가 인간을 앞지르기 시작했습니다.

Thai: 
ถ้ามี deep net อันหนึ่งที่เป็นผู้นำในวงการ
machine vision โดยสมบูรณ์ในหลายปี
ที่ผ่านมาล่ะก็ มันต้องเป็น convolutional neural net
หรือ CNN แน่นอน เน็ตเหล่านี้มีอิทธิพลมาก
จนทำให้ Deep Learning เป็นหนึ่งในหัวข้อ
ที่ฮิตที่สุดในเอไอทุกวันนี้ แต่มันอาจ
เข้าใจได้ยากหน่อย ลองดูอย่างใกล้ชิด
ว่ามันทำงานอย่างไรกัน
CNN ถูกพัฒนาโดย Yann Lecun ในมหาวิทยาลัยนิวยอร์ก 
และผู้อำนวยการ
กลุ่มเอไอของเฟสบุค เชื่อกันว่าเฟสบุคใช้ CNN
ในซอฟต์แวร์สังเกตใบหน้าด้วย
 
convolutional net เป็นคำตอบที่ทรงอิทธิพล
ให้กับโปรเจค machine vision ต่างๆ หลายปีที่ผ่านมา
ช่วงต้นปี 2015 หลังจากการความสำเร็จมากมาย
จาก Microsoft, Google และ Baidu เครื่องจักร

Spanish: 
si hay una deep net que dominado completamente le espacio de vision de la maquina en
anos reecientes, es ciertamente la convolutional neural net, o CNN. Estas redes son tan influyentes
que han hecho Deep learning uno de los temas mas tocados in IA. Pero pueden ser
difícil de entender, así que vamos a echarle un vistazo y ver cómo funcionan.
CNN fue iniciado por Yann Lecun de Nueva York
Universidad, que también sirve como el director
del grupo de AI de Facebook. Actualmente se cree
que Facebook usa una CNN para su reconocimiento facial
software.
Una red convolucional ha sido la solución
para proyectos de visión artificial en los últimos
años. A principios de 2015, después de una serie de avances
por Microsoft, Google y Baidu, una máquina

Thai: 
สามารถเอาชนะมนุษย์ในการแข่งขันสังเกตวัตถุ
เป็นครั้งแรกในประวัติศาสตร์ของ
เอไอ
มันยากที่จะไม่พูดถึง CNN โดยไม่แตะเรื่อง
การแข่งขัน ImageNet โครงการ ImageNet
เกิดขึ้นจากความต้องการข้อมูลคุณภาพสูง
ในโลกของ image processing
ทุกปี ทีม deep learning ชั้นนำในโลก
แข่งขันกันเพื่อสร้าง
ซอฟต์แวร์เพื่อสังเกตวัตถุที่ดีที่สุด
ย้อนไปในปี 2012 เมื่อทีมของ Geoff Hinton
ได้ที่หนึ่งในการแข่งขัน ผู้ชนะทุกครั้ง
ใช้ convolutional net เป็นโมเดล
มันไม่น่าประหลาดใจ เพราะอัตราความคลาดเคลื่อน
ในการตรวจจับภาพนั้นลดลง
อย่างมีนัยสำคัญเมื่อใช้ CNN อย่างที่เห็นในภาพนี้
คุณเคยเจอปัญหาตอนพยายามเรียนเรื่อง CNN ไหม? 
ถ้าเคย ช่วยคอมเมนต์และ
เล่าประสบการณ์หน่อย
เราจะพูดถึง CNN อย่างคร่าวๆ 
แต่ถ้าคุณอยากเรียนแบบใช้เลข

Korean: 
시각적으로 물체를 인식하는데 있어서,
인공지능의 역사상 최초로요.
CNN을 언급할 떄,
 ImageNet 경연대회를 언급하지 않을 수가 없습니다.
ImageNet은,
고 품질의 이미지 처리 수요를 
감당하기 위해서 만들어진 프로젝트에요.
매년, 전 세계 최고의 딥 러닝 연구 집단이
서로 경쟁하게 됩니다.
최고의 물체 인식 소프트웨어를 만들기 위해서요.
2012년으로 돌아가서,
Jeoff Hinton이 우승했을 때로 돌아가 살펴본다면,
당시의 모든 승리 팀이 CNN을 모델에 적용했었습니다.
이 사실이 놀랍지 않은 것은,
이미지 인식 과제에 있어서 오류율이,
CNN의 등장 이후 급격하게 떨어졌기 때문이죠.
여기 이 이미지를 보면 알 수 있듯이 말이에요.
CNN에 대해서 공부하다가 힘들었던 분 계신가요 ㅠ?
코멘트로 경험을 공유해주세요!
여기서 우리는, CNN에 대해서 배우겠지만,

Spanish: 
fue capaz de vencer a un humano en un reconocimiento de objetos
desafío por primera vez en la historia
de AI.
Es difícil mencionar una CNN sin tocar
en el desafío de ImageNet. ImageNet es un proyecto
que fue inspirado por la creciente necesidad de
datos de alta calidad en el procesamiento de imágenes
espacio. Cada año, los mejores equipos de Deep Learning
en el mundo compiten entre sí para crear
el mejor software de reconocimiento de objetos posible.
Volviendo a 2012 cuando el equipo de Geoff Hinton
tomó el primer lugar en el desafío, cada uno
ganador ha utilizado una red convolucional como su
modelo. Esto no es sorprendente, ya que
la tasa de error de las tareas de detección de imágenes ha disminuido
significativamente con CNN, como se ve en esta imagen.
Alguna vez has tenido problemas al tratar de aprender
acerca de las CNN? Si es así, por favor comente y comparta
tus experiencias
Mantendremos nuestro debate sobre CNN de alto nivel,
pero si te inclinas a aprender sobre

English: 
was able to beat a human at an object recognition
challenge for the first time in the history
of AI.
It’s hard to mention a CNN without touching
on the ImageNet challenge.
ImageNet is a project that was inspired by
the growing need for high-quality data in
the image processing space.
Every year, the top Deep Learning teams in
the world compete with each other to create
the best possible object recognition software.
Going back to 2012 when Geoff Hinton’s team
took first place in the challenge, every single
winner has used a convolutional net as their
model.
This isn’t surprising, since the error rate
of image detection tasks has dropped significantly
with CNNs, as seen in this image.
Have you ever struggled while trying to learn
about CNNs?
If so, please comment and share your experiences.
We’ll keep our discussion of CNNs high level,
but if you’re inclined to learn about the

Chinese: 
机器能够在AI历史上，首次在物体识别挑战中击败人类。
 
提到CNN，很难不提到ImageNet挑战。
ImageNet是图像处理领域，针对高质量数据日益增长的需求所启发的一个项目。
每年，世界顶级的深度学习团队相互竞赛，
创造最佳识别物体的软件。回到2012年，当Geoff Hinton的团队
在比赛中获得第一名时，每位获胜者都使用了卷积网络作为他们的模型。
这并不奇怪，因为使用CNN，图像检测的错误率显著下降。
正如这个图片所示。
在尝试学习CNNs的时候，你曾经是否花费很大力气，
如果是这样，请评论并分享您的经验。
我们将继续CNN的高级话题，如果你倾向于学习数学，

Chinese: 
一定要查看Andrej Karpathy的CS231n 课程笔记。
CNN有许多组件层，我们将逐个解释。
首先从一个类比开始，它将有助于描述第一个组件，“卷积层”
 
想像我们有一堵墙，它代表数字图像。我们还有
许多手电筒照耀在墙上，产生许多重叠的圆。
这些手电筒的目的是在图像中寻求特定模式，比如一个边缘
或者颜色对比度。每个手电筒
和其他的一样，都是查找相同的模式，
但它们在图像的不同区域进行搜索，
不同的区域由光圆所创建的固定区域定义。当手电筒组合在一起的时候，形成了所谓的

English: 
math, be sure to check out Andrej Karpathy’s
amazing CS231n course notes on these nets.
There are many component layers to a CNN,
and we will explain them one at a time.
Let’s start with an analogy that will help
describe the first component, which is the
“convolutional layer”
Imagine that we have a wall, which will represent
a digital image.
Also imagine that we have a series of flashlights
shining at the wall, creating a group of overlapping
circles.
The purpose of these flashlights is to seek
out a certain pattern in the image, like an
edge or a color contrast for example.
Each flashlight looks for the exact same pattern
as all the others, but they all search in
a different section of the image, defined
by the fixed region created by the circle
of light.

Korean: 
수학적인 면에 대해서 배우고 싶으시다면,
 Andrej Karpathy의 강의 CS231n의 강의 노트를 꼭 살펴보세요.
CNN은 여러 층들로 구성되어 있습니다.
우리는 한번에 하나씩 그 요소들을 알아볼거에요.
그 중 첫 번째 요소를 비유를 들어서 설명해보죠.
바로  "Convolutional Layer" 말이에요.
우리가 '벽'을 하나 가지고 있다고 칩시다.
디지털 이미지를 이 벽이라고 생각해 보세요.
그리고, 우리가 이 벽에 연속되는 손전등을 비춘다고 생각해봐요.
서로 겹치는 원들을 만들면서요.
손전등들을 비추는 목적은,
이미지에서 어떤 패턴을 찾아내기 위함입니다.
테두리(Edge)나, 색의 대비(Contrast)같은 것들이죠.
각 손전등이 찾으려고 하는 서로 패턴은 같지만,
그들이 이미지의 다른 부분을 비추고 있습니다.
바로 각각의 불빛이 비추고 있는 원형 부분이죠.
이 불빛들이 결합되면,
필터를 구성하게 됩니다.

Thai: 
ลองดูเอกสารประกอบวิชา CS231n ของ
Andrej Karpathy อันยอดเยี่ยมในเรื่องเน็ตพวกนี้ดู
มันมีชั้นองค์ประกอบหลายอย่างใน CNN
และเราจะอธิบายพวกมันไปทีละอย่าง ลอง
เริ่มด้วยการเปรียบเทียบ เพื่อช่วยบรรยาย
องค์ประกอบกัน มันเรียกว่า convolutional
layer
นึกภาพว่าเรามีผนัง ซึ่งแทนภาพดิจิตอล
นึกภาพด้วยว่าเรามี
ชุดไฟฉายซึ่งฉายไปบนหนัง
เกิดเป็นกลุ่มของวงกลมซ้อนกัน
จุดประสงค์ของไฟฉายเหล่านี้คือเพื่อหา
รูปแบบในภาพ เช่นขอบ
หรือความแตกต่างของสี ไฟฉายแต่ละอัน
หารูปแบบเดียวกันเช่นเดียว
กับไฟฉายอื่นๆ แต่พวกมันค้นหาไปตาม
ส่วนต่างๆ ของภาพ ซึ่งกำหนดโดย
ขอบเขตจำกัดตามวงกลมของแสง
ไฟฉายเหล่านั้นรวมกัน

Spanish: 
matemáticas, asegúrate de revisar Andrej Karpathy's
sorprendentes notas del curso CS231n sobre estas redes.
Hay muchas capas de componentes en una CNN,
y los explicaremos uno a la vez. Vamos a
comenzar con una analogía que ayudará a describir
el primer componente, que es el "convolucional
capa"
Imagina que tenemos un muro, que representará
una imagen digital. También imagine que tenemos
una serie de linternas brillando en la pared,
creando un grupo de círculos superpuestos. los
El propósito de estas linternas es buscar
un cierto patrón en la imagen, como un borde
o un contraste de color, por ejemplo. Cada linterna
busca el mismo patrón exacto que todos los
otros, pero todos buscan de forma diferente
sección de la imagen, definida por el
región creada por el círculo de luz. Cuando
combinados, las linternas forman lo que

English: 
When combined together, the flashlights form
what’s a called a filter.
A filter is able to determine if the given
pattern occurs in the image, and in what regions.
What you see in this example is an 8x6 grid
of lights, which is all considered to be one
filter.
Now let’s take a look from the top.
In practice, flashlights from multiple different
filters will all be shining at the same spots
in parallel, simultaneously detecting a wide
array of patterns.
In this example, we have four filters all
shining at the wall, all looking for a different
pattern.
So this particular convolutional layer is
an 8x6x4, 3-dimensionsal grid of these flashlights.
Now let’s connect the dots of our explanation:
- Why is it called a convolutional net?
The net uses the technical operation of convolution
to search for a particular pattern.

Korean: 
필터는 특정 패턴이 그 부분에 있는지, 
또, 어디 있는지 결정합니다.
이 8x6 형태의 손전등들이 구성하고 있는 것은
하나의 필터로서 기능합니다.
이제 위에서 쳐다본다고 생각해봅시다.
실제로,
여러개의 필터에서 나오는 손전등들은,
모두 같은 부분을 병렬적으로 여러번 비추고 있습니다.
그와 동시에 여러개의 패턴을 감지하고 있죠.
이 예시에서,
4개의 필터가 같은 벽을 비추고 있습니다.
각 필터는 다른 패턴을 찾고 있죠.
그래서 이 Convolutional Layer를,
8 x 6 x 4 라고 표현할 수 있습니다.
3차원의 격자라고 생각했을 떄 말이에요.
이제 이전의 설명과 이어서 생각해보죠.
왜 이것을 Convolutional Net이라고 부를까요?
그 이유는 이 네트워크가,
Convoltution 이라는 연산을 사용하기 때문입니다.
특정 패턴을 찾아내기 위해서요.
Convolution에 대한 정확한 정의는,

Spanish: 
un llamado filtro Un filtro puede determinar
si el patrón dado ocurre en la imagen,
y en qué regiones. Lo que ves en esto
ejemplo es una cuadrícula 8x6 de luces, que es
todos considerados como un filtro
Ahora echemos un vistazo desde la parte superior. En la práctica,
linternas de múltiples filtros diferentes
todos estarán brillando en los mismos puntos en paralelo,
detección simultánea de una amplia gama de patrones.
En este ejemplo, tenemos cuatro filtros todos
brillando en la pared, todos buscando una diferente
patrón. Entonces este particular convolucional
capa es una grilla de 8x6x4, 3 dimensiones
estas linternas.
Ahora conectemos los puntos de nuestra explicación:
- ¿Por qué se llama una red convolucional? los
net utiliza la operación técnica de convolución
para buscar un patrón particular. Mientras

Chinese: 
过滤器。过滤器能够确定图像中是否存在给定的模式，
及在什么地区。在这个例子中，可以看到8x6的光线网格，
这所有被认为是一个过滤器。
让我们从上面看。实际上，来自多个不同过滤器的手电筒
可以在相同的点并行照耀，同时检测一系列模式。
这个例子中，有四个过滤器，所有都照耀到墙上，都在寻找不同的模式。
因此，这个特殊的卷积层是一个8x6x4，3维的手电筒网格。
 
现在让我们将解释的点联系起来：
 - 为什么叫卷积网络？
网络采用卷积技术操作来搜索特定模式。

Thai: 
เรียกว่า filter ตัว filter สามารถบอกได้ว่า
รูปแบบที่ให้มาเกิดขึ้นในภาพหรือไม่
และเกิดในเขตใด สิ่งที่คุณเห็นในตัวอย่างนี้
คือตารางแสงขนาด 8x6 ซึ่ง
ทั้งหมดนี้นับเป็น filter หนึ่งอัน
ทีนี้ ลองดูจากข้างบนบ้าง ในความเป็นจริง
ไฟฉายจาก filter ต่างๆ หลายอัน
จะฉายแสงไปที่จุดเดียวกัน คู่ขนานกันไปพร้อมๆ กัน
เพื่อตรวจับรูปแบบต่างๆ กัน
ในตัวอย่างนี้ เรามี filter สี่อันฉายไปที่กำแพง
พร้อมกันหมด เพื่อหา
รูปแบบต่างๆ กัน convolutional year นี้
จึงมีขนาด 8x6x4 เป็นตารางสามมิติของ
ไฟฉายเหล่านี้
ทีนี้ ลองเชื่อมโยงคำอธิบายของเรากัน
-- ทำไมมันถึงเรียกว่า convolutional net?
เน็ตใช้ตัวดำเนินการทางเทคนิคเรียกว่า convolution
เพื่อตามหารูปแบบเฉพาะอย่าง

Korean: 
이 영상의 범위를 벗어납니다.
단순하게 생각해서,
특정 패턴을 찾아내기 위한 필터링 과정이라고 생각하면 됩니다.
하지만, 주목해야 할 것은,
이 층(layer)의 가중치(weight)와 편향치(bias)가
이 연산(Convolution)이 어떻게 수행되는가에
영향을 준다는 것입니다.
이 값들을 변화시키면,
필터링 하는 과정의 효율성이 변하게 됩니다.
CNN에서 각각의 손전등을 하나의 뉴런이라고 생각할 수 있습니다.
전형적으로는,
그냥 어떤 층에서 발화하는 뉴런이라고 여길 수도 있죠.
그러나,
Convolutional Layer에서는,
이 뉴런들이 'Convolution 연산'을 수행하게 됩니다.
한 손전등 집합에 대해서 박스를 그려서,
조금 더 구조적으로 보이게 만들어 보죠.
지금까지 보았던 네트워크에서는,
모든 뉴런이 옆 층의 모든 뉴런과 연결되어 있었는데,
CNN은 이와 다르게 손전등 구조를 가지고 있어요.
각각의 뉴런은 그 자신이 비추고 있는 입력 뉴런들과만
연결되어 있습니다.
한 필터의 뉴런들은,

Chinese: 
而卷积的确切定义超越我们讲解的范围，为了简单，
就把它当作为了特定模式而过滤图片的过程。
一个重要的注意是，这层的权重和偏差
将影响操作如何被执行：
调整这些数字将影响过滤处理的有效性。
- 每个手电筒代表了CNN中的一个神经元。一般，在层中的神经元被激活。
另一方面在卷积层，神经元执行此“卷积”操作。
我们在手电筒集合外画一个框，
看起来更有组织。
- 与我们迄今见过的网络不同，
层上的每个神经元都被连接到
相邻层中的每个神经元，CNN具有
手电筒结构。每个神经元
只连接到“照耀”的输入神经元。

Spanish: 
la definición exacta de convolución está más allá
el alcance de este video, para mantener las cosas simples,
solo piense en ello como el proceso de filtrado
a través de la imagen para un patrón específico.
Aunque una nota importante es que los pesos
y los sesgos de esta capa afectan cómo esta operación
se realiza: ajustar estos números impactos
la efectividad del proceso de filtrado.
- Cada linterna representa una neurona en el
CNN. Por lo general, las neuronas en una capa activan
o fuego Por otro lado, en la convolucional
capa, las neuronas realizan esta "convolución"
operación. Vamos a dibujar una caja alrededor
un juego de linternas para que las cosas se vean
un poco más organizado.
- A diferencia de las redes que hemos visto hasta ahora donde
cada neurona en una capa está conectada a cada
neurona en las capas adyacentes, una CNN tiene la
estructura de la linterna. Cada neurona es solo
conectado a las neuronas de entrada, "brilla"
sobre.

English: 
While the exact definition of convolution
is beyond the scope of this video, to keep
things simple, just think of it as the process
of filtering through the image for a specific
pattern.
Although one important note is that the weights
and biases of this layer affect how this operation
is performed: tweaking these numbers impacts
the effectiveness of the filtering process.
- Each flashlight represents a neuron in the
CNN.
Typically, neurons in a layer activate or
fire.
On the other hand, in the convolutional layer,
neurons perform this “convolution” operation.
We're going to draw a box around one set of
flashlights to make things look a bit more
organized.
- Unlike the nets we've seen thus far where
every neuron in a layer is connected to every
neuron in the adjacent layers, a CNN has the
flashlight structure.
Each neuron is only connected to the input
neurons it "shines" upon.

Thai: 
นิยามจริงๆ ของ convolution นั้นเกินขอบเขตของวิดีโอนี้
แต่เพื่อให้ง่าย
ลองคิดว่ามันเป็นกระบวนการกรอง
ภาพเพื่อหารูปแบบเฉพาะอย่างหนึ่ง
ข้อสังเกตสำคัญอย่างหนึ่งคือว่า weights และ biases ของภาพนี้มีผลต่อประสิทธิภาพ
ของการดำเนินการนี้ การปรับค่าเหล่านี้
มีผลต่อประสิทธิภาพของกระบวนการกรอง
ไฟฉายแต่ละอันแทน neuron หนึ่งตัวใน CNN
โดยทั่วไป neurons ในชั้นจะตื่นตัว
หรือยิงสัญญาณ อย่างไรก็ตาม ใน convolutional layer
neurons จะทำการดำเนินการ
convolution เราจะวาดกล่องรอบชุดไฟฉายหนึ่งชุด
เพื่อให้มันดู
เป็นระเบียบมากขึ้น
-- มันไม่เหมือนกับเน็ตที่เราเห็นมา
ที่ neuron ทุกตัวในชั้นต่อกับ
neuron ทุกตัวในชั้นถัดไป
CNN มีโครงสร้างไฟฉาย neuron แต่ละตัว
จะต่อกับ input neurons ที่มันฉายโดนเท่านั้น

Chinese: 
给定过滤器中的神经元共享相同的
权重和偏差参数。这意味着，
在过滤器上的任何地方，给定的神经元连接到相同数量的输入神经元，
并且具有相同的权重和偏差。这就是在图片不同的区域，允许过滤器查找
相同的模式。通过安排这些神经元与手电筒网格具有相同的结构，
我们确定整个图像将被进行扫描。
接下来的两层是RELU和池化，两者都有助于建立
被卷积层发现的简单模式。在卷积层的每个节点
被连接到像其他网络的一个触发的节点
。使用的激活器被称为RELU
或修正线性单元。CNNs使用反向传播训练网络，因此
梯度消失再次成为一个潜在的问题。因为RELU的数学定义的原因，

Thai: 
neurons ใน filter หนึ่งๆ ใช้ค่า weight
และ bias เดียวกัน นี่หมายความว่า
ทุกแห่งบน filter ตัว neuron หนึ่งๆ จะ
เชื่อมโยงกับ input neurons จำนวนเท่าๆ กัน
และมี weight กับ bias เท่าๆ กัน
นี่คือสิ่งที่ทำให้ฟิลเตอร์หา
รูปแบบเดียวกันไปตามส่วนต่างๆ ของภาพได้
ด้วยการเรียง neurons เหล่านี้ใน
แบบเดียวกับชุดตารางไฟฉาย 
เราจึงแน่ใจได้ว่าเราสแกนทั้งภาพ
ชั้นสองชั้นต่อไปที่ตามมาคือ RELU และ pooling
ทั้งคู่ช่วยสร้าง
รูปแบบง่ายๆ ที่พบจาก convolutional layer
แต่ละโหนดใน convolutional layer
เชื่อมโยงกับโหนดที่ยิงสัญญาณเหมือนเน็ตอืนๆ
การกระตุ้นที่ใช้เรียกว่า
RELU หรือ rectified linear unit
CNN ถูกเทรนโดยใช้ backpropagation เกรเดียนต์สูญหาย
จึงเป็นปัญหาที่เกิดขึ้นได้เหมือนเดิม
ด้วยเหตุผลที่มาจากนิยามทางคณิตศาสตณ์

English: 
The neurons in a given filter share the same
weight and bias parameters.
This means that, anywhere on the filter, a
given neuron is connected to the same number
of input neurons and has the same weights
and biases.
This is what allows the filter to look for
the same pattern in different sections of
the image.
By arranging these neurons in the same structure
as the flashlight grid, we ensure that the
entire image is scanned.
The next two layers that follow are RELU and
pooling, both of which help to build up the
simple patterns discovered by the convolutional
layer.
Each node in the convolutional layer is connected
to a node that fires like in other nets.
The activation used is called RELU, or rectified
linear unit.
CNNs are trained using backpropagation, so
the vanishing gradient is once again a potential
issue.
For reasons that depend on the mathematical
definition of RELU, the gradient is held more

Korean: 
가중치와 편향치를 공유하게 됩니다.
이것이 의미하는 것은,
필터의 모든 부분에서,
뉴런이 동일한 수의 입력 뉴런들과 연결되어 있음을 의미하죠.
또한, 같은 가중치와 편향치를 가졌음도요.
이것이 바로 한 필터가 같은 패턴을 찾는 이유입니다.
비추는 영역이 다르더라도요.
이 뉴런들을 이 손전등 구조의 격자 형태로 배치함으로써,
우리는 전체 이미지를 스캔 할 수 있습니다.
이어지는 두 개의 층은,
RELU와 Pooling이라고 부릅니다.
둘다, Convolutional Layer에서 찾은 간단한 패턴을
쌓아올리는 역할을 하죠.
Convolutional Layer의 각 노드들은,
다른 네트워크와 같이, 발화하는 다음 노드로 연결됩니다.
여기에서 사용되는 활성(activation)을  RELU라고 부르는데요.
Rectified Linear Unit의 약자입니다.
CNN은 역전파를 이용해서 훈련되기 때문에,
Vanishing Gradient 문제가 또다시 잠재적인 문제입니다.
RELU의 수학적인 정의에서 기인하는 이유에서,

Spanish: 
Las neuronas en un filtro dado comparten el mismo
parámetros de peso y sesgo. Esto significa que,
en cualquier parte del filtro, una neurona dada es
conectado a la misma cantidad de neuronas de entrada
y tiene los mismos pesos y sesgos. Esta
es lo que permite que el filtro busque el
mismo patrón en diferentes secciones de la
imagen. Organizando estas neuronas en el mismo
estructura como la rejilla de la linterna, nos aseguramos
que se escanea toda la imagen
Las siguientes dos capas siguientes son RELU y
agrupación, que ayudan a construir el
patrones simples descubiertos por la convolucional
capa. Cada nodo en la capa convolucional
está conectado a un nodo que dispara como en
otras redes La activación utilizada se llama
RELU, o unidad lineal rectificada. CNN están capacitados
usando retropropagación, entonces el gradiente de fuga
es una vez más un problema potencial. Por razones
que dependen de la definición matemática

Chinese: 
在网络的每层，梯度或多或少被保持为常量。所以
RELU激活使网络可以被正确地训练，而不会在
关键的早期层出现有害地放缓
池化层用于减少维度。CNNs将
卷积层和RELU层的多个实例按序列叠加一起，以便构建
更为复杂的模式。与此产生的问题是可能的模式数量变得非常大。
通过引入池化层，保证了网络聚焦于
通过卷积和RELU发现最相关的模式。这也有助于限制
运行CNN对存储和处理的需求。
总之，这三层可以发现大量的复杂模式，但是网络
并不知道这些模式的意义。因此，全连接层附着在

Spanish: 
de RELU, el gradiente se lleva a cabo más o menos
constante en cada capa de la red. Entonces el
La activación de RELU permite que la red esté correctamente
entrenado, sin ralentizaciones perjudiciales en el
capas tempranas cruciales.
La capa de agrupamiento se usa para la dimensionalidad
reducción. Las CNN muestran múltiples instancias de
capas convolucionales y capas RELU juntas
en una secuencia, para construir más y
patrones más complejos. El problema con esto
es que la cantidad de patrones posibles se vuelve
muy grande Al introducir la puesta en común
capas, nos aseguramos de que la red se centre en
solo los patrones más relevantes descubiertos
por convolución y RELU. Esto ayuda a limitar
tanto la memoria como los requisitos de procesamiento
para ejecutar una CNN.
Juntos, estas tres capas pueden descubrir
una serie de patrones complejos, pero la red
no tengo entendimiento de lo que estos patrones
media. Entonces, se adjunta una capa completamente conectada

Korean: 
기울기(gradient)가 네트워크의 모든 층에 있어서,
더 안정하거나, 불안정하게 됩니다.
그래서 RELU 활성(activation)은 
네트워크가 적절히 훈련되게 합니다.
초기 주요 층에서의 속도 저하 없이도요.
Pooling 층은,
차원 감소(dimensionality reduction)을 위해서 사용됩니다.
CNN은 여러개의 과정을 순차적으로 수행합니다.
convolutional 층과 RELU 층에서 연속적으로요.
더 복잡한 패턴을 찾아내기 위해서요.
이것의 문제점은,
가능한 패턴들의 수가,
폭발적으로 증가함에 있습니다.
Pooling 층을 도입함으로써,
우리는 네트워크가,
Convolutional 과 RELU가 찾은 패턴 중 가장 흔한 것에
집중할 수 있게 합니다.
이렇게 함으로써,
필요한 메모리와 프로세서를 감소키실 수 있죠.
다시 말하자면,
세개의 층은, 복잡한 패턴들의 뭉치를 찾아낼 수 있습니다.
그러나 네트워크는 이 패턴이 의미하는 바를 알 수 없죠.
그래서, 완전히 연결된 층(fully connected layer)이,
네트워크의 마지막에 삽입됩니다.

Thai: 
ของ RELU เกรเดียนต์จะมีค่าคงที่
ในแต่ละชั้นของเน็ต การกระตุ้น
แบบ RELU ทำให้เน็ตนั้นถูกเทรนอย่างถูกต้อง
โดยไม่ถูกหน่วงใน
ชั้นแรกๆ ซึ่งสำคัญยิ่ง
Pooling layer ถูกใช้เพื่อลดมิติ
CNN แปะติด convolution layers
และ RELU layers เข้าด้วยกันเป็นชุดๆ เพื่อสร้าง
รูปแบบที่ซับซ้อนขึ้นเรื่อยๆ ปัญหาคือว่า
จำนวนรูปแบบที่เป็นไปได้
โตขึ้นมากเกินไป เมื่อใส่ pooling layers
เราแน่ใจได้ว่าเน็ตสนใจเฉพาะ
รูปแบบที่สำคัญที่สุดที่ convolution และ RELU เจอ มันช่วยจำกัด
ทั้งความจำและการประมวลผลที่ต้องใช้รัน CNN
รวมกันแล้ว ชั้นทั้งสามนี้สามารถค้นพบ
รูปแบบซับซ้อนมากมาย แต่เน็ต
ยังไม่มีความเข้าใจว่ารูปแบบเหล่านี้หมายถึงอะไร
ชั้นที่เชื่อมโยงแบบเต็มถูกติด

English: 
or less constant at every layer of the net.
So the RELU activation allows the net to be
properly trained, without harmful slowdowns
in the crucial early layers.
The pooling layer is used for dimensionality
reduction.
CNNs tile multiple instances of convolutional
layers and RELU layers together in a sequence,
in order to build more and more complex patterns.
The problem with this is that the number of
possible patterns becomes exceedingly large.
By introducing pooling layers, we ensure that
the net focuses on only the most relevant
patterns discovered by convolution and RELU.
This helps limit both the memory and processing
requirements for running a CNN.
Together, these three layers can discover
a host of complex patterns, but the net will
have no understanding of what these patterns
mean.
So a fully connected layer is attached to
the end of the net in order to equip the net

English: 
with the ability to classify data samples.
Let’s recap the major components of a CNN.
A typical deep CNN has three sets of layers
– a convolutional layer, RELU, and pooling
layers – all of which are repeated several
times.
These layers are followed by a few fully connected
layers in order to support classification.
Since CNNs are such deep nets, they most likely
need to be trained using server resources
with GPUs.
Despite the power of CNNs, these nets have
one drawback.
Since they are a supervised learning method,
they require a large set of labelled data
for training, which can be challenging to
obtain in a real-world application.
In the next video, we’ll shift our attention
to another important deep learning model – the

Spanish: 
hasta el final de la red con el fin de equipar el
neto con la capacidad de clasificar muestras de datos.
Repasemos los principales componentes de una CNN.
Una CNN profunda típica tiene tres conjuntos de capas
- una capa convolucional, RELU y agrupación
capas - todas las cuales se repiten varias veces
veces. Estas capas son seguidas por unas pocas
capas completamente conectadas para apoyar
clasificación. Como las CNN son redes tan profundas,
lo más probable es que necesiten ser entrenados usando
recursos del servidor con GPU.
A pesar del poder de las CNN, estas redes tienen
un inconveniente. Como son supervisados
método de aprendizaje, requieren un gran conjunto
de los datos etiquetados para el entrenamiento, que pueden ser
desafiante para obtener en una aplicación en el mundo real.
En el siguiente video, cambiaremos nuestra atención

Chinese: 
网络最后，以使网络能够对数据样本进行分类。
让我们回顾下CNN的主要组成部分。
典型的深度CNN有三类层
- 卷积层，RELU，和池化层 - 所有这些反复几次。
这些层的后面，跟着几个全连接的层，用来支持分类。
由于CNNs也是深度网络，他们最有可能需要
使用服务器资源的GPU进行训练。
尽管CNNs很强大，这些网络有
一个缺点。由于他们是监督学习算法，
他们需要很大的标记数据集进行训练，
在实际应用中，获取这样的数据集是具有挑战性。在接下来的视频中，我们将视线转移到

Thai: 
ตรงปลายเน็ตเพื่อให้เน็ตสามารถแบ่งประเภท
ตัวอย่างข้อมูลได้
ลองทบทวนองค์ประกอบหลักของ CNN อีกที
deep CNN ส่วนใหญ่ประกอบด้วยชั้นสามแบบ
-- convolutional layer, RELU และ pooling layers
-- ทั้งหมดนี้ถูกใช้ซ้ำ
หลายครั้ง ชั้นเหล่านี้มีชั้นที่เชื่อมโยงแบบเต็ม
ปิดท้ายเพื่อให้ใช้งาน
แบ่งประเภทได้ เนื่องจาก CNN เป็นเน็ตที่ลึกมาก
พวกมันมักต้องเทรนโดยใช้
ทรัพยากรระดับเซิร์ฟเวอร์ที่มี GPU
ถึงแม้ CNN จะทรงพลัง แต่เน็ตแบบนี้มีข้อเสียอยู่
เนื่องจากมันเป็นวิธีแบบ supervised
learning พวกมันต้องใช้ชุดข้อมูลที่มีค่ากำกับ
ในการเทรน ซึ่งเป็นเรื่องท้าทาย
ในการนำไปใช้จริง ในวิดีโอหน้า เราจะเปลี่ยนไปสนใจ

Korean: 
네트워크가 데이터 샘플을 분류할 수 있게 하기 위해서요.
CNN의 주요 구성 요소들에 대해 다시 살펴봅시다.
전형적인 딥 CNN의 경우, 세 종류의 층을 가집니다.
Convolutional 층,
RELU,
그리고 Pooling 층이죠.
세 종류의 층들이 모두 여러번 반복 되어 쌓이죠.
이 층들은 완전히 연결된 (Fully Connected) 층과
연결됩니다.
분류를 수행하기 위해서요.
CNN은 매우 깊은 네트워크이기 때문에,
GPU와 서버 자원을 통해서 훈련되야 하는 경우가 많습니다.
CNN의 위력에도 불구하고,
이 넷은 한가지 단점이 있습니다.
지도 학습 방법이 포함되기 때문에,
훈련 시키기 위해서, 매우 큰 이름붙은 데이터가 필요합니다.
실제로 적용하기 매우 어려워 지는 부분이죠.
다음 영상에서,
또다른 중요한 딥러닝 모델에 대해 살펴볼 거에요.
바로 Recurrent 네트워크 입니다.
한글 자막 번역 - 최준식 (leichoi91@gmail.com)

Spanish: 
a otro modelo importante de aprendizaje profundo: el
Red Recurrente

Chinese: 
另一个重要的深度学习模型 - 循环神经网络。

Thai: 
โมเดล deep learning ที่สำคัญอีกอัน
นั่นคือ Recurrent Net

English: 
Recurrent Net.
