
Thai: 
ถ้าคุณเคยละเลยเรื่อง neural nets 
เพราะคุณคิดว่ามันยากเกินจะเข้าใจ
หรือคุณคิดว่าคุณไม่ต้องใช้มัน -- 
โอ้ ฉันมีของให้คุณแล้วล่ะ!
ในวิดีโอนี้ คุณจะเรียนเกี่ยวกับ neural nets
โดยไม่ต้องใช้เลขหรือโค้ด --
แค่แนะนำว่าพวกมันคืออะไร
และพวกมันทำงานอย่างไร
สิ่งที่ฉันหวังคือว่า คุณจะเข้าใจว่าทำไม
พวกมันจึงเป็นเครื่องมือที่สำคัญ
ลองเริ่มกันดีกว่า
 
อย่างแรกที่คุณต้องรู้ คือว่า
deep learning เกี่ยวกับ neural networks
โครงสร้างของ neural network
ก็เหมือนกับเครือข่ายอื่นๆ
มันคือโยงโยเชื่อมต่อของ nodes 
ซึ่งเรียกว่า neurons
และ edges ที่เชื่อมพวกมันเข้าด้วยกัน
หน้าที่หลักของ neural network 
คือรับชุดค่านำเข้า
ทำการคำนวณซับซ้อนเป็นทอดๆ
แล้วใช้ค่าส่งออกเพื่อแก้ปัญหา
Neural networks ใช้ในการประยุกต์หลายอย่าง
แต่ในซีรี่ส์นี้ เราจะเน้นเรื่องการแบ่งประเภท (classification)

Arabic: 
إذا كنت تتجاهل الشبكات العصبية لأنك تعتقد بأنها صعبة الفهم
أو تعتقد بأنك لا تحتاجهم... يا للهول هل لدي حل لك
في هذا الفيديو ستتعلم عن الشبكات العصبية من دون أي رياضيات أو أكواد برمجية
مقدمة عن ماهي و كيف تعمل
أملي هو أن تحصل على فكرة لما هي مهمة
فلنبدأ
 
أول شيء تحتاجه هو أن التعلم العميق يتمحور حول الشبكات العصبية
البنية الخاصة بالشبكات العصبية مثل أي شبكة أخرى
هناك شبكة مترابطة من العقد، والتي تسمى الخلايا العصبية،
والحواف التي تربطهم معا.
وتتمثل المهمة الرئيسية للشبكة العصبية في تلقي مجموعة من المدخلات،
أداء الحسابات المعقدة تدريجيا،
ومن ثم استخدام الإخراج إلى حل المشكلة.
تستخدم الشبكات العصبية للكثير من التطبيقات المختلفة،
ولكن في هذه السلسلة سوف نركز على التصنيف.

Spanish: 
Si has ignorado hasta el momento las redes neuronales porque piensas que son demasiado difíciles de comprender
o piensas que no las necesitas, ¡Te propongo un trato!
En este vídeo aprenderás acerca de las redes neuronales sin tener que trabajar con las matemáticas asociadas o su código.
Simplemente presentaremos qué son y cómo trabajan.
Mi esperanza es que  te hagas una idea aproximada de porqué son una herramienta tan importante.
Empecemos...
 
Lo primero que necesitas saber es que el Deep Learning versa sobre redes neuronales.
La estructura de una red neuronal es similar a la de cualquier otro tipo de red.
Se trata de un conjunto de nodos interconectados que, en nuestro caso, se denominan neuronas,
y de las conexiones que la unen.
La principal función de una red neuronal es recibir un conjunto de entradas
realizar cálculos cada vez más complejos
y usar los resultados para resolver un problema.
Las redes neuronales se utilizan en una gran variedad de aplicaciones,
pero en nuestra serie nos centraremos en el problema de la clasificación.

Korean: 
만약, 신경망(Neural Net)이라는 개념이 너무 이해하기 어렵거나,
필요하지 않다고 생각해서 무시해오셨다면,
쉽게 설명해 보도록 하죠.
이 영상에서는,
신경망이라는 개념을 배우게 될거에요.
사전의 수학적 지식이나 코딩 실력없이도,
신경망이 무엇이고, 어떻게 작동하는지 알게 될거에요.
신경망이 왜 중요한 도구인지 알게 되시길 바래요!
시작해 보죠.
첫번째로 이해해야 하셔야 할 것은,
딥러닝이란,  신경망에 대한 것이라는 거에요.
이 신경망의 구조는
다른 종류의 네트워크들과 다를게 없어요.
거미줄처럼 서로 연결되어있는 노드들(nodes)이 있는데,
바로 뉴런(neuron)이라고 불리우죠.
그리고 엣지(edges)들이 그것들을 연결하고요.
신경망의 주된 기능은
어떤 입력들의 집합(set of inputs)을 받아서,
점진적으로 복잡한 계산을 수행하는 것입니다.
그리고 그 결과물(Output)을 이용해서 문제를 해결하죠.
신경망은 매우 다양한 분야에 응용됩니다.
하지만 이번 영상에서는,
그 중 분류(Classification)을 하는것에 집중해봅시다.
만약, 신경망에 대해서

English: 
If you’ve been ignoring neural nets cuz you think they’re too hard to understand
or you think you don’t need them…boy do I have a treat for you!
In this video you’ll learn about neural nets without any of the math or code –
just an intro to what they are and how they work.
My hope is that you’ll get an idea for why they’re such an important tool.
Let’s get started.
 
The first thing you need to know is that deep learning is about neural networks.
The structure of a neural network is like any other kind of network;
there is an interconnected web of nodes, which are called neurons,
and the edges that join them together.
A neural network's main function is to receive a set of inputs,
perform progressively complex calculations,
and then use the output to solve a problem.
Neural networks are used for lots of different applications,
but in this series we will focus on classification.

Italian: 
Se stavi ignorando le reti neurali perché sono troppo difficili da capire
o pensi che non ne hai bisogno...ho un regalo per te!
in questo video imparerete le reti neurali senza alcuna conoscenza della matematica e senza codice-
solo un introduzione di cosa sono e come funzionano.
La mia speranza è che tu abbia un idea di perchè sono uno strumento importante
Iniziamo
 
La prima cosa che devi sapere è che il Deep Learning è basato sulle reti neurali
La struttura di una rete neurale è come quella di qualsiasi altro tipo di rete;
c'è una rete interconnessa di nodi, che sono chiamati neuroni,
con archi che li uniscono.
La funzione principale di una rete neurale è quella di ricevere una serie di input,
fare calcoli complessi,
ed usare l'output per risolvere un problema.
Le reti neurali sono usate per un sacco di applicazioni diverse,
ma in questa serie ci concentreremo sulla classificazione.

Portuguese: 
Se você tem ignorado redes neurais porque você acha que eles são muito difíceis de entender
ou você acha que não precisa deles ... boy eu tenho uma surpresa para você!
Neste vídeo você aprenderá sobre redes neurais sem qualquer um dos cálculos ou código -
Apenas uma introdução ao que eles são e como eles funcionam.
Minha esperança é que você terá uma idéia de por que eles são uma ferramenta tão importante.
Vamos começar.
 
A primeira coisa que você precisa saber é que o aprendizado profundo é sobre redes neurais.
A estrutura de uma rede neural é como qualquer outro tipo de rede;
existe uma rede interligada de nodos, que são chamados os neurónios,
e as arestas que juntá-las.
A função principal da rede neural é receber um conjunto de entradas,
executar cálculos progressivamente complexos,
e depois usar a saída para resolver um problema.
As redes neurais são usadas para muitas aplicações diferentes,
mas desta série vamos nos concentrar em classificação.

Chinese: 
如果你一直忽略神经网络，因为你觉得它们太难理解
或者认为你不需要他们……伙计，我有一个礼物给你！
在这个视频中，您将学习没有任何数学或代码的神经网络 -
只是介绍到它们是什么，以及它们如何工作。
我的愿望是，你能得到一个想法：它们为什么是如此重要的工具。
让我们开始吧。
 
你需要知道的第一件事就是，深度学习是关于神经网络的。
神经网络的结构是像任何其他种类的网络;
有联结网络的节点，即所谓的神经元，
还有连接在一起的边缘。
神经网络的主要功能是接收一组输入，
逐步执行复杂的计算，
然后通过输出解决问题。
神经网络被用于许多不同的应用，
但在这个系列中，我们将专注于分类。

Spanish: 
Si desean estudiar las redes neuronales en mayor profundidad, incluyendo las matemáticas asociadas,
mis recursos favoritos aon: el libro de Michael Nielsen's y las clases de Adrew Ng's.
Antes de seguir hablando de redes neuronales te presentaré someramente el problema de la clasificación.
La clasificación es el proceso de categorización de un grupo de objetos.
usando únicamente algunos datos básicos de características que los describen.
Existen multitud de clasificadores en nuestros días:
Logistic Regression, Support Vector Machines, Naïve Bayes y, por supuesto, las redes neuronales.
El disparo de un clasificador, o activación como se le conoce habitualmente, produce una puntuación.
Por ejemplo, imagina que necesitas determinar si un paciente está enfermo o sano.
y los únicos datos de los que dispones son su altura, peso y temperatura corporal.
El clasificador recibiría todos estas características del paciente, las procesaría y proporcionaría a su salida una puntuación.
Una puntuación elevada significaría una alta seguridad en que el paciente esta enfermo, y una puntuación baja sugeriría que esta sano.

Korean: 
수학적인 면을 조금 더 자세하게 알고 싶으시다면
마이클 닐슨의 책과 엔드류 응의 강의를 추천드립니다.
신경망에 대해서 더 얘기해보기 전에,
분류 문제에 대해서 빠르게 짚고 넘어가보죠.
분류는 어떤 물체들을 카테고리화 시키는 과정입니다.
그것들이 가진 기본적인 특징들만 가지고 말이에요.
오늘날에는,
사용할 수 있는 분류기(Classifier)들이 많이 있습니다.
가령,
로지스틱 회귀분석(Logistic Regression),
지지도 벡터 머신(Support Vector Machine),
Naive Bayes,
그리고, 물론 신경망을 사용하는 방법도 있죠.
분류기가 발화하면,
또는 쉽게 말해 활성화 되면,
점수(Score)라는 것을 만들어 냅니다.
예를들어,
우리가 어떤 환자가 아픈지 건강한지
예측해야 한다고 생각해 보죠.
그리고, 우리가 가진 데이터는
키, 체중, 체온밖에 없다고 가정합시다.
분류기는 환자의 데이터들을 입력받아서,
처리하고,
신뢰 점수 (Confidence Scores)라는 것을
도출해냅니다.
높은 점수는 높은 신뢰도로 환자가 아프다는 것을,
그리고 낮은 점수는 환자가 건강하다는 것을 의미하죠.

Chinese: 
如果你想了解神经网络，包括数学更详细一点
我最喜欢的两个资源是迈克尔·尼尔森的书，和安德鲁伍的课。
在我们更多地谈论神经网络之前，我会给你关于分类问题的简要概述。
分类是给事物分组的过程，
只使用一些基本的数据特征来描述它们。
当前有许多的分类器可以用 -
像 Logistic 回归，支持向量机，朴素贝叶斯，当然，还有神经网络。
一个分类器的触发，通常称为激活，产生一个得分。
例如，假设您需要预测病人是生病还是健康的，
并且你有他们的身高，体重和体温这些所有信息。
分类器将收到这些有关病人的信息，处理它，并且得出一个信心评分。
高分就意味着很高的信心病人是生病的，而一个低分将表明，他们是健康的。

Thai: 
ถ้าคุณอยากเรียนเกี่ยวกับ neural nets
อย่างละเอียดขึ้น รวมทั้งเลข
แหล่งข้อมูลที่ฉันชอบได้แก่หนังสือของ
Michael Nielson และวิชาของ Andrew Ng
แต่ก่อนที่เราจะพูดถึง neural networks กันต่อ
ฉันจะพูดถึงปัญหาการแบ่งประเภทคร่าวๆ
การแบ่งประเภท คือกระบวนการแบ่ง
วัตถุเป็นกลุ่มๆ
โดยใช้แค่คุณลักษณะข้อมูล
พื้นฐานที่บรรยายพวกมัน
มันมีสิ่งที่ใช้แบ่งประเภท (classifiers) หลายอย่างทุกวันนี้ --
เช่น Logistic Regression, Support Vector Machines, Naive Bayes และแน่นอน neural networks.
การยิงสัญญาณของ classifier
หรือที่มักเรียกว่าการกระตุ้น (activation) จะสร้างคะแนนขึ้นมา
ตัวอย่างเช่น ถ้าคุณอยากทำนายว่า
คนไข้คนหนึ่งจะป่วยหรือสุขภาพดี
และสิ่งที่คุณมี มีแต่ความสูง น้ำหนัก
และอุณหภูมิร่างกาย
ตัวแบ่งประเภทจะรับข้อมูลเกี่ยวกับคนไข้นี้
ประมวลผล และยิงคะแนนความมั่นใจออกมา
คะแนนสูงแปลว่า มั่นใจว่าคนไข้นั้นป่วย
และคะแนนต่ำสื่อว่าคนไข้สุขภาพดี

English: 
If you wanna learn about neural nets in a bit more detail, including the math,
my two favourite resources are Michael Nielsen's book, and Andrew Ng's class.
Before we talk more about neural networks, I’m gonna give you a quick overview of the problem of classification.
Classification is the process of categorizing a group of objects,
while only using some basic data features that describe them.
There are lots of classifiers available today -
like Logistic Regression, Support Vector Machines, Naive Bayes, and of course, neural networks.
The firing of a classifier, or activation as its commonly called, produces a score.
For example, say you needed to predict if a patient is sick or healthy,
and all you have are their height, weight, and body temperature.
The classifier would receive this data about the patient, process it, and fire out a confidence score.
A high score would mean a high confidence that the patient is sick, and a low score would suggest that they are healthy.

Portuguese: 
Se você quer aprender sobre redes neurais em um pouco mais detalhadamente, incluindo a matemática,
meus dois recursos favoritos são o livro de Michael Nielsen, e classe de Andrew Ng.
Antes de falarmos mais sobre redes neurais, eu vou te dar uma visão geral do problema da classificação.
Classificação é o processo de categorização de um grupo de objetos,
enquanto apenas usar alguns recursos básicos de dados que os descrevem.
Há lotes de classificadores disponíveis hoje -
como regressão logística, Support Vector Machines, Naive Bayes, e, claro, as redes neurais.
O disparo de um classificador, ou ativação como seu comumente chamado, produz uma pontuação.
Por exemplo, digamos que você precisava para prever se um paciente está doente ou saudável,
e tudo que você tem é a sua altura, peso e temperatura do corpo.
O classificador iria receber estes dados sobre o paciente, processá-lo e disparar uma pontuação de confiança.
Uma pontuação elevada significaria uma alta confiança de que o paciente está doente, e uma pontuação baixa sugere que eles são saudáveis.

Arabic: 
إذا كنت تريد أن تتعلم عن الشبكات العصبية في مزيد من التفاصيل قليلا، بما في ذلك الرياضيات،
بلدي اثنين من الموارد المفضلة هي كتاب مايكل نيلسن، وفئة أندرو نغ.
قبل أن نتحدث أكثر عن الشبكات العصبية، أنا ستعمل تعطيك لمحة سريعة عن مشكلة التصنيف.
التصنيف هو عملية تصنيف مجموعة من الكائنات،
بينما تستخدم فقط بعض ميزات البيانات الأساسية التي تصفها.
هناك الكثير من المصنفات المتاحة اليوم -
مثل الانحدار اللوجستي، ودعم آلات ناقلات، بايس نايف، وبالطبع، الشبكات العصبية.
اطلاق النار المصنف، أو تفعيل كما يطلق عليه عادة، وتنتج درجة.
على سبيل المثال، لنفترض أنك بحاجة إلى التنبؤ بما إذا كان المريض مريضا أو صحي،
وكل ما لديك هي الطول والوزن ودرجة حرارة الجسم.
وسيتلقى المصنف هذه البيانات عن المريض، ويعالجها، ويخرج من درجة الثقة.
درجة عالية يعني ثقة عالية بأن المريض مريض، ودرجة منخفضة تشير إلى أنها صحية.

Italian: 
Se vuoi imparare più dettagli sulle reti neurali, inclusa la matematica,
le mie risorse preferite sono i libri di Michael Nielsen e la classe di Andrew Ng.
Prima di parlare delle reti neurali, voglio darvi una panoramica sul problema della classificazione.
La classificazione è il processo che consiste nel categorizzare un gruppo di oggetti,
avendo a disposizione solo alcune caratteristiche che li descrivono.
Ci sono un sacco di classificatori attualmente-
come la regressione logistica, il Support Vector Machines, Naive Bayes, e ovviamente le reti neurali
L'attivazione di un classificatore produce un punteggio.
Per esempio, diciamo che si deve stabilire se un paziente è malato o sano,
e tutto quello che hai sono altezza, peso e temperatura corporea.
Il classificatore riceverebbe questi dati del paziente, li processerebbe, e otterrebbe un punteggio di confidenza.
Un punteggio alto indicherebbe un elevata sicurezza che il paziente sia malato, mentre uno basso suggerirebbe che il paziente sia sano.

Portuguese: 
redes neurais são usadas para tarefas de classificação em que um objeto pode cair
em um de pelo menos duas categorias diferentes.
Ao contrário de outras redes, como uma rede social,
uma rede neural é altamente estruturado e vem em camadas.
A primeira camada é a camada de entrada,
a última camada é a camada de saída,
e todas as camadas intermediárias são referidos como camadas ocultas.
Uma rede neural pode ser vista como o resultado de fiação classificadores juntos numa teia em camadas.
Isso ocorre porque cada nó nas camadas ocultas e saída tem seu próprio classificador.
Tome esse nó, por exemplo -
ele recebe os seus inputs da camada de entrada, e ativa.
Sua pontuação é então passada como entrada para a próxima camada escondida para posterior ativação.
Assim,
vamos ver como isso se desenrola ponta a ponta em toda a rede.
Um conjunto de entradas é passado para a primeira camada oculta,
as activações de camada que são passados ​​para a camada seguinte e assim por diante,
até chegar à camada de saída,

Chinese: 
神经网络用于分类任务中，一个对象可以回落
到至少两个不同的类别中的其中一个。
不像其他网络，比如社交网络
神经网络是高度结构化的，并且引入多个层。
第一层是输入层，
最后一层是输出层，
以及两者之间的所有层被称为隐藏层。
神经网络可以被看作是在分层网络中分类器交织在一起的结果。
这是因为，在隐藏层和输出层的每个节点都有其自己的分类器。
拿这个节点来说 -
它得到来自输入层的输入，并激活。
然后其得分被传递作为输入，用于进一步激活下一个隐藏层。
所以，
让我们来看看这在整个网络中是如何点到点进行的。
一组输入被传递到第一个隐藏层，
从该层的激活被传递到下一个层，诸如此类，
直到到达输出层，

English: 
Neural nets are used for classification tasks where an object can fall
into one of at least two different categories.
Unlike other networks like a social network,
a neural network is highly structured and comes in layers.
The first layer is the input layer,
the final layer is the output layer,
and all layers in between are referred to as hidden layers.
A neural net can be viewed as the result of spinning classifiers together in a layered web.
This is because each node in the hidden and output layers has its own classifier.
Take that node for example -
it gets its inputs from the input layer, and activates.
Its score is then passed on as input to the next hidden layer for further activation.
So,
let’s see how this plays out end to end across the entire network.
A set of inputs is passed to the first hidden layer,
the activations from that layer are passed to the next layer and so on,
until you reach the output layer,

Arabic: 
وتستخدم الشبكات العصبية لمهام التصنيف حيث يمكن أن ينخفض ​​الكائن
إلى واحدة من فئتين مختلفتين على الأقل.
وخلافا للشبكات الأخرى مثل شبكة اجتماعية،
شبكة عصبية هي منظمة للغاية ويأتي في طبقات.
الطبقة الأولى هي طبقة الإدخال،
الطبقة النهائية هي طبقة الانتاج،
ويشار إلى جميع الطبقات في ما بين الطبقات المخفية.
ويمكن النظر إلى الشبكة العصبية نتيجة لغزل المصنفات معا في شبكة ويب الطبقات.
وذلك لأن كل عقدة في طبقات مخفية والمخرجات لديها المصنف الخاصة بها.
خذ تلك العقدة على سبيل المثال -
فإنه يحصل على مدخلات من طبقة المدخلات، وينشط.
ثم يتم تمرير النتيجة على أنها المدخلات إلى الطبقة المخفية التالية لمزيد من التنشيط.
وبالتالي،
دعونا نرى كيف يلعب هذا من نهاية إلى نهاية عبر الشبكة بالكامل.
يتم تمرير مجموعة من المدخلات إلى الطبقة المخفية الأولى،
يتم تمرير التنشيط من تلك الطبقة إلى الطبقة التالية وهلم جرا،
حتى تصل إلى طبقة الإخراج،

Spanish: 
Las redes neuronales se usan en tareas de clasificación en las que un objeto puede pertenecer
a uno de, al menos, dos categorías diferentes.
Al contrario que en otras redes, como las redes sociales,
una red neuronal es una red altamente estructurada en capas.
La primera capa es la capa de entrada,
la última capa es la capa de salida,
y todas las capas entre la capa de entrada y la de salida se denominan capas ocultas.
Una red neuronal puede ser vista como el resultado de combinar clasificadores
entre sí en una red estructurada en capas.
Esto es así porque cada nodo en las capas ocultas y en la capa de salida dispone de su propio clasificador.
Tomemos un nodo como ejemplo.
Toma todas sus entradas de la capa de entrada y se activa.
Su puntuación se pasa posteriormente a la siguiente capa oculta, donde se producen nuevas activaciones.
 
Veamos cómo avanza a lo largo de la red.
Se pasa un conjunto de entradas a la primera capa oculta,
Las activaciones de esta capa se pasan a la siguiente capa, y así sucesivamente
hasta que se alcanza la capa de salida

Thai: 
Neural nets ใช้แบ่งประเภท
เมื่อวัตถุสามารถอยู่ใน
ประเภทหนึ่งในประเภทต่างๆ อย่างน้อยสองอัน
Neural network ไม่เหมือนเครือข่ายอย่างอื่น
เช่น เครือข่ายสังคม
ตรงที่มันมีโครงสร้างเฉพาะมาก
และมาเป็นชั้นๆ
ชั้้นแรกเรียกว่าชั้นค่านำเข้า
ชั้นสุดท้ายเรียกว่าชั้นค่าส่งออก
และชั้นทั้งหมดตรงกลางเรียกว่า ชั้นที่ซ่อนอยู่
Neural net สามารถมองเป็น classifiers
ที่ผูกกันเป็นใยชั้นๆ ได้
นั้นเป็นเพราะแต่ละโหนดในชั้นที่ซ่อน
และชั้นค่าส่งออกนั้น มีตัวแบ่งประเภทของตัวเอง
ดูโหนดนั้นเป็นตัวอย่าง --
มันได้ค่านำเข้าจากชั้นค่านำเข้า และกระตุ้นขึ้น
คะแนนที่ได้ถูกส่งไปเป็นค่าเข้า
ให้ชั้นที่ซ่อนชั้นต่อไป เพื่อกระตุ้นต่อไป
แล้ว
ลองดูว่ามันออกมาเป็นอย่างไรจากด้านหนึ่ง
ถึงอีกด้านทั่วทั้งเครือข่าย
ชุดค่านำเข้าถูกส่งผ่านไปในชั้นที่ซ่อนชั้นแรก
การกระตุ้นจากชั้นนั้นถูกส่ง
ไปยังชั้นต่อไปเรื่อยๆ
กระทั่งคุณถึงชั้นค่าส่งออก

Italian: 
 
in almeno una di queste du categorie.
A differenza di altre reti, come un social network,
una rete neurale è altamente strutturata e si presenta a strati.
Il primo è lo strato di ingresso,
l'ultimo è quello di uscita,
tutti gli  strati intermedi si chiamano strati nascosti.
Una rete neurale può essere vista come un gruppo di classificatori uniti in una rete stratificata.
Questo perché ogni nodo negli strati nascosti e quello d'uscita ha un proprio classificatore.
Prendete quel nodo per esempio-
prende i dati in ingresso dallo strato di input e si attiva.
il suo punteggio viene passato come input allo strato nascosto successivo per ulteriori attivazioni
Così,
Vediamo come funziona da un lato all'altro dell'intera rete.
Un insieme di dati viene passato al primo strato nascosto,
le attivazioni di questo strato sono passate a quello successivo e così via,
finchè non raggiungi lo strato d'uscita,

Korean: 
신경망은 이러한 분류 방식 중에서
대상이 서로 다른 적어도 두개의 카테고리 중에서
하나에 속하게 되는 분류에 사용됩니다.
소셜 네트워크와 같은 것과는 다르게,
신경망은 고도로 구조화되어있는,
층(layers)들을 구성합니다.
첫번째 층은 입력층(Input layer)이고,
마지막 층은 출력층(Output layer)입니다.
이 두 층 사이의 모든 층들은,
숨겨진 층(hidden layer)이라고 불립니다.
신경망은 이러한 분류 층들을 엮어서 만든,
겹겹이 쌓인 거미줄(layered web)이라고 볼 수 있습니다.
왜냐하면,
숨겨진 층과 출력 층을 구성하는 노드들은
각자의 분류기(classifier)를 가지고 있기 때문입니다.
이 노드를 예로 들어보죠.
이 노드는 입력을 입력층에서 받아오고,
활성화됩니다.
이 노드의 결과 점수는,
그 다음 활성화를 위해 다음 숨겨진 층으로 전달됩니다.
그래서,
이러한 전달이 네트워크 끝에서 끝으로
어떻게 전달되는지 살펴봅시다.
어떤 입력들의 집합이 첫 번째 숨겨진 층으로 전달되고,
그 층의 활성화된 결과가 다음 층으로 전달됩니다.
그리고 그런 식으로,
결과층에 도착하게 됩니다.

English: 
where the results of the classification are determined by the scores at each node.
This happens for each set of inputs.
Here's another one...
like so.
This series of events starting from the input where each activation is sent to the next layer,
and then the next, all the way to the output,
is known as forward propagation, or forward prop.
Forward prop is a neural net's way of classifying a set of inputs.
Have you wanted to learn more about neural nets?
Please comment and let me know your thoughts?
The first neural nets were born out of the need to address the inaccuracy of an early classifier, the perceptron.
It was shown that by using a layered web of perceptrons,
the accuracy of predictions could be improved.
As a result, this new breed of neural nets was called a Multi-Layer Perceptron or MLP.
Since then, the nodes inside neural nets have replaced perceptrons with more powerful classifiers,

Thai: 
ซึ่งผลการแบ่งประเภทกำหนดโดย
คะแนนในแต่ละโหนด
มันเกิดขึ้นสำหรับชุดค่านำเข้าแต่ละชุด
นี่ก็อีกอัน --
อย่างนั้น
ชุดเหตุการณ์จากค่านำเข้าเมื่อการกระตุ้น
ถูกส่งไปยังชั้นต่อไป
แล้วก็ชั้นต่อไป ไปจนถึงชั้นค่าส่งออก
เรียกว่า forward propagation หรือ forward prop
Forward prop คือวิธีที่ neural nets
แบ่งประเภทโดยใช้ชุดค่านำเข้าชุดหนึ่งๆ
คุณอยากเรียนเกี่ยวกับ neural nets เพิ่มเติมไหม?
ช่วยคอมเมนต์และเล่าความคิดคุณหน่อย
neural nets เกิดขึ้นครั้งแรกเพื่อจัดการความไม่แม่นยำของตัวแบ่งประเภทรุ่นก่อน คือ perceptron
มีการแสดงว่า เมื่อใช้โยงใยของ perceptron เป็นชั้นๆ
ความแม่นยำของการทำนายนั้นดีขึ้น
ผลที่ได้คือ neural nets ที่เกิดใหม่นี้
ถูกเรียกว่า Multi-layer Perceptron หรือ MLP
ตั้งแต่นั้นมา โหนดใน neural nets
ถูกแทนที่ด้วย perceptrons ที่มี clsssifiers ประเภทที่ทรงพลังขึ้น

Arabic: 
حيث يتم تحديد نتائج التصنيف بالدرجات في كل عقدة.
يحدث هذا لكل مجموعة من المدخلات.
تفضل واحد اخر...
مثل ذلك.
هذه السلسلة من الأحداث بدءا من المدخلات حيث يتم إرسال كل تفعيل إلى الطبقة التالية،
ثم بعد ذلك، على طول الطريق إلى الإخراج،
يعرف باسم الانتشار الأمامي، أو الدعامة الأمامية.
الدعامة إلى الأمام هو طريقة الشبكة العصبية لتصنيف مجموعة من المدخلات.
هل تريد معرفة المزيد عن الشبكات العصبية؟
يرجى التعليق واسمحوا لي أن أعرف أفكارك؟
ولدت أول شبكات العصبية من الحاجة لمعالجة عدم دقة من المصنف المبكر، بيرسيبترون.
وقد تبين أنه باستخدام شبكة الطبقات من بيرسيبترونس،
يمكن تحسين دقة التنبؤات.
ونتيجة لذلك، تسمى هذه السلالة الجديدة من الشبكات العصبية متعدد الطبقات بيرسيبترون أو ملب.
ومنذ ذلك الحين، فإن العقد داخل الشباك العصبية حلت محل بيرسيبترونس مع المصنفات أكثر قوة،

Spanish: 
donde los resultados de la clasificación se determinan en base a las puntuaciones de cada nodo.
Esto ocurre para cada conjunto de entradas
Aquí tienes otra...
 
Esta serie de eventos empezando en la entrada donde cada activación es enviada a la siguiente capa
y después a la siguiente, hasta llegar a la capa de salida
es conocido como Propagación adelante, Forward Propagation o Forwad Prop.
La Forward Prop es la manera que tienen las redes neuronales de clasificar un conjunto de entradas.
¿Deseas aprender más sobre las redes neuronales?
Envíanos tus comentarios e ideas.
Las primeras redes neuronales nacieron de la necesidad de hacer frente a las imprecisiones de los clasificadores previamente existentes, los perceptrones.
Se demostró que usando una red de perceptrones estructurada en capas,
la precisión de las predicciones podía ser incrementada.
Como resultado, esta nueva hornada de redes neuronales se denominó Multi-Layer Perceptron, o MLP.
Desde entonces, los nodos de las redes neuronales han sido reemplazados por clasificadores más poderosos,

Portuguese: 
onde os resultados da classificação são determinados pela pontuação em cada nó.
Isso acontece para cada conjunto de entradas.
Aqui está mais um...
igual a.
Esta série de eventos, a partir da entrada onde cada activação é enviado para a camada seguinte,
e então o seguinte, todo o caminho para a saída,
é conhecido como propagação para a frente, ou prop para a frente.
prop para a frente é a maneira de um rede neural de classificação de um conjunto de entradas.
Você já quis aprender mais sobre redes neurais?
Por favor, comente e deixe-me saber a sua opinião?
As primeiras redes neurais nasceu a partir da necessidade de abordar a imprecisão de um classificador cedo, o perceptron.
Mostrou-se que usando uma teia em camadas de perceptrões,
a precisão das previsões pode ser melhorada.
Como resultado, esta nova geração de redes neurais foi chamado de Multi-Layer Perceptron ou MLP.
Desde então, os nós dentro de redes neurais têm substituído perceptrons com classificadores mais potentes,

Chinese: 
其中，分类的结果由每个节点的得分决定。
它们发生在每组数据输入时。
这是另一个...
像这样。
这一系列从输入开始的事件，其中每个激活被发送到下一个层，
再接下来，一路输出，
被称为正向传播（forward propagation），或 forward prop。
正向传播是神经网络对一组输入进行分类的方法。
您是否想了解更多关于神经网络？
请评论，让我知道你的想法？
第一个神经网络是出于需要解决早期分类器（感知器）的不准确之处。
它表明，通过使用感知的分层网络，
预测的准确性可被改善。
因此，神经网络的这个新品种被称为多层感知或 MLP。
此后，神经网络内节点被更强大的分类感知器取代，

Italian: 
dove i risultati della classificazione sono determinati dal punteggio di ogni nodo.
Questo accade per ogni serie di dati di input.
Ecco un'altro...
così.
Questa serie di eventi che parte dall'input, dove ogni attivazione è inviata allo strato successivo,
e poi a quello successivo, fino all'uscita,
è nota come propagazione in avanti o forward propagation.
La propagazione in avanti è il modo con cui una rete neurale classifica una serie di input.
Vuoi saperne di più sulle reti neurali?
Per favore commenta e fammi sapere che ne pensi
L e prime reti neurali sono nate dalla necessità di affrontare la scarsa accuratezza di un primo classificatore, il percettrone.
è stato dimostrato che usare una rete di percettroni stratificati
può aumentare la precisione delle predizioni.
Di conseguenza, questa nuova generazioni di reti neurali è stata chiamata Percettroni multi strato (Multi-Layer Perceptron o MLP).
Da allora i nodi delle reti neurali hanno sostituito i percettroni con classificatori più potenti,

Korean: 
전체 분류의 결과는
각각 노드들의 점수값에 의해서 결정됩니다.
이러한 과정이 각각의 입력 집합에 대해서 수행됩니다.
다른 예시를 보죠.
이런식으로요.
입력에서부터 시작되어서,
활성화가 그 다음층으로 전달되어
출력에 이르는 이런 일련의 과정을
전위 전파(forward propagation)이라고 부릅니다.
또는 줄여서 Forward Prop이라고요.
전위 전파는 신경망이 입력신호를 처리하는 방식입니다.
신경망에 대해서 더 아시고 싶으세요?
코멘트로 여러분의 생각을 알려주세요!
첫 번째 신경망은,
초기의 분류기인 퍼셉트론(Perceptron)의 부정확도를
해결하기 위해 만들어졌습니다.
퍼셉트론들이 여러개 겹쳐진 망을 사용함으로써,
예측(Prediction)의 정확도가 향상될 수 있었죠.
결과적으로,
이런 새로운 종류의 신경망을
다중층 퍼셉트론(Multi-layered perceptron)
또는 줄여서 MLP라고 하게 되었습니다.
그 이후로,
신경망 안의 노드들이
퍼셉트론을 대신해서
더욱 강력한 분류기의 역할을 하게 되었지만,

Thai: 
แต่ชื่อ MLP ก็ยังติดมา
นี่คือ forward prop อีกครั้ง
แต่ละโหนดมีตัวแบ่งประเภทเดียวกัน
และไม่มีโหนดไหนยิงขึ้นอย่างสุ่ม
ถ้าคุณใส่นำเข้าเดิม คุณจะได้ค่าส่งออกเดิม
ถ้าทุกโหนดในชั้นที่ซ่อนอยู่ได้รับค่านำเข้าเดียวกัน
ทำไมพวกมันถึงไม่ยิงค่าเดียวกันออกมา?
สาเหตุคือว่า ชุดค่านำเข้าแต่ละชุด
ถูกปรับโดย weights และ biases
ตัวอย่างเช่น ที่โหนดนั้น
ค่านำเข้าตัวแรกถูกปรับด้วย weight เท่ากับ 10
ตัวที่สองด้วย 5 ตัวที่สามด้วย 6
แล้วก็มี bias เป็น 9 เพิ่มเข้าไป
แต่ละ edge มี weight เป็นของตัวเอง
และแต่ละ node มี bias เป็นของตัวเอง
นี่หมายความว่าชุดค่าที่ใช้ในการกระตุ้น
แต่ละตัวนั้นไม่ซ้ำใคร
ซึ่งอธิบายว่าทำไมโหนดถึงยิงสัญญาณต่างกัน
คุณคงเดาได้ว่า ความแม่นยำของ neural net
ขึ้นอยูกับ weights และ biases
เราอยากได้ความแม่นยำสูง

Spanish: 
pero el nombre MLP ha permanecido en el tiempo.
Aquí está de nuevo la Forward Prop.
Cada nodo dispone del mismo clasificador, y ninguno de ellos se dispara aleatoriamente.
Si se repiten las entradas se obtiene la misma salida.
De modo que, si todos los nodos de la capa oculta reciben la misma entrada,
¿Porqué no disparan el mismo valor?
La razón es que cada conjunto de entradas es modificado por unos pesos y bias únicos.
Por ejemplo, para este nodo,
la primera entrada es modificada con un peso de 10,
la segunda con uno de 5, la tercera con 6 y, por último, se añade un bias de 9.
Cada entrada tiene un peso único, y cada nodo tiene un bias único
Lo que significa que la combinación utilizada para cada activación también es única.
Esto explica porqué los nodos se disparan de manera diferente.
Imagino que ya habrás adivinado que la precisión de las predicciones de una red neuronal depende de sus pesos y bias.
Deseamos que esta precisión sea lo más elevada posible,

Portuguese: 
mas o nome MLP foi preso.
Aqui está a frente prop novamente.
Cada nó tem o mesmo classificador, e nenhum deles disparar aleatoriamente;
se você repetir uma entrada, você recebe a mesma saída.
Portanto, se todos os nós na camada oculta recebeu a mesma entrada,
por que não todos eles fogo o mesmo valor?
A razão é que cada conjunto de entradas é modificado por pesos exclusivos e preconceitos.
Por exemplo, para esse nó,
a primeira entrada está
modificada por um peso de 10,
o segundo por 5, o terceiro por 6 e, em seguida, um viés de 9 é adicionado no topo.
Cada extremidade tem um peso único, e cada nó tem um viés único.
Isto significa que a combinação usada para cada activação também é único,
o que explica porque os nós de fogo de forma diferente.
Você pode ter adivinhado que a precisão da previsão de uma rede neural depende dos seus pesos e preconceitos.
Queremos que a precisão a ser elevado,

English: 
but the name MLP has stuck.
Here's forward prop again.
Each node has the same classifier, and none of them fire randomly;
if you repeat an input, you get the same output.
So if every node in the hidden layer received the same input,
why didn’t they all fire out the same value?
The reason is that each set of inputs is modified by unique weights and biases.
For example, for that node,
the first input is
modified by a weight of 10,
the second by 5, the third by 6 and then a bias of 9 is added on top.
Each edge has a unique weight, and each node has a unique bias.
This means that the combination used for each activation is also unique,
which explains why the nodes fire differently.
You may have guessed that the prediction accuracy of a neural net depends on its weights and biases.
We want that accuracy to be high,

Italian: 
ma il nome MLP è rimasto.
Qui c'è un'altra rete a propagazione in avanti.
Ogni nodo ha lo stesso classificatore, e nessuno di essi opera casualmente;
A stessi input corrispondono uguali output.
Quindi, se ogni nodo dello strato nascosto ha ricevuto lo stesso input,
Perché non dovremmo ottenere lo stesso output?
La ragione è che ogni insieme di input viene modificato da un unico insieme di pesi e bias (soglie).
Per esempio, per quel nodo,
Il primo ingresso viene trattato con un peso di 10,
il secondo con un peso di 5, il terzo con 6, e poi si aggiunge un bias di 9.
Ogni arco ha un unico perso e ogni nodo ha un unico bias.
Ciò significa che la combinazione utilizzata per ogni attivazione è unica,
il che spiega perché i nodi operano differentemente.
Puoi immaginare che la precisione di una rete neurale dipende dai pesi e dai bias.
Noi vogliamo un alta precisione,

Korean: 
MLP라는 이름은 남게 되었습니다.
여기 전위 전파(Forward Prop)을 다시 한번 보죠.
각 노드들은 서로 같은 분류기를 가지고
어떤 노드도 랜덤하게 발화하지는 않습니다.
만약 같은 입력을 다시 준다면,
똑같은 결과를 얻게 되겠죠.
만약 숨겨진 층의 모든 노드들이
같은 입력을 받았다면,
왜 그 노드들은 같은 값으로 발화(firing)하지 않을까요?
그 이유는,
각 입력의 집합들이,
고유의 가중치(weight)와 편중치(bias)로
변화되기 때문입니다.
예를들어,
저 노드에게는,
첫번째 입력이 10이라는 값으로 변했다고 합시다.
두번째는 5,
세 번째는 6,
그리고 9라는 편중치(bias)가 가해졌다고 합시다.
각각의 edge는 고유한 가중치(weight)를 가집니다.
그리고 각각의 노드는 고유한 편중치(bias)를 가지죠.
이것은,  각각의 노드의 활성화를 구성하는 조합 또한,
고유하다는 것을 의미합니다.
각각의 노드들이 다르게 발화하는 이유를 설명해주죠.
어쩌면, 신경망의 예측 정확도는
가중치와 편중치에 달려있다는 것을
눈치채셨는지도 모르겠네요.
그리고 우리는 높은 정확도를 가지게 하고 싶죠.
즉,

Arabic: 
ولكن اسم ملب عالقة.
وهنا دعم الأمام مرة أخرى.
كل عقدة لديها نفس المصنف، ولا أحد منهم النار عشوائيا.
إذا قمت بتكرار إدخال، يمكنك الحصول على نفس الانتاج.
لذلك إذا تلقت كل عقدة في طبقة خفية نفس المدخلات،
لماذا لم يطلقوا جميعا نفس القيمة؟
والسبب هو أن كل مجموعة من المدخلات يتم تعديلها من خلال الأوزان والتحيزات الفريدة.
على سبيل المثال، بالنسبة لتلك العقدة،
المدخل الأول هو
تعديلها من قبل وزن 10،
والثانية بنسبة 5، والثالثة من قبل 6 ثم يتم إضافة التحيز من 9 على القمة.
كل حافة لديها وزن فريد من نوعه، وكل عقدة لديها التحيز فريدة من نوعها.
وهذا يعني أن الجمع المستخدم لكل تفعيل هو أيضا فريدة من نوعها،
مما يفسر لماذا العقد النار بشكل مختلف.
قد تكون قد خمنت أن دقة التنبؤ للشبكة العصبية تعتمد على أوزانها وتحيزاتها.
نحن نريد أن دقة لتكون عالية،

Chinese: 
但名字 MLP 被保留下来。
再看正向传播。
每个节点具有相同的分类器，其中没有随机性;
如果你重复输入，你会得到相同的输出。
因此，如果在隐藏层的每个节点接收的相同的输入，
为什么它们没有都得到相同的值？
其原因是，各组输入由唯一权重和偏置修正。
例如，对于该节点，
第一个输入被权重 10 修改，
第二个 由 5，第三个由 6，然后一个为 9
 的偏移量加入在顶部。
每个边具有唯一的权重，并且每个节点具有唯一的偏移量。
这意味着，用于每个激活的组合也是唯一的，
这解释了为什么节点生成的得分不同。
你可能已经猜到了神经网络的预测精度取决于其权重和偏移量。
我们希望该精度变高，

English: 
meaning we want the neural net to predict a value that is as close to the actual output as possible,
every single time.
The process of improving a neural net’s accuracy is called training,
just like with other machine learning methods.
Here's that forward prop again -
to train the net, the output from forward prop is compared to the output that is known to be correct,
and the cost is the difference of the two.
The point of training is to make that cost as small as possible, across millions of training examples.
To do this, the net tweaks the weights and biases step by step
until the prediction closely matches the correct output.
Once trained well, a neural net has the potential to make accurate predictions each time.
This is a neural net in a nutshell.
At this point you might be wondering;
why create and train a web of classifiers for a task like classification,

Portuguese: 
o que significa que queremos que a rede neural para prever um valor que é o mais próximo da saída real quanto possível,
a cada momento.
O processo de melhorar a precisão de uma rede neural é chamado de treinamento,
Assim como com outros métodos de aprendizado de máquina.
Aqui é que a frente prop novamente -
para formar o líquido, a saída do suporte para a frente é comparado com a saída que é conhecido por ser correcta,
e o custo é a diferença dos dois.
O ponto de treinamento é fazer com que o custo tão pequeno quanto possível, através de milhões de exemplos de treinamento.
Para fazer isso, os ajustes líquidos dos pesos e preconceitos passo a passo
até que a previsão se aproxima a saída correta.
Uma vez bem treinado, uma rede neural tem o potencial de fazer previsões precisas de cada vez.
Esta é uma rede neural em poucas palavras.
Neste ponto, você pode estar se perguntando;
por que criar e treinar uma teia de classificadores para uma tarefa como classificação,

Arabic: 
وهذا يعني أننا نريد الشبكة العصبية للتنبؤ بقيمة التي هي أقرب إلى الناتج الفعلي ممكن،
في كل مرة.
عملية تحسين دقة الشبكة العصبية يسمى التدريب،
تماما مثل غيرها من أساليب التعلم الآلي.
وهنا أن دعم الأمام مرة أخرى -
لتدريب الشبكة، يتم مقارنة الناتج من دعم الأمام إلى الإخراج الذي هو معروف أن يكون صحيحا،
والتكلفة هي الفرق بينهما.
ويتمثل الهدف من التدريب في جعل هذه التكلفة صغيرة قدر الإمكان، عبر الملايين من الأمثلة التدريبية.
للقيام بذلك، صافي بتعديل الأوزان والتحيزات خطوة بخطوة
حتى يتطابق التنبؤ بشكل وثيق مع الإخراج الصحيح.
وبمجرد تدريبها جيدا، الشبكة العصبية لديها القدرة على جعل التنبؤات دقيقة في كل مرة.
هذا هو شبكة العصبية باختصار.
عند هذه النقطة قد تكون أتساءل.
لماذا إنشاء وتدريب شبكة من المصنفات لمهمة مثل التصنيف،

Thai: 
หมายความว่า เราอยากได้ neural net
ที่ทำนายค่าให้ใกล้กับค่าส่งออกจริงมากที่สุด
ทุกครั้งไป
กระบวนการทำให้ความแม่นยำของ neural net
สูงขึ้นเรียกว่า training
เหมือนกับกระบวนวิธี machine learning อื่นๆ
นั่นคือ forward prop อีกครั้ง --
เวลาเทรนเน็ตนั้น ค่าส่งออกจาก forward prop
จะถูกเปรียบเทียบกับค่าส่งออกที่รู้ว่าถูกต้องจริง
และ cost คือผลต่างของสองค่านั้น
ประเด็นของ training คือการทำให้ cost นั้น
น้อยที่สุดที่เป็นไปได้ สำหรับตัวอย่างในการเทรนเป็นล้าน
เวลาเทรน เน็ตจะปรับ weights และ biases ทีละขั้น
กระทั่งค่าทำนายใกล้เคียงกับค่าส่งออกที่ถูกต้อง
หากเทรนมาดี neural net จะสามารถ
ทำนายได้แม่นยำทุกครั้งไป
นี่คือ neural net อย่างย่นย่อ
ถึงจุดนี้ คุณอาจสงสัยว่า
ทำไมต้องสร้างและเทรนโครงข่ายของ classifiers
เพื่อทำการแบ่งประเภทด้วย

Chinese: 
这意味着我们想要的神经网络每一次单独预测一个值，该值是尽可能接近实际的输出，
 
改善神经网络的准确性的过程被称为训练，
就像其他机器学习方法一样。
下面又是正向传播 -
要训练神经网络，正向传播的输出要和已知的正确输出做比较
并且计算两者的差异值。
训练的关键是在数百万的训练样本中，使该值尽可能小。
要做到这一点，网络需要一步一步的调整权重和偏移
直到预测与正确的输出紧密匹配。
一旦训练良好，神经网络有可能每次准确预测
这是一个简单地说一个神经网络。
在这一点上，你可能想知道;
为什么要创建和训练一个分类器网络来执行例如分类的任务，

Italian: 
ciò significa che vogliamo che la rete neurale faccia previsioni il più possibile corrette,
ogni singola volta.
il processo di miglioramento della rete neurale si chiama allenamento (training),
Come altri metodi di apprendimento automatico.
Eccon un'altra rete a propagazione in avanti-
per addestrare la rete, l'uscita è confrontata con valori considerati corretti,
e il costo è la differenza tra i due valori.
La chiave è di rendere il costo più il basso possibile, attraverso milioni di esempi di training.
Per fare questo la rete aggiusta i bias ed i pesi di volta in volta
finchè la previsione corrisponde ad i valori di uscita attesi.
Una volta addestrata a dovere, una rete neurale può potenzialmente fare ogni volta previsioni corrette.
Questa è una rete neurale in poche parole.
A questo punto potresti chiederti;
perché creare ed allenare una rete neurale per un compito come la classificazione,

Spanish: 
lo que significa que la red neuronal prediga un valor que sea tan próximo a la salida real como sea posible
todas las veces.
El proceso de mejorar la precisión de una red neuronal se denomona aprendizaje,
exactamente igual que en otros métodos de Machine Learning.
¡Aquí está otra vez la Forward Prop!
Para entrenar la red, la salida de la red se compara con la salida que se sabe a priori que es correcta,
y el coste es la diferencia entre ambas.
El objetivo del aprendizaje es reducir este coste tanto como sea posible para millones de ejemplos de entrenamiento.
Para ello la red altera los pesos y los bias paso a paso
hasta que la predicción se aproxima lo más posible a la salida correcta.
Una vez el aprendizaje se ha realizado adecuadamente, la red neuronal tiene la capacidad de hacer predicciones precisas en todos los casos.
Esto es, en esencia, una red neuronal.
En este punto debes estar alucinando.
¿Porqué crear y entrenar una red de clasificadores para realizar una tarea como la clasificación,

Korean: 
우리는 신경망이 실제 출력과 가장 비슷한 출력을
매번 가지게 하고 싶다는 것입니다.
신경망의 예측 정확도를 높이는 과정을
훈련(training)이라고 합니다.
다른 기계들의 학습 방법과 마찬가지로요.
여기 전위 전파를 다시 살펴보죠.
신경망을 훈련시키기 위해서는,
전위전파의 결과값이 정답인 실제 결과와 비교됩니다.
그리고 비용(Cost)란, 그 둘의 차이를 의미합니다.
훈련의 목적은,
이 비용(Cost)를 최대한 작게 만드는데 있습니다.
수백만번의 훈련을 거쳐서 말이죠.
훈련을 수행하며,
신경망은 가중치와 편중치를
한 단계씩 계속해서 미세하게 조정합니다.
예측값이 실제 결과값에 근접하게 도달할때 까지요.
일단 훈련이 잘 진행되었다면,
신경망은 매번 정확한 예측값을 내놓을 수 있는
잠재력을 가지게 됩니다.
이것이 간단하게 설명한 신경망의 원리입니다.
여기까지 보셨다면,
왜 분류같은 문제에
분류기들이 얽힌 신경망을 만들고, 훈련 시키는지
궁금하실 수도 있어요.
각각의 분류기들이 분류를 수행할 수도 있는데 말이에요.

Korean: 
그 이유는 바로 패턴의 복잡도 문제에 있습니다.
그에 대해서는 다음 영상에서 다루도록 하겠습니다.
한국어 자막 번역 - Junsik Choi

Chinese: 
一个独立的分类器可以做的很好吗？
答案涉及复杂的模式，我们将在接下来的视频中看到的问题。

English: 
when an individual classifier can do the job quite well?
The answer involves the problem of pattern complexity, which we will see in the next video.

Spanish: 
cuando un único clasificador puede hacer el trabajo sin problemas?
La respuesta está relacionada con el problema de la complejidad de patrones, que explicaremos en nuestro siguiente vídeo.

Italian: 
Quando una persona può fare questo lavoro molto bene?
La risposta riguarda il problema della complessità del modello, che vedremo nel prossimo video.

Arabic: 
عندما يمكن لمصنف فردي القيام بهذه المهمة بشكل جيد؟
الجواب ينطوي على مشكلة تعقيد النمط، والتي سنرى في الفيديو التالي.

Portuguese: 
quando um classificador indivíduo pode fazer o trabalho muito bem?
A resposta envolve o problema da complexidade padrão, que veremos no próximo vídeo.

Thai: 
ในเมื่อ classifier เดี่ยวๆ ก็ทำงานได้ดีแล้ว?
คำตอบเกี่ยวข้องกับปัญหาเรื่องความซับซ้อน
ของรูปแบบ ซึ่งเราจะเห็นในวิดีโอต่อไป
