
Modern Greek (1453-): 
Αυτό είναι το τρία. Είναι τσαπατσούλικα γραμμένο και στην υπερβολικά χαμηλή ανάλυση των 28x28 pixels.
Το μυαλό σας όμως δεν έχει κανένα πρόβλημα να δει ότι είναι τρία και θέλω να αυτό το εκτιμήσετε για μια στιγμή:
Πόσο τρελό είναι που οι εγκέφαλοι μπορούν να το κάνουν τόσο αβίαστα;
Θέλω να πω, αυτό, αυτό κι αυτό τα βλέπουμε ως τρία,
παρόλο που η συγκεκριμένη τιμή κάθε pixel διαφέρει κατά πολύ από εικόνα σε εικόνα.
Τα εξειδικευμένα φωτοευαίσθητα κύτταρα στο μάτι σας που πυροδοτούνται όταν βλέπουν αυτό το τρία
είναι πολύ διαφορετικά από αυτά που πυροδοτούνται όταν βλέπουν αυτό το τρία.
Αλλά κάτι σε αυτόν τον τρελά έξυπνο φλοιό σας, τα ξεμπερδεύει
λες και αντιπροσωπεύουν την ίδια ιδέα, ενώ την ίδια στιγμή αναγνωρίζει άλλες εικόνες ως άλλες ξεχωριστές ιδέες.
Αν σας έλεγα όμως να καθίσετε κάτω και να μου γράψετε ένα πρόγραμμα που δέχεται ως είσοδο ένα πλέγμα 28x28 pixels

Italian: 
Questo è un tre. È scritto male e visualizzato ad una risoluzione estremamente bassa di 28x28 pixel.
Ma il tuo cervello non ha problemi a riconoscerlo come un tre e voglio che ti prenda un momento per apprezzare
quanto è pazzesco il fatto che il cervello riesca a farlo questa cosa così facilmente?
Intendo questo, questo e questo sono anch'essi riconoscibili come tre,
anche se i valori specifici di ciascun pixel sono molto diversi da un'immagine all'altra.
Le specifiche cellule fotosensibili dell'occhio che si attivano quando vedi questo tre
sono molto diverse da quelle che si attivano quando vedi questo tre.
Ma qualcosa in quella tua corteccia visiva
li riconosce come entità che rappresentano la stessa idea, mentre allo stesso tempo riconosce le altre immagini come idee distinte
Ma se ti dicessi, siediti e scrivimi un programma che contiene una griglia di 28x28

Arabic: 
هذه هى ثلاثة, مكتوبة ومقدمة بإهمال وبدقة منخفضة جدا 28*28 بكسل
ولكن عقلك لا يوجد لديه مشكلة في التعرف على أنها ثلاثة وأريد منك أن تأخذ لحظة لنقدر
كيف أن عقلك يستطيع فعل هذا بكل سلاسة وبدون مجهود
أعنى هذا وهذا وهذا يمكن أيضا التعرف عليهم على أنهم الرقم ثلاثة
على الرغم من أن القيم المحددة لكل بكسل مختلفة جدا من صورة واحدة إلى أخرى
الخلايا الحساسة للضوء في عينيك التى تعمل عندما ترى هذه الثلاثة
تختلف كثيرا عن تلك التي تعمل عندما ترى تلك الثلاثة.
ولكن شيئا في القشرة البصرية الذكية التي تمتلكها
يحل هذا على أنه تقديم لنفس الفكرة وهى الرقم ثلاثة ولكنه بنفس الوقت يقوم بالتعرف على الصور الأخرى على أنها أفكار أخرى تختلف عن الرقم ثلاثة
ولكن إذا قلت لك مهلا اجلس واكتب لى برنامجا تكون مدخلاته شبكة من  28 بكسل*28بكسل

Vietnamese: 
Đây là số ba. Nó được viết phức tạp/rắc rối và có độ phân giải rất thấp 28 28 pixel.
Nhưng não của bạn không có vấn đề khi nhận dạng đó là số ba. Tôi hy vọng bạn có thể dành một chút thời gian để đánh giá vấn đề này.
Làm thế nào bộ não có thể làm điều này dễ dàng?
Ý tôi là, nó đây. Đây cũng được nhận dạng là số ba,
mặc dù các giá trị cụ thể của mỗi điểm ảnh là rất khác nhau trong những hình ảnh khác.
Các tế bào nhạy sáng đặc biệt trong mắt của bạn sẽ phát ra tín hiệu khi bạn nhìn thấy số ba này.
Khi bạn nhìn thấy số ba này thì sẽ tạo ra tín hiệu rất khác nhau.
Nhưng có một cái gì đó ở trong vỏ não thị giác
thông minh của bạn ...
đã giải quyết chúng bằng cách đưa ra hình mẫu tương tự trong khi cùng lúc nhận dạng hình ảnh khác bằng cách  riêng biệt của mình.
Nhưng nếu tôi nói với bạn: Hãy ngồi xuống và viết cho tôi một chương trình mà đầu vào là một bức ảnh 28x28 pixel ...

Indonesian: 
Ini adalah tulisan angka tiga (3). Angka tersebut ditulis secara sembarangan dan ditampilkan dengan resolusi rendah berukuran 28x28 piksel.
Tetapi, otak Anda tidak kesulitan mengenalinya sebagai tulisan angka tiga dan saya ingin mengajak Anda untuk meluangkan waktu sejenak untuk menghargai
Seberapa gokil otak manusia dapat mengenalinya dengan mudah.
Tulisan gambar ini dan gambar ini juga dikenali sebagai angka tiga,
meskipun setiap pixel memiliki nilai yang berbeda antara satu gambar dengan gambar lainnya.
Sel-sel peka cahaya tertentu di mata Anda-yang bekerja ketika Anda melihat angka tiga yang ini
sangat berbeda dari yang bekerja ketika Anda melihat angka tiga yang ini.
Tetapi sesuatu dalam korteks visual pintar yang gokil itu
menyelesaikan permasalahan ini sebagai mewakili ide yang sama sementara pada saat yang sama mengenali gambar lain sebagai ide mereka sendiri yang berbeda
Tetapi jika saya mengatakan kepada Anda hei duduk dan menulis untuk saya sebuah program yang mengambil grid 28 oleh 28

English: 
This is a three. It's sloppily written and rendered at an extremely low resolution of 28 by 28 pixels.
But your brain has no trouble recognizing it as a three and I want you to take a moment to appreciate
How crazy it is that brains can do this so effortlessly?
I mean this this and this are also recognizable as threes,
even though the specific values of each pixel is very different from one image to the next.
The particular light-sensitive cells in your eye that are firing when you see this three
are very different from the ones firing when you see this three.
But something in that crazy smart visual cortex of yours
resolves these as representing the same idea while at the same time recognizing other images as their own distinct ideas
But if I told you hey sit down and write for me a program that takes in a grid of 28 by 28

Hungarian: 
Ez egy hármas szám. Hanyagul írt és alacsony, 28 × 28 képpontos felbontásban lett beolvasva.
Az agyadnak mégsem esik nehezére 3-as számként felismernie. Szerintem érdemes egy pillanatra elgondolkodni azon,
mennyire elképesztő, hogy az agyad minden megerőltetés nélkül képes erre.
Hiszen ez a 3 ábra mind felismerhető hármasként
annak ellenére, hogy az egyes képpontok nagyon különböznek egymástól.
A szemedben lévő fényérzékeny sejtek, amelyek akkor "tüzelnek", mikor ezt a hármast látod
nagyrészt eltérnek azoktól, amelyek ennél a hármasnál kapnak jelet.
De valami az őrülten intelligens vizuális kérgedben felismeri, hogy
ezek egy és ugyanazon jelentés megnyilvánulásai, miközben más képeket meg más jelentésekkel társít.
De ha most azt mondanám neked, ülj le és írj nekem egy programot, amely beolvas egy 28 x 28-as rácsot

French: 
Ceci est un trois. Il est mal écrit et rendu en très basse résolution, 28 x 28 pixels.
Mais votre cerveau n'a aucun mal à reconnaître que c'est un trois. Et je voudrais que vous preniez un moment pour apprécier
à quel point c'est fou qu'un cerveau puisse faire ceci presque sans effort.
Ça, ça et ça sont aussi reconnaissables à des trois,
même si les valeurs spécifiques de chaque pixel sont très différentes d'une image à l'autre.
Les cellules photosensibles dans vos yeux qui sont activées lorsque vous voyez ce trois
sont très différentes de celles qui sont activées lorsque vous voyez celui-ci.
Mais quelque chose, dans ce fabuleux cortex visuel qu'est le vôtre,
reconnaît ces trois comme des représentations de la même idée, tout en reconnaissant d'autres images en tant que des idées distinctes.
Mais si je vous disais : "Hey, asseyez-vous et écrivez-moi un programme qui prend une grille de 28 par 28

Czech: 
To je trojka. Ledabyle napsaná a uložená v nízkém rozlišení 28 × 28 pixelů.
Ale váš mozek nemá potíže rozpoznat ji jako trojku a měli bychom na tomto místě ocenit,
jak překvapivé je, že mozky toto dokážou bez problému
Uvažme, že toto, toto a toto je také rozpoznatelné jako trojka,
i když hodnoty každého pixelu jsou v jednotlivých obrazech velmi odlišné.
Světločivné buňky ve vašem oku, které se aktivují, když vidíte tuto trojku
jsou zcela jiné, než ty, které aktivuje tato trojka.
A něco v té šíleně geniální vizuální mozkové kůře
vyhodnotí, že představují stejnou myšlenku, ale zároveň rozpozná jiné obrazy jako odlišné myšlenky
Ale kdybych vám řekl: Tak se posaďte a napište program, který má na vstupu obraz 28 krát 28

Turkish: 
Bu bir üç. 28x28 gibi düşük bir çözünürlükte yarım yamalak çizilmiş
Fakat beyniniz bunu bir üç olarak algılamakta sıkıntı çekmiyor ve
Beyninizin bunu hiç efor harcamadan
Demek istediğim bu, bu ve bu da üç olarak algılanabiliyor
Bir görselden diğerine piksellerin belirli değerleri çok farklı olsa bile
Gözlerinize has ışığa duyarlı hücreler bu üçü gördüğünüzde
bu üçü gördüğünüz zamankinden daha  farklı olarak ateşleniyor
Fakat bir şekilde zeki görsel korteksiniz
bunları aynı fikri temsil eden biri olarak değerlendirirken aynı zamanda diğer görüntüleri kendi ayırt edici fikirleri olarak kabul eder
Fakat ben size oturup 28'den 28'e kadar bir grid alan bir programı yazacağımı söylersem

Portuguese: 
Este é um três. Escrito de forma desleixada e renderizado em uma extremamente baixa resolução de 28 por 28 pixels.
Mas o seu cérebro não tem dificuldade de reconhecer-lo como um três, e eu quero que você pare para apreciar isso.
Quão louco é que cérebros conseguem fazer isso sem esforço?
Assim, isso, isso e isso também são reconhecidos como três's
mesmo que os valores específicos de cada pixel seja diferente em cada imagem
As células fotossensíveis no seu olho que estão sendo ativadas quando você vê esse três
são bem diferentes daquelas que são ativadas quando você vê esse três
mas algo naquele seu córtex visual absurdamente inteligente
decide que esses representam a mesma ideia, e reconhece outras imagens com suas ideias distintas
Mas e se eu te dissesse para sentar e me escrever um programa que pega uma "rede" de 28 por 28

Chinese: 
這是一個隨意書寫的28*28像素、解析度很低的數字 3
但你的大腦一看見就能輕鬆辨識出來 ，我想要你好好欣賞這點
人腦能夠毫無障礙地辨識是非常厲害的
我的意思是，這個、這個、還有這個，都能被識別為 3
即使前後圖像的圖形組成有很大差異
當你看到這張 3 在眼中所激發的感光細胞
跟當你看到這張 3 所激發的感光細胞是非常不同的
但在你驚人聰明的視覺皮層的處理下
能將這兩個 3 視為同一個概念，同時將其他圖像視為不同的概念
要是我要你：「嘿！坐下來幫我寫個程式， 」
「輸入像這個 28*28 像素的數字圖像」

Persian: 
این یک سه است. این عدد به صورت سریع نوشته شده و در رزولوشن بسیار پایین در ابعاد 28 تا 28 پیکسل  رندر شده است.
اما مغز شما هیچ مشکلی در شناسایی آن به عنوان یک سه ندارد و من می خواهم یک لحظه به آن توجه کنید.
کورتکس چگونه  است وقتی مغیز اینکار را بدون زحمت انجام می دهد.
منظورم این است که این، این و این هم به عنوان سه، قابل تشخیص هستند.
حتی اگر مقادیر خاص هر پیکسل از یک تصویر به تصویر بعد بسیار متفاوت باشد.
وقتی این سه را می بینید، سلول های حساس به نور خاصی در چشم شما تصاویری ارسال می کنند
که وقتی این سه را می بینید، با آن بسیار متفاوت هستند.
اما چیزی  در آن وجود دارد که کورتکس بصری هوشمند شما
اینها را به عنوان نمایشی از همان ایده حل می کند، در حالی که در عین حال تصاویر دیگر را به مثابه ایده های متمایز با آن تشخیص می دهد
اما اگر من به شما بگویم که بنشینید و یک برنامه برایم بنویسید  که در شبکه 28 تا 28

Portuguese: 
Isso é um três. É sloppily escrito e renderizado em uma resolução extremamente baixa de 28 por 28 pixels.
Mas o seu cérebro não tem dificuldade em reconhecê-lo como um três e eu quero que você tire um momento para apreciar
Como é que os cérebros conseguem fazer isso sem esforço?
Quero dizer isso isso e isso também são reconhecíveis como três,
mesmo que os valores específicos de cada pixel sejam muito diferentes de uma imagem para outra.
Em particular as células sensíveis à luz  em seus olhos que estão disparando quando você vê este três
são muito diferentes dos que disparam quando você vê este três.
Mas algo louco nesse  córtex visual inteligente de vocês
resolve estes como representando a mesma idéia, enquanto ao mesmo tempo reconhecendo outras imagens como suas próprias idéias distintas
Mas se eu te dissesse, hey se sente e escreva para mim um programa que leva em uma grade de 28 por 28

Japanese: 
これは3です。これは、28ピクセル×28ピクセルの極端に低い解像度で作成され、書かれています。
あなたの脳は問題なくそれを3と認識するでしょう。ここで、私はあなたに理解してもらうために少し時間をかけてほしいことがある。
どのようにして脳が楽々と3だと認識することができたのか？
これも、これも、そしてこれもまた3として認識される事を意味します、
ある画像から次の画像に対して、各々のピクセルの特定の値が非常に異なる場合であっても。
この3を見た時にあなたの目の中で発火している特定の視細胞と
この3を見たときに発火している視細胞は全く別物です。
しかし、あなたの非常に高性能な視覚野の中の何かが
これらを同じアイデアを表すものとして理解すると同時に、他のイメージを別個のアイデアとして認識します
しかし、もし私があなたにちょっと座って私のためにプログラムを書いてくれと言ったら。プログラムは、28×28ピクセルのグリッドを使用し、

Chinese: 
这 是一个3
一个字迹歪斜 28x28像素 超低分辨率的3
但你的大脑把它辨认成3 一点问题也没有
我希望大家能稍微感叹一下 人脑"竟然"能如此轻而易举地完成这项工作
你看这个 这个 和这个图 我们都认作3
但他们每个图中各个像素的值是大相径庭的
你眼睛中 看到这张3时激发的光感细胞
和看到这张3时激发的细胞有着千差万别
但你大脑皮层中小小的一块处理视觉的智能区域
却居然能够把这些图像处理成相同信息
同时还能把其他的图像解释成各自不同的信息
不过 要是我现在叫你 嘿 你滴 给我写个程序
输入一个28x28像素的表格 输出一个0到9之间的个位数

Russian: 
Это тройка.
Она небрежно написана и визуализирована в чрезвычайно маленьком разрешении
28 на 28 пикселей.
Но ваш мозг без труда узнаёт в ней тройку.
И я хотел бы чтобы вы оценили тот изумительный факт, что мозг может делать это с лёгкостью.
Я о том, что это, это и это тоже распознаётся как тройки,
хотя конкретные значения пикселей очень разнятся от картинки к картинке.
Набор светочувствительных клеток в вашем глазу, которые возбуждаются, когда вы видите эту тройку,
сильно отличается от набора, когда вы видите эту тройку.
Но что-то в вашей невероятно умной зрительной коре, решает что они представляют одну сущность.
Одновременно понимая что другие картинки описывают другие сущности.
Но если бы я сказал вам: Эй, напиши мне программу, которая принимает на вход сетку

Thai: 
นี่คือเลขสาม เขียนอย่างลวกๆ และแสดงผลที่ความละเอียดต่ำที่ 28 x 28 pixel
แต่ก็ไม่ใช่ปัญหาที่สมองคุณจะเห็นว่ามันเป็นเลขสาม ผมอยากให้คุณตระหนักถึงคุณค่า
ไม่น่าเชื่อว่าสมองเราสามารถทำมันได้อย่างง่ายดาย
อันนี้ อันนี้ แล้วก็อันนี้ ก็ยังเห็นว่าเป็นเลขสาม
แม้ว่าข้อมูลในแต่ละpixelในแต่ละรูปจะไม่เหมือนกันก็ตาม
เซลล์ที่ไวต่อแสงในดวงตาของคุณส่งสัญญาณเมื่อคุณเห็นเลขสามนี้
ก็เป็นคนละอันกับที่ส่งสัญญาณเมื่อคุณเห็นเลขสามรูปนี้
แต่สิ่งที่อยู่ในvisual cortex ที่ฉลาดมากของคุณ
สามารถแก้ปัญหาเหล่านี้เพื่อแสดงถึงแนวคิดเดียวกันในขณะที่จดจำภาพอื่น ๆ เป็นความคิดที่แตกต่างออกไป
แต่ถ้าผมบอกคุณ ให้นั่งลงและเขียนโปรแกรมให้ผม โดยใช้ข้อมูลจากตารางจาก 28 x 28 pixels

Spanish: 
Este es un tres, que esta escrito de manera descuidada
y renderisado en una resolución extremadamente pequeña de 28X28 pixeles,
pero tu cerebro no tiene problemas reconociéndolo como un 3,
quiero  tomes un momento para pensar en que loco es que
el cerebro pueda hacer esto sin esfuerzo ,
lo que digo es que , este, este y este son también reconocibles como 3
Incluso si el valor de cada pixel es
muy diferente de una imagen a la siguiente
Las celulas foto- sensibles en particular en tu ojo
que se están disparando cuando
ves este tres es muy diferente de las que disparan cuando ves este 3
, pero algo en esa loca visión de la  corteza cerebral tuya
resuelve que estas 2 representan la misma idea.
mientras que al mismo tiempo,
reconoce otras imágenes como sus propias ideas distintas.
Pero si te dijo, ey ,siéntate y escribe para mi
un programa que tome un rejilla de 28 X 28 pixeles
como esta

Polish: 
To jest trójka. Jest niedbale napisana i renderowana w wyjątkowo niskiej rozdzielczości 28 na 28 pikseli.
Ale twój mózg nie ma problemu z rozpoznaniem jej jako trójki i chce, żebyś poświęcił chwilę, by to docenić
Jak szalone jest to, że mózg może robić to bez wysiłku?
Mam na myśli to, że to i to są tak samo rozpoznawalne jako trójka,
nawet jeśli konkretne wartości każdego piksela różnią się bardzo, jeden obraz od drugiego.
Szczególne wrażliwe na światło komórki w twoim oku, które strzelają, kiedy widzisz tę trójkę
bardzo różnią się od tych strzelających, gdy widzisz tę trójkę.
Ale coś w tej szalonej, inteligentnej kory wzrokowej
rozpatruje je jako reprezentujące ten sam pomysł, a jednocześnie rozpoznaje inne obrazy jako własne odrębne pomysły
Ale gdybym ci powiedział, hej usiądź i napisz mi program, który ma siatkę 28 na 28

Korean: 
여기에 숫자 3이 있습니다. 다소 삐뚤삐뚤하게 쓰였고,
28x28 픽셀 밖에 안되는 저해상도로  기록되어 있지만,
여러분의 뇌는 이 이미지를 아주 간단히
 3이라고 인식합니다.
뇌는 대체 어떻게 이런 어마어마한 일을 간단히 해내는 것일까요?
그러니까, 여러분의 뇌는 오른쪽의 이 그림들도 전부 3이라고 인식해냅니다.
각 픽셀들의 밝기가 이미지마다 서로 다른데도 말이죠.
여러분의 눈 안에 있는 시지각 세포들이 빛 신호를 받아들이는 패턴은,
이 그림을 볼 때와,
이 그림을 볼 때 서로 다른 양상을 가집니다.
그러나,  여러분의 뇌에 있는 시각피질(visual cortex)은 이러한 차이에도 불구하고
두 이미지가 같은 개념을 가리킨다고 판단합니다.
동시에, 다른 개념을 가리키는 이미지들도 구별해내지요.
하지만 만약, 제가 여러분에게 이 그림과 같이 28x28개의 입력값들을 받아

German: 
Dies ist eine Drei. Sie ist schlampig geschrieben und ist bei einer extrem niedrigen Auflösung von 28 um 28 Pixel gerendert.
Aber dein Gehirn hat keine Mühe, es als eine Drei zu Erkennen.
Nimm doch einen Moment Zeit zum Wertschätzen, wie verrückt es ist, dass Gehirne dies so mühelos tun können?
Ich meine, diese sind auch erkennbar als Dreien,
obwohl die spezifischen Werte von jedem Pixel von einem Bild zum Nächsten sehr verschieden sind.
Die speziellen lichtempfindlichen Zellen im Auge, die aktiviert werden, wenn Sie die diese Drei sehen,
sind sehr verschieden sind von denen, die aktiviert werden, wenn Sie die andere Drei sehen.
Aber etwas in Ihrem verrückten intelligenten visuellen Kortex
erkennt diese als dieselbe Idee, während zugleich andere Bilder als ihre ganz eigenen Ideen erkannt werden.
Aber wenn ich Ihnen sagte, schreiben Sie für mich ein Programm, das ein 28x28 Raster nimmt

Korean: 
0에서 9 범위의 정수 값 하나를 내놓는 프로그램을 짜 보라고 한다면 어떨까요.
문제가 갑자기 어려워집니다.
여러분이 동굴 속에서 살던 분이 아니라면,
굳이 현재부터 미래까지의 기계학습(Machine Learning)과 신경망(Neural Network)의 중요성을 다시 강조할 필요는 없을 듯 합니다.
여기에서는 여러분이 배경지식이 없다고 간주하고 신경망이 구체적으로 무엇인지를 알아보고,
유행어가 아닌, 수학으로서 신경망이 도대체 무엇인지를 보여드릴 것입니다.
이 동영상을 통해 여러분이 신경망 구조가 만들어진 토대를 깨닫고
그 구조 속에서 "학습"이 어떤 의미를 갖는지
알게 되었으면 좋겠습니다.
이 영상에서는 신경망의 구조에 대해 먼저 다룰 것입니다.
학습은 다음 영상에서 다룰거고요.
이제, 필기체 숫자 이미지에서 숫자 인식을
학습할 수 있는신경망의 구조를 알아보겠습니다.
이것은 신경망이론을 소개하는 고전적 예시중 하나입니다.
이 영상과 다음 영상의 말미에 인공신경망에 대한통찰력을 기를 수 있는 자료가 포함되어 있는 웹페이지의 링크를 드릴 것입니다.

Chinese: 
来判断一个图片里到底写着哪个数字呢
好吧 这个原本轻松的工作一下就变得如登天一般难了
大家又不是山顶洞人
想必我没有必要再给大家展望一遍
机器学习和神经网络对当下和未来有多么息息相关
但假设大家对神经网络没有任何背景知识
我想来给大家介绍下神经网络究竟是什么
用视觉化的方式展示它的工作机制
把它作为一门数学 而不是单纯的网红热词来对待
这系列讲完 我希望大家能够理解神经网络为什么会是这样的结构
让大家再度听说神经网络"学习"之时 能够明白这究竟代表了什么
本期视频仅仅会介绍神经网络的结构
下一期将会讨论它的学习原理
接下来我们将会手把手搭建一个
能够识别手写数字的神经网络
这是一个用于入门的经典范例
而这里我并不会标新立异的原因
是因为这两期结束的时候
我会附上一些不错的补充学习资料

Spanish: 
Y devuelva un numero en particular  entre 0 y 10
diciendo cual número piensa que es,
bueno la tarea empieza desde lo comicamente fácil hasta lo desalentadoramente difícil
A menos de que vivas debajo de una piedra, pienso  que difícilmente necesito
motivar la relevancia e importancia de la maquina de aprendizaje
y redes neuronales en el presente y en el futuro
pero lo que quiero hacer aquí es mostrarte que realmente es una red neuronal.
asumiendo  que no hay conocimiento previo y ayudar a visualizar
qué está haciendo , no como una palabra pegadiza ,si no como una pieza matemática.
Mi  esperanza es que  sientas que esta estructura en sí
motiva , y la sensación de que sabes que significa
cuando lees o escuchas  "Red neuronal "
, este video será dedicado a la componente - estructura  de eso,
y el siguiente abordará "El aprendizaje"
Lo que vamos a hacer es poner junta una red neuronal
que puede aprender a reconocer dígitos escritos a mano
Esto un tipo de ejemplo clásico
para introducir el temas y estoy feliz por apegarme al estatuto
porque al final de los dos videos,  quiero que veas una par de buenas fuentes

French: 
pixels comme celle-ci et qui vous rend un seul chiffre entre 0 et 10, vous disant quel chiffre il pense que c'est.
Cette tâche passe de "Comiquement triviale" à "Beaucoup trop difficile".
À part si vous avez vécu sous un rocher,
je pense que je n'ai pas tant besoin de vous montrer l'importance du machine learning et des réseaux de neurones pour le présent et le futur,
mais ce que je veux faire ici est vous montrer ce qu'est vraiment un réseau de neurones,
en repartant de zéro et en vous aidant à visualiser ce qu'il fait en tant qu'élément mathématique.
Mon espoir est juste que vous quittiez cette vidéo en sentant que cette structure est
motivée, et que vous sentiez que vous savez ce que vous lisez ou entendez sur l'"apprentissage" des réseaux de neurones.
Cette vidéo ciblera uniquement la structure de ces réseaux, et la prochaine s'intéressera à leur apprentissage.
Nous allons construire un réseau de neurones qui pourra reconnaître des chiffres écrits à la main.
C'est un exemple classique pour
introduire ce sujet et je reste sur ce status quo, car à la fin de ces deux vidéo je vous

Thai: 
เช่นนี้และคืนตัวเลขเดียวระหว่าง 0 ถึง 10 บอกคุณว่ามันคิดว่ามันเป็นตัวเลขอะไร
งานนี้จากตลกง่ายดายกลายเป็นยากเย็นแสนเข็ญ
นอกจากคุณอยู่ใต้หิน
ผมคิดว่าผมแทบจะไม่จำเป็นต้องพูดถึงความเกี่ยวข้องและความสำคัญของ Machine Learning และ Neural Networkในปัจจุบันต่อไปในอนาคต
แต่สิ่งที่ผมต้องการจะทำคือแสดงให้คุณเห็นว่า neural network มันคืออะไรกันแน่
สมมติว่าไม่มีความรู้พื้นหลังและให้ช่วยเห็นภาพว่ามันทำอะไร ไม่ใช่buzzword แต่ราวกับเป็นส่วนหนึ่งของคณิตศาสตร์
ผมหวังว่าคุณจะออกมารู้สึกเหมือนโครงสร้างนี้เอง
มีแรงบันดาลใจและรู้สึกเหมือนคุณรู้ว่ามันหมายถึงอะไรเมื่อคุณอ่านหรือได้ยินเกี่ยวกับ neural network
วิดีโอนี้เป็นจะทุ่มเทให้กับองค์ประกอบโครงสร้างของมันและอันต่อไปเป็นไปเพื่อจัดการกับการเรียนรู้
สิ่งที่เรากำลังจะทำคือใส่กัน neural network ที่สามารถเรียนรู้ที่จะอ่านเลขที่เขียนด้วยลายมือ
นี่เป็นตัวอย่างคลาสสิกสำหรับ
แนะนำหัวข้อนี้และผมก็ยินดีที่จะปฏิบัติตามเดิมที่นี่เพราะในตอนท้ายของวิดีโอทั้งสองแบบที่ฉันต้องการชี้

Czech: 
pixelů, jako tento, a jako výstup dá jediné číslo mezi 0 a 9 podle toho, jaká je číslice na obrázku,
co vypadá jednoduše, bude složitý a časově náročný úkol.
Asi už víte, kde se strojové učení
a neuronové sítě v dnešní době využívají a nemusím  povídat o významu  pro současnost a budoucnost
Ale co chci udělat, je ukázat vám, co vlastně je neuronová síť
a pomoci znázornit, co dělá. (Předchozí znalosti nejsou potřeba.) Bez nesrozumitelné terminologie, ale matematicky.
Chci, abyste odcházeli s porozuměním, že tato struktura má nějaký smysl
a abyste měli nějakou představu, co to znamená, když někde čtete nebo slyšíte, že neuronová síť se „učí“
Toto video je věnováno jen struktuře sítí, a v dalším videu si probereme učení
Naším cílem bude vytvořit neuronovou síť, která se dokáže naučit rozpoznávat ručně psané číslice
To je víceméně klasický příklad
jak neuronové sítě představit, a já to nebudu dělat jinak, protože na konci obou videí vás odkážu na

Modern Greek (1453-): 
σαν αυτό, και βγάζει ως έξοδο έναν αριθμό από το 0 ως το 10 λέγοντάς σας ποιο ψηφίο νομίζει ότι είναι...
Λοιπόν, το πρόβλημα μετατρέπεται από κωμικά απλό σε αποθαρρυντικά δύσκολο.
Εκτός αν ζείτε στα βουνά,
νομίζω ότι δεν χρειάζεται να σας πείσω για τη συνάφεια και τη σημασία του machine learning και των νευρωνικών δικτύων, τώρα και στο μέλλον,
αλλά αυτό που θέλω να κάνω εδώ, είναι να σας δείξω τι είναι πραγματικά ένα νευρωνικό δίκτυο.
Υποθέτοντας ότι δεν έχετε ασχοληθεί καθόλου με το θέμα, και για να σας βοηθήσω να οπτικοποιήσετε τι κάνει, όχι σαν λέξη της μόδας, αλλά σαν μαθηματικό εργαλείο,
Η ελπίδα μου είναι ότι τελειώνοντας το βίντεο θα νιώθετε τα κίνητρα που μας οδηγούν σε αυτήν τη δομή,
και θα καταλαβαίνετε τι σημαίνει το "μαθαίνει" όταν διαβάζετε ή ακούτε για ένα νευρωνικό δίκτυο "μάθησης".
Αυτό το βίντεο θα είναι αφιερωμένο στο κομμάτι της δομής, ενώ το επόμενο θα ασχοληθεί με το κομμάτι της "μάθησης".
Αυτό που θα κάνουμε είναι να φτιάξουμε ένα νευρωνικό δίκτυο που θα μάθει να αναγνωρίζει χειρόγραφα ψηφία.
Αυτό είναι ένα σχετικά κλασικό παράδειγμα για
εισαγωγή στο θέμα και χαίρομαι που ακολουθώ την παράδοση εδώ, γιατί στο τέλος των δύο βίντεο, θέλω

Chinese: 
「接著輸出該程式認為的 0 到 10 之間的一個數字 ，必須跟你認為的一樣。」
這個任務將不再是家常便飯，而變得嚇死人的困難
除非你是山頂洞人
我想不用再強調機器學習和神經網路之間，對未來發展的關聯性和重要性
我現在要向你展示神經網路究竟是什麼
假設你沒有相關背景知識
我會視覺化神經網路的運作
並且把它當作一門數學，不僅僅是當下流行詞語
我希望你將能理解為什麼神經網路是長這個樣子
當你看到或聽到機器藉著神經網路來「學習」時
是了解其意涵的
這支影片將解釋神經網路的構造
而下一部影片將解釋機器學習
我們要做的是打造一個可以辨識手寫數字的神經網路
這是介紹這種主題很典型的範例
我樂於保持這種模式，因為在看完兩支影片後

Indonesian: 
piksel seperti ini dan mengeluarkan satu angka antara 0 dan 10 memberi tahu Anda apa yang dianggapnya digit
Nah tugasnya dari lucu menjadi sangat sulit
Kecuali Anda telah hidup di bawah batu karang
Saya pikir saya hampir tidak perlu memotivasi relevansi dan pentingnya pembelajaran mesin dan jaringan syaraf ke masa sekarang ke masa depan
Tapi yang ingin saya lakukan di sini adalah menunjukkan kepada Anda apa sebenarnya jaringan saraf itu
Dengan asumsi tidak ada latar belakang dan untuk membantu memvisualisasikan apa yang dilakukannya bukan sebagai kata kunci tetapi sebagai bagian dari matematika
Harapan saya adalah bahwa Anda datang dengan perasaan seperti struktur ini
Termotivasi dan merasa seperti Anda tahu apa artinya ketika Anda membaca atau Anda mendengar tentang pembelajaran kutipan-tanda kutip jaringan saraf
Video ini hanya akan dikhususkan untuk komponen struktur itu dan yang berikut ini akan menangani pembelajaran
Apa yang akan kita lakukan adalah menyatukan jaringan saraf yang dapat belajar mengenali digit tulisan tangan
Ini adalah contoh yang agak klasik untuk
Memperkenalkan topik dan saya senang mengikuti status quo di sini karena di akhir dua video saya ingin tunjukkan

Arabic: 
مثل هذا ومخرجاته رقم بين الصفر وال10 ويستطيع التوقع ماذا يكون هذا الرقم
عندها تتحول المهمة من شيء غاية فى التفاهة لشئ صعب بطريقة مروعة
إذا لم تكن تعيش فى العصر الحجرى فأعتقد
أننى بالكاد أحتاج لتنبيهك للعلاقة الوثيقة للحاضر والمستقبل أيضا بعلم الشبكات العصبية وتعلم الآلة
ولكن ما أريد فعله حقا هو توضيح لك ما هى الشبكات العصبية ؟
بافتراض عدم وجود خلفية مسبقة ومساعدتك لتخيل ماتفعله ليس كمصطلحات رنانة ولكن بلغة الرياضيات
ما أتمناه أن تخرج من هنا وأنت تشعر أن الهيكل نفسه
محفز وأن تشعر بأنك تعرف معنى ما تقرأ أو تسمع من اقتباسات عن الشبكات العصبية
هذا الفيديو سيكون فقط مكرسا للهيكل المكون للشبكات العصبية أما الذى يليه فسيكون لمعالجة وتوضيح التعلم نفسه بالنسبة للشبكات العصبية
ما نحن بصدد القيام به هو وضع شبكة عصبية للتعرف على الأرقام المكتوبة بخط اليد
هذا مثال كلاسيكى
لتقديم الموضوع وسأكون سعيدا بالتمسك به فى الوضع الراهن لأنه فى نهاية الفيديوهين أريد أن أشير لبعض

German: 
die Zahl darin erkennt und diese Zahl zwischen 0 und 10 ausgibt...
... dann wird aus einer kinderleichten Aufgabe eine höchst kompliziertes Unterfangen.
Es sei denn, man lebe hinter dem Mond,
muss ich kaum die Relevanz und Bedeutung des maschinellen Lernens und neuronaler Netze für die Gegenwart die Zukunft betonen.
Aber was will ich hier zu tun will, ist Ihnen zu zeigen, was ein neuronales Netz tatsächlich ist.
Ich gehe von keine Vorwissen aus und das Thema wird nicht als Schlagwort visualisiert, sondern als ein Stück Mathematik
Meine Hoffnung ist nur, dass Sie das Gefühl verlieren, dass diese Struktur selbstmotivert ist
und anfangen zu wissen, was es bedeutet, wenn Sie lesen oder hören, dass ein neuronales Netz "lernt".
Dieses Video widmet sich nur den Strukturkomponenten und das folgende Video wird das "Lernen" bewältigen.
Wir setzen ein neuronales Netz zusammen, das lernen soll handgeschriebene Ziffern zu erkennen.
Dies ist ein klassisches Beispiel als Einführung für das Thema
und ich bin zufrieden mit dem Status quo hier, denn am Ende der beiden Videos will ich Sie auf

Portuguese: 
pixels como este e gera um único número entre 0 e 10, dizendo-lhe o que acha que o dígito é
Bem, a tarefa vai de comicamente trivial para assustadoramente difícil
A menos que você tenha vivido sob uma rocha
Eu acho que dificilmente preciso motivar a relevância e a importância do aprendizado de máquina e das redes neurais para o presente no futuro.
Mas o que eu quero fazer aqui é mostrar a você o que é uma rede neural
Assumindo no fundo e para ajudar a visualizar o que está fazendo  não como um buzzword  mas como uma  parte  da matemática
Minha esperança é que você saia sabendo o  que é essa estrutura em si
Motivado e sentindo que sabe o que significa quando lê ou ouve sobre uma rede neural
Este vídeo vai ser dedicado aos componente de estrutura e em seguida vai abordar a aprendizagem
O que vamos fazer é montar uma rede neural que aprenda a reconhecer dígitos manuscritos
Este é um exemplo um tanto clássico para
Introduzir o tópico e estou feliz de ficar com o status aqui, porque no final dos dois vídeos eu quero apontar

English: 
pixels like this and outputs a single number between 0 and 10 telling you what it thinks the digit is
Well the task goes from comically trivial to dauntingly difficult
Unless you've been living under a rock
I think I hardly need to motivate the relevance and importance of machine learning and neural networks to the present into the future
But what I want to do here is show you what a neural network actually is
Assuming no background and to help visualize what it's doing not as a buzzword but as a piece of math
My hope is just that you come away feeling like this structure itself is
Motivated and to feel like you know what it means when you read or you hear about a neural network quote-unquote learning
This video is just going to be devoted to the structure component of that and the following one is going to tackle learning
What we're going to do is put together a neural network that can learn to recognize handwritten digits
This is a somewhat classic example for
Introducing the topic and I'm happy to stick with the status quo here because at the end of the two videos I want to point

Japanese: 
0から10の間の単一の数値を出力し、数字が何であるかをあなたに伝えるものです
まあ、仕事は馬鹿げて些細なことから、非常に難しいものに変わります
あなたの知識が非常に限られていない限り、
私は機械学習と神経ネットワークの現在と将来の関連性と重要性を動機付けする必要はほとんどないと思う
しかし、私がここでやりたいことは、実際に神経ネットワークが何であるかを示すことです
背景がないと仮定し、それが流行語としてではなく、数学的なものとして何をしているのかを視覚化するのを助ける
私の希望は、あなたが次のように感じられる事です。この構造そのものによって動機づけられ、
あなたが「神経ネットワーク」学習に関して読んだり、聞いたりする際に、それが何を意味するかを知っているかのように感じる事です
このビデオはそれの構造要素に専念するつもりであり、次のものは学習に取り掛かる予定です
私たちがやろうとしていることは、手書きの数字を認識することを学ぶことができる神経ネットワークをまとめることです
これはやや古典的な例です
トピックを紹介して、私はここで現状を守る事を嬉しく思います。なぜなら2つのビデオの最後に、あなたに指摘したいのです

Polish: 
takie piksele i wyprowadza pojedynczą liczbę z przedziału od 0 do 10, informującą o tym, co uważa za cyfrę
Cóż, zadanie staje się od komedii trywialnej do zniechęcająco trudnej
Chyba, że ​​żyjesz pod kamieniem
Myślę, że nie muszę motywować znaczenia uczenia maszynowego i sieci neuronowych do teraźniejszości w przyszłości
Ale to, co chcę tutaj zrobić, to pokazać, czym właściwie jest sieć neuronowa
Zakładając, że nie ma tła i nie wyobrażamy sobie, co robi, nie jako modne słowo, ale jako element matematyki
Mam nadzieję, że po prostu odejdziesz, czując, że ta struktura sama w sobie jest
Zmotywowani i czujący, jakbyś wiedział, co to znaczy, kiedy czytasz lub słyszysz o sieci neuronowej - nie licz na naukę
Ten film będzie poświęcony komponentowi struktury tego, a następny będzie dotyczył uczenia się
Zamierzamy stworzyć sieć neuronową, która nauczy się rozpoznawać ręcznie pisane cyfry
Jest to dość klasyczny przykład dla
Przedstawiam temat i cieszę się, że trzymam tutaj status quo, ponieważ na końcu tych dwóch filmów chcę wskazać

Italian: 
pixel come questa che genera un numero singolo tra 0 e 10 e che ti dica quale cifra pensa sia
Allora il compito passa dall'essere banale all'essere tremendamente difficile
A meno che tu non abbia vissuto sotto terra
penso che non avrò bisogno di motivare la rilevanza e l'importanza dell'apprendimento automatico e delle reti neurali nel presente nel futuro
Ma quello che voglio fare qui è mostrarti che cos'è una rete neurale
Senza pretendere conoscenze pregresse, in modo da aiutarti a visualizzare cosa sta facendo, non in modo divulgativo, ma come un pezzo di matematica.
La mia speranza è che tu capisca come come questa struttura stessa
è motivata e ti senta come se sapessi cosa significa quando leggi o senti parlare di una di una rete neurale
Questo video sarà dedicato alla sua componente strutturale ed il successivo affronterà l'apprendimento.
Quello che faremo è costruire una rete neurale che possa imparare a riconoscere cifre scritte a mano
Questo è il classico esempio che si usa per
introdurre l'argomento e sono felice di riproporlo qui perché alla fine dei due video voglio indicarti

Turkish: 
piksel sayısına eşittir ve 0 ile 10 arasında, rakamın ne düşündüğünü söyleyen tek bir sayı verir
Peki görev komik önemsiz zor zor zor
Bir kayanın altında yaşadıkça
Bence, makine öğrenimi ve sinir ağlarının şimdiye kadar geleceğe olan ilgisini ve önemini motive etmeye ihtiyacım yok.
Ancak burada yapmak istediğim, sinir ağının gerçekte ne olduğunu size göstermek
Hiçbir geçmişi varsayarak ve ne yaptığını, bir analitik olarak değil, matematik parçası olarak görselleştirmeye yardımcı olmak
Benim umudum, sadece bu yapının kendisi gibi hissediyormuşsun
Motivasyonlu ve duyduğunuzda ne hissettiğinizi hissettiğinizde, okuduğunuzda veya bir sinir ağı hakkında bilgi alırsanız, alıntı yaparsınız.
Bu video sadece yapının bileşenine ayrılmış olacak ve aşağıdaki öğrenme ile başa çıkacak
Elle yazılmış rakamları tanımayı öğrenebilen bir sinir ağını bir araya getirmek için yapacağımız şey
Bu biraz klasik bir örnek:
Konuyu tanıtıyorum ve burada statüko yapmaya mutluluk duyuyorum, çünkü şunu belirtmek istediğim iki videonun sonunda şunu belirtmek istiyorum:

Hungarian: 
és egyetlen számot ad ki 0-9 között, azt a számjegyet, amit felismerni vél?
Nos, a feladat akkor a nevetségesen triviálisból hirtelen vért izzasztóan bonyolulttá válna.
Hacsak nem egy szikla alatt éltél eddig,
valószínűleg aligha kell hangsúlyoznom a gépi tanulás és a neurális hálózatok fontosságát mind a jelenben mind a jövőre nézve.
Most arról fogok beszélni, hogy pontosan mi is az a neurális hálózat.
Feltételezve az előismeretek hiányát és megpróbálva matekosan vizualizálni a működést.
Mindössze annyit remélek, hogy a végén már nem gondolod azt, hogy ez egy motivációval rendelkező struktúra,
és úgy érzed, tudod mire gondolj, amikor valahol olvasod vagy hallod a "neurális hálózat" kifejezést.
Ez a videó csak a struktúrával foglalkozik, a következő szól a tanulásról.
Itt és most megpróbálunk egy olyan neurális hálózatot létrehozni, amely megtanulja felismerni a kézzel írott számokat.
Ez egy klasszikus példa a téma bemutatására.
És itt örömmel ragaszkodom a status quo-hoz, mert a két videó végén mutatok majd néhány forrást,

Russian: 
28 на 28 пикселей как показано, и выдаёт одно число от 0 до 9, угадывая что это за число,
то задача оказалась бы от смешного простой до назойливо сложной.
Если только вы не живёте в пещере, я думаю мне не придётся долго убеждать вас в
актуальности и важности машинного обучения и нейросетей в настоящем и будущем.
Но то чего я добиваюсь - это показать вам что такое нейросеть на самом деле,
предполагая что вы понятия не имеете, и помочь визуализировать её работу.
Не как модное словечко, а с точки зрения математики.
Я бы хотел чтобы вы получили представление о том чем вообще обусловлена такая структура
и чтобы вы понимали, когда читаете или слышите, что значит так называемое "обучение" нейросетей.
Это видео будет посвящено только структуре её компонентов, а следующее затронет обучение.
Мы собираемся построить нейросеть, которую можно будет обучить распознавать написанные вручную цифры.
Это своего рода классический пример для введения в данную тему.
И я хотел бы придерживаться здесь статуса-кво, потому-что после двух видеороликов
я хочу указать вам на пару хороших ресурсов, где вы сможете узнать больше,

Persian: 
پیکسل هایی مثل این قرار داشته باشد و خروجی یک عدد بین 0 و 10 باشد، به شما می گوید که فکر می کند این رقم
خوبی است، کاری به طرز ناخوشایند مشکل و بی اهمیت.
مگر اینکه زیر سنگ زندگی کنید
من فکر می کنم  ایجاد انگیزه ارتباط و اهمیت یادگیری ماشین و شبکه های عصبی را از حال به آینده به شدت مورد نیاز است
اما آنچه که من می خواهم انجام دهم این است که به شما نشان می دهد که شبکه عصبی در واقع چیزی
فرضی بدون هیچ پس زمینه است و برای کمک به تجسم کردن آنچه که آن را نه به عنوان یک عبارت مبهم بلکه به عنوان یک قطعه ریاضی انجام می دهد
امید من فقط این است که شما احساس  کنید که این ساختار خودش
انگیزه بخش است و احساس اینکه وقتی شما در مورد یادگیری مستقیم یا غیر مستقیم یک شبکه عصبی می خوانید یا می شنوید، می دانید معنای آن چیست
این ویدئو فقط با ساختار جزئی از آن اختصاص پیدا کرده است و نوعی را دنبال می کند که منجر به یادگیری می شود
آنچه که ما انجام می دهیم، یک شبکه عصبی است که می تواند یاد بگیرد که عدد دست نوشته را تشخیص دهد
این یک مثال تقریبا قدیمی است
موضوع را معرفی می کنم و  خوشحالم که وضعیت فعلی را در اینجا قرار می دهم زیرا در پایان دو فیلم است که می خواهم

Portuguese: 
pixels como essa, e tem como saída um único número entre 0 e 10, falando o que ele acha que esse dígito é
Bom, a tarefa vai de comicamente fácil para assustadoramente difícil
A não ser que você esteve vivendo embaixo de uma pedra
Eu acho que eu pouco preciso motivar a relevância  e importância do aprendizado de maquina e redes neurais para o presente e para o futuro.
Mas o que eu quero fazer aqui é te mostrar o que uma rede neural é na verdade.
Assumindo que você não tem bagagem e para ajudar a visualizar o que elas estão fazendo, não como uma palavra da moda, mas como um pedaço de matemática
minha esperança é que você começara a sentir que a estrutura por si só é
motivadora e sentir que você sabe o que significa quando ler ou ouvir sobre "a neural network quote-unquote learning"
Esse vídeo será focado nos componentes estruturais, e o próximo em aprendizado.
O que nós iremos fazer é compreender uma rede neural que aprende a reconhecer algarismos escritos à mão.
Esse é um exemplo clássico para
introduzir o tópico, e eu estou satisfeito em me manter no status quo nesse caso, porque no fim dos dois vídeos, eu quero te apresentar

Vietnamese: 
... như thế này và kết quả đầu ra là một số duy nhất nằm trong khoảng từ 0 đến 10 giống với số trong bức hình nhất.
Nhiệm vụ này có vẻ khó khăn.
Trừ khi bạn đã được sống dưới một tảng đá (?????)
Tôi nghĩ là tôi không cần phải giải thích sự liên quan.Các phần quan trọng của Học máy và Mạng neural, sẽ được giới thiệu trong tương lai.
Nhưng những gì tôi muốn làm ở đây là giúp bạn hiểu ntn là một mạng Neural thực sự
Giả sử không có nền tảng và để giúp hình dung những gì nó hoạt động hãy biểu diễn chúng như 1 mảng của toán học.
Hy vọng của tôi chỉ là bạn có thể hình dung được cấu trúc của 1 mạng neural.
Thúc đẩy và giúp bạn hình dung được khi bạn đọc hoặc nghe về quá trình học của một mạng neural.
Video này sẽ chỉ giới thiệu các thành phần cấu trúc chính của mạng neural và video sau sẽ giải thích quá trình học của nó.
Những gì chúng ta sẽ làm là phân tích một mạng lưới thần kinh có thể học cách nhận dạng chữ số viết tay.
Đây là một ví dụ khá cơ bản.
Giới thiệu chủ đề ( tôi rất vui khi được gắn bó với hiện trạng ở đây vì ở phần cuối của video thứ 2 tôi muốn giới thiệu ...

French: 
montrerai quelques ressources où vous pourrez en apprendre plus, télécharger le code et jouer avec
sur votre propre ordinateur.
Il y a beaucoup de variantes des réseaux de neurones et ces dernières années,
il y a eu une sorte de "boom" dans la recherche de ces variantes.
Mais dans ces deux vidéos introductives, nous ne regarderons que les formes les plus simples sans fioritures.
C'est un prérequis nécessaire
pour comprendre ne serait-ce qu'une seule de ces variantes modernes plus efficaces, et
croyez-moi, il y a déjà bien assez de complexité ici pour que nous y réfléchissions.
Mais même dans cette plus simple forme, il peut reconnaître des chiffres écrits à la main,
ce qui est quelque chose de plutôt cool pour un ordinateur.
Aussi, vous verrez qu'il néglige certains espoirs qu'on aurait pu avoir.
Comme leur nom l'indique, les réseaux de neurones sont inspirés par notre cerveau, mais simplifions.
Que sont les neurones, et en quoi sont-ils reliés entre eux ?
Maintenant, quand je dirais "neurone", je voudrai que vous pensiez à quelque chose qui contient un nombre.

Portuguese: 
algumas boas fontes onde você pode aprender mais e onde você pode baixar o código que faz isso e brincar com ele
no seu próprio computador
Há muitas variáveis em redes neurais, e em anos recentes
houve uma espécie de explosão nas pesquisas acerca dessas variáveis.
mas nesses dois vídeos introdutórios você e eu vamos olhar apenas para a forma mais simples sem adornos a mais
isso é meio que um pre-requesito
para entender qualquer uma das mais poderosas variáveis modernas e
acredite em mim, ainda há muita complexidade para nós empacotarmos nossas mentes
mas mesmo nessa forma simples, ela pode aprender a reconhecer dígitos escritos à mão
o que é algo bem bacana para um computador ser capaz de fazer.
e ao mesmo tempo você verá como elas falham em algumas coisas que podemos esperar delas
Como o nome sugere, redes neurais são inspiradas no cérebro. Mas vamos entender isso melhor
O que são neurônios e em qual sentido eles estão conectados?
Agora, quando eu digo neurônio, eu quero que você pense em uma coisa que tem um número.

Persian: 
شما را به یک جفت منبع خوب هدایت کنم که می توانید بیشتر بیاموزید و اینکه  کدام کد را می توانید دانلود کنید که این کار را انجام دهد و با آن بازی  کند؟
در کامپیوتر خودتان
تعداد زیادی از انواع شبکه های عصبی وجود دارد و در سال های اخیر
به نظر می رسد اینگونه تحقیقات رونق گرفته اند
اما در این دو فیلم مقدماتی شما و من فقط می خواهیم به ساده ترین شکل وانیلی ساده نگاه کنیم و بدون هیچ زحمتی اضافه کنیم
این نوعی ضرورت است
پیش نیازی برای درک هر یک از انواع قدرتمند مدرن و
به اعتقاد من هنوز هم پیچیدگی زیادی برای ما دارد تا ذهنمان بر آن احاطه یابد
اما حتی در این ساده ترین شکل می تواند یاد بگیرد که عدد دست نویس را تشخیص دهد
که چیز بسیار جالبی برای یک کامپیوتر است که می تواند انجام دهد.
و در عین حال شما خواهید دید که چگونه از امیدهای اندکی  که ممکن است برای آن وجود داشته باشد، کاسته می شود
همانطور که از نامش بر می آید شبکه های عصبی از مغز الهام گرفته اند، اما اجازه دهید آن را ریزتر بررسی کنیم
نورون ها چه هستند وارتباط آنها با هم به چه معنا است؟
در حال حاضر وقتی که من می گویم همه نورون ها من می خواهم شما را به فکر کردن در مورد چیزی وادار کنم که یک مقدار عددی را نگه می دارد

Chinese: 
我會給你一些很好的網站，你可以在那裡學到很多，並且下載程式碼
在你的電腦裡好好研究
神經網路發展成很多很多不同類型
而且近年來對這些的研究有爆炸性的趨勢
但這兩支入門影片只會帶你來認識，最簡單的一種神經網路：「多層感知機」(MLP) 最基本的樣子
這是必要的入門知識
對於將來要理解現在任何一種強大的神經網路
而且相信我，今天的主題已經夠複雜了，足以讓你腦袋打結
即使是這麼簡單的神經網路也可以經由學習來分辨手寫數字
這對電腦來說是非常酷的一件事
而且與此同時你也將看到神經網路不盡人意的地方
神經網路一如其名，是啟發自生物的大腦神經結構
讓我們來剖析它吧
何謂神經元，又是什麼機制讓它們連在一起的?
現在，當我說「神經元」，我要你聯想到它是乘載一個數字的容器

Portuguese: 
Você para alguns bons recursos onde você pode aprender mais e onde você pode baixar o código que faz isso e jogar com ele?
no seu próprio computador
Existem muitas variantes de redes neurais e nos últimos anos
Houve uma espécie de boom na pesquisa para essas variantes
Mas nesses dois vídeos introdutórios, você e eu vamos apenas olhar para os mais simples plain-vanilla  forma sem frescuras adicionais
Isso é meio que necessário
pré-requisito para a compreensão de qualquer das variantes modernas mais poderosas e
Confie em mim ainda tem muita complexidade para nos envolvermos
Mas mesmo desta forma mais simples, ele pode aprender a reconhecer dígitos manuscritos
O que é uma coisa muito legal para um computador ser capaz de fazer.
E, ao mesmo tempo, você verá como ele fica aquém de um
casal espera que possamos ter para isso
Como o nome sugere, redes neurais são inspiradas no cérebro, mas vamos romper isso
Quais são os neurônios e em que sentido eles estão interligados?
Agora, quando eu digo neurônio tudo o que eu quero que você pense é uma coisa que contém um número

Russian: 
и откуда вы сможете скачать код, решающий эту задачу, и самостоятельно поиграть с ним у себя.
Существует огромное количество вариантов нейросетей
и в последние годы наблюдается своего рода бум в исследованиях на эту тему,
но в этих двух вводных видео вы и я будем рассматривать простейший вариант,
без всяких наворотов.
Это своего рода необходимый базис для понимая любых других более современных вариантов,
и поверьте мне он тем не менее достаточно сложен для нашего понимания.
Но даже в такой простейшей форме сеть может обучится распознавать рукописные цифры,
что совсем не плохо для компьютера.
Но так же вы увидите что она оправдает возможно не все наши ожидания.
Как ясно из названия идея нейросетей была заимствованна у мозга.
Но давайте разложим это по полочкам, что такое нейроны и как они связанны между собой?
Сейчас, когда я говорю нейрон, я хочу чтобы вы представляли просто нечто, содержащее число.

Hungarian: 
ahonnan még többet lehet megtudni, illetve ahonnan ez a program is letölthető majd,
hogy bárki elbabrálhasson vele a számítógépén.
A neurális hálózatoknak nagyon sok változata létezik,
és az elmúlt években nagyon felggyorsult ezeknek a kutatása,
de e két bevezető videóban én csak az alapfelszereltségű, extrák nélküli verzióval foglalkozom.
Ez az előfeltétele a leghatékonyabb
modern változatok megértésének és
hidd el, hogy ez még így is elég bonyolult lesz.
Mégis ebben a legegyszerűbb formájában is képes lesz megtanulni a kézzel írt számjegyek felismerését.
Ami azért elég menő képesség egy számítógép részéről.
Ugyanakkor azt is látni fogod, hogy hogyan nem fogja beteljesíteni néhány reményünket.
Mint a neve is sugallja, a neurális hálózatokat az agy inspirálta.
De nézzük közelebbről: mik azok a neuronok és hogyan kapcsolódnak egymáshoz?
Amikor azt mondom, neuron, egy olyan dologra gondolj, ami egy számot tartalmaz.

Italian: 
un paio di buone fonti dove puoi imparare di più e dove puoi scaricare il codice che fa tutto ciò e persino giocarci
sul tuo computer.
Ci sono molte molte varianti delle reti neurali e negli ultimi anni
c'è stata una sorta di "boom" nella ricerca di queste varianti.
Ma in questi due video introduttivi, io e te stiamo per dare un'occhiata alla più semplice delle varianti, "vanilla", senza fronzoli aggiunti
Questo è un requisito necessario
per comprendere le varianti più moderne e,
fidati di me, è abbastanza complessa da darci grattacapi
Ma anche in questa forma più semplice può imparare a riconoscere cifre scritte a mano
Che è una cosa abbastanza interessante da far fare ad un computer.
E allo stesso tempo vedrai quali sono le speranze che abbiamo per essa
Come suggerisce il nome, le reti neurali sono ispirate al cervello, ma approfondiamo l'argomento
Cosa sono i neuroni e in che significa che sono collegati tra loro?
In questo momento quando dico neurone tutto quello a cui vorrei tu pensassi è una cosa che contiene un numero

Czech: 
další zdroje, kde se dozvíte více a kde si můžete stáhnout program, který to umí, a dále si s ním hrát
na vašem počítači
Existuje mnoho různých variant neuronových sítí a
v posledních letech
došlo k prudkému rozvoji výzkumu směrem k těmto variantám
Ale v těchto dvou úvodních videích se společně podíváme na nejjednodušší formu bez nějakých specialit
Je to nezbytný základ,
pokud chcete později porozumět některým ze silnějších moderních variant
a věřte mi, že i tak budeme mít dost materiálu na přemýšlení
Ale i v této nejjednodušší formě se síť dokáže naučit rozpoznávat ručně psané číslice
A je úspěch, že na počítači něco takového dokážeme
Ale také uvidíme, že nás síť v některých ohledech zklame
Jak název naznačuje, neuronové sítě jsou inspirovány mozkem, ale vezměme to slovo po slovu
Co jsou neurony a v jakém smyslu jsou propojeny?
Když teď říkám neuron, chci, abyste si ho představili jako věc, která obsahuje číslo

Turkish: 
Daha fazla bilgi edinebileceğiniz ve bunları yapan ve oynayacak olan kodu nereden indirebileceğiniz birkaç iyi kaynağa sahipsiniz?
kendi bilgisayarınızda
Sinir ağlarının pek çok çeşitleri vardır ve son yıllarda
Bu varyantlara yönelik araştırmalarda bir sürü patlama oldu
Ancak, bu iki tanıtıcı videoda siz ve ben sadece en basit sade-vanilyalı forma hiçbir şey eklemeden bakacağız
Bu biraz gerekli
daha güçlü modern varyantların herhangi birini anlamak için ön şarttır ve
İnanın bana hala zihinleri saracak pek çok karmaşıklığımız var.
Ancak en basit haliyle el yazısı rakamları tanımayı öğrenebilir
Bir bilgisayarın yapabileceği çok hoş bir şey.
Ve aynı zamanda, bunun için sahip olabileceğimiz birkaç umuttan kısa nasıl düştüğünü göreceksiniz
Adından da anlaşılacağı gibi, sinir ağları beyinden esinlenerek etkileniyor, ancak bunu aşağılayalım
Nöronlar nedir ve hangi anlamda birbirine bağlılar?
Şu anda nöron söylesem, düşünmen gereken tek şey bir sayı tutan bir şey

Modern Greek (1453-): 
να σας παραπέμψω σε καναδυό καλές πηγές όπου μπορείτε να μάθετε περισσότερα και να κατεβάσετε τον κώδικα που κάνει αυτήν τη δουλειά
και να "παίξετε" με αυτόν στον υπολογιστή σας.
Υπάρχουν πάρα πολλές διαφορετικές εκδοχές των νευρωνικών δικτύων και τα τελευταία χρόνια,
έχει υπάρξει μία, ας πούμε, έκρηξη στην έρευνα αυτών των εκδοχών.
Όμως σε αυτά τα δύο εισαγωγικά βίντεο, εσείς κι εγώ θα εξετάσουμε την πολύ απλή μορφή, χωρίς τα πρόσθετα στολίδια.
Αυτή η μορφή είναι κάπως απαραίτητη
προϋπόθεση στο να καταλάβετε οποιαδήποτε από τις ισχυρότερες εκδοχές και
πιστέψτε με, είναι και από μόνη της αρκετά περίπλοκη.
Ακόμη όμως και αυτή η απλούστατη μορφή, μπορεί να μάθει να αναγνωρίζει χειρόγραφα ψηφία,
κάτι πολύ εντυπωσιακό για έναν υπολογιστή.
Ταυτόχρονα, θα δείτε πώς, ίσως να μας απογοητεύσει σε κάποια πράγματα που μπορεί να περιμένουμε από αυτήν.
Όπως δείχνει και το όνομα, τα νευρωνικά δίκτυα έχουν εμπνευστεί από τους εγκεφάλους. Ας το αναλύσουμε όμως αυτό.
Τι είναι οι νευρώνες, και τι εννοούμε όταν λέμε ότι "συνδέονται" μεταξύ τους;
Τώρα, όταν λέω "νευρώνας", το μόνο που θέλω να σκέφτεστε είναι ένα πράγμα που αποθηκεύει έναν αριθμό.

English: 
You to a couple good resources where you can learn more and where you can download the code that does this and play with it?
on your own computer
There are many many variants of neural networks and in recent years
There's been sort of a boom in research towards these variants
But in these two introductory videos you and I are just going to look at the simplest plain-vanilla form with no added frills
This is kind of a necessary
prerequisite for understanding any of the more powerful modern variants and
Trust me it still has plenty of complexity for us to wrap our minds around
But even in this simplest form it can learn to recognize handwritten digits
Which is a pretty cool thing for a computer to be able to do.
And at the same time you'll see how it does fall short of a couple hopes that we might have for it
As the name suggests neural networks are inspired by the brain, but let's break that down
What are the neurons and in what sense are they linked together?
Right now when I say neuron all I want you to think about is a thing that holds a number

Thai: 
ไปยังแหล่งข้อมูลที่ดีที่คุณสามารถเรียนรู้ได้เพิ่มเติมและที่ใดที่คุณสามารถดาวน์โหลดโค้ดที่ทำแบบนี้และเล่นกับมันได้
บนคอมพิวเตอร์ของคุณเอง
มันมี neural network หลาย หลายรูปแบบ และในช่วงไม่กี่ปีที่ผ่านมา
มีบูมในการค้นคว้าวิจัยเกี่ยวกับรูปแบบเหล่านี้
แต่ในวิดีโอแนะนำทั้งสองแบบนี้เราจะมองไปที่รูปแบบวานิลลาธรรมดาเรียบง่ายที่ไม่มีการแต่งเติม
มันค่อนข้างเป็นสิ่งที่จำเป็น
ก่อนการทำความเข้าใจรูปแบบที่ทันสมัยและมีประสิทธิภาพ
เชื่อผม มันยังมีความซับซ้อนมากมายสำหรับเราที่จะต้องเข้าใจ
แม้ในรูปแบบที่ง่ายที่สุดนี้ก็สามารถเรียนรู้เพื่อจดจำตัวเลขที่เขียนด้วยลายมือ
ซึ่งเป็นความสามารถที่ค่อนข้างเจ๋งสำหรับคอมพิวเตอร์
และในเวลาเดียวกันคุณจะเห็นว่ามันขาดอะไรจากความคาดหมายที่เราตั้งไว้
เป็นชื่อที่เกริ่นไว้ neural network เครือข่ายประสาทได้รับแรงบันดาลใจจากสมอง  เรามาดูกัน
อะไรคือเซลล์ประสาทและพวกเขาเชื่อมโยงกันอย่างไร?
ตอนนี้เมื่อผมพูดเซลล์ประสาท ผมต้องการให้คุณคิดเป็นสิ่งที่เก็บตัวเลข

Spanish: 
donde puedes aprender más  y descargar el código que hace esto
,y jugar con el en tu computadora.
Hay, muchas, muchas variantes de una red neuronal y en años recientes
han un tipo de boom! en las investigaciones futuras,
pero en estos dos vídeos introductorios
tú y yo solo vamos a ver la forma simple " Plain vanilla"
sin adornos  añadidos , este tipo de pre-requisito
necesario , para entender cualquiera de las poderosas variantes modernas
y créeme,
todavía esta llena de complejidad para nosotros, como para envolverla en nuestras mentes,
pero incluso en esta forma simple , puede aprender a reconocer dígitos
escritos a mano, lo cual es una cosa muy genial
que una computadora sea capaz de realizar
Y al mismo tiempo verás cómo decente  el par de esperanzas que teníamos para esta.
Como el nombre sugiere , las redes neuronales están
inspiradas por el cerebro
pero descompongamos eso en partes mas pequeñas,
Qué son las neuronas y en que sentido están conectadas
Cuando digo, "Neurona"
todo en lo que me gustaría pensar, es una cosa que alberga un número

Japanese: 
これを行い、それを使って遊ぶ事ができるコードをどこでダウンロードし、どこで更に学べるかがわかるいくつかの良い素材を
自分のコンピュータで
近年、神経ネットワークには多くの種類があります。
これらの種類に対する研究では、一種のブームがありました
しかし、これらの2つの紹介ビデオでは、あなたと私は単純なフォームを見ようとしています
これは必要な前提条件です
より強力な現代の種類を理解するために
私の心を包み込むためにはまだまだ複雑です。
しかし、この最も単純な形式でも、手書きの数字を認識することを学ぶことができます
これは、コンピュータが行うことができる非常にクールなものです。
それと同時に、あなたが抱いている可能性があるいくつかの要望にはかけている事がわかります
名前が示唆するように、神経ネットワークは脳に触発されていますが、それを打破しましょう
神経とは何ですか？どのような意味で、それらは一緒につながっていますか？
今、私がニューロンと言うとき、あなたが考えて欲しいのは、数字を保持するものです

Korean: 
예제에 사용된 코드 또한 여러분에게 제공됩니다.
신경망에는 정말 다양한 종류가 있습니다.
최근에 많은 개발이 이루어지고 있기도
 하지요.
그렇지만, 이번 영상에서는 제일 기본적인 형태의 신경망을 집중적으로 다룰 것입니다.
이것들을 잘 이해해야 비로소 더 강력하고 복잡한 신경망들을 이해할 수 있을 것입니다.
사실, 기본 형태도 꽤 복잡합니다.
중요한건, 기본 신경망으로도 숫자 손글씨를 인식하는데는 충분하다는 겁니다.
사람이 아닌 컴퓨터가 말이지요. 정말 놀라운 일입니다.
동시에, 여러분은 컴퓨터가 우리의 기대를 저버리는 일도 볼지 모르겠습니다.
이름에서 알 수 있는 것처럼, 신경망이라는 아이디어는 사람의 뇌에서 착안한 것입니다.
뇌의 어떠한 점을 본딴 걸까요? 
뇌와 신경망이 어떤 유사점을 가지는 걸까요?
먼저, 뉴런에 대해 알아봅시다. 뉴런은 하나의 숫자를 담는다는 사실을 떠올리는 것으로 충분합니다.

Arabic: 
المصادر الجيدة التى تستطيع التعلم منها أكثر والأماكن التى يمكنك من خلالها تحميل الكود الذى يقوم بذلك وتشغيله
على جهاز الكمبيوتر الخاص بك
هناك العديد والعديد من الأشكال المختلفة للشبكات العصبية  وفى السنوات الأخيرة
كان هناك نوع من الطفرة في البحث نحو هذه الأشكال
ولكن في هذين الفيديوهين التمهيديين سنقوم أنا وأنت فقط بالنظر إلى شكل مبسط جدا بدون إضافات معقدة
هذا ضروري نوعا ما لأجل
فهم أي من  الأشكال الأقوى والأحدث
وصدقنى لازال لدينا الكثير من التعقيد لنحاول فهمه بعقولنا
ولكن حتى فى هذا الشكل البسيط تستطيع الشبكة تعلم كيف تتعرف على الأرقام المكتوبة بخط اليد
وهو شيء رائع جدا أن يكون جهاز الكمبيوتر قادرا على هذا
فى الوقت نفسه سترى كيف أنها لا ترقى لبعض الآمال التى نضعها عليها
كما يوحي اسمها الشبكات العصبية مستوحاة من الدماغ، ولكن دعنا نوضح ذلك أكثر
ما هي الخلايا العصبية وبأي منطق ترتبط ببعضها البعض ؟
الآن عندما أقول الخلايا العصبية كل ما أريدك أن تفكر فيه هو شيء يحمل عددا

Polish: 
Jesteś parą dobrych zasobów, gdzie możesz dowiedzieć się więcej i gdzie możesz pobrać kod, który to robi i grać z nim?
na własnym komputerze
Istnieje wiele różnych wariantów sieci neuronowych iw ostatnich latach
Nastąpił pewien boom w badaniach nad tymi wariantami
Ale w tych dwóch filmach wprowadzających, ty i ja będziemy patrzeć na najprostszą formę czysto-waniliową bez dodanych dodatków
Jest to konieczne
warunkiem wstępnym zrozumienia któregokolwiek z potężniejszych nowoczesnych wariantów i
Uwierzcie mi, że wciąż ma on wiele komplikacji, abyśmy mogli otoczyć nasze umysły
Ale nawet w tej najprostszej formie może nauczyć się rozpoznawać ręcznie pisane cyfry
Co jest całkiem fajnym rozwiązaniem dla komputera.
A jednocześnie zobaczysz, jak to się nie udaje, że mamy parę nadziei na to
Jak sama nazwa wskazuje sieci neuronowe są inspirowane przez mózg, ale załóżmy to
Jakie są neurony iw jakim sensie są ze sobą powiązane?
Teraz, kiedy mówię neuron, wszystko, co chcę, żebyś pomyślał, to rzecz, która ma numer

Indonesian: 
Anda ke beberapa sumber yang bagus di mana Anda dapat belajar lebih banyak dan di mana Anda dapat mengunduh kode yang melakukan ini dan bermain dengannya?
di komputer Anda sendiri
Ada banyak banyak varian jaringan saraf dan dalam beberapa tahun terakhir
Ada semacam ledakan dalam penelitian terhadap varian ini
Namun dalam dua video pengantar ini Anda dan saya hanya akan melihat bentuk polos-vanila yang paling sederhana tanpa embel-embel tambahan
Ini adalah hal yang diperlukan
prasyarat untuk memahami salah satu varian modern yang lebih kuat dan
Percaya padaku masih memiliki banyak kerumitan bagi kita untuk menyelimuti pikiran kita
Tetapi bahkan dalam bentuk yang paling sederhana ini dapat belajar mengenali angka-angka tulisan tangan
Yang merupakan hal yang cukup keren untuk komputer untuk dapat dilakukan.
Dan pada saat yang sama Anda akan melihat bagaimana ia gagal memenuhi harapan pasangan yang mungkin kita miliki untuk itu
Seperti namanya jaringan saraf terinspirasi oleh otak, tetapi mari kita hancurkan itu
Apa neuron dan dalam arti apakah mereka terhubung bersama?
Saat ini ketika saya mengatakan neuron yang saya ingin Anda pikirkan adalah hal yang memegang angka

German: 
ein paar gute Ressourcen hinweisen, wo Sie mehr lernen und den Code herunterladen können und mit ihm auf Ihrem PC spielen können.
Es gibt viele, viele Varianten von neuronalen Netzen.
Und in den letzten Jahren gab es bei der Erforschung dieser Varianten einen Boom.
Aber in diesen beiden einleitenden Videos, werden wir die einfachste Form ohne Extrazusätze betrachten.
Dies ist eine Art notwendige Voraussetzung,
um eine der leistungsfähigeren modernen Varianten zu verstehen und
Vertrauen Sie mir. Es noch viel Komplexität hat für uns, unseren Geist umschlingen
Aber auch in dieser einfachsten Form kann es lernen, handgeschriebene Ziffern zu erkennen.
Was eine ziemlich coole Fähigkeit ist für einen Computer.
Trotzdem werden Sie sehen, wie einige Hoffnungen nicht erfüllt werden können.
Wie der Name suggeriert, ziehen neurale Netzwerke ihre Inspiration vom tatsächlichen Gehirn. Lassen Sie uns das etwas herunterbrechen.
Was sind Neuronen und wie sind sie miteinander verbunden?
Vorerst, wenn ich von Neuronen spreche, möchte ich, dass Sie an ein Konstrukt denken, das eine Nummer beinhalten kann.

Chinese: 
你能下载它们的代码 在自己的电脑上捣鼓
神经网络的变种非常非常之多
近些年来对于这些变种的研究更呈爆发的态势
不过在这几期入门介绍的视频中
咱们只会讨论最简单  不加料的原味版(多层感知器MLP)
我们得先理解经典的原版  才好理解功能更强大的现代变种
而且相信我 光理解原版就够咱们吃一壶的了
不过即便这最简单的版本
就已经能来识别手写数字
对于电脑而言已经很棒了
与此同时
你们也会看到神经网络有时也会有不尽如人意的地方
顾名思义 神经网络之名来源自人的大脑结构
我们来一层层剖析一下
它的神经元是什么 神经元又是如何连接起来的
目前说到神经元
我想要大家把它暂时理解成一个用来装数字的容器

Vietnamese: 
Bạn có một vài tài nguyên tốt, nơi bạn có thể tìm hiểu thêm và tải về mã nguồn và thực thi nó ...
trên máy tính của riêng bạn.
Có rất nhiều nhiều biến thể của mạng lưới thần kinh trong những năm gần đây.
Đã có một sự bùng nổ trong nghiên cứu đối với các biến thể.
Nhưng trong 2 video giới thiệu này chỉ giới thiễu những hình thức đơn giản nhất mà không có bổ sung gì thêm.
Đây là một điều cần thiết - ...
... điều kiện tiên quyết cho sự tìm hiểu bất kỳ biến thể hiện đại và mạnh mẽ hơn của mạng neural.
Tin tôi đi, nó vẫn có rất điều nhiều phức tạp làm rối loạn suy nghĩ của chúng tôi.
Nhưng ngay cả ở dạng đơn giản nhất này nó vẫn có thể học cách nhận dạng chữ số viết tay
Đó là một điều khá tốt để một máy tính để có thể làm được.
Và đồng thời, bạn sẽ thấy một vài nhược điểm của nó.
Giống như tên gọi, mạng neural được lấy cảm hứng từ bộ não, nhưng chúng ta hãy cùng mổ xẻ nó nào ;)
các tế bào thần kinh là gì và chúng được họ liên kết với nhau như thế nào?
Ngay bây giờ khi tôi nói về neuron, tôi muốn tất cả các bạn suy nghĩ về một thứ có chứa 1 chữ số

Spanish: 
Específicamente,
un número entre 0 y 1
nada mas que eso,
por ejemplo , red empieza con un montón
de neuronas correspondientes cada uno
de los 28*28 pixeles de la imagen,
lo cual es 784 neuronas en total,
cada una de estas,
alberga el número que representa la escala de gris
del correspondiente pixel
Oscilando en un rango de 0 para pixeles negros
hasta 1 para pixeles blancos .
Este número dentro de la neurona
es llamado "Activación", y la imagen que debes de tener es que
cada neurona es iluminada cuando su "Activación" es número mas alto (1)
Asi que todas estas 784 neuronas ,
arreglándolas  en la primera capa de nuestra red
Ahora, saltando a la última capa
Esta tiene 10 neuronas , cada una representando uno de los dígitos,
la "Activación " en estas neuronas
es de nuevo un número entre 0 y 1

Turkish: 
Özellikle 0 ile 1 arasındaki bir sayı gerçekten de o değil.
Örneğin, ağ, giriş görüntüsünün 28 kat 28 pikselinin her birine karşılık gelen bir grup nöron ile başlar
hangisi
Toplam 784 nöron bunlardan her biri, ilgili pikselin gri tonlama değerini temsil eden bir sayı tutar
siyah pikseller için 0'dan beyaz pikseller için 1'e kadar değişen
Nöronun içindeki bu numaraya onun aktivasyonu ve burada aklınızda tutabileceğiniz görüntü denir
Etkinleştirilmesi yüksek sayı olduğunda her bir nöron aydınlatılmış mı?
Bu 784 nöronun tamamı ağımızın ilk katmanını oluşturuyor
Şimdi son katın üzerine atlamaya başladım, bunun her biri on basamaktan birini temsil eden on nöron var
bu nöronların aktivasyonu yine sıfır ile bir arasında olan bir sayı

Chinese: 
装着一个0到1之间的数字
仅此而已
看例子 这个网络一开始的地方有很多神经元
分别对应了28x28的输入图像里的每一个像素
总计784个神经元
神经元中装着的数字代表对应像素的灰度值
0表示纯黑像素
1表示纯白像素
我们把神经元里装着的数 叫做"激活值"
大家可以想象这么一个画面
激活值越大 那么那个神经元就点着越亮
这么些784个神经元就组成了网络的第一层
现在我们跳到网络的最后一层
这一层的十个神经元分别代表0到9这十个数字
它们的激活值 同理都处在0到1之间

Modern Greek (1453-): 
Πιο συγκεκριμένα, έναν αριθμό μεταξύ του 0 και του 1. Πραγματικά δεν είναι κάτι παραπάνω από αυτό.
Πχ. το δίκτυο ξεκινάει από μία ομάδα νευρώνων που αντιστοιχούν σε καθένα από τα 28x28 pixels της εικόνας εισόδου,
δηλαδή είναι 784 νευρώνες
συνολικά, ο καθένας εκ των οποίων κρατάει έναν αριθμό που αντιπροσωπεύει την τιμή του pixel στην κλίμακα του γκρι,
με εύρος από 0 για τα μαύρα pixel μέχρι και 1 για τα άσπρα.
Αυτόν τον αριθμό τον λέμε ενεργοποίηση του νευρώνα, και η εικόνα που ίσως σας έρχεται στο μυαλό είναι
ότι κάθε νευρώνας "ανάβει" όταν η ενεργοποίησή του είναι ένας μεγάλος αριθμός.
Άρα όλοι αυτοί οι 784 νευρώνες συνθέτουν το πρώτο στρώμα του δικτύου μας.
Τώρα ας δούμε κατευθείαν το τελευταίο στρώμα του δικτύου, που έχει 10 νευρώνες, και ο καθένας αντιπροσωπεύει ένα από τα ψηφία.
Η ενεργοποίηση σε αυτούς τους νευρώνες, που είναι και πάλι ένας αριθμός ανάμεσα στο 0 και το 1,

Thai: 
โดยเฉพาะตัวเลขระหว่าง 0 ถึง 1 จะไม่มากไปกว่านั้น
ตัวอย่างเช่นเครือข่ายเริ่มต้นด้วยเซลล์ประสาทที่มาจาก 28 x 28 pixel ของภาพที่นำเข้า
ซึ่งคือ
784 เซลล์ประสาททั้งหมดในแต่ละเซลล์มีจำนวนที่แสดงถึงค่า grayscale ของpixelที่ตรงกัน
ตั้งแต่ 0 สำหรับ pixel สีดำถึง 1 สำหรับ pixel สีขาว
เลขที่อยู่ภายใน neuron เรียกว่า activation คุณอาจจะนึกภาพตามได้ว่า
neuron แต่ละอันจะสว่างขึ้นเมื่อเลข activation นั้นสูง
neuron ทั้ง 784 อันรวมกันเป็น layer แรกใน network ของเรา
ข้ามไปที่ layer สุดท้าย ซึ่งมีทั้งหมดสิบเ neuron แต่ละอันแทนเลขหนึ่งตัว
เลข activation ใน neuron เหล่านี้ อีกครั้งเลขที่อยู่ระหว่างศูนย์และหนึ่ง

Vietnamese: 
Cụ thể, một số từ 0 & 1 và thực sự không nhiều hơn.
Ví dụ mạng bắt đầu với một loạt các tế bào thần kinh tương ứng với mỗi 28x28 pixel của ảnh đầu vào
có nghĩa là
784 tế bào thần kinh - mỗi 1 tế bào đại diện cho giá trị màu xám của điểm ảnh tương ứng
từ 0 (đối với pixel đen) đến 1 ( cho pixel trắng).
Con số này bên trong tế bào thần kinh được gọi là giá trị kích hoạt của nó và hình ảnh mà bạn có thể có trong tâm trí là đây.
Điều đó có nghĩa là tế bào thần kinh được được kích hoạt khi đầu vào của nó là một số lượng lớn?
Vì vậy, tất cả 784 các tế bào thần kinh tạo nên lớp đầu tiên của mạng neuron.
Bây giờ nhảy qua đến lớp cuối cùng , lớp này có mười tế bào thần kinh, mỗi tế bào đại diện cho một số tương ứng (1 -10).
giá trị kích hoạt của các tế bào thần kinh là một số số 0 & 1.

Polish: 
W szczególności liczba między 0 a 1 to naprawdę nie więcej
Na przykład sieć zaczyna się od garści neuronów odpowiadających każdemu z 28 razy 28 pikseli obrazu wejściowego
który jest
Wszystkich 784 neuronów w każdym z nich znajduje się liczba reprezentująca wartość skali szarości odpowiedniego piksela
od 0 dla czarnych pikseli do 1 dla białych pikseli
Ta liczba wewnątrz neuronu jest nazywana jego aktywacją i obrazem, który możesz mieć tutaj na myśli
Czy każdy neuron jest oświetlony, gdy jego aktywacja jest duża?
Zatem wszystkie te 784 neurony tworzą pierwszą warstwę naszej sieci
Teraz przeskakując do ostatniej warstwy, ma dziesięć neuronów, z których każdy reprezentuje jedną z cyfr
aktywacja w tych neuronach znowu kilka liczb, które są między zero i jeden

Czech: 
Konkrétně číslo mezi 0 a 1, nic víc, než to
Například tato síť začíná skupinou neuronů odpovídajících každému ze 28 krát 28 pixelů vstupního obrazu,
což je
celkem 784 neuronů. Každý z nich udržuje číslo, které představuje hodnotu stupně šedi pixelu,
v rozsahu od nuly pro černé pixely až do jedné pro bílé pixely
Toto číslo uvnitř neuronu se nazývá jeho aktivace a představte si to, jako že
neuron je rozsvícený, když je jeho aktivace vysoká
Takže všech těchto 784 neuronů tvoří první vrstvu naší sítě
Nyní přeskočíme k poslední vrstvě, která má deset neuronů, každý reprezentuje jednu z číslic
Aktivace těchto neuronů (znovu nějaké číslo mezi nulou a jedničkou)

Portuguese: 
especificamente um número entre 0 e 1. É realmente nada além disso.
por exemplo a rede começa com um monte de neurônios correspondetes a cada um dos 28x28 pixels da imagem de entrada
o que é
784 neurônios no total, cada um desses tem um número que representa o seu valor na escala cinza
indo de zero para pixels pretos, à 1 para pixels brancos
esse número dentro do neurônio é chamado de "sua ativação", e a imagem que você deve ter em mente aqui
é que cada neurônio está "iluminado" quando sua ativação é um número alto
então, todos esses 784 neurônios compõem a primeira camada da nossa rede
Agora, indo para a última camada, essa tem dez neurônios, cada um representando um dos dígitos.
a ativação desses neurônios, novamente um número entre 0 e 1,

Indonesian: 
Khususnya angka antara 0 & 1 itu sebenarnya tidak lebih dari itu
Misalnya jaringan dimulai dengan sekelompok neuron yang sesuai dengan masing-masing 28 kali 28 piksel dari gambar input
yang mana
784 neuron secara total masing-masing memegang nomor yang mewakili nilai grayscale dari pixel yang sesuai
mulai dari 0 untuk piksel hitam hingga 1 untuk piksel putih
Angka ini di dalam neuron disebut aktivasi dan gambar yang mungkin ada dalam pikiran Anda di sini
Apakah setiap neuron menyala ketika aktivasi adalah angka yang tinggi?
Jadi semua 784 neuron ini membentuk lapisan pertama jaringan kami
Sekarang melompat ke lapisan terakhir ini memiliki sepuluh neuron masing-masing mewakili salah satu digit
aktivasi di neuron-neuron ini lagi sejumlah angka antara nol dan satu

English: 
Specifically a number between 0 & 1 it's really not more than that
For example the network starts with a bunch of neurons corresponding to each of the 28 times 28 pixels of the input image
which is
784 neurons in total each one of these holds a number that represents the grayscale value of the corresponding pixel
ranging from 0 for black pixels up to 1 for white pixels
This number inside the neuron is called its activation and the image you might have in mind here
Is that each neuron is lit up when its activation is a high number?
So all of these 784 neurons make up the first layer of our network
Now jumping over to the last layer this has ten neurons each representing one of the digits
the activation in these neurons again some number that's between zero and one

Hungarian: 
Méghozzá egy 0 és 1 közötti számot - ez az egész tényleg nem több ennél.
A hálózat egy halom neuronnal kezdődik, melyek mindegyike a bemeneti 28x28-as kép egy képpontjának felel meg.
Ez összesen 784 neuron.
Mindegyik olyan számot tartalmaz, amely a megfelelő pixel szürkeárnyalatos értékét mutatja.
A 0-s, fekete pixeltől egészen az 1-es, fehér pixelig.
Ezt a számot a neuronban aktivitásnak nevezik.
Ha a neuron aktivitása magas, akkor a neuron tüzel.
Ez a 784 neuron alkotja a hálózatunk első rétegét.
Most az utolsó rétegre ugrunk: itt tíz neuron van, mindegyik egy számjegyet képvisel.
Az aktivitása ezeknek a neuronoknak is egy 0 és 1 közötti szám, ami azt mutatja meg,

Arabic: 
رقم بين ال0 وال 1 تحديدا إنها حقا ليست شيئا أكثر من ذلك
على سبيل المثال الشبكة تبدأ بحزمة من الخلايا تستجيب لكل مدخل من مدخلات  صورة 28*28 بكسل
الذي هو
784 خلية عصبية  في المجموع كل واحد منها يحمل رقم  يمثل قيمة التدرج الرمادى الذى تستجيب به كل بكسل
تتراوح من 0 للبكسل السوداء وحتى 1 للبكسل البيضاء
هذا الرقم داخل الخلية العصبية يسمى تفعيل والصورة التى يمكنك تخيلها بعقلك الآن
هى أن كل خلية تضيء عندما يتم تفعيلها برقم ذي قيمة كبيرة
لذلك هذه ال784 خلية عصبية تشكل الطبقة الأولى من الشبكة
الآن بالنظر للطبقة الأخيرة فهى تمتلك عشر خلايا عصبية كل منها تشير لرقم من الأرقام
تفعيل هذه الخلايا كما قلنا من قبل هو رقم بين الصفر والواحد

Russian: 
Конкретнее, число от 0 до 1. На самом деле это не далеко от истины.
Например, нейросеть начинается с множества нейронов отвечающих за представление всех
28 на 28 пикселей, входного изображения.
То есть всего 784 нейрона.
Каждый из них содержит число, выражающее градацию серого в соответствующем пикселе.
В диапазоне от 0 для чёрных пикселей и до 1 для белых пикселей.
Это число внутри нейрона называется его активацией.
Вы можете представить это себе как-будто нейрон зажигается, когда содержит большее число.
Итак, все эти 784 нейрона составляют первый слой нашей нейросети.
Перепрыгнем на последний слой, он содержит десять нейронов, каждый представляет одно число.
Активация в этих нейронах, опять же число от 0 до 1,

German: 
Insbesondere eine Zahl zwischen 0 und 1. Es ist wirklich nicht mehr als das.
Zum Beispiel: Das Netzwerk beginnt mit einem Bündel von Neuronen zu jedem der 28 mal 28 Bildpunkten des Eingabebildes,
das macht:
784 Neuronen insgesamt. Jedes enthält eine Zahl, die den Grauwert des entsprechenden Pixels darstellt,
und dabei im Bereich von 0 für schwarze Pixel, bis 1 für weisse Pixel liegt.
Diese Zahl innerhalb des Neurons ist seine sogenannte Aktivierung.
Das Bild, das Sie hierfür vor Augen haben könnten ist, dass das Neuron leuchtet, wenn es eine hohe Zahl hat.
Somit bilden diese ersten 784 Neuronen die erste Stufe des Netzwerks.
Wenn wir nun zur letzten Stufe springen, verbleiben 10 Neuronen für die 10 Ziffern 0-9.
Die Aktivierung dieser Neuronen liegt wieder zwischen 0 und 1.

French: 
Plus particulièrement un nombre entre 0 et 1. Ce n'est rien de plus que ça.
Par exemple, le réseau démarre avec un paquet de neurones correspondant chacun à un pixel de l'image entrée
ce qui fait
784 neurones au total. Chacun d'eux contient un nombre qui représente le niveau de gris du pixel correspondant
allant de 0 pour un pixel noir à 1 pour un pixel blanc.
Ce nombre dans le neurone est appelé son "activation", et l'image que vous devez avoir ici
est que chaque neurone est "allumé" quand son activation est haute.
Donc tous ces 784 neurones constitue la première couche de notre réseau.
Cependant, en s'intéressant à la dernière couche, celle ci a 10 neurones, chacun représentant un chiffre.
L'activation de ces neurones (encore un nombre entre 0 et 1)

Italian: 
Specificamente un numero compreso tra 0 e 1, davvero, non è molto più di questo
Ad esempio, la rete inizia con un gruppo di neuroni corrispondenti a ciascuna dei 28x28 pixel dell'immagine in ingresso
che è
784 neuroni in totale, ognuno di questi contiene un numero che rappresenta il valore in scala di grigi del pixel corrispondente
va da 0 per i pixel neri fino ad 1 per i pixel bianchi
Questo numero all'interno del neurone è chiamato "attivazione" e l'immagine che potresti avere in mente qui
è che ogni neurone è si illumina quando la sua attivazione è un numero elevato.
Così tutti questi 784 neuroni costituiscono il primo strato della nostra rete
Ora saltiamo all'ultimo livello, questo ha dieci neuroni ciascuno dei quali rappresenta una delle cifre,
l'attivazione in questi neuroni di nuovo un numero compreso tra zero e uno

Portuguese: 
Especificamente, um número entre 0 e 1 não é mais do que isso
Por exemplo, a rede começa com um grupo de neurônios correspondentes a cada uma das 28 vezes 28 pixels da imagem de entrada
que é
784 neurônios no total, cada um deles contém um número que representa o valor da escala de cinza do pixel correspondente
variando de 0 para pixels pretos até 1 para pixels brancos
Esse número dentro do neurônio é chamado de ativação e a imagem que você pode ter em mente aqui
É que cada neurônio é iluminado quando sua ativação é um número alto?
Então, todos esses 784 neurônios formam a primeira camada da nossa rede
Agora pulando para a última camada, esta tem dez neurônios cada um representando um dos dígitos
a ativação nesses neurônios novamente algum número que está entre zero e um

Persian: 
به طور خاص عددی بین 0 و 1 و واقعا بیشتر از این نیست
به عنوان مثال شبکه با یک دسته از نورون های متناظر به هم از 28 در 28 پیکسل تصویر ورودی شروع می شود
که در آن
784 نورون در کل، هر یک از این اعداد حفظ شده یک عدد را نشان می دهد که دارای ارزش سیاه و سفید پیکسل متناظر با آن است
دامنه از 0 برای پیکسل های سیاه تا 1 برای پیکسل های سفید متغیر است
این عدد در داخل نورون هایی به نام نورون فعال قرار دارد و تصویری است که شما ممکن است در ذهن داشته باشید
آیا هر نورون زمانی روشن می شود که فعالساز آن یک عدد بزرگ  باشد؟
بنابراین تمام این 784 نورون اولین لایه شبکه ما را تشکیل می دهند
اکنون به آخرین لایه می رویم. این لایه ده نورون دارد که هر کدام از آنها  یک عدد را نشان می دهد
فعالساز در این نورون ها دوباره عددی بین صفر و یک است

Korean: 
0.0에서 1.0까지의 숫자만요. 그 뿐입니다.
예를 들어, 이미지의 28x28개 픽셀들을
 입력값으로 취하는 신경망을 생각해봅시다.
총 784개입니다. 각 뉴런들은 각 픽셀의 밝기를 나타냅니다.
검은 픽셀은 0.0, 하얀 픽셀은 1.0에 해당합니다.
신경망 안에서 이러한 숫자들은 입력값이라고 불립니다.
큰 입력값이 주어질수록 각각의 신경망이 더 큰 정도로 활성화 됩니다.
이 모든 784개의 뉴런이 신경망의 입력층을 구성하게 됩니다.
출력층은 총 10개의 뉴런을 가지고 있습니다.
각각의 뉴런은 0 부터 9 까지의 숫자를 대표하는데요,
이 뉴런들은 0과 1사이의 어떤 값을 취하고. 그 값은 뉴런이 대표하는 숫자와 입력값이 일치하는 정도를 나타냅니다.

Chinese: 
基本是介於 0 和 1 之間的數字，但實際上不止於此
例如：神經網路以輸入圖像的每個像素，對應到每個神經元作為輸入
也就是說輸入層總共有 784 個神經元，每個都有乘載數字 ，每個數字代表了對應像素的灰階值
灰階值 0 即黑色，1 即白色
這些在神經元中的數字稱為「激勵值」
在此你可能注意到
每當神經元激勵值越高，該神經元就越亮
於是全部的 784 個神經元，組成了神經網路的第一層
我們現在跳到最後一層，這層有 10 個神經元，各自表示 0 到 9 的數字
同樣在這邊的神經元也各自有著介於 0 到 1 的激勵值

Japanese: 
具体的には、0と1の間の数字です
例えば、ネットワークは、入力画像の28×28画素のそれぞれに対応する一群の神経から始まります
それは
合計784個の神経の各々は、対応するピクセルのグレースケール値を表す数を保持します
黒ピクセルを表す0から始まり、白ピクセルを表す1までの
ニューロン内部のこの数字は活性化と呼ばれ、ここで想像しているかもしれないイメージです
その活性化が高い数字のときに各ニューロンが点灯していますか？
したがって、これらの784個のニューロンのすべてが私たちのネットワークの第1層を構成します
最後のレイヤーにジャンプすると、10個のニューロンがそれぞれ数字の1つを表します
0と1の間の数に対するこれらの神経の活性化は、

Korean: 
그 값은 주어진 입력값과
 각 뉴런이 대표하는 숫자 사이의 일치 정도를 나타냅니다.
입력층과 출력층 사이에는 숨겨진 층이라고 불리는 몇 개의 층들이 있는데요,
지금 당장은 이 층이 어떻게 숫자를 인식할 수 있는지 중요하지 않으므로 물음표 표시만 해놓고 넘어가도록 합시다.
이 신경망에선 각각 16개의 뉴런을 가진 두 개의 숨겨진 층을 사용할건데
솔직히 그냥 아무 숫자나 부른겁니다
두 개의 층을 선택한 이유는 조금 있다 이 구조를 구성할 방법 때문이고
그리고 16개는... 그냥 화면에 잘 들어가서 넣은 겁니다.
같은 역할을 하는 신경망의 형태는 더 많이 있습니다.
이 신경망은 기본적으로한 층에서의 활성화가 다음 층의 활성화를 유도하는 방식으로 작동합니다.
정보 처리에 있어서의 신경망의 가장 중요한 점은
도대체 어떻게 한 층에서의 활성화가 다른 층의 활성화를 불러일으키는지에 관한 점입니다.
이러한 과정은
생물의 뉴런이 작동하는 방식과도 닮아있는데,
몇몇 뉴런의 활성화가
다른 뉴런의 활성화를 수반한다는 점이죠.

Arabic: 
يمثل لأى مدى تعتقد الشبكة أن الصورة المقدمة إليها تمثل هذا الرقم تحديدا
هناك أيضا طبقتين فى المنتصف تسمى الطبقات المخفية
والتي في الوقت الحاضر ستكون فقط علامة استفهام كبيرة
إذا هل يجب أن يكون هناك علامة استفهام كبيرة كيف بحق الإله ستتم عملية التعرف على الأرقام هذه ؟!
في هذه الشبكة اخترت طبقتين مخفيتين كل واحدة  16 خلية عصبية  وأعترف أن هذا نوع من الاختيار التعسفي
لنكون صادقين اخترت طبقتين بناء على لأي مدى أريد تحفيز الهيكل فى لحظة واحدة
أما عن 16 ؟ فهذا فقط كان رقما جيدا ليلائم الشاشة أثناء التدريب :D
عند التطبيق هناك الكثير من المتسع لتجربة هيكل معين هنا
حيث تعمل الشبكة بالطريقة الآتية فتفعيل طبقة واحدة يؤدى إلى تحديد كيفية تفعيل الطبقة التي تليها
وبالتأكيد فقلب الشبكة يمثل آلية معالجة المعلومات والذى يمثل بدقة الكيفية التى يكون بها
تفعيل طبقة واحدة يسبب تفعيل الطبقة التي تليها
من المفترض أن يكون هذا قريبا بعض الشيء للكيفية التي يؤدى فيها تفعيل  بعض الخلايا العصبية البيولوجية
لتفعيل بعض من الخلايا الأخرى
الآن الشبكة

Russian: 
выражает насколько система уверена что входное изображение содержит соответствующую цифру.
Так же есть пара слоёв посередине, называемые скрытыми слоями,
которые на данный момент будут просто большим вопросом -
как, чёрт побери, будет работать этот механизм распознавания цифр.
Для данной сети я выбрал два скрытых слоя, каждый по шестнадцать нейронов,
и в принципе, это произвольный выбор.
Но честно говоря, я выбрал два слоя представляя как я хочу чтобы она работала, об этом через секунду,
а шестнадцать, ну это просто хорошо выглядит на экране.
На практике тут есть большое поле для экспериментов над структурой.
Принцип работы нейросети в том, что активация в одном слое определяет активацию в следующем слое.
И разумеется суть нейросети как механизма обработки информации
сводится к тому, как именно эти активации в одном слое приводят к активациям в следующем слое.
Это грубо сравнивают с тем как работают биологические нейросети,
некоторая группа нейронов возбуждается, вызывая возбуждение другой определённой группы.

Italian: 
Rappresenta quanto il sistema "pensi" che una determinata immagine
corrisponda ad una determinata cifra. C'è anche un paio di livelli in mezzo chiamati "livelli nascosti"
che per il momento
saranno un gigante punto interrogativo su come faccia questo processo di riconoscimento delle cifre ad essere gestito
In questa rete ho scelto due strati nascosti ognuno con 16 neuroni e ammetto che è stata una scelta arbitraria
ad essere onesto ho scelto due livelli in per riuscire a spiegare la struttura con un'occhiata e
16 è in pratica un bel numero fare in modo che la rete fosse contenuta nello schermo
C'è molto spazio per sperimentare con una struttura specifica
Il modo in cui la rete gestisce le attivazioni in un livello determina le attivazioni del livello successivo
E naturalmente il cuore della rete come meccanismo di elaborazione delle informazioni si riduce esattamente a come quelle
attivazioni di un livello determinano le attivazioni di quello successivo
È pensato per essere simile al meccanismo con cui alcuni gruppi di neuroni nelle reti biologiche si attivano
facendo in modo che si attivino altri neuroni
Ora la rete

Chinese: 
这些值表示系统认为输入的图像对应着哪个数字的可能性
网络中间还有几层"隐含层"
暂时我们就把它看做一个大黑箱
里面就进行着处理识别数字的具体工作
这个网络中 我选择加两层隐含层 每层有16个神经元
我得承认 这些设置都是随便选的
结构选择两层隐含层的理由过一会我自会来解释
而选择16个神经元无非是显得好看罢了
实际应用中 在网络的结构上 我们有很大的调整实验的余地
神经网络运作的时候
上一层的激活值将决定下一层的激活值
所以说 神经网络处理信息的核心机制正是
一层的激活值是通过怎样的运算 算出下一层的激活值的
某种程度上讲 它想模仿的是生物中神经元组成的网络
某些神经元的激发 就会促使另一些神经元激发

Thai: 
หมายถึง ค่าที่ระบบคิดว่าภาพที่เห็น
ตรงกับตัวเลขที่ระบุ นอกจากนี้ยังมี layer อีกสอง layer ตรงกลางที่เรียกว่า hidden layer
ซึ่งในขณะนี้
ควรเป็นแค่เครื่องหมายคำถามยักษ์ ทดแทนวิธีการใดในโลกนี้ ที่จะจัดการกับวิธีการจดจำตัวเลข
ใน network นี้ผมเลือก hidden layer ไว้สองชั้นซึ่งมี 16 neuron และยอมรับว่าค่อนข้างเป็นทางเลือกที่ไม่มีเหตุผล
ในความเป็นจริงผมเลือกสอง layer ขึ้นอยู่กับว่าวิธีที่ผมต้องการจะกระตุ้นโครงสร้างในสักครู่
และ 16 มันเป็นเพียงตัวเลขที่ดีเพื่อให้พอดีกับบนหน้าจอ ในทางปฏิบัติ
ยังมีพื้นที่จำนวนมากสำหรับการทดลองกับการโครงสร้าง
วิธีที่เครือข่ายเปิดใช้งานการเปิดใช้งานในชั้นเดียวจะเป็นตัวกำหนดการเปิดใช้งานของเลเยอร์ถัดไป
และแน่นอนว่าหัวใจของเครือข่ายเป็นกลไกในการประมวลผลข้อมูลจะลดลงอย่างแน่นอน
การเปิดใช้งานจากเลเยอร์จะทำให้เกิดการเปิดใช้งานในชั้นถัดไป
มันหมายถึงการหลวมคล้ายคลึงกับวิธีการในเครือข่ายทางชีววิทยาของเซลล์ประสาทบางกลุ่มของเซลล์ประสาทยิง
ทำให้คนอื่นบางคนดับเพลิง
ตอนนี้เครือข่าย

French: 
représente à quel point le système pense que l'image
correspond à un chiffre donné. Il y a aussi quelques couches entre, appelées les "couches cachées",
qui, pour l'instant,
devraient encore être un grand point d'interrogation quant à comment ce processus de reconnaissance sera géré.
Dans ce réseau, j'ai choisi deux couches cachées avec 16 neurones chacune, et qu'on se le dise c'est en quelque sorte un choix arbitraire.
Honnêtement, j'ai choisi deux couches parce que je veux que le système soit rapide.
Et 16 ? Eh bien c'était juste un nombre qui rendait bien sur l'écran. En pratique,
il y a de la marge pour expérimenter avec cette structure ici.
La façon dont le réseau opère est que l'activation d'une couche détermine l'activation de la couche suivante.
Et bien sûr, le cœur du réseau en tant que mécanisme de gestion d'informations revient à "Comment
l'activation d'une couche entraîne l'activation de la couche suivante".
C'est censé être vaguement analogue au fait que dans les réseaux de neurones biologiques, certains groupes de neurones activés
causent l'activation d'autres neurones.
Le réseau

Chinese: 
表示對於給定的圖像，神經網路對於實際數字的判斷結果
在輸入層和輸出層之間，有數個「隱藏層」
現在在本入門影片裡
對於神經網路是如何進行判斷的，我們只能先把它看做是巨大的問號
本影片展示的視覺化神經網路，我設計了兩個隱層，個別搭載16個神經元
這只是擺好看的設定
老實說之所以選擇兩個隱層，是基於視覺化讓你看得清楚的考量，待會解釋
而安排 16 個神經元，只是為了符合版面，也是為了讓你看得清楚
在實際應用上，神經網路的結構經實驗不斷調整可以變得非常巨大且特殊
神經網路操作一層激勵值的方式，會決定下一層的激勵值
這正是神經網路的核心價值，不同以往的資料處理技術，現在發展成只要輸入
激勵值從上一層傳到下一層，最後輸出足夠正確的結果
神經網路的本質就是模仿生物的大腦，就像一叢腦細胞被激發
引發其他神經細胞的串聯反應
我現在展示的

German: 
Diese Zahl zeigt an, wie sehr das System glaubt, dass es sich bei dem Bild um die entsprechende Zahl handelt.
Zwischen diesen beiden Stufen gibt es ein paar weitere - die verborgenen Stufen.
Welche im Moment nur ein grosses Fragezeichen sind.
Wie in aller Welt soll dieser Erkennungsprozess vom Bild zur Zahl gehandhabt werden?
In diesem Netzwerk wählte ich zwei verborgene Stufen, jeweils mit 16 Neuronen, wobei dies eine willkürliche Zahl ist.
Ehrlich gesagt, habe ich zwei Stufen gewählt, um besser auf die Funktionsweise eingehen zu können.
Und 16, das war einfach eine nette Zahl die auch auf den Bildschirm passt.
Die gezeigte Struktur erlaubt einiges an Raum zum experimentieren.
Und so funktioniert's: Die Aktivierung auf einer Stufe bereitet die Aktivierung der nächsten Stufe vor.
Und natürlich ist das Herz des Netzes als Mechanismus der Informationsverarbeitung, ist die Bestimmung
wie genau die Aktivierung einer Stufe die Aktivierung der nächsten herbeiführt.
Die Idee ist, dass es ungefähr analog zu biologischen neuronalen Netzwerken ist - wo somit die Aktivierung gewisser Neuronen
zur Aktivierung anderer Neuronen führt.
Das Netzwerk hier wurde bereits trainiert

Turkish: 
Sistemin verilen bir görüntünün ne kadarını düşündüğünü gösterir?
Verilen bir rakamla karşılık gelir. Arasında gizli katmanlar adı verilen birkaç kat var.
Hangisi şimdilik?
Rakamların tanınması sürecinin yeryüzünde nasıl işleneceği konusunda sadece dev bir soru işareti olmalı mıdır?
Bu ağda her biri 16 nöronlu iki gizli katman seçtim ve kuşkusuz bu keyifli bir seçim
Dürüst olmak gerekirse, yapıyı bir an motive etmek istediklerime dayanarak iki kat seçtim ve
16 iyi uygulama için ekrana sığacak güzel bir sayıydı
Burada belirli bir yapıya sahip deney için çok yer var
Ağın bir katmandaki etkinleştirmeleri çalıştırma şekli, bir sonraki katmanın etkinleştirilmesini belirler
Ve tabii ki bir bilgi işleme mekanizması olarak ağın kalbi tam olarak
Bir katmandaki aktivasyonlar bir sonraki katmanda aktivasyonlar meydana getirir
Bu, nöronların bazı biyolojik ağlarındaki nöronların ateşlemesine nazaran gevşek şekilde benzer olması gerektiği anlamına gelir
başkalarının ateş etmesine neden ol
Şimdi şebeke

Spanish: 
representa cuánto el sistemas piensa que una
imagen dada corresponde a un dígito dado,
también hay un par de capas en medio llamadas "las capas ocultas",
que para el tiempo,  debería ser una
gran pregunta , remarcar cómo el tierra este
proceso de reconocer dígitos va sa ser factible
En esta red escojo dos capas ocultas
cada una con 16 neuronas, y de inmediato esa para una elección aleatoria
para ser honesto, escogí dos capas ,
basado en cómo quiero llevar la estructura en un momento,
y 16?, bueno , ese fue un buen número para colocar en la pantalla,
en la práctica hay mucho espacio experimentar con una estructura específica .
La manera en que la red opera las activaciones
en una capa determina las activaciones en la siguiente capa,
y por su puesto el corazón de la red
como un mecanismo  proceso de información desciende
ha exactamente cómo esas activaciones de una capa
repercuten en las activaciones en la siguiente capa,
significaba  ser ligeramente análogo
a una red biológica de neuronas , algún grupo de neuronas disparándose
provoca que otras se disparen,  la red

English: 
Represents how much the system thinks that a given image?
Corresponds with a given digit. There's also a couple layers in between called the hidden layers
Which for the time being?
Should just be a giant question mark for how on earth this process of recognizing digits is going to be handled
In this network I chose two hidden layers each one with 16 neurons and admittedly that's kind of an arbitrary choice
to be honest I chose two layers based on how I want to motivate the structure in just a moment and
16 well that was just a nice number to fit on the screen in practice
There is a lot of room for experiment with a specific structure here
The way the network operates activations in one layer determine the activations of the next layer
And of course the heart of the network as an information processing mechanism comes down to exactly how those
activations from one layer bring about activations in the next layer
It's meant to be loosely analogous to how in biological networks of neurons some groups of neurons firing
cause certain others to fire
Now the network

Modern Greek (1453-): 
αντιπροσωπεύει το κατά πόσο το σύστημα πιστεύει ότι η δοθείσα εικόνα,
αντιστοιχεί σε αυτό το ψηφίο. Υπάρχουν επίσης καναδυό στρώματα ανάμεσα που ονομάζονται "κρυφά στρώματα",
στα οποία για την ώρα,
ας βάλουμε απλά ένα τεράστιο ερωτηματικό για το πώς στο καλό λειτουργούν ώστε να επιτύχει η διαδικασία αναγνώρισης των ψηφίων.
Σε αυτό το δίκτυο επέλεξα να έχω δύο κρυφά στρώματα, το καθένα από 16 νευρώνες, και ομολογουμένως είναι μία λίγο αυθαίρετη επιλογή.
Για να είμαι ειλικρινής, διάλεξα να έχω δύο κρυφά στρώματα, βασιζόμενος στη δομή που θέλω να υπάρχει,
και 16 νευρώνες... Ε, το 16 ήταν απλά ένας ωραίος αριθμός ώστε να χωράνε οι νευρώνες στην οθόνη.
Υπάρχει πολύς χώρος για να πειραματιστείτε με τη δομή εδώ.
Ο τρόπος με τον οποίο το δίκτυο χειρίζεται τις ενεργοποιήσεις σε ένα στρώμα, καθορίζει τις ενεργοποιήσεις στο επόμενο.
Και φυσικά, η καρδιά του δικτύου ως ένας μηχανισμός επεξεργασίας πληροφοριών, είναι το πώς ακριβώς αυτές
οι ενεργοποιήσεις σε ένα στρώμα, καθορίζουν τις ενεργοποιήσεις στο επόμενο.
Έχει φτιαχτεί ώστε να είναι κάπως ανάλογο με το πώς στα βιολογικά νευρωνικά δίκτυα, κάποιες ομάδες νευρώνων πυροδοτούν
κάποιες άλλες ομάδες με τη σειρά τους.
Τώρα, το δίκτυο

Vietnamese: 
Đại diện cho bao nhiêu hệ thống cho rằng một hình ảnh nhất định?
Tương ứng với một chữ số nhất định. Ngoài ra còn có một vài lớp ở giữa gọi là lớp ẩn
Mà trong thời gian này?
Nên chỉ là một dấu hỏi khổng lồ rằng quá trình xử lý này nhận dạng chữ số sẽ được thực hiện ntn?
Trong mạng này tôi đã chọn hai lớp ẩn mỗi người với 16 tế bào thần kinh và thừa nhận đó là loại một sự lựa chọn tùy ý
phải trung thực tôi đã chọn hai lớp dựa trên cách tôi muốn thúc đẩy cấu trúc chỉ trong một khoảnh khắc và
16 rõ rằng chỉ là một số đẹp để phù hợp trên màn hình trong thực tế
Có rất nhiều chỗ cho thử nghiệm với một cấu trúc cụ thể ở đây
Cách mạng hoạt động kích hoạt trong một lớp xác định kích hoạt của lớp tiếp theo
Và dĩ nhiên trung tâm của mạng như một cơ chế xử lý thông tin đi xuống đến chính xác cách thức những
kích hoạt từ một lớp mang về kích hoạt trong lớp tiếp theo
Nó có nghĩa là phải lỏng lẻo tương tự như thế nào trong các mạng sinh học của tế bào thần kinh một số nhóm tế bào thần kinh bắn
gây ra một số người khác để bắn
Bây giờ mạng

Japanese: 
与えられたイメージがシステムにどのくらいあると考えるかを表します。
指定された桁に対応します。間には隠れたレイヤーと呼ばれる2つのレイヤーがあります
それは当分の間ですか？
地球上でどのように数字を認識するかについての巨大な疑問符でなければなりません。
このネットワークでは、それぞれ16個のニューロンを持つ2つの隠れたレイヤーを選択しましたが、これは任意の選択肢です
正直言って私はちょうどその瞬間に構造に動機づけをしたい、
16はうまく実際に画面に収まるような素敵な数字でした
ここには特定の構造の実験のための余地がたくさんあります
ネットワークが1つの層で活性化を実行する方法は、次の層の活性化を決定します
もちろん、情報処理の仕組みとしてのネットワークの核心は、
1つの層からの活性化が、どのように次の層の活性化を引き起こしますかによります
それは、神経の生物学的ネットワークにおいて、どのようにあるグループの神経点火がある他のグループを点火させるのかをゆるやかに比較する事を意味しています
 
今やネットワーク

Czech: 
určuje, jak moc si systém myslí, že daný obrázek
odpovídá dané číslici. Mezi nimi jsou ještě dvě vrstvy nazývané skryté vrstvy,
které prozatím
budou jen obrovským otazníkem pro to, jak se tento proces rozpoznávání číslic provádí
Pro tuto síť jsem si vybral dvě skryté vrstvy, z nichž každá má 16 neuronů a samozřejmě jsou možné i jiné volby
Abych se přiznal, vybral jsem si dvě vrstvy kvůli tomu, jakou chci za chvilku pro tuto strukturu uvést motivaci
a 16 , to je pěkné číslo, aby se vše vešlo na obrazovku. Když na to přijde,
je tu spousta možností k experimentování s touto konkrétní strukturou
Způsob, jakým síť pracuje: aktivace v jedné vrstvě určuje aktivaci další vrstvy
Samozřejmě, možnost využití sítě jako mechanismu zpracování informací spočívá v tom, jakým konkrétním způsobem
aktivace z jedné vrstvy způsobí aktivaci v další vrstvě
Má to být přibližná nápodoba toho, jak v různých biologických sítích neuronů aktivace jedné skupiny neuronů
vede k aktivaci jiné skupiny
Síť,

Persian: 
که نشان می دهد سیستم  چقدر فکر می کند تا یک تصویر
متناظر با یک رقم داده شده  ارائه دهد؟ همچنین لایه های چندگانه ای به نام لایه های مخفی وجود دارد
این مربوط به چه زمانی است؟
تنها باید یک علامت سوال عظیم برای چگونگی انجام این روند تشخیص عددی  وجود داشته باشد
در این شبکه من دو لایه مخفی را انتخاب کردم که هر کدام با 16 نورون است و مسلما این نوع انتخاب دلخواه است
صادقانه بگویم من دو لایه را بر اساس این که چگونه می خواهم فقط در یک لحظه ایجاد ساختار را انجام دهم انتخاب کردم
16 عدد خوبی است به این دلیل که تنها عددی است که در عمل با صفحه متناسب است
در اینجا اتاق زیادی برای آزمایش با یک ساختار خاص وجود دارد
نحوه فعال سازی شبکه در یک لایه، فعال سازی لایه بعدی را تعیین می کند
و البته قلب شبکه به عنوان یک مکانیسم پردازش اطلاعات، کاملا دقیق است
فعال سازی از یک لایه باعث فعال شدن در لایه بعدی می شود
این به معنای آن است که به طور مشابه با شبکه های بیولوژیکی نورونی، بعضی از گروه های نورون شلیک می کنند
بعضی از نورون ها، دیگر نورون ها را روشن می کنند
حالا شبکه

Indonesian: 
Mewakili seberapa banyak sistem berpikir bahwa gambar yang diberikan?
Sesuai dengan digit yang diberikan. Ada juga beberapa lapisan di antara yang disebut lapisan tersembunyi
Yang mana untuk saat ini?
Seharusnya hanya menjadi tanda tanya besar untuk bagaimana proses mengenali digit ini akan ditangani
Dalam jaringan ini saya memilih dua lapisan tersembunyi masing-masing dengan 16 neuron dan diakui itu semacam pilihan yang sewenang-wenang
Sejujurnya saya memilih dua lapisan berdasarkan pada bagaimana saya ingin memotivasi struktur hanya sesaat dan
16 baik itu hanya angka yang bagus untuk muat di layar dalam praktek
Ada banyak ruang untuk bereksperimen dengan struktur khusus di sini
Cara jaringan mengoperasikan aktivasi dalam satu lapisan menentukan aktivasi lapisan berikutnya
Dan tentu saja jantung jaringan sebagai mekanisme pemrosesan informasi turun ke bagaimana persisnya itu
aktivasi dari satu lapisan membawa aktivasi di lapisan berikutnya
Ini dimaksudkan untuk menjadi analog secara longgar dengan bagaimana dalam jaringan biologis neuron beberapa kelompok neuron yang menembak
menyebabkan orang lain menembak
Sekarang jaringannya

Hungarian: 
mennyire gondolja úgy a rendszer, hogy ennek a számnak felel meg a bemeneti kép.
Van még néhány "rejtett réteg" is a hálózatban,
amit egyelőre jejlöljünk csak egy
óriási kérdőjellel, hogy mégis hogy a manóba fogjuk megvalósítani a számfelismerés folyamatát…
Ehhez a hálózathoz két rejtett réteget választottam, egyenként 16 neuronnal, és ez valójában egy önkényes választás.
Amiatt lett két réteg, hogy pontosan minek is akarom kitenni a struktúrát mindjárt, 
a 16 meg csak egyszerűen csak egy szép szám, jól illeszkedik a képernyőnkre.
Valójában egy csomót lehet kisérletezni a legmegfelelőbb struktúrával…
Az aktivitások a hálózat adott rétegében meghatározzák a következő réteg aktivitásait.
És persze a hálózat mint információfeldolgozó mechanizmus lényegi kérdése pontosan az,
hogy hogyan eredményez az egyik réteg aktivitása a következő rétegben aktivitást.
Az egész nagyjából ahhoz hasonló elven működik, ahogy a biológiai hálózatokban is egy neuron-csoport tüzelésekor
más neuronok is tüzelni kezdenek.
A hálózat,  amit most bemutatok

Portuguese: 
representa quanto o sistema acha que uma dada imagem
corresponde com um dado dígito. Também há algumas camadas no meio, chamadas de camadas ocultas
as quais por enquanto
devem ser apenas um grande ponto de interrogação para como funciona esse processo de reconhecer dígitos
Nessa rede eu escolhi duas camadas ocultas, cada uma com 16 neurônios, e admito que essa é uma escolha arbitrária
para ser honesto, eu escolhi duas camadas baseado em como eu quero motivar a estrutura em um momento e
16, bem, esse foi um bom número para encaixar na tela. Na prática
tem muito espaço para experimentar com uma estrutura específica aqui
A forma como a rede funciona, ativações em uma camada, determina ativações na próxima camada
e, claro, o coração da rede como um mecanismo de processamento de informação se resume a exatamente como
essas ativações em uma camada provocam ativações em uma próxima camada
É para ser frouxamente análogo à como em uma rede de neurônios biológica alguns grupos de neurônios ativos
fazem alguns outros ativarem.
Agora, a rede

Portuguese: 
Representa quanto o sistema acha que uma determinada imagem?
Corresponde a um determinado dígito. Há também algumas camadas entre chamadas as camadas ocultas
Que por enquanto?
Deve ser apenas um ponto de interrogação gigante para como esse processo de reconhecimento de dígitos será tratado
Nesta rede eu escolhi duas camadas escondidas, cada uma com 16 neurônios e, reconhecidamente, isso é uma escolha arbitrária
para ser honesto, escolhi duas camadas com base em como eu quero motivar a estrutura em apenas um momento e
16 bem que foi apenas um bom número para caber na tela na prática
Há muito espaço para experimentar com uma estrutura específica aqui
A forma como a rede opera ativações em uma camada determina as ativações da próxima camada
E, claro, o coração da rede como um mecanismo de processamento de informações se resume a exatamente como esses
ativações de uma camada trazem ativações na próxima camada
Significa ser vagamente análogo a como em redes biológicas de neurônios alguns grupos de neurônios disparando
fazer com que certos outros disparem
Agora a rede

Polish: 
Reprezentuje, jak bardzo system myśli, że dany obraz?
Odpowiada danej cyfrze. Istnieje również kilka warstw pomiędzy warstwami
Który na razie?
Powinien być po prostu olbrzymim znakiem zapytania, jak na Ziemi zostanie potraktowany proces rozpoznawania cyfr
W tej sieci wybrałem dwie ukryte warstwy, każda z 16 neuronami i oczywiście jest to rodzaj arbitralnego wyboru
szczerze mówiąc wybrałem dwie warstwy w oparciu o to, jak chcę zmotywować strukturę w jednej chwili i
16-studzienkowe to była po prostu fajna liczba, którą można dopasować na ekranie w praktyce
Jest tu dużo miejsca na eksperymentowanie z określoną strukturą
Sposób, w jaki sieć działa aktywacje w jednej warstwie, determinuje aktywacje następnej warstwy
I oczywiście serce sieci jako mechanizm przetwarzania informacji sprowadza się do dokładnie tego, jak te
Aktywacje z jednej warstwy powodują aktywacje w następnej warstwie
To ma być luźno analogiczne do tego, jak w sieciach biologicznych neuronów strzelają niektóre grupy neuronów
spowodować, że inni wystrzelą
Teraz sieć

Persian: 
من نشان می دهم در اینجا شبکه آموزش دیده است تا علامت ها را شناسایی کرده و اجازه دهید به شما نشان دهم که منظور من چیست
این بدان معنی است که اگر شما در یک تصویرهمه را روشن کنید
784 نورون لایه ورودی با توجه به روشنایی هر پیکسل در تصویر روشن می شوند
این الگوی فعال سازی یک الگوی بسیار خاص در لایه بعدی ایجاد می کند
کدام یک از الگوها را بعد از آن ایجاد می کند؟
که در نهایت  برخی از الگوی در لایه خروجی را به دست می دهد و؟
روشنترین نورون لایه خروجی، انتخاب شبکه است تا بگوید این تصویر چه عددی را نمایش می دهد؟
و قبل از پریدن به ریاضی برای اینکه چطور یک لایه، لایه بعدی را تحت تاثیر قرار می دهد یا چگونه آموزش می بیند؟
بیایید فقط درباره اینکه چرا حتی انتظار می رود یک ساختار لایه ای مانند این نیز انتظار داشته باشیم که به طور هوشمندانه رفتار کند، صحبت کنیم
اینجا در انتظار چه چیزی هستیم؟ بهترین امید برای آنچه که لایه های میانی ​​می تواند انجام دهد چیست؟
خوب وقتی که شما یا من علامت را تشخیص می دهیم، ما اجزای مختلف را با هم ترکیب می کنیم، نه یک حلقه بالا و یک خط در سمت راست است

Indonesian: 
Saya tunjukkan di sini telah dilatih untuk mengenali angka dan biarkan saya menunjukkan apa yang saya maksud dengan itu
Itu berarti jika Anda memberi makan pada gambar yang menerangi semua
784 neuron dari lapisan input sesuai dengan kecerahan setiap piksel dalam gambar
Pola aktivasi tersebut menyebabkan beberapa pola yang sangat spesifik di lapisan berikutnya
Yang menyebabkan beberapa pola di satu setelahnya?
Yang akhirnya memberikan beberapa pola di lapisan output dan?
Neuron paling terang dari lapisan output itu adalah pilihan jaringan sehingga bisa berbicara untuk apa digit gambar ini mewakili?
Dan sebelum melompat ke matematika untuk bagaimana pengaruh satu lapisan berikutnya atau bagaimana pelatihan bekerja?
Mari kita bicara tentang mengapa bahkan masuk akal untuk mengharapkan struktur berlapis seperti ini untuk berperilaku cerdas
Apa yang kita harapkan di sini? Apa harapan terbaik untuk apa yang mungkin dilakukan oleh lapisan menengah?
Baik ketika Anda atau saya mengenali angka, kami menggabungkan berbagai komponen yang sembilan memiliki loop atas dan garis di sebelah kanan

Turkish: 
Burada gösterim, zaten rakamları tanımak için eğitildi ve ne demek istediğimi göstereyim.
Bu, bir görüntüyü aydınlatırsanız, hepsini aydınlatırsınız demektir
Görüntüdeki her pikseldeki parlaklığa göre giriş katmanının 784 nöronu
Bu harekete geçirme modeli bir sonraki katta çok özel desene neden olur
Peşinden birinde bazı desenlere neden olur?
Sonunda çıktı katmanında bazı desenler var ve?
Çıktı tabakasının en parlak nuronu, bu görüntünün temsil ettiği rakam için konuşmak için ağın seçimidir?
Ve bir katmanın bir sonraki etkisini ve eğitimin nasıl yürüdüğünü hesaplamadan önce matematiğe atlamadan önce?
Bunun gibi katmanlı bir yapının akıllıca davranıp beklenmesinin neden makul olduğunu konuşalım
Burada ne bekliyoruz Bu orta katmanların yapabilecekleri şey için en iyi umut nedir?
Siz veya ben, çeşitli bileşenleri bir araya getirdiğimiz rakamları tanıdığımızda, bir dokuzun üst kısmı yukarı dönük ve sağdaki bir çizgi var.

English: 
I'm showing here has already been trained to recognize digits and let me show you what I mean by that
It means if you feed in an image lighting up all
784 neurons of the input layer according to the brightness of each pixel in the image
That pattern of activations causes some very specific pattern in the next layer
Which causes some pattern in the one after it?
Which finally gives some pattern in the output layer and?
The brightest neuron of that output layer is the network's choice so to speak for what digit this image represents?
And before jumping into the math for how one layer influences the next or how training works?
Let's just talk about why it's even reasonable to expect a layered structure like this to behave intelligently
What are we expecting here? What is the best hope for what those middle layers might be doing?
Well when you or I recognize digits we piece together various components a nine has a loop up top and a line on the right

Korean: 
제가 지금 보여드리는 신경망은
이미 숫자를 인식하도록 훈련되어 있습니다.
사진의 픽셀인 784개에 해당하는 입력 뉴런들을
모두 활성화 시킬 때,
이 때 활성화되는 뉴런들이 특정 패턴이 다음 층이 활성화 되게끔 합니다.
그 다음 열도 마찬가지로 활성화가 되고
마지막으로 출력 층에도 전달됩니다.
출력 층에서 가장 빛나는 뉴런이 이 신경망에서 선택된 출력값입니다.
어떻게 한 층의 활성화가 다른 층의 활성화를 불러일으키는지에 대해 수학적인 접근을 하기 이전에
어떻게 이러한 이러한 구조가 지적으로 행동한다고 볼 수 있는 건지 생각해봅시다..
우리는 지금 뭘 기대하고 있는 걸까요? 가운데의 층들은 무슨 역할을 하는 걸까요?
우리가 숫자를 인식할 때는 각 부분을 합칩니다.
9같은 경우 동그라미가 위에, 직선이 오른쪽에

Italian: 
che sto mostrando qui è già stata addestrata a riconoscere le cifre e, lascia che ti mostri cosa intendo con questo
Significa che se si alimenta la rete con un'immagine si illuminano tutti
i 784 neuroni del livello di input, in base alla luminosità di ciascun pixel nell'immagine.
Quel modello di attivazioni provoca l'attivazione di alcuni schemi specifici nel livello successivo
il quale causa qualche altro schema in quello che segue
che alla fine dà qualche altro schema nel livello di output e
il neurone più brillante di questo livello di output è la cifra scelta della rete  che rappresenta questa immagine
E prima di trattare la matematica di come uno strato influenza il prossimo o di come funziona l'allenamento
parliamo del perché è ragionevole aspettarsi che una struttura a strati come questa si comporti in modo intelligente
Cosa ci possiamo aspettare qui? Qual è il migliore obiettivo che questi strati potrebbero ottenere?
Bene, quando io o te riconosciamo le cifre, mettiamo insieme vari componenti, un nove ha un cerchio in alto e una linea a destra

Spanish: 
que muestro aquí ya ha sido entrenada para reconocer dígitos ,
y déjame  enseñarte lo que quiero decir  con eso, si tú ajustas una imagen
prendiendo todas  las 784 neuronas
de la malla de entrada (input) de acuerdo a brillo
de cada pixel en la imagen
, ese patrón de activación causa un patrón específico en la siguiente capa
, el cual causa un patrón en la siguiente
, que finalmente da un patrón en la capa de salida (output ),
y la  neurona mas iluminada de esa capa de salida
es la elección de  la red para decir
qué número la imagen representa.
Y antes de saltar en la matemática,
de cómo una capa influye a la siguiente ,o cómo el "Entrenamiento " funciona
hablemos por qué es incluso razonable
contar con una estructura de capas como esta,
para comportarse inteligentemente , qué esperamos aquí
cuál es la mayor esperanza para esas capas medias,
que podrías estar haciendo , bueno, cuando yo reconozco dígitos
pongo juntas varias piezas _compontes como un nueve, que tiene un bucle en la punta y una linea recta

Thai: 
ฉันกำลังแสดงอยู่ที่นี่ได้รับการฝึกฝนให้จดจำตัวเลขแล้วแจ้งให้ฉันทราบว่าฉันหมายถึงอะไร
นั่นหมายความว่าถ้าคุณให้อาหารภาพแสงทั้งหมด
784 เซลล์ประสาทของชั้นข้อมูลเข้าตามความสว่างของแต่ละพิกเซลในภาพ
รูปแบบการเปิดใช้งานทำให้รูปแบบที่เฉพาะเจาะจงบางอย่างในชั้นถัดไป
ซึ่งทำให้รูปแบบบางอย่างในหนึ่งหลังจากนั้นหรือไม่
ซึ่งสุดท้ายให้รูปแบบในชั้นส่งออกและ?
เซลล์ประสาทที่สว่างที่สุดของชั้นส่งออกนั้นเป็นทางเลือกของเครือข่ายเพื่อที่จะพูดว่ารูปภาพนี้เป็นภาพอะไร?
และก่อนที่จะกระโดดลงไปในวิชาคณิตศาสตร์สำหรับวิธีการหนึ่งชั้นมีอิทธิพลต่อการฝึกอบรมต่อไปหรืออย่างไร?
ลองพูดถึงเหตุผลว่าทำไมถึงสมควรที่จะคาดหวังให้โครงสร้างแบบเลเยอร์แบบนี้ทำงานได้อย่างชาญฉลาด
เราคาดหวังอะไรที่นี่? อะไรคือความหวังที่ดีที่สุดสำหรับสิ่งที่ชั้นกลางเหล่านี้อาจจะทำ?
เมื่อคุณหรือฉันรู้จักตัวเลขที่เรารวบรวมส่วนประกอบต่างๆไว้เก้าชิ้นจะมีวงแหวนขึ้นด้านบนและมีสายด้านขวา

Russian: 
Итак, сеть, которую я привожу здесь, уже обучена распознаванию цифр.
Давайте объясню что я имею ввиду.
Это значит, что если дать (скормить) ей картинку, зажигание всех 784 нейронов входного уровня,
согласно яркости каждого пикселя на картинке, такой шаблон активаций,
приведёт к конкретно определённому шаблону в следующем слое,
который приведёт к какому-то шаблону в следующем,
который наконец выдаст какой-то шаблон в финальном слое.
И самый яркий нейрон этого выходного слоя, это, так сказать, "выбор" нейросети
по вопросу какую цифру представляет данная картинка.
И прежде чем углубляться в математику того, как один слой влияет на следующий, или как происходит обучение,
давайте просто поговорим почему вообще такая слоёная структура должна действовать разумно.
Чего нам ожидать, что в лучшем случае смогут делать эти промежуточные слои?
Ну, когда вы и я распознаём цифры, мы сводим воедино различные компоненты.
Девятка содержит кружок вверху и линию справа.

Portuguese: 
que estou mostranto aqui, já foi treinada para reconhecer dígitos e deixe me mostrar o que eu quero dizer com isso
Isso significa que se você alimenta com uma imagem "lighting up" todos
784 neurônios de uma camada de entrada de acordo com o brilho de cada pixel da imagem
o padrão de ativação causa um padrão bem específico na próxima camada.
que causa um padrão específico em outra camada após essa
que finalmente dá um padrão na camada de saída
e o neurônio com mais brilho na camada de output, é a "escolha" da rede, por assim dizer, de qual dígito a imagem representa.
e antes de passar para a matemática de como uma camada influencia a outra, ou sobre como o treinamento funciona
vamos apenas conversar sobre o porque é mesmo razoável se esperar que uma estrutura em camadas como essa se comporte de forma inteligente
O que nós esperamos aqui? O que podemos esperar do que aquelas camadas ocultas podem estar fazendo?
Bem, quando você ou eu reconhecemos dígitos, nós juntamos vários componentes. Um nove tem um círculo em cima e uma linha na direita

Japanese: 
私がここに示しているのは、既に数字を認識するように訓練されており、それにより私が意味するものをお見せしています
それは、もしあなたが画像内の各画素の輝度に応じて入力層の全ての784個の神経を輝かせた画像を与えたなら
 
その活性化のパターンは、次の層において非常に特異的なパターンを生じる
どれが、一つのパターンの後の一つにおいて、いくつかのパターンを引き起こすのでしょうか？
最終的には、どれが出力層にいくつかのパターンを与えるのでしょうか？そして
その出力層の最も明るい神経はネットワークの選択であり、言わば、この画像がどの桁を表しているかという事である
どのようにして1つのレイヤーが次のレイヤーに影響するか、または、どのようにしてトレーニングが機能するのかについての数学に飛び込む前に、
何故、このような階層化された構造が賢く動作すると期待する事が将に合理的であるかについて話しましょう
ここで何を期待していますか？それらの中間層が何をしているのかについての最適な望みは何ですか？
あなたや私が数字を認識する時、さまざまな構成要素を一つにします。9は丸が上にあり、右に縦線があります

Polish: 
Pokazuję tutaj został już przeszkolony do rozpoznawania cyfr i pozwól mi pokazać, co mam na myśli przez to
Oznacza to, że jeśli dodasz obraz, rozświetlisz wszystko
784 neuronów warstwy wejściowej zgodnie z jasnością każdego piksela na obrazie
Ten wzorzec aktywacji powoduje bardzo specyficzny wzór w następnej warstwie
Co powoduje pewien wzorzec w następnym?
Który ostatecznie daje pewien wzór w warstwie wyjściowej i?
Najjaśniejszym neuronem tej warstwy wyjściowej jest wybór sieci, a więc jaka cyfra reprezentuje ten obraz?
A przed wskoczeniem do matematyki, jak jedna warstwa wpływa na następną lub jak działa trening?
Porozmawiajmy tylko o tym, dlaczego rozsądnie jest oczekiwać inteligentnego zachowania się w warstwowej strukturze
Czego spodziewamy się tutaj? Jaka jest najlepsza nadzieja na to, co robią te środkowe warstwy?
Cóż, kiedy rozpoznajemy cyfry, łączymy różne komponenty, a dziewięć ma pętlę na górze i linię po prawej

Portuguese: 
Eu estou mostrando aqui já foi treinado para reconhecer dígitos e deixe-me mostrar o que quero dizer com isso
Isso significa que se você alimentar uma imagem iluminando tudo
784 neurônios da camada de entrada de acordo com o brilho de cada pixel na imagem
Esse padrão de ativações faz com que alguns padrões muito específicos na próxima camada
O que causa algum padrão no outro depois dele?
Que finalmente dá algum padrão na camada de saída e?
O neurônio mais brilhante dessa camada de saída é a escolha da rede, por assim dizer, para qual dígito essa imagem representa?
E antes de saltar para a matemática de como uma camada influencia a próxima ou como funciona o treinamento?
Vamos apenas falar sobre por que é até razoável esperar que uma estrutura em camadas como essa se comporte de maneira inteligente
O que estamos esperando aqui? Qual é a melhor esperança para o que essas camadas intermediárias poderiam estar fazendo?
Bem, quando você ou eu reconhecemos dígitos, juntamos vários componentes, um nove tem um laço no topo e uma linha à direita

Vietnamese: 
Tôi thấy ở đây đã được huấn luyện để nhận ra chữ số và để tôi chỉ cho bạn những gì tôi có ý nghĩa bởi đó
Nó có nghĩa là nếu bạn ăn trong một ánh sáng hình ảnh lên tất cả
784 tế bào thần kinh của lớp đầu vào theo độ sáng của mỗi điểm ảnh trong hình ảnh
Đó là mô hình của kích hoạt gây ra một số mô hình rất cụ thể trong lớp tiếp theo
Gây ra một số mô hình trong một sau nó?
Mà cuối cùng đưa ra một số mô hình trong lớp đầu ra và?
Các tế bào thần kinh sáng nhất mà lớp đầu ra là sự lựa chọn của mạng như vậy để nói về những gì chữ số hình ảnh này thể hiện?
Và trước khi nhảy vào toán học trong bao một lớp ảnh hưởng đến các công trình đào tạo tiếp theo hoặc làm thế nào?
Chúng ta hãy chỉ nói về lý do tại sao nó thậm chí còn hợp lý để mong đợi một cấu trúc lớp như thế này để hành xử một cách thông minh
chúng tôi đang mong đợi gì ở đây? hy vọng tốt nhất cho những gì các lớp trung lưu có thể làm là gì?
Vâng khi bạn hoặc tôi nhận ra chữ số chúng ta mảnh thành phần với nhau khác nhau chín có một vòng lên phía trên và một đường ở bên phải

Hungarian: 
már be lett tanítva arra, hogy felismerje a számjegyeket. Hadd mutassam meg, mit értek ezalatt.
Ha betáplálunk egy képet, 
ami a bemeneti réteg mind a 784 neuronját aktivizálja, a pixelek fényerőssége szerint,
akkor az aktivitások mintázata egy nagyon specifikus mintát generál a következő rétegben,
ami a rákövetkező rétegben generál egy aktivitási mintázatot,
ami végül a kimeneti rétegben hoz létre egy mintát.
És a kimenti réteg legfényesebb neuronja lesz végül a rendszer tippje arra nézve, hogy milyen szám van a képen.
És mielőtt belevetnénk magunkat a matekba, hogy hogyan hatnak egymásra a rétegek vagy hogyan működik a betanítás,
beszéljünk inkább arról, hogy egyáltalán miért lehet értelme elvárni egy réteges struktúrától, hogy intelligensen viselkedjen?
Mire számítunk itt? Mégis milyen viselkedést remélünk a középső rétegektől?
Nos, amikor mi emberek számjegyeket ismerünk fel, különböző komponenseket illesztünk össze: a 9-es felül egy karika, jobb oldalon meg egy vonal.

Chinese: 
当前我给你展示的神经网络已经被训练好  可以识别数字了
我来解释下这是什么意思
这表示 如果你在网络输入层的784个神经元处
输入了784个代表输入图像各像素的灰度值
那么 这层激活值的图案会让下层的激活值产生某些特殊的图案
再让再下层的产生特殊的图案
最终在输出层得到某种结果
而输出层最亮的那个神经元就表示神经网络的"选择"
它认为输入图像里写着这个数字
在我介绍网络每层间如何影响 训练过程的数学原理之前
我们先讨论下 凭什么我们就觉得这种层状结构可以做到智能判断
我们在期待什么呢
我们到底期望这些中间层最好能做些什么呢
当我们人类在识别数字的时候
我们是在组合数字的各个部件
9 就是上边一个圈 右边再一竖

French: 
que je vous montre ici a déjà été entraîné à reconnaître des chiffres. Laissez-moi vous montrer ce que je veux dire par là.
Ça veut dire que si vous lui donnez une image, activant
tous les 784 neurones de la première couche, selon la luminosité de chaque pixel dans l'image,
ce motif d'activations entraîne un autre motif spécifique dans la couche suivante,
qui entraîne un autre motif dans celle juste après,
qui au final donne un dernier motif dans la dernière couche, et
le neurone le plus activé correspond au choix du réseau quant au chiffre représenté dans l'image.
Et avant de foncer dans les mathématiques de "Comment une couche influence la suivante" ou "Comment l'entraînement marche",
parlons simplement de "Pourquoi une structure comme celle-ci peut agir intelligemment".
Qu'espérons-nous ici ? Quel est le meilleur espoir pour ce que feront ces couches intermédiaires ?
Eh bien, lorsque vous ou moi reconnaissez des chiffres, nous assemblons différentes formes simples. Un 9 a une boucle en haut, et une ligne à droite.

Chinese: 
這個神經網路已經訓練完成了，可以準確辨識圖像中的數字
讓我來解釋「傳遞激勵值」這點
意思是：當你輸入一張 28x28 像素的圖像，它將點亮
所有 784 個神經元 每個都比照對應像素的灰階值，來決定自己的激勵值
決定的數值分布狀態會影響下一層被啟動的神經元的分布
又會導致下一層不同的分布
最後抵達輸出層，輸出層的神經元也會有特定的分布
而最亮的那個就是神經網路所認為最有可能答對的答案
但在一腳踏進數學之前，要先知道上層如何影響下層，而且機器學習為什麼會有用
為什麼我們認為層狀結構會像這樣聰明地運作是非常合理的？
我們在期待什麼呢？ 我們最想要神經網路的隱藏層怎麼運作呢？
在你或我在辨識圖中的數字時我們會把各種筆畫拼湊在一起。
一個 9 字，上面有圓圈，而在右邊有一條直線

Czech: 
kterou ukazuji, jsem již naučil, aby poznala číslice – dovolte mi, abych vám ukázal, co tím myslím
To znamená, že když vložíte obrázek tak, aby světlost každého
z 784 neuronů vstupní vrstvy odpovídala jasu každého pixelu v obraze,
tento soubor aktivací vytvoří v další vrstvě velmi specifický vzor,
a ten vytvoří nějaký vzor zase v další vrstvě,
který nakonec vytvoří nějaký vzor ve výstupní vrstvě
Jeden neuron této výstupní vrstvy bude nejjasnější, a tím síť říká, že si myslí, že to je ta číslice na obrázku
A než přejdeme k matematice o tom, jak jedna vrstva ovlivňuje další nebo jak funguje učení,
pohovořme o tom, proč je vůbec rozumné očekávat, že se takováto vrstvená struktura bude chovat inteligentně
Co od toho čekáme? Co bychom chtěli, aby dělaly tyto střední vrstvy?
No, když vy nebo já rozpoznáváme číslice, sestavujeme různé komponenty – devítka má smyčku nahoře a linku vpravo

Arabic: 
التي أستعرضها هنا تم بالفعل تدريبها للتعرف على الأرقام ودعني أريك ما أعنيه بذلك
هذا يعنى إذا قمت بتغذيتها بصورة معطى فيها كل قيم 
 ال 784 خلية كمدخلات فإنه طبقا لقيمة
تلك القيم يتم تحديد مدى سطوع كل بكسل فى الصورة
هذا النمط من التفعيل يسبب نما محددا فى التفعيل للطبقة التي تليها
والذى بدوره يسبب نمطا محددا آخر فى الطبقة التي تليها
والذى فى النهاية يعطى نمطا ما فى الطبقة الخارجية
والخلية الأكثر لمعانا تكون هى اختيار الشبكة لما تظنه يمثل الرقم الصحيح للصورة التى أدخلتها إليها
وقبل الذهاب إلى الرياضيات وراء كيف أن طبقة واحدة تؤثر فى الطبقة التي تليها أو الكيفية التي يتم بها تدريب الشبكات
دعنا فقط نوضح لماذا من المنطقي أن نتوقع من هيكل طبقي كهذا أن يتصرف بذكاء
ما الذي نتوقعه هنا؟ ما هو أفضل توقع لما يمكن أن تفعله تلك الطبقات الوسطى؟
حسنا عندما نتعرف أنا وأنت على الأرقام فإننا نجمع معا بعض القطع مثلا ال9 تمتلك حلقة فى الأعلى وخط فى الأسفل إلى اليمين قليلا

Modern Greek (1453-): 
που δείχνω εδώ, έχει ήδη εκπαιδευτεί στο να αναγνωρίζει ψηφία, και ας σας δείξω τι εννοώ με αυτό.
Σημαίνει ότι αν του δώσω μια εικόνα, ενεργοποιώντας έτσι
και τους 784 νευρώνες του στρώματος εισόδου, ανάλογα με τη φωτεινότητα κάθε pixel,
αυτό το μοτίβο ενεργοποιήσεων, θα προκαλέσει κάποιο άλλο συγκεκριμένο μοτίβο στο επόμενο στρώμα,
που ακολούθως θα προκαλέσει κάποιο μοτίβο στο επόμενο στρώμα,
που τελικά θα δώσει ένα μοτίβο στο στρώμα εξόδου,
και ο φωτεινότερος νευρώνας του στρώματος εξόδου δείχνει, ας πούμε, το ψηφίο που το δίκτυο πιστεύει ότι αντιπροσωπεύει η εικόνα.
Και πριν μπούμε στα μαθηματικά για το πώς το ένα στρώμα επηρεάζει το άλλο ή το πώς λειτουργεί η εκπαίδευση του δικτύου,
ας μιλήσουμε απλά για το γιατί μας φαίνεται λογικό μία δομή με στρώματα να συμπεριφέρεται έξυπνα.
Τι περιμένουμε εδώ; Ποια είναι η καλύτερη ελπίδα μας για το τι κάνουν αυτά τα μεσαία στρώματα;
Λοιπόν, όταν εσείς ή εγώ αναγνωρίζουμε ψηφία, ενώνουμε μαζί διάφορα κομμάτια. Ένα 9 έχει έναν κύκλο πάνω και μια γραμμή στα δεξιά,

German: 
um  Ziffern zu erkennen. Lassen Sie mich erläutern, was ich damit meine:
Das bedeutet, dass wenn ich ein Bild einfüttere,
jede der 784 Neuronen der Eingangsstufe einen entsprechenden Wert für die Helligkeit des Bildpunktes erhält.
Dieses Muster der Aktivierungen verursacht einige sehr spezifische Muster in der nächsten Schicht.
Was ein bestimmtes Muster in der nächsten Stufe herbeiführt,
welches schlussendlich ein bestimmtes Muster für die letzte Stufe erstellt.
Das hellste Neuron dieser Ausgabestufe ist gewissermassen die beste Schätzung des Netzwerkes dessen, was das Bild beinhaltet.
Und bevor wir in die Mathematik springen und uns anschauen,  wie eine Schicht die andere beeinflusst, oder wie das Training funktioniert,
sollten wir uns überlegen, warum es überhaupt sinnvoll ist, von dieser Schichtenstruktur intelligentes Verhalten zu erwarten.
Was erwarten wir denn hier? Was ist die beste Hoffnung dessen, was diese Mittelschichten tun könnten?
Nun, wenn Sie und ich Zahlen erkennen, so fügen wir einzelne Komponenten zusammen. Ein Kreis oben und eine Linie unten im Fall der Neun, beispielsweise.

Persian: 
همچنین یک 8 هم یک حلقه در بالا و حلقه دیگری در پایین دارد
یک 4 اساسا به سه خط خاص و چیزهایی مانند آن شکسته می شود
در حال حاضر در دنیای کامل، ممکن است امیدوار باشیم که هر نورون در لایه دوم تا آخر
با یکی از این زیرجزها ارتباط دارد
هر بار که شما یک تصویر با یک حلقه در بالا مانند یک 9 یا 8 می بینید
برخی از موارد خاص وجود دارد
نورونی فعال می شود که مقدار آن نزدیک به یک است و من به این حلقه خاصی از پیکسل ها فکر نمی کنم این امید است که هر کدام
به طور کلی الگوی حلقوی به سمت بالا مجموعه ای از این نورون در راه رفتن از لایه سوم به آخرین لایه را خاموش می کند
فقط باید یاد بگیرد  که ترکیبی از اجزای زیر مربوط به کدام است
البته این فقط مسئله را به پایین جاده می اندازد
از آنجا که این شبکه اجزاء زیر را تشخیص می دهد یا حتی یاد می گیرد که اجزای زیر چه باید  باشند، من هنوز حتی درباره این صحبت نمی کنم که
چگونه یک لایه، لایه بعدی را تحت تاثیر قرار می دهد، اما برای یک لحظه با من در این مورد همراه شوید
شناخت یک حلقه نیز می تواند به سؤظن تبدیل شود

Modern Greek (1453-): 
ένα 8 έχει επίσης έναν κύκλο πάνω, αλλά και έναν κύκλο κάτω.
Ένα 4 βασικά σπάει σε τρεις συγκεκριμένες γραμμές, και τα λοιπά.
Τώρα, σε έναν ιδανικό κόσμο, μπορεί να ελπίζαμε ότι κάθε νευρώνας του προτελευταίου στρώματος,
αντιστοιχεί σε καθένα από αυτά τα "κομμάτια".
Ότι κάθε φορά που δίνουμε μια εικόνα, ας πούμε με έναν κύκλο πάνω, όπως στο 9 ή στο 8,
υπάρχει ένας συγκεκριμένος
νευρώνας, του οποίου η ενεργοποίηση θα είναι κοντά στο 1. Και δεν εννοώ μόνο αυτόν τον συγκεκριμένο κύκλο από pixels, η ελπίδα μας είναι ότι κάθε
γενικότερο κυκλόμορφο μοτίβο στο πάνω μέρος, θα ενεργοποιούσε αυτόν τον νευρώνα. Έτσι, η μετάβαση από το τρίτο στο τελευταίο στρώμα,
απαιτεί μόνο το να μάθουμε ποιος συνδυασμός κομματιών αντιστοιχεί σε ποια ψηφία.
Φυσικά, αυτό απλά μεταφέρει το πρόβλημα παρακάτω και δεν το λύνει.
Γιατί πώς θα αναγνωρίζατε αυτά τα κομμάτια ή ακόμη και θα μαθαίνατε ποια είναι τα σωστά κομμάτια, και ακόμη δεν έχω καν μιλήσει
για το πώς ένα στρώμα επηρεάζει το επόμενο, αλλά ελάτε εδώ μαζί μου για μια στιγμή.
Η αναγνώριση ενός κύκλου, μπορεί κι αυτή να διασπαστεί σε υποπροβλήματα.

Portuguese: 
um 8 também tem um loop no topo, mas ele está emparelhado com outro loop baixo
A 4 basicamente se divide em três linhas específicas e coisas assim
Agora, em um mundo perfeito, podemos esperar que cada neurônio na penúltima camada
corresponde a um desses subcomponentes
Que a qualquer momento você se alimenta em uma imagem com um loop no topo como um 9 ou um 8
Há alguns específicos
Neurônio cuja ativação vai ser perto de um e eu não quero dizer este loop específico de pixels a esperança seria que qualquer
Geralmente padrão loopy em direção ao topo desencadeia este neurônio que vai da terceira camada para o último
requer apenas aprender qual combinação de subcomponentes corresponde a quais dígitos
Claro que apenas chuta o problema na estrada
Porque como você reconheceria esses subcomponentes ou até mesmo aprenderia quais subcomponentes certos deveriam ser e eu ainda nem falei sobre
Como uma camada influencia a próxima, mas corra comigo por um momento
reconhecendo um loop também pode quebrar em subproblemas

Czech: 
a osmička má také smyčku nahoře, ale je spojena
s jinou smyčkou dole
A 4 se v podstatě rozpadá na tři konkrétní linie, a tak podobně
Pokud všechno půjde ideálně, doufáme, že každý neuron v předposlední vrstvě
bude odpovídat jedné z těchto dílčích komponent
A kdykoli vložíte obrázek, třeba se smyčkou nahoře, jako u 9 nebo 8
budou tu určité
neurony, jejichž aktivace bude blízko k jedné. A nebude to jen pro jednu konkrétní smyčku pixelů, spíše
obecně pro smyčkový tvar v horní části se tento neuron aktivuje. Potom přechod od třetí vrstvy k poslední
bude vyžadovat pouze naučení, která kombinace dílčích komponent odpovídá jaké číslici
Samozřejmě, že to problém pouze posouvá jinam,
neboť, jak poznat tyto dílčí součásti? A také, co vůbec jsou správné dílčí součásti? A ještě budu muset vysvětlit,
jak jedna vrstva ovlivňuje další, ale na chvíli ještě zůstaňme u tohoto
Rozpoznání smyčky můžeme také rozložit na podproblémy

English: 
an 8 also has a loop up top, but it's paired with another loop down low
A 4 basically breaks down into three specific lines and things like that
Now in a perfect world we might hope that each neuron in the second-to-last layer
corresponds with one of these sub components
That anytime you feed in an image with say a loop up top like a 9 or an 8
There's some specific
Neuron whose activation is going to be close to one and I don't mean this specific loop of pixels the hope would be that any
Generally loopy pattern towards the top sets off this neuron that way going from the third layer to the last one
just requires learning which combination of sub components corresponds to which digits
Of course that just kicks the problem down the road
Because how would you recognize these sub components or even learn what the right sub components should be and I still haven't even talked about
How one layer influences the next but run with me on this one for a moment
recognizing a loop can also break down into subproblems

Chinese: 
一個 8 字，上面也有一个圓圈但在下面與另一個圓圈相連
一個 4 基本上可以拆解成就像那些特定的筆畫
一個理想的情況中我們會希望第二層的每個神經元
能識別這些筆劃的其中之一
每次你輸入一個有頂部有個圓圈的圖像如 9 或 8 時
隱層第二層的某些特定神經元的激勵值就會接近 1
而我要的並不是單單適用這種圓圈，而是更廣泛的各種圓圈皆適用
如此，在隱層第二層到輸出層的神經元
只需要學習對應於數字的筆畫的組合
當然這又丟出了一道難題
因為你怎麼讓那些神經元知道那些數字該對應到那些特定的筆畫？
而我甚至還沒開始講上一層怎麼影響下一層，但是再聽我解釋一下這裡
辨識一個圓圈的問題也可以分解成辨識一些較小零件的問題

Portuguese: 
Um oito também tem um circulo em cima, mas é pareado com outro circulo embaixo.
Um quatro é basicamente um conjunto de 3 linhas, e por aí vai.
Agora, em um mundo perfeito nós podemos esperar que cada neurônio, da camada oculta até a ultima camada
corresponde à um desses subcomponentes
que sempre que você alimentar com uma imagem com, digamos, um círculo em cima, como um 9 ou um 8
há um neurônio específico
que sua ativação vai ser próxima à um. E eu não quero dizer esse específico círculo de pixels, a ideia é que qualquer
círculo de pixels no topo ativa esse neurônio. Dessa forma,  indo da terceira camada até a última,
só requer aprender qual combinação de subcomponentes corresponde a qual dígito
Claro, isso apenas "adia" o problema,
pois como você reconheceria esses subcomponentes ou até mesmo aprenderia quais devem ser os  subcomponentes corretos? E eu ainda nem conversei sobre
como uma camada influencia a próxima, mas continue comigo nisso por um momento
Reconhecer um círculo pode também ser quebrado em subproblemas

Arabic: 
و 8 لديها أيضا حلقة أعلى، لكنه يقترن بحلقة أخرى فى الأسفل
أما ال4 فهى أساسا تقسم إلى ثلاث خطوط كالتي بالشكل
فى عالم مثالى ربما نأمل أن كل طبقة من الثانية وحتى الأخيرة
تستجيب لواحدة من هذه المكونات
نأمل أنه فى أى وقت تغذيها بصورة بها حلقة فى الأعلى مثل ال9 أو  8
هناك بعض الخلايا العصبية المحددة
التى يكون تفعيلها قريبا من الواحد وأنا لا أعنى حلقة محددة من البكسلات فالأمل أن يكون
أى نمط حلقى عام فى الأعلى قادر على تفعيل الخلايا العصبية بنفس الطريقة التى تتخذها للتعرف على الحلقة
بهذه الطريقة وبمراقبة كيفية التفعيل من الطبقة الثالثة للطبقة الأخيرة للتعرف على أى مزيج من المكونات الفرعية يستجيب مع أى عدد
بالطبع هناك بعض العقبات فى الطريق
إذ كيف يمكنك التعرف على هذه  المكونات الفرعية أو حتى تعلم أيها سيكون صحيحا وأنا لم أتحدث بعد عن الطريقة التى
تؤثر بها الطبقة الواحدة بالطبقة الأخرى لكن جارني  في هذا للحظة
التعرف على حلقة يمكنه أن يقسم أيضا إلى عدة مشكلات صغيرة

Indonesian: 
angka 8 juga memiliki lingkaran di bagian atas, tetapi dipasangkan dengan lingkaran lain ke bawah
A 4 pada dasarnya terurai menjadi tiga garis spesifik dan hal-hal seperti itu
Sekarang di dunia yang sempurna kita mungkin berharap setiap neuron di lapisan kedua hingga terakhir
sesuai dengan salah satu dari sub komponen ini
Itu setiap kali Anda memberi makan gambar dengan mengatakan lingkaran di bagian atas seperti 9 atau 8
Ada beberapa yang spesifik
Neuron yang aktivasi akan menjadi dekat dengan satu dan saya tidak bermaksud ini loop piksel spesifik harapan akan menjadi apa pun
Umumnya pola berliku ke arah atas memicu neuron ini yang pergi dari lapisan ketiga ke yang terakhir
hanya membutuhkan pembelajaran yang kombinasi dari komponen sub sesuai dengan digit
Tentu saja itu hanya menendang masalah di jalan
Karena bagaimana Anda akan mengenali sub komponen ini atau bahkan mempelajari sub komponen yang tepat dan saya masih belum membicarakannya
Bagaimana satu lapisan mempengaruhi yang berikutnya tetapi jalankan dengan saya yang satu ini untuk sesaat
mengenali suatu loop juga dapat terurai menjadi subproblem

Hungarian: 
A 8-as szintén egy karika felül, plusz még egy karika alul.
A 4-est meg lényegében 3 konkrét vonal alkotja, stb.
Namármost egy tökéletes világban remélhetnénk pl. azt, hogy az utolsó előtti rétegben minden neuron
egy ilyen komponensnek felel meg, és 
ha bármikor olyan képet töltünk be, aminek karika van a tetején, pl. 8-ast vagy 9-est
akkor lesz olyan konkrét neuron
aminek az aktivitása közel lesz az egyhez. És persze nem csak egyetlen féle karika, hanem mindenféle
felül elhelyezkedő hurok-szerű mintázat aktivizálja ezt a neuront. Így aztán a harmadik rétegből az utolsóba lépve
csak azt kell megtanulnia, hogy mely részkomponensek kombinációja felel meg egy számjegynek.
Ezzel persze csak kicsit odébbgörgettük a problémát,
Mert hogyan ismerné fel a komponenseket, vagy hogyan tudná, melyikhez melyik szám tartozik, és még mindig nem is beszéltem róla,
hogyan hat egy réteg a következőre, de még egy kicsit időzzünk el itt.
Egy hurok felismerése is tovább bontható.

German: 
Eine 8 hat ebenfalls einen Kreis oben, wird aber mit einem zweiten Kreis darunter kombiniert.
Eine 4 kann im Grunde in drei Linien heruntergebrochen werden - und so weiter.
In einer perfekten Welt könnten wir hoffen, dass jedes Neuron in der zweitletzten Schicht
einem dieser Unterkomponenten entspricht.
Dass also für jedes Bild mit - sagen wir einem Kreis oben, wie bei der 9 oder 8,
ein spezifisches Neuron besteht,
dessen Aktivierung in der Nähe von 1.0 liegt. Und ich meine nicht diesen spezifischen Kreis,
sondern alle Kreis-artigen Muster im oberen Bereich dieses Neuron aktiviert. Somit ist der letzte Schritt
nur noch eine Sache des Lernens, welche Kombinationen von Teilkomponenten welchen Ziffern entspricht.
Natürlich verschiebt dies das Problem nur nach hinten:
Denn wie würden Sie diese Subkomponenten erkennen oder nur schon lernen, was die richtigen Subkomponenten sind, und ich habe noch nicht einmal darüber gesprochen,
wie eine Schicht die nächste beeinflusst. Aber bleiben Sie bei mir für den Moment.
Denn das Erkennen eines Kreises kann auch in Teilschritte aufgetrennt werden.

Italian: 
un 8 ha anche esso un cerchio in alto, ma è abbinato a un altro cerchio in basso
Un 4 fondamentalmente si divide in tre linee e cose altre considerazioni del genere per gli altri numeri
Ora in un mondo perfetto potremmo sperare che ogni neurone nel penultimo strato
corrisponda a uno di questi sotto componenti
Che ogni volta che sottoponi un'immagine con un cerchio in alto come un 9 o un 8
ci siano alcuni specifici
Neuroni la cui attivazione sia vicina a uno e non intendo questo specifico cerchio di pixel la speranza sarebbe che ogni
modello di cerchio in alto inneschi questo neurone in questo modo passando dal terzo strato all'ultimo
è richiesto semplicemente di imparare quale combinazione di sub componenti corrisponda a quale cifra
Ovviamente ciò dà l'avvio al problema
Non ho ancora parlato di come riconoscere questi sub-componenti o addirittura di come imparare quali sono i sotto componenti giusti
Di come uno strato influenza il prossimo ma, seguimi un momento
riconoscere un cerchio è un problema che puo' essere scomposto in sottoproblemi

Turkish: 
bir 8 ayrıca üstten bir ilmek içerir, ancak düşük bir başka ilmekle eşleştirilir
A 4 temel olarak üç özel çizgiye ayrılır ve böyle şeyler
Şimdi kusursuz bir dünyada, ikinci ila son kattaki her nöronun
bu alt bileşenlerden birine karşılık gelir
Bir görüntüyü beslediğinizde, 9 ya da 8 gibi bir döngü yukarı baktığınızı söylerseniz
Bazı özel bilgiler var.
Aktivasyonu birine çok yakın olacak olan nöron ve piksellerin bu belirli döngüsü anlamına gelmiyor umudun
Genellikle tepeye doğru döngüsel desen, bu nöronu üçüncü katmandan sonuncere geçecek şekilde ayarlar
sadece alt bileşenlerin hangi kombinasyonun hangi rakamlara karşılık geldiğini öğrenmek gerekir
Tabii ki bu sadece problemi yola koyuyor
Çünkü bu alt bileşenleri nasıl tanırdınız ya da doğru alt bileşenler hangisinin olması gerektiğini nasıl öğrendiniz ve hala hakkında konuşmadım.
Bir katmanın diğerini nasıl etkilediği ama bir an için benimle birlikte çalıştıracağım
Bir döngüyü tanımak da altproblemlere bölünebilir

Spanish: 
un ocho también tiene un bucle arriba , pero esta emparejado
con otro bucle abajo, un cuatro básicamente está descompuesto
en tres líneas específicas   y cosas como esa.
Ahora, en un mundo perfecto, podrías esperar que cada neurona
en la penúltima capa
correspondiera con uno de estos sub componentes
, que cada vez que alimentas en una imagen digamos
con una curva en la punta, como un nueve o un ocho, hay un
alguna neurona específica cuya activación va a ser
cercana a 1, lo que no estoy diciendo es que este curva específica de pixeles,
la expectativa sería cualquier patrón curvo generalmente
hacia arriba , pone en marcha esta neurona
De esa manera, yendo de la tercera capa
hasta la última solo requiere aprender que
combinación de subcomponentes corresponde al dígito.
Por supuesto, eso solo empeora el problema en el camino, porque
cómo reconoces los subcomponentes
o incluso aprender cuáles deberían ser los subcomponentes
, e incluso, no hemos hablado cómo un capa influye la siguiente,
pero sígueme en esto por un momento, reconocer un bucle
puede también ser dividido en subproblemas

Russian: 
Восьмёрка так же содержит кружок вверху, но и парный ему внизу.
Четвёрка по сути разбивается на три определённых линии, и тому подобное.
И в идеальном мире мы можем ожидать что каждый нейрон из второго слоя и далее
соотносится с одним из этих компонентов.
Что каждый раз когда вы скармливаете картинку, скажем, с кружком наверху, как 9 или 8,
существует определённый нейрон, чья активация станет близка к единице.
И я не имею ввиду этот конкретный набор пикселей,
предполагается что, что угодно, похожее на кружок в верхней части, возбудит этот нейрон.
Таким образом переход от третьего слоя к последнему просто представляет знания о том,
какая комбинация компонентов, какой цифре соответствует.
Конечно это просто перевод стрелок, ведь как распознать эти компоненты,
или даже понять какие компоненты должны присутствовать.
И я всё ещё не сказал как один слой влияет на следующий, но давайте рассмотрим следующее.
Распознавание кружка так же может быть разбито на подзадачи.
Один из разумных способов сделать это заключается в предварительном

Vietnamese: 
8 cũng có một vòng lặp lên hàng đầu, nhưng nó đi kèm với một vòng lặp xuống thấp
Một 4 về cơ bản bị phá vỡ thành ba dòng cụ thể và những thứ tương tự
Bây giờ trong một thế giới hoàn hảo chúng ta có thể hy vọng rằng mỗi tế bào thần kinh trong lớp thứ hai-to-cuối cùng
tương ứng với một trong những thành phần phụ
bất cứ lúc nào mà bạn ăn trong một hình ảnh với nói một vòng lên đầu như một 9 hoặc 8
Có một số cụ thể
Neuron mà kích hoạt sẽ được gần gũi với một và tôi không có nghĩa là vòng lặp cụ thể này của pixel với hy vọng sẽ là bất kỳ
mô hình thường điên rồ đối với bộ đầu ra tế bào thần kinh này mà cách đi từ lớp ba đến người cuối cùng
chỉ đòi hỏi học tập mà sự kết hợp của các thành phần phụ nào tương ứng với chữ số
Tất nhiên đó chỉ là vấn đề đá xuống đường
Bởi vì làm thế nào bạn có thể nhận ra các thành phần phụ hoặc thậm chí tìm hiểu những gì các thành phần phụ phải nên và tôi vẫn chưa thậm chí đã nói về
Làm thế nào một lớp ảnh hưởng đến sau nhưng chạy với tôi trên một này trong chốc lát
công nhận một vòng lặp cũng có thể phá vỡ thành bài toán

Japanese: 
8も上に丸がありますが、下にある他の丸と対になっています
4は基本的に3つの特定の行とそのようなものに分解されます
完璧な世界では、2番目から最後の層の各神経は、これらの副構成品の一つとして対応する
 
それは、あなたが画像を入力する度に、9または8のような上の丸を言います
活性化が１に近づいているいくつの特定の神経があります
私はこの特定の画像の丸を意味するわけではありません。
一般的には、上にある丸のパターンは第3層から最後の層に向かう神経を導きます
サブコンポーネントのどの組み合わせがどの桁に対応するかを学習するだけでよい
もちろん、それは道のりで問題を引き起こすだけです
あなたがこれらのサブコンポーネントをどのように認識するか、あるいは正しいサブコンポーネントがどんなものであるべきかを学ぶことさえあります。私はまだ説明していませんが
どの層が次の層にどのように影響しますか？
丸を認識することは、付随する問題に分解することもできます

Thai: 
8 ยังมีวงขึ้นด้านบน แต่ก็จับคู่กับอีกหนึ่งวงต่ำลง
A 4 โดยทั่วไปแบ่งออกเป็นสามบรรทัดที่เฉพาะเจาะจงและสิ่งที่ต้องการที่
ตอนนี้ในโลกที่สมบูรณ์แบบเราอาจหวังว่าแต่ละเซลล์ประสาทจะอยู่ในชั้นที่สองถึงชั้นสุดท้าย
ตรงกับคอมโพเนนต์ย่อยเหล่านี้
ทุกครั้งที่คุณป้อนข้อมูลในรูปด้วยการพูดว่าห่วงขึ้นด้านบนเช่น 9 หรือ 8
มีบางอย่างที่เฉพาะเจาะจง
Neuron ที่มีการเปิดใช้งานกำลังจะใกล้เคียงกับหนึ่งและฉันไม่ได้หมายถึงวงพิกเซลที่เฉพาะเจาะจงนี้หวังว่าจะเป็นที่ใด
รูปแบบ loopy โดยทั่วไปไปทางด้านบนจะตั้งเซลล์ประสาทชนิดนี้ออกจากชั้นที่ 3 เป็นครั้งสุดท้าย
เพียงต้องการการเรียนรู้ซึ่งการรวมส่วนประกอบย่อยสอดคล้องกับตัวเลขใด
แน่นอนว่าเพียงแค่เตะปัญหาลงที่ถนน
เนื่องจากคุณจะจำแนกองค์ประกอบย่อยเหล่านี้ได้อย่างไรหรือเรียนรู้ว่าองค์ประกอบย่อยที่ถูกต้องควรเป็นอย่างไรและฉันยังไม่ได้พูดถึงเรื่องนี้
ชั้นหนึ่งมีอิทธิพลต่อสิ่งใดต่อไป แต่ให้วิ่งไปกับฉันในช่วงนี้สักครู่
ตระหนักถึงห่วงยังสามารถแบ่งย่อยเป็นปัญหาย่อยได้

Korean: 
8은 동그라미가 똑같이 위에 있지만 아래에도 동그라미가 있습니다.
4는 세개의 직선으로 이루어지며 이런 모양이 될 것입니다.
이상적으로는 두 번째 층의 각 뉴런들이 이러한 '부분'들에 대해 대응하길 원하죠.
동그라미가 위에 있는 9나 8같은 숫자를 넣었을 때
이상적으로는 특정한 뉴런의 활성치가 1에 가까워질겁니다.
물론 동그라미가 들어가 있는 모든 경우에 이 신경이 활성화 되길 바라는 것은 아닙니다.
이런식으로 하면 세 번째 층에서 마지막 층으로 갈 때에는 어떤 부분들의 결합이 어떤 숫자를 가르키는지만 보면 충분하겠죠.
물론 이러한 과정은 '어떻게 각각의 부분들을 어떻게 인지할 것인가?' 혹은 '어떠한 위치에 있어야 하는가?'
아직 한 층에서의 활성화가 어떻게 다음 층의 활성화로 진행하는 과정에 대해 말하지 않았지만,
이 문제에 대해 잠시 생각해봅시다.
동그라미를 인식하는 것 또한 부가적인 질문들을 품게 합니다.

Polish: 
8 ma również pętlę do góry, ale jest sparowana z kolejną niską pętlą
A 4 zasadniczo dzieli się na trzy konkretne linie i takie rzeczy
Teraz w idealnym świecie możemy mieć nadzieję, że każdy neuron w drugiej i ostatniej warstwie
odpowiada jednemu z tych podelementów
To zawsze, gdy karmisz obraz, powiedzmy, że pętla jest na górze jak 9 lub 8
Jest jakiś konkretny
Neuron, którego aktywacja będzie zbliżona do jednej i nie mam na myśli tej konkretnej pętli pikseli, która byłaby nadzieją, że jakakolwiek
Zasadniczo, pętla w kierunku góry powoduje, że neuron przechodzi z trzeciej warstwy na ostatnią
wymaga jedynie nauki, która kombinacja pod-elementów odpowiada której cyfrze
Oczywiście, że po prostu kopie problem w dół drogi
Bo jak rozpoznałbyś te podskładniki, a nawet dowiedziałbyś się, jakie powinny być właściwe pod-komponenty, a ja wciąż jeszcze o tym nie rozmawiałem
Jak jedna warstwa wpływa na następną, ale działa ze mną przez chwilę
rozpoznanie pętli może również rozbić się na podproblemy

French: 
Un 9 a aussi une boucle en haut, mais il y a une autre boucle plus bas.
Un 4 est simplement séparé en trois lignes spécifiques, etc.
Dans un monde idéal, on pourrait espérer que chaque neurone de la troisième couche
corresponde avec une de ces formes simples.
Et que chaque fois que vous lui donnez une image, disons une boucle en haut comme dans un 8 ou un 9,
Il y a certains
neurones spécifiques dont l'activation sera proche de 1. Et je ne parle pas de cette boucle spécifique, mais que
n'importe quel motif de boucle vers le haut de l'image active ce neurone. De cette façon, passer de la troisième à la dernière couche
ne requiert qu'un apprentissage de "Quelle combinaison de formes correspond à quel chiffre".
Bien sûr, cela ne fait que reporter le problème autre part, puisque
comment pourrions-nous reconnaître ces formes ou même apprendre quelles formes sont censées êtres les bonnes. Et je n'ai même pas parlé
de "Comment une couche influence la suivante". Mais faites-moi confiance pour le moment.
Reconnaître une boucle peut aussi être simplifié en sous-problèmes.

Chinese: 
8 就是上边一个圈 搭着下边一个圈
4 就当能拆分成3条直线  诸如此类
在理想的情况下 我们希望倒数第二层中的各个神经元
能分别对应上一个笔画部件
这样一来 当我们输入一个9或者8这种带圈的数字时
某一个神经元中的激活值就会接近1
而且我并不特指某种样子的圈
我是希望 所有这种位于图像顶部的圆圈图案都能点亮这个神经元
这样一来 从第三层到最后一层
我们只需要学习哪些部件能组合出哪个数字即可
当然 这样一来我们就引来了更多的问题
例如  要如何识别这些部件呢
甚至哪些部件才算正确的呢
而且我还没提到上一层网络是如何影响下一层的
不过暂时请先陪我把话题讨论完
识别圆圈的任务同理可以拆分成更细微的问题

Russian: 
распознавании различных маленьких граней из которых он образован.
Аналогично длинная черта, подобная той что есть в цифрах 1, или 4, или 7,
это всего лишь длинная грань,
или её можно представить определённым шаблоном из нескольких меньших граней.
Так что, ВОЗМОЖНО, мы надеемся что каждый нейрон из второго слоя сети
сопоставляется с различными релевантными меленькими гранями.
Возможно, когда на вход поступает картинка вроде этой,
она зажигает все нейроны, ассоциированные с примерно 8 - 10 определёнными небольшими гранями,
которые, в свою очередь, зажигают нейроны, ассоциированные с кружком вверху и длинной вертикальной чертой,
а те зажигают нейрон ассоциированный с девяткой.
Будет ли в конце концов так действовать наша сеть или нет, это другой вопрос.
К которому я вернусь, когда мы увидим как обучается сеть.
Но это может быть нашим ориентиром, своего рода целью для такой слоёной структуры.
Более того, представьте как такое определение граней и шаблонов

Czech: 
Jedním z možných způsobů, jak to udělat, je nejprve rozpoznat různé malé čárky, které ji tvoří
Také můžeme rozpoznat dlouhou čáru, jako je na číslicích 1, 4 nebo 7
To je vlastně jen delší čárka, nebo to můžeme považovat za sled několika malých čárek
Doufáme tedy, že každý neuron v druhé vrstvě sítě
bude odpovídat různým relevantním malým čárkám
Možná, že když přijde takovýto obrázek, rozsvítí se všechny neurony
odpovídající přibližně osmi až deseti specifickým malým čárkám,
díky čemuž se zapnou neurony spojené se smyčkou nahoře a dlouhou svislou linií, a
ty rozsvítí neuron znamenající devítku
Otázka je, jestli výsledná
síť se doopravdy tak chová. Ale to prověříme až potom, co si ukážeme, jak probíhá učení sítě
Ale zatím doufáme, že to tak bude, proto jsme síť takto složili z několika vrstev
Jak si dokážete představit, schopnost rozpoznat hrany a vzory v obraze bude užitečná i pro další úlohy rozpoznávání obrazu

Spanish: 
una manera razonable de hacer esto sería primero
reconocer los varios bordes pequeños que  lo forman
Similarmente, una línea larga como la que podrías ver en el 1
o 4 o 7 bueno,
esas realmente solo un largo borde ,  o podrías pensarlas
como cierto patrón de pequeños bordes
Asi qué,
quizás, la expectativa
de que cada neurona de la segunda capa de la red corresponda
con varios pequeños bordes.
Quizás cuando una imagen  como esta aparezca,
prenda todas las neuronas asociadas con alrededor de  8 a 10
pequeños bordes específicos
que después prenden las neuronas asociadas con el bucle superior
y una larga línea vertical, y  que esas neuronas prendan las neuronas asociadas con el nueve
sea o no esto lo que nuestra red final haga
es otra pregunta,  regresaré  una vez
veamos como entrenar un red, pero esta
es un expectativa que podríamos tener , un tipo de meta con una estructura de capas como esta
 
Además puedes imaginar cómo  ser capaz de detectar bordes
y patrones como este sería  realmente útil

Portuguese: 
Uma maneira razoável de se fazer isso seria primeiro reconhecer as várias pequenas "bordas" que compõem esse.
Similarmente, uma longa linha como você deve ter visto nos dígitos 1, 4 ou 7.
Bom, isso é apenas uma grande "borda". Ou talvez você pensa isso como um certo padrão de várias "bordas" menores.
Então, talvez, nós esperamos que cada neurônio na segunda camada da rede
corresponde com as várias relevantes pequenas "bordas"
Talvez, quando uma imagem como essa aparece, todos os neurônios associados
com cerca de oito à dez pequenas "bordas" são ativados.
que por sua vez ativa os neurônios associados com o círculo de cima e a longa linha vertical
E esses ativam o neurônio associado com o nove.
Se é isso ou não é
o que nossa rede realmente faz é outra pergunta. Uma que retornará uma vez que nós vejamos como treinar uma rede neural.
Mas isso é o que podemos estar esperando.
Além do mais, você pode imaginar  como sendo apto a detectar bordas e padrões como este seria realmente útil para outras tarefas de reconhecimento de imagem.

Vietnamese: 
Một cách hợp lý để làm điều này là lần đầu tiên nhận ra các cạnh nhỏ khác nhau mà làm cho nó lên
Tương tự như vậy một đường dài như các loại bạn có thể thấy trong các chữ số 1 hoặc 4 hoặc 7
Vâng đó là thực sự chỉ là một cạnh dài hoặc có thể bạn nghĩ về nó như một khuôn mẫu nhất định của nhiều cạnh nhỏ
Vì vậy, có lẽ hy vọng của chúng tôi là mỗi tế bào thần kinh trong lớp thứ hai của mạng
tương ứng với nhiều cạnh ít liên quan
Có lẽ khi một hình ảnh như thế này do thỏa thuận hợp nó sáng lên tất cả các tế bào thần kinh
gắn liền với khoảng tám đến mười cạnh ít cụ thể
mà lần lượt sáng lên các tế bào thần kinh liên quan đến vòng lặp trên và một đường thẳng đứng dài và
Những ánh sáng lên các tế bào thần kinh liên kết với một chín
có hay không
Đây là những gì mạng chính thức của chúng tôi thực sự không là một câu hỏi, một trong đó tôi sẽ trở lại một lần chúng ta thấy làm thế nào để đào tạo mạng
Nhưng đây là một hy vọng rằng chúng tôi có thể có. Một loại mục tiêu với cấu trúc lớp như thế này
Hơn nữa bạn có thể tưởng tượng như thế nào có thể phát hiện các cạnh và các mẫu như thế này sẽ thực sự hữu ích cho các nhiệm vụ nhận dạng hình ảnh khác

Indonesian: 
Satu cara yang masuk akal untuk melakukan ini adalah dengan mengenali berbagai sisi kecil yang membuatnya
Demikian pula garis panjang seperti jenis yang mungkin Anda lihat di digit 1 atau 4 atau 7
Nah itu benar-benar hanya tepi panjang atau mungkin Anda menganggapnya sebagai pola tertentu dari beberapa sisi yang lebih kecil
Jadi mungkin harapan kami adalah setiap neuron di lapisan kedua jaringan
sesuai dengan berbagai sisi kecil yang relevan
Mungkin ketika gambar seperti ini muncul di dalamnya menyala semua neuron
terkait dengan sekitar delapan hingga sepuluh tepian kecil tertentu
yang pada gilirannya menyalakan neuron yang terkait dengan loop atas dan garis vertikal panjang dan
Mereka menyalakan neuron yang terkait dengan sembilan
apakah atau tidak
Inilah yang sebenarnya dilakukan oleh jaringan kami yang terakhir adalah pertanyaan lain, yang akan saya kembalikan setelah kita melihat cara melatih jaringan
Tetapi ini adalah harapan yang mungkin kita miliki. Semacam tujuan dengan struktur berlapis seperti ini
Selain itu, Anda dapat membayangkan bagaimana kemampuan mendeteksi tepi dan pola seperti ini akan sangat berguna untuk tugas pengenalan gambar lainnya

Modern Greek (1453-): 
Ένας λογικός τρόπος να γίνει αυτό θα ήταν να αναγνωρίσουμε πρώτα τις διάφορες μικρές ακμές που τον συνθέτουν.
Παρομοίως, μία μακριά γραμμή, όπως αυτή στα ψηφία 1, 4 ή 7.
Λοιπόν, αυτή είναι απλά μια μακριά ακμή, ή μπορείτε και αυτήν να τη σκεφτείτε σαν μια ακολουθία πολλών μικρότερων ακμών.
Άρα ίσως να ελπίζουμε ότι κάθε νευρώνας στο δεύτερο στρώμα του δικτύου,
αντιστοιχεί στις διάφορες μικρές ακμές.
Ίσως όταν μπαίνει μια εικόνα σαν κι αυτήν, να ενεργοποιούνται όλοι οι νευρώνες
που αντιστοιχούν σε περίπου 8 με 10 συγκεκριμένες μικρές ακμές,
που με τη σειρά τους ενεργοποιούν τους νευρώνες για τον πάνω κύκλο και για μία μακριά κάθετη γραμμή,
και μετά αυτοί ενεργοποιούν τον νευρώνα που αντιστοιχεί στο 9.
Το αν είναι ή όχι
αυτή η πραγματική λειτουργία του τελικού μας δικτύου, είναι μια άλλη ερώτηση, στην οποία θα αναφερθώ όταν δούμε το πώς γίνεται η εκπαίδευση του δικτύου.
Ίσως όμως αυτή να είναι μία ελπίδα μας. Κάτι σαν στόχος για το πώς θα είναι η δομή των στρωμάτων.
Επιπλέον, σκεφτείτε το πώς η δυνατότητα ανίχνευσης ακμών και μοτίβων σαν αυτά θα ήταν πολύ χρήσιμη σε άλλα προβλήματα αναγνώρισης εικόνας.

Thai: 
วิธีหนึ่งที่สมเหตุสมผลในการทำเช่นนี้คือการจำแนกขอบเล็ก ๆ ต่างๆที่ทำให้เกิดขึ้นได้
เช่นเดียวกับเส้นยาวเช่นเดียวกับที่คุณอาจเห็นในตัวเลข 1 หรือ 4 หรือ 7
ดีที่จริงๆเพียงขอบยาวหรือบางทีคุณอาจคิดว่ามันเป็นรูปแบบบางส่วนของขอบเล็ก ๆ
บางทีความหวังของเราก็คือเซลล์ประสาทแต่ละตัวอยู่ในชั้นที่สองของเครือข่าย
สอดคล้องกับขอบเล็ก ๆ ที่เกี่ยวข้อง
บางทีเมื่อภาพเช่นนี้มาในนั้นไฟขึ้นทั้งหมดของเซลล์ประสาท
ที่เกี่ยวข้องกับรอบแปดถึงสิบเฉพาะขอบเล็ก ๆ
ซึ่งจะหมุนเวียนเซลล์ประสาทที่เกี่ยวข้องกับวงบนและเส้นแนวตั้งยาวและ
ผู้ที่สว่างขึ้นเซลล์ประสาทที่เกี่ยวข้องกับเก้า
ไม่ว่าจะเป็น
นี่คือสิ่งที่เครือข่ายสุดท้ายของเรามีอยู่จริงคือคำถามหนึ่งที่เราจะกลับมาดูเมื่อเราดูวิธีการฝึกอบรมเครือข่าย
แต่นี่เป็นความหวังที่เราอาจมี การจัดเรียงของเป้าหมายที่มีโครงสร้างแบบชั้นเช่นนี้
นอกจากนี้คุณสามารถจินตนาการได้ว่าการตรวจจับขอบและรูปแบบเช่นนี้จะเป็นประโยชน์อย่างแท้จริงสำหรับงานการจดจำภาพอื่น ๆ หรือไม่

Japanese: 
これを行うための1つの合理的な方法は、最初にそれを構成する様々な小さな端を認識することです
同様に、数字1または4または7において、そのような長い線をみる事でしょう
まあ、それは実際には長いエッジか多分あなたはいくつかの小さなエッジの特定のパターンとしてそれを考える
だから、私たちの希望は、ネットワークの第2層の各ニューロン
様々な関連する小さなエッジに対応する
たぶん、このような画像が入ってくると、すべてのニューロンが点灯します
約8〜10個の特定の小さなエッジに関連する
それは上のループに関連するニューロンと長い垂直線を点灯させ、
それらは9つのニューロンに関連している
それとも
これが私たちの最終的なネットワークが実際にやっていることです。もう一つの質問です。ネットワークを鍛える方法を見たら、私は戻ってきます。
しかし、これは私たちが持つ可能性のある希望です。このような階層構造の目標
さらに、このようなエッジやパターンをどのように検出することが他の画像認識タスクにとって本当に役に立つか想像することができます

Hungarian: 
Ennek egyik ésszerű módja az lenne, hogy először felismerjük a különböző kis éleket, amelyek felépítik.
Hasonlóképpen azt a hosszú vonalat, ami az 1-es, 4-es és 7-es számjegyekben is szerepel,
is tekinthetjük egy hosszú élnek, vagy akár több kisebb él meghatározott mintázatának is.
Szóval talán reménykedhetünk pl. abban, hogy a második réteg minden neuronja
ezeknek a kis meghatározott éleknek felel meg.
Lehet, hogy amikor ez a kép érkezik be, az összes olyan neuron tüzel
amely ezt a nyolc-tíz egyedi kis élt reprezentálja, 
amelyek aktiválják a felső hurokhoz és a hosszú függőleges vonalhoz kapcsolódó neuronokat,
Amelyek végül a 9-eshez tartozó neuront kapcsolják be.
Az már más kérdés,
hogy ez tényleg így zajlik-e le a hálózatunkban - de erre még visszatérek, miután megnéztük, hogyan kell betanítani a hálózatot.
De ettől még persze reménykedhetünk benne, hogy ez ennek a réteges felépítésnek a célja.
Ráadásul gyanús, hogy a szélek és minták ilyesféle felismerése nagyon jól jönne más képfelismerési feladatokhoz is.

Chinese: 
一种合理的方法便是首先识别出数字图形中更小的边
比如像1  4  7中的这种长条
就是一条长边嘛
或者把它当做几条短边组合起来的图案也可以
于是我们希望 也许网络第二层的各个神经元
就能对应上这些各种各样的短边
没准当这样子的图像输入进来的时候
它就能把所有关联短边的八到十个神经元都给点亮
接着就能点亮对应顶部圆圈和长竖条的神经元
最后就能点亮对应9字的神经元
至于咱们的网络是否真的能做到这一步
等我解释完网络如何训练 再来回头讨论吧
但这就是我们的希望
希望这种层状结构能完成的目标
更进一步讲 假如神经网络真能识别出这类边缘和图案

German: 
Eine vernünftige Art dies zu tun wäre, zunächst verschiedene kleine Kanten zu erkennen.
Diese ähneln den längeren Strichen wie sie bspw. in den Zahlen 1, 4 oder 7 vorkommen.
Nun, das sind wirklich nur länge Kanten. Stellen Sie sich also vor, dass bestimmtes Muster aus mehreren kleineren Kanten bestehen.
Somit wäre unsere Hoffnung, dass jedes Neuron in der zweiten Schicht des Netzes
mit verschiedenen relevanten Kanten der ersten Schicht korrespondiert.
Wenn also ein Bild w ie dieses hier verwendet wird, werden alle Neuronen aktiviert,
welche mit etwa acht bis zehn spezifischen Kanten verbunden sind.
welche wiederum die zugehörigen Neuronen der oberen Schleife und einer langen vertikalen Linie aktiviert
und diese aktivieren schlussendlich die Neuronen, welche mit der 9 assoziiert werden.
 
Ob unser endgültiges Netzwerk dies tatsächlich so macht, ist eine andere Frage, auf welche ich zurückkommen werde, wenn wir das Netzwerk trainieren.
Aber das ist eine Hoffnung, welche wir haben könnten. Eine Art Zielvorstellung einer Schichtenstruktur.
Außerdem können Sie sich vorstellen, wie das Erkennen dieser Kanten und Muster auch für andere Bilderkennungsaufgaben nützlich sein könnte.

Portuguese: 
Uma maneira razoável de fazer isso seria primeiro reconhecer as várias pequenas arestas que compõem
Da mesma forma, uma linha longa como o tipo que você pode ver nos dígitos 1 ou 4 ou 7
Bem, isso é realmente apenas uma borda longa ou talvez você pense nisso como um certo padrão de várias bordas menores
Então, talvez a nossa esperança é que cada neurônio na segunda camada da rede
corresponde com as várias pequenas arestas relevantes
Talvez quando uma imagem como esta venha iluminar todos os neurônios
associado com cerca de oito a dez pequenas arestas específicas
que, por sua vez, acende os neurônios associados ao laço superior e uma longa linha vertical e
Aqueles acendem o neurônio associado a nove
independente da resposta
Isto é o que a nossa rede final realmente faz é outra questão, a qual eu voltarei depois de vermos como treinar a rede
Mas esta é uma esperança que poderíamos ter. Uma espécie de objetivo com a estrutura em camadas como esta
Além disso, você pode imaginar como ser capaz de detectar bordas e padrões como esses seria realmente útil para outras tarefas de reconhecimento de imagem.

Korean: 
한 가지 합리적인 방법은 여러개의 작은 부분으로 나누어서 인식하는 것입니다.
비슷한 방식으로 1,4,7에서 볼 수 있는 기다란 선은..
이건 그냥 긴 선이라서 짧은 선 여러개로 쪼갤 수 있다고 생각할 수 있습니다.
그래서 어쩌면 두 번째 층에 위치한 뉴런들이
수 많은 자그마한 조각들에 대응된다고 생각할 수 있습니다.
예를 들어서 이런 사진이 들어왔을 때
이 그림과 관련되어 있는 8개에서 10개에 이르는 뉴런들을 활성화 시킨 다음에
위에는 동그라미, 밑에는 수직선과 관련된 뉴런을 활성화 시킵니다.
그리고 이렇게 활성화된 뉴런들은 9로 이어집니다.
최종적으로 이 신경망이 이렇게 행동하는지는 또다른 문제입니다.
일단 신경망을 어떻게
훈련시키는지에 대해 알아보겠습니다.
이렇게 층의 구조를 갖게 하는 것이 우리가 원하는 것이죠.
이러한 방식으로
일정한 형태나 테두리를 알아내는 것은

Italian: 
Un modo ragionevole per farlo sarebbe riconoscere innanzitutto i vari piccoli bordi che lo compongono
Allo stesso modo per una linea lunga come quella che potresti vedere nelle cifre 1 o 4 o 7
Beh, questo è solo un lungo tratto, ma potresti pensarlo come un tratto diviso in parti più piccole
Quindi la nostra speranza è che ogni neurone nel secondo strato della rete
corrisponda ai vari piccoli tratti rilevanti
Forse quando arriva un'immagine come questa, si accendono tutti i neuroni
associati a circa otto o dieci tratti specifici
che a sua volta illumina i neuroni associati al cerchio in alto e una lunga linea verticale e
Quelli illuminano il neurone associato a un nove
 
se questo è ciò che fa effettivamente la nostra rete finale è un'altra domanda, su cui tornerò una volta che vedremo come addestrare la rete.
Ma questa è una speranza che potremmo avere, una sorta di obiettivo con una struttura a strati come questa.
Inoltre puoi immaginare come essere in grado di rilevare bordi e motivi come questi sarebbe davvero utile per altre attività di riconoscimento dell'immagine

Polish: 
Jednym rozsądnym sposobem na to byłoby najpierw rozpoznać różne małe krawędzie, które go tworzą
Podobnie długa linia, taka jak ta, którą możesz zobaczyć w cyfrach 1, 4 lub 7
Cóż, to naprawdę długa krawędź, a może uważasz ją za pewien wzór kilku mniejszych krawędzi
Więc może naszą nadzieją jest to, że każdy neuron w drugiej warstwie sieci
odpowiada różnym odpowiednim małym krawędziom
Może kiedy taki obraz pojawi się w środku, zapali wszystkie neurony
związane z około ośmiu do dziesięciu określonych małych krawędzi
co z kolei włącza neurony powiązane z górną pętlą i długą pionową linią i
Te rozświetlają neuron związany z dziewięcioma
niezależnie od tego, czy
Tak właśnie działa nasza ostatnia sieć, to kolejne pytanie, do którego wrócę, gdy zobaczymy, jak szkolić sieć
Ale to jest nadzieja, którą możemy mieć. Rodzaj celu z warstwową strukturą w ten sposób
Co więcej, możesz sobie wyobrazić, że rozpoznawanie krawędzi i wzorów może być przydatne w innych zadaniach związanych z rozpoznawaniem obrazów

Arabic: 
إحدى الطرق المعقولة للقيام بهذا هى أن تتعرف أولا على الحواف الصغيرة المختلفة التى تكونها
بالمثل الخط الطويل كالذى ربما تراه فى الرقم 1 أو 4 أو 7
ليس سوى حافة طويلة أو ربما تفكر به على أنه نمط محدد من عدة حواف صغيرة متعددة
لذا أملنا أنه ربما كل خلية عصبية فى الطبقة الثانية من الشبكة
تستجيب مع مختلف الحواف الصغيرة ذات الصلة
ربما عندما تغذى بصورة كهذه تقوم بتفعيل جميع الخلايا العصبية
المرتبطة بحوالي ثمانية إلى عشرة حواف صغيرة محددة
والتي بدورها تضيء الخلايا العصبية المرتبطة بالحلقة العليا والخط العمودي الطويل
وهؤلاء يفعلون الخلية المرتبطة بالرقم 9
سواء كان ذلك ما تفعله الشبكة فعلا أو لا هو سؤال آخر ..
سأعود إليه بمجرد أن نرى كيف يمكننا تدريب الشبكات
ولكن هذا نوع ما من الأمل نوع من الهدف مع طبقات مهيكلة كهذه
علاوة على ذلك يمكنك أن تتخيل كيف يمكن أن تكون القابلية لتحديد هذه الحواف والأنماط مفيدة فى مهمات أخرى للتعرف على الصور

Chinese: 
一個合理的方法是認出組成它的各式各樣的邊
同樣的道理，你在數字 1，4 或者 7 中所看到的一條長線
真的就是好幾小條的短線，根據特定筆畫順序，組合成的長線
所以我們期望在這網絡第二層
對應著各式各樣的一些小邊
也許出現一個像這樣的一個圖像就點亮
所有大約有 8 到 10 種有關的特定神經元
它接著點亮後上方的圓圈和一根垂直的長線以及點亮和一條線相聯的神經元
最後點亮數字 9 的神經元
不管這個是不是我們最終的網絡實際上的實施是另一個問題
這個我們在知道怎樣了訓練網絡之後我在回過來講
但至少我們可能有點希望
像是一種以這樣分層結構為目標的

Persian: 
یکی از راه های معقول برای انجام این کار این است که ابتدا لبه های مختلف کمی را تشخیص می دهد که باعث ایجاد آن می شود
به طور مشابه یک خط طولانی مانند نوعی که ممکن است در رقم 1 یا 4 یا 7 مشاهده کنید
خوب این واقعا یک لبه طولانی است یا شاید شما آن را به عنوان یک الگوی خاص از چند لبه کوچکتر تصور کنید
بنابراین شاید امید ما این باشد که هر نورون در لایه دوم شبکه
متناظر با لبه های کوچک مختلف مربوطه است
شاید زمانی که یک تصویر مانند این یکی در می آید شبکه همه نورون ها را روشن می کند
همراه با حدود هشت تا ده لبه خاص خاص
که به نوبه خود نورون های مرتبط با حلقه بالا و یک خط عمودی طولانی را روشن می کنند و
آنهایی که نورون را با یک 9 را روشن می کنند
چرا که نه
این همان چیزی است که شبکه نهایی ما در واقع انجام می دهد، یک سوال دیگر وجود دارد، که من می توانم ببینم چگونه می توانم شبکه را آموزش دهم
اما این یک امیدواری است که ما ممکن است داشته باشیم. نوعی هدف با ساختار لایه ای مانند این
علاوه بر این شما می توانید تصور کنید که چگونه قابلیت تشخیص لبه ها و الگوهای مانند این واقعا برای دیگر وظایف تشخیص تصویر مفید است

Turkish: 
Bunu yapmanın makul bir yolu, ilk önce onu oluşturan çeşitli küçük kenarları tanımaktır
Benzer şekilde, 1 veya 4 veya 7 rakamlarında görebileceğiniz türde uzun bir çizgi
Bu gerçekten çok uzun bir kenardır ya da belki biraz daha küçük kenarların belirli bir deseni olarak düşünebilirsiniz
Belki de umudumuz şebekenin ikinci katındaki her nöronun
ilgili çeşitli küçük kenarlarla karşılık gelir
Belki böyle bir görüntü geldiğinde tüm nöronları aydınlatır
yaklaşık sekiz ila on özel küçük kenarlar
sırayla üst halkayla ilişkili nöronları ve uzun dikey bir hattı aydınlatır ve
Dokuz kişiyle ilişkili nöronu aydınlatıyorlar.
öyle ya da böyle
Nihai ağımızın yaptığı budur, başka bir soru, bir tanesini ağın eğitimini nasıl öğrendiğimize göre tekrar geleceğiz
Ancak bu umudumuz olabilir. Böyle katmanlı bir yapıya sahip bir çeşit gol
Üstelik bunun gibi kenarları ve desenleri algılayabilmenin diğer resim tanıma görevleri için gerçekten yararlı olacağını hayal edebiliyorsunuz

English: 
One reasonable way to do this would be to first recognize the various little edges that make it up
Similarly a long line like the kind you might see in the digits 1 or 4 or 7
Well that's really just a long edge or maybe you think of it as a certain pattern of several smaller edges
So maybe our hope is that each neuron in the second layer of the network
corresponds with the various relevant little edges
Maybe when an image like this one comes in it lights up all of the neurons
associated with around eight to ten specific little edges
which in turn lights up the neurons associated with the upper loop and a long vertical line and
Those light up the neuron associated with a nine
whether or not
This is what our final network actually does is another question, one that I'll come back to once we see how to train the network
But this is a hope that we might have. A sort of goal with the layered structure like this
Moreover you can imagine how being able to detect edges and patterns like this would be really useful for other image recognition tasks

French: 
Une manière raisonnable de faire ça serait de d'abord reconnaître les différentes petites bordures qui la composent
De la même façon qu'une longue ligne comme dans les chiffres 1, 4 ou 7.
C'est simplement une longue bordure. Ou bien on peut le voir comme une association de petits traits.
Donc peut-être que notre espoir est que chaque neurone de la deuxième couche du réseau
corresponde à ces différents petits traits.
Peut-être que lorsqu'une image comme celle-ci arrive, elle active tous les neurones
associés avec à peu près 8 à 10 petits traits spécifiques
qui en retour activent les neurones associés avec la boucle d'en haut et la longue ligne verticale,
et ceux-ci activent le neurone associé au 9 !
Que ceci soit
ou non ce que notre réseau fera est une autre question, que je traiterai une fois que nous aurons vu comment entraîner le réseau.
Mais c'est un espoir qu'on peut avoir, une sorte de but avec cette structure en couches.
De plus, vous pouvez imaginer qu'être capable de reconnaître des petits traits comme ceci, serait très utile pour la reconnaissance d'autres images.

German: 
Und auch über Bilderkennung hinaus, gibt es alle Arten von intelligenten Dingen, die Sie in Abstraktionsebenen herunterbrechen könnten.
Sprachanalyse zum Beispiel beinhaltet die Verwendung roher Audiodaten und aus welchen markante Klänge und daraus wiederum Silben gewonnen werden.
Diese werden zu Wörtern kombiniert, welche Sätze bilden und abstraktere Gedanken ausdrücken, usw.
Zurück dazu, wie das alles tatsächlich funktioniert. Stellen Sie sich vor den Prozess zu gestalten.
Wie genau könnte die Aktivierungen in einer Schicht die Aktivierungen in den nächsten bestimmen?
Das Ziel ist es, einen Mechanismus zu haben, welcher Pixel zu Kanten kombinieren kann.
Oder Kanten zu Mustern oder Muster zu Ziffern. Schauen wir uns das mal an einem ganz bestimmten Beispiel an:
Versuchen wir mal für ein ganz bestimmtes
Neuron der zweiten Schicht zu prüfen, ob oder nicht das Bild eine Kante in dieser Region hat.
Die zentrale Frage ist, welche Parameter sollte das Netzwerk haben und welche Grössen

Hungarian: 
És még a képfelismerésen túl is mindenféle intelligens dolog lebontható több absztrakciós rétegre.
A beszédfelismerés például a nyers hanganyagból a különféle hangok kiválasztását jelenti, amelyek egyes szótagokat építenek fel,
melyek együttese szavakat alkot, melyek együttese pedig kifejezéseket és absztrakt gondolatokat stb.
De térjünk vissza arra, hogy mindez hogy is működik. Képzeld el, 
hogy azt tervezed éppen meg, hogyan határozza meg egy réteg aktivitása a következő rétegét.
A cél létrehozni egy olyan mechanizmust, amely elképzelhetően kombinálja a képpontokat élekbe,
vagy éleket mintákba vagy mintákat számjegyekbe. Vegyünk egy jól meghatározott esetet:
Tegyük fel, hogy azt próbáljuk elérni,
hogy a második réteg egyik neuronja meg tudja mondani, hogy van-e itt él vagy sem.
A kérdés az, hogy milyen paraméterek kellenek a hálózatnak ahhoz,

Portuguese: 
E, mesmo além do reconhecimento de imagens, existem todos os tipos de coisas inteligentes que você pode querer fazer e que se dividem em camadas de abstração.
O discurso de análise, por exemplo, envolve a obtenção de áudio bruto e a seleção de sons distintos, que se combinam para produzir determinadas sílabas.
Que se combinam para formar palavras que se combinam para formar frases e pensamentos mais abstratos, etc.
Mas voltando a como tudo isso realmente funciona imagine-se agora projetando
Como exatamente as ativações em uma camada podem determinar as ativações na próxima?
O objetivo é ter algum mecanismo que possa combinar pixels em bordas
Ou bordas em padrões ou padrões em dígitos e para ampliar em um exemplo muito específico
Vamos dizer que a esperança é para um particular
Neurônio na segunda camada para saber se a imagem tem ou não uma borda nessa região aqui
A questão em questão é quais parâmetros a rede deve ter

English: 
And even beyond image recognition there are all sorts of intelligent things you might want to do that break down into layers of abstraction
Parsing speech for example involves taking raw audio and picking out distinct sounds which combine to make certain syllables
Which combine to form words which combine to make up phrases and more abstract thoughts etc
But getting back to how any of this actually works picture yourself right now designing
How exactly the activations in one layer might determine the activations in the next?
The goal is to have some mechanism that could conceivably combine pixels into edges
Or edges into patterns or patterns into digits and to zoom in on one very specific example
Let's say the hope is for one particular
Neuron in the second layer to pick up on whether or not the image has an edge in this region here
The question at hand is what parameters should the network have

French: 
Et au-delà de la reconnaissance d'images, il y a des millions de choses que vous pouvez réduire en couches abstraites.
L'analyse de la parole par exemple implique de prendre un audio brut et de le décomposer en sons distincts qui se combinent en syllabes,
qui se combinent pour faire des mots, puis des phrases, des idées plus abstraites etc.
Mais pour en revenir à comment tout ceci marche, imaginez-vous décider
comment les activations d'une couche pourraient déterminer les activations de la suivante.
Le but est d'avoir un mécanisme qui pourrait combiner les pixels en traits
ou des traits en motifs, ou des motifs en chiffres. Et pour prendre un exemple très spécifique,
disons que l'espoir est pour un neurone
particulier de la deuxième couche de savoir si l'image a ou non un trait dans cette région ici.
La question est "Quels paramètres devrait avoir le réseau".

Chinese: 
你可以進一步想像怎樣能來檢測像這樣的邊和式樣對其他的圖像識別功能真是有用的
並甚至在圖像識別之外做各種各樣智能的東西也許你也想分解成一些抽象的層
例如句子的分析涉及到把原始的語音提出一些獨特的聲音構成一些音節再構成
詞再構成詞組以及更為抽象的思想等。
但回到這些實際是怎樣工作的把你自己現在就放到這個的情景怎樣來設計
如何在讓這層中的激勵函數可以決定下一層的激勵函數呢？
這目標是有一些機能它想起來可以集中到一個特定的樣本來把一些像素結合成
邊或者把邊結合成式樣或者式樣成爲數字
在這個特別的例子裡面
我們希望第二層的這一個神經元
可以正確的辨識出這個圖像裡有沒有一條邊
現在我們想知道的是網路裡有哪些參數

Polish: 
A nawet poza rozpoznawaniem obrazów istnieją różne inteligentne rzeczy, które możesz chcieć zrobić, które rozpadają się na warstwy abstrakcji
Parsowanie mowy wymaga na przykład robienia surowego dźwięku i wybierania odrębnych dźwięków, które łączą się, tworząc pewne sylaby
Które łączą się, tworząc słowa, które łączą się w frazę i bardziej abstrakcyjne myśli itp
Ale wracając do tego, jak to wszystko działa, wyobraź sobie teraz projektowanie
Jak dokładnie aktywacje w jednej warstwie mogą decydować o aktywacjach w następnej?
Celem jest posiadanie mechanizmu, który mógłby łączyć piksele w krawędzie
Lub krawędzie we wzorce lub wzory na cyfry i powiększenie jednego bardzo konkretnego przykładu
Powiedzmy, że nadzieja dotyczy jednego konkretnego
Neuron w drugiej warstwie, aby sprawdzić, czy obraz ma tu krawędź w tym regionie
Pytanie, jakie parametry powinna mieć sieć

Russian: 
может быть весьма полезно в задачах по распознаванию других образов.
И это не только распознавание образов, есть множество потенциальных интеллектуальных задач,
которые разбиваются на слои абстракции.
Разбор речи, например, требует получения сырого аудио и выделения отдельных звуков,
которые комбинируются для образования слогов,
которые комбинируются в слова, затем во фразы и более абстрактные мысли, и т.д.
Но возвращаясь к тому как собственно что-либо из этого работает.
Представьте себе сейчас идею того
как активации в одном слое могут определять активации в следующем.
Цель - получить механизм, который предположительно сможет комбинировать пиксели в грани,
или грани в шаблоны, или шаблоны в цифры.
И чтобы сконцентрироваться на конкретном примере,
предположим цель одного конкретного нейрона во втором слое,
определять содержит ли картинка грань в этой, указанной области.
Первый вопрос - какие параметры должны быть у сети.
Какие табло и ручки настройки должны быть доступны,

Indonesian: 
Dan bahkan di luar pengenalan gambar ada segala macam hal cerdas yang mungkin ingin Anda lakukan yang terurai menjadi lapisan abstraksi
Mengurai pidato misalnya melibatkan pengambilan audio mentah dan memilih suara berbeda yang digabungkan untuk membuat suku kata tertentu
Yang menggabungkan untuk membentuk kata-kata yang menggabungkan untuk membuat frase dan lebih banyak pemikiran abstrak dll
Tetapi kembali ke bagaimana semua ini benar-benar bekerja menggambarkan diri Anda saat ini merancang
Bagaimana sebenarnya aktivasi dalam satu lapisan dapat menentukan aktivasi di lapisan berikutnya?
Tujuannya adalah memiliki mekanisme yang bisa menggabungkan piksel ke dalam beberapa sisi
Atau tepi ke pola atau pola ke dalam digit dan memperbesar satu contoh yang sangat spesifik
Katakan saja harapannya adalah untuk satu hal
Neuron di lapisan kedua untuk mengetahui apakah gambar memiliki kelebihan di wilayah ini di sini
Pertanyaannya adalah apa parameter yang harus dimiliki jaringan

Spanish: 
para otras tareas de reconociendo de imágenes, e incluso mas allá
de reconocimiento de imágenes, hay todos tipo de cosas inteligentes que podrías
pensar hacer, cosas que se puedan dividir en capas de abstracción.
EL análisis gramatical del habla por ejemplo, envuelve
tomar una fila de audio y recolectar o distinguir sonidos que combinados
para hacer ciertas sílabas , que combinadas
forman palabras , que combinadas hacen oraciones
y que juntas hacen mas pensamiento abstractos, etc.
pero, recordando, cómo esto funciona ,
, ahora vizualizate a ti diseñando  cómo la activación
en una capa
debería determinar la activación en la siguiente,
la meta es tener algún mecanismo concebiblemente podría combinar pixeles ,
o bordes en patrones , o patrones en dígitos  ,
y para detallar un ejemplo muy específico,
digamos que la esperanza  es para un neurona en particular,
en la segunda capa , para que ya sea la imagen tenga un borde
en esta región o no.
La pregunta a mano  es:
¿Qué parámetros debería tener la red ?
¿Qué cuadrantes y perillas deberías ser capas de afinar

Arabic: 
وخلاف التعرف على الصور هناك الكثير من الأشياء الذكية التى بإمكانك فعلها يمكن تقسميها إلى طبقات تجريدية
تحليل الكلام على سبيل المثال ينطوي على أخذ الصوت الخام واختيار الأصوات المميزة التي تتحد لتكوين منهاج معينة
والتي تتحد لتشكيل الكلمات التي تتضافر لتكوين العبارات والمزيد من الأفكار المجردة وغيرها
بالعودة إلى كيفية عمل أى من هذا , تصور نفسك الآن تصمم
كيف بالضبط  أن تفعيل بعض الخلايا العصبية فى طبقة واحدة يؤثر على تفعيل الخلايا العصبية فى الطبقة التي تليها
الهدف هو إيجاد آلية يمكنها تحديد الحواف فى البكسلات
وتحويل الحواف إلى أنماط والأنماط إلى أرقام وللتركيز على مثال واحد
دعونا نقول أننا نأمل أن واحدا معينا
من الخلايا العصبية فى الطبقة الثانية لتحديد ما إذا كانت الصورة لديها حواف فى هذه المنطقة أو لا
والسؤال المطروح هو ما هي المعاملات  التي ينبغي أن تكون لدى الشبكة

Italian: 
Oltre al riconoscimento delle immagini ci sono tante altre cose che potresti voler fare che possono essere divise in strati di astrazione
L'analisi del parlato, ad esempio, implica l'acquisizione di audio non elaborato e l'individuazione di suoni distinti che si combinano per comporre le sillabe
Che si combinano per formare parole che si combinano per comporre frasi e pensieri più astratti, ecc
Ma torniamo a vedere come funzionano raffigurandole visivamente
In che modo esattamente le attivazioni in un livello potrebbero determinare le attivazioni nel prossimo?
L'obiettivo è di avere un meccanismo che possa in teoria combinare i pixel in tratti
o i tratti in modelli o modelli in cifre e come esempio vediamo un caso molto specifico
Focalizziamo l'attenzione su un particolare
neurone nel secondo livello per capire se l'immagine ha o meno un tratto in questa regione qui
La domanda in questione è quali parametri dovrebbe avere la rete,

Czech: 
A dokonce i mimo rozpoznávání obrazu existují nejrůznější věci, které bychom mohli dělat, které se skládají z vrstev abstrakce
Při rozpoznávání řeči například vezmeme zvukový záznam a vybíráme z něj dílčí zvuky, které kombinujeme, abychom vytvořili určité slabiky
ty se dále spojují a vytvářejí slova, jejich kombinace tvoří fráze a abstraktnější myšlenky, atd.
A jak cokoliv z toho vlastně funguje? Představte si, že vy jste ten, kdo má navrhnout
jak přesně mají aktivace jedné vrstvy ovlivnit aktivace v další vrstvě
Cílem je mít nějaký mechanismus, který by v principu dokázal kombinovat pixely do čárek,
nebo čárky do vzoru nebo vzory do číslic. Přibližme si to na konkrétním přikladu:
Chceme, aby jeden konkrétní neuron
ve druhé vrstvě detekoval, že má obrázek v této oblasti čárku
Řekněme si, jaké parametry sítě bychom měli být schopni zvolit,

Modern Greek (1453-): 
Και πέρα από την αναγνώριση εικόνας, υπάρχουν τόσα έξυπνα πράγματα που ίσως θέλατε να κάνετε, που μπορούν να σπάσουν σε τέτοια αφηρημένα στρώματα.
Η αναγνώριση ομιλίας πχ, περιλαμβάνει την ανάλυση σκέτου ήχου σε ξεχωριστούς μικρούς ήχους που συνδυάζονται για τη δημιουργία συλλαβών,
που συνδυάζονται για τον σχηματισμό λέξεων, που συνδυάζονται για να φτιάξουν φράσεις και πιο αφηρημένες σκέψεις κλπ.
Ας γυρίσουμε όμως στο πώς δουλεύει καθετί από αυτά. Φανταστείτε τον εαυτό σας αυτήν τη στιγμή να σχεδιάζει
το πώς ακριβώς οι ενεργοποιήσεις σε ένα στρώμα μπορεί να καθορίζουν τις ενεργοποιήσεις του επόμενου.
Ο στόχος είναι να έχουμε κάποιον μηχανισμό που πιθανώς να συνδυάζει pixels σε ακμές,
ή ακμές σε μοτίβα, ή μοτίβα σε ψηφία και για να επικεντρωθούμε σε ένα παράδειγμα:
Έστω ότι ελπίζουμε πως ένας συγκεκριμένος νευρώνας
του δεύτερου στρώματος μπορεί να ανιχνεύσει αν η εικόνα έχει ή όχι, μία ακμή σε αυτήν την περιοχή εδώ.
Η ερώτηση που καλούμαστε να απαντήσουμε, είναι το τι παραμέτρους θα έπρεπε να έχει το δίκτυο,

Korean: 
다른 이미지 처리 작업에서도
매우 유용하리라 생각할 수 있습니다.
이미지 처리 작업 이외에도, 이렇게 여러 추상화된 
단계로 나눌 수 있 는 복잡한 것들은 더 있습니다.
예를 들면 음성 분석이 있지요.
음성 분석은 특정한 소리들을 합쳐 음절을 만들고,
음절을 합쳐 단어를 만들고, 단어를 합쳐 문장과 추상적인 생각들을 구성합니다.
다시 돌아와서 지금 당신이 이것이 어떻게 작동할 것인지 설계한다고 상상해봅시다.
한 층의 활성이 어떻게 다음 층에서의
정확한 활성을 이끌어 내는 걸까요?
목표는 픽셀을 테두리로 결합시키거나, 테두리를 패턴으로 결합시키거나, 패턴을 숫자로 결합하는 매커니즘을 만드는 것입니다.
목표는 픽셀을 테두리로 결합시키거나, 테두리를 패턴으로 결합시키거나, 패턴을 숫자로 결합하는 매커니즘을 만드는 것입니다.
목표는 픽셀을 테두리로 결합시키거나, 테두리를 패턴으로 결합시키거나, 패턴을 숫자로 결합하는 매커니즘을 만드는 것입니다.
이것의 매우 구체적인 예를 하나 들여다 봅시다.
우리가 원하는 것이 두 번째 층의 하나의 특정한 뉴런이
이미지가 외곽선이 있는지 없는지 판별하는 것이라고 합시다.
이부분에서 말이죠.
여기서 문제는
과연 신경망이 어떤 변수들을 가지고 있어야 할까요?

Portuguese: 
E mesmo além do reconhecimento de imagem há todos os tipos de coisa inteligentes que você pode querer pode fazer para quebrar em layers (camadas) de abstração.
Parsing de fala por exemplo envolve obter um áudio bruto e extrair em sons distintos que combinam para fazer certas sílabas.
Na qual combinam para formas de palavras que combinam em construir frases e mais pensamentos abstratos etc.
Porém, voltando à como isso realmente funciona, se imagine fazendo o design
de como as ativações de uma camada pode determinar as ativações da próxima
O objetivo é ter um mecanismo que pode concebivelmente combinar pixels em "bordas"
Ou "bordas" em padrões ou padrões em dígitos. E para dar um exemplo bem específico
Vamos dizer que esperamos que um neurônio em particular
neurônio na segunda layer para extrair quando ou não a imagem tem uma borda nessa região aqui
A questão em vista é quais parâmetros a rede neural deve ter

Turkish: 
Görüntü tanımanın ötesinde, soyutlama katmanlarına ayrılmak isteyebileceğiniz her türlü akıllı şeyler vardır
Örneğin konuşmayı analiz etmek ham ses alma ve belirli heceleri birleştirmek için bir araya gelen farklı sesleri seçmeyi içerir
İfadeleri ve daha soyut düşünceleri oluşturmak için bir araya gelen kelimeler oluşturan kelimeler
Ancak bunlardan herhangi birinin resmin kendisinin şu anda tasarımında nasıl çalıştığını öğrenmek.
Bir katmandaki aktivasyonların sonraki etkinlikleri nasıl belirleyeceği?
Hedef, pikselleri kenarlara birleştirmeyi düşünen bazı mekanizmalara sahip olmaktır.
Veya kalıpları veya kalıpları rakamlara kenarlar ve çok özel bir örneği büyütmek için
Diyelim ki umut bir başkası için
Neuronda ikinci katta görüntülerin bu bölgede bir köşesine sahip olup olmadığına bakmak için buraya gelin.
Eldeki soru, ağın hangi parametreleri olması gerektiğidir

Persian: 
و حتی فراتر از شناخت  تصویر، همه انواع چیزهای هوشمند وجود دارد . شما ممکن است بخواهید این کار را با تقسیم لایه های انتزاعی انجام دهید
برای مثال تجزیه گفتار شامل گرفتن صدای خام و انتخاب صداهای متمایز است که ترکیبی از ساختن هجا های خاص
کدام ترکیب را برای شکل دهی به کلمات تشکیل می دهند که ترکیب را به عبارات و افکار انتزاعی و غیره ترکیب کنید
ما به عقب بر گردیم به این که چگونه هر یک از اینها در حال حاضر طراحی تصویر خود را انجام می دهد
چگونه دقیقا فعال سازی در یک لایه ممکن است فعال سازی در لایه بعدی را تعیین کند؟
هدف این است که یک مکانیسم داشته باشید که احتمالا پیکسل ها را به لبه ها تبدیل می کند
یا لبه ها را به الگوها یا الگوها را به رقم تبدیل می کند و در یک مثال بسیار خاص برای بزرگنمایی است
بگذارید بگوییم امید در مورد  یک نورون خاص
در لایه دوم است برای انتخاب اینکه آیا تصویر دارای لبه در این منطقه در اینجا هست یا خیر؟
سوال فعلی این است که شبکه باید چه  پارامترهایی داشته باشد

Vietnamese: 
Và ngay cả khi không còn nhận ra hình ảnh có tất cả các loại vật thông minh bạn có thể muốn làm phá vỡ mà xuống thành các lớp trừu tượng
Phân tích bài phát biểu ví dụ liên quan đến việc dùng âm thanh thô và chọn ra những âm thanh khác nhau kết hợp để tạo âm tiết nhất định
Trong đó kết hợp để tạo thành lời mà kết hợp để tạo nên cụm từ và những suy nghĩ trừu tượng hơn vv
Nhưng nhận được trở lại như thế nào những điều này thực sự hoạt động hình ảnh chính mình ngay bây giờ thiết kế
Làm thế nào chính xác kích hoạt trong một lớp có thể xác định kích hoạt trong tiếp theo?
Mục đích là để có một số cơ chế mà hình dung có thể kết hợp điểm ảnh vào mép
Hoặc cạnh vào mẫu hoặc mô hình thành chữ số và để phóng to trên một ví dụ rất cụ thể
Hãy nói rằng hy vọng là một đặc biệt
Neuron trong lớp thứ hai để chọn lên trên hay không hình ảnh có lợi thế trong khu vực này đây
Câu hỏi trong tầm tay là những gì các thông số nên mạng có

Japanese: 
さらに、画像認識以外にも、抽象化のレイヤーに分解することができる、あらゆる種類のインテリジェントなものがあります
例えば、音声を解析するには、生の音声を取り出し、結合して特定の音節
フレーズとより抽象的な思考を組み立てるために結合する単語を形成するために結合するもの
しかし、これが実際にどのように実際に動作するかに戻ることは、現在自分自身を描いています
1つの層の活性化が次の層の活性化をどの程度正確に決定するか？
目標は、ピクセルをエッジに組み合わせる可能性のあるメカニズムを持つことです
パターンやパターンの辺へのエッジや、非常に具体的な例をズームインする
希望が1つの特定のものだとしましょう
2番目の層のニューロンは、画像がこの領域にエッジを持っているかどうかをここでピックアップします
手元にある質問は、ネットワークがどのようなパラメータを持っているべきかということです

Chinese: 
它就能很好地运用到其他图像的识别任务上来
甚至不光是图像识别
世界上各种人工智能的任务
都可以转化为抽象元素 一层层的抽丝剥茧
就比如说语音识别
就是要从原音频中识别出特殊的声音
组合成特定的音节
组合成单词
再组合成短语 以及更加抽象的概念
回到神经网络工作原理的话题上来
试想一下 你要设计上一层中的激活值
到底会如何决定下一层中的激活值
我们需要设计一个机制 可以把像素拼成短边
把短边拼成图案
或者把图案拼成数字 等等
这个例子里 我们来放大关注其中一个
我们来设计 让第二层中的这一个神经元
能够正确识别出图像中的这块区域里 是否存在一条边
现在我们就需要知道这个网络的参数
你应该如何调整网络上的旋钮开关

Thai: 
แม้กระทั่งการรับรู้ภาพจะมีทุกสิ่งที่ชาญฉลาดที่คุณอาจต้องการทำซึ่งแบ่งออกเป็นชั้นของสิ่งที่เป็นนามธรรม
การแยกเสียงพูดเช่นการหยิบเสียงดิบและการเลือกเสียงที่แตกต่างซึ่งรวมกันเพื่อให้พยางค์บางเสียง
ซึ่งรวมกันเป็นคำที่รวมกันเพื่อทำเป็นวลีและความคิดที่เป็นนามธรรมมากขึ้นเป็นต้น
แต่กลับไปที่วิธีการใด ๆ นี้จริงการทำงานภาพตัวเองในขณะนี้การออกแบบ
วิธี activations ในชั้นเดียวอาจกำหนด activations ในถัดไปหรือไม่
เป้าหมายคือการมีกลไกบางอย่างที่น่าจะสามารถรวมพิกเซลเข้ากับขอบได้
หรือขอบเป็นรูปแบบหรือรูปแบบเป็นตัวเลขและเพื่อซูมเข้าในตัวอย่างที่เฉพาะเจาะจงมาก
สมมุติว่าความหวังสำหรับคนพิเศษ
Neuron ในชั้นที่สองเพื่อรับภาพที่มีขอบในภูมิภาคนี้หรือไม่
คำถามในมือคือสิ่งที่ควรจะเป็นเครือข่ายของเครือข่าย

English: 
what dials and knobs should you be able to tweak so that it's expressive enough to potentially capture this pattern or
Any other pixel pattern or the pattern that several edges can make a loop and other such things?
Well, what we'll do is assign a weight to each one of the connections between our neuron and the neurons from the first layer
These weights are just numbers
then take all those activations from the first layer and compute their weighted sum according to these weights I
Find it helpful to think of these weights as being organized into a little grid of their own
And I'm going to use green pixels to indicate positive weights and red pixels to indicate negative weights
Where the brightness of that pixel is some loose depiction of the weights value?
Now if we made the weights associated with almost all of the pixels zero
except for some positive weights in this region that we care about
then taking the weighted sum of
all the pixel values really just amounts to adding up the values of the pixel just in the region that we care about

Czech: 
co by mělo být možné měnit a ladit, aby byla šance přivést síť do stavu, kdy rozpozná tento vzor?
Nebo třeba jiný vzor, nebo to, že několik čárek tvoří smyčku, a podobné věci
Nechť je to tak, že  každému spoji mezi naším neuronem a neurony v první vrstvě je přiřazená váha
Váhy jsou jen čísla
Potom vezmeme všechny aktivace první vrstvy a vypočteme jejich vážený součet, s těmito vahami
Přijde mi užitečné znázornit tyto váhy pomocí malého obrázku,
kde použiji zelené pixely pro znázornění kladných vah a červené pixely pro znázornění záporných vah
a jas pixelu bude zhruba odpovídat velikosti váhy
Když nastavíme váhy téměř všech pixelů na nulu,
kromě několika kladných vah ve vybrané oblasti, která nás zajímá
a pak vypočteme vážený součet
všech hodnot pixelů, tak je to stejné jako bychom sečetli pouze hodnoty pixelů z vybrané oblasti

Modern Greek (1453-): 
τι κουμπιά και μοχλούς θα έπρεπε να πειράξετε, ώστε να μπορεί ενδεχομένως να εντοπίσει αυτό το μοτίβο
ή ένα άλλο οποιοδήποτε μοτίβο από pixels ή το μοτίβο όπου μερικές ακμές συνθέτουν έναν κύκλο και άλλα τέτοια.
Λοιπόν, αυτό που θα κάνουμε είναι να ορίσουμε ένα βάρος σε καθεμία σύνδεση μεταξύ του νευρώνα και των νευρώνων του προηγούμενου στρώματος.
Αυτά τα βάρη είναι απλά αριθμοί.
Μετά, θα πάρουμε όλες αυτές τις ενεργοποιήσεις του πρώτου στρώματος και θα υπολογίσουμε το σταθμικό άθροισμα σύμφωνα με αυτά τα βάρη.
Προσωπικά με βοηθάει πολύ να σκέφτομαι τα βάρη ως ένα μικρό ξεχωριστό πλέγμα,
και εδώ χρησιμοποιώ πράσινα pixels για να δείξω τα θετικά βάρη και κόκκινα για να δείξω τα αρνητικά,
όπου η φωτεινότητα κάποιου pixel δείχνει περίπου την τιμή του βάρους.
Τώρα, αν μηδενίζαμε τα βάρη σχεδόν όλων των pixels,
εκτός από κάποια θετικά βάρη σε αυτήν την περιοχή που μας ενδιαφέρει,
τότε παίρνοντας το σταθμικό άθροισμα
όλων των τιμών των pixel, ισοδυναμεί τελικά με το να προσθέσουμε μόνο τις τιμές των pixel της περιοχής που μας ενδιαφέρει.

Turkish: 
ne arar ve topuzlar, bu örüntü potansiyel olarak yakalayacak kadar etkileyici şekilde çimdikleyebilmelisiniz
Başka herhangi bir piksel deseni veya birkaç kenarlı bir döngü oluşturan desen ve benzeri şeyler?
Peki, yapacağımız, nöron ve ilk kattaki nöronlar arasındaki bağlantıların her birine bir ağırlık vermektir
Bu ağırlıklar sadece sayılardır
daha sonra tüm bu aktivasyonları birinci kattan alın ve ağırlıklarına göre ağırlıklı toplamını hesaplayın I
Bu ağırlıkları kendi küçük ızgaralarına göre organize edilmiş olarak düşünmek faydalı buluyorum
Ve negatif ağırlıkları belirtmek için pozitif ağırlıkları ve kırmızı pikselleri belirtmek için yeşil pikseller kullanacağım
O pikselin parlaklığı, ağırlık değerinin gevşek bir şekilde tasvir edildiği yerde?
Hemen hemen tüm piksellerle ilişkili ağırlıkları sıfır yapmış olsaydık
Bu bölgede önem verdiğimiz bazı pozitif ağırlıklar hariç
sonra ağırlıklı toplamını alarak
tüm piksel değerleri gerçekten yalnızca önem verdiğimiz bölgedeki piksel değerlerini toplamaya muktedir

Hungarian: 
milyen tárcsákat kell tudjunk úgy tekergetni, hogy azzal képesek legyünk kifejezni ezt a mintát.
Vagy bármilyen másik képpontmintát, olyanokat, amiket élekből vagy hurkokból összeállíthatunk?
Azt fogjuk tenni, hogy súlyokat rendelünk e neuron és az első réteg neuronjai közé.
Ezek a súlyok csak számok.
Aztán vesszük az összes aktivitást az első rétegből és kiszámoljuk a súlyozott összegüket.
Szerintem szemléletes ezekre a súlyokra is úgy tekinteni, mintha ők is a saját kis rácsukba rendeződnének:
zöld pixeket fogok használni a pozitív súlyok jelölésére, és pirosat a negatívokéra, 
míg a pixelek fényereje a súlyok abszolút értékét jelöli.
Na most, ha szinte az összes képponthoz tartozó súlyunk nulla,
kivéve néhány pozitív súlyt ebben a régióban, amelyet vizsgálunk,
akkor lényegében a súlyozott összeg kiszámítása
nem más, mint egyszerűen csak összegyűjteni a pixelértékeket ebben a régióban.

Thai: 
สิ่งที่หมุนและลูกบิดคุณควรจะสามารถปรับแต่งเพื่อให้มันแสดงออกมากพอที่จะสามารถจับภาพรูปแบบนี้หรือ
รูปแบบพิกเซลอื่นหรือรูปแบบที่ขอบหลาย ๆ สามารถสร้างลูปและสิ่งอื่น ๆ ได้หรือไม่?
ดีสิ่งที่เราจะทำคือกำหนดน้ำหนักให้กับแต่ละการเชื่อมต่อระหว่างเซลล์ประสาทและเซลล์ประสาทของเราจากชั้นแรก
น้ำหนักเหล่านี้เป็นตัวเลขเพียงอย่างเดียว
จากนั้นใช้การกระตุ้นทั้งหมดจากเลเยอร์แรกและคำนวณผลรวมน้ำหนักตามน้ำหนักเหล่านี้ I
หาข้อมูลที่เป็นประโยชน์ในการพิจารณาน้ำหนักเหล่านี้ว่าเป็นการจัดเป็นตารางย่อย ๆ ของตนเอง
และฉันจะใช้พิกเซลสีเขียวเพื่อระบุน้ำหนักบวกและพิกเซลสีแดงเพื่อระบุน้ำหนักที่เป็นค่าลบ
ในกรณีที่ความสว่างของพิกเซลนั้นเป็นภาพของค่าน้ำหนักที่หลวม?
ตอนนี้ถ้าเราทำน้ำหนักที่สัมพันธ์กับจุดพิกเซลเกือบทั้งหมด
ยกเว้นน้ำหนักที่เป็นบวกบางส่วนในภูมิภาคนี้ที่เราใส่ใจ
แล้วนำผลรวมถ่วงน้ำหนักของ
ค่าพิกเซลทั้งหมดจริงๆเพียงจำนวนเงินที่จะเพิ่มค่าของพิกเซลเพียงในพื้นที่ที่เราใส่ใจ

Spanish: 
de manera  suficientemente expresiva , para que potencialmente capture este patrón?
u otro patrón de pixeles
el patrón de varios bordes que pueden hacer un ciclo y otro tipo de cosas.
Lo que haremos  es asignar un "peso "
a cada una de las conexiones
entre nuestra neurona  y las neuronas de la primera capa.
Estos "pesos" son solo números , luego
toma todas esas activaciones de la primera capa
y luego calcula la suma de sus pesos
de acuerdo a estos pesos.
Encuentro útil pensar en estos pesos siendo organizados
en una pequeña cuadrícula de sí mismos,
y voy a usar los pixeles verdes para indicar los pesos positivos
y los pixeles rojos para indicar pesos negativos
y la luminosidad de ese pixel es una  descripción suelta
del valor del peso
ahora, si los pesos asociados con casi todos los pixeles cero excepto para
algunos pesos positivos en esta región que nos interesa , luego tomar
la suma "pesada" de todos los valores de los pixeles
es realmente solo sumar los valores del pixel que esta en la
región que nos interesa.

Polish: 
jakie pokrętła i pokrętła powinny być w stanie dostroić, tak aby był wystarczająco ekspresyjny, aby potencjalnie uchwycić ten wzór lub
Każdy inny wzór pikseli lub wzór, który kilka krawędzi może zrobić pętlę i inne podobne rzeczy?
Cóż, to co zrobimy, to przypisać wagę do każdego połączenia między naszym neuronem a neuronami z pierwszej warstwy
Te ciężary to tylko liczby
następnie weź wszystkie te aktywacje z pierwszej warstwy i obliczaj ich ważoną sumę zgodnie z tymi wagami I
Pomyśl o tym, że te wagi są zorganizowane w małą siatkę
I zamierzam użyć zielonych pikseli, aby wskazać pozytywne ciężary i czerwone piksele wskazujące ujemne wagi
Gdzie jasność tego piksela stanowi jakiś luźny obraz wartości ciężaru?
Teraz, jeśli zrobimy wagi powiązane z prawie wszystkimi pikselami zero
z wyjątkiem niektórych pozytywnych wag w tym regionie, na których nam zależy
następnie biorąc ważoną sumę
wszystkie wartości pikseli są po prostu sumujące wartości pikseli w regionie, który nas interesuje

Korean: 
또한 그런 판별을 하기 위해 무엇을 조정할 수 있어야 할까요?
이런패턴이나 아니면 다른 패턴이나
여러 테두리가 모여 고리를 만드는 산황 등등을 판별할 수 있을까요?
여러 테두리가 모여 고리를 만드는 상황 등등을 판별할 수 있을까요?
여기서 우리는 첫 층의 뉴런과 현재 뉴런을 잇는 신경에 가중치를 부여할 것입니다.
여기서 우리는 첫 층의 뉴런과 현재 뉴런을 잇는 신경에 가중치를 부여할 것입니다.
여기서 우리는 첫 층의 뉴런과 현재 뉴런을 잇는 신경에 가중치를 부여할 것입니다.
가중치는 그냥 숫자로 생각해주세요.
그리고 첫 층 뉴런에서의 모든 활성치를 가져와
각 신경의 가중치를 주고 모두 더합니다.
그런 가중치를 이렇게 평면상에 표현하면 더욱 이해가 쉬워집니다.
양수는 초록색 픽셀로, 음수는 빨강색 픽셀로 표현하겠습니다.
픽셀의 밝기는 뭔가 가중치의 느슨한 표현이라고 해야할까요?
이제 그 부분을 제외한 다른 모든 픽셀의 가중치를 0에 가깝게 만들고
이제 그 부분을 제외한 다른 모든 픽셀의 가중치를 0에 가깝게 만들고
각 픽셀에 가중치를 준 값의 합을 구하면
그 영역의 픽셀에만 가중치를 주어 더한 것과 같은 상황이 됩니다.

Chinese: 
才能让它足以表示出 要么这种图案
要么别的像素图案
要么是几条边组合成圆圈的图案之类
我们需要给这个神经元和第一层所有神经元间的每一条接线
都赋上一个权重值
这些权重都不过是数字而已
然后 我们拿起第一层所有的激活值
和它们对应权重值一起 算出它们的加权和
我觉得把这些权重值看做一个表格更好理解
我会把正的权重值标记成绿色
负的标记成红色
颜色越暗 就大致表示它的权重越接近于0
现在我们如果把关注区域的权重赋为正值
而其他所有的权重值一律赋为0
这样一来 对所有的像素值取加权和
就只会累加我们关注区域的像素值了

Arabic: 
ما النقاط التى يجب عليك طرقها لكى تكون معبرة كفاية لإمساك النمط المطلوب
أو أى نمط بكسلى آخر أو النمط الذى يحدد الحواف المختلفة التى تكون حلقة أو غيرها من الأشياء
حسنا، ما سنفعله هو تعيين وزن لكل واحد من الروابط بين الخلية العصبية التى لدينا  والخلايا العصبية من الطبقة الأولى
هذه الأوزان هي فقط مجرد  أرقام
ثم تأخذ كل تلك التفعيلات من الطبقة الأولى وتحسب مجموعها طبقا لتلك المجموعات
أجد أنه من المفيد أن تفكر فى هذه المجموعات على أنها منظمة على هيئة شبكات صغيرة خاصة بهم
وسأستخدم بكسل خضراء للإشارة إلى الأوزان الموجبة والبكسل الأحمر للإشارة إلى الأوزان السالبة
حيث سطوع هذا البكسل هو تصوير فضفاض لقيم الأوزان
الآن إذا جعلنا كل الأوزان مرتبطة مع تقريبا كل البكسلات التى قيمتها بصفر
باستثناء بعض الأوزان الإيجابية في هذه المنطقة التي نهتم بها
ثم نأخذ الوزن المجموع
كل قيم البكسل هى فقط كميات لإضافتها لقيم البكسل فى المنطقة التى نهتم بها

Portuguese: 
Quais marcadores e botões você deve ser apto a refinar para que seja expressivo o suficiente para potencialmente capturar esse padrão ou
Qualquer outro padrão de pixels or outro padrão que várias bordas podem fazer um loop (laço) e outras coisas?
Bem, o que fazemos é atribuir um peso a cada uma das conexões entre nosso neurônio e os neurônios da primeira layer
Estes pesos são apenas números
Então obtenha todos essas ativações a partir da primeira camada e calcule soma ponderada de acordo com o valor destes pesos
Eu acho que seja útil pensar que estes pesos como sendo organizados em uma pequena matriz por si mesmo
E eu irei usar pixels verde para indicar pesos positivos e vermelhos para indicar pesos negativos
Onde o brilho de cada pixel é uma representação desconexa dos valores dos pesos?
Agora se fizermos os pesos associados com praticamente todos os pixels zero
exceto para alguns pesos positivos nessa região que nos importamos sobre isso
então obtendo a soma ponderada de
Todos os valores de pixel realmente são apenas um punhado de números somados por seus valores de pixel em apenas uma região que nos importamos

Vietnamese: 
những gì quay và nút bấm bạn có thể tinh chỉnh sao cho nó đủ biểu cảm để có khả năng nắm bắt được mô hình này hoặc
Bất kỳ mô hình điểm ảnh khác hoặc mô hình mà nhiều cạnh có thể làm cho một vòng lặp và những thứ khác như vậy?
Vâng, những gì chúng tôi sẽ làm là gán một trọng lượng cho mỗi một trong những mối liên hệ giữa tế bào thần kinh của chúng tôi và các tế bào thần kinh từ lớp đầu tiên
Những trọng lượng chỉ là con số
sau đó đi tất cả những kích hoạt từ lớp đầu tiên và tính tổng trọng của họ theo những trọng tôi
Thấy hữu ích khi nghĩ về những trọng như đang được tổ chức thành một mạng lưới nhỏ của riêng mình
Và tôi sẽ sử dụng pixel màu xanh lá cây để chỉ trọng lượng tích cực và điểm ảnh màu đỏ để chỉ ra trọng âm
Trong trường hợp độ sáng của điểm ảnh đó là một số mô tả lỏng lẻo của các giá trị trọng lượng?
Bây giờ nếu chúng tôi thực hiện các trọng liên quan đến hầu hết các pixel zero
ngoại trừ một số trọng lượng tích cực trong khu vực này mà chúng tôi quan tâm
sau đó lấy tổng trọng số của
tất cả các giá trị pixel thực sự chỉ là số tiền cộng dồn các giá trị của pixel chỉ trong khu vực mà chúng tôi quan tâm

Portuguese: 
que dials e knobs você deve ser capaz de ajustar para que seja expressivo o suficiente para potencialmente capturar este padrão ou
Qualquer outro padrão de pixel ou o padrão que várias arestas podem fazer um loop e outras coisas desse tipo?
Bem, o que faremos é atribuir um peso a cada uma das conexões entre nosso neurônio e os neurônios da primeira camada
Esses pesos são apenas números
então pegue todas as ativações da primeira camada e calcule a soma ponderada de acordo com esses pesos.
Ache útil pensar nesses pesos como sendo organizados em uma pequena grade própria
E vou usar pixels verdes para indicar pesos positivos e pixels vermelhos para indicar pesos negativos
Onde o brilho desse pixel é alguma representação solta do valor de pesos?
Agora, se fizemos os pesos associados a quase todos os pixels zero
exceto por alguns pesos positivos nesta região que nos preocupamos
em seguida, tomando a soma ponderada de
Todos os valores de pixel realmente significam somar os valores do pixel apenas na região com a qual nos preocupamos.

Indonesian: 
apa tombol dan tombol yang harus Anda dapat menyesuaikan sehingga cukup ekspresif untuk berpotensi menangkap pola ini atau
Pola piksel lain atau pola yang beberapa tepinya dapat membuat lingkaran dan hal-hal lain seperti itu?
Nah, apa yang akan kita lakukan adalah menetapkan bobot untuk setiap koneksi antara neuron kita dan neuron dari lapisan pertama
Bobot ini hanyalah angka
kemudian ambil semua aktivasi dari lapisan pertama dan hitung jumlah tertimbang mereka sesuai dengan bobot ini
Temukan manfaat untuk memikirkan bobot ini sebagai diatur ke dalam kotak kecil mereka sendiri
Dan saya akan menggunakan piksel hijau untuk menunjukkan bobot positif dan piksel merah untuk menunjukkan bobot negatif
Di mana kecerahan pixel adalah penggambaran yang longgar dari nilai bobot?
Sekarang jika kita membuat bobot yang terkait dengan hampir semua piksel nol
kecuali untuk beberapa bobot positif di wilayah ini yang kita pedulikan
kemudian mengambil jumlah tertimbang
semua nilai piksel benar-benar hanya berjumlah menambahkan nilai-nilai piksel hanya di wilayah yang kita sayangi

Japanese: 
どのようなダイヤルやノブを微調整して、このパターンを潜在的に十分に表現できるようにするか、
他のピクセルパターンや、いくつかのエッジがループなどのことができるパターン？
さて、私たちがすることは、最初の層からのニューロンとニューロンとの間の接続のそれぞれに重みを割り当てることです
これらの重みはちょうど数字です
最初のレイヤーからすべてのアクティベーションを取り、これらの重みIに従って重み付けされた合計を計算します
これらの重みを自分の小さなグリッドに編成していると考えると役立ちます
また、正の重みを示す緑のピクセルと負の重みを示す赤のピクセルを使用します
そのピクセルの明るさは、重み値の何らかの緩やかな描写であるか？
今では、ほとんどすべてのピクセルに関連付けられた重みをゼロ
この地域のいくつかの肯定的な重みを除いて
次に、
すべてのピクセル値は実際には気になる領域のピクセル値を加算するだけです

Italian: 
quali quadretti dovresti essere in grado di modificare in modo che sia capace di catturare questo modello o
qualunque altro schema di pixel o lo schema in cui diversi bordi possono creare un cerchio e altre cose simili?
Bene, quello che faremo è assegnare un peso a ciascuna delle connessioni tra il nostro neurone e i neuroni del primo strato
Questi pesi sono solo numeri
quindi prendi tutte quelle attivazioni dal primo livello e calcola la loro somma ponderata in base a questi pesi
Trovo utile pensare a questi pesi come se fossero organizzati in una piccola griglia
E ho intenzione di utilizzare i pixel verdi per indicare pesi positivi e pixel rossi per indicare i pesi negativi
Dove la luminosità di quel pixel è una rappresentazione approssimativa del valore dei pesi
Ora se abbiamo messo i pesi associati a quasi tutti i pixel zero
salvo per alcuni pesi positivi in ​​questa regione che ci interessa
allora prendere la somma ponderata di
tutti i valori dei pixel in realtà equivale a sommare i valori del pixel solo nella regione che ci interessa

Russian: 
достаточно выразительные, чтобы дать потенциальную возможность обнаружить этот шаблон
или любой другой шаблон пикселей,
или шаблон кружка из нескольких граней и тому подобное.
Ну, вот что мы сделаем - мы назначим вес каждому соединению между нашим нейроном
и нейронами из первого слоя.
Эти веса - просто числа.
Затем возьмём все активации из первого слоя
и посчитаем их взвешенную сумму согласно этим весам.
Я считаю сподручно представлять эти веса собранными в свою собственную небольшую сетку,
и я буду использовать зелёные пиксели для отображения положительных весов
и красные пиксели для отображения отрицательных весов,
где яркость пикселя - примерное выражение значения веса.
Итак, если мы установим веса, связанные с практически всеми пикселями в ноль,
за исключением некоторого количества положительных весов в интересующей нас области,
тогда получение взвешенной суммы всех пикселей сведётся к суммированию значений пикселей
только в интересующей нас области.

Chinese: 
要怎麼調整這些參數才能讓完整的表達出是這個圖案
還是其他的圖案或是由數個邊組合成的圓圈之類的
我們會分配給神經元和輸入層間的每一個連接線一個權重
權重單純只是一個數字而已
然後計算所有激勵函數的加權總和
把這些權重整理成一個圖像應該更好理解
我把正的權重值標記為綠色
負的權重值標記為紅色
當顏色越亮代表它的值跟 0 差距越大
除了我們所關注的區域以外
所有的權重值都改為 0
然後去取得所有像素的加權總合
幾乎就等於只有我們所關注的區域的值提升了

German: 
verändert und angepasst werden sollten, sodass sie ausdrucksstark genug sind, um möglicherweise dieses Muster zu erfassen.
Oder jedes andere Pixelmuster, oder das Muster, dank welchem einige Kanten eine Schleife bilden können etc.
Was wir nun tun, ist jeder Verbindung zwischen unserem Neuron und jedem Neuron der ersten Stufe ein Gewicht zu geben.
Diese Gewichte sind beliebige Zahlen.
Dann nehmen wir alle Aktivierungswerte der ersten Stufe und berechnen die gewichtete Summe ihres Einflusses.
Ich finde es nützlich, mir die einzelnen Gewichte als ein eigenes Muster vorzustellen
Und ich verwende grüne Pixel für positive Gewichte und rote Pixel für negative Gewichte,
wobei die Helligkeit jedes Pixels eine lose Darstellung des Wertes des Gewichts ist.
Wenn wir nun die Gewichte fast aller Pixel auf Null setzen,
mit Ausnahme einiger positiver Gewichte in der Region, welche uns interessiert,
und die gewichtete Summe nehmen,
dann entspricht diese nur den Pixelwerten in der Region, die uns interessiert.

French: 
Quels boutons pourrions-nous tourner pour que ce soit capable de capturer ce motif
ou n'importe quel autre motif de pixel. Ou le motif que quelques traits peuvent faire une boucle etc.
Nous allons donc assigner un poids à chacune des connections entre nos neurones et les neurones de la première couche.
Ces poids sont juste des nombres.
Ensuite, prenez chacune des activations, et calculez leur somme pondérée, en accord avec ces poids.
Je trouve cela utile d'imaginer ces poids organisés dans une grille à eux seuls,
et j'utiliserai des pixels verts pour indiquer des poids positifs et des pixels rouges pour indiquer des poids négatifs.
Où la luminosité de ce pixel est une vague description de la valeur de ce poids.
Maintenant, si on donne un poids de 0 à tous les pixels
sauf dans cette région qui nous intéresse, où nous mettrons des poids positifs,
eh bien calculer la somme pondérée de
toutes les valeurs des pixels correspondra simplement à additionner les valeurs des pixels de cette région qui nous intéresse.

Persian: 
و کدامیک از آنها باید بتوانید تحریک کردن را به گونه ای بیان کنند که به طور بالقوه بتواند این الگو را ضبط کند یا
هر الگوی دیگری از پیکسل یا الگو که چند لبه می تواند یک حلقه و دیگر چیزهای دیگر را ایجاد کند؟
خوب، آنچه ما انجام خواهیم داد این است که وزن هر یک از اتصالات بین نورون هایمان و نورون های لایه اول را حساب کنیم
این وزن ها فقط عدد هستند
سپس تمام این فعال سازی ها را از لایه اول انجام داده و مجموع وزن آنها را با توجه به این وزن ها محاسبه می کنیم
به این فکر کنید که این وزنها به صورت یک شبکه کوچک از خودشان سازماندهی شده اند
و من قصد دارم از پیکسل های سبز برای نشان دادن وزن مثبت و پیکسل های قرمز برای نشان دادن وزن های منفی استفاده کنم
در کجا روشنایی آن پیکسل تصویر بیانگر ارزش وزن است؟
اکنون ما وزن هایی را که تقریبا تمام پیکسل های صفر را تشکیل می دهند، ساخته ایم
به جز برخی از وزنه های مثبت در این منطقه که ما به آن اهمیت می دهیم
سپس وزن مجموع
تمام مقادیر پیکسل واقعا فقط مقدار ارزش پیکسل را فقط در منطقه ای که مورد نظر ماست را بدست می آوریم

Korean: 
그리고 그 부분이 정말 테두리가 맞는지 확인하고 싶다면
주변의 픽셀에 음수 가중치를 주면 됩니다.
주변의 픽셀에 음수 가중치를 주면 됩니다.
그러면 주변의 픽셀이 어두우면서 중앙의 픽셀이 밝을 때 최대치를 얻을 수 있습니다.
그러면 주변의 픽셀이 어두우면서 중앙의 픽셀이 밝을 때 최대치를 얻을 수 있습니다.
이처럼 가중치를 준 값의 합을 계산해 보면 어떤 값이라도 나올 수 있습니다.
하지만 우리가 이 신경망에서 원하는 건 0과 1 사이의 값이죠.
하지만 우리가 이 신경망에서 원하는 건 0과 1 사이의 값이죠.
따라서 이 가중치를 준 값의 합을 0과 1 사이의 숫자로 만들어 주는 함수에 넣을 겁니다.
따라서 이 가중치를 준 값의 합을 0과 1 사이의 숫자로 만들어 주는 함수에 넣을 겁니다.
따라서 이 가중치를 준 값의 합을 0과 1 사이의 숫자로 만들어 주는 함수에 넣을 겁니다.
이러한 함수로는 로지스틱 방정식으로도 알려진 시그모이드 함수가 잘 알려져 있습니다.
이러한 함수로는 로지스틱 방정식으로도 알려진 시그모이드 함수가 잘 알려져 있습니다.
간단히 설명하면 매우 작은 음수는 0에 매우 가깝게 대응되고
매우 큰 양수는 1에 매우 가깝게 대응되며
0 주위에서는 계속 증가합니다.
그래서 이 뉴런의 활성화는 기본적으로
관련있는 가중치의 합이 얼마나 더 양에 가까운지에 따라 정해져있습니다.

Persian: 
و اگر شما واقعا می خواهید آن را انتخاب کنید که آیا وجود دارد یا خیر، لبه در اینجا چیزی است که شما ممکن است به برخی از وزن های منفی
مرتبط با پیکسل های اطراف بیانجامد
سپس وقتی که پیکسل های متوسط ​​روشن هستند، اما پیکسل های اطراف آن تیره تر هستند، جمع بیشترین مقدار است
هنگامی که یک مقدار وزنی مانند این را محاسبه میکنید، ممکن است هر عددی بیرون بیاید
اما  چیزی که ما برای این شبکه می خواهیم این است که برای فعال سازی یک مقدار بین 0 و 1 باشد
بنابراین یک چیز مشترک برای انجام این کار این است که این مقدار وزنی را
به برخی از توابعی که خط عدد حقیقی  را به محدوده بین 0 و 1 تبدیل می کنند، ارسال کنید
یک تابع رایج که این کار را انجام می دهد، تابع سیگموئید نامیده می شود که به عنوان یک منحنی لجستیک نیز شناخته می شود
در واقع ورودی های بسیار منفی در نهایت نزدیک به صفر هستند و ورودی های بسیار مثبتی به نزدیک به 1 می رسند
و فقط به طور پیوسته در اطراف ورودی 0 افزایش می یابد
بنابراین فعال سازی نورون در اینجا اساسا یک اندازه گیری از چگونگی مثبت بودن مجموع وزن است

Russian: 
А если вы хотите определить есть ли там именно грань, вы можете добавить некоторое количество
отрицательных весов, ассоциированных с окружающим пикселями.
Тогда сумма будет наибольшей когда средние пиксели ярче, а окружающие их темнее.
Когда вы вычислите такую взвешенную сумму у вас может получиться любое число,
но для данной сети мы хотим чтобы активации представлялись значением от 0 до 1.
Так что логично вогнать эту взвешенную сумму
в какую-то функцию, которая втиснет реальный диапазон значений в диапазон от 0 до 1.
Обычно функция, которая делает это,  называется сигмоидой или логистической кривой.
По сути, сильно отрицательный ввод оказывается близким к нулю,
сильно положительный ввод оказывается близким к единице,
и она монотонно возрастает на входных значения вокруг нуля.
Таким образом, активация нейрона
это по сути мера того насколько положительна соответствующая взвешенная сумма.

Indonesian: 
Dan, jika Anda benar-benar ingin mengetahui apakah ada kelebihan di sini apa yang mungkin Anda lakukan adalah memiliki bobot negatif
terkait dengan piksel sekitarnya
Maka jumlah terbesar ketika piksel tengah itu cerah, tetapi piksel sekitarnya lebih gelap
Ketika Anda menghitung jumlah tertimbang seperti ini Anda mungkin keluar dengan nomor apa pun
tetapi untuk jaringan ini yang kita inginkan adalah untuk aktivasi menjadi nilai antara 0 & 1
jadi hal yang umum dilakukan adalah memompa penjumlahan tertimbang ini
Ke beberapa fungsi yang squishes garis bilangan real ke dalam rentang antara 0 & 1 dan
Fungsi umum yang melakukan ini disebut fungsi sigmoid juga dikenal sebagai kurva logistik
pada dasarnya input yang sangat negatif berakhir dekat dengan nol input yang sangat positif berakhir mendekati 1
dan itu terus meningkat di sekitar input 0
Jadi aktivasi neuron di sini pada dasarnya adalah ukuran seberapa positif jumlah tertimbang yang relevan

Modern Greek (1453-): 
Και, αν πραγματικά θέλατε να δείτε αν υπάρχει ακμή εδώ, ίσως να βάζατε κάποια αρνητικά βάρη
στα pixel γύρω από την περιοχή,
ώστε το άθροισμα να είναι μεγαλύτερο μόνο αν τα μεσαία pixel είναι φωτεινά, αλλά τα τριγύρω σκοτεινά.
Όταν υπολογίζετε ένα σταθμικό άθροισμα σαν αυτό, μπορεί να καταλήξετε σε έναν οποιονδήποτε αριθμό.
Σε αυτό όμως το δίκτυο, αυτό που θέλουμε είναι οι ενεργοποιήσεις να έχουν μία τιμή μεταξύ του 0 και του 1,
οπότε συχνά αυτό που κάνουμε είναι να περάσουμε αυτό το άθροισμα σε κάποια
συνάρτηση που συμπιέζει τον πραγματικό άξονα στο διάστημα μεταξύ του 0 και του 1,
και μία κοινή συνάρτηση που το κάνει αυτό, είναι η σιγμοειδής, γνωστή και ως λογιστική παλινδρόμηση.
Βασικά, οι πολύ αρνητικές είσοδοι καταλήγουν κοντά στο 0, ενώ οι πολύ θετικές είσοδοι καταλήγουν κοντά στο 1,
και στην περιοχή κοντά στην είσοδο 0 υπάρχει μία σταθερή ανοδικότητα.
Οπότε η ενεργοποίηση ενός νευρώνα εδώ μετράει βασικά το πόσο θετικό είναι το αντίστοιχο σταθμικό άθροισμα.

English: 
And, if you really want it to pick up on whether there's an edge here what you might do is have some negative weights
associated with the surrounding pixels
Then the sum is largest when those middle pixels are bright, but the surrounding pixels are darker
When you compute a weighted sum like this you might come out with any number
but for this network what we want is for activations to be some value between 0 & 1
so a common thing to do is to pump this weighted sum
Into some function that squishes the real number line into the range between 0 & 1 and
A common function that does this is called the sigmoid function also known as a logistic curve
basically very negative inputs end up close to zero very positive inputs end up close to 1
and it just steadily increases around the input 0
So the activation of the neuron here is basically a measure of how positive the relevant weighted sum is

Thai: 
และหากคุณต้องการรับข้อมูลว่ามีขอบอยู่ตรงนี้สิ่งที่คุณควรทำคือมีน้ำหนักเชิงลบ
เกี่ยวข้องกับพิกเซลแวดล้อม
ยอดรวมนั้นใหญ่ที่สุดเมื่อพิกเซลกลางสว่าง แต่พิกเซลแวดล้อมมืด
เมื่อคุณคำนวณจำนวนเงินที่ถ่วงน้ำหนักเช่นนี้คุณอาจออกมาพร้อมกับหมายเลขใดก็ได้
แต่สำหรับเครือข่ายนี้สิ่งที่เราต้องการคือการเปิดใช้งานให้มีค่าระหว่าง 0 และ 1
ดังนั้นสิ่งที่ต้องทำก็คือการทุ่มเงินจำนวนนี้
เป็นฟังก์ชันบางอย่างที่ squishes เส้นจำนวนจริงในช่วงระหว่าง 0 และ 1 และ
ฟังก์ชันทั่วไปที่เรียกว่า sigmoid function หรือที่เรียกว่า logistic curve
ปัจจัยการผลิตเชิงลบโดยส่วนมากจะจบลงใกล้ศูนย์ปัจจัยการผลิตที่เป็นบวกมากใกล้เคียงกับ 1
และเพิ่มขึ้นเรื่อย ๆ ประมาณ 0 อินพุท
ดังนั้นการเปิดใช้งานของเซลล์ประสาทที่นี่เป็นพื้นวัดของวิธีการบวกบวกถ่วงน้ำหนักที่เกี่ยวข้องคือ

German: 
Wenn Sie nun wirklich bestätigen wollen, ob es dort eine Kante hat, so können Sie einige negative Gewichte
mit den umliegenden Pixeln assoziieren.
So ist die Summe dann am größten, wenn die mittleren Pixel hell sind und die umgebenden Pixel dunkler.
Wenn Sie eine gewichtete Summe berechnen, kann eine beliebige Zahl dabei raus kommen.
Aber für dieses Netzwerk wollen wir Aktivierungen erhalten, welche einen Wert zwischen 0 und 1 einnehmen.
Eine übliche Art, mit diesem Problem umzugehen ist, diese gewichtete Summe zu skalieren.
Dies passiert in einer Funktion, welche die Auswahl reeller Zahlen in den Bereich zwischen 0 und 1 quetscht.
Eine bekannte Funktion, welche dies tut, ist die Sigmoid-Funktion (auch logistische Kurve genannt).
Kurz gesagt: Sehr negative Werte fallen in die Nähe von Null, während sehr positive Werte sich 1 nähern
und die Werte steigen stetig an im Bereich um Null.
Aktivierung dieses Neurons ist also im Grunde ein Maß dafür, wie positiv die gewichtete Summe ist.

Portuguese: 
E, se você realmente quiser extrair onde existe uma borda aqui, o que você pode fazer é ter alguns pesos negativos
associados com alguns pixels ao redor
Então a soma é maior quando estes pixel do meio são brilhosos, mas os pixels ao redor são mais escuros
Quando você calcular uma soma pondera como essa você pode vir com qualquer número
Mas para essa rede o que você quer é para ativações que estão em algum valor entre [0,1]
Então uma coisa comum de fazer traduzir essa soma ponderada
Em alguma função que reduz a reta dos números reais em uma intervalo entre 0 e 1.
Uma função comum que faz isso é chamada de função Sigmoid também conhecida como uma curva logística
Basicamente toda entrada negativa termina próximo de zero e toda entrada positiva termina próxima de 1
E simplesmente increse de maneira constante ao redor da entrada 0
Logo a ativação de um neurônio aqui é basicamente uma medida de quão positivo a relevante soma ponderada é

Portuguese: 
E, se você realmente quer saber se há uma vantagem aqui, o que você pode fazer é ter alguns pesos negativos
associado aos pixels adjacentes
Em seguida, a soma é maior quando esses pixels médios são brilhantes, mas os pixels ao redor são mais escuros
Quando você calcula uma soma ponderada como esta, você pode sair com qualquer número
mas para essa rede o que queremos é que as ativações tenham algum valor entre 0 e 1
então uma coisa comum a fazer é bombear essa soma ponderada
Em alguma função que limita a linha numérica real no intervalo entre 0 e 1 e
Uma função comum que faz isso é chamada de função sigmóide, também conhecida como uma curva logística
basicamente entradas muito negativas acabam perto de zero entradas muito positivas acabam perto de 1
e apenas aumenta de forma constante em torno da entrada 0
Portanto, a ativação do neurônio aqui é basicamente uma medida de quão positiva é a soma ponderada relevante

Vietnamese: 
Và, nếu bạn thực sự muốn nó nhặt về việc liệu có là một cạnh ở đây những gì bạn có thể làm là có một số trọng lượng tiêu cực
kết hợp với các điểm ảnh xung quanh
Sau đó tổng hợp là lớn nhất khi những điểm ảnh giữa sáng, nhưng các điểm ảnh xung quanh cũng sẫm
Khi bạn tính toán một tổng trọng như thế này bạn có thể đi ra với bất kỳ số
nhưng cho mạng này những gì chúng tôi muốn là cho kích hoạt được một số giá trị giữa 0 và 1
do đó, một điều phổ biến để làm là để bơm tổng trọng này
Vào một số chức năng mà squishes dòng số thực vào khoảng từ 0 & 1 và
Một chức năng phổ biến mà thực hiện điều này được gọi là hàm sigmoid còn được gọi là một đường cong logistic
về cơ bản đầu vào rất tiêu cực kết thúc gần bằng không đóng góp rất tích cực kết thúc gần 1
và nó chỉ đều đặn tăng xung quanh các đầu vào 0
Vì vậy, sự hoạt hóa của tế bào thần kinh ở đây về cơ bản là một biện pháp như thế nào dương tính tổng trọng có liên quan là

Italian: 
E, se vuoi davvero che capisca se c'è un tratto qui, quello che potresti fare è avere dei pesi negativi
associati ai pixel circostanti
Quindi la somma è maggiore quando i pixel centrali sono luminosi, ma i pixel circostanti sono più scuri
Quando calcoli una somma ponderata come questa potresti ottenere qualsiasi numero
ma per questa rete ciò che vogliamo è che le attivazioni abbiano un valore compreso tra 0 e 1
quindi una cosa comune da fare è mettere questa somma ponderata
In una funzione che schiaccia la linea deli numeri reali nell'intervallo compreso tra 0 e 1 e
Una tipica funzione che fa ciò è chiamata la funzione sigmoide conosciuta anche come curva logistica
input molto negativi finiscono vicino a zero. Gli input molto positivi finiscono vicino a 1
e aumenta fortemente attorno all'input 0
Quindi l'attivazione del neurone qui è fondamentalmente una misura di quanto sia positiva la somma ponderata

French: 
Et si vous voulez vraiment reconnaître un trait ici, vous devriez aussi choisir des poids négatifs
associés aux pixels environnants.
Ainsi, la somme sera plus élevée lorsque ces pixels intermédiaires sont lumineux, et que les pixels autours sont sombres.
Lorsque vous calculez une somme pondérée comme celle-ci, vous pouvez trouver n'importe quel nombre.
Mais pour ce réseau, on ne veut que des activations entre 0 et 1.
Donc il est d'usage de donner cette somme pondérée à
une certaine fonction qui ramène la droite des réels au segment [0;1]
Et une fonction commune qui fait ceci est appelée la fonction sigmoïde, aussi connue sous le nom de courbe logistique.
Basiquement, des antécédents très négatifs donneront des images proches de 0, et inversement,
et elle augmente simplement autour de 0 de façon régulière.
Donc l'activation d'un neurone est simplement la mesure de "à quel point la somme pondérée est positive".

Turkish: 
Ve, eğer burada bir kenar olup olmadığını anlamak isterseniz, yapabileceğiniz şeylerin bazı negatif ağırlıkları vardır.
çevresindeki piksellerle ilişkili
Daha sonra toplam, bu orta piksel parlak olduğunda büyük, ancak çevresindeki piksel daha koyu
Böyle ağırlıklandırılmış bir hesapladığınızda, herhangi bir sayı ile çıkabilir
ancak bu ağ için istediğimiz şey, aktivasyonların 0 & 1 arasında bazı değerler olmasıdır
bu yüzden ortak bir şey yapmak bu ağırlıklı toplamı pompalamaktır
Gerçek sayı satırını 0 & 1 ve
Bunu yapan ortak bir fonksiyona, lojistik eğrisi olarak da bilinen sigmoid fonksiyonu denir.
temelde çok negatif girişler sıfıra yakın sonlar Çok pozitif girişler 1'e yaklaşır
ve 0 girişi etrafında sürekli artar
Buradaki nöronun aktivasyonu temelde ilgili ağırlıklandırılmış toplamın ne kadar pozitif olduğunun bir ölçüsüdür

Arabic: 
وإن كنت تريد معرفة ما إذا كان هناك حافة هنا أو لا ربما عليك أن تمتلك بعض الاوزان السالبة
مرتبطة بالبكسل المحيطة
ثم يكون المجموع أكبر عندما تكون هذه البكسل فى المنتصف  ساطعة ، ولكن البكسل المحيطة بها أكثر قتامة
عند حساب وزن المجموع بهذه الطريقة يمكنك الحصول على أى عدد
ولكن لهذه الشبكة ما نريده هو أن تكون للتفعيلات قيمة بين 0 وال 1
الشيء الشائع الذى نستخدمه هو تغذية دالة ما بهذا الوزن
تلك الدالة تقوم بتحويل هذا العدد أيا كانت قيمته إلى قيمة بين الصفر والواحد
هناك دالة شائعة تقوم بذلك بالفعل تسمى sigmoid وهى أيضا معروفة باسم logistic curve
بالأساس أى مدخل عال في قيمته السالبة  ينتهى به المطاف إلى الصفر وأى مدخل عال في قيمته الموجبة ينتهي به المطاف إلى الواحد
وهى تزيد بطريقة طردية فقط حول النقطة صفر
لذلك تفعيل الخلايا العصبية هنا هو بالأساس قياس للانحياز الموجب لوزن المجموع

Japanese: 
そして、あなたが本当にそれがここにエッジがあるかどうかを拾うことを望むなら、あなたがするかもしれないことは、いくつかの負の重みを持つことです
周辺画素に関連する
その中間のピクセルが明るいときに合計が最大になりますが、周囲のピクセルはより暗くなります
このような加重和を計算すると、任意の数
しかし、このネットワークでは、活性化が0＆1の間の値になるようにしたい
そのため、一般的なことは、この加重和をポンピングすることです
実数の線を0と1の間の範囲に縮めるいくつかの関数に
これを行う一般的な関数は、ロジスティック曲線とも呼ばれるシグモイド関数と呼ばれます
基本的に非常に負の入力はゼロに近づく非常に正の入力は1に近づく
それはちょうど入力0の周りで着実に増加します
したがって、ここでのニューロンの活性化は、基本的に、関連する加重和がどのようにプラスであるかの尺度である

Czech: 
A pokud chceme detekovat, že je v tomto místě čárka, můžeme ještě přidat záporné váhy
pro okolní pixely
Pak je součet největší, když jsou středové pixely jasné, a okolní pixely tmavší
Když vypočítáte takovýto vážený součet, může vyjít libovolné číslo
Ale pro tuto síť chceme, aby aktivace byla nějaká hodnota mezi 0 a 1
Takže obecně se dělá, že tento vážený součet
se vloží do nějaké funkce, která reálnou přímku smrskne do intervalu mezi 0 a 1
Typická funkce, která toto dělá, se nazývá sigmoida (patří do skupiny logistických křivek)
Velmi záporné hodnoty pak skončí blízko nule, velmi kladné hodnoty skončí blízko jedné
a kolem hodnoty 0 je funkce rostoucí
Aktivace neuronu je v podstatě mírou toho, jak velký je příslušný vážený součet

Hungarian: 
És ha tényleg azt akarod, hogy itt egy élt találj, akkor célszerű negatív súlyt társítani
a környező képpontokhoz.
Ezután az összeg akkor lesz a legnagyobb, ha a középső képpontok világosak, de a környező képpontok sötétek.
Ilyen súlyozott összeg számításakor, bármilyen érték kijöhet,
de ehhez a hálózathoz az értékeknek 0 és 1 közé kell esnie.
Így aztán az összeget valamiféle függvénybe kell csomagolnunk,
ami megoldja ezt az "összenyomást".
Az egyik általános függvény, amivel ez megoldható a szigmoid, vagy más néven logisztikus függvény.
Itt lényegében a nagyon negatív értékekből egy nulla közeli érték, nagyon pozitívakból 1 közeli érték lesz,
0 környezetében pedig monoton nő.
Vagyis a neuron aktivitása itt alapvetően attól függ, hogy mennyire pozitív a súlyozott összeg.

Chinese: 
如果知道這裡是不是真的存在一條邊
你只需要在周圍加上負的權重
這樣當中間的像素亮但是周圍的像素暗 就可以得到最大的加權總和
當你計算加權總和時 它的值可能是任意實數
但是在這裡我們想要計算完的結果介於 0 跟 1 之間
所以我們通常會把這個值丟進一個函數裡面
把這個實數軸壓縮成一個介於 0 到 1 之間
有一個常見的函數叫做「Sigmoid」也被稱為「邏輯函數」
基本上越小的數會越來越接近 0
越大的數會越來越接近 1
輸入值在 0 附近的會平穩增長
所以從神經網路得到的激勵函數基本上就代表加權總和的大小

Polish: 
A jeśli naprawdę chcesz, żeby się dowiedział, czy jest tu coś, co możesz zrobić, to masz ujemne wagi
związane z otaczającymi pikselami
Wtedy suma jest największa, gdy te środkowe piksele są jasne, ale otaczające piksele są ciemniejsze
Kiedy obliczysz ważoną sumę w ten sposób, możesz wyjść z dowolnym numerem
ale dla tej sieci potrzebujemy, aby aktywacje miały pewną wartość między 0 a 1
więc powszechną rzeczą jest pompowanie tej ważonej sumy
Do funkcji, która redukuje rzeczywistą linię liczbową do zakresu pomiędzy 0 a 1 i
Typową funkcją, która to robi, jest funkcja sigmoidowa, znana również jako krzywa logistyczna
zasadniczo bardzo ujemne dane wejściowe kończą się blisko zera bardzo pozytywne wejścia kończą się blisko 1
i stale wzrasta wokół wejścia 0
Tak więc aktywacja neuronu jest zasadniczo miarą tego, jak pozytywna jest odpowiednia ważona suma

Spanish: 
Y si realmente queremos tomar algo donde haya un eje,
lo que podrías hacer es tener algunos
pesos negativos con los pixeles redondeados ,
luego, la suma es mas grande cuando eso pixeles de en medio
están iluminados , pero los los pixeles redondeados estan oscuros .
Cuando coputas una suma "Pesada" como esta
podrías terminar con cualquier número ,pero para esta red
lo que queremos son activaciones
que sean algún valor entre 0 y 1,  una cosa común que se hace es
empujar esta suma pesada en una función que
junte toda la recta de los números reales un rango  entre 0 y 1
y una función común que hace esto es llamada la
función sigmoid, también conocida  como la curva logística.
Básicamente, valores de entrada muy negativos
cercanos a cero, y valores positivos cercanos a 1
y continuamente incrementa alrededor de la entrada 0.
Asi que , la activación de la neurona aquí,
es básicamente una medida de
que tan positiva es la suma pesada

Chinese: 
此时如果你真的想识别出这里是否存在一条边
你只需要给周围一圈的像素赋予负的权重
这样当中间的像素亮 周围的像素暗时 加权和就能达到最大
这样计算出来的加权和可以是任意大小
但这个网络中 我们需要激活值都处在0与1之间
那么 我们就可以顺其自然把这个加权和输进某个函数
把这条实数轴挤压进0到1的区间内
其中一个叫sigmoid的函数非常常用
它又叫logistic/逻辑斯蒂曲线
简而言之 它能把非常大的负值变成接近0
非常大的正值变成接近1
而在取值0附近则是平稳增长的
所以这个神经元中的激活值
实际上就是一个对加权和到底有多正的打分

Japanese: 
しかし、重み付けされた合計が0より大きい場合にニューロンを点灯させたいというわけではないかもしれません
たぶんあなたは、合計が10より大きいときにアクティブにしたいだけかもしれません
それはあなたがそれが非アクティブであるためのいくつかのバイアスが欲しいです
私たちがやることは、この加重和に負の10のような他の数を加えるだけです
Sigmoid squishification機能を使ってプラグを差し込む前に
その追加数はバイアスと呼ばれます
したがって、ウェイトは、2番目のレイヤーのこのニューロンがどのピクセルパターンでピックアップしているかを示し、バイアス
ニューロンが有意義にアクティブになる前に、加重合計がどれくらい高い必要があるかを示します
それはただのニューロンです
この層の他のすべてのニューロンは、すべての
第1の層からの784ピクセルのニューロンおよびこれらの784個の接続の各々はそれに関連するそれ自体の重みを有する
また、それぞれにはいくつかのバイアスがあります。これは、シグモイドでそれを潰す前に加重合計に加算します。

Chinese: 
但是不是每次只要加權總和大於零的時候就點亮神經元
也許你只想要在它大於 10 的時候啟動
所以要加入一個門檻來確保它不會隨便啟動
我們只要在加權總和後面加上一個像是 負10 之類的數
再把它塞進邏輯函數裡
這個附加的數字就叫做偏置
所以權重告訴我們下一層的神經元所關注的圖樣
偏置則告訴我們加權總和要超過什麼程度才是有意義的
以上只是一個神經元的情況
在這一層的每個神經元都會連接第一層共 784 個神經元
而且這 784  條連接線都各有一個屬於自己的權重
還有每一個神經元都會在計算完加權總和後再加上自己的偏置再用邏輯函數輸出自己的結果

Russian: 
Но возможно не требуется чтобы нейрон зажигался когда взвешенная сумма больше нуля.
Возможно вы хотите чтобы он активировался только когда сумма больше, например, 10.
То есть вам требуется некий сдвиг его активности.
Тогда надо просто добавить некое число, например -10, к этой взвешенной сумме,
до передачи её в сигмоидную функцию сжатия.
Это дополнительное число называется "сдвиг".
Таким образом, веса отвечают за то, какой шаблон пикселей этот нейрон из второго слоя отбирает,
а сдвиг определяет насколько большой должна быть взвешенная сумма,
чтобы нейрон стал достаточно активным.
Это только один нейрон.
Каждый нейрон из этого слоя будет соединён со всеми 784 пиксельными нейронами из первого слоя.
И каждое из этих 784 соединений будет иметь свой ассоциированный с ним вес.
Так же у каждого есть сдвиг, какое-то число, добавляемое к взвешенной сумме до сжатия в сигноиде.

Italian: 
Ma forse non vuoi che il neurone si accenda quando la somma ponderata è maggiore di 0
Forse vuoi solo che si accenda quando la somma è più grande di 10
Quello che vuoi è una soglia entro la quale sia inattivo
quello che faremo allora è aggiungere un altro numero come il -10 a questa somma ponderata
Prima di collegarlo alla funzione sigmoide
Quel numero aggiuntivo è chiamato "soglia" [bias]
Quindi i pesi ti dicono quale schema di pixel sta cercando questo neurone del secondo strato e la soglia
ti dice quanto deve essere alta la somma ponderata prima che il neurone inizi a diventare significativamente attivo
E questo è solo un neurone
Ogni altro neurone in questo strato sarà collegato a tutti
i 784 neuroni del primo strato e ciascuno di questi 784 collegamenti ha il proprio peso associato
inoltre ognuno ha come soglia un altro numero che aggiungi alla somma ponderata prima di sottoporlo alla funzione sigmoide e

Czech: 
Ale možná, že nechcete, aby se neuron rozsvítil, kdykoli je vážený součet větší než 0
Místo toho chcete, aby byl aktivní pouze tehdy, když je součet větší než, řekněme 10
Chcete mít možnost omezit jeho aktivitu
Zařídíme to tak, že k váženému součtu přičteme další číslo, třeba −10,
ještě než hodnotu ztransformujeme pomocí sigmoidy
Toto dodatečné číslo se nazývá práh
Takže váhy určují, jaký vzor pixelů neuron druhé vrstvy detekuje, a práh
určuje, jak vysoká musí být hodnota váženého součtu, aby se neuron stal aktivním
Prozatím jsme zkoumali jeden neuron
Každý další neuron v této vrstvě bude spojen se všemi
784 neurony pixelů z první vrstvy a každé z těchto 784 spojení má svou vlastní váhu
Každý neuron má také svůj práh, jedno číslo, které je třeba přičíst k váženému součtu, než vše transformujeme sigmoidou

Indonesian: 
Tapi mungkin bukan karena Anda ingin neuron menyala ketika jumlah tertimbang lebih besar dari 0
Mungkin Anda hanya ingin aktif ketika jumlahnya lebih besar daripada 10
Itu adalah Anda ingin beberapa bias untuk itu menjadi tidak aktif
apa yang akan kita lakukan adalah menambahkan angka lain seperti negatif 10 ke jumlah tertimbang ini
Sebelum menghubungkannya melalui fungsi squishification sigmoid
Nomor tambahan itu disebut bias
Jadi bobot memberi tahu Anda apa pola piksel neuron ini di lapisan kedua adalah menangkap dan bias
memberitahu Anda seberapa tinggi jumlah tertimbang harus sebelum neuron mulai menjadi aktif penuh makna
Dan itu hanya satu neuron
Setiap neuron lain di lapisan ini akan terhubung ke semua
784 piksel neuron dari lapisan pertama dan masing-masing dari 784 koneksi memiliki beratnya sendiri yang terkait dengannya
juga masing-masing memiliki beberapa bias beberapa nomor lain yang Anda tambahkan ke jumlah tertimbang sebelum meremasnya dengan sigmoid dan

Korean: 
하지만 당신은 가중치의 합이 0을 넘을때 뉴런이 활성화 되는 것을 원하는 게 아닐 수 있지요.
예를 들어 합이 10보다 클 때 활성화 되기를 원할 수 도 있습니다.
그것이 활성화되지 않기 위한 조건을 다는 것이죠.
그럴때는 이 가중치에  -10 처럼 다른 음의 숫자를 더해줍니다.
시그모이드 함수에 값을 집어넣기 전에 말이죠.
그 더해지는 숫자를  Bias라고 합니다.
가중치는 두번째 레이어가 선택하려는 뉴런의 픽셀 패턴을 알려주며
bias는 뉴런이 활성화되려면 가중치의 합이 얼마나 더 높아야 하는지를 알려줍니다.
지금까진 단 한 개의 뉴런에 대하여 이야기했습니다.
이 레이어의 모든 뉴런은 각각
첫번째 레이어의 784개 뉴런과  연결됩니다.
그리고 이 각각의 연결들은 각자의 가중치를 갖습니다.
또한 각각의 뉴런은 시그모이드 함수로 압축하기전에 가중치에 더한 값인 bias를 갖습니다.

Vietnamese: 
Nhưng có lẽ nó không phải là bạn muốn neuron sáng lên khi tổng trọng lớn hơn 0
Có lẽ bạn chỉ muốn nó được kích hoạt khi tổng lớn hơn nói 10
Đó là bạn muốn có một số thiên vị cho nó không hoạt động
những gì chúng tôi sẽ làm sau đó chỉ cần được thêm vào một số số khác như tiêu cực từ 10 đến tổng trọng này
Trước khi cắm nó thông qua hàm sigmoid squishification
Đó là số bổ sung được gọi là thiên vị
Vì vậy, các trọng số cho bạn biết điểm ảnh mẫu tế bào thần kinh này trong lớp thứ hai được chọn lên trên và thiên vị
cho bạn cao bao nhiêu tổng trọng cần thực hiện trước các tế bào thần kinh bắt đầu nhận được ý nghĩa tích cực
Và đó chỉ là một tế bào thần kinh
Mỗi tế bào thần kinh khác trong lớp này sẽ được kết nối với tất cả
784 pixel tế bào thần kinh từ lớp đầu tiên và mỗi một trong những kết nối 784 đã sức nặng của nó liên kết với nó
cũng mỗi người có một số thiên vị một số số khác mà bạn thêm vào tổng trọng trước khi nứt nó với sigmoid và

Persian: 
اما شاید وقتی که مجموع وزنی بزرگتر از 0 باشد آنطور که شما می خواهید نورون را روشن نکند
شاید فقط بخواهید وقتی که جمع بزرگتر از 10 باشد  آن را فعال کنید
به این دلیل که می خواهید برخی از بایاس برای آن غیر فعال باشد
آنچه که ما انجام خواهیم داد این است که فقط عدد دیگری را مانند عدد منفی 10  به این مجموع وزن اضافه کنیم
قبل از اتصال به تابع انقباضی سیگموئید
عدد اضافه شده بایاس نامیده می شود
بنابراین وزنها به شما میگویند که کدام یک از الگوی پیکسل این نورون در لایه دوم برداشته شده است و بایاس
به شما می گوید که قبل از اینکه نورون شروع به فعال شدن معنی دار کند، باید مقدار وزنی بالاتری داشته باشد
و این فقط یک نورون است
هر نورون دیگر در این لایه، به همه
نورون های 784 پیکسل از لایه اول متصل می شود و هر کدام از 784 اتصالات وزن خود را با آن مرتبط می کند
همچنین هر یک از بایاس ها تعدادی عدد دیگری که شما را با مجموع وزنی اضافه می کند قبل از آن که با سیگموئید مخلوط شود و

Chinese: 
但有时 即使加权和大于0时 你也不想把神经元点亮
可能只有当和大于例如10的时候才让它激发
此时你就需要加上一个偏置值 保证不能随便激发
而我们只需要在加权和之后加上一个负10之类的数
再把它送进sigmoid压缩/映射函数即可
这个附加的数就叫做偏置
总而言之 权重告诉你这个第二层的神经元关注什么样的像素图案
偏置则告诉你加权和得有多大
才能让神经元的激发变得有意义
我们这就解说完了其中一个神经元
但这一层的每一个神经元 都会和第一层全部的784个神经元相连接
每一个的784个接线上都带着一个权重
而且每一个神经元都会在计算自己的加权和后加上自己的偏置
再通过sigmoid压缩输出自己的结果
一下子要考虑的就多起来了

French: 
Mais peut-être qu'on ne veut pas que le neurone s'active quand la somme est supérieure à 0.
Peut-être qu'on veut qu'il s'active lorsque la somme est supérieure à disons 10.
En gros, vous voulez un biais pour qu'il soit inactif.
Ainsi, on va simplement ajouter un autre nombre tel que -10 à cette somme pondérée
avant de la donner à la fonction sigmoïde qui la ramène entre 0 et 1.
Ce nombre additionnel est appelé le biais.
Donc les poids nous disent quel motif de pixels ce neurone de la deuxième couche reconnaît,
et le biais nous disent à quel point la somme doit être haute afin que le neurone ne soit vraiment actif.
Et ça, ce n'est que pour un neurone !
Chacun des autres neurones de cette couche sera connecté à tous
les 784 neurones-pixels de la première couche, et chacune de ces 784 connections a son propre poids associé.
Aussi, chacun a un biais, un autre nombre qu'on ajoute à la somme pondérée avant de la ramener entre 0 et 1 avec la fonction sigmoïde.

Portuguese: 
Mas talvez não seja que você queira que o neurônio acenda quando a soma ponderada for maior que 0
Talvez você só queira que ele esteja ativo quando a soma for maior que 10
Isso é que você quer algum preconceito para que seja inativo
o que faremos então é adicionar outro número como 10 negativo a essa soma ponderada
Antes de ligá-lo através da função de saturação de sigmóide
Esse número adicional é chamado de viés
Então os pesos dizem a você qual padrão de pixel este neurônio na segunda camada está captando e o viés
diz-lhe quão alta a soma ponderada precisa ser antes que o neurônio comece a se tornar significativamente ativo
E isso é apenas um neurônio
Todos os outros neurônios nesta camada serão conectados a todos
784 pixels de neurônios da primeira camada e cada uma dessas 784 conexões tem seu próprio peso associado a ela
também cada um tem algum viés algum outro número que você adiciona à soma ponderada antes de esmagá-lo com o sigmóide e

Modern Greek (1453-): 
Ίσως όμως να μη θέλετε ο νευρώνας να ενεργοποιείται όταν το σταθμικό άθροισμα είναι πάνω από 0.
Ίσως θέλετε να ενεργοποιείται μόνο όταν το άθροισμα είναι πχ. πάνω από 10.
Θέλετε δηλαδή μία "πόλωση" που θα τον απενεργοποιεί.
Αυτό που κάνουμε λοιπόν είναι να προσθέσουμε έναν ακόμη αριθμό, πχ. το -10 σε αυτό το σταθμικό άθροισμα,
πριν το περάσουμε στην σιγμοειδή συνάρτηση "συμπίεσης".
Αυτός ο πρόσθετος αριθμός λέγεται "πόλωση".
Άρα τα βάρη, σας λένε ποιο μοτίβο από pixel ανιχνεύει αυτός ο νευρώνας στο δεύτερο στρώμα, και η πόλωση
σας λέει το πόσο μεγάλο πρέπει να είναι το σταθμικό άθροισμα ώστε να αρχίσει ο νευρώνας να είναι σημαντικά ενεργός.
Και αυτός είναι μόνο ένας από τους νευρώνες.
Κάθε άλλος νευρώνας σε αυτό το δίκτυο, συνδέεται με όλους τους
784 νευρώνες-pixel του πρώτου στρώματος, και καθεμία από αυτές τις 784 συνδέσεις έχει το δικό της βάρος,
και κάθε νευρώνας έχει τη δική του πόλωση, δηλαδή έναν ακόμα όρο που προσθέτεις στο σταθμικό άθροισμα πριν το "συμπιέσεις" με την σιγμοειδή.

Hungarian: 
Lehet viszont, hogy nem akarjuk, hogy a neuron már akkor tüzeljen, ha a súlyozott összeg nagyobb 0-nál.
Lehet, hogy azt szeretnénk, hogy ez csak akkor történjen meg, ha 10-nél is nagyobb.
Vagyis kell egy küszöbérték, ameddig a neuron inaktív marad.
Ennek érdekében csak hozzá kell adnunk a kifejezéshez egy negatív számot,
mielőtt beküldenénk a szigmoid függvénybe.
Ezt a számot torzításnak nevezzük.
Tehát a súlyok megmondják, milyen pixel-mintázatra reagál a neuron a második rétegben, 
míg a torzítás meghatározza, hogy mi az a minimális súlyozott összeg, ami felett a neuron tüzelni kezd.
És ez csak egyetlen neuron.
A második réteg összes többi neuronja is ugyanúgy kapcsolódik
az első réteg 784 neuronjához, és mind a 784 kapcsolathoz tartozik egy súly is.
Továbbá mindegyiknek van egy torzítási értéke is.

Turkish: 
Ancak belki de ağırlıklandırılmış toplam 0'dan büyük olduğunda nöronun yanmasını istemezsiniz
Belki yalnızca toplamın 10'dan büyük olduğu zaman etkin olmasını istiyorsun
Bunun için bazı önyargıların aktif olmamasını istiyorsun
O halde ne yapacağız sadece bu ağırlıklı toplamın negatif 10 gibi başka bir sayı ekleyin
Sigmoid püskürtme fonksiyonuyla takmadan önce
Bu ek numaraya önyargı denir.
Ağırlıklar, ikinci katmandaki bu nöronun hangi piksel desenini aldığını ve önyargı
nöron anlamlı olarak aktif olmaya başlamadan önce ağırlıklı toplamın ne kadar yüksek olması gerektiğini söyler
Ve bu sadece bir nöron
Bu katmandaki diğer her nöron, herkesin
İlk katmandan 784 piksel nöron ve bu 784 bağlantıdan her biri kendi ağırlığı ile ilişkilidir
Ayrıca her birinin, sigmoid ile karıştırmadan önce ağırlıklı bir miktara eklediğiniz başka bir önyargı vardır.

English: 
But maybe it's not that you want the neuron to light up when the weighted sum is bigger than 0
Maybe you only want it to be active when the sum is bigger than say 10
That is you want some bias for it to be inactive
what we'll do then is just add in some other number like negative 10 to this weighted sum
Before plugging it through the sigmoid squishification function
That additional number is called the bias
So the weights tell you what pixel pattern this neuron in the second layer is picking up on and the bias
tells you how high the weighted sum needs to be before the neuron starts getting meaningfully active
And that is just one neuron
Every other neuron in this layer is going to be connected to all
784 pixels neurons from the first layer and each one of those 784 connections has its own weight associated with it
also each one has some bias some other number that you add on to the weighted sum before squishing it with the sigmoid and

German: 
Aber vielleicht möchten Sie gar nicht, dass das Neuron aufleuchtet, sobald es einen höheren Wert als 0 hat.
Vielleicht möchten Sie es nur dann aktiv haben, wenn die gewichtete Summe grösser als 10 ist.
Das heißt, Sie wollen eine gewisse Tendenz dazu, inaktiv zu sein.
Was wir dann tun ist, eine andere Zahl hinzufügen - wie bspw. (-10),
bevor sie durch die S-förmige Skalierungsfunktion wandert.
Diese zusätzliche Zahl wird Verzerrung (oder Bias) genannt.
Somit sagen die Gewichte, welche Pixelmuster dieses Neuron in der zweiten Schicht aufgreifen soll
und die Verzerrung gibt an, wie hoch die gewichtete Summe sein muss, damit eine Aktivierung eingeleitet wird.
Und das ist erst ein Neuron.
Jedes andere Neuron in dieser Schicht ist ebenfalls mit allen
784 Pixelneuronen aus der ersten Schicht verbunden und jeder dieser Anschlüsse hat ein eigenes Gewicht, welches damit verbundenen ist.
Ebenfalls hat jedes eine Verzerrung, eine Zahl, welche hinzugefügt wird, bevor die Sigmoid-Funktion angewendet wird (Skalierung auf 0-1).

Portuguese: 
Mas talvez isso não é o que você quer: o neurônio ser ativado quando uma soma ponderada é maior que 0
Talvez você apenas queira que seja ativado quando a soma é maior que, vamos dizer, 10
Isto é o que você algum bias (tendência) para isso seja inativo
O que iremos fazer então é apenas adicionar um outro número como -10 para essa soma ponderada
Antes de plugá-la na função sigmoid para normalização
Este número adicional é chamado o "bias"
Então os pesos dizem para você que padrão de pixel esse neurônio na segunda chamada está extraindo e o bias
diz a você quão alto a soma ponderada precisa ser antes do neurônio comece a ser significantemente ativado
E isso não é apenas um neurônio!
Todos outros neurônios nessa camada estará sendo conectado a todos
784 neurônios de pixel da primeira camada e cada um dessas 784 conexões tem seu próprio peso associado com ele
 

Polish: 
Ale może to nie jest tak, że chcesz, aby neuron zapalił się, gdy ważona suma jest większa niż 0
Może chcesz, aby była aktywna tylko wtedy, gdy suma jest większa niż 10
To jest coś, co chcesz, żeby było nieaktywne
to, co zrobimy, to po prostu dodaj inną liczbę, na przykład ujemną 10, do tej ważonej sumy
Przed podłączeniem go przez funkcję esmozy
Ta dodatkowa liczba nazywa się uprzedzeniem
Ciężary mówią ci, jaki wzorzec pikseli ten neuron w drugiej warstwie odbiera i jest nastawiony
mówi, jak wysoka musi być ważona suma, zanim neuron zacznie być znacząco aktywny
A to tylko jeden neuron
Każdy inny neuron w tej warstwie zostanie połączony ze wszystkimi
784 piksele neuronów z pierwszej warstwy i każde z tych 784 połączeń ma przypisaną własną wagę
również każdy ma jakieś odchylenie, jakąś inną liczbę, którą dodajesz do sumy ważonej, przed zgniataniem jej sigmoidą i

Thai: 
แต่อาจไม่ใช่ว่าคุณต้องการให้เซลล์ประสาทสว่างขึ้นเมื่อผลรวมที่มีค่ามากกว่า 0
บางทีคุณอาจต้องการให้ใช้งานได้เมื่อผลรวมใหญ่กว่าพูด 10
นั่นคือคุณต้องการอคติบางอย่างที่จะไม่ใช้งาน
สิ่งที่เราจะทำก็คือเพิ่มจำนวนอื่นเช่นลบ 10 เป็นจำนวนรวมที่ถ่วงนี้
ก่อนที่จะเสียบผ่านฟังก์ชัน squishification sigmoid
จำนวนเพิ่มเติมที่เรียกว่าอคติ
ดังนั้นน้ำหนักบอกคุณว่ารูปแบบพิกเซลนี้เซลล์ประสาทในชั้นที่สองคือการรับขึ้นและอคติ
บอกคุณว่าผลรวมที่ถ่วงน้ำหนักต้องเป็นอย่างไรก่อนที่เซลล์ประสาทจะเริ่มทำงานอย่างมีนัยสำคัญ
และนั่นเป็นเพียงเซลล์ประสาทตัวเดียว
เซลล์ประสาททุกตัวในชั้นนี้จะเชื่อมต่อกับทุกเซลล์
784 พิกเซลเซลล์ประสาทจากชั้นแรกและหนึ่งในนั้น 784 การเชื่อมต่อมีน้ำหนักของตัวเองที่เกี่ยวข้องกับมัน
แต่ละคนมีอคติบางจำนวนอื่น ๆ ที่คุณเพิ่มไปยังผลรวมถัวเฉลี่ยก่อน squishing กับ sigmoid และ

Arabic: 
ولكن ربما لا تريد أن تضيء الخلية العصبية  عندما يكون الوزن  أكبر من 0
ربما كنت تريد فقط أن تكون نشطة عندما يكون الوزن أكبر من 10
أنك تريد أن تجعلها متحيزة قليلا لأن تكون غير نشطة
ما ستفعله فقط هو إضافة رقم سالب لمجموع الأوزان مثل -10
قبل إدخالها إلى دالة ال sigmoid
ويسمى هذا العدد الإضافي بالانحياز
لذا فالأوزان تخبرك ما هو نمط البكسل الذى تتخذه الخلية العصبية فى الطبقة الثانية أما الانحياز فيخبرك
القيمة التى يحتاج أن يكون عليها الوزن لكى تصبح الخلية العصبية نشطة
وهذا كله فقط لخلية واحدة
كل خلية عصبية أخرى فى هذه الطبقة ستكون مرتبطة بكل ال784 خلية عصبية الموجودة فى الطبقة الأولى
ولكل ارتباط من هذه ال784 ارتباطات له وزنه الخاص المرتبط به
أيضا لكل واحد انحياز ..رقم ما تضيفه للوزن قبل سحقه فى دالة الsigmoid

Spanish: 
Pero, puede ser que no sea lo que tu quieras
que ilumine la neurona cuando la suma pesada es mayor que 0,
quizás que solo sea activada cuando la suma pesada es mayor que, digamos,  10
para eso tu quieres un "Bias"  que este inactivo
lo que haremos luego sera solo sumar
otro número como -10 a esta suma pesada,
antes de enchufarlo a la función Sigmoid
Ese número adicional es llamado el BIAS.
Entonces los pesos te dicen que patrón de pixeles
en la segunda capa esta neurona esta tomando
Y el BIAS  te dice que tan alta la suma podría ser
antes de que la neurona empieza a activarse significativamente .
Y eso es solo una neurona,
Cualquier otra neurona en esta capa va estar conectada
a todos los 784 pixeles de la primera capa
y cada uno de esa 784 conexiones
tienes su propio peso asociado con ella.
También cada tiene un BIAS ,
(Otro número que añades a la suma pesada antes de pasarla a la función Sigmoid )

Turkish: 
Bu, 16 nöron gizli tabakayla düşünülmesi gereken çok şey var
toplamda 784 kat 16 ağırlık ve 16 önyargı
Ve hepsi sadece ilk kattan ikinci katlara bağlantıları diğer katmanlar arasındaki bağlantıları
Ayrıca, onlarla ilişkili ağırlıklar ve önyargılardan bir demet var
Hepsi bu ağın neredeyse tam olduğunu söyledi ve yaptı.
Toplam ağırlık ve önyargı 13.000
Bu ağı farklı şekillerde davrandıklarında ayarlanabilen ve döndürülebilen 13.000 düğme ve kadran
Öyleyse öğrenme hakkında konuşurken?
Bahsedilen şey, bilgisayarın bu birçok çok sayının tümü için geçerli bir ayar bulmasını sağlamak ve böylece gerçekten çözeceksin
eldeki sorun
bir düşünce
Bir anda eğlenceli ve korkutucu olan deneme, oturmanın ve bu ağırlıkların ve önyargıların hepsinin elle ayarlanmasını hayal etmektir
Numaraları, ikinci katın kenarlarından almasını sağlayacak şekilde değiştirerek, üçüncü katmanın desenleri vb. Almasını sağlayın.

Portuguese: 
Isso é muito para se pensar com essa camada oculta de 16 neurônios
isso é um total de 784 vezes 16 pesos, juntamente com 16 preconceitos
E tudo isso são apenas as conexões da primeira camada até a segunda, as conexões entre as outras camadas
Além disso, tem um monte de pesos e vieses associados a eles
Tudo dito e feito esta rede tem quase exatamente
13.000 pesos e vieses totais
13.000 botões e mostradores que podem ser ajustados e tornados para fazer com que esta rede se comporte de diferentes maneiras
Então, quando falamos de aprender?
O que está se referindo é fazer com que o computador encontre uma configuração válida para todos esses muitos números, de modo que ele realmente resolva
o problema na mão
um pensamento
Experimento que é ao mesmo tempo divertido e meio horrível é imaginar sentar e definir todos esses pesos e vieses à mão
Propositalmente aprimorando os números para que a segunda camada pegue nas bordas, a terceira camada capta padrões etc.

Persian: 
این مقدار زیادی برای فکر کردن درباره این لایه پنهان از 16 نورون است
این یک مجموعه از 784 بار 16 وزن همراه با 16 بایاس است
و همه اینها فقط اتصال از لایه اول به دوم ارتباطات بین لایه های دیگر است
همچنین، دسته ای از وزن و بایاس مرتبط با آنها داریم
همه خوانده شده اند و این تقریبا  شبکه دقیق است
مجموع وزن ها و بایاس ها 13000 است
13،000 گره وارتباطاتی است که می توان آن را تغییر داده و تبدیل کرد تا این شبکه به شیوه های مختلف رفتار کند
پس وقتی ما در مورد یادگیری صحبت می کنیم؟
آنچه که به آن اشاره شده است، دریافت کامپیوتر برای پیدا کردن یک تنظیم معتبر برای تمام این تعداد بسیار بسیار زیاد اعداد است به طوری که در واقع  آن را حل کند
مشکل موجود
این است که آزمایشی را تصور کنید
که در آن زمان سرگرم کننده و به نوعی وحشتناک است. تصور کنید نشسته اید و تمام این وزن و بایاس ها را با دست تنظیم کرده اید
به طور هدفمند، اعداد را تغییر داده اید، به طوری که لایه دوم بر روی لبه ها، لایه سوم بر الگوها و غیره قرار می گیرد

German: 
Das ergibt viele Zwischenresultate. Mit 16 Schichten dieser versteckten Schichten
ergibt das 784 Pixel * 16 Gewichte mit 16 Verzerrungskonstanten.
Und all dies ergibt erst die Verbindung der ersten und zweiten Schicht. Die Verbinungen zu den weiteren
Schichten haben ebenfalls einen Haufen Gewichte und Verzerrungen angehängt.
Schlussendlich hat dieses Netzwerk fast aufs Loch genau
13,000 Gewichte und Verzerrungen.
13.000 Knöpfe und Regler, die gedrückt und gedreht werden können, umd das Verhalten dieses Netzwerkes zu beeinflussen.
Wenn wir also von 'lernen' sprechen,
beziehen wir uns darauf, dass der Computer herausfinden soll, welche Ausprägung all dieser Stellschrauben
das Problem schlussendlich lösen kann.
Stellen Sie sich vor:
Gleichzeitig lustig und schrecklich: Sie müssten alle diese Gewichte und Verzerrungen von Hand eingeben!
Gezielt die Zahlen optimieren, sodass die zweite Schicht Kanten erkennt, die dritte dann Muster usw.

Italian: 
C'è molto da discutere in questo strato nascosto di 16 neuroni
è un totale di 784 per 16 pesi con 16 soglie
E tutto ciò consiste solo nelle connessioni dal primo strato al secondo, le connessioni tra gli altri livelli
hanno anche esse un parecchi pesi e soglie
Alla fine questa rete ha quasi esattamente
13.000 pesi e soglie in totale
13.000 manopole e quadrati che possono essere modificati e trasformati per far sì che questa rete si comporti in modi diversi
Quindi quando parliamo di apprendimento?
Ciò a cui ci si riferisce è far sì che il computer trovi un'impostazione valida per tutti questi numeri in modo che possa effettivamente risolvere
il problema.
un pensiero
Un esperimento che è allo stesso tempo divertente e quasi terrificante è immaginare di sedersi e mettere a punto tutti questi pesi e pregiudizi a mano
Modificando in modo mirato i numeri in modo che il secondo livello riprenda i tratti, il terzo strato riprenda schemi ecc

Korean: 
이러한 16개 뉴런의 숨겨진 레이어는
각각의 16개의 bias를 가진 784 x 16개의 가중치를 의미합니다.
그리고 이 수치는 첫번째 레이어와 두번째 레이어 사이의 연결은
그들과 연관된 가중치와 bias들로 이루어져있습니다.
이 연결은 거의 13,000개의 가중치와 bias를 갖습니다.
이 연결은 거의 13,000개의 가중치와 bias를 갖습니다.
비틀고 변할수 있는 13,000개의 연결은 각각 다른 방법으로 행동합니다.
'배움' 에 대해서 얘기하자면
컴퓨터가 실제로 해당 문제를 스스로 해결하기 위해서
수많은 수치들을 찾기 위한 알맞은 환경을 얻는다는 것을 의미합니다.
재밌기도 하고 조금 무섭기도 한 사고 실험을 해봅시다.
한번 상상해 보세요. 이 가중치와 bias들을 일일히 직접 설정하는 겁니다.
의도적으로 두번째 층은 모서리를 인식하고 세번째 층은 패턴을 인식하고 등을 할 수 있게 수를 수정하는 겁니다.

Thai: 
นั่นเป็นจำนวนมากที่จะคิดเกี่ยวกับกับชั้นที่ซ่อนอยู่นี้ของ 16 เซลล์ประสาท
นั่นคือทั้งหมด 784 ครั้ง 16 น้ำหนักพร้อมกับ 16 อคติ
ทั้งหมดนี้เป็นเพียงการเชื่อมต่อจากเลเยอร์แรกไปจนถึงจุดเชื่อมต่อระหว่างชั้นอื่น ๆ
นอกจากนี้ยังมีน้ำหนักและอคติที่เกี่ยวข้องอีกด้วย
ทั้งหมดกล่าวและทำเครือข่ายนี้ได้เกือบจะแน่นอน
น้ำหนักและอคติทั้งสิ้น 13,000
ปุ่มหมุนและลูกบิด 13,000 ปุ่มที่สามารถปรับแต่งและหมุนเพื่อทำให้เครือข่ายนี้ทำงานได้หลายวิธี
ดังนั้นเมื่อเราพูดถึงการเรียนรู้?
สิ่งที่หมายถึงคือการทำให้คอมพิวเตอร์หาการตั้งค่าที่ถูกต้องสำหรับตัวเลขจำนวนมากทั้งหมดเหล่านี้จำนวนมากเพื่อให้สามารถแก้ปัญหาได้จริง
ปัญหาอยู่ในมือ
หนึ่งคิด
การทดลองที่สนุกสนานและน่าสะพรึงกลัวคือการจินตนาการให้นั่งลงและตั้งค่าทั้งหมดของน้ำหนักและอคติเหล่านี้ด้วยมือ
ปรับแต่งตัวเลขอย่างรอบคอบเพื่อให้ชั้นที่สองหยิบขึ้นมาบนขอบชั้นที่สามจะหยิบขึ้นมาบนรูปแบบอื่น ๆ

Japanese: 
この16個のニューロンの隠れたレイヤーについて考えておくと、
それは合計で784回の16回の重みと16回の偏りです
そして、それはすべて、第1層から第2層への接続だけであり、他の層
また、それらに関連した重さと偏りの束
すべてのことが言って、このネットワークを行ったほとんど正確に
合計13,000の重みと偏り
このネットワークをさまざまな方法で動作させるために調整可能な13,000個のノブとダイヤル
だから私たちは学習について話すとき？
それは、実際に解決されるように、これらの多くの数字のすべてのための有効な設定を見つけるためにコンピュータを取得させることです
手元の問題
思考
すぐに楽しいと恐ろしいの実験は、座っていることを想像し、これらの重みと偏りのすべてを手で設定することです
意図的に数字を微調整して、2番目のレイヤーがエッジでピックアップし、3番目のレイヤーがパターンなどでピックアップするようにします。

French: 
Et c'est beaucoup ! Pour cette couche cachée de 16 neurones,
c'est un total de 784 * 16 poids plus les 16 biais.
Et ça, ce n'est que les connections de la première à la deuxième couche. Les connections entre les autres couches
ont aussi beaucoup de poids et de biais associés.
Tout cela réuni, ce réseau a presque exactement
13 000 mille poids et biais au total.
13 000 boutons à tourner pour que ce réseau agisse de façons différentes.
Alors, quand on parle d'apprentissage,
cela correspond à faire en sorte que l'ordinateur trouve un paramétrage valide pour chacun de ces nombres pour qu'il résolve
le problème.
Une
expérience de pensée à la fois fun et horrifiante est de s'imaginer essayer de paramétrer tous ces poids et biais à la main.
Changer les nombres pour que la deuxième couche reconnaisse les traits, la troisième les motifs etc.

Czech: 
Je to hodně dat pro tuto skrytou vrstvu 16 neuronů,
celkem 784 krát 16 vah a k tomu 16 prahů
A to byla jen spojení od první vrstvy k druhé, spojení mezi dalšími vrstvami mají
svoje váhy a prahy
Spočteme-li vše dohromady, má tato síť celkem
téměř 13 000 vah a prahů
13 000 voleb, pomocí kterých je možné ladit chování sítě
Takže, když mluvíme o učení,
myslí se tím, že počítač hledá nastavení všech těchto čísílek tak, aby výsledná síť zvládla
vyřešit zadaný problém
Proveďme si
myšlenkový experiment, který bude jak zábavný, tak děsuplný. ​​Představte si, že sedíte a nastavujete všechny tyto váhy a prahy ručně
a snažíte se docílit toho, že druhá vrstva rozpoznává čárky, třetí vrstva vzory, atd.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
O tym ukrytym warstwie 16 neuronów trzeba się dużo zastanowić
to łącznie 784 razy 16 ciężarów wraz z 16 uprzedzeniami
A wszystko to tylko połączenia od pierwszej warstwy do drugiej połączenia między innymi warstwami
Ponadto, wiąże się z nimi wiązka wag i błędów
Wszystkie powiedziane i zrobione ta sieć ma prawie dokładnie
13 000 całkowitych wag i błędów
13 000 pokręteł i pokręteł, które można modyfikować i obracać, aby ta sieć działała na różne sposoby
Więc kiedy mówimy o nauce?
Chodzi o to, aby komputer znalazł prawidłowe ustawienie dla wszystkich tych wielu liczb, tak aby to faktycznie rozwiązało
problem w zasięgu ręki
jedna myśl
Eksperyment, który jest jednocześnie zabawny i przerażający, polega na wyobrażaniu sobie siedzenia i ustawiania wszystkich tych wag i odchyleń ręcznie.
Celowo szykując liczby tak, aby druga warstwa znajdowała się na krawędziach, trzecia warstwa zbiera się na wzorach itp

Hungarian: 
Ez azért nem kevés számítanivaló: ez a rejtett réteg 16 neuronnal
összesen 784 x 16 súly + még 16 torzítás.
És mindez csak az első rétegtől a másodikig tartó út. A többi réteg között is van
egy halom súly és torzítás.
Mindent számbavébe ennek a hálózatnak összesen
nagyjából 13.000 súlya és torzítása van.
13.000 tekergethető tárcsa, amivel a hálózat működése finomhangolható.
Tehát, amikor a tanulásról beszélünk, 
az lényegében az a folyamat, ahogy a számítógép megtalálja azt a beállítást,
amivel az összes megadott problémára jó megoldást tud adni.
Egy gondolatkísérlet -
szórakoztató és szörnyűséges: milyen lenne leülni és ezeket a súlyokat és torzításokat mind kézzel
beállítgatni úgy, hogy a második réteg felismerje a széleket, a harmadik réteg a mintákat stb.

Chinese: 
讓我們看看這個有著 16 個神經元的隱藏層
這 16 個神經元都各有 784 個自己的權重和 16 個偏置
這些還只是第一層和第二層的連接而已
在其他層裡還有他們各自的權重和偏置
整體來說整個網路使用了
大約 13,000 個權重和偏置
13,000 個可以調整的參數來讓網路可以呈現不同的結果
所以當我們談到學習的時候
就是在說如何讓電腦去找到一大堆正確的參數
讓它解決問題
有一個仔細想想會很嚇人的情況
想像一下如果你需要手動調整這些權重和偏置
設定這些數字來讓第二層識別一條邊
然後讓第三層識別圖案

Modern Greek (1453-): 
Και αυτά είναι πολλά πράγματα! Με αυτό το κρυφό στρώμα των 16 νευρώνων,
είναι ένα σύνολο από 784*16 βάρη μαζί με 16 πολώσεις.
Και όλα αυτά είναι μόλις οι συνδέσεις του πρώτου με το δεύτερο στρώμα. Οι συνδέσεις των άλλων στρωμάτων
έχουν κι αυτές ένα σωρό από βάρη και πολώσεις συσχετισμένα με αυτές.
Τελικά, αυτό το δίκτυο έχει περίπου
13.000 συνολικά βάρη και πολώσεις.
13.000 κουμπιά και μοχλούς που μπορούν να πειραχτούν ώστε το δίκτυο να συμπεριφέρεται με τον τρόπο που θέλουμε.
Οπότε, όταν μιλάμε για μάθηση,
αυτό στο οποίο αναφερόμαστε, είναι το ότι βάζουμε τον υπολογιστή να βρει μία έγκυρη ρύθμιση όλων αυτών των αριθμών, ώστε τελικά να μας
λύνει το πρόβλημα που θέλουμε.
Ένα νοητικό πείραμα που είναι διασκεδαστικό αλλά και τρομακτικό μαζί, είναι να φανταστείτε ότι κάθεστε και ρυθμίζετε όλα τα βάρη και τις πολώσεις με το χέρι,
σκόπιμα πειράζοντας τους αριθμούς, ώστε το δεύτερο στρώμα να εντοπίζει τις ακμές, το τρίτο στρώμα να εντοπίζει τα μοτίβα κλπ.

Chinese: 
这层隐含层的16个神经元
就需要总计784 x 16个权重值和16个偏置值
而且这还是单单第一层和第二层之间的连接
别的层之间的连接还有它们分别自带的权重和偏置
一套下来整个网络一共会用上将近13000个权重加偏置
相当于这个网络上有13000多个旋钮开关让你调整
从而带来不一样的结果
所以 当我们讨论机器如何学习的时候
我们其实在讲 电脑应该如何设置这一大坨的数字参数
才能让它正确地解决问题
这里有个细思极恐的思想实验
想象一下你自己手动调整这些权重还有偏置参数
让第二层识别短边 第三层识别图案

English: 
That's a lot to think about with this hidden layer of 16 neurons
that's a total of 784 times 16 weights along with 16 biases
And all of that is just the connections from the first layer to the second the connections between the other layers
Also, have a bunch of weights and biases associated with them
All said and done this network has almost exactly
13,000 total weights and biases
13,000 knobs and dials that can be tweaked and turned to make this network behave in different ways
So when we talk about learning?
What that's referring to is getting the computer to find a valid setting for all of these many many numbers so that it'll actually solve
the problem at hand
one thought
Experiment that is at once fun and kind of horrifying is to imagine sitting down and setting all of these weights and biases by hand
Purposefully tweaking the numbers so that the second layer picks up on edges the third layer picks up on patterns etc

Indonesian: 
Itu banyak yang harus dipikirkan dengan lapisan tersembunyi dari 16 neuron ini
itu total 784 kali 16 bobot bersama dengan 16 bias
Dan semua itu hanyalah koneksi dari lapisan pertama ke kedua koneksi antara lapisan lain
Juga, memiliki banyak bobot dan bias yang terkait dengannya
Semua yang dikatakan dan dilakukan jaringan ini hampir persis
13.000 bobot total dan bias
13.000 kenop dan tombol yang dapat diubah dan diubah untuk membuat jaringan ini berperilaku dengan cara yang berbeda
Jadi kapan kita berbicara tentang belajar?
Apa yang dimaksud adalah mendapatkan komputer untuk menemukan pengaturan yang valid untuk semua banyak banyak angka ini sehingga benar-benar akan menyelesaikannya
masalah yang dihadapi
satu pikiran
Eksperimen yang menyenangkan sekaligus menyenangkan dan mengerikan adalah membayangkan duduk dan mengatur semua bobot dan bias ini dengan tangan
Dengan sengaja mengutak-atik angka sehingga layer kedua mengambil di tepi layer ketiga mengambil pada pola dll

Spanish: 
Eso es mucho que pensar!
.Con esta capa oculta  de 16 neuronas,  eso hace un total de
784 * 16 de peso
junto con 16 BIAS , y todo eso
son solo las conexiones de la primera capa con la segunda
la conexión entre las otras capas también tienen un montón de pesos y  BIAS
asociadas con la ellas
Tido dicho, esta red tiene casi
13,002 pesos en total mas Biases
13,000 botones y conexiones que pueden
ser retocados y convertidos para que esta red se comporte en diferentes maneras
Así que  cuando hablamos acerca del aprendizaje
a lo que se refiere es que permitiendo a la computadora encontrar un
conjunto válido para muchos de estos números
de manera que la red pueda verdaderamente resolver este problema a mano
Un pensamiento experimentado que es a la vez
divertido y terrorífico , es imaginar sentarte
y definir todos estos pesos y Bias a mano ,retocando los números
a propósito  para que la segunda capa tome un patrones , y la tercera también , etc
Personalmente lo encuentro satisfactorio

Russian: 
И тут есть над чем задуматься. С этим скрытым слоем из 16 нейронов,
получается всего 784х16 весов, плюс 16 сдвигов.
И всё это просто соединения между первым и вторыми слоями.
Соединения между другими слоями так же содержат кучу весов и сдвигов, связанным с ними.
В результате, данная сеть всего содержит почти ровно 13 000 весов и сдвигов.
13 000 ручек и табло, которые можно крутить и настраивать чтобы менять поведение этой сети.
Так что когда мы говорим об обучении,
имеется ввиду - заставить компьютер найти корректные значения для всех, всех этих чисел,
так, чтобы это решило поставленную задачу.
Одновременно забавный и ужасающий мысленный эксперимент, это
представить себе настройку всех этих весов и сдвигов вручную,
намеренный подбор чисел, чтобы второй слой выбирал грани,
третий слой выбирал шаблоны и т.д.

Vietnamese: 
Đó là rất nhiều suy nghĩ về với lớp ẩn này của 16 tế bào thần kinh
đó là tổng cộng 784 lần 16 tạ cùng với 16 thành kiến
Và tất cả điều đó chỉ là sự kết nối từ lớp đầu tiên vào thứ hai các kết nối giữa các lớp khác
Ngoài ra, có một loạt các trọng lượng và những thành kiến ​​liên kết với chúng
Tất cả nói và thực hiện mạng này có gần như chính xác
13.000 tổng trọng lượng và những thành kiến
13.000 nút bấm và quay số có thể được tinh chỉnh và quay sang làm cư xử mạng này theo những cách khác nhau
Vì vậy, khi chúng ta nói về học tập?
Có gì đó là đề cập đến là nhận được máy tính để tìm một thiết lập có giá trị cho tất cả các số nhiều nhiều để nó thực sự sẽ giải quyết
vấn đề trong tầm tay
Một ý nghĩ
Thử nghiệm có nghĩa là cùng một lúc vui vẻ và tốt bụng của kinh hoàng là để tưởng tượng ngồi xuống và cài đặt tất cả các trọng lượng và những thành kiến ​​bằng tay
Cố tinh chỉnh các con số để các lớp thứ hai nhặt trên mép lớp thứ ba nhặt trên các mẫu vv

Arabic: 
وهذا كثير جدا لو فكرت به مليا فى
هذه الطبقات المخفية يوجد 784 * 16 وزن جنبا إلى جنب مع 16 انحياز
وكل ذلك هو مجرد اتصال من الطبقة الأولى إلى الثانية
الروابط بين الطبقات الأخرى أيضا لديها أوزان وانحيازات
بأخذ كل ذلك بعين الاعتبار هذه الشبكة تمتلك حوالى
13,000 وزن وانحياز
13,000 نقطة لتطرقها والطرق على تلك النقاط بشكل مختلف سيؤدى بالشبكة للتصرف بشكل مختلف
لذلك عندما نتحدث عن التعلم
ما يعنيه هذا هو جعل جهاز الكمبيوتر يجد وضع فعال لكل هذه الأرقام المتعددة بشرط أن يكون هذا الوضع فعلا
يحل المشكلة المقدمة إليه
شيء مرعب ومسلى أن تتخيل نفسك تجلس وتقوم بحساب كل تلك الأوزان والانحيازات باليد ..
تقوم بتغيير وتبديل الأرقام لكى تقوم الطبقة الثانية بتحديد الحواف والثالثة بتحديد الأنماط إلخ

Japanese: 
私は個人的には、ネットワーク全体をブラックボックスとして読むのではなく、
ネットワークがあなたの
それらの重みや偏りが実際にあなたが出発点を持つことを意味するものと少しの関係を築き上げているかどうかを予測してください
ネットワークを改善するために、あるいはネットワークが機能するように構造を変更する方法を試してみてください。
しかし、あなたが期待する理由ではありません
重みと偏りが何をしているのかを掘り下げることは、あなたの前提に挑戦し、可能な限り完全な空間を明らかにする良い方法です
ソリューション
ところで、ここの実際の機能は書き留めるのが少し面倒です。あなたは思いませんか？
ですから、これらの接続が表現されるより表記的にコンパクトな方法を私に教えてください。これはあなたがそれを見る方法です
あなたがニューラルネットワークの詳細を読むことを選択した場合
1つのレイヤーからすべてのアクティベーションをベクトルとして列に整理する
次に、すべての重みを行列として編成し、その行列の各行
1つの層と次の層の特定のニューロンとの間の接続に対応する

Indonesian: 
Saya pribadi menemukan ini memuaskan daripada hanya membaca jaringan sebagai kotak hitam total
Karena ketika jaringan tidak melakukan cara Anda
antisipasi jika Anda telah membangun sedikit hubungan dengan apa yang bobot dan bias itu benar-benar berarti Anda memiliki tempat awal
Bereksperimen dengan cara mengubah struktur untuk meningkatkan atau saat jaringan berfungsi?
Tapi bukan karena alasan yang Anda harapkan
Menggali apa yang dilakukan bobot dan bias adalah cara yang baik untuk menantang asumsi Anda dan benar-benar mengekspos ruang penuh kemungkinan
solusi
By the way fungsi sebenarnya di sini adalah sedikit rumit untuk menulis. T Anda berpikir?
Jadi biarkan saya menunjukkan kepada Anda cara yang lebih praktis dan kompak agar koneksi ini diwakili. Ini adalah bagaimana Anda akan melihatnya
Jika Anda memilih untuk membaca lebih lanjut tentang jaringan saraf
Atur semua aktivasi dari satu lapisan ke kolom sebagai vektor
Kemudian mengatur semua bobot sebagai matriks di mana setiap baris dari matriks itu
sesuai dengan koneksi antara satu lapisan dan neuron tertentu di lapisan berikutnya

French: 
Je trouve cela satisfaisant, plutôt que de voir le réseau comme une boîte noire,
car lorsque le réseau n'agit pas de la façon à laquelle on s'attendait,
si vous avez construit une certaine relation avec la signification de ces poids et biais, vous avez déjà un point de départ
pour expérimenter et changer la structure pour améliorer le réseau. Ou bien, lorsque le réseau marche,
mais pas pour les raisons auxquelles vous vous attendiez,
s'intéresser au fonctionnement de ces poids et biais est une très bonne manière de remettre en cause vos hypothèses, et voir en entier
l'ensemble des solutions possibles.
D'ailleurs, la fonction ici est un peu lourde à écrire, vous ne trouvez pas ?
Laissez-moi vous montrer une notation plus compacte pour représenter ces connections. Ça serait ce que vous verriez
si vous choisissiez d'en lire plus sur les réseaux de neurones.
Organisez toutes les activations d'une couche en une colonne, comme un vecteur.
Ensuite, organisez tous les poids comme une matrice, où chaque ligne
correspond aux connections entre une couche et un neurone particulier dans la couche suivante.

Portuguese: 
Eu pessoalmente acho isso satisfatório, em vez de apenas ler a rede como uma caixa preta total
Porque quando a rede não faz o mesmo que você
antecipar se você construiu um pouco de um relacionamento com o que esses pesos e preconceitos, na verdade, significa que você tem um ponto de partida para
Experimentando como alterar a estrutura para melhorar ou quando a rede funciona?
Mas não pelas razões que você poderia esperar
Investigar o que os pesos e vieses estão fazendo é uma boa maneira de desafiar suas suposições e realmente expor o espaço total de possíveis
soluções
A propósito, a função real aqui é um pouco incômoda para anotar. Você não acha?
Então deixe-me mostrar-lhe uma maneira mais notoriamente compacta que essas conexões são representadas. É assim que você veria
Se você escolher ler mais sobre redes neurais
Organize todas as ativações de uma camada em uma coluna como um vetor
Em seguida, organize todos os pesos como uma matriz em que cada linha dessa matriz
corresponde às conexões entre uma camada e um neurônio particular na próxima camada

Modern Greek (1453-): 
Προσωπικά το βρίσκω πιο διασκεδαστικό από το να θεωρώ το δίκτυο σαν ένα μαύρο κουτί.
Γιατί όταν το δίκτυο δεν συμπεριφέρεται όπως θα το περιμένατε,
αν έχετε αποκτίσει μια μικρή επαφή με το τι σημαίνουν αυτά τα βάρη και οι πολώσεις, τότε έχετε ένα σημείο εκκίνησης
για να πειραματιστείτε με το πώς να αλλάξετε και να βελτιώσετε τη δομή. Ή όταν δουλεύει το δίκτυο,
όχι όμως για τους λόγους που θα περιμένατε,
το να ψάξετε το τι κάνουν τα βάρη και οι ακμές, είναι ένας καλός τρόπος να τεστάρετε τις παραδοχές σας και να δείτε πραγματικά το πλήρες εύρος
των πιθανών λύσεων.
Παρεμπιπτόντως, η πραγματική συνάρτηση εδώ είναι λίγο κουραστική στη γραφή. Δεν νομίζετε;
Αφήστε με να σας δείξω έναν σημειογραφικά πιο συμπαγή τρόπο να αναπαραστήσετε αυτές τις συνδέσεις. Έτσι θα τα συναντούσατε,
αν επιλέγατε να διαβάσετε παραπάνω για τα νευρωνικά δίκτυα.
Οργανώστε όλες τις ενεργοποιήσεις ενός στρώματος σε μία στήλη, ως ένα διάνυσμα.
Μετά οργανώστε όλα τα βάρη ως έναν πίνακα, όπου κάθε γραμμή του πίνακα
αντιστοιχεί στις συνδέσεις μεταξύ ενός στρώματος και ενός συγκεκριμένου νευρώνα του επόμενου.

Chinese: 
比起把网络完全当做一个黑箱 我个人觉得这么考虑更加令人满足
毕竟当网络的输出和期望出了偏差的时候
如果你一定程度上了解了这些权重和偏置的意义
那么你再尝试对结构进行修正就有出发点了
或许你的神经网络能输出正确的结果 但过程和你想象的不一样
那么 深挖权重和偏置的实际意义 就可以有效挑战你的假设
进而探索出所有可能的解决方案
顺便一提 整个函数这么写下来是不是很难懂
我这里就给大家展示个既能表示所有的连线 看着又清爽的符号表达好了
你之后学习神经网络你就会一直见到这种符号
我们把某一层中所有的激活值统一成一列向量
再把它和下一层间所有的权重放到一个矩阵中
矩阵第n行就是这一层的所有神经元
和下一层第n个神经元间所有连线的权重

Hungarian: 
Számomra ez a kielégítőbb gondolat annál, mintha a hálózat ezen részére csak mint egy fekete dobozra gondolnék.
Mert amikor a hálózat nem végzi jól a munkáját,
de mi mégis tisztában vagyunk azzal, hogy a súlyok és torzítások hogyan épülnek a rendszerbe, van ötletünk, 
hogy hol kezdjünk neki a struktúra javításának. Vagy amikor bár működik a hálózat,
de nem azért és nem úgy, mint ahogy előre elképzeltük.
A hálózat működésének a mélyére ásni segít letesztelni a kezdeti feltételezéseinket, és feltárni
 a lehetséges megoldások teljes spektrumát.
Amúgy a tényleges függvényt kicsit fárasztó lenne leírni, nem?
Hadd mutassak egy tömörebb jelölést a kapcsolatok leírására. Ha később olvasol
a témában, akkor is így fogsz ezzel találkozni.
Rendezzük a réteg összes aktivitását egy oszlopvektorba.
Aztán rendezzük az összes súlyt egy mátrixba, aminek egy sora
a hálózat egy rétege és a következő réteg egy neuronja közötti kapcsolatot írja le.

Turkish: 
Şahsen, bunu şahsi olarak, şebekeyi toplam kara kutu olarak okumaktan ziyade tatmin edici buluyorum.
Çünkü şebeke bu şekilde çalışmazsa
bu ağırlıklar ve önyargılar arasında aslında sizin için bir başlangıç ​​noktası olduğunuz anlamına gelen biraz bir ilişki kurduysanız, tahmin edin
Yapının iyileştirilmesi için nasıl değiştirileceği veya ağın işleyişi ile ilgili deneme?
Ancak bekleyeceğiniz sebeplerden ötürü değil
Ağırlıkların ve önyargıların ne yaptığına göz atmak, varsayımlarınıza meydan okumak ve olası tüm alanı açığa çıkarmak için iyi bir yoldur
çözeltiler
Bu arada burada gerçek işlev yazmak biraz hantaldır. Sizce de öyle değil mi?
Öyleyse size bu bağlantıların temsil edildiği daha görsel açıdan kompakt bir yol göstereceğim. Bunu nasıl göreceksin
Sinir ağları hakkında daha fazla bilgi okumayı seçerseniz
Bir katmandan tüm aktivasyonları bir vektör olarak bir sütuna düzenleyin
Daha sonra tüm ağırlıkları bir matris olarak düzenleyin, bu matrisin her satırı
bir katman ve bir sonraki katmandaki belirli bir nöron arasındaki bağlantılara karşılık gelir

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
I personally find this satisfying rather than just reading the network as a total black box
Because when the network doesn't perform the way you
anticipate if you've built up a little bit of a relationship with what those weights and biases actually mean you have a starting place for
Experimenting with how to change the structure to improve or when the network does work?
But not for the reasons you might expect
Digging into what the weights and biases are doing is a good way to challenge your assumptions and really expose the full space of possible
solutions
By the way the actual function here is a little cumbersome to write down. Don't you think?
So let me show you a more notationally compact way that these connections are represented. This is how you'd see it
If you choose to read up more about neural networks
Organize all of the activations from one layer into a column as a vector
Then organize all of the weights as a matrix where each row of that matrix
corresponds to the connections between one layer and a particular neuron in the next layer

Russian: 
Лично я считаю это хорошим подходом, чем потом трактовать сеть как чёрный ящик.
Потому-что когда сеть не работает так, как вы ожидаете,
если вы немного представляете что на самом деле означают эти веса и сдвиги,
у вас будет начальная точка для изменения структуры и улучшения результата.
Или если сеть работает, но неожиданным способом,
вникание в то, что означают веса и сдвиги - хороший вызов вашему мышлению,
открывающий всю полноту возможных решений.
Кстати, используемая здесь запись функции имеет немого громоздкий вид, согласны?
Так что позвольте я покажу вам более компактный способ представления этих соединений,
то как вы будите их видеть, если решите читать дальше про нейросети.
Объединим все активации слоя в столбец - вектор.
Затем объединим все веса в матрицу,
каждая строка которой описывает соединения между нейронами одного слоя
с конкретным нейроном следующего слоя.

Arabic: 
أجد هذا مرضِِ على المستوى الشخصي بدلا من تخيل الشبكة كصندوق أسود كبير
لأنه عندما لا تؤدى الشبكة وظيفتها بشكل جيد
إذا كان لديك توقع عن ما تعنيه تلك الأنماط والأوزان فسيكون لديك نقطة تبدأ منها
لتجريب كيفية تغيير الهيكل لتحسينه
أو عندما تعمل الشبكة وتؤدى وظيفتها ولكن ليس للأسباب التى تتوقعها
التعمق في ما تعنيه الأوزان والانحيازات هو طريقة جيدة لتحدى الفروض التي وضعتها وعرض كل الحلول الممكنة
بالمناسبة أظن أن الدالة هنا صعبة قليلا فى الكتابة أليس كذلك ؟
لذا دعنى أريك طريقة أفضل لكتابة هذه الروابط بشكل أسهل ..هكذا ستراها
إذا اخترت قراءة المزيد عن الشبكات العصبية
قم بتنظيم كل التفعيلات فى الطبقة الواحدة لعمود كمتجه
ثم تنظيم جميع الأوزان كمصفوفة حيث كل صف من تلك المصفوفة
يتوافق مع وصلات بين طبقة واحدة وخلية عصبية معينة في الطبقة التالية

Korean: 
개인적으로 네트워크를 그냥 블랙 박스로 이해하는 것보다 이 편이 낫다고 생각합니다.
네트워크가 예상했던 것처럼 작동하지 않을 때
가중치와 bias가 실제로는 무엇을 의미할지 조금이나마 생각해 두는 것이
구조를 어떻게 바꿔야 개선시킬 수 있을지 생각해보는 시작점이 될 수 있기 때문입니다.
아니면 네트워크가 작동하기는 하지만 예상했던 이유 때문이 아니라면
가중치와 bias가 어떤 것인지 파고드는 것이 세워 두었던 가정을 시험하고
무엇이 가능한지를 확실히 시험해볼 수 있게 합니다.
그건 그렇고, 이 함수가 좀 적기 복잡하지 않습니까?
이 연결을 표현할 수 있는 훨신 간결한 방법을 보여드리겠습니다.
신경망에 대해 더 알아보려고 하면 보게 될 방식입니다.
한 층이 활성화되는 정도를
열벡터로 나타냅니다.
그리고 가중치를 모두 모아 행렬로 나타냅니다.
행렬의 각 열은 한 층과 다음 층의 특정 뉴런의 연결을 나타냅니다.

Persian: 
من شخصا این را رضایت بخش تر از خواندن شبکه به عنوان یک جعبه سیاه کامل در یافته ام
زیرا وقتی شبکه  کار شما را انجام نمی دهد
پیش بینی کنید اگر شما با آنچه که این وزن ها و تعصب ها در واقع هستند کمی ارتباط داشته باشید، شما یک نقطه شروع برای
بررسی چگونگی تغییر ساختار برای بهبود و یا زمانی که شبکه کار می کند، دارید؟
اما نه به دلایلی که ممکن است انتظار داشته باشید
کنکاش در وزن ها و بایاس ها، راه خوبی برای فائق آمدن به چالش های شما است و واقعا فضای کامل ممکن را افشا می کنید
راه حل
به هر حال، نوشتن تابع واقعی اینجا کمی کم دردسر است. آیا اینطور فکر نمی کنید؟
بنابراین ببایید به شما یک روش جمع و جورتر نشان دهم که این ارتباطات را نشان می دهد. روش این است که چگونه می توانید آن را ببینید
اگر بخواهید درباره شبکه های عصبی بیشتر بخوانید
همه فعالسازها را از یک لایه به یک ستون به صورت یک بردار مرتب کنید
سپس تمام وزن ها را به صورت ماتریس که هر وزن یک ردیف از آن ماتریس است، سازماندهی کنید
بین اتصالات بین یک لایه و یک نورون خاص در لایه بعدی تناظر بر قرار است

German: 
Ich persönlich finde diese Idee befriedigend - um das Netzwerk nicht als komplette Blackbox behandeln zu müssen.
Denn wenn das Netzwerk nicht wunschgemäss funktioniert,
und Sie ein minimales Verständnis davon haben, was diese Gewichte und Verzerrungen überhaupt bedeuten,
haben Sie Handlungsmöglichkeiten und können erahnen, wie das Netzwerk verbessert werden könnte.
Oder: Wenn das Netzwerk funktioniert, aber vielleicht nicht aus den erwarteten Gründen,
könnten Sie die Gewichte und Verzerrungen überprüfen um Ihre Annahmen zu überdenken und ggf. den Lösungsraum erweitern.
 
Zudem: Die tatsächliche Funktion zu notieren erscheint etwas mühsam, finden Sie nicht?
Lassen Sie mich also  eine kompaktere Notierung verwenden. So würden Sie es denn auch sehen,
wenn Sie sich weiter zum Thema neuronale Netze informieren möchten.
Organisieren Sie alle Aktivierungswerte einer Schicht in die Spalte eines Vektors.
Dann stellen Sie alle Gewichte in der Form einer Matrix dar, in welcher jede Zeile
der Verbindung zwischen einer Schicht und einem bestimmten Neuron der nächsten Schicht entspricht

Czech: 
Já osobně jsem radši, když mám nějakou představu o fungování sítě, než síť brát jen jako černou skříňku,
protože, když se síť nechová tak, jak jste předpokládali,
můžete vyjít ze svých představ o tom, jak síť má pracovat, a zkoušet
měnit její strukturu. Nebo pokud síť sice funguje,
ale ne tím způsobem, jak jste čekali
pak prozkoumávat, co váhy a prahy doopravdy dělají, je způsob, jak ještě lépe pochopit, co se vlastně uvnitř sítě odehrává a jaké jsou její
schopnosti řešení
Mimochodem, zápis celé funkce je docela zdlouhavý, nemyslíte?
Ukáži vám úspornější formu zápisu. S tou se ještě setkáte, pokud budete číst
další knihy o neuronových sítích
Uspořádejme všechny aktivace jedné vrstvy do sloupcového vektoru
Pak uspořádejme všechny váhy do matice, kde každý řádek matice
odpovídá spojení mezi jednou vrstvou a určitým neuronem v další vrstvě

Vietnamese: 
Cá nhân tôi tìm thấy điều này thỏa mãn hơn là chỉ đọc mạng như một tổng hộp đen
Bởi vì khi mạng không thực hiện theo cách bạn
dự đoán nếu bạn đã xây dựng lên một chút của một mối quan hệ với những gì các trọng lượng và những thành kiến ​​thực sự có nghĩa là bạn có một vị trí bắt đầu cho
Thử nghiệm với làm thế nào để thay đổi cấu trúc để cải thiện hoặc khi mạng không làm việc?
Nhưng không phải vì những lý do bạn có thể mong đợi
Đào sâu vào những gì các trọng lượng và những thành kiến ​​đang làm là một cách tốt để thách thức các giả định của bạn và thực sự tiếp xúc với không gian đầy đủ các thể
các giải pháp
Bằng cách này các chức năng thực tế đây là một cồng kềnh chút để viết xuống. Đừng nghĩ rằng bạn?
Vì vậy, hãy để tôi chỉ cho bạn một cách notationally nhỏ gọn hơn mà những kết nối này được đại diện. Đây là cách bạn muốn nhìn thấy nó
Nếu bạn chọn để đọc lên thêm về mạng nơ-ron
Tổ chức tất cả các kích hoạt từ một lớp nào thành một cột như một vector
Sau đó, tổ chức tất cả các trọng như một ma trận trong đó mỗi hàng ma trận
tương ứng với các mối liên hệ giữa một lớp và một tế bào thần kinh đặc biệt trong lớp tiếp theo

Thai: 
ฉันเองพบความพึงพอใจมากกว่าเพียงแค่อ่านเครือข่ายเป็นกล่องสีดำทั้งหมด
เพราะเมื่อเครือข่ายไม่ทำงานตามที่คุณต้องการ
คาดหวังว่าคุณจะมีความสัมพันธ์กับสิ่งที่น้ำหนักและความอคติเหล่านี้จริง ๆ หมายความว่าคุณมีสถานที่เริ่มต้น
ทดลองใช้วิธีเปลี่ยนโครงสร้างเพื่อปรับปรุงหรือเมื่อเครือข่ายทำงาน
ไม่ใช่เหตุผลที่คุณคาดหวัง
การขุดเจาะสิ่งที่น้ำหนักและอคติกำลังทำอยู่เป็นวิธีที่ดีในการท้าทายสมมติฐานของคุณและเปิดเผยพื้นที่เต็มรูปแบบที่เป็นไปได้
การแก้ปัญหา
โดยวิธีการทำงานจริงที่นี่เป็นเพียงเล็กน้อยยุ่งยากในการเขียนลง คุณไม่คิดเหรอ?
ดังนั้นให้ฉันแสดงวิธีการที่มีขนาดกะทัดรัดมากขึ้นในรูปแบบ notationally ซึ่งแสดงว่ามีการเชื่อมต่อเหล่านี้ นี่คือสิ่งที่คุณจะเห็น
ถ้าคุณเลือกที่จะอ่านเพิ่มเติมเกี่ยวกับเครือข่ายประสาท
จัดระเบียบการเปิดใช้งานทั้งหมดจากชั้นหนึ่งเป็นคอลัมน์เป็นเวกเตอร์
จากนั้นจัดระเบียบน้ำหนักทั้งหมดเป็นเมตริกซ์ที่แต่ละแถวของเมทริกซ์นั้น
สอดคล้องกับการเชื่อมต่อระหว่างชั้นหนึ่งกับเซลล์ประสาทที่เฉพาะเจาะจงในชั้นถัดไป

Chinese: 
我個人認為這樣想像會比把它整個當成一個黑盒子更好
因為當網路的輸出和你的認知有所差異時
如果你能足夠了解權重與偏置的關係
就更容易該怎麼改變結構來修正
或是網路能輸出正確的結果但是過程跟你想像中有差異
那麼去挖掘權重和偏置的實際境況對於測試你的認知有幫助
和找出所有可能的解決方案
順帶一提
你不覺得這個公式看起來有點複雜嗎？
所以讓我來示範以簡單的符號來表達整個公式
如果你以後想要繼續鑽研神經網路就會很常看到
我們把這一層的激勵函數放到一個向量中
然後把所有的權重放到矩陣中
在這個陣列裡的每一列將會對應到這一層和下一層的所有連線的權重

Spanish: 
mas que solo creando la red como una caja totalmente negra.
porque cuando la red no actúa en la forma que anticipaste ,
si has construido un poco de relación entre
lo que significan esas BIAS  y pesos
tienes un punto de partida para experimentar con la estructura y mejorarla .
O cuando la red funciona pero  por la razones que esperabas,
Indagar en que están haciendo los pesos y las BIAS
es una buena manera para retar tus suposiciones
realmente , exponer el espacio completo de todas las posibles soluciones.
Por cierto, aquí  la función real es un poco
incómoda de escribir , ¿No lo crees ?
Deja me enseñarte un notación mas compacta
en la que estas conexiones están representadas
así es como las vez si eliges leer mas de acerca de las redes neuronales.
1)Organiza todas las activaciones  de una capa
en una columna, como un vector
2) luego organiza todos los pesos como una matriz
donde cada fila de esa matriz
corresponde a las conexiones entre una capa
y una neurona en particular en la siguiente.

Italian: 
Personalmente trovo tutto ciò soddisfacente piuttosto che vedere la rete come una scatola nera
Perché quando la rete non funziona come ti aspettavi
se hai un po' di confidenza con ciò che questi pesi e soglie significano hai un punto di partenza per
Sperimentare come migliorare la struttura, o quando la rete funziona
Ma non per le cose che potresti aspettarti
Andare a guardare ciò che stanno facendo i pesi e le soglie è un buon modo per mettere alla prova le tue ipotesi e rivelare davvero l'intero spazio delle
soluzioni
A proposito, la funzione attuale qui è un po' macchinosa da scrivere. Non pensi?
Quindi lascia che ti mostri un modo più compatto per rappresentare queste connessioni. Questo è come lo vedresti
scegliessi di leggere qualcosa in più sulle reti neurali
Organizza tutte le attivazioni da un livello in una colonna come un vettore
Quindi organizza tutti i pesi come una matrice in cui ogni riga di quella matrice
corrisponde alle connessioni tra uno strato e un particolare neurone nello strato successivo

Polish: 
Osobiście uważam to za satysfakcjonujące, a nie tylko czytanie sieci jako całkowitej czarnej skrzynki
Ponieważ, gdy sieć nie działa tak, jak ty
spodziewaj się, że zbudowałeś trochę związku z tym, co te wagi i uprzedzenia oznaczają, że masz do czego zacząć
Eksperymentowanie z tym, jak zmienić strukturę, by poprawić lub kiedy sieć działa?
Ale nie z powodów, których możesz się spodziewać
Wbijanie się w to, co robią wagi i uprzedzenia, jest dobrym sposobem na zakwestionowanie twoich przypuszczeń i naprawdę odsłonięcie całej przestrzeni możliwej.
rozwiązania
Przy okazji faktyczna funkcja tutaj jest trochę kłopotliwa do zapisania. Nie sądzisz?
Pozwól, że pokażę ci bardziej kompaktowy sposób, w jaki reprezentowane są te połączenia. Tak to zobaczysz
Jeśli zdecydujesz się przeczytać więcej o sieciach neuronowych
Zorganizuj wszystkie aktywacje z jednej warstwy w kolumnę jako wektor
Następnie uporządkuj wszystkie wagi jako macierz, gdzie każdy rząd tej macierzy
odpowiada połączeniom między warstwą a określonym neuronem w następnej warstwie

Spanish: 
Lo que eso quiere decir es que tomando la suma pesada
de las activaciones en la primera capa  de acuerdo con estos pesos, corresponde
a uno de los términos en la matriz producto
de todo lo que tenemos en la izquierda .
íPor cierto!, muchas de las maquinar de aprender provienen de tener un buen
entendimiento de álgebra lineal
, asi que para los que quieren un entendimiento visual de las matrices
y qué significa la multiplizacon de matrices y vectores,
échale un vistazo a la serie que hice de Álgebra Lineal, especialmente el capítulo tres.
De regreso a nuestra expresión, e vez
sumar el BIAS a cada uno de estos valores independientemente,
lo representamos al organizar todos estos BIASES en un vector
, luego sumamos el vector completo
al vector--producto previo.
Luego como paso final, lo evaluare todo
en un función Sigmoid
y lo que se supone que representa es el componente específico de dentro  del vector resultante.
, asi que una vez tu hayas escrito es matriz de pesos

Arabic: 
مايعنيه هذا أخذ مجموع أوزان التفعيلات من الطبقة الأولى وهذه الأوزان
تتوافق مع واحدة من من عناصر المصفوفة التى نراها هنا على اليسار
بالمناسبة الكثير من تعلم الآلة له علاقة وثيقة بالجبر الخطي
لذلك لأي شخص منكم يريد تصورا بصريا لطيفا لضرب المصفوفات بإمكانك أن تلقي نظرة على هذه السلسلة التى قدمتها فى الجبر الخطى
وخاصة الفصل الثالث
بالعودة إلى ما كنا نتحدث فيه بدلا من إضافة الانحياز لكل قيمة على حدى
نقوم بتنظيم كل الانحيازات على هيئة متجه ونضيف هذا المتجه إلى حاصل الضرب السابق للمصفوفتين
ثم كخطوة نهائية
نضع sigmoid حولها بهذه الطريقة
ومايفترض أن يقدمه هذا أنك تطبق الsigmoid على كل عنصر داخل  المتجه الناتج

Czech: 
Potom vážený součet aktivací první vrstvy s těmito vahami
odpovídá jedné hodnotě výsledku maticového součinu
Mimochodem, v mnoha ohledech je pro strojové učení nutná dobrá znalost lineární algebry,
takže pro každého z vás, kdo by rád viděl vysvětlení vizuální formou, co znamená násobení matice vektorem, podívejte se na mou sérii o lineární algebře,
zejména třetí kapitolu
Zpět k našemu zápisu – místo, abychom přidávali práh ke každé z těchto hodnot zvlášť, spojíme
všechny prahy do vektoru a přičteme tento vektor
 k předchozímu součinu matice s vektorem
Pak v posledním kroku
napíšu sigmu kolem toho všeho,
což bude znamenat, že aplikujeme sigmoidu na každou položku
výsledného vektoru uvnitř

Korean: 
이 것은 가중치들에 따라 활성화된 정도를 더한 것이
행렬 벡터곱을 하여 나오는 열벡터의 각 원소에 대응한다는 것을 의미합니다.
그나저나, 기계 학습의 대부분엔 선형 대수학을 잘 이해하는 것이 필요합니다.
따라서 행렬과 행렬 벡터곱이 무엇을 의미하는지를 시각적으로 이해하고 싶은 사람은
제가 만든 선형 대수학 시리즈, 특히 3장을 찾아 보세요.
설명으로 돌아가서, bias를 독립적으로 각각의 값에 더하는 것으로 표현하는 대신
bias를 전부 모아서 열벡터로 만들고 벡터 전체를 아까 전의 행렬 벡터 곱에 더하는 것으로 표현합니다.
마지막으로
시그모이드를 이 바깥에 감싸줍니다.
이러면 시그모이드 함수를 결과 벡터 내의
원소들에 각각 적용함을 의미합니다.

French: 
Cela veut dire que prendre la somme pondérée des activations de la première couche en accord avec ces poids,
correspond à un des coefficients de la matrice produit de tout ce qu'on a à gauche ici.
D'ailleurs, une grande partie du machine learning revient à avoir une bonne notion de l'algèbre linéaire,
donc si vous voulez une bonne visualisation des matrices et du produit matriciel, regardez la série que j'ai réalisée sur l'algèbre linéaire.
Surtout le chapitre 3.
Pour en revenir à notre expression, au lieu d'ajouter le biais indépendamment  à chacune de ces valeurs, nous le représentons par
ces biais organisés dans un vecteur, et ajoutons ce vecteur au produit matriciel précédent.
Puis, dernière étape,
nous ajoutons la fonction sigmoïde autour,
et ce que c'est censé représenter est que nous appliquons la fonction à chaque
coefficient spécifique du vecteur résultat.

Indonesian: 
Apa itu artinya mengambil jumlah tertimbang dari aktivasi di lapisan pertama sesuai dengan bobot ini?
Sesuai dengan salah satu istilah dalam produk vektor matriks dari semua yang kita miliki di sebelah kiri di sini
Dengan begitu banyak pembelajaran mesin hanya datang untuk memiliki pemahaman yang baik dari aljabar linier
Jadi bagi Anda yang menginginkan pemahaman visual yang bagus untuk matriks dan apa yang dimaksud dengan perkalian vektor matriks, lihatlah seri yang saya lakukan pada aljabar linier.
terutama bab tiga
Kembali ke ekspresi kami alih-alih berbicara tentang menambahkan bias ke masing-masing dari nilai-nilai ini secara mandiri kami mewakilinya
Mengatur semua bias tersebut ke dalam vektor dan menambahkan seluruh vektor ke produk vektor matriks sebelumnya
Kemudian sebagai langkah terakhir
Saya akan rap sigmoid di sekitar luar sini
Dan apa yang seharusnya diwakilinya adalah Anda akan menerapkan fungsi sigmoid untuk masing-masing spesifik
komponen dari vektor yang dihasilkan di dalam

English: 
What that means is that taking the weighted sum of the activations in the first layer according to these weights?
Corresponds to one of the terms in the matrix vector product of everything we have on the left here
By the way so much of machine learning just comes down to having a good grasp of linear algebra
So for any of you who want a nice visual understanding for matrices and what matrix vector multiplication means take a look at the series I did on linear algebra
especially chapter three
Back to our expression instead of talking about adding the bias to each one of these values independently we represent it by
Organizing all those biases into a vector and adding the entire vector to the previous matrix vector product
Then as a final step
I'll rap a sigmoid around the outside here
And what that's supposed to represent is that you're going to apply the sigmoid function to each specific
component of the resulting vector inside

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
O que isso significa é que a soma ponderada das ativações na primeira camada de acordo com esses pesos?
Corresponde a um dos termos do produto vetorial matriz de tudo o que temos à esquerda aqui
Aliás, muito do aprendizado de máquina se resume a ter uma boa compreensão da álgebra linear
Então, para qualquer um de vocês que quer um bom entendimento visual para matrizes e que multiplicação vetorial de matriz significa dar uma olhada na série que fiz sobre álgebra linear
especialmente o capítulo três
Voltando à nossa expressão, em vez de falar sobre adicionar o preconceito a cada um desses valores de forma independente, nós o representamos
Organizando todos esses vieses em um vetor e adicionando o vetor inteiro ao produto vetor de matriz anterior
Então, como um passo final
Eu vou rap um sigmóide ao redor do lado de fora aqui
E o que é suposto representar é que você vai aplicar a função sigmóide a cada
componente do vetor resultante dentro

Modern Greek (1453-): 
Αυτό σημαίνει ότι το σταθμικό άθροισμα των ενεργοποιήσεων στο πρώτο στρώμα, σύμφωνα με αυτά τα βάρη,
αντιστοιχεί σε έναν από τους όρους του γινομένου των πινάκων που έχουμε στα αριστερά.
Παρεμπιπτόντως, μεγάλο κομμάτι του machine learning απαιτεί να έχετε μια καλή επαφή με τη γραμμική άλγεβρα.
Οπότε, αν κάποιος από εσάς θέλει μία ωραία οπτική κατανόηση των πινάκων και του τι σημαίνει το γινόμενο πινάκων, ας τσεκάρει τη σειρά που έκανα για τη γραμμική άλγεβρα,
και ειδικά το κεφάλαιο 3.
Πίσω στην έκφρασή μας, αντί να λέμε ότι προσθέτουμε την πόλωση σε κάθε τιμή ξεχωριστά, την αναπαριστούμε ως
ένα διάνυσμα όλων αυτών των πολώσεων, το οποίο προσθέτουμε στο προηγούμενο γινόμενο πινάκων.
Τέλος, θα γράψω
τη σιγμοειδή γύρω από αυτήν την έκφραση,
και αυτό σημαίνει ότι θα εφαρμόσετε τη σιγμοειδή συνάρτηση σε καθεμία από τις συνιστώσες
του τελικού διανύσματος στο εσωτερικό.

Chinese: 
這代表矩陣相乘後的每一項都代表其中一個神經元的激勵函數
矩陣相乘的結果就是對應的神經元激勵函數
順道一提 學習機器學習需要對線性代數有一定的了解
所以任何想要透過視覺化的教學理解矩陣和矩陣乘法可以去看我的以前做的線性代數系列影片
特別是第三篇
會到正題 當我要加上偏置時也會把每一個偏置
放到矩陣裡在和前面算出來的結果做矩陣加法
最後一步
我會用邏輯函數把整個結果包起來
意思是把最後得到的向量一個一個丟進邏輯函數中
來計算出每一個結果

Persian: 
آیا این به معنی است که مجموع وزن های فعالسازها در لایه اول را بر اساس این وزن ها به دست می آوریم؟
متناظر با هر یک از عبارات در ماتریس بردار محصول، ما  در اینجا در سمت چپ یک چیز داریم
با روش های بسیاری که برای یادگیری ماشین وجود دارد، فقط به داشتن یک درک خوب از جبر خطی نیاز است
بنابراین برای هر کدام از شما که می خواهید درک بصری خوبی از ماتریس و آنچه که ضرب ماتریس معکوس خوانده می شود داشته باشید  سری های آموزش من در جبر خطی را ببینید
بخصوص فصل سوم را
به بحث خود بر می گردیم  به جای صحبت کردن در مورد اضافه کردن بایاس به هر یک از این مقادیر به طور مستقل ما آن را  با
سازماندهی تمام این بایاس ها در یک بردار و اضافه کردن کل بردار به محصول بردار ماتریس قبلی نشان می دهیم
سپس به عنوان آخرین مرحله
من یک سیگموئید در پیرامون آن قرار خواهم داد
و آنچه که تصور می شود این است که شما قصد دارید تابع سیگموئید را به هر یک از موارد خاص اعمال کنید
اجزای  بردار نتیجه داخلی

Polish: 
Co to oznacza, że ​​biorąc ważoną sumę aktywacji w pierwszej warstwie według tych wag?
Odpowiada jednemu z warunków w macierzowym produkcie wektorowym wszystkiego, co mamy po lewej stronie
Tak przy okazji, uczenie maszynowe sprowadza się do dobrego zrozumienia algebry liniowej
Tak więc dla każdego z was, kto chce miłego wizualnego zrozumienia matryc i jakie mnożenie wektora macierzy należy spojrzeć na serię, którą zrobiłem w algebrze liniowej
szczególnie rozdział trzeci
Wracając do naszej ekspresji, zamiast mówić o dodawaniu uprzedzeń do każdej z tych wartości niezależnie, reprezentujemy ją
Porządkowanie wszystkich tych odchyleń w wektor i dodanie całego wektora do poprzedniego produktu wektorowego macierzy
Następnie jako ostatni krok
Wymienię sigmoidę na zewnątrz
A to, co ma reprezentować, polega na tym, że zastosujesz funkcję sigmoid do każdej konkretnej
element wektora wynikowego w środku

German: 
Das bedeutet, daß die gewichtete Summe der Aktivierungen in der ersten Schich gemäss dieser Gewichte
einem Ausdruck des Matrizen-Vektor-Produkts von allem auf der linken Seite entspricht.
Nebenbei: Der Grossteil dessen, was bei Machine Learning passiert, kann durch ein gutes Verständnis von linearer Algebra erklärt werden.
Wer also eine hübsche Visualisierung dessen wünscht was Matrizen sind, oder wie Vektor-Multiplikation funktioniert, sollte sich meine Serie zur linearen Algebra anschauen.
Vor allem das 3. Kapitel!
Zurück zu unserer Veranschaulichung: Statt die Verzerrung jeder einzelnen Zeile anzufügen, können wir
sie ebenfalls in Form eines Vektors organisieren, welchen wir dem vorangegangenen Matrizen-Vektor-Produkt hinzufügen können.
Als letzten Schritt,
packe ich das Ganze in eine Sigmoid-Funktion.
Und was das darstellen soll ist, dass Sie die Sigmoid-Funktion auf jeden der resultierenden Vektorkomponenten anwenden.

Japanese: 
その意味は、これらの重みに従って第1層の活性化の加重和を取ることですか？
ここにあるすべてのものの行列ベクトル積の項の1つに対応します
ところで、機械学習の多くは、線形代数をよく理解することに帰着します
ですから、マトリックスの視覚的な理解を望む人や、行列ベクトルの乗算が線形代数で行ったシリーズ
特に第3章
これらの値のそれぞれにバイアスを追加することについて話すのではなく、私たちの表現に戻ると、
それらのバイアスを全てベクトル化し、ベクトル全体を前の行列ベクトル積に加える
次に、最終ステップとして
私はここの外側のSigmoidをラップします
そして、それが表すはずのものは、あなたがシグモイド関数をそれぞれの固有の関数に適用することです
結果として生じるベクトルの内部のコンポーネント

Turkish: 
Bunun anlamı, birinci katmandaki aktivasyonların ağırlıklı toplamını bu ağırlıklara göre almak mı?
Sol taraftaki her şeyin matris vektörü çarpımındaki terimlerin birine karşılık gelir burada
Bu arada, makine öğreniminin o kadar çok kısmı, lineer cebirden
Dolayısıyla, matrisler için güzel bir görsel anlayış isteyen ve matris vektör çarpımının ne anlama geldiğini öğrenen sizler için, lineer cebir üzerinde yaptığım diziye bir göz atın
özellikle üçüncü bölüm
Bu değerlerin her birine önyargı ekleme konusundan ziyade ifademize geri dönüp bağımsız olarak onu temsil ediyoruz.
Tüm bu önyargıları bir vektöre düzenlemek ve tüm vektörü önceki matris vektör ürününe eklemek
Sonra son bir adım olarak
Dışarıda bir sigmoid vuracağım
Ve bunun temsil etmesi gerekenler, sigmoid işlevini her spesifik
içindeki vektörün bileşeni

Thai: 
สิ่งที่หมายถึงคือการใช้น้ำหนักของการกระตุ้นในชั้นแรกตามน้ำหนักเหล่านี้หรือไม่?
สอดคล้องกับเงื่อนไขข้อใดข้อหนึ่งในผลิตภัณฑ์เมตริกซ์เวกเตอร์ของทุกสิ่งทุกอย่างที่เรามีด้านซ้ายที่นี่
โดยวิธีการมากของการเรียนรู้เครื่องเพียงแค่ลงมามีความเข้าใจที่ดีของพีชคณิตเชิงเส้น
ดังนั้นสำหรับคุณที่ต้องการความเข้าใจภาพที่ดีสำหรับเมทริกซ์และสิ่งที่การคูณเวกเตอร์เมทริกซ์หมายถึงดูที่ชุดที่ฉันทำในพีชคณิตเชิงเส้น
โดยเฉพาะบทที่สาม
กลับไปที่การแสดงออกของเราแทนที่จะพูดถึงการเพิ่มความลำเอียงให้กับแต่ละค่าเหล่านี้อย่างอิสระ
การจัดอคติเหล่านี้ให้เป็นเวกเตอร์และเพิ่มเวกเตอร์ทั้งหมดลงในผลิตภัณฑ์เวคเตอร์เมทริกซ์ก่อนหน้านี้
จากนั้นเป็นขั้นตอนสุดท้าย
ฉันจะแร็พ sigmoid รอบด้านนอกที่นี่
และสิ่งที่ควรจะหมายถึงคือคุณจะใช้ฟังก์ชัน sigmoid กับแต่ละเฉพาะ
ส่วนประกอบของเวกเตอร์ที่เกิดขึ้นภายใน

Hungarian: 
Ami azt jelenti, hogy az aktiválások súlyozott összege az első rétegben megegyezik 
a mátrix megfelelő sorvektorának és az oszlopvektornak a szorzatával.
Mellesleg a gépi tanulás nagy része főleg a lineáris algebra jó megértésére épül.
Szóval ha bárki a mátrixok vizuális megértésére és mátrix szorzás megértésére vágyna, nézze meg a lineáris algebra sorozatomat is.
Kiváltképp a harmadik fejezetét.
A kifejezésünkre visszatérve - ahelyett, hogy egyenként hozzáadnánk minden torzítást,
inkább vektorba szervezzük ezeket is, és hozzáadjuk a mátrix-szorzathoz.
Aztán végső lépésként
az egész kifejezés bekerül a szigmoid függvénybe.
És ez azt jelenti, hogy a szigmoid függvényt az eredményként előálló vektor 
mindegyik elemére alkalmazni fogjuk.

Chinese: 
这样权重矩阵和向量乘积的第n项
就是这一层所有的激活值 和下一层第n个神经元间连线权重的加权和
顺带一句 机器学习到头来和线性代数是不分家的
如果大家想更形象地理解矩阵和矩阵乘法的意义的话
不妨去看下我之前做的线代本质系列吧
特别是第三章
回到符号表达的话题
表达偏置值的时候 我们并不会把一个个值都拎出来单独讨论
相反 我们会把它们都放到一个向量里
然后把它和之前的矩阵乘法的结果相加
最后一步 我们把整个表达式用一个sigmoid包起来
所谓包起来就是指
对表达式结果向量中的每一项都取一次sigmoid

Vietnamese: 
Điều đó có nghĩa là lấy tổng trọng số của kích hoạt trong lớp đầu tiên theo các trọng?
Tương ứng với một trong các điều khoản trong sản phẩm vector ma trận của tất cả mọi thứ chúng tôi có ở bên trái ở đây
Bằng cách quá nhiều học máy chỉ đi xuống để có một nắm bắt tốt các đại số tuyến tính
Vì vậy, đối với bất kỳ bạn của những người muốn có một sự hiểu biết trực quan tốt đẹp cho các ma trận và những gì nhân vector ma trận có nghĩa là hãy nhìn vào dòng tôi đã làm trên đại số tuyến tính
đặc biệt là chương ba
Về biểu hiện của chúng tôi thay vì nói về thêm thiên vị cho mỗi một trong những giá trị độc lập chúng tôi đại diện nó bằng cách
Tổ chức tất cả những thành kiến ​​vào một vector và thêm toàn bộ vector cho sản phẩm ma trận vector trước
Sau đó, như một bước cuối cùng
Tôi sẽ rap một sigmoid xung quanh bên ngoài ở đây
Và điều đó là nghĩa vụ phải thể hiện là bạn đang đi để áp dụng hàm sigmoid cho mỗi cụ thể
thành phần của vector kết quả bên trong

Russian: 
Выходит, получение взвешенной суммы активаций первого слоя в соответствии с этими весами
соотносится с одним из членов матричного произведения всего того, что у нас слева.
Кстати, большАя часть машинного обучения сводится к хорошему пониманию линейной алгебры,
так что все, желающие увидеть простое и наглядное объяснение матриц
а так же что означает матричное произведение,
посмотрите серию моих видео про линейную алгебру, особенно третью главу.
Возвращаясь к нашему выражению,
вместо добавления сдвига к каждому из этих значений по отдельности
мы представим это описанием всех наших сдвигов в виде вектора,
и сложением этого вектора с полученным ранее матричным произведением.
Тогда останется лишь обернуть всё это в сигмоиду,
что означает применение сигмоидной функции к каждому члену получившегося внутри вектора.

Italian: 
Che cosa significa prendere la somma ponderata delle attivazioni nel primo strato in base a questi pesi?
Corrisponde a uno dei termini nel prodotto matrice-vettore di tutto ciò che abbiamo qui a sinistra
gran parte del machine learning si riduce ad avere una buona conoscenza dell'algebra lineare
Chiunque di voi desideri capire graficamente le matrici e sapere che significa la moltiplicazione matrice-vettore puo' dare un'occhiata alla serie che ho fatto sull'algebra lineare
specialmente il terzo capitolo
Tornando alla nostra espressione, invece di di aggiungere la soglia a ciascuno di questi valori, la rappresentiamo in modo indipendente
organizzando tutte quelle soglie in un vettore e poi sommiamo l'intero vettore al precedente prodotto vettore-matrice
Quindi come passo finale
Mettiamo la sigmoide all'esterno di tutto
rappresentando che applicheremo la funzione sigmoide ad ogni specifico
componente interno del vettore risultante

Japanese: 
したがって、この重み行列とこれらのベクトルを独自の記号として書き留めると、次のことができます。
非常にタイトできちんとした小さな表情で、あるレイヤーから次のレイヤーへのアクティベーションの完全な移行を伝え、
これにより、多くのライブラリが行列の乗算を最適化するので、関連するコードがずっと簡単で多く高速になります
私がこれらのニューロンが単に数字を保持するもの
もちろん、それらが保持する特定の数値は、あなたがフィードした画像に依存します
したがって、実際には、各ニューロンを
前の層のすべてのニューロンの出力と0と1の間の数を吐き出す
実際には、ネットワーク全体が機能しているだけです
784個の数字を入力とし、10個の数字を出力として吐き出す
それはばかげている
特定のパターンを拾い上げるこれらの重みおよび偏りの形で13,000のパラメータを含む複雑な関数1

English: 
So once you write down this weight matrix and these vectors as their own symbols you can
communicate the full transition of activations from one layer to the next in an extremely tight and neat little expression and
This makes the relevant code both a lot simpler and a lot faster since many libraries optimize the heck out of matrix multiplication
Remember how earlier I said these neurons are simply things that hold numbers
Well of course the specific numbers that they hold depends on the image you feed in
So it's actually more accurate to think of each neuron as a function one that takes in the
outputs of all the neurons in the previous layer and spits out a number between zero and one
Really the entire network is just a function one that takes in
784 numbers as an input and spits out ten numbers as an output
It's an absurdly
Complicated function one that involves thirteen thousand parameters in the forms of these weights and biases that pick up on certain patterns and which involves

Chinese: 
现在只要我们一写下权重矩阵和相应向量的符号
神经网络各层之间激活值的转化
就可以表达得清晰简洁明了了
这种表达也让我们写程序变得简便了许多
因为很多库在矩阵乘法方面做了十足的优化(比如屏幕里用的numpy)
还记得之前 我要叫大家把神经元看作数字的容器吗
实际上 神经元中装着的值是取决于你的输入图像的
所以我们把神经元看作一个函数才更加准确
它输入的是上一层所有的神经元的输出
而它的输出是一个0到1之间的值
其实整个神经网络就是一个函数
一个输入784个值 输出10个值的函数
不过这个函数极其的复杂
它用了13000个权重参数偏置参数
来识别特殊图案

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 

Thai: 
ดังนั้นเมื่อคุณจดเมทริกซ์น้ำหนักนี้และเวกเตอร์เหล่านี้เป็นสัญลักษณ์ของตัวเองที่คุณสามารถทำได้
สื่อสารการเปลี่ยนจากการเปิดใช้งานทั้งหมดจากชั้นหนึ่งไปยังอีกชั้นหนึ่งในการแสดงออกน้อยมากและแน่นและ
นี้ทำให้รหัสที่เกี่ยวข้องทั้งง่ายมากและรวดเร็วยิ่งขึ้นเนื่องจากหลายห้องสมุดเพิ่มประสิทธิภาพ heck ออกจากการคูณเมทริกซ์
โปรดจำไว้ว่าก่อนหน้านี้ฉันกล่าวว่าเซลล์ประสาทเหล่านี้เป็นเพียงสิ่งที่ถือตัวเลข
แน่นอนตัวเลขที่เฉพาะเจาะจงที่พวกเขาถือขึ้นอยู่กับภาพที่คุณฟีด
ดังนั้นจึงเป็นจริงถูกต้องมากขึ้นในการคิดของเซลล์ประสาทแต่ละตัวเป็นฟังก์ชันที่ใช้เวลาใน
เอาท์พุทของเซลล์ประสาททั้งหมดในชั้นก่อนหน้าและ spits ออกจำนวนระหว่างศูนย์และหนึ่ง
จริงๆเครือข่ายทั้งหมดเป็นเพียงหนึ่งฟังก์ชันที่ใช้เวลาค่ะ
784 เป็น input และ spits ออกสิบตัวเลขเป็นเอาท์พุท
มันไร้สาระ
ฟังก์ชันซับซ้อนหนึ่งที่เกี่ยวข้องกับพารามิเตอร์สามหมื่นในรูปแบบของน้ำหนักและอคติเหล่านี้ที่รับในรูปแบบบางอย่างและเกี่ยวข้องกับ

Russian: 
Таким образом, дав этой матрице весов и этим векторам собственные обозначения,
вы сможете выражать весь переход активаций от одного слоя к следующему
в виде чрезвычайно компактного и аккуратного выражения.
И это делает соответствующий код и гораздо проще, и гораздо быстрее,
так как многие библиотеки чертовски оптимизированы под матричные умножения.
Помните как я ранее говорил что нейроны это просто сущности, содержащие числа?
Ну и, содержащиеся в них числа конечно зависят от того какое изображение вы скормили.
Так что правильнее представлять каждый нейрон в виде функции,
которая принимает выходы со всех нейронов предыдущего слоя и выплёвывает число от 0 до 1.
На самом деле вся сеть - это просто функция,
которая берёт на вход 784 числа и выплёвывает 10 чисел на выходе.
Это до абсурда сложная функция, которая включает 13 000 параметров в виде этих весов и сдвигов, которые отвечают за определённые шаблоны,

Indonesian: 
Jadi, begitu Anda menuliskan matriks bobot ini dan vektor-vektor ini sebagai simbol mereka sendiri, Anda bisa
mengomunikasikan transisi penuh aktivasi dari satu lapisan ke lapisan berikutnya dalam ekspresi kecil yang sangat ketat dan rapi
Hal ini membuat kode yang relevan menjadi jauh lebih sederhana dan lebih cepat karena banyak pustaka yang mengoptimalkan keluar dari perkalian matriks
Ingat bagaimana sebelumnya saya mengatakan neuron ini hanyalah hal-hal yang memiliki angka
Yah tentu saja nomor tertentu yang mereka pegang tergantung pada gambar yang Anda masukkan
Jadi sebenarnya lebih akurat untuk memikirkan setiap neuron sebagai fungsi yang mengambil alih
output semua neuron pada lapisan sebelumnya dan mengeluarkan angka antara nol dan satu
Benar-benar seluruh jaringan hanyalah fungsi yang mengambil alih
784 angka sebagai input dan mengeluarkan sepuluh angka sebagai output
Ini tidak masuk akal
Fungsi rumit yang melibatkan tiga belas ribu parameter dalam bentuk bobot dan bias yang mengambil pola-pola tertentu dan yang melibatkan

Vietnamese: 
Vì vậy, một khi bạn viết ra ma trận trọng số này và những vector như là biểu tượng riêng của họ, bạn có thể
giao tiếp quá trình chuyển đổi toàn bộ kích hoạt từ một lớp tiếp theo trong một biểu thức ít cực kỳ chặt chẽ và gọn gàng và
Điều này làm cho các mã có liên quan cả hai rất nhiều đơn giản và nhanh hơn rất nhiều kể từ nhiều thư viện tối ưu hóa các heck ra khỏi nhân ma trận
Ghi như thế nào trước đó tôi đã nói những tế bào thần kinh chỉ đơn giản là những điều mà giữ số
Vâng tất nhiên những con số cụ thể mà họ nắm giữ phụ thuộc vào hình ảnh bạn nuôi trong
Vì vậy, nó thực sự chính xác hơn để suy nghĩ của mỗi tế bào thần kinh như một chức năng mà mất trong các
kết quả đầu ra của tất cả các tế bào thần kinh trong lớp trước và spits ra một số từ zero và một
Thực sự toàn bộ mạng chỉ là một chức năng mà mất trong
784 số như một đầu vào và spits ra mười con số như một đầu ra
Đây là một ngớ ngẩn
chức năng một phức tạp có liên quan đến mười ba ngàn thông số dưới các hình thức của những trọng lượng và những thành kiến ​​mà nhặt trên các mẫu nhất định và trong đó bao gồm

French: 
Ainsi, une fois que vous avez réécrits cette matrice des poids et ces vecteurs en symboles, vous pouvez
communiquer la transition de l'activation d'une couche à la suivante en une expression très courte et propre.
Et cela rend le code beaucoup plus simple et plus rapide, puisque beaucoup de bibliothèques optimisent énormément le produit matriciel.
Vous vous souvenez quand j'ai dit plus tôt que ces neurones sont simplement des objets qui contiennent des nombres ?
Eh bien les nombres spécifiques qu'ils contiennent dépend de l'image que vous lui donnez.
Donc c'est plus juste de voir chaque neurone comme une fonction qui prend
la sortie de chaque neurone dans la couche précédente et donne un nombre entre 0 et 1.
En fait, tout le réseau est juste une fonction, qui prend
784 nombres en entrées et donne 10 nombres en sortie.
C'est une fonction ridiculement compliquée
qui implique 13000 paramètres comme ces poids et ces biais qui reconnaissent certains motifs, qui

German: 
Wenn Sie also diese Gewichtsmatrix und diese Vektoren als eigene Symbole darstellen, können Sie
den gesamten Aktivierungs-Übergang von einer Stufe zur nächsten in kürzester Form notieren.
Dies macht den entsprechenden Code sowohl viel einfacher zu schreiben, als auch viel schneller, da viele Bibliotheken Matrixmultiplikation optimiert haben.
Erinnern Sie sich, wie ich sagte, dass diese Neuronen einfach Dinge seien, die Zahlen halten können?
Nun, natürlich hängt dabei die spezifische Zahl davon ab, was man dem Netzwerk als Input liefert.
Es wäre aber präziser zu sagen, dass jedes Neuron einer Funktion entspricht. Eine Funktion, die als eigenen Input
die Resultate aller vorangegangenen Neuronen erhält, und eine Zahl zwischen 0 und 1 ausspuckt.
Eigentlich ist das Ganze Netzwerk einfach eine grosse Funktion, welche
784 Zahlen als Input erhält und zehn Zahlen als Output serviert.
Es ist eine absurd komlizierte Funktion,
eine die 13'000 Parameter in Form von Gewichten und Verzerrungen beinhaltet und gewisse Muster erkennt,

Modern Greek (1453-): 
Οπότε μόλις γράψετε αυτόν τον πίνακα βαρών και αυτά τα διανύσματα με τα δικά τους σύμβολα,
μπορείτε να συμβολίσετε την πλήρη μετάβαση των ενεργοποιήσεων από το ένα στρώμα στο επόμενο με μία υπερβολικά μικρή και όμορφη έκφραση,
και αυτό μετά κάνει τον σχετικό κώδικα και απλούστερο και πολύ γρηγορότερο, μιας και πολλές βιβλιοθήκες βελτιστοποιούν απίστευτα το γινόμενο πινάκων.
Θυμάστε που νωρίτερα είχα πει ότι αυτοί οι νευρώνες είναι απλά πράγματα που κρατάνε αριθμούς;
Ε, φυσικά αυτοί οι αριθμοί εξαρτώνται από την εικόνα που δίνεται ως είσοδος.
Οπότε είναι πιο ακριβές να σκέφτεστε κάθε νευρώνα ως μία συνάρτηση! Μία συνάρτηση που δέχεται
ως είσοδο τις τιμές όλων των νευρώνων του προηγούμενου στρώματος, και βγάζει ως έξοδο έναν αριθμό μεταξύ του 0 και του 1.
Πραγματικά, ολόκληρο το δίκτυο είναι απλά μία συνάρτηση που παίρνει ως είσοδο
784 αριθμούς και βγάζει ως έξοδο 10 αριθμούς.
Είναι μία αδιανόητα
περίπλοκη συνάρτηση, που περιλαμβάνει 13.000 παραμέτρους με τη μορφή βαρών και πολώσεων, που ανιχνεύουν συγκεκριμένα μοτίβα και περιλαμβάνουν

Persian: 
پس وقتی این ماتریس وزن را  و این بردارها را به عنوان نمادهای خودشان  بنویسید، می توانید ببینید
انتقال کامل فعال سازی از یک لایه به بعد در بیان مختصر و شفاف و ارتباط برقرار می کند
این باعث می شود کد مربوطه هر دو بسیار ساده تر و بسیار سریع تر از بسیاری از کتابخانه های بهینه سازی شده از هک ضرب ماتریس است
به یاد داشته باشید همانطور که قبلا گفتم  این نورون ها به سادگی چیزهایی هستند که اعداد را نگه می دارند
خب، البته تعداد مشخصی که در اختیار دارند، وابسته به تصویری است که به آن داده اید
بنابراین، در واقع دقیق تر است که هر نورون را به عنوان یک تابع در نظر بگیریم
خروجی تمام نورون ها در لایه قبلی است و عدد صفر و یک را جدا می کند
واقعا کل شبکه فقط یک تابع است که
784 عدد به عنوان یک ورودی می گیرد و ده عدد را به عنوان خروجی جدا می کند
این بی بدیل است
تابع پیچیده ای که شامل سیزده هزار پارامتر در قالب این وزن ها و بایاس ها است که بر روی الگوهای مشخصی قرار می گیرند و شامل

Spanish: 
y este vector como sus propios símbolos,
puedes comunicar la transición completa de activaciones
desde una capa a la siguiente , todo en una
expresión pequeña y apretada
Y esto hace  al código relevante
algo mucho mas simple y mucho más rápido
ya que las librerías optimizan el infierno de la multiplicación entre matrices
Recuerdas cuando al principio  dije que estas neuronas son
solo cosas que almacenan números
, bueno, por supuesto, los números específicos que almacenan
dependen en la imagen que alimentas
Así que , es realmente  mas preciso pensar en cada neurona
como una función , cuando toma las entradas
como todas las neuronas de la capa anterior
y escupe  un número entre cero y uno
Realmente, la red completa es una función
una que toma 784 Números como  entrada
y escupe
10 números como salida .
Es una función absurdamente complicada
una que envuelve 13,002 parámetros
en la forma de pesos y BIASES, que toman ciertos patrones
y que envuelve ciertas  iteraciones de
productos de matrices

Hungarian: 
Végül ha a súlymátrixot és ezeket a vektorokat saját szimbólumukkal jelöljük,
tiszta és tömör formában tudjuk leírni az aktivitás átadását az egyik rétegről a másikra.
Ezáltal a kód fontos része sokkal egyszerűbbé és gyorsabbá válik, mivel számos könyvtár optimalizálja a mátrix-műveleteket.
Korábban megegyeztünk, hogy ezek a neuronok egyszerűen olyan dolgok, amelyek számokat tartalmaznak.
Persze a számok attól függnek, hogy milyen képet töltöttünk be.
Valójában pontosabb úgy fogalmazni, hogy minden egyes neuron egy függvény.
Amelynek az előző réteg összes neuronja egy változója, és egy nulla és egy közötti számot ad eredményül.
Valójában az egész neurális hálózat csak egy függvény.
Ami 784 számot kap inputként és 10-et ad vissza.
Egy rettenetesen komplikált függvény,
amely 13.000 paramétert tartalmaz súlyok és torzítások formájában, és amely

Chinese: 
現在當我們用簡單的符號來寫下公式
就可以很清楚完整的表達每一層之間的關係
還有這也讓我們更簡單快速的編寫程式碼
像是很多的對於矩陣運算有最佳化的函式庫
還記得我一開始說神經元只是一個簡單承載數字的東西嗎
當然 它裡面所裝得數字取決於你給他的圖像
所以更準確地說應該把神經元當作一個函數
它的輸出是取決於上一層所有的神經元然後轉換成一個介於 0 到 1 的數字
其實也可以把整個神經網路當作一個函數
有著 784 個輸入值和 10 輸出值的函數
它是一個非常複雜的函數
用來選擇正確圖案的權重和偏置參數就有 13000 個

Portuguese: 
Então, uma vez que você anote esta matriz de peso e esses vetores como seus próprios símbolos, você pode
comunicar a transição completa de ativações de uma camada para a próxima em uma expressão pequena extremamente
Isso torna o código relevante muito mais simples e muito mais rápido, já que muitas bibliotecas otimizam a multiplicação de matrizes
Lembre-se de quão cedo eu disse que esses neurônios são simplesmente coisas que seguram números
Bem, é claro que os números específicos que eles contêm dependem da imagem que você alimenta
Então, é realmente mais preciso pensar em cada neurônio como uma função que absorve o
saídas de todos os neurônios na camada anterior e cospe um número entre zero e um
Realmente toda a rede é apenas uma função que leva em
784 números como uma entrada e cospe dez números como uma saída
É um absurdo
Função complicada que envolve treze mil parâmetros nas formas desses pesos e vieses que captam certos padrões e que envolvem

Italian: 
Quindi, una volta scritta questa matrice dei pesi e questi vettori come simboli a sè, è possibile
comunicare la transizione completa delle attivazioni da uno strato all'altro in una piccola espressione estremamente stretta e accurata e
Questo rende il codice sia molto più semplice che molto più veloce poiché molte librerie ottimizzano la moltiplicazione delle matrici
Ricorda quanto prima ho detto, che questi neuroni sono semplicemente cose che contengono numeri
Beh, i numeri specifici che tengono dipende dall'immagine iniziale
Quindi in realtà è più accurato pensare a ciascun neurone come a una funzione che accetta l'output
di tutti i neuroni nel livello precedente e sputa un numero compreso tra zero e uno
In realtà l'intera rete è solo una funzione che accetta
784 numeri come input e sputa dieci numeri come output
È una funzione
complicata che coinvolge tredici mila parametri sotto forma di questi pesi e soglie che riconoscono determinati schemi che finiscono

Czech: 
Takže, jakmile nahradíme matici vah a tyto vektory jejich symboly,
můžeme převod aktivací z jedné vrstvy do druhé vyjádřit velmi úsporným zápisem
Tím také získáme mnohem jednodušší a rychlejší zdrojový kód, protože existuje mnoho optimalizovaných knihoven pro násobení matic
Pamatujete, že jsem dříve řekl, že tyto neurony jsou prostě věci, které obsahují číslo?
Samozřejmě, že konkrétní čísla, která obsahují, závisí na obrazu, který přivedete na vstup
Je tedy přesnější považovat každý neuron za funkci, jejímž vstupem jsou
výstupy všech neuronů v předchozí vrstvě a výsledkem číslo mezi nulou a jedničkou
Ve skutečnosti je celá síť jen jedna funkce, která přijímá
784 čísel jako vstup a vydává deset čísel jako výstup
Funkce je to
absurdně komplikovaná, protože zahrnuje 13 000 parametrů ve formě vah a prahů, které detekují určité vzorce, a k jejímu výpočtu

Korean: 
그래서, 가중치 행렬과 벡터들을 각각의 기호로 나타내면
활성화된 정도가 한 층에서 다른 층으로 어떻게 전달되는지를 아주 짧고 간단한 식으로 나타낼 수 있게 됩니다.
많은 라이브러리들이 행렬곱을 최적화하므로 관련 코드를 훨씬 쉽고 빠르게 만들 수 있습니다.
앞에서 뉴런이 숫자를 보관하는 것이라고 간단하게 말한 것이 기억나나요?
당연히도 뉴런이 보관한 숫자들은 입력한 이미지에 따라 결정됩니다.
따라서 뉴런을 이전 층의 뉴런의 출력을 모두 받아서
0과 1 사이의 수를 만들어내는 함수라고 생각하는 것이 더 정확합니다.
사실 네트워크 전체도 784개의 수를 입력 받아서
10개의 수를 출력하는 함수입니다.
이 터무니 없이 복잡한 함수는 특정한 패턴을 인식하기 위해
13,000여개의 가중치나 bias형태의 매개변수로

Turkish: 
Dolayısıyla, bu ağırlık matrisini ve bu vektörleri kendi sembolleri olarak yazdıktan sonra
son derece sıkı ve düzgün bir şekilde küçük bir ifadeyle, bir katmandan diğerine aktarımların tüm geçişini iletin ve
Bu, birçok kütüphanenin matris çarpımından heck'i optimize ettiği için, ilgili kodu hem çok daha basit hem de çok daha hızlı hale getirir
Daha önce ne söylediğimi hatırlayın, bu nöronlar basitçe sayıları barındıran şeylerdir
Elbette tuttukları sayılar, beslediğiniz resme göre değişir
Bu nedenle, her bir nöronun bir işlev olarak düşünülmesi aslında daha doğrudur;
Önceki katmandaki tüm nöronların çıkışlarını ve sıfır ile bir arasında bir sayı yayar
Gerçekten de tüm ağ sadece bir işlevi alır
784 sayıları girdi olarak ve çıkış olarak on rakamı tükürür
Saçmalık
Bu ağırlıkların biçiminde onbeş bin parametreyi ve belirli modelleri alıp bunları içeren önyargılar içeren karmaşık bir işlev

Polish: 
Kiedy więc zapiszesz macierz wagi i te wektory jako swoje własne symbole, możesz
przekazać pełne przejście aktywacji z jednej warstwy na drugą w niezwykle ciasnym i schludnym wyrazie i
Dzięki temu odpowiedni kod jest znacznie prostszy i szybszy, ponieważ wiele bibliotek optymalizuje mnożenie macierzy poza macierz
Pamiętasz, jak wcześniej mówiłem, że te neurony to po prostu rzeczy, które trzymają liczby
No cóż, poszczególne numery, które trzymają, zależą od obrazu, który wysyłasz
Tak więc dokładniej jest myśleć o każdym neuronie jako funkcji, która bierze w sobie
wyniki wszystkich neuronów w poprzedniej warstwie i wypluwa liczbę między zero a jeden
Naprawdę cała sieć jest tylko funkcją, która się przyjmuje
784 liczby jako dane wejściowe i wyprowadza dziesięć liczb jako wynik
To absurd
Skomplikowana funkcja, która obejmuje trzynaście tysięcy parametrów w postaci tych wag i odchyleń, które wychwytują określone wzorce i które obejmują

Arabic: 
لذلك بمجرد كتابة مصفوفة الوزن هذه وهذه المتجهات كرموز
تستطيع ربط كل الانتقال من طبقة للطبقة الأخرى بتعبير بسيط وصغير
وهذا يجعل الأوامر البرمجية أبسط وأكثر سرعة باعتبار أن كثير من المكتبات تقوم بتحسين شكل ضرب المصفوفات
هل تذكر سابقا عندما قلنا أن الخلايا العصبية هى ببساطة أشياء تحمل أرقاما ؟
حسنا بالتأكيد الأرقام التى يحملونها تعتمد على الصورة التى تغذيهم بها
لذا ربما تكون أكثر دقة لو فكرت بكل خلية عصبية على أنها دالة  تأخذ
المخرجات من جميع الخلايا العصبية فى الطبقة السابقة وتظهرها على أنها رقم بين الصفر والواحد
فى الحقيقة الشبكة بالكامل هى أيضا دالة
تأخذ 784 كمدخل وتخرج 10 أرقام كمخرجات
إنها معقدة قليلا
لدرجة أن لديها 13,000 معامل على شكل أوزان وانحيازات تتشكل بأنماط معينة

Vietnamese: 
lặp lại nhiều sản phẩm vector ma trận và sigmoid chức năng gọi hồn squish
Nhưng nó chỉ là một chức năng dù sao và trong một cách đó là loại yên tâm rằng nó có vẻ phức tạp
Ý tôi là nếu nó là bất kỳ đơn giản hơn những gì hy vọng chúng ta sẽ phải rằng nó có thể đảm nhận những thách thức của công nhận chữ số?
Và như thế nào đảm nhận thách thức đó? Làm thế nào để mạng này tìm hiểu những trọng lượng và những thành kiến ​​thích hợp chỉ cần nhìn vào dữ liệu? Oh?
Đó là những gì tôi sẽ hiển thị trong video tiếp theo, và tôi cũng sẽ đào thêm một chút vào những gì mạng đặc biệt này, chúng ta đang nhìn thấy được thực sự làm
Bây giờ là thời điểm tôi cho rằng tôi nên nói đăng ký lại thông báo về khi mà video hoặc bất kỳ video mới đi ra
Nhưng thực tế hầu hết các bạn không thực sự nhận được thông báo từ YouTube, phải không?
Có lẽ một cách trung thực hơn tôi nên nói đăng ký để các mạng thần kinh làm nền tảng của YouTube
thuật toán đề nghị được sơn lót để tin rằng bạn muốn xem nội dung từ kênh này được khuyến khích để bạn
nào ở lại gửi để biết thêm
Cảm ơn bạn rất nhiều để mọi người hỗ trợ các video trên patreon
Tôi đã là một chút chậm để tiến bộ trong loạt khả năng mùa hè này

Modern Greek (1453-): 
την εκτέλεση πάρα πολλών γινομένων πινάκων και της σιγμοειδούς συνάρτησης "συμπίεσης".
Παρ' όλ' αυτά είναι απλά μία συνάρτηση, και με κάποιον τρόπο είναι καθησυχαστικό ότι είναι τόσο περίπλοκη.
Θέλω να πω, αν ήταν έστω λίγο πιο απλή, τι ελπίδες θα είχαμε ότι θα μπορούσε να αντιμετωπίσει την πρόκληση της αναγνώρισης ψηφίων;
Και πώς αντιμετωπίζει αυτήν την πρόκληση; Πώς μαθαίνει το δίκτυο τα κατάλληλα βάρη και τις πολώσεις, απλά κοιτώντας τα δεδομένα; Ε...
Αυτό είναι που θα πούμε στο επόμενο βίντεο, και επίσης θα ψάξουμε λίγο ακόμα τι κάνει αυτό το δίκτυο που βλέπουμε.
Τώρα υποθέτω είναι που πρέπει να σας πω να εγγραφείτε για να ειδοποιηθείτε όταν βγει αυτό ή οποιοδήποτε άλλο βίντεο.
Στ' αλήθεια όμως, οι περισσότεροι από εσάς δεν παίρνετε ειδοποιήσεις από το YouTube, έτσι;
Ίσως πρέπει να σας πω να εγγραφείτε, ώστε τα νευρωνικά δίκτυα που κρύβονται πίσω από τον αλγόριθμο προτάσεων
του YouTube να πιστέψουν ότι θέλετε όντως να σας προτείνονται τα βίντεο αυτού του καναλιού.
Τέλος πάντων, μείνετε συντονισμένοι για περισσότερα.
Ευχαριστώ πάρα πολύ όλους όσους υποστηρίζουν αυτά τα βίντεο στο Patreon.
Έχω αργήσει λίγο να προχωρήσω τη σειρά για τις Πιθανότητες αυτό το καλοκαίρι,

English: 
iterating many matrix vector products and the sigmoid squish evocation function
But it's just a function nonetheless and in a way it's kind of reassuring that it looks complicated
I mean if it were any simpler what hope would we have that it could take on the challenge of recognizing digits?
And how does it take on that challenge? How does this network learn the appropriate weights and biases just by looking at data? Oh?
That's what I'll show in the next video, and I'll also dig a little more into what this particular network we are seeing is really doing
Now is the point I suppose I should say subscribe to stay notified about when that video or any new videos come out
But realistically most of you don't actually receive notifications from YouTube, do you ?
Maybe more honestly I should say subscribe so that the neural networks that underlie YouTube's
Recommendation algorithm are primed to believe that you want to see content from this channel get recommended to you
anyway stay posted for more
Thank you very much to everyone supporting these videos on patreon
I've been a little slow to progress in the probability series this summer

Chinese: 
還會不停地用到矩陣乘法和邏輯函數
即便它看起來很複雜但卻是很可靠的一個函數
我的意思是如果它看起來很簡單 我們怎麼能期望它辨識數字呢
但是它是如何完成這個任務的？
這個網路是如何只透過讀取數據來學習如何調整權重和偏置的？
這就是下一集的內容了
我們也會更深入更多關於網路運作的細節
現在又到了提醒大家如果要獲得更多新影片的通知趕快訂閱
但是大部分的時候你都沒有收到來自 YouTube 的通知吧？
也許我該說趕快訂閱讓 YouYube 的推薦演算法神經網路
去相信你想看到關於這個頻道的消息
總之留意更多消息
感謝大家在 Patreon 平台上的支持
我的機率系列影片在這個夏天進展得有點慢

Korean: 
수많은 벡터 행렬 곱과 시그모이드 압축을 반복합니다.
그럼에도 불구하고 그것은 단지 함수에 불과하며
어떤 면에서는 복잡해서 다행이기도 합니다.
내 말은 만약 그것이 단순한 함수였다면,
우리가 이 숫자들을 이해하려는 도전에 정면으로 맞서보려고나 했을까요?
그런데 어떻게 그 도전에 맞설까요?
이 네트워크는 어떻게 데이터를 보는 것만으로 적절한 가중치와 bias들을 배우는걸까요?
그것이 바로 제가 다음 비디오에서 알려드릴 내용입니다.
그리고 우리가 보고 있는 이 특정 네트워크가
실제로 하고 있는 일을 좀 더 깊이 파헤칠 겁니다.
이제 그 비디오 또는 새로운 비디오가 언제 나올지에 대한  알림을 받기 위해
구독을 부탁할 타이밍입니다.
하지만 현실적으로 대부분의 사람들은
실제로  YouTube로부터 알림을 받지 못하고 있습니다.
YouTube의 추천 알고리즘의 기반이 되는 신경망은
구독자들이 채널의 콘텐츠를 보길 원한다고 생각하기 때문에
구독을 부탁하고 싶네요.
어쨌든 또 다른 영상을 지켜봐주세요.
Patreon을 통해 영상들을 후원해주신 분들께 감사드립니다.
올 여름엔 확률 편이 조금 더디게 진행됐군요.
이 프로젝트를 마치고 다시 진행한다면

Spanish: 
en esta función Sigmoid
, pero sin embargo, es solo una función
y de una manera, es un tipo de tranquilizador que se ve complicado
, lo que digo es que fuese cualquier cosa simple ,que
esperanza tendríamos de que tome el reto de reconocer dígitos.
¿Pero cómo toma el reto? ,
¿Cómo aprende esta red los apropiados pesos y BIases solo
viendo los datos ?. eso es lo que mostraré en el siguiente video
y también indagaré  un poco más en los que esta red en particular es realmente haciendo.
Ahora es el punto donde debo decir, "Subscribete para estar notificado al respecto, cuando algún nuevo video venga "
pero realmente
la mayoría de ustedes no reciben notificaciones de you tube
Mejor debería decir que se subscriban
para que el algoritmo detrás de la recomendaciones de You Tube
crea que quieres ver contenido
de este canal que te he recomendado, de cualquier manera estate postiado para mas información.
Muchas gracias a todos lo que ayudan a estos  videos en Patreon
He estado corriendo un poco para progresar
en la serie de probabilidades en este verano , pero voy a volver al ellos después de este proyecto

Thai: 
iterating หลายผลิตภัณฑ์เวกเตอร์เมทริกซ์และฟังก์ชัน sigmoid squish evocation
แต่มันก็เป็นเพียงแค่ฟังก์ชั่นและในแบบที่มันเป็นความมั่นใจว่ามันดูซับซ้อน
ฉันหมายความว่าถ้าเราหวังว่าเราจะมีความหวังที่ง่ายกว่านี้
และวิธีการที่จะใช้เวลาในการท้าทายที่? เครือข่ายนี้จะเรียนรู้น้ำหนักและความลำเอียงที่เหมาะสมเพียงแค่ดูข้อมูล โอ้?
นั่นคือสิ่งที่ฉันจะแสดงในวิดีโอถัดไปและฉันจะขุดเพิ่มเติมอีกนิดในสิ่งที่เครือข่ายเฉพาะที่เรากำลังดูอยู่นี้กำลังทำอยู่จริงๆ
ตอนนี้เป็นจุดที่ฉันคิดว่าฉันควรบอกว่าสมัครรับข้อมูลเพื่อรับทราบเมื่อวิดีโอหรือวิดีโอใหม่ ๆ ออกมา
แต่ในความสมจริงส่วนใหญ่คุณไม่ได้รับการแจ้งเตือนจาก YouTube จริงๆใช่ไหม
อาจจะสุจริตมากขึ้นฉันควรบอกว่าสมัครรับข้อมูลเพื่อให้เครือข่ายประสาทที่รองรับ YouTube
อัลกอริทึมคำแนะนำแนะนำให้เชื่อว่าคุณต้องการดูเนื้อหาจากช่องนี้ขอแนะนำให้คุณ
ยังคงโพสต์มากขึ้น
ขอบคุณทุกคนที่สนับสนุนวิดีโอเหล่านี้ใน patreon
ฉันได้รับความคืบหน้าในชุดความน่าจะเป็นช่วงฤดูร้อนนี้เล็กน้อย

Polish: 
iterowanie wielu produktów wektorów macierzy i funkcji esmozy squmo esmozy
Ale to tylko funkcja, ale w pewnym sensie jest to trochę uspokajające, że wygląda na skomplikowaną
Chodzi mi o to, że gdyby było prostsze, jaką nadzieję mielibyśmy, moglibyśmy podjąć wyzwanie rozpoznawania cyfr?
A w jaki sposób podejmuje to wyzwanie? W jaki sposób ta sieć poznaje odpowiednie wagi i błędy, patrząc na dane? O?
Właśnie to pokażę w następnym filmie, a także jeszcze bardziej zagłębię się w to, co ta konkretna sieć, którą oglądamy, naprawdę robi
Chyba powinienem powiedzieć, że subskrybuj, aby otrzymywać powiadomienia o tym, kiedy pojawi się ten film lub nowe filmy
Ale realistycznie większość z was nie otrzymuje powiadomień z YouTube, prawda?
Może bardziej uczciwie powinienem powiedzieć, że subskrybuj, żeby sieci neuronowe leżały u podstaw YouTube
Algorytm rekomendacji jest przygotowany, aby sądzić, że chcesz, aby treści z tego kanału były Ci polecane
w każdym razie zostań wysłany po więcej
Dziękuję wszystkim, którzy wspierają te filmy na patreonie
Byłem trochę powolny, aby osiągnąć postępy w serii prawdopodobieństwa tego lata

Arabic: 
والتى تتضمن تكرار الكثير من ضرب المصفوفات ثم سحق الرقم فى دالة الsigmoid
ولكنها مجرد دالة فى النهاية وبطريقة ما إنه شيء مطمئن أنها تبدو معقدة
أعنى لو كانت أبسط لما كان سيكون لدينا أمل فى أن تتغلب على تحدى التعرف على الأرقام أليس كذلك ؟
ولكن كيف تتعلم هذه الشبكة؟ كيف تعرف الأوزان والانحيازات المناسبة فقط بالنظر للبيانات التى لديها ؟
هذا ما سأريه لك فى الفيديو القادم كما سنتعمق قليلا فيما تفعله تلك الشبكات على أرض الواقع
الآن هو الوقت الذى أقول فيه اشترك فى القناة وما إلى ذلك لتبقا متطلعا على الفيديوهات الجديدة
ولكن الواقع أن معظمكم لا يتلقون إشعارات من يوتوب فعلا، أليس كذلك؟
ربما يجب أن أقول اشترك حتى تستطيع الشبكات العصبية لليوتيوب التصديق بأنك تريد رؤية فيديوهات من هذه القناة وبالتالى ترشيحها لك
على أى حال ابق مستعدا للمزيد
شكرا جزيلا للجميع على دعم هذه أشرطة الفيديو على باترون
لقد كان قليلا بطيئا للتقدم في سلسلة الاحتمالات هذا الصيف

French: 
implique d'itérer plein de produits matriciels dans la fonction sigmoïde.
Néanmoins cela reste une fonction, et dans un sens c'est plutôt rassurant qu'elle soit compliquée.
Si elle était plus simple, comment pourrions-nous espérer qu'elle puisse reconnaître des chiffres ?
Et comment relève-t-elle le challenge ? Comment ce réseau apprend-il les bons poids et biais simplement en regardant des données ?
Eh bien, c'est ce que je vous montrerai dans la prochaine vidéo. Je creuserai aussi un peu plus sur ce que fait vraiment ce réseau en particulier
C'est maintenant que je devrais dire "Abonnez-vous pour rester notifié quand je sors une nouvelle vidéo"
Mais aucun de vous ne reçoit vraiment de notifications de YouTube, si ?
Je devrais plutôt dire "Abonnez-vous pour que le réseau de neurones qui gère l'algorithme
de recommandations de YouTube soit amené à croire que vous voulez voir le contenu de cette chaîne vous être recommandé".
Bref, restés à l'affût pour plus de contenu.
Merci beaucoup à tous ceux qui ont soutenu ces vidéos sur Patreon.
J'ai été assez lent pour avancer dans la série sur les probabilités cet été,

Italian: 
in molti prodotti matrice-vettore e l'applicazione della funzione sigmoide
Ma è pur sempre una funzione e in un certo senso è rassicurante il fatto che sembra complicato
Voglio dire se fosse più semplice che speranza avremmo che possa riconoscere le cifre?
E come risolve quel problema? In che modo questa rete impara i pesi e le soglie appropriate semplicemente osservando i dati? Oh?
Questo è quello che vi mostrerò nel prossimo video e approfondirò un po' ciò che questa particolare rete che stiamo vedendo sta facendo
E' arrivato il momento in cui vi dovrei dire di iscrivervi per rimanere informati su quando quel video o eventuali nuovi video escono
Ma realisticamente la maggior parte di voi in realtà non riceve le notifiche da YouTube, vero?
Forse più onestamente dovrei dire iscrivervi in modo che le reti neurali che stanno alla base di YouTube,
Gli algoritmi di raccomandazione siano convinti che tu voglia vedere i contenuti di questo canale raccomandandoteli
comunque rimani connesso ancora
Grazie mille a tutti coloro che supportano questi video su patreon
Sono stato un po' lento a progredire nella serie di probabilità questa estate

Chinese: 
又要循环不停地用到矩阵乘法和sigmoid映射运算
但它终究只是个函数而已
而它的复杂程度可以稍微让人安点心
如果它没这么复杂的话
我们恐怕就不大能指望它数字识别能多准了
那么 它是如何处理这项艰巨任务的
神经网络是如何通过数据来获得合适的权重和偏置的
这就是下一集的内容了
我们会继续探究这一种特殊的神经网络的运作方式
虽说又到了提醒大家赶紧订阅来获得下一期新视频推送的时间
但大家伙基本上都没获得过YouTube的推送消息吧
也许我更该说 大家赶紧订阅我的频道
这样YouTube后端推荐算法用的神经网络
才会相信大家想看到这个频道的内容出现在推荐栏
总之 我们不见不散
非常感谢所有在Patreon上资助我的人
这个夏天我稍微有点偏离了概率论系列的计划
但做完这个系列我会回到计划上来

German: 
in dem sie immer wieder Matrizen-Vektor-Produkte und Skalierungen auswertet.
Aber es ist nur eine Funktion. Und gewissermassen ist die augenscheinliche Komplexität beruhigend:
Wenn es irgendwie einfacher wäre, welche Hoffnung hätten wir, dass es der Herausforderung der Zahlenerkennung gewachsen wäre?
Und wie nimmte es sich dieser Herausforderung überhaupt an? Wie erkennt das Netzwerk die entsprechenden Gewichte und Verzerrungen, wenn es nur entsprechende Daten erhält?
Genau das werde ich im nächsten Video aufzeigen. Ebenfalls werde ich etwas detaillierter darauf eingehen, was im gezeigten Netzwerk tatsächlich abläuft.
Jetzt ist der Zeitpunkt da, an dem ich vermutlich an das Abonnieren und 'Gefällt-Mir-Drücken' erinnern sollte, damit Sie auf dem Laufenden bleiben können.
Aber realistisch gesehen erhalten die meisten von Ihnen wahrscheinlich sowieso keine Youtube-Benachrichtigungen, nicht wahr?
Vielleicht sollte ich eher sagen: "Abonniere, damit Youtube's Neuronales Netzwerk, welches die
Empfehlungen generiert, dazu erzogen wird zu glauben, dass Du mehr von diesem Kanal sehen möchtest.
 
Vielen Dank für alle Unterstützer von Patreon.
Ich war ein wenig langsam diesen Sommer was die Serie zum Thema Wahrscheinlichkeit betrifft,

Czech: 
je potřeba provést mnoho maticových násobení a aplikací sigmoidy
Pořád ale je to jen funkce. A to, že vypadá komplikovaně, je dobře,
protože, kdyby byla jednodušší, asi těžko by ještě dokázala rozpoznávat číslice
A jak tady tento úkol zvládne? Jak se síť naučí správné váhy a prahy ze vstupních dat?
Tak to ukážu v příštím videu, a také podrobněji odhalím, co se vlastně děje uvnitř sítě, kterou tu vidíme
Nyní je čas říct: přihlaste se k odběru, abyste dostali oznámení o nových videích,
ale ve skutečnosti většina z vás nedostává upozornění od YouTube, že?
Možná bych měl říci upřímně: odebírejte, aby neuronové sítě, které jsou základem YouTube
algoritmu doporučení věřily, že chcete vidět obsah
z tohoto kanálu
tak jak tak, přijďte zas pro další videa
Děkuji všem, kteří podporují tato videa na Patreon
Během letošního léta jsem jen málo pokročil v seriálu o pravděpodobnosti

Portuguese: 
iterando muitos produtos vetoriais de matriz e a função de evocação de esmagamento sigmóide
Mas é apenas uma função, e de certa forma é reconfortante parecer complicado
Quero dizer, se fosse mais simples que esperança teríamos para enfrentar o desafio de reconhecer dígitos?
E como isso leva esse desafio? Como esta rede aprende os pesos e vieses apropriados apenas olhando dados? Oh
Isso é o que eu mostrarei no próximo vídeo, e eu também vou pesquisar um pouco mais sobre o que esta rede particular que estamos vendo está realmente fazendo
Agora é o ponto que eu suponho que devo dizer se inscrever para ficar notificado sobre quando o vídeo ou qualquer novo vídeo sair
Mas, na realidade, a maioria de vocês não recebe notificações do YouTube, não é?
Talvez mais honestamente eu deva dizer se inscreva para que as redes neurais subjacentes ao YouTube
O algoritmo de recomendação está preparado para acreditar que você deseja ver o conteúdo deste canal recomendado para você
de qualquer maneira ficar postado por mais
Muito obrigado a todos que apoiam esses vídeos no patreon
Eu tenho sido um pouco lento para progredir na série de probabilidade neste verão

Hungarian: 
számos mátrixszorzaton alkalmazza a szigmoid függvényt,
de ettől még csak egy függvény. És amúgy meg még jó is, ha bonyolultnak tűnik.
Hiszen ha egyszerű lenne, akkor hogyan várhatnánk tőle, hogy felismerjen számjegyeket?
És hogyan teszi ezt? Hogyan tudja beállítani saját magát pusztán azáltal, hogy adatokat olvas be?
Ez az, amit a következő videóban mutatok be, illetve elmagyarázom, hogy pontosan mit is csinál ez a különleges hálózat.
Most kéne azt mondanom, hogy iratkozz fel, hogy ne maradj le semmilyen újdonságról,
de legtöbbünk gondolom amúgy sem kap értesítést a Youtube-tól.
Vagy még őszintében kérhetném ezt azért, hogy hadd higgye
a Youtube videó-ajánló neurális hálózata azt, hogy ettől a csatornától szeretnél tartalmat látni.
Akárhogy is, figyeljétek a posztjaimat!
Köszönjük mindenkinek, aki támogatja ezeket a videókat a patreonon!
A nyár folyamán kicsit lassan haladtam a valószínűségi sorozatommal.

Japanese: 
多くの行列ベクトル積とシグモイドスカッシュ喚起関数を反復する
それにもかかわらず、それは単なる関数であり、ある意味では、それは複雑に見える
私たちが数字を認識することの挑戦に就くことができると思ったのは、もっと簡単なことでしたか？
そしてそれはどのようにその挑戦にかかりますか？このネットワークは、データを見るだけで適切な重みとバイアスをどのように学習しますか？ああ？
それは私が次のビデオで見せてくれるものです。私たちが見ているこの特定のネットワークが本当にやっていることをもう少し詳しく見ていきます
今は、そのビデオや新しいビデオがいつ出てくるかを知らせてくれるように申し込むといいでしょう。
しかし、現実的にはほとんどの人が実際にYouTubeからの通知を受け取っていません。
もっと正直なところ、私はサブスクリプションと言って、YouTubeの基盤となるニューラルネットワーク
推奨アルゴリズムは、あなたがこのチャンネルからのコンテンツをあなたに推薦されて見たいと思っている
とにかく続きを続ける
これらのビデオをパトリオンでサポートしてくださったみなさん、本当にありがとう
私はこの夏の確率シリーズでは少し遅れています

Persian: 
تکرار بسیاری از محصولات بردار ماتریکس و تابع انقباضی سیگموئید است
با این وجود، این فقط یک تابع است و به نوعی اطمینان بخش است که به نظر پیچیده می آید
منظورم این است که اگر  ساده تر بود، چه امیدی داشتیم که بتوانیم بر چالش شناخت رقم ها دست یابیم؟
و این چالش چطور است؟ چطور این شبکه با توجه به داده ها وزن و بایاس مناسب آموزش می بیند؟ اوه؟
این چیزی است که من در ویدیوی بعدی نشان می دهم و همچنین کمی بیشتر به آنچه که در این شبکه خاص می بینیم واقعا حیرت زده می شویم.
در حال حاضر نقطه ای است که من فکر می کنم باید بگویم برای اطلاع از زمانی که این ویدئو و یا هر گونه ویدئو جدید بیرون می آیند، آنرا subscribe کنید
اما واقعاً اکثر شما در حال دریافت اطلاعیه ها از یوتیوب نیستید؟
شاید صادقانه تر به نظر برسد که شبکه های عصبی که YouTube را پایه گذاری کرده اند.
الگوریتم پیشنهاد شده بر این باور است که می خواهید محتوایی از این کانال را ببینید تا به شما توصیه شود
به هر حال پست برای زمان بیشتری باقی می ماند
از همه شما متشکرم که این  فیلم ها در Patreon پشتیبانی می کنید
در تابستان امسال کمی پیشرفت کرده ام

Indonesian: 
iterasi banyak produk vektor matriks dan fungsi penghamburan sigmoid squish
Tapi itu hanya fungsi tetap dan dengan cara itu agak meyakinkan bahwa itu terlihat rumit
Maksud saya jika ada yang lebih sederhana, harapan apa yang akan kita miliki, yang dapat mengambil tantangan mengenali digit?
Dan bagaimana cara mengambil tantangan itu? Bagaimana jaringan ini mempelajari bobot dan bias yang tepat hanya dengan melihat data? Oh
Itulah yang akan saya tunjukkan di video berikutnya, dan saya juga akan menggali sedikit lebih ke dalam apa yang jaringan kami lihat ini benar-benar lakukan
Sekarang adalah titik saya kira saya harus mengatakan berlangganan untuk tetap diberitahu tentang kapan video itu atau video baru keluar
Tetapi secara realistis sebagian besar dari Anda tidak benar-benar menerima pemberitahuan dari YouTube, bukan?
Mungkin lebih jujur ​​saya harus mengatakan berlangganan agar jaringan syaraf yang mendasari YouTube
Algoritme rekomendasi disiapkan untuk meyakini bahwa Anda ingin melihat konten dari saluran ini direkomendasikan bagi Anda
tetap tinggal diposting untuk lebih
Terima kasih banyak kepada semua orang yang mendukung video ini pada patreon
Saya sudah agak lambat untuk maju dalam seri probabilitas musim panas ini

Russian: 
и требующая выполнения множества матричных умножений и вычислений сигмоидных функций сжатия,
но тем не менее, это просто функция.
И в каком-то смысле это логично, что она выглядит сложной,
я имею ввиду, если бы она была проще, с чего бы мы решили что она способна решить задачу распознавания цифр.
А как она решает эту задачу?
Как эта сеть находит подходящие веса и сдвиги просто смотря на данные?
Хм, это я покажу в следующем видео,
а так же я немного углублюсь в то, что именно эта, рассмотренная нами, сеть делает на самом деле.
Теперь настало время, когда я по-видимому должен сказать: подписывайтесь чтобы быть в курсе когда выдут это или новые видео,
но в реальности большинство из вас на самом деле не принимают оповещений с YouTube, не так ли?
Может правильнее мне сказать: подписывайтесь чтобы нейросети, лежащие в основе алгоритмов рекомендации YouTube,
уяснили что вы хотите видеть в рекомендациях контент с этого канала.
В любом случае, оставайтесь на связи.
Большое спасибо всем, кто спонсирует эти видео на "Patreon".
Я немного затормозил с работой над серией о вероятности этим летом,
но возьмусь за неё снова, после данного проекта,

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 

Turkish: 
Birçok matris vektör ürününü ve sigmoid squish çağırma fonksiyonunu tekrarlar
Ancak yine de sadece bir işlevdir ve bir bakıma karmaşık görünmesi bir tür rahatlatıcıdır.
Demek istediğim, daha basit olsaydı, rakamları tanımak zor olabilirdi umudumuz ne olurdu?
Ve bu zorluğu nasıl alıyor? Bu ağ, yalnızca verilere bakarak uygun ağırlığı ve önyargıları nasıl öğrenir? Ah?
Bir sonraki videoda bunu göstereceğim ve ayrıca, gördüğüm bu özel ağın gerçekten ne yaptığına biraz daha kazanıyorum
Şimdi şunu söylemeliyim ki, o video veya yeni videolar ortaya çıktığında haberdar olmak için abone olmam gerektiğini düşünüyorum
Ancak gerçekçi olarak çoğunuz aslında YouTube'dan bildirim almıyor değil mi?
Belki daha dürüstçe abone olmam gerektiğini söylemeliyim, böylece YouTube'un altındaki sinir ağları
Tavsiye algoritması, bu kanalın içeriğinin size tavsiye edilmesini görmek istediğinize inanıyor
yine de daha fazla bilgi için gönderildi
Bu videoları patreon'da destekleyen herkese çok teşekkür ederim
Bu yaz olasılık serisinde ilerleme kaydetmek için biraz yavaştım

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
так что, Patreons (спонсоры), ожидайте там обновлений.
Чтобы закрыть тему, тут со мной Лиша Ли (Lisha Li),
чья докторская диссертация была посвящена теоретическим основам глубокого обучения,
сейчас она работает в венчурной компании "Amplify Partners"
и она добродушно внесла свой вклад в создание данного видео.
Итак, Лиша, я думаю мы должны кратко затронуть тему этой сигмоидной функции,
насколько я понял раньше сети использовали её чтобы сжать соответствующие взвешенные суммы
в этот интервал от 0 до 1, как бы подражая биологическим нейронам,
которые либо в пассивном, либо в активном состоянии.
Точно.
Но вообще-то уже относительно мало современных сетей используют сигмоиду, это, типа, старая школа, так?
Да, но скорее "ReLU" выглядит более простым для обучения.
И "ReLU" означает "Rectified Linear Unit" (выпрямленный линейный модуль).
Да, это своего рода функция которая берёт максимум от нуля и "a",
где "a" определяется тем о чём ты говорил в видео, и я думаю это было частично навеяно

Modern Greek (1453-): 
αλλά θα επιστρέψω σε αυτήν μετά από αυτό το project, οπότε εσείς οι patrons θα δείτε εκεί τις ενημερώσεις.
Για να κλείσουμε, έχω μαζί μου την Lisha Li,
που έκανε το διδακτορικό της στο θεωρητικό μέρος του deep learning και τώρα εργάζεται σε μία εταιρεία επιχειρηματικών κεφαλαίων, την Amplify Partners,
η οποία ευγενικά παρείχε ένα μέρος της χρηματοδότησης για αυτό το βίντεο. Οπότε Lisha, ένα πράγμα
που πρέπει γρήγορα να συζητήσουμε είναι αυτή η σιγμοειδής συνάρτηση.
Όπως το καταλαβαίνω εγώ, τα πρώτα δίκτυα την χρησιμοποιούσαν για να συμπιέσουν το σταθμικό άθροισμα στο διάστημα μεταξύ 0 και 1.
- Ξέρεις, κάπως εμπνευσμένοι από τη βιολογική αναλογία των νευρώνων που είναι ενεργοί ή ανενεργοί
- Ακριβώς
- Πλέον όμως λίγα σύγχρονα δίκτυα χρησιμοποιούν τη σιγμοειδή στην πράξη. Έχει παλιώσει λίγο ε;
- Ναι, ή μάλλον η ReLU δείχνει να είναι ευκολότερη…
…στην εκπαίδευση.
- Και ReLU ουσιαστικά λέμε την ανορθωμένη γραμμική μοναδιαία (Rectified Linear Unit)
- Ναι, είναι μία συνάρτηση που απλά παίρνει το μέγιστο μεταξύ του 0 και του a, όπου το a δίνεται
από αυτό που εξηγούσες στο βίντεο. Και νομίζω ότι είναι μερικώς
εμπνευσμένη από μία βιολογική αναλογία του πώς

German: 
Aber ich mache gleich nach diesem Projekt wieder weiter. Patreons, Ihr könnt also nach Updates Ausschau halten.
Zu guter Letzt habe ich nun noch Lisha Li bei mir.
Lee hat ihre Doktorarbeit über die theoretische Seite von Deep Learning geschrieben und arbeitet zurzeit bei einer Venture Capital Firma namens Amplify Partners, welche
freundlicherweise die Produktion dieses Videos mitfinanziert habt. Also, Lisha:
Ich denke, wir sollten schnell diese Sigmoidfunktion hervorholen.
Wie ich es verstanden habe, nutzten frühere Netzwerke diese Funktion um die relevanten gewichteten Summen in einen Intervall von 0-1 zu quetschen.
Sie wissen schon, von dieser biologischen Analogie motiviert, dass ein Neuron aktiv oder inaktiv ist.
(Lisha:) Ja, genau!
(3B1B:) Aber inzwischen nutzen nur wenige moderne Netzwerke die Sigmoid-Funktion. Ist das veraltet?
Lisha: Ja. Bzw. scheint Relu viel leichter zu sein für's Training. (3B1B:) Und Relu steht für entzerrte Lineareinheit? (frei übersetzt)
(Lisha:) - Ja, es ist diese Art Funktion, wo Sie ein Maximum 0 und a definieren, wobei a so definiert wird,
wie Du es im Video erklärt hast und woher dies stammt ist, so glaube ich,
ist teilweise durch eine Analogie aus der Biologie, wonach

Hungarian: 
De ez után a projekt után folytatom újra, így a patreonosok is ott tudják figyelni a frissítéseket.
A téma lezárásaként itt van velem Lisha Li, aki a PhD-jét 
a deep learning (mély tanulás) elméleti oldalából írta, és jelenleg az Amplify Partners kockázatitőke-cégnél dolgozik,
amely részben ezt a videót is finanszírozta.
Lisha, amiről gyorsan szót kell ejtenünk, az a szigmoid függvény.
A korai hálózatok ezt használták, hogy a súlyozott összeget 0 és 1 közé normalizálják,
a biológiai neuronok analógiájaként az inaktív és aktív állapot leképezésére …
(Lisha) - Pontosan
(3B1B) - De viszonylag kevés modern hálózat használ manapság szigmoidot. Kicsit elavult már?
(Lisha) - Igen, vagy inkább
a ReLU sokkal könnyebben tanítható.
(3B1B) - A "ReLU"  korrigált lineáris egységet jelent, ugye?
(Lisha) - Igen, ez egy olyan függvény, ami max(a,0)-t ad.
Ahogy a videóban is rámutattál, és ami ezt motiválta,
az részben biológiai,
és azzal analóg,

Persian: 
اما من بعد از این پروژه به عقب برمیگردم تا مشتریان بتوانند بهروزرسانیهای خود را بیابند
برای بستن چیزها اینجا من با لیشا لی هستم
لی که کار دکترای خود را در زمینه نظری یادگیری عمیق انجام داد و در حال حاضر در یک شرکت سرمایه گذاری  به نام شرکای تقویت همکاری می کند
او کسی دوستانه مقداری از بودجه این ویدئو را فراهم کرده است، لیشا منحصر بفرد است
من فکر می کنم که ما باید سریعا این کار را انجام دهیم
همانطور که می دانم شبکه های زودرس این کار را انجام می دهند تا مجموع وزن مربوطه را به این فاصله بین صفر و یک برساند
شما نوع انگیزه ای از این سلسله بیولوژیکی نورون یا غیر فعال یا فعال (لیشا) را می شناسید- دقیقا
(3B1B) - اما تعداد کمی از شبکه های مدرن در واقع از انواع سیگموئید دیگر  استفاده می کنند. این نوعی مدرسه قدیمی است؟ (لیشا) - آره یا نه
ReLU  آموزش بسیار ساده تر به نظر می رسد (3B1B) - و ReLU واقعا برای واحد خطی اصلاح شده است
(لیشا) - بله این نوعی تابع است که در آن فقط حداکثر 0 را می گیرید و در جایی مقدار یک می دهد
آنچه را که در ویدیو توضیح دادید و از نظر من این انگیزه بود، من فکر میکنم یک
بخشی از زندگی زیستی
آنالوگ با چگونگی

Thai: 
แต่ฉันกระโดดกลับเข้ามาหลังจากโครงการนี้เพื่อคุ้มครองคุณสามารถมองหาการปรับปรุงที่นั่น
เพื่อปิดสิ่งต่างๆออกจากที่นี่ฉันมีกับฉัน Lisha Li
ลีผู้ซึ่งทำผลงานด้านการศึกษาระดับปริญญาเอกของเธอในด้านทฤษฎีของการเรียนรู้ลึก ๆ และปัจจุบันทำงานใน บริษัท ร่วมทุนที่เรียกว่าพันธมิตรขยายกิจการ
ใครให้ความกรุณาในการระดมทุนสำหรับวิดีโอนี้ดังนั้น Lisha จึงเป็นสิ่งหนึ่ง
ฉันคิดว่าเราควรจะนำมาขึ้นเป็นฟังก์ชัน sigmoid นี้
ตามที่ฉันเข้าใจว่าเครือข่ายแรก ๆ ใช้วิธีนี้เพื่อหาค่าน้ำหนักที่เกี่ยวข้องในช่วงระหว่างศูนย์กับหนึ่ง
คุณรู้ชนิดของแรงบันดาลใจจากการเปรียบเทียบทางชีววิทยาของเซลล์ประสาทนี้ไม่ว่าจะเป็นงานหรือใช้งาน
(Lisha) - ถูกต้อง
(3B1B) - แต่ค่อนข้างน้อยเครือข่ายสมัยใหม่ใช้ sigmoid อีกต่อไป นั่นเป็นเรื่องของโรงเรียนเก่าใช่มั้ย?
(Lisha) - ใช่หรือค่อนข้าง
ReLU ดูเหมือนว่าจะฝึกได้ง่ายกว่ามาก
(3B1B) - และ ReLU ย่อมาจาก rectified linear unit
(Lisha) - ใช่นี่เป็นฟังก์ชันแบบนี้ที่คุณใช้เวลาเพียงแค่ไม่ถึง 0 และที่ a จะได้รับโดย
สิ่งที่คุณกำลังอธิบายในวิดีโอและสิ่งที่เป็นแรงบันดาลใจแบบนี้จากที่ฉันคิดว่าเป็น
บางส่วนโดยทางชีวภาพ
คล้ายคลึงกับวิธี

English: 
But I'm jumping back into it after this project so patrons you can look out for updates there
To close things off here I have with me Lisha Li
Lee who did her PhD work on the theoretical side of deep learning and who currently works at a venture capital firm called amplify partners
Who kindly provided some of the funding for this video so Lisha one thing
I think we should quickly bring up is this sigmoid function
As I understand it early networks used this to squish the relevant weighted sum into that interval between zero and one
You know kind of motivated by this biological analogy of neurons either being inactive or active
(Lisha) - Exactly
(3B1B) - But relatively few modern networks actually use sigmoid anymore. That's kind of old school right ?
(Lisha) - Yeah or rather
ReLU seems to be much easier to train
(3B1B) - And ReLU really stands for rectified linear unit
(Lisha) - Yes it's this kind of function where you're just taking a max of 0 and a where a is given by
what you were explaining in the video and what this was sort of motivated from I think was a
partially by a biological
Analogy with how

Indonesian: 
Tapi aku melompat kembali ke dalamnya setelah proyek ini sehingga pelanggan Anda dapat melihat pembaruan di sana
Untuk menutup hal-hal di sini saya miliki dengan saya Lisha Li
Lee yang melakukan pekerjaan PhD-nya pada sisi teoritis dari pembelajaran yang mendalam dan yang saat ini bekerja di sebuah perusahaan modal ventura yang disebut memperkuat mitra
Yang dengan senang hati memberikan sebagian dana untuk video ini jadi Lisha satu hal
Saya pikir kita harus segera memunculkan fungsi sigmoid ini
Seperti yang saya pahami, jaringan awal menggunakan ini untuk menekan jumlah tertimbang yang relevan ke interval antara nol dan satu
Anda tahu jenis termotivasi oleh analogi biologis neuron ini entah tidak aktif atau aktif
(Lisha) - Tepat sekali
(3B1B) - Tetapi relatif sedikit jaringan modern yang benar-benar menggunakan sigmoid lagi. Itu semacam sekolah lama kan?
(Lisha) - Ya atau lebih tepatnya
ReLU tampaknya jauh lebih mudah untuk dilatih
(3B1B) - Dan ReLU benar-benar mewakili unit linear yang diperbaiki
(Lisha) - Ya, ini semacam fungsi di mana Anda hanya mengambil maksimal 0 dan di mana a diberikan
apa yang Anda jelaskan di dalam video dan apa yang dimotivasi oleh saya
sebagian oleh biologis
Analogi dengan caranya

Spanish: 
Asi que Patreons , ustedes pueden ver las actualizaciones
Para hacer cerrar las cosas, tengo con migo a Lygia Lee
quien hizo su trabajo en el lado teórico
del aprendizaje profundo, quién ahora trabaja en la firma de  Venture Capital
llamada Amplify Partners, quienes amablemente proveeron algo de los fundos para este vídeo .
- Asi que Lygia ,una cosa que deberíamos
explicar es esta Función Sigmoid, como lo entendí,
las redes neuronales  usan la función para tomar la Suma pesada relevante
para llevarla a un intervalo entre 0 y 1
, sabes, motivada por este tipo de analogía biológica de neuronas siendo activadas o inactivadas .
// Exacto!,
- pero relativamente las redes modernas ya no usan mas esta función sigmoid,
// Cierto!,
- Es algo de la vieja escuela,¿verdad ?
// Cierto ,en vez, RELU es algo que parece ser mas fácil de usar
- Y RELU se mantiene rectificar una linea unitaria ,
// Si, Es este  tipo de función donde los tomas un máximo
de 0 y un a, donde a esta
dado por lo que explicas en el video,
y esto fue motivado parcialmente  desde lo que pienso
fue una analogía biológica

Japanese: 
しかし、私はこのプロジェクトの後にそれにジャンプしているので、あなたはそこにある更新を見極めることができます
私はここにいるものを閉じるには私と一緒にいるLisha Li
リー氏は、博士号を博士課程で学び、理論的な学習の面で仕事をしています。現在、ベンチャーキャピタルで働く
誰がこのビデオのための資金の一部を親切に提供したのですか？Lishaのこと
私はすぐにこのシグモイド関数を呼び出すべきだと思います
私が理解しているように、初期のネットワークはこれを使って関連する加重和をゼロと1の間の区間
あなたは、この生物学的なニューロンの類推によって動かされていることを知っています。
（Lisha） - まさに
しかし、現代のネットワークでは実際にシグモイドを実際に使用している人はほとんどいません（3B1B）。それは古い学校の権利のようなものですか？
（Lisha） - そうか、むしろ
ReLUは訓練がはるかに簡単だと思われる
（3B1B） - そしてReLUは実際に整流されたリニアユニット
（Lisha） - はい、この種の関数です。ここでは、最大値0をとり、
あなたがビデオで何を説明していたのか、これが何かの動機付けだったのは
部分的には生物学的
方法のアナロジー

Portuguese: 
Mas eu estou pulando de volta para ele depois deste projeto, então patronos, você pode olhar para atualizações lá
Para fechar as coisas aqui eu tenho comigo Lisha Li
Lee, que fez seu PhD trabalhar no lado teórico da aprendizagem profunda e que atualmente trabalha em uma empresa de capital de risco chamada amplificar parceiros
Quem gentilmente forneceu alguns dos fundos para este vídeo, então Lisha uma coisa
Eu acho que devemos rapidamente trazer é essa função sigmóide
Pelo que entendi as primeiras redes usaram isso para esmagar a soma ponderada relevante para aquele intervalo entre zero e um
Você sabe que tipo de motivado por esta analogia biológica de neurônios seja inativo ou ativo
(Lisha) - Exatamente
(3B1B) - Mas relativamente poucas redes modernas realmente usam sigmoide. Isso é tipo de old school certo?
(Lisha) - Sim ou melhor
ReLU parece ser muito mais fácil de treinar
(3B1B) - E ReLU realmente significa unidade linear retificada
(Lisha) - Sim, é esse tipo de função onde você está tirando um máximo de 0 e um onde a é dado por
o que você estava explicando no vídeo e o que isso foi meio que motivado por eu acho que foi um
parcialmente por um biológico
Analogia com como

Italian: 
Ma ci sto tornando dopo questo progetto, quindi i patrons possono cercare aggiornamenti lì
Per chiudere le cose qui ho con me Lisha Li
Lee che ha fatto il suo dottorato di ricerca sul lato teorico del deep learning e che attualmente lavora in una società di venture capital chiamata amplify partners
Chi ha gentilmente fornito alcuni fondi per questo video, quindi Lisha una cosa
Penso che dovremmo migliorare rapidamente questa funzione sigmoide
Come capisco, le prime reti usavano questo per schiacciare la somma ponderata rilevante in quell'intervallo tra zero e uno
Sapete che è motivata da questa analogia biologica dei neuroni che sono inattivi o attivi
(Lisha) - Esattamente
(3B1B) - Ma relativamente poche reti moderne usano effettivamente sigmoid. È una specie di vecchia scuola, giusto?
(Lisha) - Sì o piuttosto
ReLU sembra essere molto più facile da addestrare
(3B1B) - E ReLU è l'acronimo di unità lineare rettificata
(Lisha) - Sì, è questo tipo di funzione in cui stai solo prendendo un massimo di 0 e a dove a è dato da
quello che stavi spiegando nel video e ciò che era motivato da quello che penso fosse un
parzialmente da un'analogia biologica
con come

Vietnamese: 
Nhưng tôi nhảy trở lại vào nó sau khi dự án này, do đó khách hàng quen, bạn có thể tìm cho ra bản cập nhật có
Để đóng vật tắt ở đây tôi có với tôi Lisha Li
Lee người đã làm công việc tiến sĩ của mình về mặt lý thuyết của học sâu và những người hiện đang làm việc tại một công ty đầu tư mạo hiểm gọi là khuếch đại đối tác
Ai vui lòng cung cấp một số các nguồn tài trợ cho video này để Lisha một điều
Tôi nghĩ chúng ta nên nhanh chóng đưa lên là hàm sigmoid này
Theo tôi được biết mạng đầu sử dụng này để squish các tổng trọng có liên quan vào khoảng thời gian đó giữa zero và một
Bạn biết loại động cơ bằng cách tương tự sinh học này của tế bào thần kinh hoặc là không hoạt động hoặc hoạt động
(Lisha) - Chính xác
(3B1B) - Nhưng tương đối ít mạng hiện đại thực sự sử dụng sigmoid nữa. Đó là loại ngay trường cũ?
(Lisha) - Ừ hay đúng hơn
ReLU có vẻ là dễ dàng hơn nhiều để đào tạo
(3B1B) - Và ReLU thực sự đại diện cho đơn vị tuyến tính sửa chữa
(Lisha) - Có nó là loại chức năng mà bạn chỉ cần tham gia một tối đa của 0 và một nơi được cho bởi
những gì bạn đã giải thích trong đoạn video và điều này là loại động cơ từ tôi nghĩ là một
một phần bởi một sinh học
Tương tự với cách

French: 
mais j'y retourne après ce projet. Donc les patrons, attendez-vous à des nouvelles de ce côté-là.
Pour finir, j'ai avec moi Lisha Li,
qui a réalisé sa thèse sur le côté théorique du deep learning et qui travaille actuellement dans une société appelées "Amplify partners"
qui a gentiment aidé au financement de cette vidéo. Alors, Lisha, une chose
que j'aimerais rapidement traiter, est cette fonction sigmoïde.
De ce que j'ai compris, les premiers réseaux de neurones l'utilisaient pour ramener la somme pondérée entre 0 et 1,
motivée par l'analogie des neurones biologiques qui sont chacun actifs ou inactifs. (Lisha) - Exactement.
(3B1B) - Mais les réseaux modernes n'utilisent plus cette fonction. C'est dépassé ? (Lisha) - Oui, ou plutôt
ReLU est plus simple à entraîner. (3B1B) - Et ReLU veut dire "Unité de Rectification Linéaire".
(Lisha) - Oui, c'est ce genre de fonction où vous prenez juste le maximum entre 0 et a où a est donné par
ce que vous expliquiez dans la vidéo, et c'était motivé par je pense...
... partiellement par une analogie
biologique avec comment

Turkish: 
Ancak, bu projeden sonra müşterilere geri dönüyorum, müşterilerin orada güncellemeleri gözlemleyebileceksiniz
Burada işleri kapatmak için yanımda Lisha Li var.
Doktora programını derin öğrenimin teorik yönüyle yapmış olan ve şu anda bir ortak girişim sermayesi firmasında çalışan,
Bu video için bir miktar kaynak sağladı, bu yüzden Lisha bir şey
Bence bu sigmoid fonksiyonu hızla ortaya koymalıyız.
Anladığım kadarıyla, erken ağlar, bunu ilgili ağırlıklandırılmış toplamı sıfır ve bir arasındaki aralığa silmek için kullandı.
Nöronların biyolojik analojisiyle ya aktif olmayan ya da aktif olanların motivasyonunu biliyorsunuzdur.
(Lisha) - Kesinlikle
(3B1B) - Ancak nispeten az modern ağlar aslında artık sigmoid kullanıyor. Bu bir tür eski okul, değil mi?
(Lisha) - Evet ya da daha doğrusu
ReLU'nun eğitilmesi çok daha kolay görünüyor
(3B1B) - ve ReLU gerçekten doğrusal doğrusal birimi temsil ediyor
(Lisha) - Evet, yalnızca maksimum 0 ve a'ya sahip olduğunuzda bu tür bir işlev var.
videoda ne anlattıklarını ve bunun bir motivasyon kaynağı olduğunu düşünüyorum
kısmen biyolojik olarak
Nasıl analojisi

Chinese: 
但是在這個系列結束後我會回到那個系列
所以大家可以留意新消息
在影片的結尾
我邀請了 Lisha Li
她在博士研究是關於深度學習的理論
現在一個叫做 Amplify Partners 的創投公司任職
他們慷慨的贊助了這個影片
所以 Lisha 我們想要快速的提一下「Sigmoid」這個函數
據我所知早期的神經網路都會使用這個函數來讓權重介於 0 到 1 之間
用來模仿生物學上的神經元是處於活耀還是不活耀的狀態
(Lisha) 沒錯
但是現在神經網路幾乎沒有使用「Sigmoid」函數，是因為它已經太老套了是嗎？
(Lisha) 沒錯，更準確的說是使用 ReLU 更容易訓練
(3B1B) ReLU 的全名是「線性整流函數」 對吧
(Lisha) 對，這個函數會返回 0 跟輸入值的最大值
我的解釋是使用這個函數比較符合
生物學的原理
類似於

Polish: 
Ale po tym projekcie wskakuję z powrotem w to, więc patronami możecie tam szukać aktualizacji
Aby zamknąć tutaj, mam ze sobą Lisha Li
Lee, która wykonała swoją pracę doktorską na teoretycznej stronie głębokiego uczenia się i która obecnie pracuje w firmie typu venture capital, wzmacnia partnerów
Kto łaskawie zapewnił część funduszy na ten film, więc Lisha jedno
Myślę, że powinniśmy szybko poruszyć tę funkcję sigmoidalną
Jak rozumiem, wczesne sieci wykorzystały to, aby zgnieść odpowiednią sumę ważoną w tym przedziale między zero a jeden
Wiesz, że jesteś zmotywowany tą biologiczną analogią neuronów, które są nieaktywne lub aktywne
(Lisha) - Dokładnie
(3B1B) - Ale stosunkowo niewiele nowoczesnych sieci faktycznie używa sigmoidów. To trochę stara szkoła, prawda?
(Lisha) - Tak, a raczej
ReLU wydaje się być znacznie łatwiejsze do wyszkolenia
(3B1B) - A ReLU naprawdę oznacza prostowaną jednostkę liniową
(Lisha) - Tak, to jest funkcja, w której bierzesz maksymalnie 0 i gdzie jest podane
to, co tłumaczyłeś w filmie i jakie to było motywowanie, z mojego punktu widzenia było
częściowo przez biologię
Analogia z tym, jak

Korean: 
곧 찾아 보실 수 있을 겁니다.
마치며 저는 지금 Lisha Li와 함께 있는데요
Lisha Li는 딥러닝의 이론적인 측면으로 박사 학위를 받았고
현재 Amplify Partners라는 벤처캐피탈 회사에서 일하고 있으며
Amplify Partners는 이 비디오 제작을 후원해주신 고마운 곳입니다.
그래서 Lisha, 저는 시그모이드 함수에 대해서 얘기를 해보고 싶은데
제가 이해하기론 초기 네트워크는 시그모이드 함수를 가중치가 적용된 합들을
0부터 1사이의 값으로 압축하기 위해 사용했고
이건 뉴런이 활성화 되거나 비활성화 되는 생물학적인 현상을 모방한거죠
그렇죠.
그런데 현대의 네트워크들은 시그모이드 함수를 이제 잘 안써요
이건 이제 좀 구식이잖아요?
네 대신에 ReLU함수가 더 훈련시키기 쉽죠.
ReLU는 "Rectified Linear Unit"(선형 정류 유닛)이고요.
네 ReLU는 그냥 0과 a에 max함수를 취한건데
a는 뉴런의 활성치를 나타내는 함수임을 이 비디오에서 설명했습니다.

Czech: 
Ale po tomto projektu se na to zas vrhnu, takže patroni, můžete čekat aktualizace
Abychom dnešní díl uzavřeli, je tu se mnou Lisha Li,
jejíž doktorská práce se věnovala teoretickým otázkám hlubokého učení a která v současné době pracuje ve firmě investující do rozvojového kapitálu, s názvem Amplify partners
a která laskavě poskytla část prostředků na financování tohoto videa. Takže Lisho, myslím,
že bychom se měli podívat na tuto sigmoidní funkci
Jestli se nepletu, jedny z prvních sítí ji používaly pro smrsknutí váženého součtu do intervalu mezi nulou a jednou
Tak nějak jako v biologii, kde je neuron buď aktivní nebo neaktivní. (Lisha) – Správně
(3B1B) – Ale relativně málo moderních sítí ještě používá sigmoidu. To už je přežité, že?
(Lisha) – Ano, nebo spíš
se ukazuje, že s ReLU je učení mnohem snazší
(3B1B) – A ReLU je zkratka pro oříznutou lineární funkci?
(Lisha) – Ano, je to taková funkce, ve které berete maximum z 0 a „a“, kde a je hodnota
váženého součtu. Myslím, že to je motivováno částečně
analogií s biologií
v tom, jak

Chinese: 
所以资助的大家可以随时在那获取更新
节目的结尾 我请到了Lisha Li
她在博士期间做了深度学习理论方面的研究
而她现在在一家叫Amplify Partners的风投公司工作
他们慷慨地为本期视频提供了一部分资金资助
那么Lisha 有个事情我想稍微提到一下 就是这个sigmoid函数
以我的理解 早期的网络都是用这个
把加权和映射到0至1的区间内的
当年正是这么来模仿生物学上的神经元是否激发的来着
没错
但现在的神经网络基本上都不用sigmoid了
就很过时
没错没错 ReLU应该更好训练
ReLU全称叫"线性整流函数"吧
是的 这种函数就是返回
0和a的最大值 其中a就是函数的输入
你在视频中解释 神经元之所以会采用这种函数

Arabic: 
ولكن أنا سأعود إليها  مرة أخرى في ذلك بعد هذا المشروع حتى ذلك  يمكنك البحث عن التحديثات هناك
وللإنهاء هنا لدى هنا ليشا لى
التى قامت بتأدية الدكتوراه فى الجانب النظرى من التعلم العميق والتى تعمل حاليا فى شركة استثمارية تسمى amplify partners
الذين تقدموا بتقديم بعض التمويل لهذا الفيديو
لذا ليشا شئ ما أعتقد أنه يجب أن نذكره بسرعة هنا هو هذه الsigmoid function كما فهمت لقد استخدمت قديما لسحق الأرقام إلى رقم ما بين الصفر والواحد
محفزة نوعا ما بالخلايا العصبية الحقيقية التى إما تكون مفعلة أو غير مفعلة
-بالضبط   * لكن الشبكات العصبية الحديثة لاتستخدمها بعد الآن هذا نوع من المدارس القديمة أليس كذلك ؟ - نعم
Relu يبدو أسهل بكثير وRelu هو اختصار ل Really stands for rectified linear unit
نعم إنها نوع من الدوال حيث تأخذ فقط القيمة الأكبر من ال a هى المفعلة والأقل تكون غير مفعلة
كما كنت تشرح فى الفيديو وهى مستوحاة أيضا
جزئيا من قبل البيولوجية

Thai: 
เซลล์ประสาทจะทำงานได้หรือไม่และถ้าผ่านเกณฑ์หนึ่ง
มันจะเป็นฟังก์ชันการระบุตัวตน
แต่ถ้ามันไม่ได้แล้วมันก็จะไม่ได้รับการเปิดใช้งานเพื่อให้เป็นศูนย์ดังนั้นจึงเป็นชนิดของการทำให้เข้าใจง่าย
การใช้ sigmaids ไม่ได้ช่วยในการฝึกอบรมหรือการฝึกอบรมทำได้ยากมาก
ในบางประเด็นและผู้คนเพิ่งลอง relu และมันก็เกิดขึ้นกับการทำงาน
เป็นอย่างดีสำหรับคนเหล่านี้อย่างไม่น่าเชื่อ
เครือข่ายประสาทเทียมลึก
(3B1B) - ถูกต้อง
ขอบคุณ Lisha
สำหรับการขยายพันธมิตรในช่วงเริ่มต้นของวีอีซีลงทุนในผู้ก่อตั้งด้านเทคนิคเพื่อสร้าง บริษัท รุ่นต่อไปที่มุ่งเน้นไปที่
การใช้ AI ถ้าคุณหรือคนที่คุณรู้จักเคยคิดเกี่ยวกับการเริ่มต้น บริษัท สักวันหนึ่ง
หรือถ้าคุณกำลังทำงานในระยะแรกตอนนี้คนที่ขยายความรักจะได้ยินจากคุณ
พวกเขาได้ตั้งค่าอีเมลเฉพาะสำหรับวิดีโอนี้ 3blue1brown@amplifypartners.com
ดังนั้นอย่าลังเลที่จะติดต่อกับพวกเขาผ่านทางนั้น

Czech: 
neurony jsou buď aktivovány, nebo ne, a pokud aktivace překročí určitou prahovou hodnotou
chová se to jako funkce identita,
pokud ale nepřekročí, neuron nebude aktivován, takže funkce bude nulová, což je určité zjednodušení
Použití sigmoid nepomáhalo v učení, nebo dokonce bylo velmi obtížné sítě trénovat,
a tak v jednu dobu lidé zkoušeli ReLU a náhodou to fungovalo
Obzvláště dobře pro
extra hluboké neuronové sítě.
(3B1B) – Výborně
Děkuji ti, Lisho
Pro informaci, Amplify partners je  venture capital firma raného stadia, investuje do technických zakladatelů, kteří budují novou generace společností zaměřených na
aplikace AI. Pokud vy nebo někdo, o kom víte, někdy přemýšlel o založení společnosti,
nebo pokud nějakou zakládáte právě teď, lidé z Amplify partners budou rádi, když se ozvete,
dokonce si vytvořili konkrétní e-mail pro toto video 3blue1brown@amplifypartners.com
tak jim tam klidně napište

Spanish: 
, de como las neuronas
serían  o no activadas
, y si estas pasan un cierto límite , este sería la función identidad,
pero si no , solo no serian activadas
(B,O). Asi que es
un tipo de simplificación ,. Usar funciones Sigmoids
no ayudó a entrenar  o fue muy difícil en cierto punto , y la gente
mejor uso RELU,  pasa que
funciona muy bien para estas
increíblemente profundas Redes Neuronales .
-Ok, ¡Gracias Lygia!,
Para su conocimiento , Amplify Partners ,
invierte en fundadores técnicos
construyendo las próximas  compañías,  enfocándose
el las aplicaciones del la IA(Inteligencia Artificial ), si tú o alguien
ha pensado en iniciar un companía algún día o si estas trabajando en una
ahora, la gente de Amplify amarían escucharte,
Incluso , ellos designaron un correo específico para este video,
3blue1brown en www.amplifipartners.com,
así que siéntete libre de llegar con ellos.

Korean: 
이건 뉴런이 생물학적으로 어떻게 활성화되고 비활성화 되는지를 모방한 것과 같아서
임계값을 넘기면 항등함수를 출력하고
임계값을 넘기지 못하면 0을 출력합니다.
임계값을 넘기지 못하면 0을 출력합니다.
단순화된 버전같은거죠.
시그모이드 함수로는 신경망 훈련이 잘 되지 않아요
아니면 훈련 시키기 아주 어려운 걸 수도 있죠
그래서 누군가가 ReLU로 시도해 봤는데
이런 아주 깊은 신경망(Deep neural networks)에서 아주 잘 작동했던거죠.
그렇군요 고마워요 Lisha
Amplify Partners는 AI기술을 적용하고자 하는 초기 벤처기업들을 지원하는 벤처캐피탈입니다
당신이나 지인 누군가가 벤처기업을 설립하려고 하거나 초기 단계인 벤처기업에서 일하고 있다면
Amplify Partners는 당신의 목소리를 듣길 원합니다.
3blue1brown@amplifypartners.com로 상담을 받고 있으니 자유롭게 연락 주세요.

Italian: 
I neuroni potrebbero essere attivati ​​o meno e se passa una certa soglia
Sarebbe la funzione di identità
Ma se così non fosse, non sarebbe stato attivato in modo da essere zero quindi è una specie di semplificazione
L'uso dela sigmoide non ha aiutato l'allenamento, o era difficile da allenare
Ad un certo punto e le persone hanno provato relu ed è successo che funzionava
Molto bene
Profonde reti neurali.
(3B1B) - Va bene
Grazie Lisha
per lo sfondo amplificare i partner nella fase iniziale VC investe in fondatori tecnici costruendo la prossima generazione di aziende focalizzate sul
applicazioni dell'IA se tu o qualcuno che conosci abbia mai pensato di creare un'impresa un giorno
O se stai lavorando a uno stadio iniziale in questo momento, la gente di Amplify vorrebbe sentirti
hanno persino creato un'e-mail specifica per questo video 3blue1brown@amplifypartners.com
quindi sentiti libero di raggiungerli attraverso questo

Polish: 
Neurony będą aktywowane lub nie, a więc jeśli przekroczą pewien próg
Byłaby to funkcja tożsamości
Ale jeśli nie, to po prostu nie zostanie aktywowany, więc zero, więc jest to swego rodzaju uproszczenie
Używanie sigmoidów nie pomagało w treningu lub było bardzo ciężko trenować
W pewnym momencie ludzie próbowali relu i to się udało
Bardzo dobrze dla nich niesamowicie
Głębokie sieci neuronowe.
(3B1B) - W porządku
Dziękuję Lisha
w celu wzmocnienia partnerów na wczesnym etapie VC inwestuje w założycieli technicznych budujących kolejną generację firm skupionych na
zastosowania sztucznej inteligencji, jeśli ty lub ktoś, kogo znasz, myślał kiedyś o założeniu firmy
Lub jeśli pracujesz na wczesnym etapie, ludzie Amplify chcieliby usłyszeć od ciebie
nawet skonfigurowali konkretny e-mail do tego filmu wideo 3blue1brown@amplifypartners.com
więc dzięki temu możesz do nich dotrzeć

German: 
Neuronen entweder aktiviert oder nicht aktiviert sind, je nach dem, ob eine bestimmte Schwelle überwunden ist.
Wenn dem so ist, verwenden wir die Identitätsfunktion,
Wenn nicht, dann ist die Aktivierung einfach gleich Null. Das ist also eine Vereinfachung.
Sigmoid funktionierte nicht gut - oder eher: es war schwierig Verbesserungen zu erzielen.
Irgendwann hat man Relu ausprobiert und es schien zu funktionieren.
Sehr gut sogar - für diese unglaublich tiefgründigen Neuronalen Netzwerke.
(3B1B:) Danke, Lisha!
Für Hintergründe: Amplify Partners ist ein VC investor für technische Gründer in der Frühphase, welche die nächste Generation von Unternehmen baut,
Anwendungen von AI, wenn Sie oder welche auf AI fokussiert ist. Wenn Sie oder jemand den Sie kennen schon darüber nachgedachthat, ein Unternehmen zu gründen -
oder wenn Sie bereits im Frühstadium sind, würde sich das Team von Amplify freuen, von Dir zu hören!
Sie haben sogar eine spezifische E-Mail zu diesem Video erstellt: 3blue1brown@amplifypartners.com
Einfach Kontakt aufnehmen, wenn Sie interessiert sind.

Persian: 
فعال شدن یا نشدن نورونهاست و اگر چنین باشد، آستانه مشخصی وجود دارد
این می تواند هویت تابع باشد
اما اگر آن را انجام نشود، فقط فعال نمی شود بنابراین صفر است، بنابراین این نوع از ساده سازی است
استفاده از سیگموئید به آموزش کمک نمی کرد، یا آموزش بسیار دشوار بود
این در بعضی نقاط است و مردم فقط تلاش می کنند که رله را تجربه کنند و کارش را انجام داد
برای این منظور به طور فوق العاده ای بسیار خوب است
شبکه های عصبی عمیق (3B1B) - بسیار خوب
ممنون لیشا
برای پس زمینه  تقویت همکاران در مرحله اولیه VC  در بنیانگذاران فنی ساختمان سرمایه گذاری کرد نسل بعدی از شرکت های متمرکز بر
برنامه های کاربردی AI اگر شما یا کسی که شما می دانید تا به حال روزی درباره شروع یک شرکت فکر می کند
یا اگر در حال کار بر روی یک مرحله اولیه هستید، در حال حاضر افرادی شرکت همکاران تقویت می خواهند صدای شما را بشنوند
آنها حتی یک ایمیل خاص برای این ویدیو 3blue1brown@amplifypartners.com ایجاد کردند
بنابراین برای رسیدن به آنها از طریق آن رایگان احساس می شود

Arabic: 
الخلايا العصبية إما أن يتم تفعيلها أو لا، إذا مرت بعتبة معينة أو لا
فإذا مرت تصبح مفعلة
وإذا لم تمر تصبح غير مفعلة
استخدام sigmoid جعل من الصعب جدا تدريبها أما Relu فهى أسهل فى التدريب
شكرا ليشا
فى الخلفية شركة amplify partners فى مرحلة مبكرة من الاستثمار فى المتخصصين التقنيين لبناء الجيل الجديد من الشركات المركزة على
تطبيقات الAI إذا كنت أنت أو أى شخص تعرفه تفكرون فى بدء شركة فى يوم ما
أو إذا كنت تعمل فى مرحلة أبكر من ذلك الآن الشركة ستحب أن تسمع منك
حتى أنها أنشأت بريد إلكتروني محدد لهذا الفيديو 3blue1brown@amplifypartners.com
لذلك لا تتردد في التواصل معهم من خلال ذلك

Russian: 
биологической аналогией того как нейроны могут находиться либо в активном состоянии, либо нет,
и если пройден определённый порог, то отрабатывает функция,
а если не пройден, тогда он просто остаётся неактивным - равным нулю.
Это своего рода упрощение, использование сигмоид не способствовало обучению
или в какой-то момент становилось слишком сложным, и люди попробовали "ReLU",
и оказалось что это работает очень хорошо для таких невероятно глубоких (многослойных) нейросетей.
Отлично, спасибо Лиша.
В качестве фона, "Amplify Partners" - венчурный капитал начального этапа,
инвестируемый в технических учредителей, создающих следующее поколение компаний,
сфокусированных на применении ИИ.
Если вы, или кто-то из ваших знакомых, думали когда-нибудь создать компанию,
или вы уже работаете на ранних этапах, народ из Amplify с радостью рассмотрит вас.
Они даже сделали специальный E-Mail для этого ролика: 3blue1brown@amplifypartners.com,
так что не стесняйтесь обращаться к ним через него.

Portuguese: 
Os neurônios seriam ativados ou não e, portanto, se ultrapassasse um certo limite
Seria a função de identidade
Mas se isso não acontecesse, então não seria ativado, portanto, seja zero, então é uma espécie de simplificação
O uso de sigmoides não ajudou no treinamento, ou foi muito difícil treinar
É em algum momento e as pessoas apenas tentaram relu e aconteceu de funcionar
Muito bem para estes incrivelmente
Redes neurais profundas.
(3B1B) - Tudo bem
Obrigado Lisha
para o fundo amplificar parceiros em estágio inicial VC investe em fundadores técnicos construindo a próxima geração de empresas focadas na
aplicações de AI se você ou alguém que você conhece já pensou em iniciar uma empresa algum dia
Ou se você está trabalhando em um estágio inicial agora mesmo, o pessoal da Amplify adoraria ouvir de você
eles até criaram um email específico para este vídeo 3blue1brown@amplifypartners.com
então sinta-se livre para alcançá-los através desse

Chinese: 
我认为一部分是为了模仿生物学上的神经元什么时候会激发
所以 当超过一个阈值的时候 ReLU就和恒定函数一样
而没过这个阈值 那么就不激发 输出0
可以当作是一种简化版
Sigmoid并没有让训练结果变得更好
或者某种程度上讲它很难训练
后来有人就拿ReLU试了试
结果发现在特别深的神经网络上效果特别的好
非常感谢Lisha
Amplify Partners是一家为早期技术创业公司设立的风险投资
致力于资助下一代人工智能应用的开发
如果你自己 你认识有人想有朝一日创业
或者你自己现在就在一家草创公司工作的话
Amplify很乐意与你联系
他们为本期视频还专门设立了唯一指定邮箱
欢迎大家前去咨询

English: 
Neurons would either be activated or not and so if it passes a certain threshold
It would be the identity function
But if it did not then it would just not be activated so be zero so it's kind of a simplification
Using sigmoids didn't help training, or it was very difficult to train
It's at some point and people just tried relu and it happened to work
Very well for these incredibly
Deep neural networks.
(3B1B) - All right
Thank You Lisha
for background amplify partners in early-stage VC invests in technical founders building the next generation of companies focused on the
applications of AI if you or someone that you know has ever thought about starting a company someday
Or if you're working on an early-stage one right now the Amplify folks would love to hear from you
they even set up a specific email for this video 3blue1brown@amplifypartners.com
so feel free to reach out to them through that

Vietnamese: 
Tế bào thần kinh hoặc là sẽ được kích hoạt hay không và vì vậy nếu nó vượt qua một ngưỡng nhất định
Nó sẽ là chức năng nhận diện
Nhưng nếu nó không thì nó sẽ chỉ không được kích hoạt vì vậy hãy zero vì vậy nó loại đơn giản hóa
Sử dụng sigmoids không giúp đào tạo, hoặc nó đã rất khó khăn để đào tạo
Đó là tại một số điểm và mọi người chỉ cố gắng relu và nó đã xảy ra để làm việc
Rất tốt cho những khó tin
mạng thần kinh sâu.
(3B1B) - Được rồi
Cảm ơn Lisha
cho nền khuếch đại các đối tác trong giai đoạn đầu VC đầu tư vào nhà sáng lập kỹ thuật xây dựng thế hệ tiếp theo của công ty tập trung vào việc
các ứng dụng của AI nếu bạn hoặc ai đó mà bạn biết đã bao giờ nghĩ về việc bắt đầu một công ty một ngày nào đó
Hoặc nếu bạn đang làm việc trên một giai đoạn đầu một ngay bây giờ các folks Amplify rất thích nghe từ bạn
họ thậm chí thiết lập một email cụ thể cho video này 3blue1brown@amplifypartners.com
vì vậy cảm thấy tự do để tiếp cận với họ thông qua đó

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 

Hungarian: 
ahogy a neuronok vagy aktiválódnak vagy sem. Ha egy bizonyos küszöbérték fölé megy, 
akkor a függvény saját magát adja vissza,
de ha nem, akkor nem akarunk aktiválást, így az érték legyen nulla - ez egyfajta egyszerűsítés.
A szigmoidot egy ponton túl túl nehéz volt betanítani,
így aztán kipróbálták a ReLU-t, és az meg működött,
méghozzá nagyon jól
a mély neurális hálózatoknál.
(3B1B) - Rendben.
Köszönöm, Lisha.
Háttérinfó: Az Amplify Partners korai szakaszban lévő vállalatokba fektet be, a mesterséges intelligenci aalkalmazására fókuszáló vállalatok új generációját építve.
Ha te vagy egy ismerősöd egy ilyen vállalat indításán munkálkodna,
vagy épp most indult volna ilyen vállalkozásotok, akkor az Amplifynál szívesen hallanának felőletek.
Még egy meghatározott e-mailt is létrehoztak ehhez a videóhoz: 3blue1brown@amplifypartners.com
ide nyugodtan írhattok.

Chinese: 
神經元在甚麼時候活耀或不活耀
當它超過一個門檻的時候
它就像恆等函數一樣
但如果它沒有超過則輸出 0
所以它是一個很簡單的函數
使用「Sigmoid」並沒有幫助訓練或是說它很難以訓練
後來有人嘗試了 ReLU
發現它的表現難以置信的好
在深度神經網路
謝謝 Lisha
Amplify Partners 是一個早期創投公司
致力於找尋下一代人工智慧的應用
如果你或是你所認識的人想要創業
或是你自己就在一間草創初期的公司工作
Amplify 會很樂意聯繫你
它們還為了這個影片設置了特製的 
E-Mail: 3blue1brown@amplifypartners.com
所以歡迎大家前去諮詢

Turkish: 
Nöronlar ya etkinleştirilir ya da etkinleştirilmez ve eğer belirli bir eşik
Kimlik işlevi olurdu
Ancak yapmadıysa, etkinleşmeyebilir, bu yüzden sıfır olur, bu bir basitleştirme türüdür
Sigmoidleri kullanmak eğitim sağlamazdı ya da eğitmek çok zordu.
Bir noktada ve insanlar sadece relu denedim ve iş başına geldi
Bu inanılmaz derecede
Derin sinir ağları.
(3B1B) - Tamam
Teşekkür ederim Lisha
Arka planda, erken aşamadaki ortakları çoğaltmak VC, teknik kuruculara yatırım yapar;
Eğer sizin veya tanıdığınız birinin şimdiye kadar bir şirket kurmayı bir gün düşünmüş olması durumunda AI uygulamaları
Veya şu anda Amplify millet sizi erken bir evrede çalışıyorsanız, sizden duymaktan memnuniyet duyar
hatta bu video için belirli bir e-posta oluşturduk 3blue1brown@amplifypartners.com
Bu nedenle onlara ulaşmak için çekinmeden çekinmeyin

Modern Greek (1453-): 
οι νευρώνες ενεργοποιούνται ή όχι, και ανάλογα με το αν ξεπερνιέται ένα συγκεκριμένο φράγμα,
η ReLU θα ήταν απλά η ταυτοτική συνάρτηση,
ενώ αν όχι, απλά δεν θα ενεργοποιούνταν και θα ήταν 0, οπότε είναι απλά μία απλοποίηση.
Η χρήση των σιγμοειδών δεν βοήθησε στην εκπαίδευση, ή την έκανε πολύ δύσκολη
σε κάποια σημεία, και οι άνθρωποι απλά δοκίμασαν την ReLU και έτυχε να δουλεύει
πολύ καλά για αυτά τα απίστευτα
περίπλοκα νευρωνικά δίκτυα.
- Μια χαρά, σε ευχαριστώ Lisha.
Παρασκηνιακά, η Amplify Partners στο early-stage VC, επενδύει σε τεχνικούς ιδρυτές που θα χτίσουν την επόμενη γενιά των εταιρειών στον τομέα
των εφαρμογών της τεχνητής νοημοσύνης. Αν εσείς ή κάποιος που γνωρίζετε έχει σκεφτεί ποτέ να ξεκινήσει μια εταιρεία,
ή αν δουλεύετε τώρα σε μία εκκολαπτόμενη, οι τύποι της Amplify θα ήθελαν να μάθουν για εσάς.
Έχουν φτιάξει και ειδικό e-mail για αυτό το βίντεο, το 3blue1brown@amplifypartners.com,
οπότε μιλήστε ελεύθερα μαζί τους μέσω αυτού.

French: 
les neurones sont ou activés ou non, et si oui, s'ils passent un certain seuil
ce serait la fonction identité
mais sinon, il ne serait tout simplement pas activé, c'est une sorte de simplification.
L'utilisation de la fonction sigmoïde n'a pas aidé pour l'entraînement, ou c'était vraiment difficile à entraîner
à un certain point, et des gens ont simplement essayé ReLU et ça a marché
vraiment bien pour ces réseaux
incroyablement profonds. (3B1B) Ok !
Merci Lisha.
Pour finir, "Amplify partners" investit dans les fondateurs des compagnies de nouvelle génération
concentrées sur l'application des intelligences artificielles. Si vous ou une connaissance a déjà pensé à créer une compagnie
ou si vous travaillez sur une compagnie en début de développement, les gars d'Amplify adoreraient vous entendre.
Ils ont même créé un email spécifique pour cette vidéo : 3blue1brown@amplifypartners.com
Alors n'hésitez pas à les contacter par ce biais.

Japanese: 
ニューロンは活性化されていてもいなくてもよいので、ある閾値を超えると
アイデンティティ関数
しかし、そうでなければ、それは単に活性化されないのでゼロになるので、それは単純化の一種です
シグモイドを使用しても訓練には役に立たなかったか、訓練するのが非常に困難でした
それはある時点であり、人々はただ気分を変えようとしたばかりで、うまくいった
非常にこれらの信じられないほどのために
深いニューラルネットワーク。
（3B1B） - すべての権利
ありがとうございますLisha
背景の早い段階でパートナーを拡大するVCは、次世代の企業を構築する技術創業者に投資します
あなたやあなたが知っている誰かがいつか会社を立ち上げることを考えていたらAIのアプリケーション
または、早い段階で作業している場合、Amplifyの人々はあなたからの声を聞きたいと思うでしょう
彼らはこのビデオのための特定の電子メールを設定しました。3blue1brown@amplifypartners.com
そのようにして

Indonesian: 
Neuron akan diaktifkan atau tidak dan jika melewati ambang tertentu
Itu akan menjadi fungsi identitas
Tetapi jika tidak maka itu tidak akan diaktifkan jadi nol jadi semacam penyederhanaan
Menggunakan sigmoids tidak membantu pelatihan, atau sangat sulit untuk dilatih
Itu pada titik tertentu dan orang-orang baru saja mencoba relu dan kebetulan berhasil
Sangat baik untuk ini luar biasa
Jaringan saraf dalam.
(3B1B) - Baiklah
Terima kasih, Lisha
untuk memperkuat mitra di latar belakang VC tahap awal berinvestasi dalam pendiri teknis membangun generasi perusahaan berikutnya yang berfokus pada
aplikasi AI jika Anda atau seseorang yang Anda kenal pernah berpikir tentang memulai suatu perusahaan suatu hari nanti
Atau jika Anda sedang mengerjakan tahap awal sekarang, orang-orang Amplify akan senang mendengar dari Anda
mereka bahkan membuat email khusus untuk video ini 3blue1brown@amplifypartners.com
jadi merasa bebas untuk menjangkau mereka melalui itu

Modern Greek (1453-): 
 

Polish: 
 

Portuguese: 
 

English: 
 

Indonesian: 
 

Thai: 
 

Persian: 
 

French: 
 

Italian: 
 

Portuguese: 
 

Turkish: 
 

Japanese: 
 

German: 
 

Vietnamese: 
 

Czech: 
 

Chinese: 
 
