
French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
"Jak działają sieci neuronowe"
Autor: Brandon Rohrer
Sieci neuronowe są użyteczne w nauce różnorodnych wzorów.
Aby pokazać przykład ich działania wyobraź sobie, że masz 4-pikselową kamerę.
Nie, nie 4-MEGApiksel-ową, tylko po prostu 4-piksel-ową
Która przedstawia tylko kolory czarne i białe.
I chcesz się przejść i cyknąć zdjęcia przedmiotów,
a także
automatycznie ustalić, czy też
te zdjęcia są:
wypełnione kolorem
(czy są kompletnie białe czy też czarne);
zawierają pionową linię;
bądź ukośną linię;
lub poziomą linię.
To jest cwane, ponieważ nie możesz tego zrobić
używając prostych zasad, 
sprawdzających jasność pikseli.
Obydwie te linie to 'poziome' linie.
Ale jeśli spróbujesz ustalić regułę, aby zbadać, który z pikseli jest jasny,
który jest ciemny. To i tak nic ci to nie da.
*ekhem*
Więc, aby to wyliczyć siecią neuronową,
rozpoczynasz od pobrania danych z wejścia.
W tym przypadku to są 4 piksele.

English: 
Neural Networks are good
for learning lots of different types of patterns.
To give an example of how is it work
imagine you had a four pixel camera.
So not four megapixels, but just four pixels.
And it was only black and white.
And you wanted to go around and take pictures of things
and determine automatically then
whether these pictures were
solid, all white or all dark image, vertical line
or a diagonal line or a horizontal line?
This is tricky because you can't do this with simple rules
about the brightness of the pixels.
Both of these are horizontal lines,
but if you try to make a rule about which pixel was bright
and which was dark you wouldn't be able to do it.
So to do this with the neural network
you start by taking all of your inputs,
in this case our four pixels,

Russian: 
Нейронные сети хороши для обнаружения
множества различных типов взаимосвязей.
Приведу пример того, как это работает,
представьте камеру на четыре пикселя.
Не четыре мегапикселя, а всего четыре.
И пиксели чёрно-белые.
А вы хотите ходить, снимать разные вещи
и автоматически определять после этого,
что на снимке:
полностью белое или чёрное изображение,
вертикальная, диагональная или горизонтальная прямая?
Забавно, но не выйдет сделать это на базе простых правил
проверки яркости пикселей.
Вот две прямые, обе горизонтальные,
но если вы попытаетесь составить правило о том,
какой пиксель должен быть светлым или тёмным -- не получится.
Итак, чтобы решить задачу нейронной сетью,
начнём с разбиения входных данных,
в нашем случае -- четырёх пикселей,

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Redes neurais são boas
para aprender diversos tipos de padrões diferentes.
Para dar um exemplo de como isto funciona
imagine que você tinha uma câmera de quatro pixels.
Não quatro megapixels, mas apenas quatro pixels.
E apenas em preto e branco.
E você gostaria de dar uma volta por aí e tirar fotos de coisas
e depois, determinar automaticamente
se essas fotos eram
sólidas, ou seja, tudo branco ou tudo preto, ou uma linha vertical
ou uma linha diagonal ou uma linha horizontal?
Isto é complicado porque você não pode fazer isso com regras simples
baseada apenas na luminosidade dos pixels.
Ambas são linhas horizontais,
mas se você tentar fazer uma regra sobre qual pixel é claro
e qual pixel é escuro, você não seria capaz de fazê-lo.
Então, para fazer isso com a rede neural
você começar pegando todas as suas entradas,
neste caso nossos quatro pixels,

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Las redes neuronales son buenas
para aprender muchos tipos diferentes de patrones.
Para dar un ejemplo de cómo funciona
imagina que tienes una cámara de cuatro pixeles.
Entonces no son cuatro mega pixeles, sino sólo cuatro pixeles.
Y solo estaba en blanco y negro.
Y querrías dar vueltas y tomar fotos de cosas
y determinar automáticamente luego
si estas fotos eran
línea sólida, toda blanca o toda oscura, línea vertical
o una línea diagonal o una línea horizontal?
Esto es complicado porque no puedes hacer esto con reglas simples
sobre el brillo de los pixeles.
Ambas son líneas horizontales,
pero si intentas establecer una regla sobre cuál pixel era brillante
y cuál era oscuro, no podrías hacerlo.
Entonces para hacer esto con la red neuronal
comienzas por tomar todas tus entradas,
en este caso nuestros cuatro pixeles,

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
e você separa em neurônios de entrada.
Você atribui um número a cada um deles
dependendo do grau de luminosidade do pixel.
+1 é todo branco. -1 é todo preto.
E então cinza é o zero ao centro.
Então, esses valores, uma vez que você os tenha separado
e listado como este sobre os neurónios de entrada,
É também chamado o vetor de entrada ou matriz.
É apenas uma lista de números
que representa as suas entradas no momento.
É uma noção útil pensar sobre
o campo receptivo de um neurônio.
Tudo isto significa é que um conjunto de entradas
faz com que o valor deste neurônio tão alto quanto ele pode ser.
Para neurônios de entrada isso é muito fácil.
Cada um está associado com apenas um pixel
e quando esse pixel é todo o caminho branco

English: 
and you break them out into input neurons.
You assign a number to each of these
depending on the brightness or darkness of the pixel.
+1 is all the way white. -1 is all the way black.
And then gray is zero right in the middle.
So these values once you have them broken out
and listed like this on the input neurons,
It's also called the input vector or array.
It's just a list of numbers
that represents your inputs right now.
It's a useful notion to think about
the receptive field of a neuron.
All this means is what set of inputs
makes the value of this neuron as high as it can possibly be.
For input neurons this is pretty easy.
Each one is associated with just one pixel
and when that pixel is all the way white

Spanish: 
y los divides en neuronas de entrada.
Asignas un número a cada uno de estos
dependiendo del brillo u oscuridad del pixel.
+1 es completamente blanco. -1 es completamente negro.
Y luego el gris es cero justo en el medio.
Entonces estos valores una vez que los tienes explotados
y listados así en las neuronas de entrada,
También se llama vector o matriz de entrada.
Es sólo una lista de números
eso representa tus entradas en este momento.
Es una idea útil para pensar
el campo receptivo de una neurona.
Todo esto significa que un conjunto de entradas
hace que el valor de esta neurona sea tan alto como sea posible.
Para las neuronas de entrada esto es bastante fácil.
Cada uno está asociado con solo un píxel
y cuando ese píxel es completamente blanco

Russian: 
на входные нейроны.
Назначим каждому из них число
в зависимости от яркости пикселя.
От +1 для полностью белого, до -1 для полностью чёрного.
А серый будет прямо посередине, в нуле.
Разложив эти значения
и перечислив их вот так на входные нейроны...
Ещё это называют входным вектором или массивом.
Это просто список чисел,
которые сейчас представляют собой входные данные.
В такой записи удобно представлять
рецептивное поле нейрона.
То есть то, какие входные данные
делают значение этого нейрона максимально большим.
Для входных нейронов всё довольно просто.
Каждый из них связан только с одним пикселем,
и когда этот пиксель полностью белый,

Polish: 
Po czym rozbijasz je na "wejściowe neurony".
Przypisujesz numer, do każdej z nich
w zależności od tego jak piksel jest jasny, czy też ciemny.
+1 oznacza kolor biały,
-1 oznacza kolor czarny,
a potem szary to zero (jak tu widać w środku).
Skoro już otrzymano wartości poszczególnych pikseli
i przypisano je do poszczególnych
"neuronów wejściowych",
które są również zwane "wektorami wejścia" lub "tablicami"
Jest to ogólnie mówiąc lista liczb,
która reprezentuje twoje wejścia w danej chwili.
To przydatna rzecz,
aby myśleć o recepcyjnych polach neuronów
To oznacza, że
jakie ustawienie wejścia przyjmiemy,
sprawi, że wartość neuronu będzie
najwyższa jaką może osiągnąć.
Dla neuronów wejścia to będzie proste.
Każdy z nich jest związany z tylko 1 pikselem
...i gdy...
ten piksel jest kompletnie biały,

Spanish: 
el valor de esa neurona de entrada es tan alto como podría.
Las áreas a cuadros blancas y negras muestran pixeles
que a una neurona de entrada no le importa
Si son completamente blancos o completamente negros
todavía no afecta el valor de esa entrada en todo.
Ahora para construir una red neuronal creamos una neurona.
Lo primero que hace es acumular
todos los valores de las neuronas de entrada.
Entonces, en este caso, si sumamos todos esos valores obtenemos un 0.50
Ahora para complicar las cosas solo un poco
cada una de las conexiones son ponderadas
lo que significa que están multiplicadas por un número.
Ese número puede ser 1 o -1 o cualquier valor intermedio.
Entonces, por ejemplo, si algo tiene un peso de -1
se multiplica y obtienes lo negativo de eso.
Y eso se suma.
Si algo tiene un peso de cero

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
the value of that input neuron is as high as it could go.
The black and white checkered areas show pixels
that an input neuron doesn't care about.
If they're all the way white or all the way black
it still doesn't affect the value of that input on it all.
Now to build a neural network we create a neuron.
The first thing this does is it adds up
all of the values of the input neurons.
So in this case if we add up all of those values we get a 0.50
Now to complicate things just a little bit
each of the connections are weighted
meaning they're multiplied by a number.
That number can be 1 or -1 or anything in between.
So for instance if something has a weight of -1
its multiplied and you get the negative of it.
And that's added in.
If something has a weight of zero

Portuguese: 
o valor desse neurônio de entrada é tão alta quanto ele poderia ir.
As áreas quadriculadas em preto e branco mostram pixels
que um neurônio de entrada não se preocupa.
Se eles estão por todo o caminho branco ou todo o caminho preto
ele ainda não afeta o valor dessa entrada em tudo.
Agora, para construir uma rede neural criamos um neurônio.
A primeira coisa que isto faz é somar
todos os valores dos neurônios de entrada.
Portanto, neste caso, se somarmos todos esses valores temos um 0,50
Agora, para complicar as coisas um pouco
cada uma das ligações são pesadas
o que significa que está multiplicado por um número.
Esse número pode ser qualquer coisa entre 1 ou -1.
Assim, por exemplo, se algo tem um peso de -1
ele é multiplicado e você obtém um valor negativo.
E que é somado.
Se algo tem um peso igual a zero

Polish: 
to wartość neuronu wejścia
jest na tyle wysoka, że zostaje zatwierdzona.
Miejsca z białymi i czarnymi pikselami
neuron wejścia kompletnie nie interesują,
jeśli te piksele są całkowicie czarne albo białe.
To cały ten czas, w ogóle nie oddziałują na wartość neuronu wejścia.
Teraz, aby zbudować naszą sieć.
Tworzymy neuron.
Pierwszą rzeczą, jaką ten neuron robi.
To dodanie wszystkich wartości neuronów wejścia.
W tym przypadku, kiedy dodaliśmy te liczby.
Otrzymaliśmy 0.5
Aby trochę te rzeczy skomplikować.
Każdemu z tych połączeń przypisuje się wagę.
Co znaczy, że są one pomnożone,
przez liczbę, która może być 1,
-1,
bądź czymkolwiek pomiędzy.
Dla przykładu jeśli coś ma wagę -1.
Zostaje przemnożone i otrzymujesz negatywna wartość.
To zostaje ona dodana.
Jeśli coś ma wagę 0

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
значение входного нейрона становится максимально возможным.
Области, закрашенные чёрно-белыми клетками -- это те,
до которых нейрону дела нет.
Хоть они полностью белые или чёрные,
его значение вообще не будет затронуто.
Теперь для построения нейронной сети мы сделаем нейрон.
Первое, что он делает -- это складывает
все значения от входных нейронов.
То есть в нашем случае складываем эти значения и имеем 0,50.
Сейчас немного усложним,
каждая связь будет взвешенной
в том смысле, что она умножается на какое-то число.
Это число может быть 1, -1 или чем-нибудь между ними.
Например, если вес выставлен на -1,
то после умножения получаем противоположное число.
И добавляем уже его.
Если вес выставлен на нуль,

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
то по сути связь игнорируется.
Итак, вот как могут выглядеть взвешенные связи.
Вы можете заметить, что после того, как значения
входных нейронов были взвешены и сложены,
то значения стали... итоговое значение стало совсем другим.
Графически удобно изображать
белыми линиями положительные веса,
чёрными -- отрицательные,
а толщину линий делать
примерно пропорциональной значимости веса.
Далее, после установления весов на входные нейроны,
их нужно ужать. Я сейчас покажу, что это значит.
У вас есть функция активации в виде сигмоиды.
Сигмоида означает "в виде буквы S".
Эта штука делает вот что: вы берёте значение,
скажем 0,5,

Spanish: 
entonces es efectivamente ignorado.
Así es cómo se verían esas conexiones ponderadas.
Notarás que después de los valores de las neuronas de entrada
son ponderadas y sumadas
los valores vienen ... el valor final es completamente diferente.
Gráficamente, es conveniente representar estos pesos
como enlaces blancos los pesos positivos
enlaces negros pesos negativos
y el grosor de la línea
es aproximadamente proporcional a la magnitud del peso.
Luego, después de sumar las neuronas de entrada ponderadas
los valores quedan aplastados y te mostraré lo que eso significa.
Ya tienes una función de aplastamiento sigmoidea.
Sigmoidea sólo significa en forma de S
Y lo que la función hace es ponerle un valor,
digamos 0.5

English: 
then it's effectively ignored.
So here's what those weighted connections might look like.
You'll notice that after the values of the input neurons
are weighted and added
the values come... the final value is completely different.
Graphically it's convenient to represent these weights
as white links being positive weights
black links being negative weights
and the thickness of the line
is roughly proportional to the magnitude of the weight.
Then after you add the weighted input neurons
they get squashed and I'll show you what that means.
You have a sigmoid squashing function.
Sigmoid just means S-shaped.
And what this does is you put a value in,
let's say 0.5

Polish: 
to się to pomija.
Tutaj widać jak te połączenia mogą wyglądać.
Zauważysz, że te wartości,
po tym jak zostały 'zważone';
To finalna wartość jest kompletnie inna.
Graficznie wygodnie można to przedstawić,
jako białe łączenia,
będącymi pozytywnymi wagami,
a czarne połączenia negatywnymi wagami.
Przy czym grubość linii, reprezentuje w przybliżeniu
proporcjonalną wielkość danej wagi.
*ykhm*
Po tym jak się zsumują wagi wejść neuronów
Zostają one 'zmiażdżone'
i pokaże Ci co to znaczy.
Otzrymujesz 'zmiażdżoną' funkcję sigmoidy.
Sigmoida to funkcja wyglądająca jak kształt litery 'S'.
Co ona robi to,
kiedy wstawiasz wartość do funkcji - powiedzmy, że będzie to 0.5
I postawisz linię poziomą od punktu

Portuguese: 
então é efetivamente ignorado.
Então, aqui está o que essas conexões ponderadas podem parecer.
Você notará que depois que os valores dos neurônios de entrada
são pesados e adicionados,
os valores vêm ... o valor final é completamente diferente.
Graficamente, é conveniente representar esses pesos
como conexões brancas sendo pesos positivos,
conexões pretas sendo pesos negativos
e a espessura da linha
é aproximadamente proporcional à magnitude do peso.
Então, depois de adicionar os neurônios de entrada que foram pesados
eles são esmagados e eu mostro o que isso significa.
Você tem uma função de esmagamento sigmóide.
Sigmoide significa apenas em forma de S.
E o que isso significa é que você coloca um valor,
digamos 0,5

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
E você corre uma linha vertical até o seu sigmóide
e, em seguida, uma linha horizontal ao longo
de onde cruza
e então onde isso atinge o eixo Y
essa é a saída da sua função.
Então, neste caso, um pouco menos do que 0.5.
Está bem próximo.
Como o seu número de entrada fica maior
O número de saída também fica maior, mas mais lentamente.
E eventualmente,
não importa quão grande seja o número que você coloca
a resposta é sempre menor que 1.
Da mesma forma quando fica negativo
a resposta é sempre maior que -1.
Então, isso garante que o valor dos neurônios
nunca fica fora do intervalo de +1 a -1
o que é útil para manter os cálculos
numa rede neural limitada e estável.
Então, depois de somar os valores pesados dos neurônios
esmague o resultado - você obtém a saída.
Neste caso, 0.746

Polish: 
do signoidy oraz horyzontalną (poziomą) linię.
W miejscu, gdzie funkcja ma wartość.
Tam właśnie sięgamy osi Y,
której wartość jest wartością zwróconą tej funkcji.
W tym przypadku jest ona delikatnie mniejsza od 5,
cóż jest bardzo blisko.
Z czasem gdy wartość wejściowa się zwiększa,
wartość wyjściowa zarówno się zwiększa, lecz
zdecydowanie wolniej.
Ewentualnie
bez znaczenia jak dużą wartość wprowadzisz.
Odpowiedź zawsze będzie mniejsza niż 1.
Podobnie z liczbami ujemnymi.
One zawsze będą większe od -1.
To zapewnia nas w tym, że wartości neuronów
nigdy nie wychodzą poza zakres
od -1 do +1
Co jest dość pomocne w przechowywaniu
obliczeń w sieci neuronowej
ograniczonych i stabilnych.
A więc! Po zsumowaniu zważonych wartości neuronów.
I zmiażdżeniu wyniku, otrzymujesz wartość wyjściową.
Tutaj akurat 0.746.

English: 
And you run a vertical line up to your sigmoid
and then a horizontal line over
from where it crosses
and then where that hits the Y-axis
that's the output of your function.
So in this case slightly less than point five.
It's pretty close.
As your input number gets larger
output number also gets larger, but more slowly.
And eventually,
no matter how big the number you put in
the answer is always less than one.
Similarly when you go negative
the answer is always greater than negative one.
So this ensures that neurons value
never gets outside of the range of +1 to -1
which is helpful for keeping the computations
in the neural network bounded and stable.
So after you sum the weighted values of neurons
squash the result -- you get the output.
In this case 0.746

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Y trazas una línea vertical hasta intersectar tu sigmoidea
y luego una línea horizontal
donde cruza
y luego, donde eso golpea el eje Y
esa es la salida de tu función.
En este caso, algo menos que 0.5
Está bastante cerca.
A medida que tu número de entrada se hace más grande
El número de salida también se hace más grande, pero incrementa más lentamente.
Y finalmente,
no importa cuán grande sea el número que pones a la entrada
la respuesta es siempre menor de 1.0
Del mismo modo, cuando el valor  de entrada es negativo
la respuesta siempre es mayor que -1.0
Esto asegura que el valor de las neuronas
nunca salgan del rango +1 a -1
lo cal es útil para mantener los cálculos
en la red neuronal limitada y estable.
Entonces, después de sumar los valores ponderados de las neuronas
aplastar el resultado - obtienes la salida.
En este caso, 0.746

Russian: 
и проводите прямую по вертикали на сигмоиду,
а потом горизонтальную
через точку пересечения.
Получившееся значение по оси Y
становится значением функции.
В данном случае -- чуть меньше, чем 0,5
Довольно близко.
По мере увеличения входного значения
результат также увеличивается, но существенно медленнее.
И в конце концов
не важно, насколько большое число будет на входе,
результат никогда не превысит единицу.
Аналогично и с отрицательными значениями.
Ответ всегда больше минус единицы.
Таким образом гарантируется, что значение нейрона
никогда не выйдет за пределы диапазона от -1 до +1,
что помогает вести расчёты
нейронной сети в определённых пределах.
Итак, после сложения взвешенных значений нейронов
и применения функции активации получаем выходное значение.
В нашем случае -- 0,746.

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Isso é um neurônio.
Então podemos chamar isso ...
podemos fechar tudo isso e isso é um neurônio
que faz uma soma ponderada e esmaga o resultado.
E agora, em vez de apenas um daqueles
suponha que você tenha um monte
há 4 mostrados aqui, mas pode haver 400 ou 4 milhões.
Agora, para manter a nossa imagem clara, vamos assumir por enquanto
que os pesos são +1, linhas brancas,
-1, linhas pretas,
ou 0, caso em que estão faltando completamente.
Mas na verdade todos esses neurônios que criamos
estão ligados a todos os neurônios de entrada
e todos eles têm algum peso entre -1 e +1.
Quando criamos essa primeira camada da nossa rede neural
os campos receptivos ficam mais complexos.
Por exemplo, aqui cada um desses

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
To jest właśnie neuron.
Możemy powiedzieć, że go właśnie złożyliśmy neuron.
Neuron, który został 'zmiażdżony' i ma zsumowane wyniki wag.
I... teraz, zamiast mieć tylko 1 taki neuron.
Przyjmijmy, że mamy ich całą garść.
Tutaj są 4 pokazywane.
Ale może ich być też z 400 albo nawet 4 miliony
Aby wszystko było jasne,
Przyjmijmy na razie, że wagi zakładają wartości:
+1
to białe linie,
-1
czarne linie
lub 0, co oznacza, że linii nie ma w ogóle.
Jednak w rzeczywistości
wszystkie te neurony co stworzyliśmy są połączone
do wszystkich neuronów wejściowych.
One wszystkie są mają jakąś wagę
pomiędzy minus 1, a plus 1.
Kiedy stworzymy pierwszą warstwę naszej sieci,
to "recepcyjne pola" stają się bardziej złożone.
Dla przykładu tutaj,

Spanish: 
Eso es una neurona
Entonces podemos llamar esto ...
podemos colapsar todo eso y esto es una neurona
eso hace una suma ponderada y aplasta el resultado.
Y ahora, en lugar de sólo uno de esas neuronas
supón que tienes un montón
aquí se muestran 4, pero podría haber 400 o 4 millones.
Ahora, para mantener nuestra imagen clara, asumiremos por ahora
que los pesos son +1, líneas blancas,
-1, líneas negras,
o 0, en cuyo caso se omiten por completo.
Pero en realidad todas estas neuronas que creamos
están unidas a todas las neuronas de entrada
y todas tienen algún peso entre -1 y +1.
Cuando creamos esta primera capa de nuestra red neuronal
los campos receptivos se vuelven más complejos.
Por ejemplo, aquí cada uno de esos

Russian: 
Это и есть нейрон.
Мы можем назвать это...
мы можем объединить всё, это и будет нейрон.
Он получает взвешенную сумму и применяет к ней функцию активации.
Теперь вместо единственного нейрона представим,
что у нас есть несколько таких же.
Тут показаны 4 штуки, но может быть 400 или 4 миллиона.
Далее, чтобы не усложнять, предположим пока,
что веса у нас бывают либо +1, белые линии,
либо -1, чёрные линии,
или 0, тогда линии просто нет.
Хотя на самом деле
каждый созданный нами нейрон привязывается
ко всем входным нейронам с весами от -1 до +1.
Как только мы создали первый слой нашей нейронной сети,
рецептивные поля становятся более сложными.
Например, вот каждый из этих

English: 
That is a neuron.
So we can call this...
we can collapse all that down and this is a neuron
that does a weighted sum and squash the result.
And now instead of just one of those
assume you have a whole bunch
there are 4 shown here, but there could be 400 or 4 million.
Now to keep our picture clear we'll assume for now
that the weights are either +1, white lines,
-1, black lines,
or 0, which case they're missing entirely.
But in actuality all of these neurons that we created
are each attached to all of the input neurons
and they all have some weight between -1 and +1.
When we create this first layer of our neural network
the receptive fields get more complex.
For instance here each of those

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
end up combining two of our input neurons
and so the value... the receptive field...
the pixel values that make that first layer neuron,
as large as it can possibly be,
look now like pairs of pixels.
Either all white or a mixture of white and black
depending on the weights.
So for instance this neuron here
is attached to this input pixel (which is upper-left)
and this input pixel (just lower left)
and both of those weights are positive.
So it combines the two of those.
And that's it's receptive field.
The receptive field of this one
plus the receptive field of this one.
However, if we look at this neuron
it combines...
this pixel upper right and this pixel lower right.

Polish: 
każdy z pojedynczych neuronów, kończy wiązania łącząc się z dwoma neuronami wejściowymi. (1:2)
Dlatego wartości
pól recepcyjnych
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
становится объединением входных нейронов,
поэтому значение... рецептивное поле...
значения пикселей, которые делают
значение нейрона первого уровня максимальным,
теперь представляют собой пары из пикселей.
Полностью белые или смесь белых и чёрных,
в зависимости от весов.
К примеру, вот этот нейрон
привязан к этому входному пикселю (верхнему левому)
и вот этому входному пикселю (нижнему слева)
с положительными значениями обоих весов.
То есть он объединяет их вместе.
И это его рецептивное поле.
То есть рецептивное поле вот этого,
плюс рецептивное поле вот этого.
Однако, если взглянуть на этот нейрон,
он объединяет...
этот пиксель, верхний правый, и вот этот -- нижний правый.

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
acabam combinando dois dos nossos neurônios de entrada
e então o valor ... o campo receptivo ...
os valores de pixel que fazem o neurônio da primeira camada,
tão grande quanto possível,
parecem agora como pares de pixels.
Ou todo branco ou uma mistura de branco e preto
dependendo dos pesos.
Então, por exemplo, esse neurônio aqui
está anexado a este pixel de entrada (que é superior esquerdo)
e este pixel de entrada (logo abaixo, à esquerda)
e ambos os pesos são positivos.
Então combina os dois.
E esse é o campo receptivo.
O campo receptivo deste
mais o campo receptivo deste.
No entanto, se olharmos para esse neurônio
isto combina...
este pixel superior direito e este pixel inferior direito.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
terminan combinando dos de nuestras neuronas de entrada
y entonces el valor ... el campo receptivo ...
los valores de pixel que hacen que la primera capa neuronal,
sean tan grandes como sea posible,
se ve ahora como pares de píxeles.
O todo blanco o una mezcla de blanco y negro
dependiendo de los pesos.
Entonces, por ejemplo, esta neurona aquí
está conectado a este pixel de entrada (que está arriba a la izquierda)
y este píxel de entrada (justo abajo a la izquierda)
y ambos de estos pesos son positivos.
Entonces combina los dos de ésos.
Y ése es su campo receptivo.
El campo receptivo de éste
más el campo receptivo de éste.
Sin embargo, si miramos esta neurona
combina...
este pixel arriba a la derecha y este pixel abajo a la derecha.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
У него вес -1 для нижнего правого пикселя,
а это значит, что он наиболее активен, когда тут чёрный пиксель,
поэтому рецептивное поле вот такое.
Дальше, из-за того, что мы были довольно осторожны
при создании первого слоя,
его значения сильно похожи на входные значения.
Но мы можем сделать получше, создав ещё один слой
поверх этого точно таким же образом,
передавая выход одного слоя на вход следующему.
И мы можем сделать так хоть три раза, хоть семь,
хоть 700 раз, присоединяя новые слои.
С каждым разом рецептивные поля будут становиться всё сложнее.
В общем вот здесь можно видеть, что по той же логике
теперь они покрывают все пиксели
и имеют более чёткое определение того,
где должны быть чёрные пиксели, а где белые.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Tem um peso de -1 para o pixel inferior direito
então isso significa que é mais ativo quando esse pixel é preto,
então aqui está o seu campo receptivo.
Agora porque fomos cuidadosos
de como criamos essa primeira camada
seus valores se parecem muito com valores de entrada.
E podemos nos virar e criar outra camada
em cima disso exatamente da mesma maneira
com a saída de uma camada sendo a entrada para a próxima camada.
E podemos repetir isso três vezes ou sete vezes
ou 700 vezes para camadas adicionais.
Cada vez que os campos receptivos ficam ainda mais complexos.
Então você pode ver aqui usando a mesma lógica
agora eles cobrem todos os pixels
em um arranjo mais especial
dos quais são pretos e brancos.

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Tiene un peso de menos uno para el pixel inferior derecho
lo que significa que es más activo cuando este pixel es negro,
así que aquí está su campo receptivo.
Ahora porque fuimos cuidadosos
de cómo creamos esa primera capa
sus valores se parecen mucho a los valores de entrada.
Y podemos girar a la derecha y crear otra capa
superpuesta encima de la misma manera
siendo la salida de una capa la entrada a la siguiente capa.
Y podemos repetir esto tres veces o siete veces
o 700 veces para capas adicionales.
Cada vez que los campos receptivos se vuelven aún más complejos.
Entonces puedes ver aquí usando la misma lógica
ahora cubren todos los píxeles
y más arreglos especiales
de cuales son negros y de los cuales son blancos.

English: 
It has a weight of minus one for the lower right pixel
so that means it's most active when this pixel is black,
so here is its receptive field.
Now because we were careful
of how we created that first layer
its values look a lot like input values.
And we can turn right around and create another layer
on top of it the exact same way
with the output of one layer being the input to the next layer.
And we can repeat this three times or seven times
or 700 times for additional layers.
Each time the receptive fields get even more complex.
So you can see here using the same logic
now they cover all of the pixels
and more special arrangement
of which are black and which are white.

English: 
We can create another layer...
Again all of these neurons in one layer are connected
to all of the neurons in the previous layer.
But we're assuming here
that most of those weights are zero and not shown.
It's not generally the case.
So just to mix things up, we'll create a new layer,
but if you notice our squashing function isn't there anymore.
We have something new called a rectified linear unit.
This is another popular neuron type.
So you do your weighted sum of all your inputs
and instead of squashing you do rectified linear units.
You rectify it.
So if it is negative you make the value 0.
If it's positive you keep the value.
This is obviously very easy to compute
and it turns out to have very nice stability properties
for neural networks as well.
In practice.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Podemos crear otra capa ...
De nuevo, todas estas neuronas en una capa están conectadas
a todas las neuronas en la capa anterior.
Pero estamos asumiendo aquí
que la mayoría de esos pesos son cero y no se muestran.
Generalmente no es el caso.
Así que solo para mezclar las cosas, crearemos una nueva capa,
pero nota que nuestra función de aplastamiento ya no se encuentra allí.
Tenemos algo nuevo llamado unidad lineal rectificada.
Este es otro tipo de neurona popular.
Entonces haces tu suma ponderada de todas tus entradas
y en lugar de aplastar, haces unidades lineales rectificadas.
Las rectificas.
Entonces, si es negativo, se asigna el valor 0.
Si es positivo, mantenemos el valor.
Obviamente, esto es muy fácil de calcular
y resulta tener muy buenas propiedades de estabilidad
para las redes neuronales también.
En la práctica.

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
Мы можем сделать ещё слой...
Опять же, все нейроны слоя связаны
со всеми нейронами предыдущего слоя.
Однако, тут мы предполагаем,
что большая часть весов нулевые, поэтому не показаны.
Обычно это не так.
В общем, чтобы всё немного запутать, создадим ещё слой,
но вы можете заметить, что тут больше нет ужимающей функции.
У нас тут кое-что новое, так называемая выпрямленная линейная функция.
Это ещё один популярный тип нейронов.
То есть получив взвешенную сумму всех входов,
мы берём значение выпрямленной линейной функции вместо сжатия.
Выпрямляем значение.
Итак, если оно отрицательное, то получаем 0.
Если положительное, то оставляем значение.
Очевидно, такое очень легко вычисляется,
и оказалось, что оно к тому же придаёт нейронной сети
довольно неплохие свойства устойчивости.
Ну, на практике.

Portuguese: 
Nós podemos criar outra camada ...
Novamente, todos esses neurônios em uma camada estão conectados
para todos os neurônios na camada anterior.
Mas estamos assumindo aqui
que a maioria desses pesos é zero e não é mostrada.
Geralmente não é o caso.
Então, apenas para misturar as coisas, vamos criar uma nova camada,
mas se você notar que a nossa função de esmagamento não está mais lá.
Nós temos algo novo chamado unidade linear retificada.
Este é outro tipo de neurônio popular.
Então você faz sua soma ponderada de todas as suas entradas
e em vez de esmagar você faz unidades lineares retificadas.
Você corrige isso.
Então, se é negativo, você faz o valor 0.
Se é positivo, você mantém o valor.
Isto é obviamente muito fácil de calcular
e acaba por ter propriedades de estabilidade muito agradáveis
para redes neurais também.
Na prática.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Então, depois de fazer isso porque alguns dos nossos pesos são positivos
e alguns são negativos
conectando a essas unidades lineares retificadas,
temos campos receptivos e seus opostos.
Olhe para os padrões lá.
E então, finalmente, quando criamos tantas camadas
com tantos neurônios quanto quisermos
nós criamos uma camada de saída.
Aqui temos quatro saídas que nos interessam.
A imagem é sólida, vertical, diagonal ou horizontal?
Então, para percorrer um exemplo aqui
de como isso funcionaria,
digamos que começamos com essa imagem de entrada
mostrado à esquerda.
Pixels escuros na parte superior, brancos na parte inferior.
Como nós propagamos isso para nossa camada de entrada
é assim que esses valores se pareceriam.
Os pixels superiores, os pixels inferiores.
Enquanto nos movemos para a nossa primeira camada

Spanish: 
Entonces, después de hacer esto, porque algunos de nuestros pesos son positivos
y algunos son negativos,
conectando a esas unidades lineales rectificadas,
obtenemos campos receptivos y sus opuestos.
Observa los patrones allí.
Y finalmente, cuando hemos creado tantas capas
con tantas neuronas como queramos
creamos una capa de salida.
Aquí tenemos cuatro productos que nos interesan.
Es la imagen sólida, vertical, diagonal u horizontal.
Así que para ver un ejemplo aquí
de cómo esto funcionaría,
digamos que comenzamos con esta imagen de entrada
se muestra a la izquierda.
Pixeles oscuros en la parte superior, blancos en la parte inferior.
A medida que propagamos eso a nuestra capa de entrada
así es como se verían esos valores.
Los pixeles superiores, los pixeles inferiores.
A medida que pasamos a nuestra primera capa

Russian: 
Таким образом из-за того, что некоторые веса у нас положительные,
а некоторые отрицательные,
присоединив выпрямленные линейные функции,
мы получаем рецептивные поля вместе с их противоположностями.
Взгляните на эти шаблоны.
И наконец, когда мы создали столько слоёв
со столькими нейронами, сколько нам хотелось,
мы делаем выходной слой.
Здесь нам интересны четыре результата.
Сплошное ли изображение, либо вертикальная, диагональная или горизонтальная прямая.
Итак, разберём пример того,
как это будет работать.
Скажем, мы начнём с такого входного изображения,
которое вот тут слева.
Тёмные пиксели сверху, светлые снизу.
При помещении его на наш входной слой,
всё будет выглядеть вот как-то так.
Здесь верхние пиксели, здесь -- нижние.
При переходе к нашему первому слою,

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
So after we do this because some of our weights are positive
and some are negative,
connecting to those rectified linear units,
we get receptive fields and their opposites.
Look at the patterns there.
And then finally when we've created as many layers
with as many neurons as we want
we create an output layer.
Here we have four outputs that we're interested in.
Is the image solid, vertical, diagonal or horizontal.
So to walk through an example here
of how this would work,
let's say we start with this input image
shown on the left.
Dark pixels on top, white on the bottom.
As we propagate that to our input layer
this is what those values would look like.
The top pixels, the bottom pixels.
As we move that to our first layer

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
we can see the combination of a dark pixel
and a light pixel summed together
get us zero -- gray.
Whereas down here we have
the combination of a dark pixel
plus a light pixel with a negative weight.
So that gets us a value of negative one here.
Which makes sense
because if we look at the receptive field here...
Upper left pixel white,
lower left pixel black.
This the exact opposite of the input that we're getting
and so we would expect its value to be as low as possible.
Minus one.
As we move to the next layer
we see the same types of things.
Combining zeros to get zeros.
Combining a negative and a negative with a negative weight
which makes a positive to get a zero.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
podemos ver a combinação de um pixel escuro
e um pixel de luz somado
nos leve zero - cinza.
Considerando que aqui temos
a combinação de um pixel escuro
mais um pixel claro com um peso negativo.
Então isso nos dá um valor negativo aqui.
O que faz sentido
porque se olharmos para o campo receptivo aqui ...
Pixel superior esquerdo branco,
pixel inferior esquerdo preto.
Isso é exatamente o oposto da entrada que estamos obtendo
e assim esperamos que seu valor seja o mais baixo possível.
Menos um.
Enquanto nos movemos para a próxima camada
nós vemos os mesmos tipos de coisas.
Combinando zeros para obter zeros.
Combinando um negativo e um negativo com um peso negativo
que faz um positivo para obter um zero.

Russian: 
мы видим, как комбинация тёмного пикселя
и светлого пикселя в сумме
дают нам нуль -- серый.
Тогда как вот здесь у нас
комбинация из тёмного пикселя
плюс светлый пиксель, но с отрицательным весом.
Так что здесь в значении мы получаем минус единицу.
Что имеет смысл,
так как если посмотреть на вот это рецептивное поле...
Верхний левый пиксель белый,
а нижний левый пиксель чёрный.
Это полная противоположность того, что мы получили на входе,
и поэтому мы ожидаем, что значение будет наименьшим из возможных.
Минус единица.
Переходя к следующему слою,
мы видим то же самое.
Объединение нулей даёт нули.
Объединяя отрицательное и отрицательное с отрицательным весом,
получаем положительное и в итоге нуль.

Spanish: 
podemos ver la combinación de un píxel oscuro
y un píxel de luz sumado
dándonos cero -- gris.
Mientras que aquí abajo tenemos
la combinación de un pixel oscuro
más un píxel claro con un peso negativo.
Entonces eso nos da un valor negativo aquí.
Lo cual tiene sentido
porque si miramos el campo receptivo aquí ...
Píxel izquierdo superior blanco,
abajo a la izquierda pixel negro.
Esto es exactamente lo opuesto a la entrada que recibimos
y entonces esperaríamos que su valor sea lo más bajo posible.
Menos uno.
A medida que avanzamos a la siguiente capa
vemos el mismo tipo de cosas
Combinando ceros para obtener ceros.
Combinando un negativo y un negativo con un peso negativo
que hace un positivo para obtener un cero.

Russian: 
А здесь у нас объединяются два отрицательных, что даёт отрицательное.
В общем ещё разок, заметьте, что рецептивное поле тут
как раз противоположность нашим входным данным.
Поэтому совсем не удивительно, что вес становится отрицательным.
Ну или значение становится отрицательным.
А мы переходим на следующий слой.
Всё это, конечно, все эти нули перемещаются дальше.
А тут...
Это отрицательное значение,
и получается... здесь положительный вес.
То есть оно просто переходит дальше.
Из-за того, что у нас тут выпрямленная линейная функция,
отрицательные значения становятся нулями.
Поэтому теперь тут тоже нуль.
Но вот этот выпрямляется и становится положительным.
Минус на минус даёт плюс.
Таким образом, когда мы наконец-то добираемся до выхода,
можно увидеть, что на всех вариантах получились нули, кроме горизонтального,
где положительное значение, это и есть ответ.
Наша нейронная сеть сказала,
что тут изображена горизонтальная прямая.

Spanish: 
Y aquí tenemos la combinación de dos negativos para obtener un negativo.
Así que de nuevo notarás el campo receptivo de esto
es exactamente el inverso de nuestra entrada.
Entonces tiene sentido que su peso sea negativo.
O su valor sería negativo.
Y pasamos a la siguiente capa.
Todos estos, por supuesto, estos ceros se propagan hacia adelante.
Aquí...
Este es un negativo tiene un valor negativo,
y se pone ... tiene un peso positivo.
Entonces simplemente se mueve hacia adelante.
Porque tenemos una unidad lineal rectificada,
los valores negativos se vuelven cero.
Entonces ahora también es cero.
Pero este se rectifica y se vuelve positivo.
Negativo de negativo dá positivo.
Y así cuando finalmente llegamos a la salida
podemos ver que son todos cero excepto por este horizontal,
que es positivo, y ésa es la respuesta.
Nuestra red neuronal dijo
esta es una imagen de una línea horizontal.

Portuguese: 
E aqui temos a combinação de dois negativos para obter um negativo.
Então, novamente, você notará o campo receptivo desta
é exatamente o inverso de nossa entrada.
Então, faz sentido que o peso seja negativo.
Ou seu valor seria negativo.
E nos movemos para a próxima camada.
Todos esses, é claro, esses zeros se propagam para frente.
Aqui...
Este é um negativo tem um valor negativo,
e fica ... tem um peso positivo.
Então, apenas se move para frente.
Porque nós temos uma unidade linear retificada,
valores negativos se tornam zero.
Então agora é zero novamente também.
Mas este é retificado e se torna positivo.
Negativo vezes um negativo é positivo.
E quando finalmente chegamos à saída
podemos ver que eles são todos zero, exceto para este horizontal,
o que é positivo, e essa é a resposta.
Nossa rede neural disse
esta é uma imagem de uma linha horizontal.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
And here we have combining two negatives to get a negative.
So again you'll notice the receptive field of this
is exactly the inverse of our input.
So it makes sense that it's weight would be negative.
Or its value would be negative.
And we move to the next layer.
All of these, of course, these zeros propagate forward.
Here...
This is a negative has a negative value,
and it gets... has a positive weight.
So it just moves straight forward.
Because we have a rectified linear unit,
negative values become zero.
So now it is zero again too.
But this one gets rectified and becomes positive.
Negative times a negative is positive.
And so when we finally get to the output
we can see they're all zero except for this horizontal,
which is positive, and that's the answer.
Our neural network said
this is an image of a horizontal line.

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
Вот обычно нейронные сети не настолько хороши,
не настолько чёткие.
Есть представление о том, какой ответ для входных данных правильный.
В нашем случае правильный ответ в том,
что везде нули во всех этих вариантах,
но единица у горизонтальной.
Не сплошное, не вертикальная прямая, не диагональная.
Да, тут горизонтальная.
Случайно выбранная нейронная сеть будет давать ответы,
которые не совсем правильные.
Они могут быть малость или даже сильно неточными.
Это погрешность, величина разницы
между правильным ответом и тем, который получился.
Можно всё это сложить
и получить совокупную погрешность нейронной сети.
Идея в том...
вся идея обучения и тренировки
в подгонке весов таким образом,
чтобы погрешность стала как можно меньше.
Способ, которым этого можно добиться...
Даём изображение, вычисляем погрешность, которая в итоге получилась,

English: 
Now, neural networks usually aren't that good,
not that clean.
So there's a notion of with an input what is truth?
In this case the truth is
this has a zero for all of these values,
but a one for horizontal.
It's not solid. It's not vertical. It's not diagonal.
Yes, it is horizontal.
An arbitrary neural network will give answers
that are not exactly truth.
It might be off by a little or a lot.
And then the error is the magnitude of the difference
between the truth and the answer given.
And you can add all these up
to get the total error for the neural network.
So the idea...
the whole idea with learning and training
is to adjust the weights
to make the error as low as possible.
So the way this is done is...
Put an image in we calculate the error at the end,

Spanish: 
Ahora, las redes neuronales generalmente no son tan buenas,
no tan limpias.
Entonces, hay una noción de con una entrada, ¿es correcta la salida?
En este caso, la verdad es
esto tiene un cero para todos estos valores,
pero uno para horizontal.
No es sólido. No es vertical No es diagonal
Sí, es horizontal
Una red neuronal arbitraria dará respuestas
que no son exactamente ciertas.
Puede ser poco o mucho.
Y luego el error es la magnitud de la diferencia
entre la verdad y la respuesta dada.
Y puedes agregar todo esto
para obtener el error total de la red neuronal.
Entonces la idea ...
toda la idea con aprendizaje y entrenamiento
es ajustar los pesos
para hacer el error lo más bajo posible.
Entonces, la forma en que esto se hace es ...
Poniendo una imagen calculamos el error al final,

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Agora, as redes neurais geralmente não são tão boas
não tão limpo.
Então, há uma noção de com uma entrada o que é verdade?
Neste caso, a verdade é
isso tem um zero para todos esses valores,
mas um para horizontal.
Não é sólido. Não é vertical. Não é diagonal.
Sim, é horizontal.
xUma rede neural arbitrária dará respostas
xisso não é exatamente verdade.
Pode ser um pouco ou muito.
E então o erro é a magnitude da diferença
entre a verdade e a resposta dada.
E você pode adicionar tudo isso
para obter o erro total da rede neural.
Então a ideia ...
a ideia toda com aprendizado e treinamento
é ajustar os pesos
para tornar o erro o mais baixo possível.
Então a maneira como isso é feito é ...
Coloque uma imagem em nós calculamos o erro no final,

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
então procuramos como ajustar esses pesos
maior ou menor para fazer com que esse erro suba ou desça.
E nós, claro, ajustamos os pesos no caminho
do que fazer o erro cair.
Agora, o problema de fazer isso
é sempre que voltamos e calculamos o erro
nós temos que multiplicar todos esses pesos
por todos os valores dos neurônios em cada camada.
E nós temos que fazer isso de novo e de novo
uma vez para cada peso.
Isso leva uma eternidade em termos de computação
na escala de computação.
E então não é uma maneira prática
para treinar uma grande rede neural.
Você pode imaginar, em vez de apenas rolar
para o fundo de um vale simples
nós temos um vale dimensional muito alto
e nós temos que encontrar nosso caminho para baixo.
E porque há tantas dimensões
um para cada um desses pesos
que o cálculo acaba se tornando proibitivamente caro.
Felizmente houve uma visão

Russian: 
а потом смотрим, при изменении наших весов,
побольше или поменьше, уменьшается или увеличивается погрешность.
И конечно же, мы изменяем наши веса так,
чтобы погрешность уменьшалась.
Проблема такого подхода в том,
что каждый раз, чтобы заново вычислить погрешность,
мы должны перемножить все наши веса
на все значения нейронов в каждом слое.
И нам придётся делать это снова и снова
для каждого веса.
В смысле вычислений это занимает целую вечность
по масштабам рассчётов.
И поэтому такой поход непрактичен
для обучения больших нейронных сетей.
Представьте, что вместо простого спуска
на дно обычной низины,
у нас есть многомерная низина,
и мы должны искать путь вниз.
И из-за того, что измерений так много,
по одному на каждый из весов,
вычисления попросту становятся запредельно затратными.
К счастью, уже додумались кое до чего ещё,

English: 
then we look for how to adjust those weights
higher or lower to either make that error go up or down.
And we of course adjust the weights in the way
than make the error go down.
Now, the problem with doing this
is each time we go back and calculate the error
we have to multiply all of those weights
by all of the neurons values at each layer.
And we have to do that again and again
once for each weight.
This takes forever in computing terms
on computing scale.
And so it's not a practical way
to train a big neural network.
You can imagine instead of just rolling down
to the bottom of a simple valley
we have a very high dimensional valley
and we have to find our way down.
And because there are so many dimensions
one for each of these weights
that the computation just becomes prohibitively expensive.
Luckily there was an insight

Spanish: 
entonces buscamos cómo ajustar esos pesos
más alto o más bajo para hacer que ese error suba o baje.
Y, por supuesto, ajustamos los pesos en la forma
de hacer que el error disminuya
Ahora, el problema con hacer esto
es cada vez que volvemos y calculamos el error
tenemos que multiplicar todos esos pesos
por todos los valores de las neuronas en cada capa.
Y tenemos que hacer eso una y otra vez
una vez por cada peso
Esto lleva una eternidad en términos informáticos
en la escala de computación.
Y entonces no es una forma práctica
para entrenar una gran red neuronal.
en cambio, puedes imaginar rodar solamente hacia abajo
al fondo de un valle simple
tenemos un valle dimensional muy alto
y tenemos que encontrar nuestro camino hacia abajo.
Y porque hay tantas dimensiones
uno por cada uno de estos pesos
que el cálculo simplemente se vuelve prohibitivamente costoso.
Afortunadamente, había una idea

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
eso nos permite hacer esto en un tiempo muy razonable,
y eso es todo si tenemos cuidado
cómo diseñamos nuestra red neuronal
podemos calcular esta pendiente directamente.
El gradiente
Podemos descubrir la dirección
que tenemos que ajustar el peso
sin recorrer todo el camino de vuelta
a través de nuestra red neuronal y recalculando.
Así que solo revisa,
la pendiente de la que estamos hablando es
cuando hacemos un cambio de peso
el error cambiará un poco
y esa relación del cambio de peso
a el cambio en error es la pendiente.
Matemáticamente hay varias formas de escribir esto.
Voy a favorecer al que está abajo.
Técnicamente es más correcto.
Lo llamaremos DE / DW.
Cada vez que lo veas, solo piensa:
"El cambio en el error cuando cambio un peso"
O el cambio en la cosa en la parte superior
cuando cambio la cosa en la parte inferior.

English: 
that lets us do this in a very reasonable time,
and that's that if we're careful about
how we design our neural network
we can calculate this slope directly.
The gradient.
We can figure out the direction
that we need to adjust the weight
without going all the way back
through our neural network and recalculating.
So just review,
the slope that we're talking about is
when we make a change in weight
the error will change a little bit
and that relation of the change in weight
to the change in error is the slope.
Mathematically there are several ways to write this.
I will favor the one on the bottom.
It's technically most correct.
We'll call it DE/DW for shorthand.
Every time you see it, just think:
"The change in error when I change a weight"
Or the change in the thing on the top
when I change the thing on the bottom.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
que nos permite fazer isso em um tempo muito razoável,
e é isso que se tivermos cuidado com
como nós projetamos nossa rede neural
podemos calcular essa inclinação diretamente.
O gradiente.
Nós podemos descobrir a direção
que precisamos ajustar o peso
sem voltar todo o caminho
através da nossa rede neural e recalculando.
Então apenas revise
a inclinação que estamos falando é
quando fazemos uma mudança de peso
o erro vai mudar um pouco
e essa relação da mudança de peso
a mudança no erro é a inclinação.
Matematicamente, existem várias maneiras de escrever isso.
Eu vou favorecer aquele no fundo.
É tecnicamente mais correto.
Vamos chamá-lo DE / DW para abreviação.
Toda vez que você vê, apenas pense:
"A mudança no erro quando eu mudo um peso"
Ou a mudança na coisa no topo
quando eu mudo a coisa no fundo.

Russian: 
что позволяет нам делать это за вполне приемлемое время.
Штука в том, что если мы аккуратно
спроектируем нашу нейронную сеть,
то сможем вычислять этот уклон непосредственно.
Градиент.
Мы можем выяснить направление,
в котором нужно исправить вес,
не проходя весь путь обратно
через нашу нейронную сеть и всё пересчитывая.
Так, просто посмотрим ещё раз,
кривая, о которой мы говорим,
отражает то, что когда мы изменим вес,
погрешность тоже немного изменится,
и это отношение изменения веса
к изменению погрешности и даёт нашу кривую.
Есть несколько способов записать это математически.
Мне нравится тот, что в самом низу.
Технически он самый корректный.
Для краткости будем говорить DE/DW (ДИ-И-ДИ-ДАБЛ-Ю).
Всякий раз, когда увидите такое, просто считаете, что это:
"Изменение погрешности при изменении веса"
Или изменение штуки сверху
при изменении штуки снизу.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Isso nos leva a um pouco de cálculo,
nós tomamos derivados.
É como calculamos a inclinação.
Se é novidade para você
Eu recomendo fortemente um bom semestre de cálculo.
Só porque os conceitos são tão universais
e muitos deles têm interpretações físicas muito agradáveis,
que eu acho muito atraente.
Mas não se preocupe
caso contrário, apenas encobrir isso
e preste atenção ao resto,
e você terá uma noção geral de como isso funciona.
Então, neste caso, se mudarmos o peso em +1,
o erro muda por -2,
o que nos dá uma inclinação de menos dois.
Isso nos diz a direção
que devemos ajustar nosso peso
e quanto devemos ajustá-lo
para trazer o erro para baixo.
Agora para fazer isso você tem que saber
qual é a sua função de erro.
Então, suponha que tenhamos uma função de erro
esse era o quadrado do peso.

Russian: 
Это заводит нас немного в мат. анализ,
мы вычисляем производные.
Так мы высчитываем угол наклона.
Если для вас это в новинку,
то я настойчиво советую ознакомиться с каким-нибудь начальным курсом мат. анализа.
Просто из-за того, что эти понятия универсальные,
и многие из них имеют весьма неплохой физический смысл,
что по-моему очень притягательно.
Хотя не переживайте,
можете просто закрыть на это глаза
и обратить внимание на всё остальное.
Вы поймёте общую суть того, как всё это работает.
В общем, тут мы меняем вес на +1,
а погрешность меняется на -2,
что даёт нам наклон минус два.
Это подсказывает нам направление,
в котором нужно исправить этот вес,
и насколько мы должны его исправить,
чтобы снизить погрешность.
Теперь, чтобы сделать это нужно знать,
какая у нас функция ошибки.
Допустим, что тут у нас функция ошибки,
которая просто возводит вес в квадрат.

English: 
This does get us into a little bit of calculus,
we do take derivatives.
It's how we calculate slope.
If it's new to you
I strongly recommend a good semester of calculus.
Just because the concepts are so universal
and a lot of them have very nice physical interpretations,
which I find very appealing.
But don't worry
otherwise just gloss over this
and pay attention to the rest,
and you'll get a general sense for how this works.
So in this case if we change the weight by +1,
the error changes by -2,
which gives us a slope of minus two.
That tells us the direction
that we should adjust our weight
and how much we should adjust it
to bring the error down.
Now to do this you have to know
what your error function is.
So assume we had error function
that was the square of the weight.

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Esto nos lleva a un poco de cálculo,
si tomamos derivadas.
Es como calculamos la pendiente.
Si es nuevo para ti
Recomiendo encarecidamente un buen semestre de cálculo.
Solo porque los conceptos son tan universales
y muchos de ellos tienen interpretaciones físicas muy agradables,
que me parece muy atractivo.
Pero no te preocupes
de lo contrario, pasa de largo sobre esto
y presta atención al resto,
y obtendrás un sentido general de cómo funciona esto.
Entonces, en este caso, si cambiamos el peso por +1,
el error cambia por -2,
que nos da una pendiente de menos dos.
Eso nos dice la dirección
que debemos ajustar nuestro peso
y cuánto debemos ajustarlo
para bajar el error
Ahora para hacer esto, debes saber
cuál es tu función de error
Así que supongamos que tenemos la función de error
ese era el cuadrado del peso.

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Y puedes ver que nuestro peso está correcto a -1.
Entonces, lo primero que hacemos es tomar la derivada,
cambio en error dividido por cambio en peso, DE / DW.
La derivada de peso al cuadrado es dos veces el peso
y entonces conectamos nuestro peso de -1
y obtenemos una pendiente DE / DW de menos dos.
Ahora el otro truco
eso nos permite hacer esto con redes neuronales profundas
está encadenando
Y para mostrarte cómo funciona esto
imaginar una red neuronal trivial muy simple
con solo una capa oculta,
una capa de entrada, una capa de salida
y un peso conectando a cada uno de ellos.
Entonces es obvio ver
que el valor Y
es solo el valor X veces el peso que los conecta.
W1.
Entonces, si cambiamos W1 un poco,
simplemente tomamos la derivada de Y con respecto a W1,
que obtenemos X, la pendiente es X.
Si cambio W1 por un poco

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
E você pode ver que nosso peso está correto em -1.
Então a primeira coisa que fazemos é pegar a derivada,
mudança no erro dividido pela mudança no peso, DE / DW.
A derivada do peso ao quadrado é duas vezes o peso
e assim nós colocamos nosso peso de -1
e temos uma inclinação DE / DW de menos dois.
Agora o outro truque
que nos permite fazer isso com redes neurais profundas
está encadeando.
E para mostrar como isso funciona
imagine uma rede neural trivial muito simples
com apenas uma camada oculta
uma camada de entrada, uma camada de saída
e um peso conectando cada um deles.
Então é óbvio ver
que o valor Y
é apenas o valor X vezes o peso que os conecta.
W1
Então, se mudarmos o W1 um pouco,
nós apenas pegamos a derivada de Y em relação a W1,
que temos X, a inclinação é X.
Se eu mudar o W1 um pouquinho

English: 
And you can see that our weight is right at -1.
So the first thing we do is we take the derivative,
change in error divided by change in weight, DE/DW.
The derivative of weight squared is two times the weight
and so we plug in our weight of -1
and we get a slope DE/DW of minus two.
Now the other trick
that lets us do this with deep neural networks
is chaining.
And to show you how this works
imagine a very simple trivial neural network
with just one hidden layer,
one input layer, one output layer
and one weight connecting each of them.
So it's obvious to see
that the value Y
is just the value X times the weight connecting them.
W1.
So if we change W1 a little bit,
we just take the derivative of Y with respect to W1,
that we get X, the slope is X.
If I change W1 by a little bit

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
А как вы видите, наш вес ровно на -1.
Поэтому первое, что мы делаем, это вычисляем производную,
изменение погрешности делить на изменение веса, DE/DW.
Производная от веса в квадрате -- это два умножить на вес,
то есть мы подставляем наш вес, -1,
и получаем наклон DE/DW равный минус двум.
Дальше ещё один приёмчик,
который помогает нам с глубокими нейросетями,
это сцепление.
Чтобы показать, как оно работает,
представьте очень простую тривиальную нейросеть
со всего одним скрытым слоем,
одним входным слоем, одним выходным слоем
и одним весом, соединяющим каждый из них.
Итак, явно видно,
что значение Y
получается простым перемножением X на вес, который их соединяет.
W1.
То есть, если мы меняем немножко W1,
мы просто берём производную Y по W1,
и получаем X, наклон будет X.
Если я изменю немного W1,

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
then Y will change by X times the size of that adjustment.
Similarly for the next step.
You can see that E
is just the value Y times the weight W2.
And so when we calculate DE/DY it's just W2.
Because this network is so simple
we can calculate from one end to the other
X times W1 times W2 is the error E.
And so if we want to calculate
how much will the error change if I change W1,
we just take the derivative of that with respect to W1
and get X times W2.
So this illustrates, you can see here now,
that what we just calculated
is actually the product of our first derivative
that we took,
DY/DW1,
times the derivative for the next step,
the DE/DY,
multiplied together.

Portuguese: 
então Y mudará em X vezes o tamanho desse ajuste.
Da mesma forma para o próximo passo.
Você pode ver que E
é apenas o valor Y vezes o peso W2.
E quando calculamos DE / DY é apenas W2.
Porque esta rede é tão simples
podemos calcular de um lado para o outro
X vezes W1 vezes W2 é o erro E.
E então, se quisermos calcular
quanto vai o erro mudar se eu mudar W1,
nós apenas tomamos a derivada disso em relação ao W1
e obtenha X vezes W2.
Então isso ilustra, você pode ver aqui agora,
que acabamos de calcular
é na verdade o produto do nosso primeiro derivado
que pegamos
DY / DW1,
vezes a derivada da próxima etapa,
o DE / DY,
multiplicado juntos.

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
entonces Y cambiará X veces el tamaño de ese ajuste.
Del mismo modo para el siguiente paso.
Puedes ver que E
es solo el valor Y multiplicado por el peso W2.
Entonces, cuando calculamos DE / DY, solo es W2.
Porque esta red es tan simple
podemos calcular de un extremo al otro
X veces W1 por W2 es el error E.
Y entonces si queremos calcular
cuánto cambiará el error si cambio W1,
acabamos de tomar la derivada de eso con respecto a W1
y obtener X veces W2.
Así que esto ilustra, puedes ver aquí ahora,
que lo que acabamos de calcular
es en realidad el producto de nuestra primera derivada
que tomamos,
DY / DW1,
veces la derivada para el siguiente paso,
el DE / DY,
multiplicados juntos.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
тогда Y изменится на X умножить на величину моего изменения.
Точно также на следующем шаге.
Можно видеть, что E
получается перемножением Y на вес W2.
А поэтому, когда мы вычисляем DE/DY, получаем просто W2.
Из-за того, что эта сеть такая простенькая,
мы можем просчитать всё от начала до конца.
X на W1, на W2 даёт погрешность E.
Так что, если мы хотим вычислить то,
насколько изменится погрешность при изменении W1,
то мы просто берём производную от этого по W1
и получаем X на W2.
Это показывает, что... вы можете видеть здесь,
что мы сейчас посчитали
на самом деле произведение нашей первой производной,
которую мы взяли,
DY/DW1,
и производной со следующего шага,
DE/DY,
помножили их друг на друга.

Spanish: 
Esto es encadenamiento
Puedes calcular la pendiente de cada pequeño paso
y luego multiplicar todos esos juntos
para obtener la pendiente de la cadena completa ...
la derivada de la cadena completa.
Entonces, en una red neuronal más profunda
cómo se vería esto
si quiero saber
cuánto cambiará el error
si ajusto un peso que está en lo profundo de la red,
Solo calculo la derivada de cada pequeño pasito.
Todo el camino de vuelta
al peso que estoy tratando de calcular.
Y luego multiplíquelos todos juntos.
Esto computacionalmente es muchas veces más barato
de lo que teníamos que hacer antes
de volver a calcular el error para toda la red neuronal
por cada peso
Ahora, en la red neuronal que hemos creado
hay varios tipos de
propagación de vuelta que tenemos que hacer.
Hay varias operaciones que tenemos que hacer.
Para cada uno de esos

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Isso está encadeando.
Você pode calcular a inclinação de cada pequeno passo
e depois multiplicar todos juntos
para obter a inclinação da cadeia completa ...
a derivada da cadeia completa.
Então, em uma rede neural mais profunda
o que isso seria parece
se eu quiser saber
quanto o erro vai mudar
se eu ajustar um peso que está no fundo da rede,
Acabei de calcular a derivada de cada minúsculo passo.
Todo o caminho de volta
para o peso que estou tentando calcular.
E então multiplique-os todos juntos.
Isso computacionalmente é muitas vezes mais barato
do que o que tínhamos que fazer antes
de recalcular o erro para toda a rede neural
para cada peso.
Agora, na rede neural que criamos
existem vários tipos de
propagação de volta nós temos que fazer.
Existem várias operações que temos que fazer.
Para cada um daqueles

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
This is chaining.
You can calculate the slope of each tiny step
and then multiply all of those together
to get the slope of the full chain...
the derivative of the full chain.
So in a deeper neural network
what this would look like is
if I want to know
how much the error will change
if I adjust a weight that's deep in the network,
I just calculate the derivative of each tiny little step.
All the way back
to the weight that I'm trying to calculate.
And then multiply them all together.
This computationally is many many times cheaper
than what we had to do before
of recalculating the error for the whole neural network
for every weight.
Now, in the neural network that we've created
there are several types of
back propagation we have to do.
There are several operations we have to do.
For each one of those

Russian: 
Это и есть сцепление.
Вы можете вычислить наклон для каждого маленького шага,
а потом перемножить их все,
чтобы получить наклон для всей цепочки...
производную для всей цепочки.
То есть в более глубокой нейросети,
это будет выглядеть таким образом:
если я хочу узнать,
насколько изменится погрешность,
если я поменяю вес где-то в глубине сети,
то я просто посчитаю производные на каждом маленьком шаге.
Одну за одной
до веса, который я пытаюсь посчитать.
А потом перемножу их все.
Для вычислений это во много-много раз дешевле,
чем то, что мы пытались сделать раньше,
пересчитывая погрешность для всей нейросети
для каждого веса.
Дальше, в нейронной сети, которую мы создали,
есть несколько видов обратного распространения,
которые нужно сделать.
Несколько операций, которые нужно выполнить.
Для каждой из них

Russian: 
мы должны уметь вычислять наклон.
Итак, первый -- это просто взвешенная связь
между двумя нейронами А и B.
Допустим, мы знаем
изменение погрешности относительно B.
Мы хотим узнать
изменение погрешности относительно А.
Чтобы сделать это нам нужно знать DB/DA.
И чтобы получить его, просто пишем
отношение между B и A.
Взяв производную от B по A,
получаем вес W,
и теперь мы знаем, как выполнить этот шаг.
Мы знаем как выполнить этот маленький кусочек
обратного распространения.
Другой элемент, который мы видели -- это суммирование.
Все наши нейроны складывают множество входов.
Для выполнения этого шага обратного распространения,
сделаем то же самое.
Запишем наше выражение,
а потом возьмём производную нашего узла Z
по шагу,
к которому идёт распространение, по A.

Spanish: 
tenemos que ser capaces de calcular la pendiente.
Entonces, para el primero solo es una conexión ponderada
entre dos neuronas A y B.
Entonces asumamos que sabemos
el cambio en el error con respecto a B.
Queremos saber
el cambio en el error con respecto a A.
Para llegar allí necesitamos saber DB / DA.
Entonces, para obtener eso solo escribimos
la relación entre B y A.
Tome la derivada de B con respecto a A
obtienes el peso W
y ahora sabemos cómo hacer ese paso.
Sabemos cómo hacer esa pequeña pepita
de propagación hacia atrás
Otro elemento que hemos visto son las sumas.
Todas nuestras neuronas resumen muchas entradas.
Para tomar este paso de propagación de regreso
hacemos lo mismo
Escribimos nuestra expresión
y luego tomamos la derivada de nuestro punto final Z
con respecto a un paso
que estamos propagando a A.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
we have to be able to calculate the slope.
So for the first one is just a weighted connection
between two neurons A and B.
So let's assume we know
the change in error with respect to B.
We want to know
the change in error with respect to A.
To get there we need to know DB/DA.
So to get that we just write
the relationship between B and A.
Take the derivative of B with respect to A
you get the weight W
and now we know how to make that step.
We know how to do that little nugget
of back propagation.
Another element that we've seen is sums.
All of our neurons sum up a lot of inputs.
To take this back propagation step
we do the same thing.
We write our expression
and then we take the derivative of our endpoint Z
with respect to a step
that we are propagating to A.

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
temos que ser capazes de calcular a inclinação.
Então, para o primeiro é apenas uma conexão ponderada
entre dois neurônios A e B.
Então vamos supor que sabemos
a mudança de erro em relação a B.
Nós queremos saber
a mudança de erro em relação a A.
Para chegar lá, precisamos conhecer o DB / DA.
Então para conseguir isso nós apenas escrevemos
a relação entre B e A.
Pegue a derivada de B em relação a A
você tem o peso W
e agora sabemos como dar esse passo.
Nós sabemos como fazer essa pequena pepita
de propagação de volta.
Outro elemento que vimos é somas.
Todos os nossos neurônios somam muitas entradas.
Para levar este passo de propagação de volta
nós fazemos a mesma coisa.
Nós escrevemos nossa expressão
e depois pegamos a derivada do nosso endpoint Z
com respeito a um passo
que estamos nos propagando para A.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
E DZ / DA, neste caso, é apenas 1.
O que faz sentido
se temos uma soma de um monte de elementos,
nós aumentamos um desses elementos em um,
esperamos que a soma aumente em um.
Essa é a definição de um declive de um.
Relação um-para-um lá.
Outro elemento que temos,
que precisamos ser capazes de retroceder
é a função sigmóide.
Então este é um pouco mais interessante matematicamente.
Vou apenas escrever uma abreviação como essa, a função sigma.
É totalmente viável passar por
e tomar a derivada deste analiticamente
e calcule.
Acontece que esta função tem uma boa propriedade
que para obter o seu derivado
você apenas multiplica por um menos.
Então, isso é muito simples de calcular.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
And DZ/DA in this case is just 1.
Which make sense
if we have a sum of a whole bunch of elements,
we increase one of those elements by one,
we expect the sum to increase by one.
That's the definition of a slope of one.
One-to-one relation there.
Another element that we have,
that we need to be able to back propagate
is the sigmoid function.
So this one's a little bit more interesting mathematically.
I'll just write it shorthand like this, the sigma function.
It is entirely feasible to go through
and take the derivative of this analytically
and calculate it.
It just so happens that this function has a nice property
that to get its derivative
you just multiply it by one minus itself.
So this is very straightforward to calculate.

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
Y DZ / DA en este caso es solo 1.
Lo cual tiene sentido
si tenemos una suma de un montón de elementos,
aumentamos uno de esos elementos por uno,
esperamos que la suma aumente en uno.
Esa es la definición de una pendiente de uno.
Relación uno-a-uno allí.
Otro elemento que tenemos,
que tenemos que ser capaces de propagar hacia atrás
es la función sigmoidea.
Entonces esto es matemáticamente un poco más interesante.
Simplemente escribiré una notación como ésta, la función sigma.
Es completamente factible pasar por
y tomar la derivada de esto analíticamente
y calcularla.
Da la casualidad de que esta función tiene una buena propiedad
que para obtener su derivada
simplemente multiplícalo por uno menos.
Entonces esto es muy directo de calcular.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
И DZ/DA в этом случае будет просто 1.
В этом есть смысл.
Если мы складываем несколько элементов,
то при увеличении одного из них на единицу,
мы ждём, что и сумма увеличится на единицу.
Это определение наклона в единицу.
Здесь отношение один к одному.
Ещё один наш элемент, через который
нам надо уметь проводить обратное распространение,
это сигмоида.
Тут более интересная математика.
Я для краткости запишу так, функция сигма.
Довольно легко взять
и вывести её производную аналитически,
а потом вычислить её.
Так вышло потому, что эта функция имеет хорошее свойство,
чтобы получить её производную,
просто умножьте её на единицу минус саму себя.
В общем это очень легко считается.

Spanish: 
Otro elemento que hemos usado
es la unidad lineal rectificada.
Nuevamente para descubrir cómo propagar esto de regreso
simplemente escribimos la relación
B es igual a A si if es positivo, de lo contrario es cero.
Y por partes para cada uno de los que tomamos la derivada.
Entonces DB / DA es uno si a es positivo o cero.
Y así con todos estos
pequeños pasos de propagación hacia atrás
y la capacidad de encadenarlos
podemos calcular el efecto
de ajustar cualquier peso dado en el error
para cualquier entrada dada.
Y así entrenar entonces.
Comenzamos con una red completamente conectada.
No sabemos cuál debería ser ninguno de estos pesos.
Y entonces les asignamos todos los valores aleatorios.
Creamos una red neuronal aleatoria completamente arbitraria.
Ponemos una entrada

Russian: 
Следующий элемент, который у нас был
-- это выпрямленная линейная функция.
И снова, чтобы понять как выполнить обратное распространение,
мы запишем отношение:
B равно A, если оно положительное, а иначе -- нуль.
И от каждого из них возьмём производную.
Итак, DB/DA либо единица, если положительное, либо нуль.
Таким образом все эти
небольшие шаги обратного распространения
с возможностью сцеплять их друг с другом,
дают нам возможность вычислять эффект
на погрешность от изменения любого из весов
для любых заданных входных данных.
И потом обучать нейросеть.
Мы начинаем с полностью связанной сети.
Мы не знаем, какими должны быть все эти веса.
Поэтому просто присваиваем им случайные значения.
Мы делаем полностью произвольную случайную нейронную сеть.
Подаём входные данные,

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
Outro elemento que usamos
é a unidade linear retificada.
Mais uma vez para descobrir como voltar a propagar este
nós apenas escrevemos a relação
B é igual a A se a for positivo, caso contrário, é zero.
E por partes para cada um desses nós tomamos a derivada.
Então DB / DA é um, se a é positivo ou zero.
E assim com todos esses
pequenos passos de propagação para trás
e a capacidade de encadeá-los juntos
podemos calcular o efeito
de ajustar qualquer peso determinado no erro
para qualquer entrada dada.
E então treinar então.
Começamos com uma rede totalmente conectada.
Nós não sabemos o que qualquer desses pesos deve ser.
E então nós atribuímos a eles todos os valores aleatórios.
Criamos uma rede neural aleatória completamente arbitrária.
Nós colocamos em uma entrada

English: 
Another element that we've used
is the rectified linear unit.
Again to figure out how to back propagate this
we just write out the relation
B is equal to A if a is positive, otherwise it's zero.
And piecewise for each of those we take the derivative.
So DB/DA is either one if a is positive or zero.
And so with all of these
little back propagation steps
and the ability to chain them together
we can calculate the effect
of adjusting any given weight on the error
for any given input.
And so to train then.
We start with a fully connected network.
We don't know what any of these weights should be.
And so we assign them all random values.
We create a completely arbitrary random neural network.
We put in an input

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
that we know the answer to.
We know whether it's solid,
vertical, diagonal or horizontal.
So we know what truth should be
and so we can calculate the error.
Then...
we run it through calculate the error
and using back propagation
go through and adjust all of those weights
a tiny bit in the right direction.
And then we do that again
with another input,
and again with another input for...
If we can get away with it
many thousands or even millions of times.
And eventually all of those weights will gravitate,
they'll roll down that many dimensional valley
to a nice low spot in the bottom.
Where it performs really well
and does pretty close to truth on most of the images.
If we're really lucky
it will look like what we started with.

Portuguese: 
que sabemos a resposta para.
Nós sabemos se é sólido
vertical, diagonal ou horizontal.
Então, nós sabemos que verdade deve ser
e assim podemos calcular o erro.
Então...
nós corremos através do cálculo do erro
e usando a propagação de volta
passar e ajustar todos esses pesos
um pouquinho na direção certa.
E então fazemos isso de novo
com outra entrada,
e novamente com outra entrada para ...
Se pudermos nos safar
muitos milhares ou até milhões de vezes.
E eventualmente todos esses pesos irão gravitar,
eles vão rolar esse vale muitos dimensional
para um bom ponto baixo no fundo.
Onde ele se sai muito bem
e fica bem perto da verdade na maioria das imagens.
Se tivermos muita sorte
será parecido com o que começamos.

Russian: 
для которых уже знаем ответ.
Мы знаем сплошное ли оно, либо прямая
вертикальная, диагональная или горизонтальная.
То есть мы знаем, каким должен быть правильный ответ,
и поэтому можем вычислить погрешность.
Далее...
запускаем всё, вычисляем погрешность
и обратным распространением
проходим назад, подгоняя все эти веса
понемногу в правльную сторону.
А потом делаем это снова
с другими входными данными,
и ещё раз с другими данными, чтобы...
Мы можем провернуть это
несколько тысяч или даже миллионов раз.
И в конце концов все наши веса устаканятся,
они скатятся на дно нашей многомерной низины,
в самую нижнюю точку.
В этом состоянии сеть будет выдавать
отличные результаты очень близкие к правильным в большинстве случаев.
Если нам сильно повезёт,
то сеть будет похожа на ту, с которой мы начали.

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Spanish: 
de la que sabemos la respuesta a.
Sabemos si es sólido,
vertical, diagonal u horizontal.
Entonces, sabemos qué verdad debería ser
y entonces podemos calcular el error.
Entonces...
lo ejecutamos a través de calcular el error
y usando propagación hacia atrás
ir a través y ajustar todos esos pesos
un poquito en la dirección correcta.
Y luego lo hacemos de nuevo
con otra entrada,
y otra vez con otra entrada para ...
Si podemos salirnos con la nuestra
muchos miles o incluso millones de veces.
Y eventualmente todos esos pesos gravitarán,
rodarán por ese valle dimensional
a un buen punto bajo en el fondo.
Donde se desempeña realmente bien
y se acerca bastante a la verdad en la mayoría de las imágenes.
Si somos realmente afortunados
se verá como con lo que comenzamos.

Spanish: 
Con campos receptivos intuitivamente ... comprensibles
para esas neuronas
y una representación relativamente escasa
lo que significa que la mayoría de los pesos
son pequeños o cercanos a cero.
Eso no siempre resulta de esa manera.
Pero lo que no estamos garantizados
es que encontrará una muy buena representación de ...
ya sabes, lo mejor que puede hacer
ajustando esos pesos para acercarse lo más posible
a la respuesta correcta para todas las entradas.
Entonces, lo que hemos cubierto es solo una introducción muy básica
a los principios detrás de las redes neuronales.
No te he dicho lo suficiente
para poder salir y construir uno propio.
Pero si te sientes motivado para hacerlo
Lo animo mucho.
Aquí hay algunos recursos que te serán útiles.
Querrás ir y aprender sobre las neuronas sesgadas.
La deserción es una herramienta de capacitación útil.
Hay varios recursos disponibles
de Andrej Karpathy

Portuguese: 
Com intuitivamente ... campos receptivos compreensíveis
para aqueles neurônios
e uma representação relativamente esparsa
o que significa que a maioria dos pesos
são pequenos ou próximos de zero.
Isso nem sempre é assim.
Mas o que não estamos garantidos
é que vai encontrar uma boa representação de ...
você sabe, o melhor que pode fazer
ajustando esses pesos para chegar o mais perto possível
para a resposta certa para todas as entradas.
Então, o que nós cobrimos é apenas uma introdução muito básica
aos princípios por trás das redes neurais.
Eu não te contei o suficiente
para poder sair e construir um dos seus.
Mas se você está se sentindo motivado a fazê-lo
Eu altamente encorajo isso.
Aqui estão alguns recursos que você achará úteis.
Você vai querer ir e aprender sobre neurônios tendenciosos.
O dropout é uma ferramenta de treinamento útil.
Existem vários recursos disponíveis
de Andrej Karpathy

English: 
With intuitively... understandable receptive fields
for those neurons
and a relatively sparse representation
meaning that most of the weights
are small or close to zero.
That doesn't always turn out that way.
But what we aren't guaranteed
is it'll find a pretty good representation of...
you know, the best that it can do
adjusting those weights to get as close as possible
to the right answer for all of the inputs.
So what we've covered is just a very basic introduction
to the principles behind neural networks.
I haven't told you quite enough
to be able to go out and build one of your own.
But if you're feeling motivated to do so
I highly encourage it.
Here are a few resources that you'll find useful.
You'll want to go and learn about biased neurons.
Dropout is a useful training tool.
There are several resources available
from Andrej Karpathy

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Russian: 
С интуитивно... понятными рецептивными полями
наших нейронов
и относительно разреженным представлением,
то есть большая часть весов
будут либо маленькими, либо почти нулевыми.
Хотя так бывает не всегда.
Однако, нет гарантии,
что найдётся достаточно хорошее представление...
ну в смысле, наилучшая из возможных
настройка весов, дающая ответы самые близкие к правильным
для абсолютно всех входных данных.
Итак, я рассказал только вводные, самые простые
принципы, на которых строятся нейронные сети.
Это далеко не всё, что вам нужно,
чтобы пойти и сделать свою нейронную сеть.
Но если у вас есть желание это сделать,
я вас очень поддерживаю.
Вот несколько ресурсов, которые будут полезны.
Вам стоит пойти и узнать про смещающие нейроны.
Исключение -- очень полезный инструмент в обучении сетей.
Есть несколько ресурсов
от Андрея Карпатого,

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

French: 
 
 
 
 
 
 
 
 
 
 
 
 
 

Chinese: 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
who is an expert in neural networks
and great at teaching about it.
Also there's a fantastic article
called "The Black Magic of Deep Learning"
that just has a bunch of practical "from the trenches" tips
on how to get them working well.
If you found this useful,
I highly encourage you to visit my blog
and check out several other "how it works" style posts.
And the links for these slides you can get as well
to use however you like.
There's also link to them down in the comment section.
Thanks for listening.

Spanish: 
quién es un experto en redes neuronales
y excelente para enseñar sobre eso.
También hay un artículo fantástico
llamado "La Magia Negra del Aprendizaje Profundo"
que solo tiene un montón de consejos prácticos "desde las trincheras"
sobre cómo hacer que funcionen bien.
Si encontraste esto útil,
Te animo a que visites mi blog
y echa un vistazo a varias otras publicaciones de estilo "cómo funciona".
Y los enlaces para estas diapositivas también pueden obtenerse
para usar como quieras
También hay un enlace a ellos en la sección de comentarios.
Gracias por su atención.

Portuguese: 
 
 
 
 
 
 
 
 
 
 
 
 
 

Polish: 
 
 
 
 
 
 
 
 
 
 
 
 
 

Portuguese: 
quem é especialista em redes neurais
e ótimo em ensinar sobre isso.
Também há um artigo fantástico
chamado "A Magia Negra da Aprendizagem Profunda"
que só tem um monte de dicas práticas "das trincheiras"
sobre como fazê-los funcionar bem.
Se você achou isso útil,
Eu recomendo fortemente que você visite meu blog
e confira vários outros posts de estilo "como funciona".
E os links para esses slides você também pode obter
para usar como quiser.
Há também um link para eles na seção de comentários.
Obrigado pela atenção.

Russian: 
который отлично разбирается в нейронных сетях
и замечательно объясняет.
Ещё есть чудесная статья под названием
"Чёрная магия глубинного обучения",
в которой приводится множество практических советов, так сказать "с полей",
про то, как заставить всё работать хорошо.
Если видео оказалость для вас полезным,
я советуют посмотреть мой блог
и глянуть на некоторые другие заметки в стиле "как это работает".
Все показанные тут слайды тоже доступны,
можете взять их и использовать как пожелаете.
Ссылки на них можно найти в описании.
Спасибо за внимание.
