
English: 
Dear Fellow Scholars, this is Two Minute Papers
with Károly Zsolnai-Fehér.
A neural network is a very loose model of
the human brain that we can program in a computer,
or it's perhaps more appropriate to say
that it is inspired by our knowledge of the
inner workings of a human brain.
Now, let's note that artificial neural networks
have been studied for decades by experts,
and the goal here is not to show all aspects,
but one intuitive, graphical aspect that is
really cool and easy to understand.
Take a look at these curves on a plane. These
curves are a collection of points, and these
points you can imagine as images, sounds,
or any kind of input data that we try to learn.
The red and the blue curves represent two
different classes - the red can mean images
of trains, and the blue, for instance, images
of bunnies.
Now, after we have trained the network from
this limited data, which is basically a bunch
of images of of trains and bunnies, we will
get new points on this plane, new images,

Portuguese: 
Caros colegas, este é o Two Minute Papers com Károly Zsolnai-Fehér.
Uma rede neural é um modelo bastante simplificado do cérebro humano que pode ser programado em um computador,
ou talvez seja mais apropriado dizer que são inspirados no nosso conhecimento do
funcionamento interno do cérebro humano.
Deve-se lembrar que as redes neurais artificiais foram estudadas por décadas por especialistas
e o objetivo aqui não é mostrar todos os aspectos, apenas um aspecto intuitivo gráfico que é
bem interessante e fácil de entender.
Observe estas curvas em um plano. Estas curvas são uma coleção de pontos, e estes
pontos podem ser imagens, sons ou qualquer tipo de dados de entrada que estamos tentando entender.
As curvas vermelha e azul representam duas classes diferentes - a vermelha pode representar imagens
de trens e a azul, por exemplo, imagens de coelhos.
Uma vez que treinamos a rede a partir destes dados limitados, que são basicamente um punhado
de imagens de trens e coelhos, obtemos novos pontos neste plano, novas imagens,

German: 
Liebe Wissenschaftsfreunde, dies ist ein 2 Minuten Paper mit Károly Zsolnai-Fehér.
Ein neuronales Netzwerk ist ein sehr grobes Modell (der Funktionsweise) des menschlichen Gehirns, welches wir in einem Computer programmieren können
oder besser gesagt: es ist durch das Wissen inspiriert,
welches wir besitzen über die innere Funktionsweise des menschlichen Gehirns.
Lasst uns im Hinterkopf behalten, dass Neuronale Netzwerke seit Jahrzenten von Experten erforscht werden
und an dieser Stelle das Ziel nicht ist, alle Aspekte darzustellen, sondern nur einen intuitiven grafischen Zusammenhang aufzuzeigen,
welcher wirklich toll und einfach zu verstehen ist.
Beachte die 2 Kurven auf der Ebene. Diese Kurven sind eine Ansammlung von Punkten, welche
man sich vorstellen kann als Bilder, Töne oder jede andere Form des Inputs (Eingangsdaten), welchen wir versuchen zu lernen.
Die rote und die blaue Kurve repräsentieren 2 verschiedene Klassen - die rote kann für Bilder
von Zügen stehen und die blaue zum Beispiel für Bilder von Häschen
Nun, nachdem wir das Netzwerk mit dieser begrenzten Menge an Daten trainiert haben, welches im Grunde ein Haufen
Bilder von Zügen und Häschen umfasst, bekommen wir neue Datenpunkte auf dieser Ebene - also neue Bilder

German: 
und wir möchten wissen, ob diese neuen Bilder wie Züge oder wie Häschen aussehen.
Das ist, was der Algorithmus herausfinden soll.
Man nennt soetwas ein Klassifizierungsproblem, wofür eine einfache und schlechte Lösung wäre,
die Ebene einfach mit einer Geraden in 2 Hälften zu unterteilen. Bilder, welche sich auf der roten Hälfte liegen, werden
entsprechend der roten Klasse zugeordnet und die der blauen Hälfte der blauen Klasse. Nun kann man sehen,
das die rote Hälfte die blaue Linie schneidet, was bedeutet, dass einige Züge falsch eingeordnet werden
als Häschen.
Es scheint, dass wir die Klassen aus diesem Blickwinkel nicht perfekt separieren können
mittels einer Geraden.
Wie dem auch sei, wenn wir ein einfaches Neuronales Netzwerk verwenden, wird es uns dieses Resultat erzeugen. Aber hey, das ist
geschummelt, wir sprachen von einer Geraden. Das ist alles andere als eine Gerade.
Ein Schlüsselkonzept Neuronaler Netzwerke ist, dass sie eine innere Repräsentation des Datenmodells erzeugen
und versuchen dieses Problem in diesem Raum zu lösen. Was das intuitiv heißt, ist dass
der Algorithmus anfängt die Kurven zu transformieren und zu verzerren

Portuguese: 
e gostaríamos de saber se esta nova imagem se parece com um trem ou com um coelho. Isto
é o que o algoritmo deve descobrir.
E este é chamado um problema de classificação, para o qual uma solução simples e ruim seria
simplesmente cortar o plano pela metade com uma linha. As imagens pertencendo às regiões em vermelho serão
classificadas como a classe vermelha e as regiões azuis como a classe azul. Porém, observe como
a região vermelha invade a região azul, o que significa que alguns trens seriam erroneamente classificados
como coelhos.
Observando o problema deste ângulo, parece que não é possível separar as duas classes
de forma perfeita com uma linha reta.
No entanto, se utilizarmos uma rede neural simples, teremos este resultado. Ei! Mas isso é
trapacear, estávamos falando de linhas retas. Isso está longe de ser uma linha reta.
O conceito chave de redes neurais é que eles criam representações internas do modelo de
dados e tentam resolver o problema naquele espaço. O que isso representa intuitivamente é que
o algoritmo vai começar a transformar e distorcer estas curvas, onde suas formas começam

English: 
and we would like to know whether this new
image looks like a train or a bunny. This
is what the algorithm has to find out.
And this we call a classification problem,
to which a simple and bad solution would be
simply cutting the plane in half with a line.
Images belonging to the red regions will be
classified as the red class, and the blue
regions as the blue class. Now, as you see,
the red region cuts into the blue curve, which
means that some trains would be misclassified
as bunnies.
It seems that if we look at the problem from
this angle, we cannot separate the two classes
perfectly with a straight line.
However, if we use a simple neural network,
it will give us this result. Hey! But that's
cheating, we were talking about straight lines.
This is anything but a straight line.
A key concept of neural networks is that they
create an inner representation of the data
model and try to solve the problem in that
space. What this intuitively means, is that
the algorithm will start transforming and
warping these curves, where their shapes start

Portuguese: 
a mudar, e ele descobre que, se as distorções forem feitas corretamente, pode-se desenhar
uma linha para separar estas duas classes. Após desfazermos a distorção e transformarmos a linha
de volta ao problema original, ela parecerá uma curva. Legal, não é?
Estas são linhas, portanto, apenas em uma representação diferente do problema. Quem disse que a representação original
é a melhor maneira de resolver um problema?
Observe este exemplo com os espirais emaranhados. Podemos separá-los com uma linha?
Sem chance. Mas a resposta é - sem chance nesta representação. Mas se começarmos a
distorcê-los de forma correta, haverão estados em que eles podem ser separados facilmente.
Entretanto, existem regras neste jogo - por exemplo, não se pode simplesmente arrancar um
espiral daqui e colocá-lo em outro lugar. Estas transformações devem ser homeomorfismos,
que é um termo que matemáticos gostam de utilizar - intuitivamente quer dizer que as distorções
não são tão exageradas - de forma que não rasgamos estruturas importantes, e enquanto elas

English: 
changing, and it finds, that if we do well
with this warping step, we can actually draw
a line to separate these two classes. After
we undo this warping and transform the line
here back to the original problem, it will
look like a curve. Really cool, isn't it?
So these are lines, only in a different representation
of the problem. Who said that the original
representation is the best way to solve a
problem?
Take a look at this example with these entangled
spirals. Can we separate these with a line?
Not a chance. But the answer is - not a chance
with this representation. But if one starts
warping them correctly, there will be states
where they can easily be separated.
However, there are rules in this game - for
instance, one cannot just rip out one of the
spirals here and put it somewhere else. These
transformations have to be homeomorphisms,
which is a term that mathematicians like to
use - it intuitively means that that the warpings
are not too crazy - meaning that we don't
tear apart important structures, and as they

German: 
und es zeigt sich, dass wir, wenn wir es gut machen mit der Verzerrung der Kurven, wir schließlich eine Gerade
zeichnen können, um die beiden Klassen zu separieren. Nachdem wir die Rücktransofmation der Kurve auf
auf das ursprüngliche Problem zurück geführt haben, sieht es aus wie eine Kurve. Sehr schick, oder?
Das sind also Kurven, welche nur eine andere Repräsentation des Problems darstellen. Aber wer hat gesagt, dass
die originale Repräsentation der beste Weg ist das Problem zu lösen?
Sieh dir dieses Beispiel mit den miteinander verwobenen Spiralen an. Können wir diese mit einer Geraden separieren?
Keine Chance. Aber die Antwort ist: keine Chance mit dieser Repräsentation. Aber wenn wir anfangen
sie richtig zu verzerren, wird es Zustände geben, in denen wir sie einfach separieren können.
Aber natürlich gibt es Regeln bei diesem Spiel - zum Beispiel kann man keine Spirale einfach
herausreißen und woanders hinsetzen. Diese Transforamtionen müssen homöomorph (auch topologisch äquivalent) sein,
ein mathematischer Ausdruck, welcher intuitiv (sehr stark vereinfacht) besagt, dass diese Verzerrungen
nicht zu verrückt sein können - wir also wichtige Strukturen nicht zerreißen können; und solange sie intakt bleiben,

English: 
remain intact, the warped solution is still
meaningful with respect to the original problem.
Now comes the deep learning part. Deep learning
means that the neural network has multiple
of these hidden layers and can therefore create
much more effective inner representations
of the data. From an earlier episode, we've
seen in an image recognition task that as
we go further and further into the layers,
first we'll see an edge detector, and as a
combination of edges, object parts emerge,
and in the later layers, a combination of
object parts create object models.
Let's take a look at this example. We have
a bullseye here if you will, and you can see
that the network is trying to warp this to
separate it with a line, but in vain.
However, if we have a deep neural network,
we have more degrees of freedom, more directions
and possibilities to warp this data. And if
you think intuitively, if this were a piece
of paper, you could put your finger behind
the red zone and push it in, making it possible

German: 
ist die verzerrte Lösung immernoch aussagekräftig bezüglich des originalen Problems.
Nun kommen wir zum Teil des "Deep Learning". Deep Learning bedeutet, dass ein neuronales Netzwerk mehrere
dieser verborgene Schichten hat und deshalb wesentlich effektivere innere Repräsentationen erzeugt
von den Daten. In einer früheren Folge haben wir in einer Bilderkennungsaufgabe gesehen, dass
wenn wir tiefer und tiefer in die Schichten gehen, werden wir zuerst einen Kantendetektor sehen und dann aus einer
Kombinationen von Kanten, Objektteile  und in den obersten Schichten
erzeugt die Kombination dieser Objektteile ein Objektmodell.
Lasst uns einen Blick auf dieses Beispiel werfen. Wir haben hier, wenn man so möchte, die Mitte einer Zielscheibe und man kann sehen,
dass das Netzwerk versucht dieses so zu verzerren, um es mit einer Geraden zu teilen, scheitert aber daran.
Wie dem auch sei, wenn wir ein mehrschichtiges neuronales Netzerk haben, verfügen wir über mehr Freiheitsgrade, also mehr Richtungen
und Möglichkeiten um die Daten zu verzerren. Und wenn man intuitiv an die Sache heran geht, und dies wäre ein Stück Papier
so würde man einen Finger von hinten gegen den roten Bereich stoßen um es zu ermöglichen,

Portuguese: 
permanecem intactas, a solução distorcida ainda será importante para o problema original.
Agora vem a parte de "aprendizagem profunda". "Aprendizagem profunda" quer dizer que as redes neurais têm múltiplas
destas camadas escondidas e podem, portanto, criar representações internas muito mais eficientes
dos dados. De um episódio anterior, vimos uma tarefa de reconhecimento de imagem onde
quanto mais fundo íamos nas camadas, primeiro via-se um detector de bordas, e quando
combinavam-se as bordas, partes de objetos emergiam, e nas camadas finais, uma combinação de
partes de objetos criava modelos de objetos.
Vamos ver este exemplo. Temos um "alvo" aqui, e pode-se perceber
que a rede está tentando distorcê-lo para separá-lo com uma linha, em vão.
No entanto, se tivermos uma rede neural profunda, temos mais graus de liberdade, mais direções
e possibilidades para distorcer este dado. E se você pensar intuitivamente, se isto fosse um pedaço
de papel, você poderia colocar seu dedo atrás da parte vermelha e empurrá-la, fazendo possível

English: 
to separate the two regions with a line. Let's
take a look at a 1 dimensional example to
see better what's going on. This line is the
1D equivalent of the original problem, and
you see that the problem becomes quite trivial
if we have the freedom to do this transformation.
We can easily encounter cases where the data
is very severely tangled and we don't now
how good our best solution can be. There is
a very heavily academic subfield of mathematics,
called knot theory, which is the study of
tangling and untangling objects. It is subject
to a lot of snarky comments for not being
well, too exciting or useful. What is really
mind blowing is that knot theory can actually
help us study these kinds of problems and
it may ultimately end up being useful for
recognizing traffic signs and designing self-driving
cars.
Now, it's time to get our hands dirty! Let's
run a neural network on this dataset.

Portuguese: 
a separação das duas regiões com uma linha. Vamos olhar um exemplo unidimensional para
ver melhor o que está acontecendo. Esta linha é o equivalente 1D do problema original, e
pode-se perceber que o problema se torna bem trivial se tivermos a liberdade de fazer esta transformação.
Podemos facilmente encontrar casos onde os dados estão severamente emaranhados e não sabemos
o quão boa nossa melhor solução poderá ser. Existe um subcampo da matemática muito forte academicamente
denominado teoria dos nós, que é o estudo de emaranhar e desemaranhar (?) objetos. É recebido
com vários comentários engraçadinhos por não ser muito legal ou útil. O que é
impressionante é que a teoria dos nós pode nos ajudar a estudar estes tipos de problemas e
pode acabar sendo útil para reconhecer sinais de trânsito e desenvolver carros
autônomos.
Agora, está na hora de sujarmos nossas mãos! Vamos executar uma rede neural neste conjunto de dados.

German: 
dass die zwei Regionen mit einer Linie getrennt werden können. Lasst uns auf ein eindimensionales Beispiel schauen, um
besser zu erkennen was passiert. Diese Linie ist das 1D Äquivalent des originalen Problems und
du kannst erkennen, dass das Problem sehr trivial (einfach) wird, sofern wir die Freiheit hätten diese Transformation durchzuführen.
Wir können leicht Probleme ausmachen, wo Daten sehr verwoben ineinander sind und wir nicht wissen
wie gut unsere beste Lösung sein kann. Es gibt eine sehr komplizierte akademische Teildisziplin der Mathematik,
genannt Knotentheorie, welche die Untersuchung verwirrender und entworrener Objekte umfasst. Diese unterliegt
einer Menge abfälliger Kommentare, es wäre nicht gut, interessant oder nützlich. Was aber wirklich
unglaublich ist, dass die Knotentheorie uns tatsächlich helfen kann diese Art der Probleme zu untersuchen und
und vielleicht letzten Endes hilfreich ist zur Erkennung von Straßenschildern und uns ermöglicht
führerlose Autos zu entwerfen.
Nun ist es an der Zeit euch die Hände schmutzig zu machen! Lasst uns ein neuronales Netzwerk über diesen Datensatz laufen.

English: 
If we use a low number of neurons and one
layer, you can see that it is trying ferociously,
but we know that it is going to be a fruitless
endeavor. Upon increasing the number of neurons,
magic happens. And we now know exactly why! Yeah!
Thanks so much for watching and for your generous
support. I feel really privileged to have
supporters like you Fellow Scholars. Thank you, and I'll see you next time!

Portuguese: 
Se usarmos um número pequeno de neurônios e uma camada, observe que ele está tentando ferozmente,
mas sabemos que será um esforço infrutífero. Ao aumentar o número de neurônios,
a mágica acontece. E agora sabemos o por quê!
Muito obrigado por assistir e pelo generoso suporte. Me sinto privilegiado de ter
apoiadores como vocês. Obrigado, e te vejo na próxima!

German: 
Wenn wir eine geringe Zahl an Neuronen und nur eine Schichten verwenden, kannst du seine hartnäckigen Versuche sehen,
aber wir wissen, dass es ein vergebliches Unterfangen bleibt. Einmal die Zahl der Neuronen erhöht,
passier Magie! Und nun wissen wir genau warum! Yeah!
Vielen Dank fürs Ansehen und für deine großzügige Unterstützung. Ich fühle mich sehr geehrt, solche
Unterstützer wie euch zu haben. Vielen Dank und wir sehen uns beim nächsten Mal!
