
Italian: 
Cari Amici Studiosi, benvenuti a
'Pubblicazioni in Due Minuti' con Károly Zsolnai-Fehér.
Questo articolo viene dai ragazzi di Google DeepMind e riguarda l'insegnare a reti neurali ad essere
capaci di ragionamento relazionale.
Questo significa che possiamo mostrare all'algoritmo  un immagine e porgli una domanda relazionale
relativamente complessa.
Ad esempio, sa mostriamo questa immagine e chiediamo: "Di che colore è l'oggetto che
è più vicino all'oggetto blu?", risponderebbe "Rosso".
Questo è un problema particolarmente difficile perché tutto ciò a cui ha accesso l'algoritmo è un mucchio
di pixels.
In programmazione, è quasi impossibile esprimere matematicamente che in un'immagine qualcosa
è sotto, o vicino a qualcos'altro, specialmente in scene tridimensionali.
Oltre ad una lista di colori, questo richiede un comprensione cognitiva dell'intera immagine.
Questo è qualcosa in cui noi umani siamo bravissimi, ma gli algoritmi sono pessimi
per questo tipo di lavoro.

English: 
Dear Fellow Scholars, this is Two Minute Papers
with Károly Zsolnai-Fehér.
This paper is from the Google DeepMind guys,
and is about teaching neural networks to be
capable of relational reasoning.
This means that we can present the algorithm
with an image and ask it relatively complex
relational questions.
For instance, if we show it this image and
ask "What is the color of the object that
is closest to the blue object?", it would
answer "red".
This is a particularly difficult problem because
all the algorithm has access to is a bunch
of pixels.
In computer code, it is near impossible to
mathematically express that in an image, something
is below or next to something else, especially
in 3 dimensional scenes.
Beyond a list of colors, this requires a cognitive
understanding of the entirety of the image.
This is something that we humans are amazingly
good at, but computer algorithms are dreadful
for this type of work.

Portuguese: 
Caros amigos estudantes, este é Two Minute Pepers com Károly Zsolnai-Fehér.
Este artigo é dos caras Google DeepMind,
e é sobre o ensino de redes neurais para ser
capaz de raciocínio relacional.
Isto significa que podemos apresentar ao algoritmo uma imagem e fazer perguntas relacionais
relativamente complexas.
Por exemplo, se nós lhe mostramos 
esta imagem e perguntamos:
"Qual é a cor do objeto 
que está mais próximo do objeto azul?",
Ele responderia "vermelho".
Este é um problema particularmente difícil porque
tudo o algoritmo tem acesso é um bocado
de pixels.
Em código de computador, é quase impossível
matematicamente expressar que em uma imagem, algo
está abaixo ou ao lado de outra coisa, especialmente
em cenas tridimensionais.
Além de uma lista de cores, isto requer uma compreensão cognitiva da totalidade da imagem.
Isso é algo em que nós, seres humanos somos incrivelmente bons,
mas algoritmos de computador são terríveis 
para este tipo de trabalho.

Portuguese: 
É quase como ensinar senso comum
 para um algoritmo de aprendizagem.
Isto foi realizado através do aumento 
de uma rede neural já existente
com um módulo de rede relacional.
Isso é implementado em cima de uma 
rede neural recorrente que chamamos de longa memória de curto-prazo
ou Long Short-Term Memory LSTM, que é capaz de processar sequencias de informação, por exemplo, uma sentença de entrada.
Os estudantes mais experientes sabem que
nós falamos sobre LSTMs em episódios anteriores,
e, claro, como sempre, a descrição do vídeo
contém esses episódios para sua diversão.
Certifique-se de conferir os artigos, você vai adorar.
Como você pode ver, 
este raciocínio relacional também funciona
para cenas tridimensionais.
Os resultados agregados no artigo mostram que
este método não só dá um grande salto a frente,
para as capacidades dos algoritmos já existentes,
mas, e agora, se segurem...
em muitos casos, ele também mostra um desempenho sobre-humano.

English: 
And this work almost feels like teaching common
sense to a learning algorithm.
This is accomplished by augmenting and already
existing neural network with a relational
network module.
This is implemented on top of a recurrent
neural network that we call long short-term
memory or LSTM, that is able to process sequences
of information, for instance, an input sentence.
The more seasoned Fellow Scholars know that
we've talked about LSTMs in earlier episodes,
and of course, as always, the video description
contains these episodes for your enjoyment.
Make sure to have a look, you'll love it.
As you can see in this result, this relational
reasoning also works for three dimensional
scenes as well.
The aggregated results in the paper show that
this method is not only leaps and bounds beyond
the capabilities of already existing algorithms,
but, and now, hold on to your papers - in
many cases, it also shows superhuman performance.

Italian: 
E questo lavoro sembra quasi come insegnare il buon senso ad un algoritmo di apprendimento.
Questo è compiuto potenziando una rete neurale preesistente con un modulo
di rete relazionale.
Questo è implementato sopra una rete neurale ricorsiva che chiamiamo "memoria a breve-lungo temine"
o LSTM, che è in grado di analizzare sequenza di informazioni, ad esempio, una frase in input.
Gli Amici Studiosi più vecchi sanno che abbiamo parlato di LSTM in episodi precedenti,
e ovviamente, come sempre, la descrizione del video contiene questi episodi per il vostro divertimento.
Assicuratevi di dare uno sguardo, lo amerete.
E come puoi vedere in questi risultati, questo ragionamento relazionale funziona anche per scene
tridimensionali.
I risultati aggregati nell'articolo mostrano che questo metodo non solo è a un passo da gigante oltre
le capacità degli algoritmi preesistenti, ma,
e ora tenetevi stretti alle vostre carte
in molti casi mostra anche capacità sovraumane.

Portuguese: 
Eu adoro ver esses gráficos dos artigos de aprendizado de máquina onde vários algoritmos de aprendizagem e
seres humanos são comparados nas mesmas tarefas.
Este artigo mal foi publicada e já há
uma primeira implementação pública, não-oficial,
e dois trabalhos de pesquisa já referenciaram isto.
Esta é uma grande prova do ritmo incrível em que pesquisas de aprendizagem de máquina acontecem.
Dizer que é competitivo seria um enorme eufemismo.
Alcançar resultados de alta qualidade em raciocínio relacional é um pilar importante para
alcançar a inteligência artifical geral, e embora
há ainda muito, muito mais a fazer, hoje
é um daqueles dias em que podemos sentir que
nós somos uma parte do futuro.
Os casos de falha também são relatados no artigo e são definitivamente dignos
de seu tempo e atenção.
Quando eu pedi permissão para cobrir este artigo na série, todos os três cientistas do DeepMind
prontamente responderam sim dentro de 30 minutos.
Isso é inacreditavel.
Obrigado rapazes!

Italian: 
Amo vedere questi grafici nelle pubblicazioni di apprendimento macchina dove numerosi algoritmi e
gli umani sono parametri di riferimento per lo stesso compito.
Questo articolo a malapena ha fatto in tempo ad uscire che c'è già una prima implementazione pubblica non ufficiale
e due articoli di ricerca ne hanno già fatto riferimento.
Questa è una testimonianza dell'incredibile ritmo della ricerca nell'apprendimento macchina.
Dire che è competitiva sarebbe un enorme sottovalutazione.
Ottenere risultati di alta qualità nel ragionamento relazionale è un'importante pietra angolare per
ottenere l'intelligenza in in generale, e anche se c'è molto, molto altro da fare, oggi
è uno di quei giorni in cui possiamo sentirci parte del futuro.
I casi di fallimento sono anch'essi riportati nell'articolo e meritano decisamente il tuo tempo
e attenzione.
Quando ho chiesto il permesso per coprire questa pubblicazione nella serie tutti e tre gli scienziati
da DeepMind mi hanno felicemente risposto di sì nel giro di mezz'ora.
E' incredibile.
Grazie ragazzi!

English: 
I love seeing these charts in machine learning
papers where several learning algorithms and
humans are benchmarked on the same tasks.
This paper was barely published and there
is already a first, unofficial public implementation
and two research papers have already referenced
it.
This is such a great testament to the incredible
pace of machine learning research these days.
To say that it is competitive would be a huge
understatement.
Achieving high quality results in relational
reasoning is an important cornerstone for
achieving general intelligence, and even though
there are still much, much more to do, today
is one of those days when we can feel that
we're a part of the future.
The failure cases are also reported in the
paper and are definitely worthy of your time
and attention.
When I asked for permissions to cover this
paper in the series, all three scientists
from DeepMind happily answered yes within
30 minutes.
That's unbelievable.
Thanks guys!

English: 
Also, some of these questions sound like ones
that we would get in the easier part of an
IQ test.
I wouldn't be very surprised to see a learning
algorithm complete a full IQ test with flying
colors in the near future.
If you enjoyed this episode, and you feel
that 8 of these videos a month is worth a
dollar, please consider supporting us on Patreon.
This way, we can make better videos for your
enjoyment.
We've recently reached a new milestone, which
means that part of these funds will be used
to empower research projects.
Details are available in the video description.
Thanks for watching and for your generous
support, and I'll see you next time.

Italian: 
Inoltre, alcune di queste domande suonano come quelle che avresti nella parte più semplice di un
test per il QI. (quoziente intellettivo)
Non sarei molto sorpreso di vedere un algoritmo di apprendimento completare un intero test per il QI
in modo eccellente, nel prossimo futuro.
Se hai apprezzato questo episodio, e senti che otto di questi video al mese valgono un
dollaro, per favore considera di supportarci su Patreon.
In questo modo possiamo fare video migliori per il vostro godimento.
Abbiamo raggiunto recentemente una nuova pietra miliare, il che significa che parte di questi fondi verranno usati
per finanziare progetti di ricerca.
I dettagli sono disponibili nella descrizione del video.
Grazie per la visione e per il generoso supporto, ci vediamo al prossimo video!

Portuguese: 
Além disso, algumas destas questões parecem como aquelas que respondemos nas partes fáceis de
um teste de QI.
Eu não ficaria muito surpreso ao ver um algoritmo completar um teste de QI completo e ser aprovado
com excelência em um futuro próximo.
Se você gostou deste episódio, e sente que oito desses vídeos por mês valem um dólar,
por favor considerem apoiar-nos no Patreon.
Desta forma, podemos fazer melhores vídeos para sua apreciação.
Chegamos recentemente a um novo marco, que significa que parte desses fundos serão usados
para apoiar projetos de pesquisa.
Os detalhes estão disponíveis na descrição do vídeo.
Obrigado por assistir e por seu generoso apoio, e eu vou ver você na próxima.
