
English: 
Dear Fellow Scholars, this is Two Minute Papers
with Károly Zsolnai-Fehér.
I just finished reading this paper and I fell
out of the chair.
And I can almost guarantee you that the results
in this work are so insane, you will have
to double, or even triple check to believe
what you're going to see here.
This one is about image translation, which
means that the input is an image, and the
output is a different version of this input
image that is changed according to our guidelines.
Imagine that we have a Monet painting, and
we'd like to create a photograph of this beautiful
view.
There we go.
What if we'd like to change this winter landscape
to an image created during the summer?
There we go.
If we are one of those people on the internet
forums who just love to compare apples to
oranges, this is now also a possibility.
And have a look at this - imagine that we
like the background of this image, but instead
of the zebras, we would like to have a couple
of horses.

Italian: 
Cari Amici Studiosi, benvenuti a
'Pubblicazioni in Due Minuti' con Károly Zsolnai-Fehér.
Ho appena finito di leggere questo articolo e sono caduto dalla sedia.
Posso garantirti che i risultati di questo lavoro sono così folli che dovrai controllare due volte
o anche tre per credere a quello che vedrai.
Esso riguarda la transizione  di immagini, significa che l'input è un'immagine e
l'output è una versione diversa di questa immagine di input,  modificata secondo le nostre direttive
Immagina di avere un dipinto di Monet e di voler creare una fotografia di questa bellissima vista
Ecco qua.
E se volessimo cambiare questo paesaggio invernale in un'immagine ottenuta d'estate?
Ecco fatto.
Se fossimo una di quelle persone nei forum di internet che ama paragonare le mele
e le arance, ora puoi fare ciò.
E guarda questo, metti che ci piace lo sfondo di questa immagine
ma, al posto delle zebre, vorremmo avere una coppia di cavalli.

French: 
Chers Collègues Chercheurs, vous regardez Two Minute Papers 
avec Károly Zsolnai-Fehér.
Je viens juste de finir de lire de cette publication, et je suis tombé
de ma chaise.
Et je peux presque vous garantir que les résultats de ces travaux sont si déments, que vous devrez
vérifier deux, voire trois fois pour croire ce que vous allez voir.
Celui-ci est au sujet de translation d'image, ce qui
signifie que l'entrée est une image, et
la sortie est une version différente de cette image qui est modifiée en fonction de nos instructions.
Imaginez qu'on ai un tableau de Monet, et que nous aimerions créer une photographie de cette belle
vue.
Voilà.
Et si nous aimerions changer ce paysage d'hiver en une image créée pendant l'été?
Voilà.
Si nous faisons partie de ces personnes sur les forums internet qui adorent comparer les pommes aux
oranges, c'est maintenant aussi une possibilité.
Regardez ça. Imaginez qu'on aime l'arrière-plan de cette image, mais au lieu
des zèbres, nous aimerions avoir des chevaux.

English: 
No problem.
Coming right up!
This algorithm synthesizes them from scratch.
The first important thing we should know about
this technique, is that it uses generative
adversarial networks.
This means that we have two neural networks
battling each other in an arms race.
The generator network tries to create more
and more realistic images, and these are passed
to the discriminator network which tries to
learn the difference between real photographs
and fake, forged images.
During this process, the two neural networks
learn and improve together until they become
experts at their own craft.
However, this piece of work introduces two
novel additions to this process.
One, in earlier works, the training samples
were typically paired.
This means that the photograph of a shoe would
be paired to a drawing that depicts it.
This additional information helps the training
process a great deal and the algorithm would
be able to map drawings to photographs.

French: 
Aucun problème.
Ça arrive tout de suite!
Cet algorithme les synthétise entièrement.
La première chose importante qu'on devrait savoir sur cette technique, est qu'elle utilise des
réseaux neuronaux opposés (GANs).
Cela signifie que nous avons deux réseaux de neurones
luttant l'un contre l'autre dans une course aux armements.
Le réseau générateur essaie de créer des images de plus en plus réalistes, et celles-ci sont données
au réseau discriminateur qui tente d'apprendre la différence entre des images réelles
et des images fausses, forgées.
Au cours de ce processus, les deux réseaux de neurones apprennent et s'améliorent ensemble jusqu'à ce qu'ils deviennent
des experts dans leurs domaines.
Cependant, ce travail présente deux nouveaux ajouts à ce processus.
Premièrement, dans les travaux précédents, les échantillons d'entraînement étaient généralement en paires.
Cela signifie que la photographie d'une chaussure serait
associée à un dessin qui la dépeint.
Ces informations supplémentaires aident beaucoup le processus d'apprentissage et l'algorithme serait
capable de transformer des dessins en photos.

Italian: 
Nessun problema.
Arriva subito!
Questo algoritmo le genera da zero.
La prima cosa importante da sapere di questa tecnica è che una reti
generativo-avversarie.
Significa che abbiamo due reti neurali che si sfidano l'una con l'altra in una prova di forza.
La rete generatrice prova a creare immagini sempre più realistiche e le passa
alla rete discriminante che prova a capire la differenza tra vere fotografie
e false immagini generate.
Durante questo processo le due reti neurali imparano e migliorano assieme finchè non diventano
esperte nei propri compiti.
Tuttavia, quest'opera introduce due nuove aggiunte a questo processo.
Uno: nei lavori precedenti i campioni di addestramento erano solitamente accoppiati.
Questo significa che la fotografia di una scarpa sarebbe stata associata al suo disegno.
Questa informazione addizionale facilita molto il processo di apprendimento e l'algoritmo era
in grado di collegare i disegni alle fotografie.

Italian: 
Tuttavia, una differenze chiave è che, senza tali accoppiamenti, non abbiamo bisogno di queste etichette
possiamo usare decisamente più campioni di addestramento nei nostri dataset, altra cosa che facilita
il processo di addestramento.
Se ciò è eseguito bene, questa tecnica è in grado di accoppiare qualsiasi coso a qualunque altra cosa
rendendola un algoritmo di potenza notevole.
Differenza numero due: è stata introdotta un funzione di perdita a consistenza ciclica al problema
di ottimizzazione.
Ciò significa che se convertiamo una foto estiva in un'immagine invernale e poi di nuovo ad un'immagine
estiva, dovremmo riottenere la stessa identica immagine.
Se il nostro sistema di addestramento segue questo principio, la qualità dell'output della transizione sarà
significativamente migliore.
Questa perdita a consistenza ciclica è introdotta come termine di regolazione.
I nostri Amici Studiosi veterani sanno già cosa significa, ma se non lo sai, ho
messo un link alla nostra spiegazione nella descrizione dle video.
L'articolo contiene una marea di altri risultati e, fortunatamente, il codice sorgente per questo progetto
è anch'esso disponibile.

French: 
Cependant, une différence clé est que sans ces appariements, on n'a pas besoin de ces étiquettes,
nous pouvons utiliser beaucoup plus d'échantillons d'entraînement dans nos ensembles de données, ce qui aide aussi
le processus d'apprentissage.
Si cela est bien mis en oeuvre, cette technique est capable de coupler quoi que ce soit à quoi que ce soit d'autre,
ce qui résulte en un algorithme remarquablement puissant.
Seconde différence clé : une fonction de perte de cohérence du cycle est introduite
au problème d'optimisation.
Cela signifie que si on convertit une image estivale en image hivernale, puis de retour estivale,
on obtiendra exactement la même image d'entrée en retour.
Si notre système d'apprentissage obéit à ce principe,
la qualité de sortie de la translation sera
significativement meilleure.
Cette perte de cohérence du cycle est introduite comme terme de régularisation.
Nos Collègues Chercheurs chevronnés savent déjà ce que cela signifie, mais au cas où vous ne se saviez pas, j'ai
mis un lien vers notre explication dans la description.
Le document contient des tas de résultats supplémentaires, et
heureusement, le code source de ce projet
est également disponible.

English: 
However, a key difference here is that without
such pairings, we don't need these labels,
we can use significantly more training samples
in our datasets which also helps the learning
process.
If this is executed well, the technique is
able to pair anything to anything else, which
results in a remarkably powerful algorithm.
Key difference number two - a cycle consistency
loss function is introduced to the optimization
problem.
This means that if we convert a summer image
to a winter image, and then back to a summer
image, we should get the very same input image
back.
If our learning system obeys to this principle,
the output quality of the translation is going
to be significantly better.
This cycle consistency loss is introduced
as a regularization term.
Our seasoned Fellow Scholars already know
what it means, but in case you don't, I've
put a link to our explanation in the video
description.
The paper contains a ton more results, and
fortunately, the source code for this project
is also available.

English: 
Multiple implementations, in fact!
Just as a side note, which is jaw dropping,
by the way - there is some rudimentary support
for video.
Amazing piece of work.
Bravo!
Now you can also see that the rate of progress
in machine learning research is completely
out of this world!
No doubt that it is the best time to be a
research scientist it's ever been.
If you've liked this episode, make sure to
subscribe to the series and have a look at
our Patreon page, where you can pick up cool
perks, like watching every single one of these
episodes in early access.
Thanks for watching and for your generous
support, and I'll see you next time!

Italian: 
Più di un'implementazione, a dire il vero!
Solo come nota aggiuntiva, che è strabiliante, tra l'altro,  c'è un supporto rudimentale per i video.
Fantastico lavoro.
Bravi!
Ora potete vedere anche voi come la velocità di progresso nella ricerca sull'apprendimento macchina è completamente
fuori dal mondo!
Non ci sono dubbi che questo è il miglior tempo per essere ricercatori scientifici che ci sia mai stato.
Se hai apprezzato questo video assicurati di iscriverti alla serie e dai uno sguardo alla
nostra pagina di Patreon, dove puoi ottenere vantaggi come il vedere ogni singolo
episodio in accesso anticipato.
Grazie per la visione e per il generoso supporto, ci vediamo al prossimo video!

French: 
De multiples implémentations multiples, même!
Juste en note secondaire, qui est à couper le souffle en passant - il y a un support rudimentaire
pour la vidéo.
Incroyable travaux.
Bravo!
Maintenant, vous pouvez aussi voir que le rythme de progression de l'apprentissage automatique
est complètement ahurissant!
Aucun doute que c'est le meilleur moment de l'histoire pour être un scientifique chercheur qu'il n'y ai jamais eu.
Si vous avez aimé cet épisode, assurez-vous de vous abonner à cette série et jetez un oeil à
notre page Patreon, où vous pouvez obtenir des avantages cools, comme pouvoir voir chacun de ces
épisodes à l'avance.
Merci d'avoir regardé et pour votre généreux soutien, et je vous retrouverais la prochaine fois!
