
English: 
Dear Fellow Scholars, this is Two Minute Papers
with Károly Zsolnai-Fehér.
In the last few years, we have seen a bunch
of new AI-based techniques that were specialized
in generating new and novel images.
This is mainly done through learning-based
techniques, typically a Generative Adversarial
Network, a GAN in short, which is an architecture
where a generator neural network creates new
images, and passes it to a discriminator network,
which learns to distinguish real photos from
these fake, generated images.
These two networks learn and improve together,
so much so that many of these techniques have
become so realistic that we often can’t
tell they are synthetic images unless we look
really closely.
You see some examples here from BigGAN, a
previous technique that is based on this architecture.
So in these days, many of us are wondering,
is there life beyond GANs?
Can they be matched in terms of visual quality
by a different kind of a technique?

Spanish: 
Estimados compañeros académicos, esto es "Artículos en dos minutos" con Károly Zsolnai-Fehér.
En los últimos años, hemos visto un montón de nuevas técnicas de IA que se han especializado
en generar imágenes nuevas y novedosas.
Esto se hace principalmente a través de técnicas basadas en aprendizaje, típicamente una red generativa antagónica
, una GAN en siglas, que es una arquitectura donde una red neuronal generativa crea nuevas imágenes
y las pasa a una red discriminadora,
que aprende a distinguir fotos reales de
estas imágenes falsas generadas.
Estas dos redes aprenden y mejoran al mismo tiempo, tanto así que muchas de estas técnicas se han vuelto
tan realistas que a menudo no podemos distinguir que son imágenes sintéticas
a menos que las observemos muy de cerca.
Puedes ver algunos ejemplos aquí de BigGAN, una técnica previa que se basa en esta arquitectura.
Así que ahora, muchos de nosotros nos preguntamos ¿hay vida más allá de las GANs?
¿Pueden ser igualadas en términos de calidad visual por una técnica diferente?

Spanish: 
Bueno, hecha un vistaso a este artículo, porque propone una arquitectura mucho más simple
que es capaz de generar imágenes convincentes y de alta resolución de forma rápida
para un montón de diferentes clases de objetos.
Los resultados que es capaz de producir son nada menos que asombrosos.
¡Sólo mira esto!
Para poder proceder a la idea clave aquí, primero tenemos que hablar de espacios latentes.
Puedes pensar en un espacio latente como una representación comprimida que trata de captar
la esencia del conjunto de datos que tenemos a la mano.
Aquí puedes ver un método similar de espacio latente en acción, capturando las características clave
que diferencian varios tipos de fuentes y presenta estas opciones en un plano 2D
Y aquí ves nuestra técnica que construye un espacio latente para modelar una amplia
gama de modelos de material fotorrealista.
Y ahora ¡a la idea clave prometida!
Como habrás adivinado, esta nueva técnica usa un espacio latente, lo que significa que en lugar de

English: 
Well, have a look at this paper, because it
proposes a much simpler architecture that
is able to generate convincing, high-resolution
images quickly for a ton of different object
classes.
The results it is able to churn out is nothing
short of amazing.
Just look at that!
To be able to proceed to the key idea here,
we first have to talk about latent spaces.
You can think of a latent space as a compressed
representation that tries to capture the essence
of the dataset that we have at hand.
You can see a similar latent space method
in action here that captures the key features
that set different kinds of fonts apart and
presents these options on a 2D plane, and
here, you see our technique that builds a
latent space for modeling a wide range of
photorealistic material models.
And now, onto the promised key idea!
As you have guessed, this new technique uses
a latent space, which means that instead of

English: 
thinking in pixels, it thinks more in terms
of these features that commonly appear in
natural photos, which also makes the generation
of these images up to 30 times quicker, which
is super useful, especially in the case of
larger images.
While we are at that, it can rapidly generate
new images with the size of approximately
a thousand by thousand pixels.
Machine learning is a research field that
is enjoying a great deal of popularity these
days, which also means that so many papers
appear every day it’s getting really difficult
to keep track of all of them.
The complexity of the average technique is
also increasing rapidly over time, and what
I like most about this paper is that it shows
us that surprisingly simple ideas can still
lead to breakthroughs.
What a time to be alive!
Make sure to have a look at the paper in the
description as it also describes how this
method is able to generate more diverse images
than previous techniques and how we can measure
diversity at all because that is no trivial
matter.

Spanish: 
pensar en píxeles, piensa más en términos de estas características que aparecen comúnmente en
fotos naturales, lo que también hace que la generaciónde estas imágenes sea hasta 30 veces más rápida, lo que
es super útil, especialmente en el caso de
imágenes más grandes.
Mientras estamos en eso, puede generar rápidamente nuevas imágenes con el tamaño de aproximadamente
mil por mil píxeles.
El aprendizaje de máquina es un campo de investigación que está disfrutando de una gran popularidad estos días,
lo que también significa que como muchos artículos aparecen todos los días, se está poniendo muy difícil
realizar un seguimiento de todos ellos.
La complejidad de la técnica promedio también incrementa rápidamente en el tiempo
y lo que más me gusta de este artículo es que nos muestra que ideas sorprendentemente simples
también pueden conducir a nuevos avances.
¡Qué momento para estar vivo!
Asegúrense de echar un vistazo al artículo en la descripción, ya que también describe cómo este
método es capaz de generar imágenes más diversas que las técnicas anteriores y cómo podemos medir
la diversidad porque eso no es un asunto trivial.

English: 
This episode has been supported by Weights
& Biases.
Weights & Biases provides tools to track your
experiments in your deep learning projects.
It is like a shared logbook for your team,
and with this, you can compare your own experiment
results, put them next to what your colleagues
did and you can discuss your successes and
failures much easier.
It takes less than 5 minutes to set up and
is being used by OpenAI, Toyota Research,
Stanford and Berkeley.
In fact, it is so easy to add to your project,
the CEO himself, Lukas instrumented it for
you for this paper, and if you look here,
you can see how the output images and the
reconstruction error evolve over time and
you can even add your own visualizations.
It is a sight to behold, really, so make sure
to check it out in the video description,

Spanish: 
Este episodio ha sido patrocinado por "Weights & Biases"
"Weights & Biases" proporciona herramientas para mantener un registro en tus proyectos de aprendizaje profundo.
Es como un libro de registro compartido para tu equipo, y con esto, puedes comparar tus propios
resultados, ponerlos al lado de los de tus colegas y puedes discutir tus éxitos y
tus fracasos mucho más fácil
Tarda menos de 5 minutos para configurar y es usado por OpenAI, Toyota Research,
Stanford y Berkeley.
De hecho, es tan fácil agregar a tu proyecto, que el propio CEO, Lukas lo instrumentó para
ti para este artículo, y si miras aquí, puedes ver cómo las imágenes de salida y la
el error de reconstrucción evoluciona con el tiempo e incluso tu puedes añadir tus propias visualizaciones.
Es un espectáculo para la vista, realmente, así que asegúrate chequearlo en la descripción del video,

Spanish: 
y si te ha gustado, visítalos en wandb.com/papers o simplemente usa el enlace en la descripción del video
y regístrate para una demostración gratuita hoy.
Nuestro agradecimiento a" Weights & Biases" por ayudarnos a hacer mejores videos para ti
Gracias por vernos y por tu generoso apoyo, y ¡te veo la próxima vez!

English: 
and if you liked it, visit them through wandb.com/papers
or just use the link in the video description
and sign up for a free demo today.
Our thanks to Weights & Biases for helping
us make better videos for you.
Thanks for watching and for your generous
support, and I'll see you next time!
