
Vietnamese: 
Chào các bạn, đây là kênh "Những bài báo 2 phút" cùng Tiến sĩ Károly Zsolnai-Fehér.
Bạn nên biết rằng: giờ, ai cũng có thể tạo deepfakes.
Bạn có thể di chuyển đầu mà các chuyển động của miệng vẫn nhìn rất thật, các chuyển động của mắt
cũng được chuyển sang đối tượng đích.
Và, dĩ nhiên, như chúng ta vẫn nói:
trong tương lai, rồi sẽ có những bài báo
còn tốt và "rẻ" hơn bài báo này
Như bạn thấy, có một số bài báo rất tốt và rõ ràng.
 
Và bài này là một trong số đó.
Để sử dụng kỹ thuật này, việc bạn cần làm là
ghi lại 1 video của chính bạn
và chỉ cần thêm MỘT bức ảnh của đối tượng đích,
chạy thuật toán học là xong.
Nếu bạn xem đến cuối video, bạn sẽ thấy còn nhiều người tự giới thiệu bản thân

Spanish: 
 Estimados compañeros académicos, estos son dos documentos de minutos con el Dr. Károly Zsolnai-Fehér. 
 Es importante que sepa que todos pueden hacer falsificaciones ahora. 
 Puede girar la cabeza, los movimientos de la boca se ven geniales y los movimientos de los ojos también 
 traducido al metraje objetivo. 
 Y, por supuesto, como siempre decimos, dos papeles más en el futuro, y será incluso 
 mejor y más barato que esto 
 Como puede ver, algunos documentos están tan bien hechos y son tan claros que simplemente hablan por 
 sí mismos. 
 Este es uno de ellos. 
 Para usar esta técnica, todo lo que necesita hacer es grabar un video de usted mismo, agregar solo uno 
 imagen del sujeto objetivo, ejecute este algoritmo basado en el aprendizaje y listo. 
 Si te quedas hasta el final de este video, verás aún más personas presentándose 

English: 
Dear Fellow Scholars, this is Two Minute Papers
with Dr. Károly Zsolnai-Fehér.
It is important for you to know that everybody
can make deepfakes now.
You can turn your head around, mouth movements
are looking great, and eye movements are also
translated into the target footage.
And, of course, as we always say, two more
papers down the line, and it will be even
better and cheaper than this.
As you see, some papers are so well done,
and are so clear, that they just speak for
themselves.
This is one of them.
To use this technique, all you need to do
is record a video of yourself, add just one
image of the target subject, run this learning-based
algorithm, and there you go.
If you stay until the end of this video, you
will see even more people introducing themselves

English: 
as me.
As noted, many important gestures are being
translated, such as head, mouth and eye movement,
but what’s even better, is that even full-body
movement works.
Absolutely incredible.
Now, there are plenty of techniques out there
that can create DeepFakes, many of which we
have talked about in this series, so what
sets this one apart?
Well, one, most previous algorithms required
additional information, for instance, facial
landmarks or a pose estimation of the target
subject.
This one requires no knowledge of the image.
As a result, this technique becomes so much
more general.
We can create high quality DeepFakes with
just one photo of the target subject, make
ourselves dance like a professional, and what’s
more, hold on to your papers, because it also
works on non-humanoid and cartoon models,
and even that’s not all, we can even synthesize

Vietnamese: 
giống như tôi đang làm bây giờ.
Như đã nói, những chuyển động quan trọng đều được chuyển sang đối tượng đích, ví dụ như chuyển động của đầu, miệng và mắt,
và thậm chí là cả chuyển động của toàn bộ cơ thể.
Thật không thể tin nổi!
Có rất nhiều cách để tạo DeepFakes. Nhiều trong số đó đã được
đề cập đến trong chuyên mục này.
Vậy bài báo này có gì khác biệt?
Đầu tiên, hầu hết các thuật toán trước đó yêu cầu thêm những thông tin bổ trợ,
như: các điểm chính của khuôn mặt, hay ước lượng tư thế, dáng của đối tượng đích.
Nhưng bài này thì không yêu cầu thêm những thông tin của bức ảnh.
Vì thế mà nó trở nên tổng quát hơn.
Ta có thể tạo những DeepFakes chất lượng cao với chỉ MỘT bức ảnh của đối tượng đích
là có thể khiến chúng ta nhảy như vũ công.
Và còn hơn thế nữa
Vì nó còn thực hiện được trên cả hoạt hình và những mô hình không phải người.
Thậm chí chúng ta còn có thể

Spanish: 
 como yo. 
 Como se señaló, se están traduciendo muchos gestos importantes, como el movimiento de la cabeza, la boca y los ojos, 
 pero lo que es aún mejor, es que incluso el movimiento de todo el cuerpo funciona. 
 Absolutamente increíble. 
 Ahora, existen muchas técnicas que pueden crear DeepFakes, muchas de las cuales 
 he hablado en esta serie, entonces, ¿qué distingue a esta? 
 Bueno, uno, la mayoría de los algoritmos anteriores requerían información adicional, por ejemplo, facial 
 puntos de referencia o una estimación de pose del sujeto objetivo. 
 Este no requiere conocimiento de la imagen. 
 Como resultado, esta técnica se vuelve mucho más general. 
 Podemos crear DeepFakes de alta calidad con solo una foto del sujeto objetivo, hacer 
 nosotros bailamos como un profesional, y lo que es más, nos aferramos a sus papeles, porque también 
 funciona en modelos no humanoides y de dibujos animados, e incluso eso no es todo, incluso podemos sintetizar 

English: 
an animation of a robot arm by using another
one as a driving sequence.
So, why is it that it doesn’t need all this
additional information?
Well, if we look under the hood, we see that
it is a neural-network based method that generates
all this information by itself!
It identifies what kind of movements and transformations
are taking place in our driving video.
You can see that the learned keypoints here
follow the motion of the videos really well.
Now, we pack up all this information, and
send it over to the generator to warp the
target image appropriately, taking into consideration
possible occlusions that may occur.
This means that some parts of the image may
now be uncovered where we don’t know what
the background should look like.
Normally, we would do this by hand, with an
image inpainting technique, for instance,
you see the legendary PatchMatch algorithm
here that does it, however, in this case,

Vietnamese: 
tạo ra chuyển động của 1 cánh tay rô-bốt bằng cách dùng 1 cánh tay khác với vai trò như một chuỗi điều dẫn.
Vây, tại sao mà nó lại không cần thêm những thông tin bổ trợ?
Nếu chúng ta xem xét kỹ, ta sẽ thấy phương pháp này dùng 1 mạng nơ-ron
để tự tạo ra những thông tin bổ trợ này.
Nó nhận dạng xem di chuyển và biến đổi nào đang xảy ra trong video gốc.
Bạn có thể thấy rằng những điểm mốc được tạo ra có thể bám theo các chuyển động trong video rất tốt.
Những thông tin này được gửi đến máy sinh (generator) để chỉnh
ảnh đích một cách thích hợp, và xem xét liệu có phần nào bị che không.
Nghĩa là hiện tại, một số phần của bức ảnh có thể không được che đi mà chúng ta không biết
cái nền ảnh nên được tạo như thế nào.
Thông thường, ta sẽ dùng kỹ thuật tô màu ảnh để tự chỉnh bằng tay.
Ví dụ như trong thuật toán PatchMatch này.
Tuy nhiên, trong bài báo này,

Spanish: 
 Una animación de un brazo robot usando otro como secuencia de conducción. 
 Entonces, ¿por qué no necesita toda esta información adicional? 
 Bueno, si miramos debajo del capó, vemos que es un método basado en redes neuronales que genera 
 toda esta información por si sola! 
 Identifica qué tipo de movimientos y transformaciones están teniendo lugar en nuestro video de manejo. 
 Puede ver que los puntos clave aprendidos aquí siguen muy bien el movimiento de los videos. 
 Ahora, empacamos toda esta información y la enviamos al generador para deformar el 
 objetivo de la imagen adecuadamente, teniendo en cuenta las posibles oclusiones que pueden ocurrir. 
 Esto significa que algunas partes de la imagen ahora pueden estar descubiertas donde no sabemos qué 
 el fondo debería verse así. 
 Normalmente, haríamos esto a mano, con una técnica de pintura de imágenes, por ejemplo, 
 ves el legendario algoritmo PatchMatch aquí que lo hace, sin embargo, en este caso, 

Vietnamese: 
chính mạng nơ-ron sẽ tự làm việc đó.
Nếu bạn đang tìm những điểm lỗi trong output, bạn có thể thấy ở những vùng quan trọng này.
Phương pháp này không chỉ yêu cầu ít thông tin hơn những phương pháp trước, mà còn thực hiện tốt hơn
rất rất nhiều.
Tất nhiên vẫn có nhiều điểm cần phải cải thiện. 
Ví dụ, hành động quay đầu đột ngột này
có vẻ như đã gây ra rất nhiều những ảo ảnh.
Code và thậm chí ví dụ trên Colab notebook đều có sẵn.
Tôi nghĩ đấy là một trong những
bài báo dễ tiếp cận nhất trong lĩnh vực này.
Hãy nhớ xem ở phần mô tả video và thử chạy
những thí nghiệm của riêng bạn nhé!
Hãy cho tôi biết kết quả trong phần bình luận và thoải mái tham gia Discord
để thảo luận những ý tưởng và cùng nhau học hỏi
một cách tử tế và tôn trọng.
Link được chia sẻ ở phần mô tả video, và nó hoàn toàn miễn phí. Nếu bạn đã tham gia
thì nhớ để lại một lời giới thiệu ngắn nhé!

English: 
the neural network does it automatically,
by itself!
If you are seeking for flaws in the output,
these will be important regions to look at.
And it not only requires less information
than previous techniques, but it also outperforms
them…significantly.
Yes, there is still room to improve this,
for instance, the sudden head rotation here
seems to generate an excessive amount of visual
artifacts.
The source code and even an example Colab
notebook is available, I think it is one of
the most accessible papers in this area.
Don’t miss out and make sure to have a look
in the video description, and try to run your
own experiments!
Let me know in the comments how they went
or feel free to drop by at our discord server,
where all of you Fellow Scholars are welcome
to discuss ideas and learn together in a kind
and respectful environment.
The link is available in the video description,
it is completely free, if you have joined,
make sure to leave a short introduction!

Spanish: 
 ¡La red neuronal lo hace automáticamente! 
 Si está buscando fallas en la salida, estas serán regiones importantes para mirar. 
 Y no solo requiere menos información que las técnicas anteriores, sino que también supera 
 ellos ... significativamente. 
 Sí, todavía hay espacio para mejorar esto, por ejemplo, la rotación repentina de la cabeza aquí 
 parece generar una cantidad excesiva de artefactos visuales. 
 El código fuente e incluso un cuaderno de Colab de ejemplo está disponible, creo que es uno de 
 Los documentos más accesibles en esta área. 
 No se lo pierda y asegúrese de ver la descripción del video, e intente ejecutar su 
 propios experimentos! 
 Déjame saber en los comentarios cómo fueron o siéntete libre de visitar nuestro servidor de discordia, 
 donde todos ustedes, Becarios, son bienvenidos para discutir ideas y aprender juntos de una manera 
 y ambiente respetuoso. 
 El enlace está disponible en la descripción del video, es completamente gratuito, si te has unido, 
 ¡asegúrese de dejar una breve introducción! 

English: 
Now, of course, beyond the many amazing use-cases
of this in reviving deceased actors, creating
beautiful visual art, redubbing movies, and
more, unfortunately, there are people around
the world who are rubbing their palms together
in excitement to use this to their advantage.
So, you may ask, why make these videos on
DeepFakes?
Why spread this knowledge, especially now,
with the source codes?
Well, I think step number one is to make sure
to inform the public that these DeepFakes
can now be created quickly and inexpensively,
and they don’t require a trained scientist
anymore.
If this can be done, it is of utmost importance
that we all know about it!
Then, beyond that, step number two, as a service
to the public, I attend to EU and NATO conferences,
and inform key political and military decision
makers about the existence and details of
these techniques to make sure that they also
know about these and using that knowledge,
they can make better decisions for us.

Spanish: 
 Ahora, por supuesto, más allá de los muchos casos de uso sorprendentes de esto en revivir actores fallecidos, creando 
 bellas artes visuales, películas reductoras y más, desafortunadamente, hay gente alrededor 
 el mundo que se frota las palmas de las manos en emoción para usar esto a su favor. 
 Entonces, puedes preguntar, ¿por qué hacer estos videos en DeepFakes? 
 ¿Por qué difundir este conocimiento, especialmente ahora, con los códigos fuente? 
 Bueno, creo que el paso número uno es asegurarse de informar al público que estos DeepFakes 
 ahora se pueden crear de forma rápida y económica, y no requieren un científico capacitado 
 nunca más. 
 Si esto se puede hacer, ¡es de suma importancia que todos lo sepamos! 
 Luego, más allá de eso, paso número dos, como un servicio al público, asisto a las conferencias de la UE y la OTAN, 
 e informar a los tomadores de decisiones políticas y militares clave sobre la existencia y detalles de 
 estas técnicas para asegurarse de que también sepan sobre ellas y usen ese conocimiento, 
 Pueden tomar mejores decisiones por nosotros. 

Vietnamese: 
Giờ, dĩ nhiên, ngoài những ứng dụng trong việc làm sống lại những diễn viên quá cố,
tạo ra các tác phẩm nghệ thuật, chỉnh sửa phim, ...
thì thật tiếc khi có những người
đang muốn sử dụng phương pháp này
để chuộc lợi cho bản thân.
Bạn có thể thắc mắc rằng: vậy thì tại sao lại tạo ra những video này bằng DeepFakes?
Tại sao lại đi phổ biến kiến thức này, 
rồi còn đưa cả code nữa?
Theo tôi nghĩ, đầu tiên ta phải đảm bảo rằng
công chúng cần biết là:
DeepFakes giờ có thể được tạo ra rất nhanh, dễ dàng
mà không cần chuyên gia nào cả.
 
Nếu ta thực hiện được điều này, nghĩa là tất cả chúng ta đều biết về DeepFakes.
Tiếp đến, như một nghĩa vụ với cộng đồng, tôi đã tham dự những hội thảo của EU và NATO
và đã kể cho những chính trị gia về sự tồn tại và chi tiết của những phương pháp DeepFakes này
để đảm bảo rằng họ đều biết đến những điều này, và bằng hiểu biết đó
họ có thể đưa ra những quyết định tốt hơn cho chúng ta.

Vietnamese: 
Bạn có thể thấy tôi đang thử DeepFakes ở chính hội thảo đó.
Và nó hoạt động rất cho cả những video thông thường.
Những buổi nói chuyện và hội ý này đều miễn phí
và nếu họ tiếp tục muốn mời tôi,
tôi sẽ vẫn tham gia để giúp, như là một đóng góp cho cộng đồng.
Điều tuyệt vời là, sau đó, trong bữa tối, họ (những chính trị gia) đã thảo luận với tôi
về việc họ hiểu tình hình hiện tại.
Và tôi rất trân trọng khi họ đã
cởi mở với những điều chúng ta (các nhà khoa học) nói.
Và giờ, xin hãy thưởng thức những thước phim tuyệt vời.
Thân gửi các học giả, đây là kênh "Những bài báo 2 phút" cùng Tiến sĩ Károly Zsolnai-Fehér.
Bạn cần phải biết rằng:
Giờ ai cũng có thể tạo ra deepfakes.
Bạn có thể di chuyển đầu mà những chuyển động của miệng trông vẫn rất tuyệt, và chuyện động của mắt cũng
được chuyển sang đối tượng đích.
Và, dĩ nhiên, như chúng ta vẫn nói:
trong tương lai, rồi sẽ có những bài báo
tốt hơn và "rẻ" hơn bài báo này.

English: 
You see me doing it here. …and again, you
see this technique in action here to demonstrate
that it works really well for video footage
in the wild.
Note that these talks and consultations all
happen free of charge, and if they keep inviting
me, I’ll keep showing up to help with this
in the future as a service to the public.
The cool thing is that later, over dinner,
they tend to come back to me with a summary
of their understanding of the situation, and
I highly appreciate the fact that they are
open to what we, scientists have to say.
And now, please enjoy the promised footage.
Dear Fellow Scholars, this is Two Minute Papers
with Dr. Károly Zsolnai-Fehér.
It is important for you to know that everybody
can make deepfakes now.
You can turn your head around, mouth movements
are looking great, and eye movements are also
translated into the target footage.
And, of course, as we always say, two more
papers down the line, and it will be even
better and cheaper than this.

Spanish: 
 Me ves haciéndolo aquí. ... y de nuevo, ves esta técnica en acción aquí para demostrar 
 que funciona muy bien para secuencias de video en la naturaleza. 
 Tenga en cuenta que estas conversaciones y consultas se realizan de forma gratuita, y si siguen invitando 
 yo, seguiré apareciendo para ayudar con esto en el futuro como un servicio al público. 
 Lo bueno es que más tarde, durante la cena, tienden a volver a mí con un resumen. 
 de su comprensión de la situación, y aprecio mucho el hecho de que son 
 abierto a lo que nosotros, los científicos tienen que decir. 
 Y ahora, por favor, disfrute el metraje prometido. 
 Estimados compañeros académicos, estos son dos documentos de minutos con el Dr. Károly Zsolnai-Fehér. 
 Es importante que sepa que todos pueden hacer falsificaciones ahora. 
 Puede girar la cabeza, los movimientos de la boca se ven geniales y los movimientos de los ojos también 
 traducido al metraje objetivo. 
 Y, por supuesto, como siempre decimos, dos papeles más en el futuro, y será incluso 
 mejor y más barato que esto 

Vietnamese: 
Video này được hỗ trợ bởi Weights & Biases.
Họ chỉ cho bạn cách sử dụng Sweeps, 1 công cụ dùng để tìm kiếm trong không gian tham số đa chiều
và tìm ra mô hình cho kết quả tốt nhất.
Weights & Biases cung cấp các công cụ để theo vết những thí nghiệm trong các dự án học sâu của bạn.
Hệ thống của họ được thiết kể để giúp bạn tiết kiệm rất nhiều thời gian và tiền bạc.
Nó đã được sử dụng trong các dự án của các lab nổi tiếng như OpenAI, Toyota Research, GitHub...
Và điều tuyệt nhất là: Nếu bạn làm trong lĩnh vực học thuật hay các dự án nguồn mở
bạn có thử dụng miễn phí các công cụ này.
Nó thực sự rất tốt.
Hãy nhớ ghé thăm họ tại wandb.com/papers hoặc đơn giản là nhấn vào đường link trong phần mô tả video
Và bạn có thể có được 1 demo miễn phí.
Chúng tôi xin cảm ơn Weights & Biases đã hỗ trợ và giúp đỡ để chúng tôi có thể làm những video tốt hơn
cho các bạn.
Cảm ơn các bạn đã xem và nhiệt tình ủng hộ. 
Hẹn gặp lại các bạn lần sau!

Spanish: 
 Este episodio ha sido apoyado por Weights & Biases. 
 Aquí, le muestran cómo puede usar Sweeps, su herramienta para buscar en alta dimensión 
 espacios de parámetros y encontrar el mejor modelo de rendimiento. 
 Weights & Biases proporciona herramientas para realizar un seguimiento de sus experimentos en sus proyectos de aprendizaje profundo. 
 Su sistema está diseñado para ahorrarle mucho tiempo y dinero, y se utiliza activamente 
 en proyectos en prestigiosos laboratorios, como OpenAI, Toyota Research, GitHub y más. 
 Y, la mejor parte es que si eres académico o tienes un proyecto de código abierto, puedes usar 
 sus herramientas gratis. 
 Realmente es tan bueno como se pone. 
 Asegúrese de visitarlos a través de wandb.com/papers o simplemente haga clic en el enlace en la descripción del video 
 y puedes obtener una demostración gratuita hoy. 
 Nuestro agradecimiento a Weights & Biases por su apoyo de larga data y por ayudarnos a hacer mejores videos. 
 para ti. 
 ¡Gracias por mirar y por su generoso apoyo, y nos vemos la próxima vez! 

English: 
This episode has been supported by Weights
& Biases.
Here, they show you how you can use Sweeps,
their tool to search through high-dimensional
parameter spaces and find the best performing
model.
Weights & Biases provides tools to track your
experiments in your deep learning projects.
Their system is designed to save you a ton
of time and money, and it is actively used
in projects at prestigious labs, such as OpenAI,
Toyota Research, GitHub, and more.
And, the best part is that if you are an academic
or have an open source project, you can use
their tools for free.
It really is as good as it gets.
Make sure to visit them through wandb.com/papers
or just click the link in the video description
and you can get a free demo today.
Our thanks to Weights & Biases for their long-standing
support and for helping us make better videos
for you.
Thanks for watching and for your generous
support, and I'll see you next time!
