
Portuguese: 
Como você descobriu pela primeira vez
que haviam deepfakes seus?
Na verdade, o meu marido que me contou.
Porque ele é amigo de Ashton Kutcher.
Então ele disse ele "Ah, aliás,
existem essas coisas chamadas deepfakes
e sua esposa é uma delas. "
Deepfakes usam o "machine learning"
para fabricar eventos que nunca aconteceram
como Bill Hader, mudando de forma:
E falei: O Seth Rogan disse "Foi maravilhoso!"
"Ele tem uma ciclovia no quintal!"
"É impressionante."
E fiz uma imitação do Seth Rogan
E foi como se eu tivesse feito um truque
de mágica. Tom Cruise estava tipo, "Ahoooh!"
E há uma preocupação crescente de que,
nas mãos erradas, essa tecnologia
"Pode representar uma real ameaça
à segurança nacional".
"Poderia impactar a eleição de 2020"
"Poderia se tornar um perigo real e presente
à nossa democracia, Dana. ”
Mas a ameaça mais urgente e diária
de deepfakes não é a política.
É o pornô.

Vietnamese: 
Cô biết việc có video deepfake của mình như thế nào?
Do chồng tôi nói với tôi.
Vì anh ấy là bạn với Ashton Kutcher.
Nên anh ấy bảo với chồng tôi là, "À, nhân tiện, có một thứ gọi là deepfake
và vợ cậu bị dính rồi."
Deepfakes sử dụng kĩ thuật học máy để dàn dựng những sự kiện chưa từng xảy ra
như Bill Hader biến hình:
Rồi Seth Rogan kiểu, "Thật tuyệt vời!
Cậu ấy có kiểu, đường chạy xe máy ở sân sau!
Thật là phi thường."
Rồi tôi giả bộ bắt chước Seth Rogan
Rồi như kiểu tôi vừa làm ảo thuật vậy, Tom Cruise kiểu, "Ahoooh!"
Và bắt đầu có lo ngại rằng công nghệ này nếu rơi vào tay kẻ xấu
"có thể trở thành một mối đe dọa an ninh quốc gia tiềm tàng."
"có thể ảnh hưởng đến cuộc bầu cử năm 2020"
"có thể trở thành một mối nguy hiểm cho nền dân chủ của chúng ta, Dana."
Nhưng mối đe dọa đáng lo ngại nhất về deepfake không phải là chính trị.
Mà là phim khiêu dâm.

Indonesian: 
Bagaimana Anda pertama menemukan ada deepfake dengan wajah Anda?
Suami saya yang memberi tahu saya.
Karena dia berteman dengan Ashton Kutcher.
Dia yang memberi tahunya, "Oh, omong-omong, ada hal ini yang disebut deepfake
dan istrimu salah satunya."
Deepfake menggunakan pemelajaran mesin untuk memalsukan kejadian yang tidak pernah terjadi
seperti perubahan bentuk Bill Harder
"Dan aku bilang, 'Seth Rogan bilang, "Itu hebat!"
Dia punya jalur sepeda di halaman belakangnya!
Ini fenomenal.'
Dan aku melakukan impresi Seth Rogan
Dan itu seperti sulap, Tom Cruise bilang, 'Ahoooh!' "
Dan tumbuh kekhawatiran bahwa di tangan yang salah, teknologi ini
"dapat menjadi ancaman keamanan nasional yang sangat nyata."
"dapat memengaruhi pemilihan umum 2020"
"dapat menjadi bahaya nyata terhadap demokrasi kita, Dana."
Namun yang paling mendesak, ancaman harian deepfake bukanlah politik,
melainkan pornografi.

English: 
How did you first find out that there were deepfakes of you?
My husband actually told me.
Because he is friends with Ashton Kutcher.
So he actually told him like, “Oh, by the
way, there these things called deepfakes
and your wife is one of them."
Deepfakes use machine learning to fabricate events that never happened
like Bill Hader shape-shifting:
And I said, “Seth Rogan was like, “It
was amazing!
He has like, a bike track in his back yard!
It's phenomenal.”
And I did a Seth Rogan impression
And it was like I did a magic trick, Tom Cruise was like, “Ahoooh!”
And there’s growing concern that in the
wrong hands this technology
“can pose a very real national security
threat.”
“could impact the 2020 election”
“could become a real and present danger
to our democracy, Dana.”
But the most pressing, daily threat of deepfakes isn’t politics.
It’s porn.

Spanish: 
¿Cómo te enteraste de que había videos deepfake (ultrafalsos) sobre ti?
En realidad, mi esposo me dijo,
porque es amigo de Ashton Kutcher.
Así que él [Kutcher] le dijo: «Por cierto, están estas cosas llamadas deepfakes
y tu esposa está en uno de ellos».
Los deepfakes usan aprendizaje automático para fabricar eventos que nunca ocurrieron,
como el cambio de forma (shape-shifting) de Bill Hader.
Y yo dije: «Seth Rogan decía: “¡Eso fue asombroso!
¡Tiene una pista de bicicletas en el patio trasero de su casa!
Es fenomenal”».
E hice una imitación de Seth Rogan
y fue como si hubiera hecho un truco de magia, Tom Cruise estaba como: «Ahooh!».
Hay una creciente preocupación de que, en las manos equivocadas, esta tecnología
«puede ser una amenaza muy real para la seguridad nacional».
«Puede tener un impacto en las elecciones del 2020».
«Puede convertirse en un peligro real y presente para nuestra democracia, Dana.»
Pero la amenaza más presente de los deepfakes no es la política.
Es la pornografía.

Czech: 
Jak jste se dozvěděla, že existují vaše deepfake videa?
Řekl mi o tom manžel.
Přátelí se s Ashtonem Kurcherem.
Ten mu řekl: "Jo, mimochodem, existují videa zvaná deepfakes"
"a tvoje žena je na jednom z nich."
Deepfake videa používají strojové učení k vytvoření událostí, které se nikdy nestaly,
jako převtělování Billa Hadera:
A já řekl: "Seth Rogan mi povídá "To bylo úžasné!
Má na zahradě takovou cyklistickou dráhu.
Je skvělá."
A pak jsem udělal imitaci Setha Rogana
a bylo to jako kouzo. Tom Cruise udělal "hoooh!"
Sílí obavy, že tato technologie může v nesprávných rukách
představovat reálné nebezpeční pro národní bezpečnost.
"mohla by ovlivnit volby v roce 2020"
"mohla by se stát reálným nebezpečím pro naší demokracii"
Ale nejtíživější každodenní hrozbou deepfake videí není politika.
Je to porno.

English: 
People are hijacking women’s faces to make porn videos they never consented to be in.
Which is why this kind of deepfake is harmful, even when people know it's not real.
I was just shocked.
Because this is my face, it belongs to me!
In a September 2019 survey, researchers at Deeptrace found that of the deepfake videos
they could identify online, 96% were pornographic.
And that more or less 100% percent of these videos are women and are not consensual.
Pornhub and other big porn streaming sites have policies banning deepfakes,
though they don't seem to be enforcing them.
Mostly, these videos show up on separate sites dedicated to this kind of abuse.
It's not just celebrities anymore.
Not that celebrities feel any less pain from these videos.
But the phenomenon is evolving at a rate where we're seeing deepfake pornography increasing

Vietnamese: 
Nhiều kẻ ăn cắp khuôn mặt của phụ nữ để làm những video phim khiêu dâm mà họ đó không hề hay biết.
Đây là lý do mà những dạng deepfake này rất nguy hại, kể cả khi người ta biết chúng không phải thật.
Người dịch (Translator): Ngô Quỳnh Lâm
Tôi đã rất sốc.
Bởi đây là khuôn mặt của tôi, nó thuộc về tôi!
Trong một khảo sát vào tháng 9 năm 2020, các nhà nghiên cứu Deeptrace chỉ ra trong các video deepfake
mà họ có thể tìm thấy trên mạng, có đến 96% thuộc thể loại khiêu dâm.
Xấp xỉ 100% các nạn nhân đều là nữ và chúng đều không có sự đồng ý của họ.
Pornhub và các trang phim khiêu dâm đều có chính sách cấm deepfake,
nhưng có vẻ họ đều không thực thi chúng.
Đa số các video đó xuất hiện ở nhiều trang mạng khác nhau chuyên lạm dụng công nghệ này.
Không chỉ giới hạn trong người nổi tiếng nữa.
Không phải là người nổi tiếng thì sẽ cảm thấy ít bị tổn thương bởi những video kiểu này hơn.
Nhưng hiện tượng này đang trở nên nghiêm trọng đến nỗi phim khiêu dâm deepfake đang gia tăng chóng mặt

Portuguese: 
Pessoas estão "sequestrando" rostos de mulheres para fazer vídeos pornográficos sem consentimento.
É por isso que esse tipo de deepfake é prejudicial, mesmo quando as pessoas sabem que não é real.
Eu fiquei chocada.
Porque esse é o meu rosto, ele me pertence!
Em uma pesquisa de setembro de 2019, pesquisadores do Deeptrace descobriram que, dos vídeos de deepfake
que podiam identificar online,
96% eram pornográficos.
E que quase 100% desses vídeos
são de mulheres e não são consensuais.
O Pornhub e outros grandes sites de streaming de pornografia têm políticas que proíbem deepfakes,
embora eles não pareçam estar aplicando.
Geralmente, esses vídeos são exibidos em sites separados dedicados a esse tipo de abuso.
Não são mais apenas celebridades.
Não que as celebridades sintam
menos dor com esses vídeos,
mas o fenômeno está evoluindo a um ritmo em que estamos vendo a pornografia de deepfake aumentar

Spanish: 
La gente está robando rostros de mujeres para hacer videos pornográficos, para los que ellas no dieron su consentimiento.
Lo cual es por qué este tipo de deepfakes es dañino, incluso cuando las personas saben que no es real.
Estaba impactada.
Porque este es mi rostro. ¡Me pertenece!
En una evaluación de septiembre de 2019, los investigadores en Deeptrace encontraron que, de los videos deepfake
que pudieron identificar en línea, 96 % eran pornográficos.
Y alrededor del 100 % de los videos eran de mujeres y no eran consensuados.
Pornhub y otros grandes sitios de streaming pornográficos tienen políticas que prohiben los deepfakes,
pero parece que no las estén imponiendo.
En su mayoría, estos videos aparecen en sitios separados que se dedican a este tipo de abuso.
Ya no son solamente las celebridades.
No es que las celebridades sientan menos dolor por estos videos.
Pero el fenómeno está evolucionado a un ritmo en el que estamos viendo un incremento en el número de pornografía de deepfake

Indonesian: 
Orang membajak wajah perempuan untuk membuat video porno tanpa izin mereka.
Inilah alasan deepfake ini berbahaya, bahkan saat orang tahu ini tidak nyata.
Aku terkejut.
Karena ini wajahku, ini milikku!
Dalam survei pada September 2019, peneliti di Deeptrace menemukan bahwa video deepfake
yang bisa mereka identifikasi di internet merupakan 96% pornografi.
Dan kurang lebih 100% merupakan video perempuan tanpa izin.
Pornhub dan situs porno besar lain punya kebijakan untuk melarang deepfake,
namun mereka tampaknya tidak menegakkannya.
Kebanyakan video ini muncul di situs berbeda yang khusus untuk pelanggaran ini.
Ini bukan lagi selebritas saja.
Bukan artinya selebritas merasa sakit lebih sedikit karena video ini.
Tapi fenomenanya berkembang cepat sampai kita melihat pornografi deepfake bertambah banyak

Czech: 
Lidé kradou ženské tváře, aby z nich vytvářeli porno, ve kterých tyto ženy nikdy nechtěly být.
Proto je tento druh deepfake videí škodlivý i ve chvíli, kdy lidé ví, že to co sledují, není skutečné.
Byla jsem v šoku.
Je to přece moje tvář. Patří mně!
Průzkumu ze září roku 2019 zjistil, že z deefake videí,
které našli online, bylo 96% pornografických.
A téměř 100% z nich obsahuje tváře žen, které s tím nedaly souhlas.
Pornhub a jiné velké pornografické weby zakazují nahrávání deepfake videí,
ale zdá se, že tyto pravidla nevymáhají.
Většinou se tato videa vyskytují na jiných stránkách, přímo vytvořených pro tyto účely.
Nejde už jen o celebrity.
Ne, že by celebrity se cítily méně špatně, když se takové video objeví.
Ale tento fenomén roste nejen co do počtu videí,

Portuguese: 
em número assim como
em um número de vítimas.
Eu estava no trabalho e recebi um e-mail no meu telefone.
Na verdade, eu posso até abrir o email.
25 de maio, 16h18
"Para sua informação, há um vídeo deepfake seu
em alguns sites pornográficos.
Parece real. "
Lembro-me de me sentar,
digerindo aquele e-mail.
Parece que você fica congelada,
naquele momento do tempo.
Me descrevia tendo relações sexuais,
e o título do vídeo tinha meu nome completo.
E então eu vi outro vídeo
que me retratava fazendo sexo oral.
Noelle é graduada em direito na Austrália.
Ela não é uma celebridade.
Alguém tirou fotos que ela compartilhou em mídias sociais e as "photoshopou" primeiro em imagens nuas
depois passando para os vídeos deepfake.

Vietnamese: 
và số nạn nhân cũng càng ngày càng nhiều.
Tôi đang đi làm và tôi nhận được một email trong điện thoại.
Thậm chí là tôi có thể nhớ chi tiết cái email đó.
Ngày 25 tháng 5, 4:18 chiều.
"F.Y.I Cô có video deepfake trên mấy trang phim khiêu dâm đó."
Trông như thật vậy."
Tôi nhớ lúc đó mình đang ngồi và nhận được cái email đó.
Cứ như kiểu lúc đó tôi bị đóng băng vậy.
Cái video đó có cảnh tôi đang quan hệ tình dục, và tiêu đề có cả họ tên đầy đủ của tôi.
Rồi tôi xem được một video khác có cảnh tôi quan hệ bằng đường miệng.
Noelle là một cử nhân ngành Luật người Úc.
Cô ấy không phải là người nổi tiếng.
Có người lấy những bức ảnh mà cô ấy chia sẻ trên mạng xã hội và ghép chúng vào những bức ảnh khỏa thân
rồi làm thành những video deepfake.

Indonesian: 
dan korbannya juga bertambah banyak.
Aku sedang bekerja dan mendapatkan surel di ponselku.
Bahkan, aku bisa tunjukkan surelnya.
25 Mei, 16.18.
"Asal kamu tahu, ada video porno deepfake dirimu di beberapa situs porno.
Ini terlihat nyata."
Aku ingat harus duduk saat mendapat surel itu.
Aku merasa seperti beku dalam momen itu.
Itu menggambarkanku melakuakan hubungan seks, dan ada nama lengkapku di judul videonya.
Lalu aku melihat video lain yang menggambarkanku melakukan seks oral.
Noelle adalah lulusan hukum Australia.
Dia bukan selebritas.
Seseorang mengambil foto yang ia bagi di media sosial dan mengeditnya ke gambar telanjang
lalu dijadikan video deepfake.

Czech: 
ale i co do počtu obětí.
Byla jsem v práci a na mobil mi přišel e-mail.
Vlastně ho můžu dohledat.
25. května, 16:18
"Pro tvou informaci: Existuje tvé deepfake video na nějakých porno stránkách.
Vypadá jako skutečné."
Pamatuju si, jak jsem seděla a četla ten e-mail.
Bylo to, jako bych v ten okamžik zamrzla.
Video mě zobrazovalo při souloži a v jeho titulku bylo mé celé jméno.
Následně jsem viděli ještě jiné, které mě zobrazovalo při orálním sexu.
Noelle je australská absolventka práv.
Není celebritou.
Někdo vzal fotky, které sdílela na sociálních sítích a první z nich udělal nahé fotky.
Následně pokročil k deepfake videím.

Spanish: 
y en el número de víctimas también.
Estaba en mi trabajo y recibí un correo electrónico en mi teléfono celular.
De hecho, incluso puedo traer el correo electrónico.
25 de mayo, 4.18 p. m.
«Para tu información, (for your information [F.Y.I.]), hay un video deepfake de ti en un sitio pornográfico.
Parece real.»
Recuerdo haberme sentado al recibir ese correo.
Creo que era como si estuviera paralizada en ese lapso de tiempo.
Me representaba teniendo relaciones sexuales y el título del video tenía mi nombre completo.
Y luego vi otro video en el que me mostraba dando sexo oral.
Noelle es una abogada australiana.
No es una celebridad.
Alguien tomó las fotos que ella compartió en las redes sociales y al principio las convirtió en imágenes de desnudos
que luego pasaron a ser videos deepfake.

English: 
in number and an increasing number of victims as well.
I was at work and I got an email on my phone.
In fact, I can even bring up the email.
25th of May, 4:18 p.m.
"F.Y.I. There is a deepfake video of you on some porn sites.
It looks real."
I remember sitting down receiving that email.
I think it was like you're frozen for that
moment of time.
It was depicting me having sexual intercourse, and the title of the video had my full name.
And then I saw another video that was depicting me performing oral sex.
Noelle is an Australian law graduate.
She’s not a celebrity.
Someone took photos she shared on social media and first photoshopped them into nude images
then graduated to deepfake videos.

Portuguese: 
O que ocorre nesses vídeos é um tipo
específico de manipulação digital,
e é diferente dos filtros de troca de rosto
mais antigos que você já usou.
Essas ferramentas permitem que você troque seu rosto com o de seu amigo, mas você ainda controla isso
- uma espécie de vídeo Photoshop -
transferindo tanto as suas
características faciais e suas expressões.
Mas os deepfakes podem usar
as características faciais sozinhos,
e animar esse rosto com
expressões de outra pessoa.
"Tom Cruise estava tipo ... Ahoooh!"
É isso que torna os vídeos
deepfake pornográficos tão invasivos.
O criador tira da vítima
o controle do próprio rosto
e usa isso para algo que
ela nunca quis.
Transferir uma máscara das características faciais de alguém requer o treinamento de um software
chamado de "autoencoder" em centenas de
imagens da mesma face de diferentes ângulos
e sob iluminações diferentes, com expressões diferentes, até descobrir o que todos têm em comum.
Esse volume de imagens está disponível há muito tempo para celebridades, mas cada vez mais existe de...
qualquer pessoa.
Se você é alguém que não é muito presente
em mídias sociais, mas apenas uma presença on-line,
você tem algumas fotos.

Indonesian: 
Yang terjadi dalam video ini adalah manipulasi digital spesifik,
tidak seperti filter penukar wajah lama yang mungkin pernah Anda pakai.
Alat itu membolehkan Anda menaruh wajah Anda di kepala teman, tapi Anda masih mengendalikannya.
-- ini seperti Photoshop untuk video --
memindahkan fitur wajah dan ekspresi Anda.
Namun, deepfake bisa mengambil fitur wajahnya saja,
dan menganimasi wajah itu dengan ekspresi orang lain.
"Tom Cruise bilang 'Ahoooh!' "
Ini yang membuat video porno deepfake begitu menginvasi.
Pembuatnya mengambil kendali korban akan wajahnya sendiri
dan memakainya untuk sesuatu tanpa izinnya.
Memindahkan topeng fitur wajah seseorang memerlukan pelatihan perangkat lunak
yang disebut "autoenkoder" dengan ratusan gambar wajah yang sama dari sudut berbeda
dan pencahayaan berbeda dengan ekspresi berbeda sampai ia mempelajari kesamaannya.
Jumlah gambar itu sejak lama tersedia bagi selebritas, tapi semakin banyak bagi
semua orang juga
Kalaupun Anda tidak memiliki kehadiran media sosial yang intens, presensi daring saja,
Anda punya beberapa gambar.

Vietnamese: 
Điều xảy ra trong những video đó là một thao tác kĩ thuật số đặc biệt.
và nó hoàn toàn khác so với những hiệu ứng tráo mặt cũ mà có thể bạn đã từng sử dụng.
Những công cụ đó cho phép bạn gán mặt mình vào đầu của người khác, mà vẫn có thể điều khiển mặt mình.
như một kiểu photoshop video
di chuyển đặc điểm khuôn mặt lẫn cảm xúc của bạn.
Nhưng deepfake chỉ cần đặc điểm khuôn mặt của bạn thôi,
và điều khiển khuôn mặt đó với cảm xúc của người khác.
"Tom Cruise kiểu... Ahoooh!"
Đây là điều khiến các video khiêu dâm deepfake đi quá giới hạn.
Kẻ tạo ra các video lấy đi khả năng điều khiển khuôn mặt của nạn nhân
và dùng nó cho mục đích mà cô ấy không hề muốn.
Sử dụng một chiếc mặt nạ với đặc điểm khuôn mặt của một người cần huấn luyện cho một phần mềm
gọi là một bản "mã hóa tự động" của hàng trăm bức ảnh của một khuôn mặt với góc độ khác nhau
và với ánh sáng khác nhau với các biểu cảm khác nhau cho đến khi nó học được điểm chung của chúng.
Số lượng ảnh như vậy từ lâu đã có ở các người nổi tiếng, nhưng càng ngày điều này càng bao gồm...
bất cứ ai.
Kể cả bạn không xuất hiện nhiều trên truyền thông. mà chỉ xuất hiện trên mạng xã hội,
bạn cũng có một vài bức ảnh.

Spanish: 
Lo que está sucediendo en estos videos es un tipo específico de manipulación digital
y no es como los conocidos filtros de cambio de rostro que puedes haber usado.
Esas herramientas permiten poner tu rostro en la cabeza de tu amigo, pero sigue estando controlda por ti,
—similar a un video en photoshop—
transfiriendo tanto tus rasgos faciales como tus expresiones.
Pero los deepfake pueden tomar tus rasgos faciales únicamente
y animar ese rostro con las expresiones de alguien más.
«Tom Cruise estaba como: “¡Ahooh!”.»
Esto es lo que hace a los videos pornográficos deepfake tan invasivos.
El creador se apropia del control que tiene la víctima sobre su propio rostro
y lo usa para hacer algo que ella nunca quiso.
Trasferir una máscara de los rasgos faciales de alguien requiere entrenar una pieza de software,
llamada «autoencoder» (autocodificador), con cientos de imágenes de la misma cara en distintos ángulos
y en diferentes luces, con diferentes expresiones hasta que aprende qué es lo que todas tienen en común.
Ese volumen de imágenes de celebridades hace tiempo ha estado disponible, pero, cada vez más, existe esto para
cualquier persona.
Si eres alguien que no tiene una intensa presencia en las redes sociales, pero que está presente en la red
tienes algunas fotos.

English: 
What’s happening in these videos is a specific kind of digital manipulation,
and it’s unlike older face-swapping filters you might have used.
Those tools let you put your face into your friend’s
head, but you still controlled it
-- a sort of video Photoshop --
transferring both your
facial features and your expressions.
But deepfakes can take the facial features alone,
and animate that face with the expressions of someone else.
“Tom Cruise was like… Ahoooh!”
This is what makes deepfake porn videos so invasive.
The creator takes away a victim’s control of her own face
and uses it for something
she never wanted.
Transferring a mask of someone’s facial features requires training a piece of software
called an “autoencoder” on hundreds of
images of the same face from different angles
and in different lighting with different expressions until it learns what they all have in common.
That volume of images has long been available of celebrities, but increasingly it exists of...
anyone.
If you're someone not even with a very intense social media presence, but just a presence online,
you have a few pictures.

Czech: 
Videa vznikají speciálním druhem digitální úpravy
docela jiným, než je starší výměna obličejů, kterou jste mohli použít.
Ta vás nechá umístit váš obličej na hlavu vašeho přítele, ale vy ji stále ovládáte.
Něco jako Photoshop pro video.
Přenáší jak obličej, tak jeho výrazy.
Nicméně deepfake videa umí přenést pouze obličej
a upravit ho podle výrazů někoho jiného.
"Tom Cruise udělal "hoooh!"
To dělá deepfake pornografii tak agresivní.
Tvůrce odebere oběti možnost mít svůj vlastní obličej pod kontrolou
a použije jej na něco, co nikdy nechtěla.
Přenos obliběčových rysů vyžaduje, aby se software
zvaný "autoencoder" naučil stovky obrázků stejné tváře z různých úhlů,
pod různým osvětlením, s různými výrazy, dokud se nenaučí, co všechny tyto mají společné.
Takovéto množství obrázků bylo už dlouho k dispozici u celebrit. Nyní však začíná existovat u
každého.
Pokud jste někdo, s ne nutně obrovskou přítomností na sociálních sítích, ale třeba jen přítomností online jako takovou,
máte pár fotek.

Indonesian: 
Mungkin ada video Anda dari pesta atau sesuatu seperti ini.
Banyak sekali gambar latihan yang bisa diambil dari sana.
Sekarang, Anda masih perlu banyak data untuk membuat deepfake yang meyakinkan.
Namun seiring teknologi berkembang, kita memerlukan lebih sedikit data dan alat-alatnya semakin
tersedia dan ramah pengguna.
Dan ada sarana untuk deepfake yang berkembang.
Ini tidak hanya mengirim video, tapi juga forum diskusi cara membuatnya,
cara menarget orang tertentu.
Bahkan, istilah "deepfake" berasal dari nama subreddit untuk menukar
wajah selebritas pada bintang porno.
Reddit melarang laman tersebut, namun perbincangannya hanya pindah ke situs lain.
Hampir ada direktori tentang, "Oke, Anda mau membuat deepfake selebritas tertentu?
Ini aktor dewasa yang cocok untuk itu."
Ada banyak uang yang dihasilkan dari menjual deepfake buatan khusus.
Pengguna membayar untuk deepfake selebritas tertentu
atau bahkan perempuan yang mereka kenal pribadi.

Spanish: 
Quizás hay un video de ti en alguna fiesta o algo como eso.
Tienes muchas imágenes de entrenamiento que se pueden sacar a partir de eso.
Hasta el momento, todavía se necesita bastantes datos para hacer un deepfake convincente.
Pero, a medida que la tecnología comienza a mejorar, necesitamos menos datos, y las herramientas se están conviertiendo más
accesibles y amigables para el usuario.
Existe una creciente infraestructura para deepfakes.
No es solo acerca de publicar videos, también es sobre foros discutiendo cómo hacerlos,
cómo apuntar a ciertos individuos.
De hecho, el término «deepfake» se originó como el nombre de un subreddit para poner
los rostros de celebridades en los de actores pornográficos.
Reddit prohibió la página, pero la conversación migró a otros sitios.
Tienes guías acerca de: «Bueno, quieres hacer un deepfake de determinada celebridad.
Aquí están los actores pornográficos que quedarán mejor para eso».
Hay mucho dinero para hacer con la venta de deepfakes personalizados.
Los usuarios pagan por deepfakes de celebridades específicas
o incluso de mujeres que conocen personalmente.

Czech: 
Třeba existuje vaše video z nějakého večírku nebo něco takového.
Z toho se dá pořídit spousta snímku pro učící software.
V tuto chvíli stále potřebujete určité množství dat, aby se dalo vytvořit přesvědčivé deepfake video.
Ale jak se technologie zlepšuje, je dat potřeba stále méně. Technologie jsou také
stále více dostupné a snadno uživatelné.
Roste také infrastruktura pro deepfake videa.
Není jen o sdílení videí, ale také o fórech, kde se rozebírá, jak je vytvořit
a zacílit na vybrané osoby.
Ve skutečnosti termín "deepfake" vznikl jako jméno fóra,
pro sdílení snímků pornohvězd s obličeji celebrit.
Reddit toto fórum zrušil, ale diskuze se jen přesunula na jiné weby.
Máte téměř škatulky: "Dobrá, chcete vytvořit deepfake dané celebrity.
Tihleti pornoherci se na to nejvíc hodí."
V prodeji deepfakes videí se točí hodně peněz.
Uživatelé platí za videa konkrétních celebrit
nebo dokonce žen, které znají osobně.

Portuguese: 
Talvez haja um vídeo seu de uma festa
ou algo parecido com isto.
Você tem muitas imagens
de treinamento para tirar disso.
No momento, você ainda precisa de um bocado de dados para fazer um deepfake convincente.
Mas à medida que a tecnologia melhora, precisa-se de menos dados e as ferramentas se tornam mais
acessíveis e fáceis de usar.
E há uma infraestrutura
crescente para deepfakes.
Não se trata apenas de postar vídeos,
mas de fóruns discutindo como fazê-los,
como atingir certos indivíduos.
De fato, o termo “deepfake” se originou
como o nome de um subreddit por trocar
rostos de celebridades por estrelas pornôs.
O Reddit baniu a página, mas a conversa
apenas mudou para outros sites.
Você tem quase diretórios sobre
"Quer fazer um deepfake de uma certa celebridade.
Aqui estão artistas adultos
que melhor se adequam a isso".
Há muito dinheiro a ser ganho com
venda de deepfakes personalizados.
Os usuários pagam por deepfakes
de celebridades específicas
ou até mulheres
que conhecem pessoalmente.

Vietnamese: 
Có thể là có một cái video của bạn từ một bữa tiệc chẳng hạn.
Thì bạn cũng có rất nhiều bức ảnh huấn luyện từ chúng.
Hiện tại, bạn vẫn cần nhiều dữ liệu để làm một chiếc deepfake trông giống thật.
Nhưng công nghệ này càng ngày càng tiên tiến, càng ngày càng cần ít dữ liệu hơn và công cụ càng ngày càng
trở nên dễ tiếp cận và dễ dùng.
Và càng ngày càng mọc lên nhiều những diễn đàn cho deepfake.
Không chỉ là để đăng các video lên, mà còn là để bàn luận cách tạo ra chúng,
và làm thế nào để nhắm vào những đối tượng cụ thể.
Thực ra, cụm từ "deepfake" bắt nguồn từ tên của một subreddit chuyên gắn mặt
của những người nổi tiếng vào các ngôi sao khiêu dâm.
Reddit đã cấm trang này, nhưng cuộc trò chuyện chỉ dời sang những trang khác.
Gần như còn có cả hướng dẫn kiểu, "Được rồi, muốn làm video deepfake của người nổi tiếng này hả.
Đây là danh sách những ngôi sao khiêu dâm hợp với khuôn mặt đó."
Buôn bán các video deepfake đặt sẵn kiếm được rất nhiều tiền.
Người dùng trả tiền cho những video deepfake về những ngôi sao điện ảnh
hoặc kể cả những phụ nữ mà họ biết.

English: 
Maybe there's a video of you from a party
or something like this.
You have so many training images to take from
that.
At the moment, you do still need a fair bit
of data to make a convincing deepfake.
But as the technology is improving, we're needing less data and the tools are becoming increasingly
accessible and user-friendly.
And there’s a growing infrastructure for
deepfakes.
It's not just about posting videos, it's also
about forums discussing how to make them,
how to target certain individuals.
In fact, the term “deepfake” originated
as the name of a subreddit for swapping
celebrity faces onto porn stars.
Reddit banned the page, but the conversation
just moved to other sites.
You have almost directories about, "Okay,
you want to make a deepfake of a certain celebrity.
Here are adult performers that will best suit that."
There's a lot of money to be made from selling
custom deepfakes.
Users pay for deepfakes of specific celebrities
or even women they know personally.

Indonesian: 
Dan mereka mendiskusikan legalitas semua ini.
Beberapa mengira mereka bisa melindungi diri dengan menyebutkan bahwa video tersebut palsu.
Tapi itu tidak benar.
Jika Anda tinggal di AS dan seseorang membuat pornografi dengan wajah Anda, Anda bisa menuntut pembuatnya
entah mereka menyebutkan itu deepfake atau tidak
Yang benar adalah hal tersebut sebenarnya sulit dilakukan.
Anda perlu membayar untuk menuntut, tanpa kepastian Anda bisa menjatuhkan hukuman
atau bahkan menemukan pembuatnya, apalagi menghentikan videonya dari menyebar.
Beberapa orang di situs itu menanyakan moralitas kegiatan mereka.
Dan tidak sepakat bagaimana perasaan mereka bila itu terjadi pada mereka sendiri.
Namun mungkin itu tidak akan terjadi pada mereka.
Itu intinya.
Mengambil wajah perempuan dan menaruhnya dalam konteks ini adalah bagian dari sejarah panjang
mempermalukan perempuan secara seksual.
Ada tahu, kita banyak membicarakan izin dan aku tidak memberi izin.
Itulah alasan ini tidak baik-baik saja.
Bahkan jika diberi label, "Ini bukan dia sebenarnya."
Sulit berpikir tentang itu.
Ini mungkin salah satu hal yang paling sulit karena

English: 
And they discuss whether all of this is legal.
Some think they can protect themselves by identifying the videos as fake.
But that’s not true.
If you live in the US and someone makes porn with your face, you can sue the creator
whether or not they've marked it as a deepfake.
What is true is, it’s very difficult to
actually do that.
You’d need to pay to bring a lawsuit, with no certainty you’d be able to secure a punishment
or even find the creator, let alone stop the
video from spreading.
Some people on these sites question the morality
of what they’re doing.
And disagree about how they’d feel if it
happened to them.
But it probably won’t happen to them.
That’s the point.
Taking a woman’s face and putting it into this context is part of a long history
of using sexual humiliation against women.
You know, we're having this gigantic conversation
about consent and I don't consent.
So that's why it's not OK.
Even if it's labeled as, "this is not actually
her."
It's hard to think about that.
This is probably one of the most difficult things because

Vietnamese: 
Và họ thảo luận xem những việc như thế này có hợp pháp không.
Một số nghĩ họ có thể tự bảo vệ mình bằng cách gắn mác những video đó là giả.
Nhưng đó không phải là sự thật.
Nếu bạn sống ở Hoa Kì và có người làm phim khiêu dâm với mặt của bạn, bạn có thể kiện tác giả
dù họ có gắn mác nó là deepfake hay không.
Sự thật duy nhất ở đây là, rất khó để có thể làm vậy.
Bạn cần phải tốn tiền để có thể khởi kiện, mà không thể dám chắc là bạn có thể đảm bảo một hình phạt
hoặc thậm chí là tìm được tác giả, huống hồ là ngăn cái video đó bị phát tán.
Một số người trên các trang đó cũng tự hỏi về vấn đề đạo đức của điều mà mình đang làm.
Và tỏ ra không tán thành nếu chính mình là nạn nhân.
Nhưng có lẽ chuyện đó sẽ không bao giờ xảy ra với họ.
Đó là vấn đề.
Lấy đi khuôn mặt của một người phụ nữ rồi gắn nó vào những nội dung như vậy chỉ là một phần của
lịch sử lâu dài của những sự việc quấy rối tình dục đối với phụ nữ.
Bạn biết đấy, ta đang phải đối mặt với vấn đề to lớn về sự đồng thuận và tôi không hề đồng thuận.
Vậy nên chuyện này không hề ổn chút nào.
Kể cả khi nó được gắn mác là, "đây thực ra không phải là cô ấy."
Thật khó để nghĩ về chuyện như thế.
Đây có lẽ là một trong những chuyện khó khăn nhất bởi vì

Portuguese: 
E eles discutem se tudo isso é legal.
Alguns acham que podem se proteger,
identificando os vídeos como falsos.
Mas isso não é verdade.
Se você mora nos EUA e alguém faz pornô com o seu rosto, você pode processar o criador
independentemente se eles
marcaram ou não como um deepfake.
A verdade é que é realmente
muito difícil fazer isso.
Você precisaria pagar para entrar com uma ação, sem certeza de que seria capaz de garantir uma punição
ou até encontrar o criador, muito menos
impedir que o vídeo se espalhe.
Algumas pessoas, nesses sites, questionam
a moralidade do que eles estão fazendo.
E discordam sobre como se sentiriam
se acontecesse com eles.
Mas provavelmente
não vai acontecer com eles.
Esse é o ponto.
Tomar o rosto de uma mulher e colocá-lo
 nesse contexto faz parte de uma longa história
de usar humilhação sexual contra mulheres.
Você sabe, estamos tendo essa conversa gigantesca
sobre consentimento e eu não consinto.
É por isso que não está tudo bem.
Mesmo se estiver rotulado como
"Essa não é ela de verdade."
É difícil pensar sobre isso.
Esta é provavelmente
uma das coisas mais difíceis,

Spanish: 
Discuten acerca de si todo esto es legal.
Algunos piensan que pueden protegerse a sí mismos al ponerle una identificación a los videos para señalar que son falsos,
pero eso no es cierto.
Si vives en los Estados Unidos y alguien hace pornografía con tu rostro, puedes demandar al creador,
sin importar si están marcados o no como deepfakes.
Lo cierto es que es muy difícil hacer eso.
Necesitarías pagar para hacer una demanda, sin la certeza de que será posible asegurar un castigo
o siquiera encontrar al creador, y mucho menos detener la difusión del video.
Algunas personas en estos sitios se cuestionan la moralidad de lo que están haciendo
y no están de acuerdo acerca de cómo se sientirían si esto les pasara a ellos.
Pero probablemente no les va a suceder.
Ese es el punto.
Tomar el rostro de una mujer y ponerlo en este contexto es parte de una larga historia
de uso de humillación sexual contra las mujeres.
Estamos teniendo esta gigantesca conversación acerca del consentimiento y yo no consentí esto.
Por eso es que esto no está bien.
Incluso si está etiquetado como: «Esta no es ella en realidad».
Es difícil pensar acerca de eso.
Esta es probablemente una de las cosas más difíciles porque

Czech: 
Takové diskutují o tom, zda je to všechno legální.
Někteří si myslí, že se ochrání tím, že označí video jako podvržené.
To ale není pravda.
Pokud žijete ve Spojených státech a někdo vytvoří porno s vašim obličejem, můžete tvůrce žalovat
nehledě na to, jestli jen označil jako podvržené, či ne.
Ve skutečnosti je to ale velice složité.
Museli byste vznést obvinění bez toho, aniž byste si byla jistá, že uspějete
nebo vůbec jen odhalíte tvůrce. Nemluvě o zabránění šíření videa.
Někteří lidé na těchto stránkách zpochybňují nemorálnost takového počínání.
A nesouhlasí, že by se cítili špatně, kdyby se to stalo jim.
Ale jim se to pravděpodobně nestane.
O to jde.
Používání ženského obličeje v tomto kontextu je součástí dlouhé historie
používání sexuálního zesměšnění proti ženám.
Bavíme se o souhlasu a já svůj souhlas nedala.
Proto to není v pořádku.
Přesto, že je to označeno jako "Tohle ve skutečnosti není ona."
Těžko se to dá představit.
Nejtěžší na tom asi je to,

Portuguese: 
porque a pornografia falsa e o meu nome
serão associados para sempre.
Meus filhos, meus futuros filhos,
terão que ver coisas.
Meu futuro parceiro
terá que ver coisas.
E é isso que me deixa triste.
Só queria que a Internet fosse um pouco mais responsável e um pouco mais gentil.

Spanish: 
pornografía falsa y mi nombre estarán por siempre asociados.
Mis hijos, mis futuros hijos van a ver cosas,
mi futura pareja va a ver cosas
y eso es lo que me entristece.
Yo solo deseo que el Internet sea un poco más responsable y un poco más amable.

English: 
fake porn and my name will be forever associated.
My children, my future children, will
have to see things.
My future partner will have to see things.
And that's what makes me sad.
I just, I wish that the Internet were a little
bit more responsible and a little bit kinder.

Czech: 
že falešné porno a moje jméno budou už navždy spojeny.
Moje budoucí děti to budou moct vidět.
Můj budoucí partner to bude moct vidět.
To mě mrzí.
Přála bych si prostě jen, aby byl internet trošku zodpovědnější. Trošku zdvořilejší.

Indonesian: 
pornografi palsu akan selamanya dihubungkan sengan namaku.
Anak-anakkku, anak-anak masa depanku, akan harus melihat hal-hal itu.
Pasangan masa depanku harus melihat hal-hal itu.
Dan itu membuatku sedih.
Aku hanya berharap internet sedikit lebih bertanggung jawab dan baik hati.

Vietnamese: 
phim khiêu dâm giả và tên của tôi sẽ mãi mãi bị gắn với nhau.
Con tôi, cháu tương lai của tôi, sẽ phải thấy những thứ đó.
Người kết hôn với tôi sẽ phải thấy những thứ đó.
Điều đó làm tôi thực sự buồn.
Tôi chỉ, tôi ước là internet có trách nhiệm hơn một chút và tốt đẹp hơn một chút.
