
Swedish: 
Översättare: Elsa Juujärvi
Granskare: Lisbeth Pekkari
Varje dag, varje vecka,
godkänner vi villkor.
Och när gör vi detta
förser vi företag med den lagliga rätten
att göra vad de vill med våran data
och med våra barns data.
Vilket får oss att undra:
hur mycket data ger vi bort om barn,
och vad får det för konsekvenser?
Jag är antropolog och jag är även mamma
till två små flickor.
Och jag började bli intresserad
av denna fråga år 2015
när jag plötsligt insåg
att det fanns stora -
nästan otroliga mängder dataspår
som produceras och samlas om barn.

French: 
Traducteur: eric vautier
Relecteur: Claire Ghyselen
Chaque jour, chaque semaine,
nous acceptons des CGU.
Et ce faisant,
nous donnons aux entreprises le droit
de faire ce qu'elles veulent
avec nos données
et celles de nos enfants.
Ce qui nous amène à nous demander :
quelle quantité de données
donnons-nous sur nos enfants,
et quelles en sont les implications ?
Je suis anthropologue,
et je suis aussi la mère
de deux petites filles.
J'ai commencé à m'intéresser
à cette question en 2015
lorsque j'ai soudain réalisé
qu'il y avait de vastes,
et presqu'innombrables,
quantités de données
produites et collectées sur les enfants.
J'ai donc lancé un projet de recherche,

Modern Greek (1453-): 
Μετάφραση: Chryssa R. Takahashi
Επιμέλεια: Thanasis Zantrimas
Κάθε μέρα, κάθε εβδομάδα,
αποδεχόμαστε όρους και προϋποθέσεις.
Και όταν το κάνουμε αυτό,
παρέχουμε σε εταιρίες
το νόμιμο δικαίωμά τους
να κάνουν ό,τι θέλουν με τα δεδομένα μας
και τα δεδομένα των παιδιών μας.
Κάτι που μας κάνει να αναρωτηθούμε:
πόσα δεδομένα των παιδιών δίνουμε
και ποιο είναι το αντίκτυπό τους;
Είμαι ανθρωπολόγος
και μητέρα δύο μικρών κοριτσιών.
Άρχισα να ενδιαφέρομαι
γι' αυτό το ερώτημα το 2015
όταν συνειδητοποίησα ξαφνικά
ότι υπήρχε ένας αχανής,
σχεδόν αδιανόητος όγκος από ίχνη δεδομένων
που δημιουργείται και συλλέγεται
σχετικά με τα παιδιά.
Έτσι, ξεκίνησα ένα ερευνητικό έργο

Persian: 
Translator: Mohammad Badsar
Reviewer: Masoud Motamedifar
هر روز، هر هفته،
ما با شرایط و مواد 
قراردادها موافقت می‌کنیم.
و هنگامی که این کار را می‌کنیم،
به شرکت‌ها به لحاظ قانونی حق می‌دهیم
تا هر چه می‌خواهند با داده‌های ما
و داده‌های فرزندانمان انجام دهند.
که موجب تعجب است:
چه مقدار از اطلاعات فرزندان را 
ما در اختیار دیگران می‌گذاریم،
و عواقب آن چیست؟
من یک انسان‌شناس هستم،
و همچنین مادر دو دختر کوچک.
و من از سال ۲۰۱۵ به این سوال علاقمند شدم
زمانی که ناگهان دریافتم 
که تقریباً اطلاعات
بسیار گسترده و غیرقابل تصوری
دارد در مورد کودکان تولید 
و جمع‌آوری می‌شود.
بنابراین یک پروژه تحقیقاتی را آغاز کردم،

Arabic: 
المترجم: Shimaa Nabil
المدقّق: Nawfal Aljabali
كل يوم، كل أسبوع،
نوافق على شروط وأحكام.
وعندما نفعل ذلك،
نزود الشركات بالحق القانوني
لفعل ما تريده بالبيانات الخاصة بنا
وبيانات أطفالنا.
ما يجعلنا نتساءل:
كم من البيانات التي نمنحها عن الأطفال،
وما هي آثارها؟
أنا عالمة أنثروبولوجيا،
وأيضاً أم لطفلتين صغيرتين.
وبدأ اهتمامي بهذا السؤال في 2015
عندما أدركت فجأة أن ثمّة
كميات هائلة لا يمكن تخيلها
من تتبع البيانات
التي يتم إنتاجها وتجميعها عن الأطفال.
لذلك بدأت مشروعاً بحثياً،

Chinese: 
譯者: Lilian Chiu
審譯者: Carol Wang
每天，每週，
我們同意某些「條件及條款」。
當我們這麼做時，
我們便讓公司擁有合法的權利
可以任意使用我們的資料，
以及我們孩子的資料。
這會讓我們不禁納悶：
我們給出了有關孩子的多少資料，
以及這背後的意涵是什麼？
我是人類學家，
同時也是兩個小女孩的母親。
我從 2015 年開始
對這個問題感到好奇，
那年，我突然發現，有很大量——
和孩子有關的追蹤資料
被產生出來並收集起來，
且數量大到無法想像。

Portuguese: 
Tradutor: Beatriz Morais
Revisora: Margarida Ferreira
Todos os dias, todas as semanas,
nós concordamos com termos e condições.
E quando fazemos isso,
fornecemos às empresas o direito legal
de fazerem o que quiserem 
com os nossos dados
e com os dados dos nossos filhos.
O que nos leva pensar:
quantos dados dos nossos filhos
é que estamos a ceder,
e quais são as implicações disso?
Eu sou antropóloga,
mas também sou mãe 
de duas meninas pequenas.
Comecei a interessar-me
por esta questão em 2015
quando, de repente,
me apercebi de que havia
uma quantidade
quase inimaginável de dados
que estão a ser produzidos
e recolhidos sobre crianças.
Por isso, lancei
um projeto de investigação,

Spanish: 
Traductor: José María Hernández Vicente
Revisor: Lidia Cámara de la Fuente
Cada día de la semana, 
aceptamos términos y condiciones.
Al hacerlo,
damos a las empresas el derecho
de hacer lo que les plazca
con nuestra información
y con la de nuestros hijos.
Y nos preguntamos:
"¿cuántas cosas revelamos
sobre nuestros hijos?"
y "¿qué implica esto?".
Soy antropóloga
y también madre de dos niñas.
Empecé a interesarme en este tema en 2015,
cuando, de pronto, me di cuenta
de la casi inconcebible cantidad
de rastreos digitales
con los que se recopila
información de niños.

Portuguese: 
Tradutor: Higor Ribeiro
Revisor: Maricene Crus
Todo dia, toda semana, concordamos
com os termos e condições.
Quando fazemos isso, fornecemos
às empresas o direito legal
de fazerem o que quiserem
com nossos dados
e com os dados de nossos filhos.
O que nos faz questionar:
quantos dados sobre crianças nós damos,
e quais são as consequências?
Eu sou antropóloga
e mãe de duas garotinhas.
Passei a ter interesse nisso em 2015
quando subitamente percebi que existem
quantidades de dados enormes,
quase inimagináveis,
sendo produzidas
e coletadas sobre crianças.
E então, comecei um projeto de pesquisa,

Romanian: 
Traducător: Cristian Boros
Corector: Bianca-Ioanidia Mirea
În fiecare zi, în fiecare săptămână,
acceptăm termeni și condiții.
Când facem asta,
oferim companiilor dreptul legal
să facă ce vor cu informațiile noastre
și ale copiilor noștri.
Ceea ce ne face să ne întrebăm:
câte informații
referitoare la copii oferim,
și care sunt implicațiile?
Sunt antropolog
și mamă a două fetițe.
Această întrebare a început
să mă intereseze în 2015,
când am realizat subit că sunt multe —
aproape inimaginabil de multe date
care sunt produse și colectate
referitoare la copii.
Am lansat un proiect de cercetare

English: 
Transcriber: Leslie Gauthier
Reviewer: Joanna Pietrulewicz
Every day, every week,
we agree to terms and conditions.
And when we do this,
we provide companies with the lawful right
to do whatever they want with our data
and with the data of our children.
Which makes us wonder:
how much data are we giving
away of children,
and what are its implications?
I'm an anthropologist,
and I'm also the mother
of two little girls.
And I started to become interested
in this question in 2015
when I suddenly realized
that there were vast --
almost unimaginable amounts of data traces
that are being produced
and collected about children.
So I launched a research project,

Polish: 
Tłumaczenie: Dariusz Szczuraszek
Korekta: Barbara Guzik
Każdego dnia, każdego tygodnia,
akceptujemy różne warunki.
Robiąc to,
udzielamy firmom prawa
do dowolnego dysponowania naszymi danymi
oraz danymi naszych dzieci.
Dlatego też zastanawiamy się,
jak wiele danych naszych dzieci oddajemy
i jakie są tego konsekwencje?
Jestem antropologiem
oraz matką dwóch małych dziewczynek.
Zaczęłam się interesować
tym problemem w roku 2015,
kiedy to nagle uświadomiłam sobie,
jak ogromna jest, prawie niewyobrażalna,
ilość danych produkowanych
i gromadzonych na temat dzieci.
Dlatego zaczęłam projekt badawczy,

Uzbek: 
Translator: Shokhnur Akhmedov
Reviewer: Nazarbek Nazarov
Har kuni, har hafta
biz foydalanish shartlariga rozi bo'lamiz.
Va biz rozi bo'lganimzida
biz kompaniyalarga
qonuniy huquq taqdim etamiz
ma'lumotlarimiz bilan
istalgan ish qilishiga
va farzandlarimizning 
ma'lumotlari bilan ham.
Hayron qolarlisi,
biz bolalarning ancha ma'lumotlarini 
berib yuboryapmiz.
Bularning oqibati qanday bo'ladi?
Men antropologman,
shuningdek, ikki qizchaning onasiman.
Men bu savolga 
2015-yilda qiziqishni boshlagandim.
O'shanda kutilmaganda shuni angladim,
ulkan va aql bovar qilmas
hajmdagi bolalar haqidagi ma'lumotlar
ishlab chiqarilishi va to'planishini.
Shu tarzda ilmiy loyihamni boshladim.

iw: 
תרגום: מיכל סלמן
כל יום, כל שבוע,
אנו מסכימים לתנאים ולהגבלות.
וכשאנחנו עושים זאת,
אנחנו מספקים לחברות את הזכות החוקית
לעשות מה שהם רוצים עם הנתונים שלנו
ועם הנתונים של ילדינו.
מה שגורם לנו לתהות:
כמה נתונים על ילדים אנו מוסרים,
ומה ההשלכות של כך?
אני אנתרופולוגית,
ואני גם אימא לשתי ילדות קטנות.
והתחלתי להתעניין בשאלה זו בשנת 2015
כשלפתע הבנתי שהיו כמויות עצומות
כמויות כמעט בלתי נתפסות של עקבות נתונים
אשר מיוצרים ונאספים בקשר לילדים.
אז השקתי פרויקט מחקר,

Russian: 
Переводчик: Samara Zhumabaeva
Редактор: Anna Zvereva
Каждый день, каждую неделю,
мы соглашаемся c положениями и условиями.
Делая такой шаг,
мы предоставляем компаниям законное право
делать всё, что они хотят с нашими данными
и данными наших детей.
Что заставляет нас задуматься:
какое количество данных о детях
мы предоставляем,
и какие последствия это за собой повлечёт?
Я антрополог,
а также мать двух маленьких девочек.
В 2015 году я начала
интересоваться этим вопросом
и внезапно осознала,
что существует огромное,
почти невообразимое количество
собираемых о детях данных.
Поэтому я запустила
исследовательский проект

Chinese: 
翻译人员: Ashley Huang
校对人员: Yolanda Zhang
每一天， 每一个星期，
我们都会同意各种服务条款。
每当我们这样做，
我们其实就赋予了公司法律上的权利，
用我们的数据去做任何事，
也包括我们孩子的数据。
这难免使我们感到困惑：
我们到底提供了多少
关于孩子的数据，
它们的用途又是什么？
我是个人类学家，
也是两个女孩的母亲。
2015 年，我开始关注这个问题，
当时我突然发现很多科技公司
从孩子那里搜集到了
庞大到无法想象的数据信息。
所以我启动了一个研究项目，

Turkish: 
Çeviri: bulent yavuz
Gözden geçirme: Ezgisu Karakaya
Her gün, her hafta
farklı şart ve koşulları kabul ediyoruz.
Bunu yaparken de
şirketlere hem bizim verilerimizle
hem de çocuklarımızın verileriyle
istediklerini yapma hakkını veriyoruz.
Bu da bizi düşündürüyor:
Çocuklarımızın verilerinin
ne kadarını açık ediyoruz
ve bunun sonuçları ne olabilir?
Ben bir antropoloğum.
Aynı zamanda iki küçük kız annesiyim.
Bu soruyla ilgilenmeye 2015'te başladım.
Çocuklarla ilgili çok fazla
hatta inanılmaz sayıda veri izinin
üretilip toplandığını fark ettiğimde.
Çocuk Verisi Vatandaşı isminde

Hungarian: 
Fordító: Zsofia Gocze
Lektor: Péter Pallós
Minden nap és minden héten
szerződési feltételekhez
és kikötésekhez járulunk hozzá.
Ekkor
jogilag felhatalmazunk cégeket,
hogy adatainkkal,
így gyermekeink adataival is,
tetszésük szerint bánjanak.
Ami elgondolkoztathat minket:
mekkora adatmennyiséget
adunk ki gyermekeinkről,
és mik ennek a következményei?
Antropológus vagyok,
és egyúttal két kislány édesanyja.
2015-ben kezdett el
foglalkoztatni ez a kérdés,
amikor hirtelen feleszméltem,
hogy széles körű, csaknem elképzelhetetlen
mennyiségű adatnyom
gyűlik össze és érhető el gyermekeinkről.
Ezért kutatómunkát indítottam

French: 
appelé « Child Data Citizen »,
et j'ai cherché à remplir le vide.
Vous pensez peut-être
que je suis ici pour vous reprocher
de publier des photos de vos enfants
sur les médias sociaux,
mais là n'est pas la question.
Le problème est bien plus important
que le soi-disant « sharenting ».
Il s'agit de systèmes et non d'individus.
Vous et vos habitudes
ne sont pas à blâmer.
Pour la toute première
fois dans l'Histoire,
nous suivons
les données individuelles des enfants
bien avant leur naissance -
parfois dès la conception,
puis tout au long de leur vie.
Vous voyez, lorsque les parents
décident de concevoir,
ils vont chercher sur Internet
des « moyens de tomber enceinte »
ou les femmes téléchargent
des applications de suivi de l'ovulation.
Lorsqu'elles tombent enceintes,
elles publient les échographies
sur les médias sociaux,
téléchargent des applications de grossesse
ou consultent Dr Google
pour toutes sortes de choses,

Arabic: 
والذي يسمى مواطن بيانات الطفل،
وأهدف إلى ملء الفراغ.
الآن ربما تفكر أنني ألومك
لنشر صور أطفالك
على وسائل التواصل الاجتماعي،
لكن هذا ليس الهدف.
المشكلة أكبر بكثير مما يسمى بـ "المشاركة".
هذا عن الأنظمة وليس عن الأفراد.
لا تُلامون أنتم وعاداتكم.
لأول مرة في التاريخ،
نقوم بتتبع البيانات الفردية للأطفال
منذ وقت طويل قبل ولادتهم -
ومن لحظة الحمل أحياناً،
وخلال حياتهم بعد ذلك.
كما تعرفون، عندما يقرر الآباء الحمل،
يبحثون عبر الإنترنت عن "طرق الحمل"
أو يقومون بتحميل تطبيقات تتبع التبويض.
عندما يحصل الحمل،
ينشرون الموجات فوق الصوتية لأطفالهم
على وسائل التواصل الاجتماعي،
يقومون بتحميل تطبيقات الحمل
أو استشارة دكتور جوجل لهذه الأشياء،

Chinese: 
於是，我展開了一項研究計畫，
名稱叫做「兒童資料公民」，
我的目標是要填補這些空白。
各位可能會認為我是來責怪大家
在社群媒體上張貼
自己孩子的照片，
但那其實不是重點。
問題遠大於所謂的
「分享式教養」。
重點在於體制，而不是個人。
要怪的不是你們和你們的習慣。
史無前例，
我們遠在孩子出生之前
就開始追蹤他們的個人資料——
有時是從懷孕就開始，
接著便追蹤他們的一生。
要知道，當父母決定要懷孕時，
他們會上網搜尋「懷孕的方式」，
或者他們會下載
排卵追蹤應用程式。
當他們確實懷孕之後，
他們會把寶寶的超音波照片
張貼在社群媒體上，
他們會下載懷孕期應用程式，
或者他們會向 Google 大神
諮詢各種相關事項。

Uzbek: 
Uni Bola Ma'lumot Fuqaro deb nomladim
va bo'shliqni to'ldirishni maqsad qildim.
Endi o'ylashingiz mumkin 
meni hozir sizni aybdor qiladi deb
ijtimoiy tarmoqga farzandingiz
rasmini joylaganingiz uchun
ammo gap bunda emas,
Muammo bundan ko'ra ancha yirikroqdir.
Hammasi tizimga bog'liq,
odamlarga emas.
SIz va sizning odatlaringiz aybdor emas.
Tarixda birinchi bor,
biz bolalarning 
ma'lumotlarini kuzatmoqdamiz
ularning tug'ilishidan ancha oldin
urug'lanish paytidan boshlab,
va butun hayoti davomida.
Bilamizki, ota-onalar farzand 
ko'rishmoqchi bo'lsihganida,
ular "homilador bo'lish yo'llari"ni 
onlayn qidirishadi,
yoki ovulyatsiyani kuzatadgan 
ilovalarni yuklab olishadi.
Ular homilador bo'lishganida esa,
ular chaqalog'ining ultratovushini
ijtimoiy tarmoqqa yuklaydi,
homiladorlik ilovalarini yuklab olishadi
yoki Doktor Google bilan 
hamma narsa haqida maslahatlashishadi,

Portuguese: 
chamado Child Data Citizen,
com o objetivo de preencher
os espaços em branco.
Podem pensar
que estou aqui para vos acusar
de publicarem fotos dos vossos filhos
nas redes sociais,
mas o problema não é esse.
O problema é muito maior
do que o chamado "sharenting."
Isto é sobre sistemas,
não é sobre indivíduos.
Vocês e os vossos hábitos 
não são os culpados.
Pela primeira vez na história,
estamos a rastrear os dados 
individuais de crianças
desde antes de elas nascerem
— por vezes, desde o momento da conceção,
e depois ao longo da vida delas.
Como veem, quando os pais
decidem conceber,
vão "online" pesquisar
"maneiras de engravidar,"
ou descarregam aplicações 
de monitorização da ovulação.
Quando engravidam,
publicam as ecografias
dos bebés nas redes sociais,
descarregam aplicações de gravidez
ou consultam o Dr. Google
para todo o tipo de coisas,

Modern Greek (1453-): 
που ονομάζεται Child Data Citizen,
κι ο στόχος του είναι να καλύψει τα κενά.
Τώρα ίσως νομίζετε ότι είμαι εδώ
για να σας ρίξω το φταίξιμο
που ανεβάζετε φωτογραφίες 
των παιδιών σας στα κοινωνικά μέσα,
αλλά δεν είναι αυτό το θέμα.
Το θέμα είναι πολύ μεγαλύτερο
από τους γονείς που μοιράζονται τα πάντα.
Έχει να κάνει με τα συστήματα,
όχι με μεμονωμένα άτομα.
Δεν φταίτε εσείς και οι συνήθειές σας.
Για πρώτη φορά στην ιστορία
παρακολουθούμε τα μεμονωμένα δεδομένα
των παιδιών πολύ πριν τη γέννησή τους.
Μερικές φορές από τη στιγμή της σύλληψης
και μετά σε όλη τους τη ζωή.
Όταν οι γονείς αποφασίζουν
να κάνουν παιδιά,
μπαίνουν στο ίντερνετ ψάχνοντας
τρόπους για την εγκυμοσύνη
ή κατεβάζουν εφαρμογές
παρακολούθησης ωορρηξίας.
Όταν μείνουν έγκυες,
ανεβάζουν τους υπερήχους
από το μωρό τους στα κοινωνικά μέσα,
κατεβάζουν εφαρμογές εγκυμοσύνης
ή παίρνουν συμβουλές
από τον Δρ Google για διάφορα,

Portuguese: 
chamado Child Data Citizen,
que almeja preencher essa lacuna.
Talvez, pensem que estou
aqui para culpar vocês
por postar fotos
de seus filhos nas redes sociais,
mas esse não é o ponto.
O problema é bem maior
que o assim chamado "sharenting".
É sobre sistemas, não indivíduos.
A culpa não é dos seus hábitos.
Pela primeira vez na história,
estamos rastreando os dados
individuais das crianças
bem antes de elas nascerem,
às vezes, do momento da concepção
e depois ao longo da vida delas.
Quando os pais decidem conceber,
buscam on-line por "formas de engravidar",
ou fazem download de aplicativos
que rastreiam a ovulação.
Quando a mulher consegue engravidar,
eles postam fotos do ultrassom
do bebê nas redes sociais,
baixam aplicativos de gravidez
ou consultam o Dr. Google
para saber sobre tudo,

Chinese: 
叫“儿童数据市民”，
希望能够填补空缺的信息。
现在，你们有可能以为我在责怪你们
在社交网络上传了孩子的照片，
但是这不是重点。
实际问题比分享要严重得多。
这事关系统，而不是个人。
你的行为习惯并没有错。
历史上首次，
我们开始追踪孩子的个人数据，
从他们出生之前——
有时候是从受孕开始，
然后贯穿他们的一生。
通常，当家长决定要一个孩子，
他们会在网上搜索 “怎么怀孕”，
或者下载排卵期追踪软件。
等到真的怀孕了，
他们会在社交网络上
发布宝宝的超音波图像，
下载关于怀孕的软件，
或者在谷歌上搜索相关信息。

Romanian: 
numit Child Data Citizen,
menit să umple spațiile goale.
Acum ați putea crede că sunt aici
ca să vă învinuiesc
că postați poze cu propriii copii
pe rețele de socializare,
dar nu e acesta scopul.
Problema e mult mai mare
decât așa-numitul „părin-share”.
E vorba de sisteme, nu de indivizi.
Nu voi și obiceiurile voastre
sunt de vină.
Pentru prima oară în istorie,
urmărim informații individuale
ale copiilor
cu mult înainte să se nască —
câteodată de la momentul concepției
iar după, pe parcursul vieții.
Vedeți voi, când părinții decid
să conceapă un copil,
caută online „moduri de a rămâne
însărcinată”,
sau descarcă aplicații care urmăresc
perioada de ovulație.
Când rămân însărcinate,
postează ultrasunetele
bebelușului pe rețele de socializare,
descarcă aplicații pentru graviditate,
sau îl consultă pe Dr. Google
pentru tot felul de lucruri

English: 
which is called Child Data Citizen,
and I aimed at filling in the blank.
Now you may think
that I'm here to blame you
for posting photos
of your children on social media,
but that's not really the point.
The problem is way bigger
than so-called "sharenting."
This is about systems, not individuals.
You and your habits are not to blame.
For the very first time in history,
we are tracking
the individual data of children
from long before they're born --
sometimes from the moment of conception,
and then throughout their lives.
You see, when parents decide to conceive,
they go online to look
for "ways to get pregnant,"
or they download ovulation-tracking apps.
When they do get pregnant,
they post ultrasounds
of their babies on social media,
they download pregnancy apps
or they consult Dr. Google
for all sorts of things,

Hungarian: 
Child Data Citizen elnevezéssel,
és a homályos foltok felfedését
tűztem ki célul.
Talán arra gondolhatnak,
önöket hibáztatom,
mert gyermekeikről képeket
posztolnak a közösségi médiában,
de nem ez a lényeg.
A baj annál sokkal nagyobb,
mint az ún. “szülői megosztás”.
A rendszerekkel van baj,
nem az egyéni szokásokkal.
Szokásaink nem hibáztathatók.
Először a történelemben,
gyermekeink egyedi adatait
még jóval születésük előtt rögzítjük;
gyakran már fogantatásuk pillanatától,
majd később egész életük során.
Amikor szülők gyermekvállalás
mellett döntenek,
interneten rá szoktak keresni
a “hogyan eshetek teherbe” témára,
vagy letöltenek egy ovulációs alkalmazást.
Amikor várandósak,
babáikról a közösségi médiában
posztolnak ultrahangképeket,
terhességi alkalmazásokat töltenek le
vagy dr. Google tanácsát kérik ki
mindenféle ügyben,

Swedish: 
Så jag lanserade ett forskningsprojekt
som heter Child Data Citizen
och jag siktade på att fylla tomrummen.
Nu kanske du tror att
jag är här för att skylla på er
för att ni lägger upp bilder
på era barn på sociala medier
men det är inte riktigt poängen.
Problemet är mycket större
än så kallat "sharenting."
Detta handlar om system, inte individer.
Du och dina vanor är inte att skylla på.
För första gången i historien
spårar vi individuell data om barn
från långt innan de är födda -
ibland från befruktningsögonblicket,
och sedan genom deras liv.
Du förstår, när föräldrar bestämmer sig
för att skaffa barn
går de online för att söka på
"sätt att bli gravid,"
eller så laddar de ned appar
för ägglossningsspårning.
När de blir gravida
postar de ultraljud av sina
bäbisar på sociala medier,
de laddar ned graviditetsappar
eller så konsulterar de dr Google
om alla möjliga saker,

iw: 
בשם נתוני אזרח ילד,
וכיוונתי למלא את החסר.
כעת אתם עשויים לחשוב
שאני כאן כדי להאשים אתכם
על כך שאתם מפרסמים תמונות
של ילדיכם במדיה החברתית,
אבל זה לא באמת העניין.
הבעיה היא הרבה יותר גדולה
ממה שמכונה "שיתוף יתר של הורים".
העניין כאן הוא מערכות, ולא יחידים.
אתם וההרגלים שלכם אינם אשמים.
בפעם הראשונה בהיסטוריה,
אנו עוקבים אחר הנתונים האישיים של ילדים
הרבה לפני שהם נולדים,
לפעמים מרגע ההתעברות,
ואז לאורך חייהם.
אתם מבינים, כשההורים מחליטים להרות,
הם נכנסים לאינטרנט לחפש
אחר "דרכים להיכנס להריון"
או שהם מורידים אפליקציות למעקב אחר ביוץ.
כשהם נכנסים להריון,
הם מפרסמים את תוצאות האולטרסאונד
של תינוקותיהם במדיה החברתית,
הם מורידים אפליקציות להריון
או שהם מתייעצים עם ד"ר גוגל
בכל מיני עניינים,

Turkish: 
bir araştırma projesi başlattım.
Hedefim bu boşluğu doldurmaktı.
Çocuklarınızın fotoğraflarını
sosyal medyada paylaştığınız için
sizi kınamaya geldiğimi düşünebilirsiniz
fakat demek istediğim şey bu değil.
Sorun sosyal medya 
ebeveynliğinden çok daha büyük.
Bu bireylerle değil sistemlerle ilgili.
Suçlu olan siz ve alışkanlıklarınız değil.
Tarihte ilk kez
çocukların bireysel 
verilerini takip ediyoruz,
doğumlarından çok daha öncesinden --
bazen gebeliğin başladığı andan itibaren
ve tüm hayatları boyunca.
Ebeveynler çocuk yapmaya karar verdiğinde
internetten "hamile kalma yöntemleri" arar
ya da ovülasyon takip
uygulamaları indirirler.
Hamile kaldıklarında
ultrason resimlerini
sosyal medyada paylaşır,
hamilelik uygulamaları indirir
ya da her türlü konuda
Dr. Google'a danışırlar.

Polish: 
który nazwałam Child Data Citizen,
żeby dowiedzieć się czegoś więcej.
Możecie pomyśleć,
że jestem tu, żeby was obwiniać
za umieszczanie zdjęć swoich dzieci
w mediach społecznościowych,
ale nie o to chodzi.
Problem jest o wiele większy
niż "sharenting",
czyli udostępnianie treści przez rodziców.
Problem tkwi w systemie, nie w ludziach.
Wy i wasze nawyki
nie jesteście temu winni.
Pierwszy raz w historii
śledzimy dane osobowe dzieci
jeszcze przed ich narodzinami,
czasem od momentu poczęcia,
a potem przez całe ich życie.
Kiedy rodzice decydują się na dziecko,
szukają w Internecie
sposobów na zajście w ciążę
albo ściągają aplikacje
do śledzenia owulacji.
Kiedy w końcu udaje się zajść w ciążę,
zamieszczają USG swoich dzieci
w mediach społecznościowych,
ściągają aplikacje ciążowe
albo konsultują się z doktorem Google
na temat różnych rzeczy,

Spanish: 
Por ello, inicié un proyecto
llamado "Child Data Citizen",
con el objetivo de llenar ese vacío.
Quizás piensen que vengo a reprocharles
que suban fotos de sus hijos
a las redes sociales.
Pero no he venido a eso.
Esto es mucho más grave
que el llamado "sharenting".
Esto no va de individuos,
sino de sistemas.
Sus hábitos y Uds. 
no tienen culpa de nada.
Por primerísima vez en la historia,
rastreamos la información de cada niño
desde mucho antes de nacer.
En ocasiones, antes de la fecundación
y luego, a lo largo de sus vidas.
Cuando los padres deciden tener un hijo,
buscan en internet
"formas de quedar embarazada"
o descargan aplicaciones
para controlar la ovulación.
Cuando llega el embarazo,
suben ecografías de sus bebés
a las redes sociales,
descargan aplicaciones para embarazadas
o preguntan de todo al doctor Google,
Todo tipo de cosas, como:

Russian: 
под названием Child Data Citizen
и намерена заполнить эту пустоту.
Возможно, вы подумаете,
что я пришла сюда обвинять вас
в публикации фотографий ваших детей
в социальных сетях,
но дело не в этом.
Проблема намного шире,
чем так называемое «делительство».
Она носит системный характер,
а не индивидуальный.
Вы и ваши привычки не виноваты.
Впервые в истории
мы отслеживаем личные данные детей
задолго до их рождения,
иногда — с момента зачатия,
а в дальнейшем — на протяжении жизни.
Понимаете, когда родители
решают зачать ребенка,
они идут в интернет,
чтобы посмотреть «способы забеременеть»,
или скачивают приложения 
для отслеживания овуляции.
Забеременев,
они публикуют фото УЗИ своих детей 
в социальных сетях,
скачивают приложения для 
отслеживания беременности,
или консультируются с доктором Гуглом
по всем вопросам,

Persian: 
که «شهروند داده‌های کودک» نام دارد،
و قصد داشتم این جای خالی را پر کنم.
حالا ممکن است فکر کنید 
قصد دارم شما را مقصر بدانم
برای اینکه عکس فرزندان‌تان را 
در فضای مجازی می‌گذارید،
اما واقعاً بحث من این نیست.
مسئله بسیار بزرگتر از چیزی به نام 
«دراختیارگذاری اطلاعات و تصاویر کودک» است.
این موضوع در مورد نظام است نه افراد.
قرار نیست شما و عادات‌تان را مقصر بدانیم.
برای اولین بار در تاریخ،
ما داریم داده‌های انفرادی 
کودکان را ردیابی می‌کنیم
آن هم مدت‌ها قبل از تولد--
گاهی از لحظه تصمیم‌گیری برای حاملگی،
و سپس در طول حیاتشان.
می‌بینید، زمانی که والدین تصمیم 
به فرزندآوری می‌گیرند،
به اینترنت مراجعه می‌کنند 
تا «روش‌های باردار شدن» را جستجو کنند،
یا اپلیکیشن‌های ردیابی 
تخمک‌گذاری را دانلود می‌کنند.
هنگامی که باردار می‌شوند،
فرا‌صوت رادیویی نوزادشان را 
در فضای مجازی می‌فرستند،
اپلیکیشن‌های حاملگی را دانلود می‌کنند
یا در مورد همه چیز 
با دکتر گوگل مشورت می‌کنند،

Romanian: 
cum ar fi, știți voi —
„risc de pierdere a sarcinii
în timpul zborului”
sau „crampe abdominale
în graviditatea timpurie”.
Știu pentru că am făcut și eu asta —
de multe ori.
Iar după ce bebelușul s-a născut,
aplicațiile îi monitorizează somnul,
hrănirea,
fiecare eveniment din viață
cu diferite tehnologii.
Și din toate aceste tehnologii,
transformă cele mai intime informații
despre bebeluș în profit,
împărtășindu-le cu alții.
Ca să vă dau o idee cum funcționează:
în 2019, British Medical Journal
a publicat o cercetare care arăta
că din 24 de aplicații de mobil
pentru sănătate,
19 împărtășeau informațiile
cu părți terțe.
Iar aceste părți terțe împărtășeau
informațiile cu alte 216 organizații.
Din aceste 216 organizații,
doar trei aparțineau sectorului medical.

Uzbek: 
o'zingiz bilasiz --
"parvoz davomida 
bolaning tushib qolish xavfi"
yoki "erta homiladorlikdagi 
qorindagi spazmlar" haqida.
Men bilaman, chunki 
shunday qilganman
va ko'p marta.
Bola tug'ilganida esa,
ular kuzatishadi: uning har uyqusini,
ovqatlanishini,
hayotining har bir harakatini,
turli texnologiyalarda.
Va bu texnologiyalar
chaqaloqning shaxsiy ma'lumotlarini 
foydaga aylantirishadi, ularni
boshqalar bilan 
ulashgan holda.
Mana bu qanday ishlaydi,
2019-yilda Britaniya Tibbiyot Jurnali 
bir tadqiqotni nashr qildi.
Unda aytilishicha 24 mobil 
sog'liq ilovasidan
19 tasi ma'lumotlarni 
uchinchi tomon bilan bo'lishishgan.
Va bu uchinchi tomonlar ma'lumotni 
216 tashkilot bilan bo'lishishgan.
Bu 216 tashkilotdan
bor-yo'g'i uchtasi sog'liqni saqlash 
tizimiga oid.

Turkish: 
Şunun gibi konular:
"Uçak yolculuğunda düşük riski"
ya da "erken hamilelik 
döneminde mide krampları"
Biliyorum çünkü ben de yaşadım,
defalarca.
Sonrasında, bebek doğduğunda
farklı teknolojiler kullanarak
her uykuyu, her beslenmeyi
hayattaki her anı takip ederler.
Bu teknolojilerin tümü
bebeğin en mahrem 
davranışlarını ve sağlık verilerini
başkalarıyla paylaşarak paraya dönüştürür.
Nasıl çalıştığını size anlatayım.
2019'dan bir British Medical Journal
araştırması gösteriyor ki
her 24 mobil sağlık uygulamasından 19'u
bilgilerinizi üçüncü 
şahıslarla paylaşıyor.
Bu üçüncü şahıslar da bilgileri
216 başka kurumla paylaşıyor.
Bu 216 dördüncü şahıstan
sadece 3'ü sağlık sektöründe bulunuyor.

Hungarian: 
olyan dolgokban, mint:
“vetélés kockázata repüléskor”,
“hasi görcsök a várandósság
korai szakaszában“.
Tudom, mert én is csináltam,
sokszor.
Amikor megszületik a baba,
rögzítenek minden alvást,
minden etetést,
minden eseményt különféle technológiákkal.
Minden ilyen technológia
a baba legintimebb viselkedési
és egészségügyi adatát profittá alakítja
a megosztásuk révén.
Hogy szemléletessé váljon,
hogy is működik ez,
2019-ben a British Medical Journalben
megjelent kutatás feltárta,
hogy 24 egészségügyi mobilalkalmazás közül
19 harmadik féllel is
megosztott információkat.
Majd ezek további 216 másik szervezettel
osztották meg az információkat.
A 216 további fél közül
csak három tartozott
egészségügyi ágazatba.

Portuguese: 
por exemplo,
"risco de aborto involuntário
ao pegar um avião"
ou "cãibras abdominais
no início da gravidez".
Eu sei porque já fiz isso, muitas vezes.
E então, quando o bebê nasce,
monitoram cada cochilo, cada refeição,
cada evento da vida dele
em uma tecnologia diferente.
E todas essas tecnologias
transformam os dados mais íntimos
do comportamento e saúde do bebê em lucro
através do compartilhamento.
Explicando basicamente como isso funciona,
em 2019, uma pesquisa publicada
pelo British Medical Journal mostrou
que de 24 aplicativos de saúde,
19 compartilharam
informações com terceiros.
E esses terceiros compartilharam
informações com outras 216 organizações.
Dessas 216 organizações,
somente três pertenciam ao setor da saúde.

French: 
comme, vous savez...
« le risque de fausse couche en avion »
ou « les crampes abdominales
en début de grossesse ».
Je le sais parce que je l'ai fait -
et plusieurs fois.
Et puis, quand le bébé est né,
elles suivent chaque sieste,
chaque repas,
chaque événement de la vie
sur différentes technologies.
Et toutes ces technologies
font de l'argent
avec les données les plus intimes
du bébé - son comportement et sa santé -
en les partageant avec d'autres.
Pour vous montrer comment cela fonctionne,
en 2019, le British Medical Journal
a publié une étude qui a montré
que sur 24 applications de santé mobiles,
19 partageaient des informations
avec des tierces parties,
qui elles-mêmes les partageaient
avec 216 autres entités.
Sur ces 216 entités,
seules trois appartenaient
au secteur de la santé.

iw: 
למשל, אתם יודעים -
לגבי "הסיכון להפיל בזמן טיסה"
או "התכווצויות בטן בתחילת ההיריון."
אני יודעת כי אני עשיתי את זה -
הרבה פעמים.
ואז, כשהתינוק נולד,
הם עוקבים אחר כל תנומה,
כל האכלה,
כל אירוע בחיים על גבי טכנולוגיות שונות.
וכל הטכנולוגיות האלה
הופכות את נתוני ההתנהגות והבריאות 
הכי אינטימיים של התינוק לרווח
בכך שהן משתפות אותם עם אחרים.
אז כדי לתת לכם מושג איך זה עובד,
בשנת 2019, כתב העת הרפואי הבריטי
פרסם מחקר שהראה
כי מתוך 24 אפליקציות בריאות לנייד,
19 שיתפו את המידע עם צד שלישי.
ואלה שבצד שלישי שיתפו מידע
עם 216 ארגונים אחרים.
מבין 216 אלה שהיוו צד רביעי,
רק שלושה היו שייכים לענף הבריאות.

Chinese: 
比如——
搜尋「飛行造成的流產風險」，
或「懷孕初期的腹痛」。
我知道是因為我做過許多次。
等寶寶出生了，他們會用各種技術
追蹤每次小盹、每次進食、
生命中的每件事。
而他們用的這些技術，
都會把寶寶最私密的行為
和健康資料分享出去，
以轉換成利潤。
讓我說明一下這是怎麼運作的：
2019 年，英國醫學期刊
刊出了一篇研究，
指出在二十四個
行動健康應用程式中，
有十九個會和第三方分享資訊。
而這些第三方會把資訊分享給
兩百一十六個其他組織。
在這兩百一十六個第四方當中，
只有三個屬於健康領域。

Portuguese: 
como, por exemplo,
"risco de aborto ao viajar de avião"
ou "dores abdominais
no início da gravidez."
Eu sei disto porque já o fiz,
e várias vezes.
Depois, quando o bebé nasce, 
eles registam cada sesta, cada refeição,
cada acontecimento na sua vida,
em diferentes tecnologias.
E todas estas tecnologias,
transformam em lucro
os dados comportamentais
e médicos mais íntimos do bebé
ao partilhá-los com outros.
Para vos dar uma ideia
de como isto funciona,
em 2019, o British Medical Journal 
publicou uma investigação
que mostrava que,
de 24 aplicações móveis de saúde,
19 partilhavam informações com terceiros.
E esses terceiros partilhavam informações
com outras 216 organizações.
Destas outras 216 organizações,
apenas 3 pertenciam ao setor da saúde.

English: 
like, you know --
for "miscarriage risk when flying"
or "abdominal cramps in early pregnancy."
I know because I've done it --
and many times.
And then, when the baby is born,
they track every nap,
every feed,
every life event
on different technologies.
And all of these technologies
transform the baby's most intimate
behavioral and health data into profit
by sharing it with others.
So to give you an idea of how this works,
in 2019, the British Medical Journal
published research that showed
that out of 24 mobile health apps,
19 shared information with third parties.
And these third parties shared information
with 216 other organizations.
Of these 216 other fourth parties,
only three belonged to the health sector.

Arabic: 
مثل، كما تعرفون-
عن "مخاطر الإجهاض عند الطيران"
أو "تشنجات البطن في وقت مبكر من الحمل."
أعلم لأنني فعلت ذلك -
مرات عديدة.
عندما يولد الطفل وبعد ذلك،
يتتبعون كل قيلولة،
كل وجبة،
كل حدث في حياته على تقنيات مختلفة.
وتحول كل هذه التقنيات
البيانات الخاصة بصحة الطفل
وسلوكه الأكثر خصوصية إلى ربح
بمشاركتها مع الآخرين.
لأبين لكم فكرة عمل هذا،
في 2019، نشرت المجلة الطبية
البريطانية بحثاً يوضح
أن من كل 24 تطبيقاً خاصاً بالهاتف المحمول،
ينشر 19 منهم معلومات مع أطراف ثالثة.
وتقوم هذه الأطراف بمشاركة
المعلومات مع 216 منظمة أخرى.
ومن هذه الـ 216 طرف رابع،
ينتمي 3 منهم فقط للقطاع الطبي.

Persian: 
می‌دانید، مثل --
«خطر سقط جنین هنگام پرواز با هواپیما»
یا «گرفتگی عضلات شکم در ابتدای بارداری.»
می‌دانم چون خودم این کار را کرده‌ام --
و دفعات بسیار.
و هنگامی که نوزاد متولد می‌شود 
همه چیز را ردیابی می‌کنند
هر چُرت، هر غذا دادن،
هر رویداد حیاتی را با فناوری‌های مختلف 
پیگیری می‌کنند.
همه این فناوری‌ها
خصوصی‌ترین رفتار و داده‌های سلامت 
کودک را به سود تبدیل می‌کنند
تنها با به اشتراک گذاری آن با دیگران.
برای اینکه به شما بفهمانم چطور عمل می‌کند،
در سال ۲۰۱۹، بریتیش مدیکال ژورنال 
پژوهشی منتشر کرد که نشان می‌داد
از هر ۲۴ اپلیکیشن حوزه سلامت،
۱۹ مورد اطلاعات را در اختیار 
یک گروه ثالث می‌گذارند.
و این گروه‌های ثالث اطلاعات را 
در اختیار ۲۱۶ سازمان دیگر می‌گذارند.
از این ۲۱۶ تا بعنوان گروه چهارم،
فقط سه مورد متعلق به بخش سلامت بودند.

Polish: 
takich jak
ryzyko poronienia podczas lotu
albo skurcze brzucha na początku ciąży.
Wiem to, bo przez to przeszłam.
Wiele razy.
A kiedy dziecko się narodzi,
monitorują każdą drzemkę, każde karmienie,
każde wydarzenie,
za pomocą różnych technologii.
Te wszystkie technologie
zamieniają najbardziej prywatne dane
o zachowaniu i zdrowiu dziecka w zysk
poprzez udostępnianie ich innym.
Podam przykład tego, jak to działa.
W roku 2019 British Medical Journal
opublikował badanie,
które pokazało, że spośród
24 mobilnych aplikacji zdrowotnych
19 udostępniało informacje innym firmom.
Te z kolei udostępniały je
216 innym organizacjom.
Wśród tych 216 organizacji były tylko trzy
które należały
do sektora opieki zdrowotnej.

Spanish: 
"riesgo de aborto en pleno vuelo"
o "dolores menstruales
al inicio del embarazo".
Lo sé porque yo lo he hecho,
y varias veces.
Y, al nacer el bebé, hacen un seguimiento
de cada siesta, toma o acontecimiento
en diferentes plataformas.
Todas estas plataformas se benefician de
datos íntimos sobre salud y comportamiento
y los comparten entre ellas.
Para que entiendan cómo funciona,
en 2019, una investigación
del "British Medical Journal"
desveló que, de 24 aplicaciones de salud,
19 compartían información con terceros.
Y esos terceros compartían información
con otras 216 organizaciones.
De esas 216 organizaciones,
solo tres pertenecían al sector sanitario.

Chinese: 
比如，
“乘飞机时的流产风险”
或者“怀孕早期的腹痛”。
我知道这些，
因为我也有过类似的经历，
而且是很多次。
等到宝宝出生后， 
他们会用不同的技术
记录每个午觉、
每次喂食和每个重要时刻。
所有这些技术
都会通过把宝宝的资料分享给别人
从而换取利润。
先给各位举一个例子，
在 2019 年，
英国医学杂志发布了一项研究：
在 24 个健康类的手机软件里，
有 19 个把用户资料
分享给了第三方，
而这些第三方又分享给了
216 个其他的组织。
而这 216 个第四方机构，
只有三个属于健康类机构，

Modern Greek (1453-): 
όπως για «κινδύνους αποβολής σε αεροπλάνο»
ή «κοιλιακές κράμπες
στην αρχή της εγκυμοσύνης».
Το ξέρω επειδή το έχω κάνει πολλές φορές.
Και μετά, όταν γεννιέται το μωρό,
καταγράφουν κάθε υπνάκο, κάθε τάισμα,
κάθε γεγονός σε διάφορες τεχνολογίες.
Κι όλες αυτές οι τεχνολογίες μεταμορφώνουν
τα πιο ενδόμυχα δεδομένα συμπεριφοράς
και υγείας του μωρού σε κέρδος,
μοιράζοντάς τα με άλλους.
Για να σας δώσω μια ιδέα
πώς λειτουργεί αυτό,
το 2019 το Βρετανικό Ιατρικό Περιοδικό
δημοσίευσε μια έρευνα που έδειξε
ότι από τις 24 εφαρμογές
υγείας για κινητό,
οι 19 μοιράζονταν πληροφορίες με τρίτους.
Και αυτοί οι τρίτοι μοιράζονταν
πληροφορίες με άλλους 216 οργανισμούς.
Από αυτούς τους 216 τέταρτους,
μόνο οι τρεις ανήκαν
στον τομέα της υγείας.

Russian: 
например таким:
«риск выкидыша при полёте»
или «спазмы в животе при беременности».
Я знаю, сама прошла через это,
и не раз.
После рождения ребёнка,
они отслеживают каждый его сон,
каждое кормление,
каждое событие жизни,
используя различные технологии.
И все эти технологии
превращают личные данные 
о здоровье и поведении ребёнка в прибыль,
когда ими делятся с другими.
Проиллюстрирую, как это работает.
В 2019 году Британский медицинский журнал
опубликовал исследование, показавшее,
что 19 из 24 мобильных приложений 
для здоровья
поделились информацией 
с третьими сторонами.
И эти третьи стороны поделились ей
с ещё 216 организациями.
Из этих 216 организаций
только треть принадлежали
к сектору здравоохранения.

Swedish: 
som, du vet -
om "missfallsrisk när man flyger"
eller "magkrämpor i tidig graviditet."
Jag vet för jag har gjort det -
och många gånger.
Och när är barnet fött
spårar de varje tupplur, varje matning,
varje liten livshändelse
med olika tekniker.
Och alla dessa tekniker
transformerar bäbisens mest intima
beteende- och hälsodata till vinst
genom att dela det med andra.
Så för att ge er en aning om 
hur detta fungerar,
2019 publicerade "British Medical Journal"
forskning som visade
att av 24 hälsoappar,
delade 19 information med en tredje part.
Och dessa tredje parter delade information
med 216 andra organisationer.
Av dessa 216 fjärde parterna
ingick bara tre i sjukvårdssektorn.

Modern Greek (1453-): 
Οι άλλες εταιρίες που είχαν
πρόσβαση σ' αυτά τα δεδομένα
ήταν μεγάλες τεχνολογικές εταιρίες
όπως η Google, το Facebook ή η Oracle,
ήταν ψηφιακές διαφημιστικές εταιρίες
και επίσης υπήρχε μια εταιρία
αναφοράς πίστωσης καταναλωτών.
Πολύ σωστά καταλάβατε.
Διαφημιστικές και πιστωτικές εταιρίες ίσως
έχουν ήδη σημεία δεδομένων από μικρά μωρά.
Αλλά οι εφαρμογές, οι αναζητήσεις
και τα κοινωνικά μέσα
είναι μόνο η κορυφή του παγόβουνου,
επειδή τα παιδιά παρακολουθούνται
από πολλαπλές τεχνολογίες
στην καθημερινότητά τους.
Παρακολουθούνται από οικιακές τεχνολογίες
και ψηφιακούς βοηθούς στα σπίτια τους,
παρακολουθούνται
από εκπαιδευτικές πλατφόρμες
και εκπαιδευτικές τεχνολογίες
στα σχολεία τους.
Παρακολουθούνται από διαδικτυακά αρχεία
και διαδικτυακά πόρταλ
στο γραφείο του γιατρού τους.
Από τα παιχνίδια τους
που συνδέονται στο διαδίκτυο,
τα διαδικτυακά τους παιχνίδια
και πάρα πολλές άλλες τεχνολογίες.
Κατά τη διάρκεια της έρευνάς μου,
πολλοί γονείς ήρθαν και μου είπαν,
«Και τι έγινε;

Uzbek: 
Ma'lumotga kirish huquqi bor kompaniyalar
orasida katta texnologiya kompaniyalari
Google, Facebook va Oracle 
kabilar bor.
Ular raqamli reklama kompaniyalaridir,
shuningdek iste'mol kreditlari bo'yicha 
agentlik ham bor.
Siz to'g'ri topdingiz:
Ularda allaqachon chaqaloqlar haqida
ma'lumotlar bor.
Ammo mobil ilovalar, veb qidiruvlar
va ijtimoiy tarmoqlar
shunchaki aysbergning bir uchidir.
Chunki turli texnologiyalar 
bolalarni kuzatib borishadi
Ularning kundalik hayoti davomida.
Ular uy texnologiyalari va uydagi 
virtual yordamchilar tomonidan kuzatiladi.
Ta'lim platformasi ham 
ularni kuzatishadi
va maktabdagi ta'lim 
texnologiyalari ham.
Onlayn yozuvlari ham kuzatiladi
va shifoxonalaridagi 
onlayn portallari ham.
Ularni internetli o'yinchoqlar, 
ularning onlayn
o'yinlari orqali
kuzatishadi
va boshqa judayam ko'plab
texnologiyalar orqali.
Tadqiqotim davomida
ko'plab ota-onalar oldimga kelishardi
va "Ho'sh nima bo'libdi?" deyishardi.

Portuguese: 
As outras eram grandes
empresas de tecnologia
como Google, Facebook ou Oracle,
que estavam fazendo publicidade digital,
e havia também uma agência
de relatório do crédito ao consumidor.
Vocês entenderam corretamente:
empresas e agências de publicidade
já devem ter dados sobre bebês.
Só que aplicativos, pesquisas
na web e redes sociais
são apenas a ponta do iceberg,
porque as crianças são rastreadas
por diversas tecnologias
em seus cotidianos:
tecnologias da casa, assistentes virtuais,
plataformas educacionais e tecnologias
educacionais nas escolas,
registros on-line e portais
de seus consultórios médicos,
brinquedos conectados
à internet, jogos on-line
e muitas outras tecnologias.
Ao longo de minha pesquisa,
muitos pais me perguntaram: "E daí?

French: 
Les autres entreprises étaient
de grandes sociétés de la tech
comme Google, Facebook ou Oracle,
des agences de publicité digitale,
ainsi qu'une agence de renseignements
sur le crédit à la consommation.
Vous avez bien compris :
les agences de publicité et de crédit
ont déjà des données sur les bébés.
Mais les apps, les moteurs
de recherche et les médias sociaux
ne sont en réalité que la
partie visible de l'iceberg,
car les enfants sont suivis
par de multiples technologies
dans leur vie quotidienne.
Ils sont suivis chez eux par la domotique
et les assistants virtuels ;
par les plates-formes éducatives
et les technologies éducatives
à leur école ;
par leur dossier médical
et des portails en ligne
chez leur médecin ;
par leurs jouets connectés à Internet,
leurs jeux en ligne
et beaucoup, beaucoup,
beaucoup, beaucoup d'autres technologies.
Donc, pendant mes recherches,
beaucoup de parents sont venus me voir
et m'ont dit : « Et alors ?

iw: 
החברות האחרות שהייתה להן גישה
לנתונים האלה היו חברות טכנולוגיה גדולות
כמו גוגל, פייסבוק או אורקל,
הם היו חברות פרסום דיגיטלי
וכן הייתה סוכנות לדיווח על אשראי צרכני.
אז אתם מבינים את זה נכון:
חברות פרסום וסוכנויות אשראי כבר עשויות
להחזיק בחלקי נתונים על תינוקות קטנים.
אבל אפליקציות לנייד,
חיפושים ברשת ומדיה חברתית
הם ממש רק קצה הקרחון,
משום שמעקב אחר ילדים
מתבצע דרך מספר טכנולוגיות
בחיי היומיום שלהם.
עוקבים אחריהם דרך טכנולוגיות ביתיות
ועוזרים וירטואליים בבתיהם.
עוקבים אחריהם דרך פלטפורמות חינוכיות
וטכנולוגיות חינוכיות בבתי הספר שלהם.
עוקבים אחריהם דרך רשומות מקוונות
ופורטלים מקוונים במשרד הרופא שלהם.
עוקבים אחריהם דרך צעצועיהם 
המחוברים לאינטרנט,
המשחקים המקוונים שלהם
ועוד הרבה, הרבה, הרבה 
הרבה טכנולוגיות אחרות.
אז במהלך המחקר שלי,
הורים רבים ניגשו אלי
והם אמרו משהו כמו, "אז מה?"

Chinese: 
其他能取得這些資料的公司
則是大型科技公司，
比如 Google、臉書，
或甲骨文公司，
還有數位廣告公司，
還有一家是消費者信用調查機構。
所以，沒錯：
廣告公司和信用機構可能
都已經有小寶寶的資料了。
但，行動應用程式、
網路搜尋和社群媒體
其實只是冰山的一角，
因為有許多技術在日常生活中
追蹤兒童的資料。
在家中，家用科技
和虛擬助理會追蹤兒童。
在學校，教育平台
和教育相關技術都會追蹤兒童。
在醫生的診間，線上記錄
和線上入口網站都會追蹤兒童。
還有需連結網路的玩具、線上遊戲
及許多許多其他技術
都會追蹤兒童。
所以，在我研究期間，
很多父母來找我，
他們會說：「又怎樣？

Spanish: 
En las demás empresas con acceso a 
esos datos eran gigantes de la tecnología,
como Google, Facebook u Oracle,
había empresas de publicidad en línea
y una agencia de crédito al consumo.
Para que me entiendan:
agencias publicitarias y de crédito
podrían tener puntos de datos de bebés.
Las aplicaciones móviles, redes sociales
y buscadores solo son
"la punta del iceberg",
porque se rastrea a los niños a diario
desde múltiples tecnologías.
Se les sigue desde casa con dispositivos
y asistentes virtuales.
Desde el colegio, con herramientas TIC
y aulas virtuales.
Desde la consulta del médico, 
con historiales clínicos y portales web.
Los siguen desde sus juguetes
con conexión a internet, juegos online
y muchas otras tecnologías.
En mi investigación, muchos padres
venían a decirme cosas como:
"¿Y qué?".

Persian: 
دیگر شرکت‌هایی که به این داده‌ها دسترسی 
داشتند، شرکت‌های بزرگ فناوری بودند
همچون گوگل، فیس‌بوک و اراکل،
آن‌ها شرکت‌های تبلیغات دیجیتالی بودند
و یک مرکز اعتبارسنجی مشتریان هم وجود داشت.
درست متوجه شدید:
شرکت‌های تبلیغاتی و مراکز اعتبارسنجی 
احتمالا اطلاعات مربوط به نوزادان را دارند.
اما برنامه‌‌های موبایل، جستجوگرهای وب 
و شبکه‌های اجتماعی
تنها قله یک کوه یخ هستند،
چون کودکان دارند توسط فناوری‌‌های 
چندگانه در هر روز
از زندگی‌شان ردیابی می‌شوند.
کودکان توسط فناوری‌های خانگی 
و دستیاران مجازی در منزل ردیابی می‌شوند.
کودکان توسط محمل‌های آموزشی
و فناوری‌های آموزشی 
در مدارس‌شان ردیابی می‌شوند.
آن‌ها توسط رکوردهای آنلاین
و پورتال‌های آنلاین 
در مطب پزشک ردیابی می‌شوند.
آن‌ها توسط اسباب‌بازی‌های متصل به اینترنت،
بازی‌های آنلاین و بسیار،
بسیار، بسیار، بسیار 
فناوری‌های دیگر ردیابی می‌شوند.
بنابراین در طی تحقیقم،
بسیاری از والدین پیش من می‌آمدند 
و می‌گفتند، «حالا که چه؟

Polish: 
Pozostałe firmy,
które miały dostęp do tych danych,
były dużymi firmami technologicznymi
takimi jak Google, Facebook czy Oracle.
Były wśród nich także agencje reklamowe
oraz agencja sprawozdawczości kredytowej.
Właśnie tak.
Agencje reklamowe i kredytowe
mogą być już w posiadaniu
danych na temat małych dzieci.
Mobilne aplikacje, wyszukiwania w sieci
oraz media społecznościowe
są tylko wierzchołkiem góry lodowej,
ponieważ dzieci są śledzone
przez różnorakie technologie
w ich codziennym życiu.
Są śledzone przez domowe urządzenia
i asystentów wirtualnych w domach.
Są śledzone przez platformy
i technologie edukacyjne w szkołach.
Są śledzone przez internetową
dokumentację medyczną
i portale internetowe
w gabinetach lekarskich.
Są śledzone przez zabawki
połączone z Internetem,
gry internetowe
i wiele innych technologii.
Podczas moich badań
wielu rodziców pytało mnie: "I co z tego?

Swedish: 
De andra företagen som hade tillgång
till datan var stora teknikföretag
som Google, Facebook eller Oracle,
de var digitala reklamföretag
och det fanns även en
konsumentkreditrapporteringsbyrå.
Så du förstår:
reklambyråer och kreditbyråer har redan 
datapunkter på små bäbisar.
Men mobilappar,
webbsökningar och sociala medier
är bara toppen av isberget
eftersom barn blir spårade
av flera tekniker i vardagslivet.
De spåras av hemtekniker 
och virtuella assistenter hemma.
De spåras av utbildningsplattformar
och utbildningstekniker i sina skolor.
De spåras av uppgifter online
och onlineportaler hos doktorn.
De spåras av sina
internetanslutna leksaker, onlinespel
och många, många, många,
många andra tekniker.
Så under min forskning
kom många föräldrar fram till mig
och sa:"Så vadå?

Romanian: 
Celelalte companii care aveau acces
la informații erau companii IT,
cum ar fi Google, Facebook sau Oracle,
erau companii de reclame digitale,
era de asemenea și o agenție de raportare
a creditului pentru consumatori.
Deci ați înțeles:
companiile de reclame și de creditare
au deja informații despre bebeluși.
Dar aplicațiile, căutările web
și rețelele de socializare
sunt doar vârful aisbergului,
pentru că acești copii sunt urmăriți
de tehnologii multiple
în viețile lor cotidiene.
Sunt urmăriți de tehnologii din casă
și de asistenți virtuali.
Sunt urmăriți de platforme educaționale
și de tehnologii educaționale în școli,
prin înregistrări online
și portaluri online la cabinetul medical.
Sunt urmăriți de jucării conectate
la internet
de jocurile online,
și de multe, multe, multe alte tehnologii.
În timpul cercetării mele,
mulți părinți au venit
și mi-au zis: „Și ce dacă?

Turkish: 
Bu verilere erişimi olan diğer şirketler
Google, Facebook, Oracle gibi
büyük teknoloji şirketleri,
dijital reklam şirketleri
ve aralarında bir tüketici kredisi 
rapor ajansı da vardı.
Doğru anladınız.
Reklam ve kredi ajansları küçük bebeğiniz
hakkında verilere sahip olabilir.
Mobil uyulamalar, internet 
aramaları ve sosyal medya
buzdağının sadece görünen kısmıdır.
Çocuklar günlük hayatlarında da
pek çok teknoloji
tarafından takip ediliyor.
Evlerindeki sanal asistan 
ve ev teknolojilerinden takip ediliyorlar.
Okullarındaki eğitim platformları
ve eğitim teknolojilerinden
takip ediliyorlar.
Doktorlarının ofislerindeki
çevrimiçi kayıt ve portallardan
takip ediliyorlar.
İnternete bağlı oyuncaklarından,
çevrim içi oyunlardan
ve başka pek çok teknoloji 
tarafından takip ediliyorlar.
Araştırmam sırasında
pek çok ebeveyn bana gelip
"Ee, yani?" diye sordu.

English: 
The other companies that had access
to that data were big tech companies
like Google, Facebook or Oracle,
they were digital advertising companies
and there was also
a consumer credit reporting agency.
So you get it right:
ad companies and credit agencies may
already have data points on little babies.
But mobile apps,
web searches and social media
are really just the tip of the iceberg,
because children are being tracked
by multiple technologies
in their everyday lives.
They're tracked by home technologies
and virtual assistants in their homes.
They're tracked by educational platforms
and educational technologies
in their schools.
They're tracked by online records
and online portals
at their doctor's office.
They're tracked by their
internet-connected toys,
their online games
and many, many, many,
many other technologies.
So during my research,
a lot of parents came up to me
and they were like, "So what?

Hungarian: 
A többi cég, amelynek hozzáférése volt
az adatokhoz, nagy techcégek voltak,
mint a Google, Facebook vagy az Oracle,
de voltak digitálisreklám-ügynökségek
és fogyasztói hitelelemző cégek is.
Értik már, ugye?
Reklámcégeknek és hitelügynökségeknek
már csecsemőkről is lehetnek adataik.
De a mobilalkalmazások,
webes keresések és a közösségi média
épp csak a jéghegy csúcsa,
mert a gyerekeket számos
technológia követi nyomon
mindennapi életük során.
Nyomon követik őket az okosotthonok
technológiái és a virtuális asszisztensek.
Nyomon követik őket az oktatási felületek
és az iskolák oktatási technológiái.
Nyomon követik őket online
orvosi adatokon és portálokon keresztül.
Nyomon követik az internethez
kapcsolt játékaikon,
az online játékokon
és még rengeteg más
technológián keresztül is.
A kutatásom során
sok szülő ezzel jött oda hozzám: “Na és?

Arabic: 
الشركات الأخرى التي كان لها إمكانية الوصول
لهذه البيانات هي شركات التقنية الكبرى
مثل جوجل أو فيسبوك أو أوراكل،
وهم شركات إعلان رقمية
وكان هناك أيضاً وكالة تقارير
ائتمان المستهلك.
لذا ما فهمته صحيحاً:
الشركات الإعلانية ووكالات الائتمان
لديها بالفعل بيانات عن الأطفال الصغار.
لكن تطبيقات الهاتف المحمول وبحث
الإنترنت ووسائل التواصل الاجتماعي
في الحقيقة مجرد غيض من فيض،
لأنه يتم تعقب الأطفال بواسطة تقنيات متعددة
في حياتهم اليومية.
يتم تتبعهم من خلال التقنيات المنزلية
والمساعدين الافتراضيين في منازلهم.
من خلال المنصات التعليمية
والتقنيات التعليمية في مدارسهم.
ومن خلال التسجيلات عبر الإنترنت
والبوابات الالكترونية في العيادات.
يتم تعقبهم من خلال ألعابهم
المتصلة بالإنترنت،
ألعابهم على الإنترنت
والكثير والكثير من التقنيات الأخرى.
لذا أثناء قيامي بالبحث،
جاءني الكثير من الآباء وسألوني: "ماذا بعد؟

Russian: 
Другими компаниями,
получившими доступ к данным,
были технологические гиганты
вроде Google, Facebook или Oracle,
среди них были рекламные,
а также кредитные агентства.
Итак, вы поняли верно:
рекламные и кредитные агентства,
возможно, уже владеют данными о детях.
Но мобильные приложения,
поисковики и социальные сети
лишь верхушка айсберга,
так как в повседневной жизни
за детьми наблюдают многочисленные
устройства и приложения.
В домах деятельность детей отслеживают
виртуальные помощники и бытовая техника.
В школах это делается при помощи
образовательных платформ и технологий.
В кабинете врача их отслеживают
по онлайн-записям и онлайн-порталам.
За ними следят при помощи их игрушек, 
подключённых к интернету,
онлайн-игр,
и множества других технологий.
За время исследования
ко мне обращались многие родители
и спрашивали: «Ну и что?

Portuguese: 
As outras empresas
que tinham acesso a esses dados
eram importantes empresas de tecnologia
como o Google, o Facebook ou o Oracle,
empresas de publicidade digital
e também agências de informações 
comerciais de consumo.
Vocês perceberam bem:
empresas de publicidade
e agências de crédito
podem já ter dados sobre bebés.
Mas as aplicações móveis,
os motores de pesquisa e as redes sociais
são apenas a ponta do icebergue,
porque as crianças estão a ser rastreadas 
por múltiplas tecnologias
na sua vida diária.
São rastreadas
pelas tecnologias domésticas
e pelos assistentes virtuais
nas nossas casas.
São rastreadas
pelas plataformas educativas,
pelas tecnologias de educação
nas escolas.
São rastreadas por registos "online"
e por portais "online"
no consultório do médico deles.
São rastreadas pelos seus brinquedos
ligados à Internet,
pelos seus jogos "online"
e por muitas, muitas, muitas
outras tecnologias.
Durante a minha pesquisa,
muitos pais me disseram:

Chinese: 
其他的则是大型科技公司，
比如谷歌，脸书或甲骨文，
都是数据广告类的公司，
而且还有消费信贷的报告机构。
所以你的猜测是对的：
广告公司和信贷机构
已经有了宝宝们的数据。
但是手机软件、网站搜索和社交媒体
只是冰山一角，
因为孩子们的日常生活
已经被很多科技追踪了。
他们被家里的设备和虚拟助手追踪，
他们被教育网站
和学校里的教育技术追踪。
他们被诊所的
网上记录和门户网站追踪。
他们也在被连网的玩具、
在线游戏
和很多很多其他的技术追踪。
在我的研究过程中，
很多家长问我，“那又怎么样？

Russian: 
Разве то, что мои дети отслеживаются,
имеет какое-то значение?
Нам скрывать нечего».
Да, это имеет значение.
Это имеет значение, потому что сегодня
за людьми не только следят,
но и анализируют их данные на основе
оставленного ими информационного следа.
Искусственный интеллект
и прогнозная аналитика используются,
чтобы собрать как можно больше данных
о жизни человека
из разных источников:
семейной истории, покупательских привычек,
комментариев в социальных сетях.
А потом они объединяют эти данные,
чтобы принимать решения 
на основе данных о личности.
И эти технологии используются везде.
Банки используют их при выдаче кредита.
Страховые компании —
для определения размера страховых взносов.
Рекрутеры и работодатели используют их,
чтобы решить, 
кто лучше подходит для работы.
Полиция и суды также применяют их,
чтобы определить, 
кто является потенциальным преступником

Chinese: 
就算我的孩子被追踪，那又怎么样？
我们又没什么见不得人的秘密。”
但是，这真的很重要。
因为现如今，个人信息不仅仅被追踪，
还会被用来创建网络个人档案。
那些公司会用人工智能和预测分析
从不同渠道搜集越来越多的
个人数据：
家庭历史、购物习惯和社交媒体评论，
然后将这些信息结合在一起
去做出关于你的决定。
这些技术几乎无处不在。
银行利用这些信息
决定批准谁的贷款，
保险公司用它们决定保费额度，
招聘人员和雇主用它们
来决定你们到底适不适合某个工作。
警察和法庭也利用它们
去决定这个人是不是罪犯，

Modern Greek (1453-): 
Τι σημασία έχει αν
παρακολουθούνται τα παιδιά μου;
Δεν έχουμε κάτι να κρύψουμε».
Έχει σημασία όμως.
Έχει σημασία επειδή τα άτομα σήμερα
δεν παρακολουθούνται μόνο,
σκιαγραφείται και το προφίλ τους
βάσει του ίχνους των δεδομένων τους.
Η τεχνητή νοημοσύνη και τα προγνωστικά
αναλυτικά στοιχεία χρησιμοποιούνται
για να συλλέξουν όσο περισσότερα
δεδομένα γίνεται για τη ζωή ενός ατόμου
από διάφορες πηγές:
οικογενειακό ιστορικό,
καταναλωτικές συνήθειες,
σχόλια στα κοινωνικά μέσα.
Και μετά ενώνουν αυτά τα δεδομένα
για να πάρουν αποφάσεις
σύμφωνα μ' αυτά για το άτομο.
Και αυτές οι τεχνολογίες
χρησιμοποιούνται παντού.
Από τράπεζες για την έγκριση δανείων,
από ασφαλιστικές
για τον υπολογισμό των ασφαλίστρων.
Από γραφεία ευρέσεως εργασίας κι εργοδότες
για να αποφασίσουν αν κάποιος
είναι κατάλληλος για μια θέση.
Τα χρησιμοποιούν επίσης
η αστυνομία και τα δικαστήρια
για να αποφασίζουν αν κάποιος
είναι ένας δυνητικός εγκληματίας

Portuguese: 
"E depois? Que importância tem 
os meus filhos estarem a ser rastreados?
"Não temos nada a esconder."
Bem, é muito importante
É importante porque hoje em dia,
as pessoas não estão só a ser rastreadas,
também traçam os perfis delas
com base nesses dados.
A inteligência artificial e a análise 
preditiva estão a ser utilizadas
para reunir o máximo de dados possível
da vida de um indivíduo
a partir de diferentes fontes:
o histórico familiar,
os hábitos de compra,
os comentários nas redes sociais.
E reúnem esses dados
para tomarem decisões orientadas 
pelos dados sobre o indivíduo.
Estas tecnologias são utilizadas 
em todo o lado.
Os bancos usam-nas
para decidirem empréstimos.
As companhias de seguros usam-nas
para decidirem prémios.
Os recrutadores e empregadores usam-nas
para decidirem se alguém é uma boa escolha
ou não, para um emprego.
A polícia e os tribunais também as usam
para determinarem se alguém
é um potencial criminoso

Portuguese: 
Importa se meus filhos forem rastreados?
Não temos nada a esconder".
Bem, importa sim.
Importa porque os indivíduos
não são apenas rastreados,
mas também são perfilados
de acordo com seus dados.
A inteligência artificial
e a análise preditiva são usadas
para alcançar o máximo de dados
possível de um indivíduo
através de fontes diferentes:
histórico familiar, hábitos de compra,
comentários em rede sociais.
E então, esses dados são coletados
para orientar escolhas
a respeito do indivíduo.
E essas tecnologias
são usadas em toda parte.
Bancos as usam para decidir empréstimos.
Seguradoras as usam para decidir
valores de contratação.
Recrutadoras e empregadores as usam
para decidir se a pessoa
se encaixa ou não num emprego.
A polícia e os tribunais também as usam
para determinar se alguém
é um criminoso em potencial

Chinese: 
我的孩子被追蹤有什麼關係？
我們沒啥要隱瞞的。」
這是有關係的。
有關係是因為，現今，
個人不僅受到追蹤，
這些追蹤資料還會
被拿來建構他們的側寫評比。
人工智慧和預測分析
正被用來盡可能多地利用
不同來源的個人生活資料：
家族史、購買習慣、社群媒體留言。
接著，這些資料會被整合，
以資料為根據，
做出針對個人的決策。
到處都在使用這些技術。
銀行用它們來決定貸款，
保險公司用它們來決定保費，
招聘公司和僱主用它們
來判定應徵者是否適合某個職缺。
連警方和法庭也會用它們
來判斷一個人是否有可能是罪犯，

Arabic: 
ما القضية إذا تم تعقب أطفالي؟
ليس لدينا ما نخفيه."
حسناً، إنه يهم.
يهم لأن الأفراد اليوم لا يتم تعقبهم فقط،
يتم أيضاً تصنيفهم حسب البيانات الخاصة بهم.
يتم استخدام الذكاء الصناعي
والتحليلات التنبؤية
لتسخير أكبر قدر ممكن من البيانات
من مصادر مختلفة:
تاريخ العائلة وعادات الشراء
وتعليقات وسائل التواصل الاجتماعي.
ثم يتم تجميع البيانات معاً
لاتخاذ قرارات مبنية على بيانات الفرد.
ويتم استخدام هذه التقنية في كل مكان.
تستخدمها البنوك لإقرار القروض.
ويستخدمها التأمين لتحديد الأقساط.
يستخدمها مسؤولو التوظيف وأرباب العمل
ليقرروا ما إذا كان أحد مناسباً للعمل
أم لا.
وأيضاً تستخدمها الشرطة والمحاكم
لتحديد ما إذا كان أحدهم مجرماً محتملاً

iw: 
למה זה משנה אם עוקבים אחרי הילדים שלי?
"אין לנו מה להסתיר".
ובכן, זה משנה.
זה משנה כי היום אנשים
לא רק נמצאים תחת מעקב,
הם גם מקבלים פרופיל
בהתאם לעקבות הנתונים שלהם.
בינה מלאכותית וניתוח תחזיות משמשים
לרתום כמה שיותר נתונים 
מתוך חייו הפרטיים של אדם
ממקורות שונים:
היסטוריה משפחתית, הרגלי קנייה,
הערות ברשתות החברתיות.
ואז הם מחברים את הנתונים האלה
במטרה לקבל החלטות 
מונחות נתונים על הפרט.
והטכנולוגיות האלה מנוצלות בכל מקום.
בנקים משתמשים בהן כדי להחליט על הלוואות.
חברות ביטוח משתמשות בהן 
כדי להחליט על פרמיות.
מגייסים ומעסיקים משתמשים בהן
כדי להחליט אם אדם מתאים למשרה או לא.
גם המשטרה ובתי המשפט משתמשים בהן
כדי לקבוע אם אדם הוא עבריין פוטנציאלי

Polish: 
Czy to ważne, że moje dzieci są śledzone?
Nie mamy nic do ukrycia".
Otóż to ma znaczenie.
To ma znaczenie, bo dzisiaj
ludzie są nie tylko śledzeni,
ale także profilowani
na podstawie zebranych danych.
Używa się sztucznej inteligencji
i analizy prognostycznej,
żeby pozyskać jak największą
ilość danych na temat życia danej osoby,
opierając się o różne źródła:
historię rodziny, nawyki zakupowe,
komentarze w mediach społecznościowych.
Następnie łączy się te dane
w celu wykorzystania ich
przy podejmowaniu decyzji
dotyczących danej osoby.
Te technologie są używane wszędzie.
Banki używają ich
przy udzielaniu kredytów,
ubezpieczyciele - przy kalkulacji zniżek,
a rekruterzy i pracodawcy używają ich,
żeby sprawdzić,
czy ktoś nadaje się do pracy.
Także policja i sądy ich używają
przy określaniu
potencjalnych kryminalistów

English: 
Why does it matter
if my children are being tracked?
We've got nothing to hide."
Well, it matters.
It matters because today individuals
are not only being tracked,
they're also being profiled
on the basis of their data traces.
Artificial intelligence and predictive
analytics are being used
to harness as much data as possible
of an individual life
from different sources:
family history, purchasing habits,
social media comments.
And then they bring this data together
to make data-driven decisions
about the individual.
And these technologies
are used everywhere.
Banks use them to decide loans.
Insurance uses them to decide premiums.
Recruiters and employers use them
to decide whether one
is a good fit for a job or not.
Also the police and courts use them
to determine whether one
is a potential criminal

Hungarian: 
Mit számít, ha lekövetik a gyerekeimet?
Nincs semmi takargatnivalónk.”
Hát számít!
Számít, mert ma az egyes embereket
nemcsak lekövetik,
de profilokat is alkotnak
az adatnyomaik alapján.
Mesterséges intelligenciát
és prediktív elemzést alkalmaznak,
hogy a lehető legtöbb adatot
szerezzék be egyesek magánéletéről
különböző forrásokból:
családi háttér, vásárlási szokások,
közösségimédia-kommentek.
Majd ezeket az adatokat összegyűjtve
adatvezérelt döntéseket hoznak
az egyes emberekkel kapcsolatban.
E technológiákat mindenütt használják.
Bankok hitelek elbírálására,
biztosítók díjak meghatározására,
toborzók és munkáltatók használják,
hogy eldöntsék, valaki megfelel-e
az adott munkára vagy sem.
A rendőrség és a bíróság is használja,
hogy meghatározzák,
valaki potenciális bűnöző-e,

French: 
Quel est le problème
que mes enfants soient surveillés ?
Nous n'avons rien à cacher. »
Eh bien, c'est important.
C'est important car aujourd'hui, les
individus ne sont pas seulement suivis,
ils sont aussi profilés
selon leurs données.
L'intelligence artificielle et
l'analyse prédictive sont utilisées
pour exploiter le plus grand nombre
possible de données sur un individu
provenant de différentes sources :
histoire familiale, habitudes d'achat,
commentaires dans les médias sociaux.
Puis ils rassemblent ces données
pour prendre des décisions fondées
sur des données concernant l'individu.
Et ces technologies
sont utilisées partout.
Les banques les utilisent
pour décider des prêts.
Les assurances les utilisent
pour décider des primes.
Les recruteurs et les employeurs
les utilisent
pour décider si une personne
est apte à occuper un emploi ou non.
La police et les tribunaux
les utilisent également
pour déterminer
si une personne est un criminel potentiel

Spanish: 
"¿Qué importa si rastrean a mis hijos?
No tenemos nada que esconder".
Pues sí, importa.
No solo porque se hagan seguimientos
de cada persona,
sino porque se les clasifica
de acuerdo con lo recolectado.
Con la inteligencia artificial
y el análisis predictivo
se aprovechan al máximo
los datos de cada individuo
de distintas formas:
hábitos de compra, historial familiar 
comentarios en redes sociales...
Luego, combinan esos datos
y sacan conclusiones de esa persona.
Estas tecnologías se usan en todas partes.
Los bancos las usan para dar préstamos.
Las aseguradoras las usan para las primas.
Las empresas y patrones las usan
para saber si alguien vale para un puesto.
Además, la policía y los juzgados las usan

Persian: 
چه اهمیتی دارد که کودکان ردیابی می‌شوند؟
ما چیزی برای
خوب، این قضیه اهمیت دارد.
مهم است چون امروز 
افراد فقط ردیابی نمی‌شوند،
افراد همچنین بر اساس داده‌ها 
طبقه‌بندی می‌شوند.
هوش مصنوعی و تحلیلگرهای 
پیش‌بینی‌کننده به کار برده می‌شوند
تا در حد ممکن داده‌های زندگی 
شخصی افراد از منابع مختلف
به خدمت گرفته شود:
منابعی چون تاریخچه خانوادگی، رفتارهای 
خرید، پیام‌های شبکه‌های اجتماعی.
سپس این داده‌ها را جمع می‌کنند
تا تصمیمات حاصل 
از داده‌های افراد اتخاذ شود.
و این فناوری‌ها همه جا به کار می‌روند.
بانک‌ها برای تصمیم‌گیری در مورد وام‌ها
و بیمه برای محاسبه مزایا 
از این‌ها استفاده می‌کند.
استخدام‌کنندگان و کارگزینان 
برای اینکه ببینند
کسی برای شغلی مناسب است 
از اینها استفاده می‌کنند.
همچنین پلیس و دادگاه‌ها برای تعیین 
اینکه کسی مجرم بالقوه است
یا برای تشخیص احتمال ارتکاب دوباره جرم

Swedish: 
Varför spelar det roll
att mina barn blir spårade?
Vi har inget att dölja."
Det spelar roll.
Det spelar roll för att dagens individer
inte bara blir spårade,
de blir även profilerade
på grundval av sina dataspår.
Artificiell intelligens
och förutsägbar analys används
för att samla in så mycket data 
som möjligt om ett individuellt liv
från olika källor:
familjehistoria, köpvanor,
kommentarer på sociala medier.
Och sedan samlar de all denna data
för att skapa datadrivna beslut
om individen.
Och dessa tekniker används överallt.
Banker använder dem för att
besluta om lån.
Försäkringar använder dem för att
besluta om premier.
Rekryterare och arbetsgivare använder dem
för att besluta om någon
är passande för ett jobb eller inte.
Även polisen och rätten använder dem
för att bestämma om någon
är en potentiell kriminell

Uzbek: 
"Nima farqi bor bolalarim kuzatilishini?
Yashiradigan narsamiz yo'q."
Lekin, farqi bor.
Farqi bor, chunki hozirda odamlarni 
nafaqat kuzatishadi,
balki, ularning ma'lumoti alohida 
yig'iladi qidiruv tarixiga asoslanib,
sun'iy ong va 
bashorat tahlillari uchun ishlatiladi.
Inson hayoti bo'yicha iloji boricha 
ko'p ma'lumot yig'ish uchun
turli manbalardan:
oila tarixi, xarid qilish odatlari
va ijtimoiy tarmoq izohlaridan.
Keyin ular bu ma'lumotlarni
jamlashadi.
Ma'lumotga asoslangan qaror 
chiqarish uchun
bunday texnologiyalar
hamma yerda ishlatiladi.
Banklar bularni
kredit, qarz berishda ishlatishadi,
sug'urta kompaniayalari esa
premiyani aniqlashda.
Ish beruvchilar ham ulardan 
foydalanishadi.
Nomzod ishga to'gri kelishi
yoki kelmasligini aniqlashda.
Shuningdek, politsiya va 
sud ham jinoyatchini aniqlashda
ulardan foydalanishadi,

Romanian: 
De ce contează dacă ai mei copii
sunt urmăriți?
Nu avem nimic de ascuns.”
Ei bine, contează.
Contează pentru că, în ziua de azi,
indivizii nu doar că sunt urmăriți,
dar se și profită de pe urma lor,
în funcție de datele acestora.
Inteligența artificială și analiza
predictivă sunt folosite
pentru a obține cât mai multe informații
despre o persoană,
din diferite surse: istoria familiei,
obiceiuri de cumpărături,
comentarii pe rețelele de socializare.
Iar ei pun informațiile la un loc
pentru a lua decizii bazate
pe informațiile unui individ.
Iar aceste tehnologii sunt folosite
pretutindeni.
Băncile pentru a decide
acordarea creditelor.
În asigurări la calculul
primei de asigurare.
Cei ce recrutează și angajatorii
le folosesc
pentru a decide dacă ai profilul potrivit
unui job sau nu.
Poliția și instanțele le folosesc
pentru a determina dacă cineva
e un potențial infractor,

Turkish: 
"Çocuğumun takip edilmesi
neden bu kadar önemli?
Sakladığımız bir şey yok."
Aslında önemli.
Çünkü günümüzde bireyler
sadece takip edilmiyor.
Ayrıca veri izlerine göre
profilleri çıkartılıyor.
Yapay zeka ve kestirimsel analizler
farklı kaynaklar üzerinden
bireyin hayatından maksimum 
veriyi elde etmek için kullanılır:
Aile geçmişi, satın alma alışkanlıkları,
sosyal medya yorumları.
Bu veriler bir araya getirilip
birey hakkında veri güdümlü
kararlar vermek için kullanılır.
Bu teknolojiler her yerde kullanılıyor.
Bankalar kredilere karar vermek,
sigorta şirketleri oranlara karar vermek,
İşe alım uzmanları ve işverenler
bireyin işe uygun olup olmadığına
karar vermek için kullanır.
Polis ve mahkemeler ise
bireyin potansiyel bir suçlu
olup olmadığına

Romanian: 
sau dacă e probabil să recidiveze.
Nu avem cunoștințe, nici control
asupra felului în care cei care
ne cumpără, ne folosesc și ne vând datele
ne profilează pe noi și copiii noștri.
Dar aceste profile pot să ne afecteze
drepturile în moduri însemnate.
Ca să vă dau un exemplu:
În 2018, „New York Times”
a publicat știrea
că informațiile strânse
prin serviciile de planificare
pentru facultate —
care sunt completate de milioane
de liceeni din Statele Unite,
care caută o facultate, o bursă —
au fost vândute brokerilor
de date educaționale.
Cercetătorii de la Fordham care au
studiat brokerii de date educaționale
au dezvăluit că aceste companii profilau
copii chiar și în vârstă de doi ani,

Uzbek: 
yoki qayta jinoyatga moyilligini 
aniqlaganda.
Bizda ma'lumotlarni sotadigan, 
sotib oladigan va tahlil qiladiganlar
ustidan hech qanday ko'nikma
yoki nazorat yo'q.
Ular bizni va bolalarimizning 
ma'lumotlarini yig'ishadi.
Lekin bu yig'ilgan ma'lumotlar
huquqlarimizni yetarlicha buzishadi.
Misol uchun,
2018-yil New York Times yangiligida 
aytilishicha
onlayn kollejni reja qilish
tizimi orqali
yig'ilgan ma'lumotlarda
AQSH bo'ylab millionlab 
maktab o'quvchilari ma'lumoti yig'ilgan
kollej programmasi yoki 
grant qidirib yurgan o'quvchilar orasidan
va bu ma'lumotlar
o'quv brokerlariga sotilgan.
Hozirda, Fordhamda o'quv brokerlarini
o'rgangan tadqiqotchilar
bolalarning ikki yoshligidan
ma'lumoti to'planishini oshkor qilishdi.

iw: 
או אם הוא עשוי לחזור לבצע פשע.
אין לנו שום ידע או שליטה
על הדרכים שבהן מי שקונה,
מוכר ומעבד את הנתונים שלנו
יוצרים את הפרופיל שלנו ושל ילדינו.
אבל הפרופילים האלה יכולים להשפיע
על זכויותינו בדרכים משמעותיות.
לשם ההדגמה,
בשנת 2018 עיתון ה"ניו יורק טיימס"
פרסם בחדשות
שהנתונים שנאספו
דרך שירותי תכנון מכללות באינטרנט
שלמעשה ממולאים על ידי מיליונים
של תלמידי תיכון ברחבי ארה"ב
שמחפשים תכנית לימודים במכללה או מלגה
נמכרו למתווכים הסוחרים בנתונים חינוכיים.
כעת, חוקרים בפורדהאם
שחקרו תיווך נתונים חינוכיים
חשפו כי חברות אלה
ערכו פרופיל של ילדים בגיל שנתיים

Modern Greek (1453-): 
ή είναι πιθανόν
να διαπράξει πάλι ένα έγκλημα.
Δεν γνωρίζουμε ούτε ελέγχουμε
τους τρόπους που αυτοί που αγοράζουν,
πωλούν και επεξεργάζονται τα δεδομένα μας
σκιαγραφούν τα δικά μας προφίλ
και των παιδιών μας.
Αλλά αυτά τα προφίλ μπορούν να επηρεάσουν
τα δικαιώματά μας με σημαντικούς τρόπους.
Για να σας δώσω ένα παράδειγμα,
το 2018 οι New York Times
δημοσίευσαν ένα άρθρο
ότι τα δεδομένα που συλλέχθηκαν
μέσω διαδικτυακών υπηρεσιών
σχεδιασμού κολεγίου,
τα οποία συμπληρώθηκαν από εκατομμύρια
μαθητές λυκείου στις ΗΠΑ
που ψάχνουν για ένα πρόγραμμα
κολεγίου ή μια υποτροφία,
πωλήθηκαν σε μεσίτες
εκπαιδευτικών δεδομένων.
Τώρα, ερευνητές στο Φόρνταμ που μελέτησαν
μεσίτες εκπαιδευτικών δεδομένων,
αποκάλυψαν ότι αυτές οι εταιρίες
σκιαγραφούσαν προφίλ παιδιών
έως και δύο ετών

English: 
or is likely to recommit a crime.
We have no knowledge or control
over the ways in which those who buy,
sell and process our data
are profiling us and our children.
But these profiles can come to impact
our rights in significant ways.
To give you an example,
in 2018 the "New York Times"
published the news
that the data that had been gathered
through online
college-planning services --
that are actually completed by millions
of high school kids across the US
who are looking for a college
program or a scholarship --
had been sold to educational data brokers.
Now, researchers at Fordham
who studied educational data brokers
revealed that these companies
profiled kids as young as two

Polish: 
lub prawdopodobieństwa
ponownego popełnienia zbrodni.
Nie mamy żadnej wiedzy i kontroli nad tym,
w jaki sposób ci, którzy kupują,
sprzedają i przetwarzają nasze dane
profilują nas i nasze dzieci.
Jednak te profile mogą mieć
znaczący wpływ na nasze prawa.
Podam przykład.
W roku 2018 "New York Times"
opublikował informacje,
że dane zebrane z internetowych
formularzy planowania edukacji,
wypełnianych przez miliony
amerykańskich licealistów,
którzy szukają szkoły lub stypendium,
zostały sprzedane brokerom
danych edukacyjnych.
Ponadto naukowcy z uniwersytetu Fordham,
którzy zbadali brokerów z tego sektora,
ujawnili, że te firmy profilowały
nawet dwuletnie dzieci

French: 
ou si elle est susceptible de récidiver.
Nous n'avons aucune connaissance
ni aucun contrôle
sur la manière dont ceux qui achètent,
vendent et traitent nos données
établissent notre profil
et celui de nos enfants.
Mais ces profils peuvent avoir
un impact significatif sur nos droits.
Pour vous donner un exemple,
en 2018, le New York Times
a publié un article
sur les données
qui avaient été recueillies
par le service de planification
des études universitaires -
celles saisies par les millions
de lycéens à travers les États-Unis
qui cherchent un programme universitaire
ou une bourse.
Elles avaient été vendues à des
courtiers en données éducatives.
Or, les chercheurs de Fordham qui ont
étudié les courtiers en données éducatives
ont révélé qu'ils établissaient le
profil des enfants dès l'âge de deux ans

Swedish: 
eller är sannolik att 
begå ett brott igen.
Vi har ingen kunskap eller kontroll
över de sätt som de som köper,
säljer och bearbetar våran data
profilerar oss och våra barn.
Men dessa profiler kan komma att påverka
våra rättigheter på betydelsefulla sätt.
För att ge ett exempel,
2018 publicerade "New York Times"
nyheten att datan som samlats in
genom online
högskoleplanerande tjänster -
som faktiskt används av miljoner
skolbarn över USA
som letar efter ett högskoleprogram
eller ett stipendium -
hade sålts ut till utbildningsmäklare.
Forskare på Fordham som studerade
utbildningsmäklare har nu
avslöjat att dessa företag 
profilerar barn så unga som 2 år

Arabic: 
أو من المحتمل أن يعيد ارتكاب الجريمة.
ليس لدينا أي معرفة أو سيطرة
على الطرق التي يقوم بها أولئك الذين
يشترون بياناتنا ويبيعونها ويعالجونها
لتوصيف هويتنا وأطفالنا.
لكن هذه الملفات الشخصية يمكن أن تؤثر
على حقوقنا بطرق ملحوظة.
لأوضح لكم بمثال،
نشرت نيويورك تايمز في 2018 أخباراً
أن البيانات التي تم تجميعها
خلال خدمات التخطيط الجامعي عبر الإنترنت -
التي ينجزها ملايين من أطفال المدارس
الثانوية في جميع أنحاء الولايات المتحدة
والذين يبحثون عن برنامج جامعي
أو منحة دراسية -
تم بيعها إلى وسطاء البيانات التعليمية.
الآن، كشف باحثون في فوردهام
الذين درسوا وسطاء البيانات التعليمية
أن هذه الشركات وصفت أطفال
لا تتجاوز أعمارهم العامين

Chinese: 
或者有没有可能犯罪。
这些购买、售卖
和处理我们信息的人
究竟如何调查我们和我们的孩子，
我们对此一无所知，
也没有任何控制权。
但这些信息会
严重影响我们的权益。
举个例子，
2018 年《纽约时报》
发布的一则新闻称，
由线上大学规划服务
搜集的数据——
这些数据都来自
全美数百万正在寻找
大学项目或奖学金的高中生——
已经被售卖给了教育数据经纪人。
福特汉姆的研究人员在对一些
教育数据经纪人进行分析之后透露，
这些公司根据以下类别
对不小于两岁的孩子

Spanish: 
para saber la probabilidad
de que alguien cometa delito o reincida.
No podemos saber ni controlar
la forma en la que esta gente que compra,
vende y procesa nuestros datos
traza perfiles sobre nosotros
y nuestros hijos.
Pero estos perfiles pueden afectar
gravemente nuestros derechos.
Pongamos un ejemplo:
"The New York Times" publicó en 2018
que los datos recogidos en webs
de planificación educativa,
que rellenan millones
de jóvenes estadounidenses
en busca de una beca
o un plan universitario,
se vendieron a brókeres de información.
Pues en Fordham se investigó
a estos brókeres de lo educativo
y se descubrió que estas empresas
clasifican a niños de incluso dos años

Chinese: 
或是否有可能再犯。
我們不知道也無法控制
購買、銷售、處理我們資料的公司
會用什麼方式來對我們
和我們的孩子做側寫評比，
但那些側寫評比有可能會
顯著影響我們的權利。
舉個例子，
2018 年《紐約時報》
刊載的新聞提到，
透過大學規劃線上服務
所收集到的資料——
這些資料來自全美各地數百萬名
想要尋找大學科系
或獎學金的高中生——
被販售給教育資料中介商。
福坦莫大學裡那些研究
教育資料中介商的研究者
揭發出這些公司會根據不同的分類

Russian: 
или кто вновь совершит преступление.
Мы не знаем и не контролируем
способы, которыми те, кто покупают,
продают и обрабатывают наши данные,
составляют психологические профили
наших детей и наши.
Но эти профили могут существенно 
повлиять на наши права.
Например,
в 2018 году газета «Нью-Йорк Таймс»
опубликовала новость о том,
что собранные с помощью онлайн-сервисов
которые в США заполняются
миллионами школьников
при поиске программы колледжа
или стипендии,
были проданы брокерам 
в сфере образовательных услуг.
Исследователи из Фордхэма,
изучавшие данные образовательных брокеров,
раскрыли, как эти компании профилируют 
детей в возрасте всего двух лет

Portuguese: 
ou se é provável que voltem 
a cometer um crime.
Nós não temos conhecimento nem controlo
sobre a forma como aqueles que compram,
vendem e processam os nossos dados
estão a traçar os nossos perfis
e os perfis dos nossos filhos.
Mas estes perfis podem
vir a ter impacto nos nossos direitos
de forma significativa.
Por exemplo,
em 2018 o "New York Times" 
publicou a notícia
de que os dados reunidos
através de serviços de planeamento 
universitário "online"
que são utilizados por milhões
de alunos do secundário nos EUA
que estão à procura de um programa 
universitário ou de uma bolsa,
tinham sido vendidos
a corretores de dados educativos.
Ora, os investigadores
da Universidade de Fordham
que investigaram corretores
de dados educativos
revelaram que estas empresas traçaram
perfis de crianças a partir dos dois anos

Turkish: 
ya da tekrar suç işleyip işlemeyeceğini
saptamak için kullanır.
Verilerimizi satın alarak,
satarak ve işleyerek
bizim ve çocuklarımızın 
profilini çıkaran yollar üzerinde
herhangi bir bilgimiz ve kontrolümüz yok.
Ama bu profiller haklarımızı 
ciddi şekilde etkileyebilir.
Örnek vermek gerekirse,
2018 yılında ''New York Times''
Amerika'da üniversite programı
veya burs arayan milyonlarca lise
öğrencisi tarafından tamamlanan
çevrim içi üniversite 
planlama hizmetleri yoluyla
toplanan verilerin
eğitim veri aracılarına 
satıldığı haberini yayınladı.
Fordham Üniversitesinde eğitim veri 
aracıları üzerinde çalışan araştırmacılar
bu şirketlerin iki yaşından 
itibaren çocukların profillerini

Hungarian: 
vagy mekkora esélye van,
hogy újból bűntettet követ el.
Nem ismerjük az eljárásokat,
és befolyásunk sincs azok módszereire,
akik adatainkat
adják-veszik és feldolgozzák,
hogyan profiloznak minket
és gyermekeinket.
Pedig ezek a profilok jelentős
hatással lehetnek jogainkra.
Egy példát említve,
2018-ban a The New York Timesban
megjelent a hír,
hogy főiskolai tervező szolgáltatások
adatbrókereknek adták el az adatokat,
amelyeket Amerika-szerte
több millió középiskolás szokott megadni,
főiskolai programok
vagy ösztöndíjak iránt érdeklődve.
Az oktatási adatbrókereket
tanulmányozó Fordham kutatói felfedték,
hogy ezek a cégek már
kétéves gyerekeket is profiloztak

Portuguese: 
ou é propenso a voltar a cometer um crime.
Nós não temos conhecimento ou controle
sobre as formas em que aqueles
que compram e vendem nossos dados
profilam a nós e nossos filhos.
Mas esses perfis podem impactar
nossos direitos de forma significativa.
Por exemplo,
em 2018, o New York Times publicou
que os dados que foram coletados
pelos serviços de planejamento
de faculdade on-line,
que são usados por milhões de alunos
do ensino médio nos EUA
que procuram por programas
ou bolsas de estudos para a faculdade,
haviam sido vendidos para corretores
de dados educacionais.
Pesquisadores da Universidade Fordham
que estudaram esse tipo de corretor
revelaram que essas empresas perfilam
crianças acima de dois anos de idade

Persian: 
از اینها استفاده می‌کنند.
ما هیچگونه آگاهی یا کنترلی نداریم
در مورد روشی که داده‌های 
ما خرید و فروش می‌شود یا فرآیندی
که ما و فرزندان‌مان را طبقه‌بندی می‌کند.
اما این طبقه‌بندی‌ها می‌تواند 
بر حقوق ما به شکل چشمگیری اثر بگذارد.
بعنوان مثال،
در سال ۲۰۱۸ «نیویورک تایمز» خبری منتشر کرد
که داده‌هایی که از طریق خدمات
برنامه‌ریزی دانشگاهی آنلاین 
جمع‌آوری شده بود --
که در واقع توسط میلیون‌ها بچه دبیرستانی 
در سراسر امریکا تکمیل می‌شود
که در پی یک طرح دانشگاهی 
یا یک کمک هزینه تحصیلی هستند --
به دلالان داده‌های آموزشی فروخته شده بود.
اکنون، محققین در فوردهام که دلالان 
داده‌های آموزشی را مطالعه کرده‌اند
فاش کرده‌اند که این شرکت‌ها بچه‌ها را 
حتی از سنین دو سالگی دسته‌بندی می‌کنند

French: 
sur la base de différentes catégories :
ethnicité, religion, richesse,
inaptitudes sociales
et bien d'autres catégories aléatoires.
Ils vendent ensuite ces profils,
accompagnés du nom de l'enfant,
de son adresse et de ses coordonnées,
à différentes entreprises,
notamment des sociétés commerciales,
des sociétés de recrutement,
des sociétés gérant des prêts étudiants
et de cartes de crédit pour étudiants.
Pour aller au fond du sujet,
les chercheurs de Fordham ont demandé
à un courtier en données éducatives
de leur fournir une liste de jeunes filles
de 14-15 ans
intéressées par les services
de planning familial.
Le courtier a accepté
de leur fournir la liste.
Imaginez donc à quel point
c'est intime et intrusif pour nos enfants.
Mais les courtiers en données éducatives
ne sont en réalité qu'un exemple.
La vérité est que
nos enfants sont profilés

Hungarian: 
különböző kategóriák,
pl. etnikum, vallás, jómód,
szociális ügyetlenség
és még sok más véletlenszerű
kategória alapján.
Aztán e profilokat el is adják
a gyerek nevével, lakcímével
és elérhetőségi adataival együtt
különféle cégeknek,
többek között kereskedelmi-
és karrierintézeteknek,
diákhitel-
és diákhitelkártya-cégeknek is.
Tovább feszítve a határokat,
a Fordham kutatói felkértek
egy oktatási adatbrókert,
hogy adjon listát 14–15 éves lányokról,
akik családtervezési szolgáltatások
iránt érdeklődnek.
Az adatbróker vállalta a lista átadását.
Képzeljék csak el, mennyire intim
és tolakodó ez a gyermekeink számára.
De az oktatási adatbrókerek példája
valójában csak egy a sok közül.

Romanian: 
pe baza mai multor categorii:
etnie, religie, bunăstare,
jenă socială,
și multe alte categorii aleatorii.
Și apoi vând aceste profile,
împreună cu numele copilului,
adresa de acasă și detaliile de contact,
diferitelor companii,
inclusiv instituțiilor de meserii
și carieră,
companiilor de creditare
și bancare pentru studenți.
Pentru a forța nota,
cercetătorii de la Fordham i-au cerut
unui broker de informații educaționale
să le dea o listă
cu fete de 14 până la 15 ani
care erau interesate de servicii
de planificare familială.
Brokerul de informații a fost de acord.
Imaginați-vă cât de intim și intruziv
e asta pentru copiii noștri.
Dar brokerii de informații educaționale
sunt doar un exemplu.

Chinese: 
來為小至兩歲的兒童做側寫評比：
人種、宗教、富裕程度、
社交尷尬
及許多其他隨機的分類。
接著，它們會賣掉這些側寫評比，
連帶附上兒童的姓名、
地址和聯絡細節資訊，
賣給各種公司，
包括貿易和職涯機構、
學生貸款以及學生信用卡公司。
福坦莫大學的研究者還更進一步，
請一家教育資料中介商
提供他們一份名單，
羅列十四到十五歲
對於避孕措施感興趣的女孩。
資料中介商同意
提供他們這份名單。
想像這多麼侵害我們孩子的私密。
但，教育資料中介商
也只不過是一個例子。

Polish: 
na podstawie takich kategorii jak:
pochodzenie etniczne, religia, zamożność,
niedostosowanie społeczne
oraz wiele innych losowych kategorii.
Następnie sprzedają te profile
razem z danymi osobowymi dziecka,
ich adresem zamieszkania
i danymi kontaktowymi,
różnym firmom,
między innymi agencjom handlu
i biurom karier,
firmom zajmującym się pożyczkami
i kartami kredytowymi dla studentów.
Żeby wyznaczyć nowe granice,
naukowcy z Fordham poprosili
brokera danych edukacyjnych
o listę dziewczyn w wieku od 14 do 15 lat,
które interesowały się usługami
w zakresie planowania rodziny.
Broker zgodził się
na dostarczenie takiej listy.
Wyobraźcie sobie, jak bardzo narusza to
prywatność naszych dzieci.
Ale brokerzy danych edukacyjnych
to tylko jeden z przykładów.
Prawda jest taka,

Swedish: 
utifrån olika kategorier:
etnicitet, religion, välstånd,
sociala besvärligheter
och många andra slumpmässiga kategorier.
Och sedan säljer de dessa profiler
tillsammans med barnets namn,
deras hemadress och kontaktuppgifter
till olika företag
inklusive handels- och 
karriärinstitutioner,
studentlån och kreditkortsföretag
för studenter.
För att skjuta på gränserna
bad forskarna på Fordham
en utbildningsmäklare
att förse dem med en lista
på 14- till 15-åriga flickor
som var intresserade av
familjeplanerande tjänster.
Datamäklaren gick med på att
förse dem med listan.
Så tänk hur intimt
och påträngande det är för våra barn.
Men utbildningsmäklare 
är bara ett exempel.
Sanningen är att våra barn
blir profilerade

iw: 
על פי קטגוריות שונות:
אתניות, דת, מעמד כלכלי,
אי נוחות חברתית,
ועוד קטגוריות אקראיות רבות אחרות.
לאחר מכן הם מוכרים את הפרופילים האלה
יחד עם שם הילד,
כתובת הבית ופרטי ההתקשרות שלהם
לחברות שונות,
כולל מוסדות סחר וקריירה,
הלוואות סטודנטים
וחברות כרטיסי אשראי לסטודנטים.
במטרה לבדוק את הגבולות,
החוקרים בפורדהאם
ביקשו ממתווך בנתונים חינוכיים
לספק עבורם רשימה של נערות בנות 14- 15
אשר הביעו התעניינות בשירותים לתכנון משפחה.
מתווך הנתונים הסכים לספק להם את הרשימה.
אז תארו לכם כמה אינטימי
וכמה פולשני הדבר עבור ילדינו.
אבל מתווכי נתונים חינוכיים
הם באמת רק דוגמה.

Turkish: 
şu farklı kategorileri baz alarak 
çıkardıkları bilgisine ulaştı:
Etnik köken, din, varlık,
sosyal uygunsuzluk
ve diğer birçok rastgele kategori.
Daha sonra çıkarılan bu profilleri,
çocuğun ismiyle birlikte 
ev adresi ve iletişim detaylarını,
farklı firmalara satıyorlar
ki bunlara ticaret ve kariyer kurumları,
öğrenci kredisi
ve öğrenci kredi kartı
şirketleri de dahil.
Sınırları zorlarsak,
Fordham'daki araştırmacılar,
eğitim veri aracılarından
aile planlama hizmetleriyle ilgilenen
14 ile 15 yaşındaki kızların 
listesini sunmalarını istedi.
Veri aracısı listeyi sunmayı kabul etti.
Yani bunun çocuklarımız için ne kadar
mahrem ve müdahaleci olduğunu siz düşünün.
Fakat eğitim veri aracıları
sadece bir örnek.

Spanish: 
según diferentes categorías:
etnia, religión, riqueza,
ansiedad social
y muchas más categorías.
Y luego venden esos perfiles,
con el nombre del niño,
dirección y datos personales,
a distintas empresas,
como instituciones educativas
y de comercio,
de servicios de becas
y cuentas bancarias para estudiantes.
Para avanzar en esto,
los investigadores de Fordham
pidieron a uno de estos brókeres
que les proporcionase una lista
de chicas de entre 14 y 15 años
a las que les interesase
un servicio de planificación familiar.
El bróker accedió
a facilitarles esa lista.
Imagínense lo mucho que esto invade
la intimidad de nuestros hijos.
Pero estos brókeres de lo educativo
son solo un ejemplo.

Portuguese: 
com base em muitas outras
categorias arbitrárias.
etnia, religião, riqueza,
inépcia social
e muitas outras categorias.
Depois vendem os perfis juntamente
com os nomes das crianças,
a morada e informações de contacto
a empresas diferentes,
incluindo instituições comerciais
e de carreira,
empresas de empréstimos estudantis
e de cartões de crédito estudantis.
Para alargarem os limites,
os investigadores da Fordham pediram
a um corretor de dados educativos
que lhes fornecessem uma lista
de raparigas dos 14 aos 15 anos
que estivessem interessadas
em serviços de planeamento familiar.
O corretor aceitou fornecer a lista.
Por isso imaginem
o quão íntimo e intrusivo
isto é para os nossos filhos.
Mas os corretores de dados educativos
são apenas um exemplo.
A verdade é que os nossos filhos
estão a ter perfis

Modern Greek (1453-): 
σύμφωνα με διάφορες κατηγορίες:
εθνικότητα, θρησκεία, ευημερία,
κοινωνική αδεξιότητα,
και πολλές άλλες τυχαίες κατηγορίες.
Μετά πωλούν αυτά τα προφίλ
μαζί με το όνομα του παιδιού,
τη διεύθυνσή τους
και τα στοιχεία επικοινωνίας
σε διάφορες εταιρίες,
συμπεριλαμβανομένων οργανισμών
εμπορίου και καριέρας,
εταιρίες για φοιτητικά δάνεια
και φοιτητικές πιστωτικές κάρτες.
Για να ξεπεράσουν τα όρια,
οι ερευνητές στo Φόρνταμ ζήτησαν
από έναν μεσίτη εκπαιδευτικών δεδομένων
να τους δώσει μια λίστα
από κορίτσια 14 με 15 ετών
που ενδιαφέρθηκαν για υπηρεσίες
οικογενειακού προγραμματισμού.
Ο μεσίτης δεδομένων συμφώνησε
να τους παρέχει τη λίστα.
Φανταστείτε πόσο ενδόμυχο και παρεμβατικό
είναι αυτό για τα παιδιά μας.
Αλλά οι μεσίτες εκπαιδευτικών δεδομένων
είναι μόνο ένα παράδειγμα.
Η αλήθεια είναι ότι σκιαγραφούν
το προφίλ των παιδιών μας

Persian: 
بر اساس طبقه‌بندی‌های مختلف:
نژاد، مذهب، ثروت،
ناسازگاری اجتماعی
و بسیاری از دیگر طبقه‌بندی‌های تصادفی.
و سپس این طبقه‌بندی‌ها را با اسم بچه،
آدرس منزل و جزئیات تماس
به شرکت‌های مختلف می‌فروشند،
شرکت‌هایی شامل موسسات کار و تجارت،
وام‌های دانشجویی
و شرکت‌های کارت‌های اعتباری دانشجویی.
برای جزئیات بیشتر،
محققان در فوردهام از 
یک دلال داده آموزشی خواستند
تا لیستی از دختران ۱۴ 
تا ۱۵ ساله را فراهم کند
که به خدمات برنامه‌ریزی 
خانوادگی علاقه دارند.
دلال داده موافقت کرد 
که این لیست را به آن‌ها بدهد.
حالا تصور کنید که این چقدر برای 
فرزندان‌مان محرمانه و نوعی فضولی است.
اما دلال داده‌های آموزشی 
فقط یک نمونه هستند.

Chinese: 
进行了分组：
种族、宗教、家庭富裕程度、
社交恐惧症，
以及很多其他的随机分类。
然后他们会将这些资料，
以及孩子的名字、
地址和联系方式
出售给不同的公司，
包括贸易和职业发展机构，
学生贷款
和学生信用卡公司。
更夸张的是，
研究人员要求教育数据经纪人
提供一份对家庭生育服务感兴趣，
年龄在 14 至 15 岁的少女名单。
数据经纪人同意了。
所以不难想象，我们孩子的隐私
得到了何等程度的侵犯。
但是教育数据经纪人的例子
只是冰山一角。

Russian: 
на основе разных категорий:
этнической принадлежности, 
религии, достатка,
социальной неуверенности в себе
и многих других
произвольно взятых категорий.
А потом эти компании продают
эти профили вместе с именем ребёнка,
их домашним адресом и контактными данными
различным организациям,
включая торговые и карьерные учреждения,
банки, предоставляющие 
студенческие кредиты
и компании, выпускающие 
кредитные карты для студентов.
Чтобы расширить границы,
исследователи из Фордхэма попросили 
брокера образовательных данных
предоставить им список девушек
в возрасте 14–15 лет,
интересовавшихся услугами 
по планированию семьи.
И торговец данными согласился
предоставить такой список.
А теперь представьте, насколько глубоко
они внедрены в жизнь наших детей.
Но торговцы данными —
лишь один из ста примеров.

Arabic: 
على أساس فئات مختلفة:
العرق والدين والثراء،
الصعيد الاجتماعي
والعديد من الفئات العشوائية الأخرى.
ثم يبيعون هذه الملفات الشخصية
مع اسم الطفل،
عنوان منزلهم وتفاصيل الاتصال بهم
لشركات مختلفة،
بما في ذلك المؤسسات التجارية والمهنية،
والقروض الدراسية
وشركات بطاقات الائتمان الطلابية.
لكسر الحواجز،
طلب الباحثون في فورهام
من وسيط البيانات التعليمية
تزويدهم بقائمة الفتيات من 14 إلى 15 سنة
ممن كن مهتمات بخدمات تنظيم الأسرة.
وافق وسيط البيانات بتزويدهم بالقائمة.
لذا تخيل مدى خصوصية وتطفل
هذا الأمر على أطفالنا.
لكن وسطاء بيانات التعليم مجرد مثال.

Uzbek: 
Turli yo'nalishlar bo'yicha:
millati, dini, boyligi,
ijtimoiy ahvoli
va ko'plab boshqa turli
yo'nalishlar bo'yicha.
Keyin ular bu yig'ilgan profillarni 
bolalarning ismi,
uy manzili va kontaktlari bilan birga
turli kompaniyalarga sotishadi,
savdo va ta'lim dargohlaridan tortib,
talaba qarzlari,
talaba kredit karta
kompaniyasigacha.
Aniqlashtirish uchun,
Fordhamdagi tadqiqotchilar
o'quv brokeridan
14-15 yoshli qizlar ro'yxati bilan 
ta'minlashni so'rashdi.
Masalan, oilaviy reja 
qilishga qiziqadiganlarini.
Broker ro'yxatni berishga rozi bo'ldi.
Tasavvur qiling, bu qanchalik 
bolalarimiz uchun havfli bo'lishi mumkin.
Lekin o'quv brokerlari shunchaki 
bir misol.

English: 
on the basis of different categories:
ethnicity, religion, affluence,
social awkwardness
and many other random categories.
And then they sell these profiles
together with the name of the kid,
their home address and the contact details
to different companies,
including trade and career institutions,
student loans
and student credit card companies.
To push the boundaries,
the researchers at Fordham
asked an educational data broker
to provide them with a list
of 14-to-15-year-old girls
who were interested
in family planning services.
The data broker agreed
to provide them the list.
So imagine how intimate
and how intrusive that is for our kids.
But educational data brokers
are really just an example.

Portuguese: 
com base em categorias diferentes:
etnia, religião, riqueza,
inépcia social
e muitas outras categorias aleatórias.
Depois, elas vendem os perfis,
juntamente com o nome das crianças,
o endereço delas e informações de contato
para empresas diferentes,
incluindo instituições
de carreira, comércio,
e empresas de empréstimos
e cartões de crédito estudantis.
Para ampliar os limites,
os pesquisadores pediram
a um corretor de dados educacionais
para providenciar uma lista com o nome
de garotas de 14 e 15 anos de idade
que estivessem interessadas
em serviços de planejamento familiar.
O corretor de dados aceitou o pedido.
Imaginem o quanto isso é íntimo
e intrusivo para nossas crianças.
Mas esse é só um exemplo.

French: 
d'une manière que nous
ne pouvons pas contrôler
mais qui peut avoir un impact significatif
sur leurs chances dans la vie.
Nous devons donc nous demander :
peut-on faire confiance à ces technologies
lorsqu'il s'agit de profiler nos enfants ?
Vraiment ?
Ma réponse est non.
En tant qu'anthropologue,
je pense que l'IA et l'analyse
prédictive peuvent être très utiles
pour prédire l'évolution d'une maladie
ou pour lutter contre
le changement climatique.
Mais nous devons arrêter de croire
que ces technologies peuvent
établir un profil objectif des humains
et qu'on peut s'appuyer sur elles
pour prendre des décisions
concernant la vie des individus.
Parce qu'on ne peut pas
profiler les êtres humains.
Les traces de données ne sont pas
le miroir de qui nous sommes.
On pense une chose et on dit le contraire,
on ressent une chose
et on agit différemment.
Les prédictions algorithmiques
ne peuvent rendre compte
de l'imprévisibilité
et de la complexité
de l'expérience humaine.

Arabic: 
الحقيقة أنه تم توصيف أطفالنا بطرق
لا نستطيع السيطرة عليها
ولكن هذا يمكنه التأثير على فرصهم
في الحياة بصورة كبيرة.
لذا نريد أن نسأل أنفسنا:
هل نستطيع أن نثق في هذه التقنيات
عندما يتعلق الأمر بتوصيف أطفالنا؟
هل يمكننا؟
إجابتي هي لا.
كعالمة أنثروبولوجيا،
أعتقد أنه يمكن للذكاء الصناعي
والتحليلات التنبؤية أن يكونا رائعين
للتنبؤ بمسار المرض
أو محاربة تغير المناخ.
لكننا بحاجة إلى التخلي عن اعتقاد
أن هذه التقنيات يمكن أن تصنف
البشر بشكل موضوعي
وأنه يمكننا الاعتماد عليهم
لاتخاذ قرارات مبنية على البيانات
عن حياة الفرد.
إذ ليس باستطاعتهم توصيف البشر.
تتبع البيانات ليس مرآة لمن نحن.
يفكر الإنسان بشيء ويقول العكس،
يشعر بطريقة ويتصرف بشكل مختلف.
التنبؤات الخوارزمية أو الأساليب الرقمية
لا يمكن أن تفسر عدم إمكانية التنبؤ
والتجربة الإنسانية المعقدة.

Portuguese: 
de maneiras que não conseguimos controlar
e que podem ter um impacto significativo 
nas suas oportunidades na vida.
Por isso, precisamos de perguntar:
podemos confiar nestas tecnologias 
para traçarem os perfis dos nossos filhos?
Podemos?
A minha resposta é não.
Como antropóloga,
eu acredito que a inteligência artificial 
e a análise preditiva podem ser ótimas
para prever o decorrer de uma doença
ou para lutar contra 
a alteração climática.
Mas precisamos de abandonar a convicção
de que estas tecnologias podem traçar
objetivamente perfis das pessoas
e de que podemos contar com elas
para tomarem decisões
orientadas por dados
sobre vidas individuais.
Porque elas não conseguem
traçar perfis das pessoas.
Os rastreios de dados não são 
um espelho do quem somos.
Os seres humanos pensam
uma coisa e dizem outra,
sentem-se de uma maneira 
e agem de maneira diferente.
As previsões algorítmicas
e as nossas práticas digitais
não têm em conta a imprevisibilidade 
e a complexidade da experiência humana.

Chinese: 
诚然，孩子们的信息
正以不可控的方式被人操纵着，
但这会极大地影响他们以后的人生。
所以我们要扪心自问：
这些搜集孩子们信息的技术
还值得信任吗？
值得吗？
我的答案是否定的。
作为一个人类学家，
我相信人工智能和
预测分析可以很好的
预测疾病的发展过程
或者对抗气候变化。
但是我们需要摒弃
这些技术可以客观的分析人类数据，
我们能够以数据为依据做出
关于个人生活的决定
这一想法。
因为它们做不到。
数据无法反映我们的真实情况。
人类往往心口不一，
言行不一。
算法预测或者数据实践
无法应对人类经验的
不可预测性和复杂性。

Turkish: 
İşin aslı çocuklarımızın profillerinin
bizim denetleyemeyeceğimiz ölçüde
çıkarılıyor olması ki bu onların hayatını
önemli derecede etkileyebilir.
O yüzden kendimize şu soruyu sormalıyız:
Çocuklarımızın profilinin çıkarılmasında
bu teknolojilere güvenebilir miyiz?
Güvenebilir miyiz?
Benim cevabım hayır.
Bir antropolog olarak,
yapay zekanın ve kestirimsel analizlerin
felaketlerin gidişatını tahmin etmek
ve iklim değişikliği ile savaşmak için
harika olabileceğine inanıyorum.
Ama bu teknolojilerin,
insan profillerini 
objektif olarak çıkardığına
ve bireylerin hayatlarıyla ilgili 
veri güdümlü kararlar vermek için
onlara güvenebileceğimize
olan inancı terk etmemiz gerekiyor.
Çünkü insan profillerini çıkaramazlar.
Veri izleri bizim kim 
olduğumuzun aynası değildir.
İnsanlar bir şey düşünür
ve tersini söyler,
bir yönde hisseder ve farklı hareket eder.
Algoritmik tahminler 
veya dijital alışkanlıklarımız,
insan deneyiminin tahmin edilememezlik 
ve karmaşıklığını açıklayamaz.

Modern Greek (1453-): 
με τρόπους που δεν ελέγχουμε,
αλλά που μπορούν να επηρεάσουν
σημαντικά τις ευκαιρίες τους στη ζωή.
Έτσι, πρέπει να αναρωτηθούμε:
μπορούμε να εμπιστευτούμε
αυτές τις τεχνολογίες
με τη σκιαγράφηση
του προφίλ των παιδιών μας;
Μπορούμε;
Η απάντησή μου είναι όχι.
Ως ανθρωπολόγος,
πιστεύω ότι η τεχνητή νοημοσύνη
και τα προγνωστικά αναλυτικά στοιχεία
είναι σπουδαία στην πρόβλεψη
της πορείας μιας ασθένειας
ή στην καταπολέμηση
της κλιματικής αλλαγής.
Αλλά πρέπει να εγκαταλείψουμε
την πεποίθηση
ότι αυτές οι τεχνολογίες μπορούν
να δημιουργήσουν αντικειμενικά προφίλ
και ότι μπορούμε να βασιστούμε πάνω τους
για να πάρουμε αποφάσεις βάσει δεδομένων
για μεμονωμένες ζωές.
Επειδή δεν μπορούν
να σκιαγραφήσουν προφίλ ανθρώπων.
Τα ίχνη των δεδομένων δεν είναι
ο καθρέφτης αυτού που είμαστε.
Οι άνθρωποι σκέφτονται
ένα πράγμα και λένε κάτι άλλο,
νιώθουν κάπως αλλά πράττουν διαφορετικά.
Οι αλγοριθμικές προβλέψεις
ή οι ψηφιακές μας πρακτικές
δεν μπορούν να εξηγήσουν
τη μη προβλεψιμότητα
και την πολυπλοκότητα
της ανθρώπινης εμπειρίας.

English: 
The truth is that our children are being
profiled in ways that we cannot control
but that can significantly impact
their chances in life.
So we need to ask ourselves:
can we trust these technologies
when it comes to profiling our children?
Can we?
My answer is no.
As an anthropologist,
I believe that artificial intelligence
and predictive analytics can be great
to predict the course of a disease
or to fight climate change.
But we need to abandon the belief
that these technologies
can objectively profile humans
and that we can rely on them
to make data-driven decisions
about individual lives.
Because they can't profile humans.
Data traces are not
the mirror of who we are.
Humans think one thing
and say the opposite,
feel one way and act differently.
Algorithmic predictions
or our digital practices
cannot account for the unpredictability
and complexity of human experience.

Romanian: 
Adevărul e că copiii noștri sunt profilați
în moduri pe care nu le controlăm,
dar care pot să le influențeze
șansele în viață.
Trebuie să ne întrebăm:
putem avea încredere în aceste tehnologii
în legătură cu profilarea copiilor noștri?
Putem?
Răspunsul meu e nu.
Ca antropolog,
cred că inteligența artificială
și analiza predictivă sunt grozave
când prezic parcursul unei boli
sau în combaterea schimbărilor climatice.
Dar nu trebuie să credem
că aceste tehnologii pot să profileze
oamenii în mod obiectiv,
și că ne putem baza pe ele
pentru a lua decizii bazate pe date
vizând viețile individuale.
Pentru că nu pot profila oamenii.
Informațiile nu sunt oglinda noastră.
Oamenii se gândesc la ceva
și spun opusul,
se simt într-un fel și acționează altfel.
Predicțiile algoritmice
și practicile digitale
nu pot lua în calcul imprevizibilitatea
și complexitatea experienței umane.

Russian: 
Правда в том, что наши дети отслеживаются
так, что мы не можем это контролировать,
и это может значительно повлиять
на их возможности в жизни.
Поэтому мы должны спросить самих себя:
можем ли мы доверять этим технологиям,
когда речь идёт
об отслеживании наших детей?
Можем ли?
Мой ответ — нет.
Как антрополог
я верю, что искуственный интеллект
и прогнозная аналитика могут быть полезны
в предсказывании течения болезни
или в борьбе с изменением климата.
Но мы должны отказаться от убеждения,
что эти технологии могут составить
объективный психологический профиль,
и мы не можем на них полагаться, чтобы
принимать решения на основе данных
об отдельных жизнях.
Потому что они на это не способны.
Наш информационный след не являются 
отражением того, кто мы есть.
Люди думают об одном, а говорят о другом,
чувствуют одно, а действуют по-другому.
Алгоритмические прогнозы 
или наша цифровая практика
не могут объяснить непредсказуемость
и сложность человеческого опыта.

Chinese: 
事實是，我們無法控制別人
如何對我們的孩子做側寫評比，
但這些側寫評比卻會明顯影響
他們在人生中的機會。
所以，我們得要捫心自問：
我們能信任這些
側寫評比孩子的技術嗎？
能嗎？
我的答案是「不能。」
身為人類學家，
我相信人工智慧和預測分析
很擅長預測疾病的過程
或對抗氣候變遷。
但我們不能夠信任
這些技術能夠客觀地
對人類做側寫評比，
讓我們依據這些側寫評比資料
來對個人的人生做出判斷，
因為它們無法對人類做側寫評比。
追蹤資料並無法反映出
我們是什麼樣的人。
人類說出來的話
可能和心中想的相反，
做出來的行為
可能和心中的感受不同。
用演算法做預測或其他數位做法
無法考量到人類經歷中的
不可預測性和複雜性。

Uzbek: 
Haqiqat shuki, bolalarimizning ma'lumoti
yig'ilishini biz nazorat qilolmaymiz,
ammo bu narsa ularning hayotiga
yetarlicha ta'sir qiladi.
Biz o'zimizdan so'rashimiz kerak:
bolalarimizning ma'lumoti yig'ilganda 
biz bu texnologiyalarga ishona olamizmi?
Aniq ishona olamizmi?
Mening javobim "yo'q."
Antropolog sifatida,
Sun'iy ong va bashorat tahlillari
ajoyibdir.
Kasallik izini topishda
yoki iqlim o'zgarishga
qarshi kurashda.
Bu qarashdan
voz kechishimiz kerak:
ularning xolisona ma'lumot yig'ishida
va dalillarga asoslanib qaror chiqarishda
ularga ishonishimizda,
insonlar hayoti haqida.
Chunki ular insonning aslini ko'rsatmaydi.
Ma'lumotlar bizning kimligimizning 
ko'zgusi emas.
Odam bir narsani o'ylab,
teskarisini aytadi,
ko'ngli buni desa,
o'zi boshqa ishni qiladi.
Algoritmik bashoratlar 
yoki raqamli amaliyotlar
insonning murakab tizimini 
oldindan aytib berolmaydi.

Portuguese: 
A verdade é que nossos filhos estão
sendo perfilados de formas incontroláveis
que podem impactar significativamente
suas oportunidades na vida.
Então, precisamos nos perguntar:
podemos confiar nessas tecnologias
que perfilam nossos filhos?
Será que podemos?
Minha resposta é não.
Como antropóloga,
acredito que a inteligência artificial
e a análise preditiva possam ser úteis
para prever o curso de uma doença
ou lutar contra a mudança climática.
Mas precisamos abandonar a crença
de que essas tecnologias podem perfilar
seres humanos objetivamente
e que podemos confiar nelas
para tomar decisões sobre indivíduos
baseadas em bancos de dados,
porque eles não conseguem
perfilar seres humanos.
Dados não são um reflexo de quem somos.
Humanos pensam uma coisa e dizem outra,
sentem e agem de formas diferentes.
Predições algorítmicas
ou nossas práticas digitais
não podem explicar a imprevisibilidade
e a complexidade da vivência humana.

iw: 
האמת היא שפרופיל ילדינו 
נוצר בדרכים שאיננו יכולים לשלוט בהן
אבל זה יכול להשפיע באופן משמעותי
על ההזדמנויות שלהם בחיים.
לכן עלינו לשאול את עצמנו:
האם אנו יכולים לסמוך על הטכנולוגיות אלה
כשמדובר ביצירת פרופיל לילדינו?
האם אנחנו יכולים?
התשובה שלי היא לא.
כאנתרופולוגית,
אני מאמינה שבינה מלאכותית
ותחזית נתונים יכולות להיות נהדרות
לחזות את מהלכה של מחלה
או להילחם בשינויי אקלים.
אבל עלינו לנטוש את האמונה
כי הטכנולוגיות האלה מסוגלות 
ליצור פרופיל אנושי באופן אובייקטיבי
ושאנחנו יכולים לסמוך עליהן
בקבלת החלטות מונחות נתונים
כשמדובר בחיי אדם.
מכיוון שהן אינן מסוגלות
ליצור פרופיל של אדם.
עקבות נתונים אינן השתקפות של מי שאנחנו.
בני אדם חושבים דבר אחד ואומרים את ההיפך,
מרגישים באופן מסוים ופועלים אחרת.
התחזיות האלגוריתמיות
או הפרקטיקות הדיגיטליות שלנו
אינן מסוגלות לחזות את החוויה האנושית
המורכבת והבלתי צפויה.

Spanish: 
Realmente, la forma en la que clasifican
a nuestros hijos escapa de nuestro control
y tiene un gran impacto en su futuro.
Así que debemos preguntarnos:
¿se puede confiar en estas tecnologías
que catalogan a nuestros hijos?
¿Se puede?
Yo digo que no.
Como antropóloga,
creo que la inteligencia artificial
y el análisis predictivo
pueden servir para predecir enfermedades
o luchar contra el cambio climático.
Pero tenemos que abandonar la creencia
de que estas tecnologías pueden hacer un 
perfil objetivo de los seres humanos
y que podemos confiar en ellas 
para tomar decisiones
basadas en datos sobre 
las vidas de los individuos.
No pueden clasificar humanos.
Los rastreos digitales
no reflejan quiénes somos.
Los humanos piensan una cosa y dicen otra,
sienten de una forma y actúan diferente.
Las predicciones algorítmicas
de lo que hacemos
no tienen en cuenta la impredecibilidad
y complejidad de la naturaleza humana.

Persian: 
حقیقت این است که بچه‌های ما به طریقی که 
توسط ما قابل کنترل نیست، طبقه‌بندی می‌شوند
اما این می‌تواند بطور چشمگیری بختشان 
در زندگی را تحت تأثیر قرار دهد.
پس نیاز است از خودمان بپرسیم:
آیا می‌توانیم به این فناوری‌ها اعتماد کنیم
در حالی که کودکان را طبقه‌بندی می‌کنند؟
می‌توانیم؟
پاسخ من خیر است.
بعنوان یک انسان‌شناس
معتقدم که هوش مصنوعی و تحلیلگران 
پیش‌بینی کننده می‌توانند خیلی خوب باشند
برای پیش‌بینی مسیر یک بیماری
یا مبارزه با تغییرات آب و هوایی.
اما باید این باور را رها کنیم
که این فناوری‌ها می‌توانند 
بیطرفانه انسان‌ها را طبقه‌بندی کنند
و اینکه می‌توانیم به آن‌ها 
اعتماد کنیم تا تصمیمات را بر مبنای
داده‌های زندگی شخصی افراد بگیرند.
چون نمی‌توانند انسان‌ها را طبقه‌بندی کنند.
آثار داده‌ها آیینه‌ای از واقعیت شما نیست.
انسان‌ها جوری فکر می‌کنند 
اما خلافش را می‌گویند،
جوری احساس می‌کنند 
ولی متفاوت عمل می‌کنند.
پیش‌بینی‌های الگوریتمی یا محاسبات دیجیتال
نمی‌تواند مبنایی منطبق بر غیرقابل 
پیش‌بینی بودن و پیچیدگی تجربه انسانی باشد.

Hungarian: 
Az igazság az, hogy gyermekeinket
ellenőrizhetetlen módon profilozzák,
profiljaik mégis jelentős mértékben
befolyásolhatják lehetőségeiket.
Így hát fel kell tegyük a kérdést:
megbízhatunk ezekben a technológiákban
gyermekeink profilozását illetően?
Bízhatunk bennük?
Az én válaszom: nem.
Antropológusként hiszem,
hogy a mesterséges intelligencia
és a prediktív elemzés remek lehet
megbetegedések lefolyásának előrejelzésére
vagy a klímaváltozás elleni harcban.
De fel kell hagynunk a hiedelemmel,
hogy ezek a technológiák objektíven
tudnak emberi profilokat alkotni,
hogy megbízhatók az adatvezérelt
döntések meghozatalában
adott emberek életére vonatkozóan.
Mert nem tudnak embereket profilozni.
Az adatnyomok nem tükrözik azt,
akik vagyunk.
Az emberek az ellenkezőjét gondolják,
mint amit állítanak,
mást éreznek és más szerint cselekednek.
Algoritmusos előrejelzések
és digitális szokásaink
nem fedhetik le az emberi tapasztalás 
megjósolhatatlanságát és komplexitását.

Swedish: 
på sätt vi inte kan kontrollera
men det kan avsevärt påverka
deras chanser i livet.
Så vi måste fråga oss själva:
Kan vi lita på dessa tekniker när det
kommer till att profilera våra barn?
Kan vi?
Mitt svar är nej.
Som antropolog
tror jag att artificiell intelligens
och förutsägbar analys kan vara bra
för att förutsäga sjukdomförlopp
eller bekämpa klimatförändringar.
Men vi måste överge tron
att dessa tekniker
objektivt kan profilera människor
och att vi kan förlita oss på dem
att ta datadrivna beslut
om individuella liv.
För de kan inte profilera människor.
Dataspår speglar inte vem vi är.
Människor tänker en sak
och säger motsatsen,
känner på ett sätt
och beter oss annorlunda.
Algoritmiska förutsägelser
eller våra digitala metoder
kan inte redogöra för oförutsägbarheten
och komplexiteten i mänsklig erfarenhet.

Polish: 
że nie jesteśmy w stanie kontrolować, 
w jaki sposób dzieci są profilowane,
a to może mieć
znaczący wpływ na ich życie.
Musimy zadać sobie pytanie:
Czy możemy ufać tym technologiom
w kwestii profilowania naszych dzieci?
Możemy?
Moja odpowiedź brzmi: nie.
Jako antropolog wierzę,
że sztuczna inteligencja
i analiza prognostyczna
mogą być bardzo pomocne
w przewidywaniu przebiegu choroby
albo w walce ze zmianami klimatycznymi.
Jednak musimy porzucić wiarę w to,
że te technologie
mogą obiektywnie profilować ludzi
i że możemy polegać na nich
przy podejmowaniu
kluczowych decyzji życiowych,
dlatego, że one
nie potrafią profilować ludzi.
Dane nie są odbiciem lustrzanym
tego, kim jesteśmy.
Ludzie myślą jedno, a mówią drugie,
postępują inaczej niż czują.
Prognozy algorytmiczne
czy nasze praktyki cyfrowe
nie biorą pod uwagę nieprzewidywalności
oraz złożoności ludzkich doświadczeń.

Persian: 
اما مهمتر از همه اینکه
این فناوری‌ها همیشه --
همیشه --
به طریقی سوگیری مشخصی دارند.
می‌دانیم که الگوریتم‌ها دسته‌ای 
از قوانین و مراحل هستند
که برای حصول نتیجه مشخصی 
طراحی شده‌اند، درست؟
اما این دسته‌های قوانین و مراحل 
نمی‌توانند بیطرف باشند،
چون توسط انسان‌ها طراحی شده‌اند
و در یک زمینه فرهنگی خاص
و با ارزش‌های فرهنگی خاصی شکل گرفته‌اند.
بنابراین وقتی ماشین‌ها یاد می‌گیرند،
از الگوریتم‌های با سوگیری 
خاصی یاد می‌گیرند،
همچنین از پایگاه‌های داده 
با سوگیری خاص یاد می‌گیرند.
در این لحظه، داریم اولین نمونه 
سوگیری الگوریتمی را مشاهده می‌کنیم.
و برخی از این نمونه‌ها 
واقعاً ترسناک هستند.
امسال، ای‌آی ناو انستیتو 
در نیویورک گزارشی منتشر کرد
که فاش می‌کرد فناوری‌های هوش مصنوعی
که برای نظارت پلیسی پیشگویانه 
مورد استفاده هستند
با داده‌های «کثیف» آموزش دیده‌اند.

Hungarian: 
Ráadásul
ezek a technológiák mindig,
mindig,
egyik vagy másik irányban részrehajlók.
Az algoritmusok definíció szerint
szabályok és lépések összessége,
melyeket azért alkotnak,
hogy adott eredményre jussanak.
De ezek a szabályok és lépések
nem lehetnek objektívek,
mert ezeket emberek alkották
meghatározott kulturális kontextusban,
s adott kulturális értékek alakítják őket.
Amikor gépek tanulnak,
részrehajló algoritmusok alapján tanulnak,
és gyakran részrehajló
adatbázisokból is tanulnak.
Ma már látni az algoritmikus
részrehajlás első példáit.
Néhány ezek közül elég rémisztő.
A New York-i AI Now Kutatóintézet
idén kiadott jelentése feltárta,
hogy az AI-technológiákat,
melyeket a prediktív rendfenntartásban
alkalmaznak,
“piszkos” adatok alapján képezték.

Arabic: 
إضافة إلى هذا،
هذه التقنيات دائماً -
دائماً -
بطريقة أو بأخرى، منحازة.
الخوارزميات حسب التعريف مجموعات
من القواعد أو الخطوات
تم تصميمها لتحقيق نتيجة محددة، أليس كذلك؟
لكن لا يمكن لهذه القواعد أو الخطوات
أن تكون موضوعية،
لأنه تم تصميمها بواسطة البشر
ضمن سياق ثقافي محدد
وتتشكل بقيم ثقافية محددة.
لذا عندما تعمل الآلات،
تعمل من خوارزميات منحازة،
وغالبا ما يتعلمون من قواعد البيانات
المتحيزة كذلك.
في الوقت الحالي، نحن نرى
الأمثلة الأولية للتحيز الخوارزمي.
وبعض هذه الأمثلة صراحة مرعبة.
نشر معهد AI Now هذا العام
في نيويورك تقريراً
كشف أن تقنيات الذكاء الصناعي
التي يتم استخدامها للشرطة التنبؤية
تم تغذيتها على بيانات "فاسدة".

Polish: 
Dodatkowo
te technologie są zawsze,
zawsze,
w jakimś stopniu stronnicze.
Algorytmy są z definicji
zbiorem zasad i instrukcji,
które zostały zaprojektowane
w konkretnym celu.
Jednak te zbiory zasad i instrukcji
nie są obiektywne,
ponieważ są zaprojektowane przez ludzi
w konkretnym kontekście kulturowym
i są ukształtowane
przez konkretne wartości kulturowe.
Kiedy maszyny się uczą,
opierają się na stronniczych algorytmach,
a często także na stronniczych
bazach danych.
Obecnie widzimy pierwsze przykłady
przechyłów algorytmicznych.
Niektóre z tych przykładów
są przerażające.
W tym roku instytut AI Now Institute
z Nowego Jorku opublikował raport,
który ujawnił, że technologie AI
używane do prewencji przestępstw
działały w oparciu o "brudne" dane.

French: 
Mais en plus de cela,
ces technologies sont toujours -
toujours -
d'une manière ou d'une autre, biaisées.
Les algorithmes sont par définition
des ensembles de règles ou d'étapes
qui ont été conçus pour atteindre
un résultat spécifique.
Mais ces ensembles de règles
ne peuvent pas être objectifs,
car ils ont été conçus
par des êtres humains
dans un contexte culturel spécifique
et sont façonnés
par des valeurs culturelles spécifiques.
Lorsque les machines apprennent,
elles apprennent à partir
d'algorithmes biaisés,
et elles apprennent souvent aussi
à partir de bases de données biaisées.
En ce moment, nous voyons les
premiers exemples de biais algorithmiques.
Et certains de ces exemples
sont franchement terrifiants.
Cette année, l'AI Now Institute
de New York a publié un rapport
qui révèle que les technologies d'IA
utilisées pour la police prédictive
ont été formées sur des données « sales ».

Romanian: 
Dar mai presus de atât,
aceste tehnologii sunt mereu —
mereu —
într-un fel sau altul, părtinitoare.
Vedeți voi, algoritmii sunt prin definiție
o mulțime de reguli și pași
care au fost concepuți pentru a obține
un anume rezultat, da?
Dar aceste reguli sau pași
nu pot fi obiectivi
pentru că au fost creați de oameni
într-un anume context cultural
și sunt formate
de anumite valori culturale.
Deci, când mașinăriile învață,
învață prin algoritmi părtinitori
și învață adesea din baze de date
părtinitoare.
În prezent, vedem primele exemple
de prejudecăți ale algoritmilor.
Iar unele din aceste exemple sunt,
sincer, terifiante.
Anul acesta, AI Now Institute
din New York a publicat un raport
care dezvăluie că tehnologiile AI
care sunt folosite
pentru poliția predictivă
au fost antrenate cu informații „murdare”.

Modern Greek (1453-): 
Αλλά πάνω απ' όλα,
αυτές οι τεχνολογίες είναι πάντα,
μα πάντα,
με τον έναν ή τον άλλο τρόπο,
προκατειλημμένες.
Βλέπετε, οι αλγόριθμοι είναι εξ ορισμού
ένα σύνολο κανόνων ή βημάτων
που έχουν σχεδιαστεί για να επιτύχουν
ένα συγκεκριμένο αποτέλεσμα, εντάξει;
Αλλά αυτό το σύνολο κανόνων
ή βημάτων δεν είναι αντικειμενικό,
επειδή έχουν σχεδιαστεί από ανθρώπους
σε ένα συγκεκριμένο πολιτισμικό πλαίσιο
και διαμορφώνονται από
συγκεκριμένες πολιτισμικές αξίες.
Έτσι, όταν μαθαίνουν οι μηχανές,
μαθαίνουν από αλγόριθμους
που είναι προκατειλημμένοι,
και συχνά μαθαίνουν και από
προκατειλημμένες βάσεις δεδομένων.
Αυτήν τη στιγμή βλέπουμε τα πρώτα
παραδείγματα αλγοριθμικής προκατάληψης.
Και μερικά από αυτά τα παραδείγματα
είναι πραγματικά τρομακτικά.
Φέτος, το Ινστιτούτο AI Now
στη Νέα Υόρκη δημοσίευσε μια αναφορά
που αποκάλυψε ότι οι τεχνολογίες ΤΝ
που χρησιμοποιούνται
για προγνωστική αστυνόμευση
εκπαιδεύτηκαν με «βρόμικα» δεδομένα.

Chinese: 
但是在此之上，
这些科技总是——
总是——
以这样或那样的方式存在偏见。
要知道，算法的定义是
被设计成实现一个具体结果的
很多套规则或步骤，对吧？
但是这些都不是客观的，
因为它们都是
由带有特殊文化背景，
被特殊文化价值所塑造的人类
设计出来的。
所以当机器在学习的时候，
它们利用的是带有偏见的算法，
以及往往同样带有偏见的数据。
如今，我们已经看到了
第一批算法偏见的例子，
其中有一些真的很可怕。
今年，位于纽约的
人工智能现在研究所（AI Now Institute）
发表的一份报告揭示了
预测警务领域的人工智能技术
是使用非常糟糕的数据进行训练的。

iw: 
בנוסף לכך,
הטכנולוגיות האלה הן תמיד
תמיד
בדרך זו או אחרת, מוטות.
אתם מבינים, האלגוריתמים הם בהגדרה
אוסף של כללים או שלבים
שתוכננו על מנת להשיג תוצאה ספציפית, בסדר?
אך אוסף זה של כללים או שלבים 
אינו יכול להיות אובייקטיבי,
כי הוא עוצב על ידי בני אדם
בהקשר תרבותי ספציפי
והוא מעוצב על פי ערכים תרבותיים ספציפיים.
אז כשמכונות לומדות,
הן לומדות מאלגוריתמים מוטים,
ולעתים קרובות הן גם לומדות
ממאגרי נתונים מוטים.
כרגע אנחנו רואים את הדוגמאות 
הראשונות להטיה אלגוריתמית.
וכמה מהדוגמאות האלה ללא ספק מעוררות אימה.
השנה מכון AI Now בניו יורק פרסם דו"ח
שגילה כי טכנולוגיות בינה מלאכותית
הנמצאות בשימוש השיטור המנבא

Chinese: 
除此之外，
這些技術向來——
向來——會以某種方式偏頗。
在定義上，演算法就是
一組一組的規則或步驟，
設計的目的是要達成
一個特定的結果。
但這些規則或步驟並不客觀，
因為它們是由某種
特定文化情境下的人所設計的，
且由某些特定的
文化價值觀所形塑出來。
所以，機器學習時
會自偏頗的演算法學習，
通常也會從偏頗的資料庫中學習。
現在我們已經開始看見
一些偏頗演算法的初始例子，
當中有些還挺嚇人的。
紐約的 AI Now Institute
今年公佈的一份報告揭露出
用來做預測性維安的人工智慧技術
是用「髒數據」訓練出來的。

English: 
But on top of that,
these technologies are always --
always --
in one way or another, biased.
You see, algorithms are by definition
sets of rules or steps
that have been designed to achieve
a specific result, OK?
But these sets of rules or steps
cannot be objective,
because they've been designed
by human beings
within a specific cultural context
and are shaped
by specific cultural values.
So when machines learn,
they learn from biased algorithms,
and they often learn
from biased databases as well.
At the moment, we're seeing
the first examples of algorithmic bias.
And some of these examples
are frankly terrifying.
This year, the AI Now Institute
in New York published a report
that revealed that the AI technologies
that are being used
for predictive policing
have been trained on "dirty" data.

Turkish: 
Üstüne üstlük
bu teknolojiler daima --
daima --
öyle ya da böyle, peşin hükümlüdür.
Gördüğünüz gibi, algoritmalar 
tanım gereği spesifik bir sonuca
ulaşmak için tasarlanmış kurallar ve
adımlar bütünüdür. Tamam mı?
Ama bu kurallar ve adımlar 
bütünü objektif olamaz,
çünkü insanlar tarafından
tasarlanmışlardır,
spesifik bir kültürel içeriği vardır
ve spesifik kültürel değerler
tarafından şekillendirilir.
Yani makineler öğrenirken,
peşin hükümlü algoritmalardan
ve sıklıkla da peşin hükümlü
veri tabanlarından öğrenirler.
Şimdi, algoritmik peşin hükmün
ilk örneklerini görüyoruz.
Bu örneklerden bazıları 
açıkçası dehşet verici.
Bu sene, New York'taki Al Now Enstitüsü
kestirimsel güvenlik işlemleri için
kullanılan yapay zeka teknolojilerinin
"kirli" veriler üzerinde eğitildiğini
ortaya çıkaran bir rapor yayınladı.

Uzbek: 
Lekin, avvalambor
bu texnologiyalar har doim ham
har doim ham
xolis emas.
Bilamizki, algoritmlar 
qoidalar yoki qadamlar to'plamidir.
Ma'lum bir natijaga erishish uchun
ishlab chiqilgan, shunday emasmi?
Lekin bu qoidalar yoki qadamlar to'plami 
xolis emas,
chunki ularni odamlar ishlab chiqishgan.
Ma'lum bir madaniy jabxada
va o'ziga xos madaniy jihatlar bilan
sayqallashgan.
Shunday ekan, mashinalar 
o'rganishsa
ular noxolis algoritmlar 
orqali o'rganishadi,
va ular noxolis ma'lumotlar 
bazasidan ham tezroq o'rganishadi.
Ayni paytda, algoritmik taraqqiyotning
ilk misollarini ko'rishimiz mumkin.
Va ba'zi misollar 
rostan qo'rqinchlidir.
Shu yili, Ney-Yorkdagi AI Now Instituti 
hisobot chop etishdi:
shuni oshkor qilishdiki,
sun'iy ong texnologiyalari
bashorat qilishda ishlatilayotgan ekan,
"kir" ma'lumotlarni aniqlashga 
o'rgatilgan.

Russian: 
Но вдобавок ко всему,
эти технологии всегда,
так или иначе,
необъективны.
Вы знаете, что алгоритмы по определению
означают набор правил и шагов,
которые были разработаны для достижения
определённого результата?
Но эти наборы правил и шагов 
не могут быть объективными,
так как они были придуманы человеком
в определённом культурном контексте
и сформированы определёнными 
культурными ценностями.
Итак, когда машины учатся,
они учатся как с помощью
предвзятых алгоритмов,
так и на основе
предвзято составленных баз данных.
Сегодня мы видим первые примеры
алгоритмической предвзятости.
Некоторые из этих примеров просто ужасны.
В этом году организация AI Now Institute
в Нью-Йорке опубликовала отчёт,
в котором говорится, что технологии ИИ,
используемые для прогнозирования 
полицейской деятельности,
были обучены на «грязных» данных.

Portuguese: 
Mas acima de tudo isso,
essas tecnologias são sempre,
de uma forma ou outra, tendenciosas.
Algoritmos são, por definição,
um conjunto de regras ou passos
projetado para alcançar
um resultado específico, certo?
Mas esses conjuntos
não podem ser objetivos
porque são projetados por seres humanos
num contexto cultural específico
e são modelados por valores
culturais específicos.
Quando as máquinas aprendem,
é através de algoritmos tendenciosos
e, com frequência, através de bases
de dados também tendenciosas.
No momento, vemos os primeiros
exemplos de viés algorítmico.
E alguns desses exemplos são terríveis.
Neste ano, o AI Now Institute
en Nova York publicou um relatório
que revelou que as tecnologias IA
que estão sendo utilizadas
para o policiamento preditivo
foram treinadas com "dados sujos".

Portuguese: 
Mas além disso,
essas tecnologias são sempre,
sempre,
de uma maneira ou outra, tendenciosas.
Os algoritmos são, por definição, 
conjuntos de regras ou passos
que foram concebidos para alcançar 
um resultado específico, OK?
Mas estes conjuntos de regras ou passos
não podem ser objetivos,
porque foram concebidos
por seres humanos
dentro de um contexto cultural específico
e são modelados
por valores culturais específicos.
Por isso quando as máquinas aprendem,
aprendem a partir de algoritmos parciais,
e muitas vezes aprendem também
a partir de bases de dados parciais.
De momento, estamos a ver os primeiros
exemplos de viés algorítmico.
E alguns destes exemplos
são francamente aterradores.
Este ano, o AI Now Institute
em Nova Iorque publicou um relatório
que revelou que as tecnologias de IA
que estão a ser utilizadas
para policiamento preditivo

Spanish: 
Por si fuera poco,
estas tecnologías son siempre,
de un modo u otro, subjetivas.
Los algoritmos son, por definición,
conjuntos de reglas o pasos
diseñados para conseguir
resultados concretos.
Pero tales reglas o pasos
no pueden ser imparciales,
porque los han diseñado humanos
dentro de un marco cultural concreto
y están influenciados
por unos valores concretos.
Cuando las máquinas aprenden,
lo hacen a partir de algoritmos sesgados,
y a menudo también aprenden
de bases de datos sesgadas.
Justo ahora podemos ver
los primeros casos de sesgo algorítmico.
Algunos de estos ejemplos
son francamente aterradores.
Este año, el AI Institute de Nueva York
ha publicado un informe que demuestra
que las inteligencias artificiales
que usa la policía predictiva
han aprendido de "datos sucios".

Swedish: 
Och dessutom är dessa tekniker alltid -
alltid på ett eller annat sätt partiska.
Algoritmer är per definition
uppsättningar av regler eller steg
som har blivit designade att uppnå
ett specifikt resultat, OK?
Men dessa regler och steg
kan inte vara objektiva
för de har designats av människor
i ett specifikt kulturellt sammanhang
och är formade
av specifika kulturella värderingar.
Så när en maskin lär sig,
lär den sig utifrån partiska algoritmer
och de lär sig även ofta
från partiska databaser.
Just nu ser vi de första exemplen 
på algoritmisk partiskhet.
Och vissa av dessa exempel
är uppriktigt skrämmande.
I år publicerade "Al Now Institute"
i New York en rapport
som avslöjade att Al-tekniker
som används för prediktivt polisarbete
har tränats på "problematisk" data.

Romanian: 
Practic, informații obținute
în perioade istorice
cu prejudecăți rasiale
și cu practici netransparente
ale poliției.
Pentru că aceste tehnologii sunt
antrenate cu informații „murdare”,
acestea nu sunt obiective,
iar rezultatele lor doar amplifică
și perpetuează
prejudecățile și erorile poliției.
Cred că avem în față
o problemă fundamentală
în societatea noastră.
Începem să avem încredere în tehnologii,
când vine vorba de profilarea oamenilor.
Știm că atunci când e vorba
de profilarea oamenilor,
aceste tehnologii vor avea mereu
prejudecăți
și niciodată nu vor fi precise
cu adevărat.
Ce ne trebuie acum
este o soluție politică.
Guvernele trebuie să admită
că drepturile la datele noastre
fac parte din drepturile omului.
(Aplauze și urale)

Portuguese: 
foram treinadas com base em dados "sujos".
Ou seja, basicamente dados
que foram reunidos
durante períodos históricos conhecidos
pelos preconceitos raciais
e por práticas policiais 
pouco transparentes.
Como estas tecnologias estão
a ser treinadas com dados sujos,
não são objetivas,
e os resultados estão apenas
a amplificar e a perpetrar
preconceitos policiais e erros.
Por isso, eu acho que estamos a enfrentar
um problema fundamental
na nossa sociedade.
Estamos a começar a confiar
em tecnologias
no que toca a traçar perfis
de seres humanos.
Sabemos que,
ao traçarem perfis de pessoas,
estas tecnologias vão ser
sempre tendenciosas
e nunca vão ser exatas.
Por isso, precisamos agora 
de uma solução política.
Precisamos que os governos reconheçam
que os nossos direitos de dados
são os nossos direitos humanos.
(Aplausos)

Turkish: 
Kirli veriler; ırksal peşin hükmün
ve şeffaf olmayan polis
uygulamalarının olduğu
tarihsel dönemler boyunca
toplanan veriler demek.
Çünkü bu teknolojiler
kirli veri ile eğitiliyor,
objektif değiller
ve bunun sonuçları sadece 
polis peşin hükmünü
ve hatalarını arttırıp devam ettiriyor.
Bundan dolayı, bence
toplumumuzda temel bir 
problem ile karşı karşıyayız.
İnsan profili çıkarmaya gelince
bu teknolojilere güvenmeye başlıyoruz.
Biliyoruz ki insan profili çıkarırken,
bu teknolojiler her zaman
peşin hükümlü olacaklar
ve asla gerçekten doğru olmayacaklar.
Bu yüzden asıl ihtiyacımız 
olan siyasal bir çözüm.
Bize veri haklarımızın insan haklarımız
olduğunu tanıyan hükümetler lazım.
(Alkış)

Swedish: 
Detta är helt enkelt data som har samlats
under historiska perioder
av känd raspartiskhet
och icke-transparent polisarbete.
Eftersom dessa tekniker
tränas med "problematisk" data
är de inte objektiva,
och deras resultat förstärker bara
polispartiskhet och fel.
Så jag tror att vi står inför
ett grundläggande problem
i vårt samhälle.
Vi börjar att lita på teknik när det 
kommer till att profilera människor.
Vi vet att när man profilerar människor
så kommer teknik alltid att vara partisk
och kommer aldrig att vara riktigt exakt.
Så vad vi behöver nu
är faktiskt en politisk lösning.
Vi behöver få regeringar att erkänna att
vår data är våra mänskliga rättigheter.
(Applåder och jubel)

Chinese: 
收集這些資料的時期，
是歷史上已知很有種族偏見
以及警方作業不透明的時期。
因為訓練這些技術
所用的資料是髒數據，
不具備客觀性，
它們產出的結果
只會放大和犯下警方的偏見和錯誤。
所以，我認為我們面臨的
是社會中的根本問題。
我們開始交由科技技術
來側寫評比人。
我們知道在側寫評比人時，
這些技術一定會偏頗，
永遠不會正確。
所以，現在我們需要的
是政治上的解決方案。
我們需要政府認可
我們的資料權和人權。
（掌聲及歡呼）

Arabic: 
تم جمع هذه البيانات في الأساس
خلال الفترات التاريخية
من التحيز العنصري المعروف
وممارسات الشرطة غير الشفافة.
لأن هذه التقنيات يتم تغذيتها
على بيانات فاسدة،
فهم ليسوا موضوعيين،
ونتائجها فقط تضخيم
لتحيز الشرطة والخطأ.
لذلك أعتقد أننا نواجه مشكلة أساسية
في مجتمعنا.
بدأنا نثق في التقنيات عندما يتعلق
الأمر بتوصيف البشر.
نحن نعلم أنه في توصيف البشر،
هذه التقنيات دائماً منحازة
ولن تكون دقيقة أبداً.
لذا ما نحتاجه الآن هو في الواقع حل سياسي.
نحتاج أن تعترف الحكومات أن حقوق
البيانات الخاصة بنا هي حقوقنا الإنسانية.
(تصفيق وهتاف)

Russian: 
В основном это данные, собранные
в течение исторических периодов, 
известных расовыми предрассудками
и непрозрачными действиями полиции.
Из-за того, что эти технологии
разрабатывались на основе грязных данных,
они необъективны,
и их результаты только 
усиливают и дополняют
необъективность и ошибки полиции.
Я думаю, мы столкнулись 
с фундаментальной проблемой
нашего общества.
Мы начинаем доверять технологиям,
когда речь идёт о профилировании людей.
Мы знаем, что при профилировании людей
эти технологии всегда будут предвзятыми
и никогда не будут точными.
Поэтому нам сейчас нужно политическое 
решение данного вопроса.
Нам нужно, чтобы правительства признали,
что права на данные — наши права человека.
(Аплодисменты)

Hungarian: 
Ezeket az adatokat
köztudottan részrehajló és nem átlátható
rendőri gyakorlattal jellemezhető
korszakokban gyűjtöttek.
Mivel ezeket a technológiákat
piszkos adatok alapján tanítják,
nem objektívek,
így az eredményeik
felerősítik és megvalósítják
a rendőri részrehajlást és hibákat.
Alapvető problémával állunk szemben
társadalmunkban.
Ami az emberek profilozását illeti,
kezdünk technológiákban bízni.
Tudjuk, hogy az emberek profilozásakor
ezek a technológiák mindig
részrehajlók lesznek,
és sosem lesznek igazán pontosak.
Ezért politikai megoldásra van szükség.
A kormányoknak el kell ismerniük:
adatainkhoz való jogunk emberi jog.
(Taps és ujjongás)

French: 
Il s'agit essentiellement
de données recueillies
au cours de périodes de préjugés raciaux
et de pratiques policières
non transparentes.
Comme ces technologies
sont formées avec des données sales,
elles ne sont pas objectives
et leurs résultats ne font
qu'amplifier et perpétuer
les préjugés et les erreurs de la police.
Je pense donc que nous sommes confrontés
à un problème fondamental
dans notre société.
Nous commençons
à faire confiance aux technologies
pour profiler des êtres humains.
Nous savons qu'en établissant
le profil des humains,
ces technologies seront toujours biaisées
et ne seront jamais vraiment précises.
Ce dont nous avons besoin,
c'est d'une solution politique :
les gouvernements doivent reconnaître que
nos droits en matière de données
sont des droits humains.
(Applaudissements et acclamations)

Persian: 
یعنی اطلاعاتی که اساساً
از زمان تاریخی تعصبات نژادی
و اعمال پلیسی غیرشفاف جمع‌آوری شده‌اند.
چون این فناوری‌ها با داد‌های 
«کثیف» آموزش می‌بینند،
بیطرف نیستند،
و خروجی آن‌ها فقط موجب تقویت و ارتکاب
تبعیض و خطای پلیسی می‌شود.
بنابراین فکر می‌کنم 
با یک مشکل اساسی در جامعه
روبرو هستیم.
ما داریم به فناوری‌هایی اعتماد می‌کنیم 
که انسان‌ها را طبقه‌بندی می‌کنند.
می‌دانیم که در طبقه‌بندی انسان‌ها،
این فناوری‌ها همواره سوگیری خاصی دارند
و هرگز نمی‌توانند صحیح باشند.
بنابراین واقعاً 
به راه حل سیاسی نیاز داریم.
دولت‌ها باید بدانند که داده‌های ما 
جزء حقوق انسانی ماست.
(تشویق و هورا)

Portuguese: 
Esses são dados que foram coletados
durante períodos históricos
de preconceito racial explícito
e práticas policiais não transparentes.
Por essas tecnologias serem
treinadas com dados sujos,
elas não são objetivas,
e seus resultados estão
ampliando e perpetuando
os erros e o preconceito policial.
Aqui, nós enfrentamos
um problema fundamental
em nossa sociedade.
Estamos confiando em tecnologias
para perfilar seres humanos,
mas sabemos que ao fazermos isso,
essas tecnologias sempre
serão tendenciosas
e jamais realmente precisas.
Precisamos de uma solução política.
Que os governos reconheçam que direitos 
sobre dados são direitos humanos.
(Aplausos)

Polish: 
Są to dane zgromadzone
w okresie wyraźnych uprzedzeń rasowych
i nietransparentnych praktyk policyjnych.
Ponieważ te technologie
używają "brudnych" danych,
nie są obiektywne,
a rezultaty ich działań
tylko wzmacniają i przyczyniają się
do policyjnej stronniczości i pomyłek.
Dlatego myślę, że stoimy
w obliczu fundamentalnego problemu
naszego społeczeństwa.
Zaczynamy ufać technologiom,
jeśli chodzi o profilowanie ludzi.
Wiemy, że w profilowaniu ludzi,
te technologie będą zawsze stronnicze
i nigdy nie będą precyzyjne.
Potrzebujemy politycznego
rozwiązania tego problemu.
Potrzebujemy rządów, które uznają,
że ochrona danych to też prawa człowieka.
(Brawa i wiwaty)

Uzbek: 
Bu asosan shunday yig'ilganki,
tarixiy irqchillika oid ma'lumotlardan
iborat va
shaffof bo'lmagan politsiya 
ishlari ham bor.
Bu texnologiyalar qora ma'lumotlarni
ishlatgani uchun
ular xolis emas,
ularning oqibatlari esa faqatgina 
politsiya qilmishi va xatolarini
ko'paytiradi va abadiylashtiradi.
Xo'sh, menimcha bizning 
jamiyatimiz muhim bir
muammoga duch keldi.
Biz ma'lumotlar yig'ishda ishlatiladigan
texnologiyalarga ishonishni boshladik.
Bilamizki, 
inson ma'lumotlarini yig'ishda
bu texnologiyalar har doim ham 
xolis bo'lmaydi
va hech qachon aniq bo'lmaydi.
Hozir bizga kerak bo'lgan narsa
bu siyosiy yechimdir.
Hukumatlarimiz bizning ma'lumot huquqimiz
insoniy huquqimiz ekanini tan olishi kerak
(Qarsaklar va hayqiriqlar)

Modern Greek (1453-): 
Βασικά, αυτά είναι δεδομένα
που συλλέχθηκαν
κατά τη διάρκεια ιστορικών περιόδων
με γνωστές ρατσιστικές προκαταλήψεις
και μη διαφανείς πρακτικές αστυνόμευσης.
Επειδή αυτές οι τεχνολογίες
έχουν εκπαιδευτεί με βρόμικα δεδομένα,
δεν είναι αντικειμενικές,
και τα αποτελέσματά τους οδηγούν μόνο
στην ενίσχυση της αστυνομικής 
προκατάληψης και τη διάπραξη λαθών.
Νομίζω λοιπόν ότι αντιμετωπίζουμε
ένα ουσιαστικό πρόβλημα
στην κοινωνία μας.
Αρχίζουμε να εμπιστευόμαστε τεχνολογίες
για τη σκιαγράφηση προφίλ ανθρώπων.
Γνωρίζουμε ότι στη σκιαγράφηση
προφίλ ανθρώπων
αυτές οι τεχνολογίες πάντα
θα είναι προκατειλημμένες
και ποτέ δεν θα είναι πραγματικά ακριβείς.
Αυτό που χρειαζόμαστε τώρα
είναι μια πολιτική λύση.
Πρέπει οι κυβερνήσεις να αναγνωρίσουν
ότι τα δικαιώματα στα δεδομένα μας
είναι ανθρώπινα δικαιώματα.
(Χειροκρότημα και επευφημίες)

English: 
This is basically data
that had been gathered
during historical periods
of known racial bias
and nontransparent police practices.
Because these technologies
are being trained with dirty data,
they're not objective,
and their outcomes are only
amplifying and perpetrating
police bias and error.
So I think we are faced
with a fundamental problem
in our society.
We are starting to trust technologies
when it comes to profiling human beings.
We know that in profiling humans,
these technologies
are always going to be biased
and are never really going to be accurate.
So what we need now
is actually political solution.
We need governments to recognize
that our data rights are our human rights.
(Applause and cheers)

iw: 
הוכשרו באמצעות נתונים "מזוהמים".
אלו בעצם נתונים אשר נאספו
במהלך תקופות היסטוריות
הידועות בהטייתן הגזעית
ושיטות עבודה לא שקופות של המשטרה.
מכיוון שטכנולוגיות אלה
מאומנות בעזרת נתונים מזוהמים,
הן אינן אובייקטיביות,
והתוצאות שלהן רק מעצימות ומובילות
להטיה ולטעויות של המשטרה.
אז אני חושבת שאנו עומדים מול בעיה עקרונית
בחברה שלנו.
אנו מתחילים לסמוך על טכנולוגיות
כשמדובר ביצירת פרופיל של בני אדם.
אנו יודעים שבניסיון ליצור פרופיל של אדם,
הטכנולוגיות האלה תמיד יהיו מוטות
ולעולם לא יהיו מדויקות באמת.
אז מה שאנחנו צריכים עכשיו
הוא למעשה פתרון פוליטי.
אנחנו צריכים שממשלות יכירו בכך
שזכויות הנתונים שלנו הן זכויות האדם שלנו.
(מחיאות כפיים וצהלות)

Chinese: 
这些数据基本上都是
在历史上存在已知的种族偏见
和不透明的警察行为时期
收集的数据。
因为这些技术都是
用这类数据训练的，
它们无法做到客观，
结果只是放大和进一步深化
警察的偏见和错误。
所以我觉得我们是在面对社会中的
一个基本问题。
我们正在放心大胆的
用各种技术对人类信息进行分析。
我们知道在这方面，
这些技术总是有偏见的，
结果也永远不可能准确。
所以我们现在需要
一个政治层面的解决方案。
我们需要让政府认识到，
我们的数据权利也是人权。
（鼓掌和欢声）

Spanish: 
Estos son datos recogidos
de épocas de claro prejuicio racial
y acciones policiales poco transparentes.
Estas inteligencias, al alimentarse
de datos sucios, no son objetivas,
y los resultados solo dan lugar
a parcialidad y errores policiales.
Creo que nos enfrentamos
a un problema fundamental de la sociedad.
Nos estamos fiando de las tecnologías
a la hora de clasificar a seres humanos.
Ya se sabe que las tecnologías
siempre van a estar influenciadas
y nunca van a ser del todo exactas.
Lo que en realidad necesitamos
es una es una solución política.
Que los gobiernos vean que la protección
de datos es un derecho humano.
(Aplausos y vítores)

Modern Greek (1453-): 
Μέχρι να γίνει αυτό, δεν μπορούμε
να ελπίζουμε για ένα πιο δίκαιο μέλλον.
Ανησυχώ ότι οι κόρες μου θα εκτεθούν
σε διάφορες αλγοριθμικές
προκαταλήψεις και λάθη.
Η διαφορά ανάμεσα
σε μένα και τις κόρες μου
είναι ότι δεν υπάρχει δημόσιο αρχείο
εκεί έξω για την παιδική μου ηλικία.
Σίγουρα δεν υπάρχει βάση δεδομένων
με όλες τις χαζομάρες που έκανα
και σκέφτηκα όταν ήμουν έφηβη.
(Γέλια)
Αλλά για τις κόρες μου
ίσως είναι διαφορετικά.
Τα δεδομένα που συλλέγονται
σήμερα από αυτές
μπορεί να χρησιμοποιηθούν
για να τις κρίνει στο μέλλον
και μπορεί να τις αποτρέψει
από τις ελπίδες και τα όνειρά τους.
Νομίζω ότι είναι καιρός.
Είναι καιρός να επιταχύνουμε.
Είναι καιρός να αρχίσουμε
να συνεργαζόμαστε
ως μεμονωμένα άτομα,
ως οργανισμοί και θεσμοί,
και να απαιτήσουμε μεγαλύτερη
δικαιοσύνη δεδομένων για εμάς
και για τα παιδιά μας
πριν είναι πολύ αργά.
Σας ευχαριστώ.
(Χειροκρότημα)

Turkish: 
Bu olana kadar, daha adil
bir gelecek umut edemeyiz.
Kızlarım her tür algoritmik 
ayrımcılık ve yanlışa
maruz kalacağı için endişeleniyorum.
Ben ve kızlarım arasındaki
farkı görüyorsunuz:
Benim çocukluğumun halka açık kaydı yok.
Gençken yaptığım ve düşündüğüm
tüm o aptal şeylerin
bulunduğu bir veritabanı yok.
(Kahkaha)
Ama kızlarım için daha farklı olabilir.
Bugün onlardan toplanan veriler
gelecekte onları yargılamak
için kullanılabilir,
onları umut ve rüyalarından alıkoyabilir.
Bence zamanı geldi.
Artık hepimizin öne çıkma zamanı geldi.
Bireyler olarak,
organizasyon ve kurumlar olarak,
çok geç olmadan
beraber çalışmaya başlamamızın,
kendimiz ve çocuklarımız için
daha fazla veri adaleti 
talep etmenin zamanı geldi.
Teşekkürler.
(Alkış)

English: 
Until this happens, we cannot hope
for a more just future.
I worry that my daughters
are going to be exposed
to all sorts of algorithmic
discrimination and error.
You see the difference
between me and my daughters
is that there's no public record
out there of my childhood.
There's certainly no database
of all the stupid things that I've done
and thought when I was a teenager.
(Laughter)
But for my daughters
this may be different.
The data that is being collected
from them today
may be used to judge them in the future
and can come to prevent
their hopes and dreams.
I think that's it's time.
It's time that we all step up.
It's time that we start working together
as individuals,
as organizations and as institutions,
and that we demand
greater data justice for us
and for our children
before it's too late.
Thank you.
(Applause)

Spanish: 
Hasta que esto no ocurra,
no esperemos un futuro más justo.
Me preocupa que mis hijas estén expuestas
a discriminaciones y errores algorítmicos.
Lo que me diferencia de mis hijas
es que no hay registros de mi infancia.
Por supuesto, no se conocen las tonterías
que decía y pensaba de adolescente.
(Risas)
Pero, para mis hijas,
esto podría ser diferente.
Los datos que se recogen de ellas ahora
pueden usarse en su contra en el futuro
Y puede llegar a limitar
sus sueños y aspiraciones.
Creo que es el momento.
El momento de dar un paso adelante,
de empezar a trabajar juntos,
como individuos,
organizaciones e instituciones
y exijamos más justicia por nuestros datos
y los de nuestros hijos.
antes de que sea tarde.
Gracias.
(Aplausos)

Uzbek: 
Ungacha biz kelajakka
umid bilan qaray olmaymiz.
Men qizlarimning algoritmik
kamsitilishi va xatolarga
duchor bo'lishidan xavotirdaman.
Men bilan qizlarim o'rtasidagi 
farq shundaki,
mening bolaligim haqida 
umuman ochiq ma'lumotlar yo'q.
Shubhasiz men o'smirlik vaqtimda qilgan
va o'ylagan barcha ahmoqona ishlarning
ma'lumot bazasi yo'q.
(Kulgi)
Ammo qizlarim uchun
bu boshqacha bo'lishi mumkin.
Ularning ma'lumoti bugundan
boshlab yig'ilib borilmoqda,
u kelajakda ularni ustidan
hukm chiqarish uchun ishlatilishi mumkin
va ularning orzu-umidlariga 
to'sqinlik qilishi mumkin.
Menimcha, vaqti keldi.
Harakat qilish vaqt keldi.
Barchamizning
birga ishlash vaqtimiz keldi
inson sifatida,
tashkilot va muassassa sifatida,
va biz ko'proq ma'lumot adolatini
talab qilamiz, o'zimiz uchun
va farzandlarimiz uchun
juda kech bo'lishidan oldin.
Tashakkur.
(Qarsaklar)

iw: 
עד שזה יקרה, איננו יכולים לצפות
לעתיד צודק יותר.
אני דואגת שבנותיי יהיו חשופות
לכל מיני אפליות וטעויות אלגוריתמיות.
תבינו, ההבדל ביני לבין בנותיי
הוא שאין רשומה ציבורית
שם בחוץ על תקופת הילדות שלי.
כמובן שאין מסד נתונים
על כל הדברים המטופשים שעשיתי
וחשבתי כשהייתי נערה.
(צחוק)
אבל עבור בנותיי זה עשוי להיות שונה.
הנתונים שנאספים עליהן היום
עלולים לשמש אמצעי לשפוט אותן בעתיד
ויכולים למנוע את התקוות ואת החלומות שלהן.
אני חושבת שהגיע הזמן.
הגיע הזמן שכולנו ניקח חלק.
הגיע הזמן שנתחיל לעבוד ביחד
כיחידים,
כארגונים וכמוסדות,
ושנדרוש צדק נתונים גדול יותר עבורנו
ועבור ילדינו
לפני שיהיה מאוחר מדיי.
תודה רבה.
(מחיאות כפיים)

Swedish: 
Tills detta händer kan vi inte hoppas
på en mer rättvis framtid.
Jag oroar mig över att mina döttrar
kommer att bli utsatta
för alla möjliga sorter av 
algoritmisk diskriminering och fel.
Skillnaden mellan mig och mina döttrar
är att det inte finns något offentligt
register av min barndom.
Det finns absolut inte någon databas
med alla dumma saker jag har gjort
och tänkt när jag var tonåring.
(Skratt)
Men för mina döttrar
kan detta vara annorlunda.
Den data som samlas från dem idag
kan komma att användas 
för att döma dem i framtiden
och kan komma att hindra
deras hopp och drömmar.
Jag tycker att det är dags.
Det är dags att vi kliver fram.
Det är dags att börja jobba tillsammans
som individer, som organisationer
och som institut
och kräva mer datarättvisa för oss
och för våra barn innan det är för sent.
Tack så mycket.
(Applåder)

Portuguese: 
Enquanto isto não acontecer, não podemos
ter esperança de um futuro mais justo.
Eu preocupo-me que as minhas filhas 
sejam expostas
a todo o tipo de discriminação 
e de erros algorítmicos.
A diferença entre mim e as minhas filhas
é que não há nenhum registo público
da minha infância.
Certamente não há nenhuma base de dados 
com todas as coisas estúpidas que fiz
e que pensei quando era adolescente.
(Risos)
Mas para as minhas filhas 
isso pode ser diferente.
Os dados delas que estão 
a ser reunidos hoje
podem ser utilizados
para julgá-las no futuro
e podem impedir
os sonhos e esperanças delas.
Eu acho que está na hora,
está na hora de avançar.
Está na hora de começarmos
a trabalhar juntos
como indivíduos,
como organizações e como instituições,
e exigir maior justiça de dados para nós
e para os nossos filhos
antes que seja tarde de mais.
Obrigada.
(Aplausos)

Chinese: 
在那之前，我們不用冀望
會有更公正的未來。
我擔心我的女兒會接觸到
各種演算法歧視和錯誤。
我和我女兒的差別在於
我的童年並沒有
公開的記錄可被取得。
肯定也沒有資料庫
記錄我在青少女時期
做過的所有蠢事和蠢念頭。
（笑聲）
但我女兒要面臨的情況可能不同。
今天收集到和她們有關的資料，
未來可能就會被用來評斷她們，
且有可能會漸漸阻擋到
她們的希望和夢想。
我認為該是我們大家
站出來的時候了。
該是我們開始同心協力，
以個人、組織、
機構的身份攜手合作，
我們要為自己及我們的孩子
爭取更高的資料公平性，
別等到太遲了。
謝謝。
（掌聲）

Chinese: 
在这样的转变发生之前，
我们无法期待一个更加公平的未来。
我担心我的女儿们会暴露在
各种算法的歧视与错误判断中。
我和我女儿的区别就在于，
我的童年并没有公开的记录，
当然，我十几岁时做过的傻事
和那些荒唐的想法也没有被记录。
（笑声）
但是我的女儿们就不同了。
今天从她们那里搜集的数据
在将来有可能被用来
评判她们的未来，
并可能阻止她们的希望和梦想。
我觉得是时候了，
是时候
采取行动——
无论是个人，
还是组织和机构——
在一切还来得及之前就开展合作，
为我们和我们的孩子
争取更大程度的
数据公正。
谢谢大家！
（掌声）

Russian: 
Пока этого не произойдет, мы не можем 
надеяться на более справедливое будущее.
Я волнуюсь из-за того,
что мои дочери будут подвергаться
всевозможной алгоритмической 
дискриминации и ошибкам.
Разница между мной и моими дочерями в том,
что нет публичных записей моего детства.
Точно нет никакой базы данных обо всех 
глупостях, которые я совершила,
или о которых помышляла,
когда была подростком.
(Смех)
Но у моих дочерей
всё может сложиться по-другому.
Информация, собранная о них сегодня
может быть использована для 
их оценки в будущем,
и может помешать реализации
их надежд и целей.
Я думаю, время пришло.
Время, чтобы мы все сделали шаг вперед.
Пришло время, чтобы мы начали 
работать вместе
как отдельные люди,
как организации и как институты,
мы требуем большей справедливости 
в отношении данных для нас
и наших детей,
пока не стало слишком поздно.
Благодарю вас.
(Аплодисменты)

Portuguese: 
Até que isso aconteça, não podemos
esperar por um futuro mais justo.
Preocupa-me que minhas filhas serão
expostas a toda forma de discriminação
e erro dos algoritmos.
A diferença entre mim e minhas filhas
é que não existe um registro
público da minha infância.
Certamente não existe base de dados
sobre todas as coisas estúpidas que fiz
e pensei quando era adolescente.
(Risos)
Mas, para elas, pode ser diferente.
Os dados coletados sobre elas atualmente
podem ser usados para julgá-las no futuro
e impedir os sonhos e esperanças delas.
Acho que chegou o momento
de nos posicionarmos.
De começarmos a trabalhar juntos
como indivíduos,
organizações e instituições,
e exigir uma justiça de dados
maior para nós e para nossas crianças
antes que seja tarde demais.
Obrigada.
(Aplausos)

French: 
Tant que cela ne sera pas le cas, nous ne
pourrons pas espérer un avenir plus juste.
Je crains que mes filles soient exposées
à toutes sortes de discriminations
et d'erreurs algorithmiques.
La différence entre mes filles et moi,
c'est qu'il n'y a pas d'archives
publiques de mon enfance.
Certainement pas de données sur toutes
les choses stupides que j'ai faites
et pensées quand j'étais adolescente.
(Rires)
Mais pour mes filles,
c'est peut-être différent.
Les données qui sont recueillies
auprès d'elles aujourd'hui
peuvent être utilisées
pour les juger à l'avenir
et pourraient peut-être altérer
leurs espoirs et leurs rêves.
Je pense qu'il est temps
que nous nous engagions tous,
que nous commencions à travailler ensemble
en tant qu'individus,
organisations et institutions,
et exigions une plus grande justice
en matière de données pour nous
et pour nos enfants
avant qu'il ne soit trop tard.
Je vous remercie.
(Applaudissements)

Persian: 
تا زمانی که این محقق نشود 
نمی‌توانیم منتظر آینده عادلانه‌تری باشیم.
نگرانم که دخترانم در معرض
تمام این خطاها و تبعیضات 
الگوریتمی قرار بگیرند.
می‌دانید تفاوت من و دخترانم
این است که هیچ پرونده عمومی 
از دوران کودکی من وجود ندارد.
مشخصاً هیچ پایگاه داده‌ای 
از تمام کارها و افکار احمقانه‌ام
در زمان نوجوانی وجود ندارد.
(خنده)
اما در مورد دخترانم قضیه متفاوت است.
داده‌هایی که امروز در مورد 
آن‌ها جمع‌آوری می‌شود
می‌تواند برای قضاوت در مورد 
آن‌ها در آینده به کار گرفته شود
و می‌تواند امیدها 
و رویاهای‌شان را سرکوب کند.
فکر می‌کنم وقتش است.
وقت آن است که قیام کنیم.
وقت آن است که تک تک ما با هم همکاری کنیم،
بعنوان افراد،
بعنوان سازمان‌ها و بعنوان موسسات،
و تقاضا کنیم که عدالت داده‌ای 
بیشتری برای خودمان و برای
فرزندان‌مان وجود داشته باشد
قبل از اینکه خیلی دیر شود.
متشکرم،
(تشویق)

Romanian: 
Până când asta nu se întâmplă,
nu putem spera la un viitor mai corect.
Mi-e teamă că fiicele mele vor fi expuse
la tot felul de discriminări algoritmice
și erori.
Diferența dintre mine și fiicele mele
este că nu există înregistrări publice
despre copilăria mea.
Nu există o bază de date
cu toate prostiile pe care le-am făcut
și la care m-am gândit
când eram adolescentă.
(Râsete)
Dar pentru fiicele mele,
asta ar putea fi diferit.
Informațiile colectate despre ele acum
pot fi folosite ca să fie judecate
în viitor
și pot să le împiedice să-și realizeze
speranțele și visele.
Cred că a venit timpul.
Trebuie pus piciorul în prag.
E vremea să lucrăm împreună,
ca indivizi,
ca organizații, ca instituții
și să cerem dreptate pentru datele noastre
și pentru copiii noștri,
înainte să fie prea târziu.
Vă mulțumesc!
(Aplauze)

Polish: 
Dopóki to się nie stanie,
nie możemy mieć nadziei
na bardziej sprawiedliwą przyszłość.
Martwię się, że moje córki
będą narażone na różnego rodzaju
algorytmiczne pomyłki i dyskryminacje.
Różnica pomiędzy mną
a moimi córkami jest taka,
że nie ma żadnego publicznego
rejestru danych z mojego dzieciństwa.
Na pewno nie ma żadnej
bazy danych z głupotami,
które robiłam i myślałam,
będąc nastolatką.
(Śmiech)
W przypadku moich córek
może to wyglądać inaczej.
Dane, które są zbierane od nich dzisiaj,
mogą być użyte w przyszłości do ich oceny,
mogą zaprzepaścić ich nadzieje i marzenia.
Myślę, że już czas,
żebyśmy wszyscy wzmogli nasze działania.
Czas, żebyśmy zaczęli współpracować,
jako jednostki, organizacje i instytucje,
i domagali się większej sprawiedliwości
związanej z naszymi danymi,
dla nas i dla naszych dzieci,
nim będzie za późno.
Dziękuję.
(Brawa)

Hungarian: 
Amíg ez nem történik meg,
nem remélhetünk igazságosabb jövőt.
Aggódom, hogy a lányaim
mindenféle algoritmikus diszkriminációnak
és hibának lesznek kitéve.
A különbség köztem és a lányaim között,
hogy az én gyerekkoromról
nincsen elérhető adat.
Nincs adatbázis a sok hülyeségről,
melyet még tinédzserként
elkövettem vagy gondoltam.
(Nevetés)
De a lányaim esetében ez már más.
A róluk ma gyűjtött adatot lehet,
hogy a jövőben a megítélésükre használják,
és reményeik s álmaik útjába is állhatnak.
Úgy hiszem, itt az alkalom.
Az alkalom, hogy fellépjünk.
Az alkalom, hogy elkezdjük együttműködni
mint egyének,
mint szervezetek és intézmények,
hogy szélesebb körű adatigazságosságot
követeljünk
saját magunk és gyermekeink számára is,
még mielőtt nem túl késő.
Köszönöm.
(Taps)

Arabic: 
حتى يحدث هذا، لا يمكننا أن نأمل
في مستقبل أكثر عدلاً.
أخشى أن بناتي سوف يتعرضن
لجميع أنواع خوارزميات التمييز والخطأ.
ترون الفرق بيني وبين بناتي
هو أنه لا يوجد سجل عام لطفولتي.
بالتأكيد لا توجد قاعدة بيانات
لجميع الأشياء المتهورة التي قمت بها
وفكرت فيها عندما كنت مراهقة.
(ضحك)
لكن هذا ربما مختلف لبناتي.
البيانات التي يتم جمعها منهن اليوم
يمكن استخدامها للحكم عليهن في المستقبل
ويمكن أن تحول دون تحقيق آمالهن وأحلامهن.
أعتقد أنه حان الوقت.
حان الوقت لكي نتحرك جميعاً.
حان الوقت لنبدأ العمل معاً
كأفراد،
كمنظمات وكمؤسسات،
نطالب بقدر أكبر من عدالة البيانات لنا
ولأطفالنا
قبل فوات الأوان.
شكراً لكم.
(تصفيق)
