
Spanish: 
Traductor: Silvina Katz
Revisor: Lidia Cámara de la Fuente
Hay algoritmos por todos lados.
Ordenan y separan a los ganadores 
de los perdedores.
Los ganadores consiguen el trabajo
o buenas condiciones de crédito.
A los perdedores ni siquiera 
se les invita a una entrevista
o tienen que pagar más por el seguro.
Se nos califica mediante fórmulas
secretas que no entendemos
y a las que no se puede apelar.
Eso plantea una pregunta:
¿Qué pasa si los algoritmos se equivocan?
Un algoritmo necesita dos cosas:
datos ocurridos en el pasado
y una definición del éxito;
esto es, lo que uno quiere y lo que desea.
Los algoritmos se entrenan
mirando, descubriendo.

Japanese: 
翻訳: Kazunori Akashi
校正: Yasushi Aoki
アルゴリズムは どこにでもあります
アルゴリズムが勝者と敗者を分けます
勝者は仕事を手に入れ
有利なクレジットカードを
申し込めます
一方 敗者は就職面接すら受けられず
保険料は より高くなります
私たちは 理解できない上に
不服申し立ての機会もない—
秘密の数式によって
格付けされているのです
そこで疑問が湧いてきます
もしアルゴリズムが間違っていたら？
アルゴリズムを作る時
必要なものが２つあります
データ つまり過去の出来事の記録と
人が追い求める「成功」を
定義する基準です
人が追い求める「成功」を
定義する基準です
そして観察と理解を通して
アルゴリズムを訓練します

Korean: 
번역: SeungGyu Min
검토: Tae-Hoon Chung
알고리즘은 어디나 있죠.
그걸로 승자와 패자가 갈리고 나뉘어
승자는 직장을 구하거나
신용카드 조건도 좋아지지만
패자는 면접기회조차 없거나
보험료도 더 부담하죠.
이해도 못하는 은밀한 공식으로
점수 매겨지지만
보통은 거기에 이견을 제시할
기회조차 없습니다.
이러면 질문이 생깁니다:
알고리즘이 잘못됐다면
어떤 일이 발생할까요?
알고리즘 개발엔
두 가지가 필요합니다.
과거에 있었던 일에 대한 자료와
우리가 찾고 종종 원하는
성공이란 것에 대한 정의죠.
저희는 이걸 들여다보고 분석해서 
알고리듬을 훈련시킵니다

Turkish: 
Çeviri: Nail Kaplan
Gözden geçirme: Cihan Ekmekçi
Algoritmalar her yerde.
Kazananları kaybedenlerden ayırıyor.
Kazananlar ya işi alıyor
ya da iyi bir kredi kartı teklifi.
Kaybedenler iş görüşmesine bile çağrılmaz
veya sigorta primi için
daha fazla ödeme yaparlar.
Doğrulama sistemi olmayan,
anlamadığımız
gizli formülasyonlar ile puanlanıyoruz.
Burada şu soru akla geliyor:
Peki ya algoritmalar hatalıysa?
Algoritma oluşturmak için 2 şey gerekli:
Geçmişte ne olduğunu gösteren veri,
o her zaman aradığınız
ve bulmayı umduğunuz başarı tanımına.
Sonuca ulaşmak için 
algoritma çalıştırırsınız.

Chinese: 
譯者: Lilian Chiu
審譯者: NAN-KUN WU
演算法無所不在。
它們能把贏家和輸家區分開來。
贏家能得到工作，
或是好的信用卡方案。
輸家連面試的機會都沒有，
或是他們的保險費比較高。
我們都被我們不了解的
秘密方程式在評分，
且那些方程式通常
都沒有申訴體制。
問題就來了：
如果演算法是錯的怎麼辦？
要建立一個演算法，需要兩樣東西：
需要資料，資料是過去發生的事，
還需要對成功的定義，
也就是你在找的東西、
你想要的東西。
你透過尋找和計算的方式
來訓練一個演算法。

Bengali: 
Translator: urjoshi sinha
Reviewer: Palash Ranjan Sanyal
অ্যালগরিদম সব জায়গায় উপস্থিত|
তারা পরাজিতদের বিজয়ীদের থেকে আলাদা করে|
বা ক্রেডিট কার্ড অফার পায়|
ক্ষতিগ্রস্তরা একটা সাক্ষাৎকারও পায়না বা
তাদের বীমার জন্য বেশি টাকা দিতে হয়|
আমাদের গোপন সূত্র দিয়ে মাপা হচ্ছে
যা আমরা বুঝতে পারিনা
এবং যার বিরুদ্ধে আবেদন করার ব্যবস্থা নেই |
তাই এই প্রশ্নটা ওঠে:
যদি অ্যালগরিদম গুলো ভুল হয়ে তাহলে কি হবে?
অ্যালগরিদম নির্মাণের জন্য দুটি জিনিসের
প্রয়োজন: আপনার দরকার তথ্য,অতীতে কি ঘটেছে,
এবং সাফল্যের একটি সংজ্ঞা,
আপনি কি খুঁজছেন এবং কিসের জন্য প্রত্যাশী |
আপনি দেখে এবং বিবেচনা করে একটি
অ্যালগরিদম কে শেখান |

Hungarian: 
Fordító: Péter Pallós
Lektor: Beatrix Turán
Algoritmusok mindenhol vannak.
Azok rendezik és különítik el
a győzteseket a vesztesektől.
A győztesek kapják az állásokat
s a jó hitelkártya-ajánlatokat.
A vesztesek még az interjúig sem jutnak,
és a biztosítás is drágább nekik.
Titkos, érthetetlen képletekkel
pontoznak minket,
amelyek ellen gyakran nincs fellebbezés.
Fölvetődik a kérdés:
mi van, ha az algoritmusok hibásak?
Algoritmus kialakításához két dolog kell:
múltról szóló adatok
meg a keresett s gyakorta remélt
siker meghatározása.
Idomítjuk az algoritmust,
közben figyeljük, számolgatunk.

Arabic: 
المترجم: Nawal Sharabati
المدقّق: Hani Eldalees
نجدُ الخوارزميات في كل مكان.
إنها تُصنّفُ وتفصل الفائزين عن الخاسرين.
يحصل الفائزون على الوظيفة
أو على أحد عروض بطاقات الائتمان الجيّدة.
بينما لا يحصل الخاسرون حتى على مقابلة عمل
أو يدفعون أكثر مقابل التأمين.
يتمّ تقييمنا بصيغ سرّية لا نفهمها
والتي لا يمكننا استئناف أحكامها
في معظم الأحيان.
مما يطرح السؤال:
ماذا لو كانت الخوارزميات خاطئة؟
لبناء خوارزمية فأنتم تحتاجون لشيئين:
تحتاجون لبيانات، أي ما حدث في الماضي،
وتحتاجون تعريفًا للنجاح،
أي الأمر الذي تبحثون عنه
وتأملون غالبًا إيجاده.
تدرّبون الخوارزمية بالبحث أو التحديد.

Chinese: 
翻译人员: Lin Zhang
校对人员: Yolanda Zhang
算法无处不在。
他们把成功者和失败者区分开来。
成功者得到工作
或是一个很好的信用卡优惠计划。
失败者甚至连面试机会都没有，
或者要为保险付更多的钱。
我们被不理解的秘密公式打分，
却并没有上诉的渠道。
这引出了一个问题：
如果算法是错误的怎么办？
构建一个算法需要两个要素：
需要数据，如过去发生的事情，
和成功的定义，
你正在寻找的，通常希望得到的东西。
你可以通过观察，理解来训练算法。

Dutch: 
Vertaald door: Lisette Feenstra
Nagekeken door: Peter van de Ven
Algoritmes zijn overal.
Ze scheiden de winnaars van de verliezers.
De winnaars krijgen de baan
of een goede creditcard-aanbieding.
De verliezers mogen niet eens 
op gesprek komen
of betalen meer voor hun verzekering.
Onze score wordt berekend
met geheime formules die we niet begrijpen
en waar je vaak niet 
tegen in beroep kan gaan.
Hierdoor rijst de vraag:
wat als algoritmes fouten maken?
Een algoritme vraagt om twee dingen:
data, wat in het verleden gebeurd is,
en een definitie voor succes,
dat wat je hoopt te vinden.
Je laat een algoritme data bestuderen

Italian: 
Traduttore: Gabriella Patricola
Revisore: Silvia Fornasiero
Gli algoritmi sono ovunque.
Selezionano e separano
i vincitori dai perdenti.
I vincitori ottengono il lavoro
o l'offerta di una buona
carta di credito.
I perdenti non ottengono
neanche un colloquio di lavoro
o pagano di più per l'assicurazione.
Siamo valutati da formule segrete
che non comprendiamo
che spesso non prevedono
sistemi cui poter fare ricorso.
Questo solleva la domanda:
e se gli algoritmi si sbagliano?
Per creare algoritmi servono due cose:
servono dati, cos'è avvenuto in passato,
e una definizione di successo,
ciò che state cercando
e spesso sperando di ottenere.
L'algoritmo si verifica
cercando, risolvendo.

Romanian: 
Traducător: Mihaela Niță
Corector: Bianca-Ioanidia Mirea
Algoritmii sunt pretutindeni.
Sortează și separă
învingătorii de învinși.
Învingătorii obțin locul de muncă
sau oferta bună pentru cardul de credit.
Învinșii n-au parte nici măcar de interviu
sau plătesc mai mult pentru asigurare.
Suntem evaluați cu formule secrete
pe care nu le înțelegem
și care, adesea, nu pot fi contestate.
Asta impune întrebarea:
și dacă algoritmii conțin erori?
E nevoie de două lucruri pentru algoritmi:
date, ce s-a întâmplat în trecut,
și o definiție a succesului,
a ceea ce cauți și speri să obții.
Algoritmul se formează
observând, descifrând.

Russian: 
Переводчик: Lana Zapolskykh
Редактор: Yulia Kallistratova
Алгоритмы повсюду.
Они сортируют людей, отделяя
победителей от проигравших.
Победители получают желаемую работу
или выгодное кредитное предложение.
Неудачники даже не получают
шанса на собеседование
или платят больше за страхование.
Нас «считывают» по секретным формулам,
которые мы зачастую не понимаем,
без возможности обжалования решения.
Назревает вопрос:
что, если эти алгоритмы ошибочны?
Для построения алгоритма
вам нужны две вещи:
вам нужны данные о прошлых событиях
и определение понятия «успех» —
того, к чему вы стремитесь
и на что надеетесь.
Вы обучаете алгоритм,
наблюдая за результатом.

English: 
Algorithms are everywhere.
They sort and separate
the winners from the losers.
The winners get the job
or a good credit card offer.
The losers don't even get an interview
or they pay more for insurance.
We're being scored with secret formulas
that we don't understand
that often don't have systems of appeal.
That begs the question:
What if the algorithms are wrong?
To build an algorithm you need two things:
you need data, what happened in the past,
and a definition of success,
the thing you're looking for
and often hoping for.
You train an algorithm
by looking, figuring out.

Serbian: 
Prevodilac: Romeo Mlinar
Lektor: Tijana Mihajlović
Algoritmi su svuda.
Filtriraju i odvajaju
pobednike od gubitnika.
Pobednici dobijaju posao
ili dobru ponudu kreditne kartice.
Za gubitnike nema ni intervjua
ili plaćaju više za osiguranje.
Ocenjuju nas tajne formule
koje ne razumemo,
za koje često ne postoje
sistemi za podnošenje žalbe.
To nas tera se zapitamo:
„Šta ako algoritmi greše?“
Da napravite algoritam
potrebne su vam dve stvari:
podaci, šta je bilo u prošlosti,
i definicija uspeha,
koji tražite i kojem se često nadate.
Osposobljavate algoritam
posmatranjem i zaključivanjem.

Ukrainian: 
Перекладач: Tanya Avramenko
Утверджено: Khrystyna Romashko
Алгоритми є повсюди.
Вони сортують і відрізняють
переможців від переможених.
Переможці отримують роботу
чи вигідні умови
оформлення кредитки.
Переможені не доходять 
навіть до співбесіди,
або платять більше за страхування.
Нас обчислюють секретними формулами,
які ми не розуміємо,
і до яких часто не можна подати 
апеляційні скарги.
Тому виникає питання:
а якщо припустити, 
що алгоритми неправильні?
Для побудови алгоритму потрібні дві речі:
потрібні дані про те, 
що сталося у минулому,
і визначення успіху,
те, чого ви прагнете 
і на що часто сподіваєтеся.
Ви навчаєте алгоритм,
розмірковуючи, з'ясовуючи.

Swedish: 
Översättare: Anette Smedberg
Granskare: Annika Bidner
Algoritmer finns överallt.
De sorterar ut vinnarna från förlorarna.
Vinnarna får jobbet
eller ett bra kreditkortserbjudande.
Förlorarna får inte ens en intervju
eller så får de en dyrare försäkring.
Vi poängsätts av hemliga formler
som vi inte förstår
och som oftast inte går att överklaga.
Det väcker frågan:
Tänk om algoritmerna har fel?
För att bygga en algoritm krävs två saker:
man behöver data, vad har hänt tidigare,
och en definition av framgång,
det man letar efter och ofta hoppas på.
Man lär en algoritm
genom att titta och fundera.

Thai: 
Translator: PanaEk Warawit
Reviewer: Thanyanuch Tantikul
อัลกอริทึมอยู่ทุกหนแห่ง
มันคัดแยกและ
กันผู้ชนะออกจากผู้แพ้
ผู้ชนะได้งาน
หรือได้ข้อเสนอบัตรเครดิตดีๆ
ผู้แพ้ไม่ได้แม้กระทั่งโอกาสเรียกสัมภาษณ์
หรือต้องจ่ายเบี้ยประกันแพงกว่า
เรากำลังถูกให้คะแนน
จากสูตรลับที่เราไม่เข้าใจ
และโดยมากมักไม่มีระบบที่เราจะอุทธรณ์ได้
นั่นทำให้เกิดคำถามขึ้นว่า
แล้วถ้าอัลกอริทึมมันผิดล่ะ
ในการสร้างอัลกอริทึม คุณต้องการสองอย่าง
คุณต้องการข้อมูล สิ่งที่เกิดขึ้นในอดีต
และนิยามของความสำเร็จ
สิ่งที่คุณมองหา หรือหวังว่าจะเจอ
คุณฝึกสอนอัลกอริทึม โดยการมองหา
และคำนวณ

iw: 
תרגום: Nurit Noy
עריכה: Shlomo Adam
האלגוריתמים נמצאים בכל מקום.
הם ממיינים אנשים
ומפרידים בין מנצחים למפסידים.
המנצחים זוכים במשרה הנחשקת
או בהצעה לכרטיס אשראי טוב.
המפסידים לא זוכים אפילו בראיון
או משלמים יותר על הביטוח.
נוסחאות סודיות שאיננו מבינים
מדרגות אותנו,
ובדרך כלל אין אפשרות
לערער על החלטותיהן.
מתבקשת השאלה:
מה אם האלגוריתמים טועים?
כדי לבנות אלגוריתם נחוצים שני דברים:
נתונים:
מה קרה בעבר,
והגדרה של הצלחה,
מה שאתם רוצים או מקווים לו.
האלגוריתם לומד ע"י...

Portuguese: 
Tradutor: Raissa Mendes
Revisor: Leonardo Silva
Os algoritmos estão por toda parte.
Eles selecionam e separam
os vencedores dos perdedores.
Os vencedores conseguem o emprego
ou a oferta de um bom cartão de crédito.
Os perdedores não conseguem
nem mesmo uma entrevista.
Ou pagam mais caro pelo seu seguro.
Estamos sendo avaliados
com fórmulas secretas que não entendemos,
que geralmente não têm
como serem contestadas.
Isso coloca uma questão:
e se os algoritmos estiverem errados?
Precisamos de duas coisas
para criar um algoritmo:
de dados, o que aconteceu no passado,
e uma definição de sucesso,
aquilo que estamos procurando
e geralmente esperando.
Treinamos um algoritmo
procurando, calculando.

Portuguese: 
Tradutor: Marta Sousa
Revisora: Margarida Ferreira
Os algoritmos estão em todo o lado.
Eles classificam e separam
os vencedores dos perdedores.
Os vencedores ficam com o emprego
ou uma boa oferta
para o cartão de crédito.
Os que perdem nem sequer vão à entrevista
mas pagam mais pelo seguro.
Estamos a ser marcados
com fórmulas secretas que não entendemos
e que, muitas vezes,
não têm sistemas de recurso.
Isto traz-nos a pergunta:
E se os algoritmos estão errados?
Para criar um algoritmo é preciso:
dados — o que aconteceu no passado;
e uma definição de sucesso,
aquilo de que estamos à procura
e que queremos atingir.
Um algoritmo treina-se
com a procura, com a descoberta.

French: 
Traducteur: Pauline Forêt
Relecteur: Shadia Ramsahye
Les algorithmes sont partout.
Ils trient et séparent
les vainqueurs des perdants.
Les vainqueurs obtiennent le poste
ou une bonne offre de carte de crédit.
Les perdants n'obtiennent
même pas un entretien
ou paient leur assurance plus cher.
On nous classe avec des formules secrètes 
que nous ne comprenons pas
qui n'offrent pas souvent 
de systèmes de recours.
La question se pose donc :
et si les algorithmes sont faux ?
Deux choses constituent un algorithme :
des données historiques,
et une définition du succès,
ce que l'on espère trouver.
On forme un algorithme 
en observant, en comprenant,

Persian: 
Translator: S. Morteza Hashemi
Reviewer: sadegh zabihi
الگوریتم‌ها همه جا هستند.
آن‌ها برنده‌ها و بازنده‌ها را
رده‌بندی کرده و از هم جدا می‌کنند
برنده‌ها استخدام می‌شوند
یا یک پیشنهاد خوب مالی می‌گیرند.
اما بازنده‌ها حتی مصاحبه هم نمی‌شوند
یا هزینه بیشتری برای بیمه می‌پردازند.
ما با فرمول‌های مرموزی سنجیده می‌شویم
که درکشان نمی‌کنیم.
که معمولاً سیستمی برای تجدید نظر ندارند.
این سوالی را بر می‌انگیزد:
اگر الگوریتم‌ها اشتباه کنند چطور؟
برای ایجاد یک الگوریتم دو چیز نیاز دارید:
داده، چیزی که در گذشته اتفاق افتاده،
و تعریفی برای موفقیت،
چیزی که به دنبال آن هستید
و معمولاً انتظارش را دارید.
شما به الگوریتم با دیدن
و درک کردن آموزش می‌دهید.

Chinese: 
这种算法能找出与成功相关的因素。
什么情况意味着成功？
其实，每个人都使用算法。
他们只是没有把它们写成书面代码。
举个例子。
我每天都用一种算法来
为我的家人做饭。
我使用的数据
就是我厨房里的原料，
我拥有的时间，
我的热情，
然后我整理了这些数据。
我不把那种小包拉面算作食物。
（笑声）
我对成功的定义是：
如果我的孩子们肯吃蔬菜，
这顿饭就是成功的。
这和我最小的儿子
负责做饭时的情况有所不同。
他说，如果他能吃很多
Nutella巧克力榛子酱就是成功。
但我可以选择成功。
我负责。我的意见就很重要。
这就是算法的第一个规则。
算法是嵌入在代码中的观点。
这和你认为大多数人对
算法的看法是不同的。

Swedish: 
Algoritmen räknar ut
vad som associeras med framgång.
Vilken situation leder till framgång?
Faktum är att alla använder algoritmer.
De formulerar dem bara inte
i skriftlig kod.
Låt mig ge ett exempel.
Jag använder en algoritm varje
dag för att laga mat.
Datan jag använder
är ingredienserna jag har hemma,
den tid jag har på mig,
min ambitionsnivå,
och jag granskar den datan.
Jag räknar inte småpåsarna
med nudlar som mat.
(Skratt)
Min definition av framgång är:
En måltid är lyckad
om barnen äter grönsakerna.
Den skiljer sig ifrån min
yngste sons definition.
Han skulle säga att framgång är
om han får äta mycket Nutella.
Men jag definierar vad framgången är.
Jag bestämmer. Mina åsikter har betydelse.
Det här är den första regeln
för en algoritm.
Algoritmer är åsikter inbäddade i kod.
Det är stor skillnad mot vad man tror
att folk tror om algoritmer.

Thai: 
อัลกอริทึมจะคำนวณหา
ว่าอะไรที่มีส่วนเกี่ยวข้องกับความสำเร็จ
สถานการณ์อย่างไรที่จะนำ
ไปสู่ความสำเร็จ
ความจริงแล้ว ทุกคนต่าง
ก็ใช้อัลกอริทึม
เพียงแต่ไม่ได้เขียนเป็นโปรแกรม
เป็นทางการ
ขอยกตัวอย่างนะคะ
ฉันใช้อัลกอริทึมทุกวัน 
เพื่อทำอาหารสำหรับครอบครัว
ข้อมูลที่ฉันใช้
คือวัตถุดิบที่มีในครัว
เวลาที่ฉันมี
ความตั้งใจที่มี
และฉันเองก็กลั่นกรองข้อมูลเหล่านั้น
ฉันไม่นับพวกบะหมี่กึ่งสำเร็จรูป
ว่าเป็นอาหารนะคะ
(เสียงหัวเราะ)
นิยามความสำเร็จของฉันคือ
มื้ออาหารจะถือว่าสำเร็จ 
ถ้าเด็กๆ ยอมกินผัก
มันจะต่างออกไปมาก
ถ้าลูกชายคนเล็กของฉันเป็นคนคุมครัว
เขาจะบอกว่า ความสำเร็จคือ
เขาได้กินนูเทลล่าเยอะๆ
แต่ฉันเป็นคนเลือกนิยามความสำเร็จ
ฉันเป็นคนรับผิดชอบ ความเห็นของฉันสำคัญ
มันเป็นกฏข้อแรกของอัลกอริทึม
อัลกอริทึมคือความคิดเห็น
ที่ถูกฝังลงในในโค้ดโปรแกรม
ซึ่งมันแตกต่างอย่างมาก กับที่คุณ
หรือคนทั่วไปคิดถึงอัลกอริทึม

Persian: 
الگوریتم درک می‌کند که چه چیزهایی
با موفقیت ارتباط دارند.
چه موقعیتی به موفقیت منتهی می‌شود؟
در واقع، همه
از الگوریتم‌ها استفاده می‌کنند.
فقط آن‌ها را به صورت کد نمی‌نویسند
بگذارید مثالی بزنم.
من هر روز از یک الگوریتم
برای پخت غذای خانواده‌ام استفاده می‌کنم.
داده‌هایی که استفاده می‌کنم
شامل مواد موجود در آشپزخانه‌ام،
زمانی که دارم،
و هدفی که دارم می‌شود.
و من این داده‌ها را مدیریت می‌کنم.
من آن بسته‌های کوچک
نودل رامن را غذا به حساب نمی‌آورم.
(خنده حضار)
تعریف من از موفقیت این است:
یک غذا موفق است
اگر فرزندانم سبزیجات بخورند.
این خیلی متفاوت می‌شد
اگر پسر بزرگ‌ترم مسئول بود.
از نظر او موفقیت این است
که بتواند زیاد نوتلا بخورد.
ولی منم که موفقیت را انتخاب می‌کنم.
من مسئولم.
نظر من است که اهمیت دارد.
این اولین قانون الگوریتم‌هاست.
الگوریتم‌ها سلایقی هستند
که در قالب کد ارائه می‌شوند.
این با چیزی که بیشتر مردم در مورد
الگوریتم‌ها فکر می‌کنند تفاوت دارد.

Hungarian: 
Az algoritmus kiszámolja,
mi minősül sikernek.
Milyen helyzet vezet sikerre?
Mindenki használ algoritmust,
csak nem formalizálja
leírt kód alakjában.
Mondok egy példát.
Naponta algoritmust használok,
amikor főzök a családomnak.
A fölhasznált adatok:
hozzávalók a konyhában,
a rendelkezésre álló idő,
milyen kedvem van.
Ezeket az adatokat rendszerezem.
A zacskós leveseket nem tartom ételnek.
(Nevetés)
A sikert így határozom meg:
sikeres az étel, ha srácaim
esznek zöldséget.
Legkisebb fiam szerint
más a siker mércéje.
Szerinte az, ha sok Nutellát ehetne.
De én választom meg a sikert.
Én döntök. Az én véleményem mérvadó.
Ez az algoritmusok első szabálya.
Az algoritmusok kódba ágyazott vélemények.
Eltér attól, amit önök, a legtöbben
az algoritmusról gondolnak.

Spanish: 
El algoritmo calcula a qué
se asocia el éxito,
qué situaciones llevan al éxito.
En general todos usamos algoritmos
pero no los formalizamos 
mediante un código escrito.
Les doy un ejemplo.
Yo uso un algoritmo todos los días
para preparar la comida en casa.
Los datos que uso
son los ingredientes de la cocina,
el tiempo que tengo
y lo ambiciosa que estoy.
Y así organizo los datos.
No incluyo esos paquetitos
de fideos como comida.
(Risas)
Mi definición del éxito es:
la comida tiene éxito, 
si mis hijos comen verdura.
Lo que sería muy distinto, 
si mi hijito tuviera el control.
Para él el éxito es comer
mucha Nutella.
Pero yo soy quien elige el éxito.
Estoy al mando. Mi opinión cuenta.
Esa es la primera regla de los algoritmos.
Los algoritmos son opiniones 
que se embeben en código.
Es muy diferente a cómo la gente 
se imagina los algoritmos.

Russian: 
Алгоритм вычисляет всё то,
что связано с успехом.
Какая ситуация приводит к успеху?
Каждый из нас использует алгоритмы.
Мы просто не записываем их
в виде формул и кодов.
Приведу пример.
Я использую алгоритм каждый день,
когда готовлю еду для своей семьи.
Данные, которые я использую, —
это ингредиенты у меня на кухне,
моё время,
мои цели,
и я организовываю эти данные.
Я не считаю эти пакетики лапши пищей.
(Смех)
Вот моё определение успеха:
блюдо удалось, если мои дети едят овощи.
Мой младший сын думает по-другому.
Для него успех — это если он
получит много Нутеллы.
Но определяю успех я.
Я главная. Именно моё мнение 
имеет значение.
Это первое правило алгоритмов.
Алгоритмы — это мнения, встроенные в код.
Это отличается от того, как большинство
людей воспринимают алгоритмы.

Serbian: 
Algoritam pronalazi vezu sa uspehom.
Koja situacija vodi ka uspehu?
Zapravo, svi koriste algoritme,
ali ih ne formalizuju u pisani kôd.
Evo vam primera.
Svaki dan koristim algoritam
da napravim porodici doručak.
Podaci koje koristim su:
namirnice u kuhinji,
vreme koje imam na raspolaganju,
ambicija koju imam,
i te podatke obrađujem.
U hranu ne računam
ona mala pakovanja instant špageta.
(Smeh)
Moja definicija uspeha je -
obrok je uspeo ako moja deca jedu povrće.
To bi izgledalo mnogo drugačije
da se moj sin pita.
Njemu bi uspeh bio da se najede nutele.
Ali, ja biram uspeh.
Ja sam zadužena za to.
Moje mišljenje je važno.
To je prvo pravilo algoritama.
Algoritmi su mišljenja ugrađena u kôd.
To se veoma razlikuje od onoga što mislite
da većina ljudi misli o algoritmima.

Portuguese: 
O algoritmo descobre
o que está associado com o sucesso,
que situação leva ao sucesso.
Na verdade, todos usamos algoritmos,
apenas não os formalizamos
num código escrito.
Querem um exemplo?
Todo dia uso um algoritmo pra preparar
as refeições da minha família.
Os dados que uso
são os ingredientes da minha cozinha,
o tempo disponível,
minha ambição,
e quem seleciona os dados sou eu.
Não conto um pacote de Miojo como comida.
(Risos)
Minha definição de sucesso é:
uma refeição é um sucesso
quando meus filhos comem verduras.
Muito diferente se meu filho
mais novo estiver no comando.
Para ele, sucesso
é comer montes de Nutella.
Mas eu é que escolho o que é sucesso.
Eu estou no comando; minha opinião conta.
Essa é a primeira regra dos algoritmos.
Algoritmos são opiniões
embutidas num código.
Bem diferente do que a maioria
de nós pensa sobre os algoritmos.

Korean: 
알고리즘은 성공과 관련된 게
뭔지 알아내죠.
어떤 상황이면 성공하게 될까요?
실제 우리 모두는
알고리즘을 사용합니다.
그저 이걸 코드로 형식화하지
않았을 뿐인데
예를 들어 볼게요.
저는 매일 가족들의 식사를
준비할 때 알고리즘을 이용합니다.
제가 이용하는 자료는
주방에 있는 재료
제게 주어진 시간
하고 싶은 요리 등으로
제가 직접 관리하는 것들이죠.
개인적으로 저는 라면같은 즉석 식품은
요리로 치지 않습니다.
(웃음)
제가 정의하는 성공은 이겁니다.
아이들이 채소를 먹는다면
성공한 식사가 되는 건데
제 막내 아들이 차렸다면 생각했을
성공과는 아주 다르죠.
막내는 누텔라 초코잼만 듬뿍 먹어도
성공이라 했을 테니까요.
하지만 성공은
제가 선택하는 겁니다.
제가 차리는 거니까요.
제 의견이 중요한 거죠.
이것이 알고리즘의
첫 번째 규칙입니다.
알고리즘이란 코드에 담긴
의견입니다.
여러분과 대부분의 사람들이 생각하는 
알고리즘과는 매우 다르죠.

English: 
The algorithm figures out
what is associated with success.
What situation leads to success?
Actually, everyone uses algorithms.
They just don't formalize them
in written code.
Let me give you an example.
I use an algorithm every day
to make a meal for my family.
The data I use
is the ingredients in my kitchen,
the time I have,
the ambition I have,
and I curate that data.
I don't count those little packages
of ramen noodles as food.
(Laughter)
My definition of success is:
a meal is successful
if my kids eat vegetables.
It's very different
from if my youngest son were in charge.
He'd say success is if
he gets to eat lots of Nutella.
But I get to choose success.
I am in charge. My opinion matters.
That's the first rule of algorithms.
Algorithms are opinions embedded in code.
It's really different from what you think
most people think of algorithms.

Dutch: 
om te ontcijferen wat leidt tot succes.
Welke factoren spelen daarin mee?
Iedereen gebruikt algoritmes.
Alleen zetten ze het niet om 
in computercode.
Een voorbeeld.
Ik gebruik elke dag een algoritme 
om een maaltijd te koken voor mijn gezin.
De gegevens die ik gebruik
zijn de ingrediënten in huis,
de hoeveelheid tijd die ik heb,
de gewenste inspanning,
en daarna orden ik die data.
Kleine pakjes ramen noedels
reken ik niet mee als voedsel.
(Gelach)
Mijn definitie voor succes is:
een maaltijd is succesvol 
als mijn kinderen groenten eten.
Als mijn zoontje de baas was, 
zou hij iets heel anders zeggen.
Voor hem is succes als hij 
onbeperkt Nutella mag eten.
(Gelach)
Maar ik bepaal wat succes is.
Ik ben de baas. Mijn mening is belangrijk.
Dat is de eerste regel van algoritmes.
Algoritmes zijn meningen 
vastgelegd in code.
Dat is heel iets anders dan
wat de meeste mensen denken dat het zijn.

Bengali: 
অ্যালগরিদমটি সাফল্যের সাথে কি
যুক্ত তা প্রকাশ করে।
কোন পরিস্থিতি সফলতার দিকে 
এগিয়ে নিয়ে যায়?
বাস্তবে সবাই অ্যালগরিদম ব্যবহার করে।
তারা লিখিত কোডে তা প্রকাশ করেনা |
একটি উদাহরণ নিন |
আমি প্রতিদিন এক অ্যালগরিদম ব্যবহার 
করে আমার পরিবারের জন্য খাবার বানাই|
আমার জন্য তথ্য হল
রান্নাঘরের সকল উপাদানগুলি,
আমার সময়,
আমার উচ্চাকাঙ্খা,
এবং আমি সেই তথ্যগুলি সংগঠিত করি |
আমি খাবার হিসাবে রামেন নুডলস এর
প্যাকেজগুলো গণনা করিনা |
(হাসি )
আমার কাছে সাফল্যের বর্ণনা হল:
আমার বাচ্চারা সবজি খেলে একটি আহার সফল হয় |
এটা আলাদা হত যদি আমার ছোট ছেলে
এই কাজের কর্মকর্তা হত |
সে বলত আহার সফল তখনি হবে যখন 
সে অনেক নিউটেলা খেতে পারবে |
কিন্তু এ ক্ষেত্রে আমি সফলতার বর্ণনা ঠিক করে দিচ্ছি|
আমি কর্মকর্তা | আমার মতামত গুরুত্বপূর্ণ |
এটা অ্যালগরিদমের প্রথম নিয়ম।
অ্যালগরিদম কিছু মতামত যা কোডের 
মধ্যে উদ্ভিত করা থাকে|
এটি অধিকাংশ মানুষ যা ভাবে এর
সম্পর্কে তার চেয়ে ভিন্ন|

Chinese: 
演算法會算出什麼和成功有相關性。
什麼樣的情況會導致成功？
其實，人人都在用演算法。
他們只是沒把演算法寫為程式。
讓我舉個例子。
我每天都用演算法
來為我的家庭做飯。
我用的資料
是我廚房中的原料、
我擁有的時間、
我的野心、
我把這些資料拿來做策劃。
我不把那一小包小包的
拉麵條視為是食物。
（笑聲）
我對成功的定義是：
如果我的孩子吃了蔬菜，
這頓飯就算成功。
但如果我的小兒子主導時
一切就不同了。
他會說，如果能吃到很多
能多益（巧克力榛果醬）就算成功。
但我能選擇什麼才算成功。
我是主導的人，我的意見才重要。
那是演算法的第一條規則。
演算法是被嵌入程式中的意見。
這和你認為大部份人
對演算法的看法很不一樣。

Portuguese: 
O algoritmo descobre
o que está associado ao sucesso.
Qual a situação que leva ao sucesso?
Na verdade, todos usam algoritmos.
Só que as pessoas não os formalizam
em código escrito.
Deixem-me dar um exemplo.
Eu uso um algoritmo todos os dias
para cozinhar para a minha família.
Os dados que eu uso
são os ingredientes que tenho,
o tempo disponível,
a minha ambição,
e junto esses dados todos.
Não contabilizo aqueles pacotes pequenos
de "noodles" como comida.
(Risos)
A minha definição de sucesso é:
a refeição é conseguida
se os filhos comerem vegetais.
Seria diferente se o meu filho
mais novo fosse o responsável.
Ele diria que o sucesso
seria ele comer muita Nutella.
Mas eu posso escolher o sucesso.
Sou eu a responsável.
A minha opinião conta.
Essa é a primeira regra
dos algoritmos.
Os algoritmos são opiniões
embutidas em código.
É muito diferente daquilo que muitos
pensam sobre este assunto.

French: 
l'algorithme trouve ce que
l'on associe au succès,
la situation qui mène au succès.
En fait,
tout le monde utilise des algorithmes
sans forcément les formaliser
en les écrivant.
Voici un exemple :
chaque jour, en cuisinant
je me sers d'un algorithme.
Les données que j'utilise
sont les ingrédients à disposition,
le temps dont je dispose,
l'ambition que j'ai,
et je conserve ces données.
Je ne considère pas les paquets
de ramen comme de la nourriture.
(Rires)
Ma définition du succès est :
un repas est réussi si mes enfants
mangent des légumes.
Si mon fils était aux commandes,
ce serait différent.
Pour lui, le succès serait
de manger plein de Nutella.
Mais c'est moi qui choisis 
ce qu'est le succès.
Je commande. C'est mon avis qui compte.
C'est la première règle des algorithmes.
Les algorithmes sont des opinions
intégrées dans du code.
C'est très différent de ce que 
les gens pensent des algorithmes.

Arabic: 
أي تحدّد الخوارزمية ما هو متعلق بالنجاح.
أي حالة تقود إلى النجاح؟
في الواقع، يستخدمُ كلُ شخص الخوارزميات.
لكن فقط هم لا يستطيعون صياغتها
على هيئة شفرات مكتوبة.
دعوني أعطيكم مثالاً.
أستخدمُ الخوارزميات كل يوم 
لأصنع وجبة غذائية لأسرتي.
فالبيانات التي أستخدمها
هي محتويات مطبخي،
ووقتي،
وطموحي،
وأقوم بتنظيم هذه البيانات.
لا أعتبر هذه العبوّات الصغيرة من
الرامن (حساء المعكرونة) طعامًا.
(ضحك)
تعريفي للنجاح هو:
تعتبرُ الوجبة الغذائية ناجحة 
إذا تناول أطفالي الخضروات.
سيختلف هذا إن كان ابني الصغير هو المسؤول.
سيقول أن النجاح هو إذا تناول
الكثير من شوكولاتة "نوتيلا".
لكن يتوجب عليّ اختيار النجاح.
أنا المسؤولة. لذا فرأيي مهمّ.
هذه هي أول قاعدة للخوارزميات.
الخوارزميات هي آراء موضوعة في شفرات.
إنها مختلفة حقًا عما يعتقده معظم الناس.

Italian: 
Gli algoritmi chiariscono con precisione
ciò che è associato al successo,
quale situazione porta al successo.
In realtà, tutti usano algoritmi.
Solo che non li formalizzano
attraverso un codice scritto.
Vi faccio un esempio.
Io uso un algoritmo ogni giorno
per cucinare per la mia famiglia.
I dati che uso
sono ingredienti della mia cucina,
il tempo che ho,
l'ambizione che ho,
e curo quei dati.
Non considero cibo quei
pacchettini di noodles istantanei.
(Risate)
La mia definizione di successo é:
un pasto è ben riuscito
se i miei figli mangiano verdure.
Sarebbe molto diverso se fosse
mio figlio più piccolo a decidere.
Lui direbbe che il successo
è mangiare tanta Nutella.
Ma sono io a scegliere
cos'è il successo.
Comando io.
È la mia opinione che conta.
Questa è la prima regola degli algoritmi.
Gli algoritmi sono opinioni
racchiuse in codici.
È molto diverso da ciò che pensate,
che la maggior parte della gente
pensa degli algoritmi.

Japanese: 
アルゴリズムに 成功と関係する要素を
理解させるためです
どんな状況が 成功に繋がるのでしょう？
実は アルゴリズムは
誰でも使っています
プログラムに書かないだけです
１つ例を挙げましょう
私は毎日アルゴリズムを使って
家族の食事を用意します
私が利用するデータは
台所にどんな材料があるか
どれだけ時間をかけられるか
どれだけ料理に凝るかで
私はそのデータをまとめます
ちなみにインスタントラーメンは
食べ物とは認めません
（笑）
私にとって成功の基準は
子供たちが野菜を食べることです
もし下の息子が決めるなら
基準はガラッと変わり
「いっぱいチョコナッツクリームを
食べられれば成功」と言うでしょう
でも基準を決めるのは私です
責任者は私で
私の意見が重要なんですから
これがアルゴリズムの第１のルールです
アルゴリズムとはプログラムに
埋め込まれた意見なのです
これは ほとんどの人が持つ
アルゴリズムのイメージとはかけ離れています

Ukrainian: 
Алгоритм з'ясовує,
що асоціюється із успіхом.
Яка ситуація призводить до успіху?
Усі люди вживають алгоритми.
Вони просто не записують їх 
у вигляді коду.
Я наведу вам приклад.
Я щодня вживаю алгоритм,
щоб приготувати їсти для сім'ї.
Дані, що я використовую,
це інгредієнти в мене на кухні,
скільки часу я маю,
наскільки я захоплена,
і я - куратор цих даних.
Я не зараховую маленькі пакетики 
локшини рамен до їжі.
(Сміх)
Ось моє визначення успіху:
страва успішна,
якщо мої діти їдять овочі.
Дайте вирішувати моєму молодшому 
синові, і все буде інакше.
Для нього успіх - це якщо вдається 
з'їсти багато Нутелли.
Але я визначаю, що таке успіх.
Я вирішую. Моя точка зору має значення.
Ось таким є перше правило алгоритмів.
Алгоритми - це точки зору, 
вбудовані у код.
Це дуже відрізняється від того, що 
більшість людей думає про алгоритми.

Turkish: 
Algoritma başarı ile nelerin
bağlantılı olduğunu keşfeder.
Hangi durum başarıya ulaştırır?
Aslında herkes algoritma kullanır.
Sadece yazılı olarak formüle etmezler.
Size bir örnek vereyim.
Aileme yemek yapmak için
her gün algoritma kullanırım.
Kullandığım veri
mutfağımdaki malzemeler,
zaman,
tutkudur
ve bu verileri düzene koyarım.
Bu arada, Japon erişte paketlerini
yemekten saymıyorum.
(Kahkahalar)
Başarı tanımım şudur:
Çocuklarım sebzeleri yerse
yemeğim başarılıdır.
En küçük oğluma sorulsaydı
bu tanım farklı olurdu.
Onun başarı tanımı 
çok miktarda Nutella yemek.
Ama başarıya ben ulaşmalıyım.
Bu iş benim sorumluluğumda.
Görüşüm önemli.
Bu, algoritmaların ilk kuralı.
Algoritmalar, 
kodların içine gömülmüş fikirlerdir.
İnsanların algoritmalar hakkındaki
görüşlerinden farklı bir şey bu.

Romanian: 
Algoritmul deduce
ce se asociază cu succesul,
care situație conduce către succes.
De fapt, toată lumea folosește algoritmi,
dar nu formalizați în scris.
Vă dau un exemplu.
Folosesc zilnic un algoritm
ca să pregătesc masa pentru familia mea.
Datele pe care le folosesc
sunt ingredientele din bucătărie,
timpul disponibil,
ambiția pe care o am,
apoi organizez datele.
Nu consider mâncare
pachețelele de tăieței ramen.
(Râsete)
Definiția mea a succesului e:
o masă e reușită
când copiii mei mănâncă legume.
E foarte diferită de a mezinului meu
care, dacă ar fi după el,
ar zice că succesul înseamnă
să mănânce multă Nutella.
Dar eu sunt cea care alege succesul.
Eu conduc. Părerea mea contează.
Asta e prima regulă a algoritmilor.
Algoritmii sunt păreri încorporate în cod.
E foarte diferit de ce credeți voi
că majoritatea crede despre algoritmi.

iw: 
האלגוריתם מזהה מה מתקשר להצלחה.
אילו מצבים מובילים להצלחה?
בעצם, כולנו משתמשים באלגוריתמים,
אבל לא מנסחים אותם
בצורת קוד כתוב.
אתן לכם דוגמה.
אני משתמשת בכל יום באלגוריתם
כדי להכין למשפחתי ארוחה.
הנתונים בהם אני משתמשת
הם המוצרים במטבח שלי,
הזמן שעומד לרשותי,
השאיפות שלי,
ואני מארגנת את הנתונים.
אני לא מחשיבה "מנה חמה" כמזון.
(צחוק)
ההגדרה שלי להצלחה:
ארוחה נחשבת למוצלחת
אם הילדים שלי אוכלים ירקות.
אם בני הצעיר יהיה אחראי לכך
זה יהיה אחרת לגמרי.
הוא יגיד שהצלחה פירושה
שהוא אכל הרבה חמאת-בוטנים.
אבל אני היא זו שבוחרת
מהי הצלחה.
אני האחראית. הדעה שלי קובעת.
זהו החוק הראשון של האלגוריתמים.
אלגוריתמים הם דעות שמוטמעות בקוד.
זה שונה מאד ממה שרוב האנשים
חושבים על אלגוריתמים.

Hungarian: 
Azt hiszik, hogy az algoritmus
objektív, igaz és tudományos jószág.
Ez csak marketingfogás.
Az is marketingfogás,
hogy algoritmusokkal riogatják önöket,
hogy bízzanak bennük, és féljenek tőlük,
mert önök bíznak
a matekban, s félnek tőle.
Sokuk hibásnak bizonyulhat,
ha vakon hiszünk a big datában.
Ő Kiri Soares, középiskolai
igazgató Brooklynban.
2011-ben elmondta nekem, hogy tanárait
komplex, titkos algoritmussal
ún. "hozzáadott érték
modell"-lel pontozták,
"Nézz utána a képletnek,
mutasd meg nekem,
majd elmagyarázom" – feleltem.
"Próbáltam megszerezni,
de az oktatási minisztériumi ember
azt mondta, hogy az matek,
és úgysem érteném" – válaszolta.
De ez még semmi!
Az információszabadsági törvény alapján
a New York Post kérvényt nyújtott be,
megszerezte a tanárok nevét és pontszámát,
és a tanárok megszégyenítéséül közzétette.

Chinese: 
他們認為演算法是
客觀的、真實的、科學的。
那是種行銷技倆。
還有一種行銷技倆是
用演算法來威脅你，
讓你相信並懼怕演算法，
因為你相信並懼怕數學。
當我們盲目相信大數據時，
很多地方都可能出錯。
這位是琦莉索瑞斯，
她是布魯克林的高中校長。
2011 年，她告訴我，
用來評分她的老師的演算法
是一種複雜的秘密演算法，
叫做「加值模型」。
我告訴她：「找出那方程式
是什麼，給我看，
我就會解釋給你聽。」
她說：「嗯，我試過取得方程式了，
但教育部聯絡人告訴我，
那方程式是數學，
我也看不懂的。」
還有更糟的。
紐約郵報提出了一項
資訊自由法案的請求，
取得有所有老師的名字
以及他們的分數，
郵報把這些都刊出來，
用來羞辱老師。

Arabic: 
إنهم يعتقدون أن الخوارزميات
موضوعية وصحيحة وعلمية.
إنها خدعة تسويقية.
وإنها أيضًا خدعة تسويقية
لتخويفكم بهذه الخوارزميات،
لجعلكم تثقون في الخوارزميات وتخافونها
لأنكم تثقون في الرياضيات وتخافونها.
الكثير من الأمور قد تسوء عندما
نضع ثقة عمياء في البيانات الضخمة.
هذه هي (كيري سوريس)، 
إنها مديرة مدرسة ثانوية في (بروكلين).
في عام 2011، أخبرتني
بأنه كان يتمّ تصنيف معلميها
بناءً على خوارزمية سرية معقدة
سمّيت "نموذج القيمة المضافة".
قلت لها: "حسنًا، اكتشفي ما هي الصيغة،
وأريني إياها.
وسأشرحها لكِ."
قالت، "حسنًا، حاولتُ الحصول على الصيغة،
ولكن أخبرني شخص في وزارة التربية والتعليم
أنها عبارة عن رياضيات
وأنني لن أفهمها."
يزدادُ الأمرُ سوءًا.
قدّمت صحيفة (نيويورك بوست)
"طلب قانون حماية المعلومات"
وحصلت على أسماء كل المعلمين وتقييماتهم
وتم نشرها على سبيل الخزي للمعلمين.

Ukrainian: 
Вони думають, що алгоритми об'єктивні,
правдиві і науково обґрунтовані.
Це маркетингові хитрощі.
Це також будуть маркетингові хитрощі,
якщо вам будуть погрожувати алгоритмами,
будуть примушувати вас довіряти 
алгоритмам та боятися їх,
бо ви довіряєте математиці та боїтеся її.
Чимало речей може піти не так, як треба, 
коли ми сліпо довіряємо великим даним.
Це Кірі Соарс. Вона - директор 
школи старших класів у Брукліні.
У 2011 р. вона розповіла мені,
що її вчителів оцінювали
за складним секретним алгоритмом
під назвою 
"модель з розширеними функціями".
Я сказала їй: "З'ясуй, що це за формула,
покажи її мені.
Я тобі її поясню".
Вона сказала: "Я намагалася
отримати формулу,
але моя знайома у міносвіти
сказала мені, що то математика,
і що мені цього не зрозуміти".
Далі буде гірше.
"Нью-Йорк Пост" надіслала запит згідно 
із Законом про свободу інформації,
отримала імена усіх вчителів 
та усі їх оцінки,
і потім вони опублікували це
задля присоромлення вчителів.

Italian: 
Si pensa che gli algoritmi siano
oggettivi e realistici e scientifici.
È un inganno del marketing.
È un inganno del marketing anche
quello di minacciarvi con gli algoritmi,
per convincervi a fidarvi
degli algoritmi e a temerli
perché vi fidate e avete paura
delle scienze matematiche.
Si può sbagliare tanto se riponiamo
una fiducia cieca in grandi masse di dati.
Lei è Kiri Soares. È preside
in una scuola superiore di Brooklyn.
Nel 2011, mi disse che
i suoi docenti erano valutati
con un complicato e segreto algoritmo
chiamato "modello di valore aggiunto".
Le ho detto: "Trova qual è
la formula e mostramela.
Così te la spiego."
Mi disse: "Ho provato
ad avere la formula,
ma il referente del mio Dipartimento
ha detto che era matematica
e non l'avrei capita".
Le cose peggiorano.
Il New York Post ha fatto una richiesta
secondo il Freedom of Information Act,
ha preso i nomi di tutti
gli insegnanti e i loro punteggi
e li ha divulgati esponendo
gli insegnanti alla pubblica gogna.

Spanish: 
Se creen que los algoritmos son
objetivos, verdaderos y científicos.
Ese en un truco del marketing.
Tambien es un truco del marketing
la intimidación con algoritmos,
que nos hacer confiar 
y temer los algoritmos
porque confiamos y tememos 
las matemáticas.
Muchas cosas pueden salir mal si
confiamos a ciegas en datos masivos.
Esta es Kiri Soares. Es la directora 
de una escuela de Brooklyn.
En 2011 me contó que 
sus maestros se clasificaban
mediante un algoritmo complejo y secreto
llamado "modelo del valor añadido".
Le dije, "Intente saber 
cuál es la fórmula, muéstremela.
Se la voy a explicar".
Me respondió, 
"Trate de conseguir la fórmula,
pero un conocido del Departamento 
de Educación me dijo
que era matemática y 
que no la entendería".
Esto se pone peor.
El New York Post la solicitó bajo la 
Ley de Libertad a la Información.
Obtuvo los nombres de los maestros
y su puntuación
y los publicó como un acto para
avergonzar a los maestros.

Bengali: 
তারা মনে করেন অ্যালগরিদমগুলি উদ্ধেষপূর্ণ 
এবং সত্য এবং বৈজ্ঞানিক।
এটি একটি বিজ্ঞাপনের কৌশল|
একটি বিজ্ঞাপনের কৌশলের মতন
অ্যালগরিদমের দ্বারা আপনাদের ভীতি বাড়ানো হয়,
যাতে আপনারা অ্যালগরিদমকে বিশ্বাস করেন
এবং ভয় পান
কারণ আপনারা অঙ্ককে বিশ্বাস করেন
এবং ভয় পান|
বিগ ডাটা এ অন্ধ বিশ্বাস করলে অনেক
ভুল হতে পারে|
ইনি কিরি সোয়ার্স|তিনি ব্রুক্লিনের এক
উচ্চ বিদ্যালয়ের প্রধান|
২0১১ সালে, তিনি আমাকে বলেছিলেন 
যে তার শিক্ষকদের
একটি জটিল, গোপন অ্যালগরিদম 
দিয়ে অবহিত করা হচ্ছে
জাকে বলা হয় "মূল্য-সংযোজন মডেল।"
আমি তাকে বলেছিলাম, "আচ্ছা, সূত্রটা কী, 
তা আমাকে দেখিয়ে দাও।
আমি আপনাকে এটা ব্যাখ্যা করব|"
তিনি বলেন, "আমি সূত্রটি পেতে
চেষ্টা করেছি,
কিন্তু আমাদের শিক্ষা বিভাগ আমাকে বলল এটি
গণিত এবং আমি তা বুঝতে পারবনা|"
আরো খারাপ হতে পারে|
নিউইয়র্ক পোস্ট তথ্য অধিকারের স্বাধীনতা
আইন অনুযায়ী আবেদন করে সমস্ত শিক্ষকের নাম
এবং নম্বরের ও সেগুলি শিক্ষক-শিষ্টাচারের
রূপে প্রকাশ করে।

Portuguese: 
As pessoas pensam que os algoritmos
são objetivos, verdadeiros e científicos.
Isso é um truque de "marketing".
O que também é um truque
é o facto de os algoritmos
nos intimidarem,
para nos fazer ter confiança
e medo deles,
porque confiamos
e receamos a matemática.
Muita coisa pode correr mal
se confiarmos cegamente nos "big data".
Esta é Kiri Soares e é diretora
de uma escola secundária em Brooklyn.
Em 2011, ela disse-me que
os professores eram avaliados
com um algoritmo secreto e complexo
chamado "modelo de valor acrescentado".
Eu disse-lhe:
"Bem, se descobrir a fórmula, mostre-ma".
"Eu explico-lha".
Ela respondeu: "Bom, eu tentei obtê-la"
"mas o Departamento de Educação
disse que era matemática"
"e que eu não iria entendê-la".
E ainda é pior.
O jornal "The New York Post" invocou
a lei da Liberdade de Informação,
reuniu os nomes de todos os professores
e os seus resultados
e publicou todas essas informações
como forma de envergonhar os professores.

Turkish: 
İnsanlar algoritmaların tarafsız, 
doğru ve bilimsel olduğunu düşünür.
Bu bir pazarlama hilesi.
Algoritmalara güvenmeniz
ve onlardan korkmanız için
bir pazarlama hilesidir 
çünkü matematikten de korkarsınız
ama sayılara güvenirsiniz.
Büyük veriye körü körüne inanırsak
çok şey yanlış gidebilir.
Bu Kiri Soares.
Brooklyn'de okul müdürü.
2011'de öğretmenlerin 
'katma değer modeli' adında
gizli, karışık bir algoritma ile
puanlandıklarını söyledi.
"Formülasyonu bana göster,
sana içeriğini açıklayayım" dedim.
Cevap verdi: 
"Doğrusu formülasyonu almaya çalıştım
fakat eğitim birimi bana
bunun matematiksel olduğunu
ve içeriğini anlamayacağımı söyledi".
Daha kötüye gidiyor.
The New York Post, 
"Bilgiye Özgürlük Hareketi" kapsamındaki
talebi sonucu öğretmenlerin 
isim ve puanlarını temin edip
adeta öğretmen ayıplama
eylemi olarak sonuçları yayımladı.

French: 
Ils pensent que les algorithmes sont
objectifs, vrais et scientifiques.
C'est une astuce marketing.
C'en est une autre
de vous intimider avec des algorithmes,
de vous faire croire et craindre
les algorithmes,
car vous croyez et craignez 
les mathématiques.
Tout peut mal tourner quand on a
une foi aveugle dans le Big Data.
Voici Kiri Soares. Elle est directrice 
d'un lycée à Brooklyn.
En 2011, elle m'a dit que ses 
professeurs étaient classés
par un algorithme complexe et secret
appelé le « modèle de valeur ajoutée ».
Je lui ai dit : « Trouve la formule, 
montre-la moi,
et je vais te l'expliquer. »
Elle m'a dit : 
« J'ai essayé de la trouver,
mais le Ministère de l'éducation
m'a dit que c'était des "maths"
et que je ne comprendrais pas. »
Il y a pire.
Le New York Post a invoqué la loi
sur la liberté d'information,
a obtenu les noms des enseignants
ainsi que leur classement,
et les ont publiés 
pour humilier les enseignants.

English: 
They think algorithms are objective
and true and scientific.
That's a marketing trick.
It's also a marketing trick
to intimidate you with algorithms,
to make you trust and fear algorithms
because you trust and fear mathematics.
A lot can go wrong when we put
blind faith in big data.
This is Kiri Soares.
She's a high school principal in Brooklyn.
In 2011, she told me
her teachers were being scored
with a complex, secret algorithm
called the "value-added model."
I told her, "Well, figure out
what the formula is, show it to me.
I'm going to explain it to you."
She said, "Well, I tried
to get the formula,
but my Department of Education contact
told me it was math
and I wouldn't understand it."
It gets worse.
The New York Post filed
a Freedom of Information Act request,
got all the teachers' names
and all their scores
and they published them
as an act of teacher-shaming.

Thai: 
พวกเขาคิดว่า อัลกอริทึมมีความ
ตรงไปตรงมา เป็นวิทยาศาสตร์
นั่นเป็นแค่กลทางการตลาด
และก็เป็นทริกการตลาดนี่แหละ
ที่คุกคามคุณด้วยอัลกอริทึม
เพื่อจะทำให้คุณเชื่อใจ และกลัวอัลกอริทึม
เพราะว่าคุณไว้ใจ และกลัวคณิตศาสตร์
อาจเกิดสิ่งผิดพลาดได้มากมาย เมื่อเรามีศรัทธา
อย่างมืดบอดในข้อมูลมหาศาล (big data)
นี่คือ คิริ ซัวเรส เธอเป็นครูใหญ่
โรงเรียนมัธยมแห่งหนึ่งในบรุคลิน
ปี 2011 เธอบอกฉันว่า ครูของเธอถูกให้คะแนนจาก
อัลกอริทึมที่ซับซ้อน และเป็นความลับ
ที่เรียกว่า "โมเดลเพิ่มคุณค่า"
ฉันบอกเธอว่า "เอาล่ะ 
มาดูกันว่าสูตรคืออะไร ให้ฉันดูหน่อย
ฉันจะอธิบายให้เธอฟังเอง"
เธอบอก "ฉันพยายามจะเอาสูตรมา
แต่ทางกระทรวงศึกษาธิการ
แจ้งว่ามันเป็นคณิตศาสตร์
และฉันคงไม่เข้าใจ"
มันยิ่งแย่ลงไปกว่านั้นอีก
หนังสือพิมพ์นิวยอร์กโพสต์
ทำเรื่องขอตามกฎหมายเสรีภาพข้อมูล
และได้ข้อมูลรายชื่อครู รวมถึงผลคะแนน
ของครูแต่ละคน
แล้วนำมาตีพิมพ์
เหมือนกับว่าจะประจานเหล่าครู

Korean: 
사람들은 알고리즘이 객관적이며
사실이고 과학적이라고 생각하지만
이건 마케팅 상술일 뿐입니다.
이것은 또한 그 알고리즘으로
여러분을 위협하고 여러분이 알고리즘을
신뢰하고 두려워하게 만들려는
마케팅 상술인데
왜냐하면 여러분들이 수학을 믿고
두려워하니까요.
빅 데이터를 맹신하면
많은 것이 잘못될 수 있습니다.
이분은 브룩클린의 어느 고등학교 
교장인 키리 소어스 씨인데
2011년에 저에게 
교사들의 인사 고과 평가에 
복잡하고 비밀스런 알고리즘인
"가치-부가 모델"을 쓴다고 했죠.
제가 그랬죠. "음, 공식이 뭔지
파악하고 보여주세요.
제가 설명해 드릴게요."
그랬더니
"음, 공식을 구하려고 했지만
교육부 담당자가 그러는데 그건 수학이라
제가 봐도 모를 겁니다"라고 했대요.
설상가상인 건
뉴욕포스트지에서 정보자유법에 따라
정보공개를 신청한 후
모든 선생님의 이름과 점수를 입수해서
일종의 선생님 망신 주기로
기사화 했어요.

Japanese: 
人々はアルゴリズムが客観的で正しく
科学的なものと思っていますが
それはマーケティング上のトリックです
アルゴリズムで人を怯ませるのも
マーケティングのトリックですし
アルゴリズムを信用させたり
恐れさせたりするのもそう
皆 数学を恐れつつ信用していますから
ビッグデータを盲信すると
いろいろな問題が生じかねません
彼女はキリ・ソアーズ
ブルックリンの高校で校長をしています
2011年に彼女が教えてくれたのですが
彼女の学校では
「付加価値モデル」という
複雑な秘密のアルゴリズムで
教員が評価されている
ということでした
私は こう伝えました
「数式を調べてみましょう
見せてくれれば説明しますよ」
すると彼女は
「数式を入手しようとしたら
市教育局の担当者に『これは数学ですよ
理解できないでしょう』と
言われたんです」
事態はさらに深刻化します
ニューヨーク・ポスト紙が
情報自由法に基づく開示請求をして
ニューヨーク市の全教員の
名前とスコアを手に入れ
教員を辱めるような
データを公表しました

Russian: 
Алгоритмы для них объективны,
истинны и научны.
Это маркетинговый трюк.
Этот трюк используют
для того, чтобы запугать вас алгоритмами,
чтобы вы доверяли им и боялись их,
как вы доверяете математике и боитесь еë.
Опасно вкладывать слепую веру 
в «большие данные».
Это Кири Соареш.
Она директор средней школы в Бруклине.
В 2011 году она рассказала,
что её учителей оценивали
с помощью сложного секретного алгоритма —
«модели добавленной стоимости».
Я сказала ей: «Выясни-ка,
что это за формула и покажи мне,
я попробую объяснить еë тебе».
Она сказала: «Ну, я хотела
получить формулу,
но в отделе образования мне сказали,
что это математика,
и я не ничего пойму».
Ситуация ухудшается.
Газета «Нью-Йорк Пост», согласно
Закона о свободе информации,
опубликовала инфо с именами
всех учителей и их баллами
в попытке пристыдить их.

Chinese: 
他们认为算法是客观、真实和科学的。
那是一种营销技巧。
这也是一种用算法来
恐吓你的营销手段，
为了让你信任和恐惧算法
因为你信任并害怕数学。
当我们盲目信任大数据时，
很多人都可能犯错。
这是凯丽·索尔斯。
她是布鲁克林的一名高中校长。
2011年，她告诉我，
她学校的老师们正在被一个复杂
并且隐秘的算法进行打分，
这个算法被称为“增值模型"。
我告诉她，“先弄清楚这个
公式是什么，然后给我看看。
我来给你解释一下。”
她说，“我寻求过这个公式，
但是教育部的负责人告诉我这是数学，
给我我也看不懂。”
更糟的还在后面。
纽约邮报提出了“信息自由法”的要求，
来得到所有老师的名字与他们的分数，
并且他们以羞辱教师的方式
发表了这些数据。

Dutch: 
Zij denken dat algoritmes objectief, 
waar en wetenschappelijk zijn.
Dat is een marketingtruc.
(Gelach)
Het is ook een marketingtruc
om je te intimideren met algoritmes,
om te zorgen dat je algoritmes vertrouwt 
én er bang voor bent,
net zoals je op wiskunde vertrouwt
en er bang voor bent.
Het kan flink misgaan 
als we blind vertrouwen op Big Data.
Dit is Kiri Soares. Ze is directrice 
van een middelbare school in Brooklyn.
In 2011 werden haar docenten beoordeeld
met behulp van een complex,
geheim algoritme,
het zogeheten 'meerwaardemodel'.
Ik zei: "Probeer achter de formule 
te komen, dan leg ik het je uit."
Ze zei: "Dat heb ik geprobeerd,
maar op het Ministerie van Onderwijs
zeiden ze het wiskunde was
en dat ik dat toch niet zou begrijpen."
(Gelach)
Het wordt nog erger.
De New York Post deed een beroep
op de vrijheid van informatie,
verzamelde alle namen 
van docenten en hun scores
en publiceerde die 
om ze publiekelijk terecht te wijzen.

Swedish: 
Folk tror att algoritmer är objektiva,
sanna och vetenskapligt underbyggda.
Det är ett marknadsföringstrick.
Det är också ett marknadsföringstrick
för att skrämma dig med algoritmer,
få dig att lita på och frukta algoritmerna
eftersom du litar på
och fruktar matematik.
Mycket kan gå fel
när vi tror blint på big data.
Det här är Kiri Soares.
Hon är gymnasierektor i Brooklyn.
2011 berättade hon att
hennes lärare poängsattes
med en komplicerad, hemlig algoritm
som kallades "mervärdesmodellen."
Jag sade, "Fundera ut
vilken formeln är, och visa mig den.
Jag ska förklara den för dig."
Hon svarade,"Jag försökte få fram formeln,
men min kontakt på skolmyndigheten
sade att det var matte
och att jag inte skulle förstå."
Det blir värre.
New York Post krävde ut resultatet
med stöd av lagen om informationsfrihet,
fick alla lärares namn och poäng
och publicerade det
för att skämma ut lärarna.

iw: 
הם חושבים שהאלגוריתמים
הם אובייקטיביים, נכונים ומדעיים.
זו תחבולה שיווקית.
תחבולה שיווקית נוספת
היא להפחיד אתכם באלגוריתמים,
כדי שתבטחו בהם ותחששו מהם
כי אתם בוטחים במתמטיקה
וחוששים ממנה.
הרבה יכול להשתבש כשאנחנו
נותנים אמון עיוור בנתוני-עתק.
זו קירי סוארז,
מנהלת בי"ס תיכון בברוקלין.
ב-2011 היא אמרה לי
שהמורים שלה מדורגים
בעזרת אלגוריתם סודי ומורכב,
שנקרא "מודל הערך המוסף".
אמרתי לה, "תבררי מהי הנוסחה
ותראי לי אותה.
"אני אסביר לך אותה"
היא אמרה,
"ניסיתי לקבל את הנוסחה.
"אך במשרד החינוך אמרו לי
שזאת מתמטיקה,
"ושאני לא אבין אותה."
זה נהיה יותר גרוע.
ה"ניו-יורק פוסט" הגיש בקשה
לפי חוק חופש המידע.
קיבל את כל שמות המורים
והדירוג שלהם,
ופירסם אותן כצעד
של ביוש מורים.

Portuguese: 
Achamos que os algoritmos são
objetivos, verdadeiros e científicos.
Esse é um truque de marketing.
É também um truque de marketing
intimidar vocês com algoritmos,
fazê-los acreditar nos algoritmos
ou ter medo deles
porque acreditamos
na matemática, e temos medo dela.
Muita coisa pode dar errado
quando confiamos cegamente no Big Data.
Esta é Kiri Soares,
diretora de um colégio no Brooklyn.
Em 2011, ela me disse que seus professores
estavam sendo avaliados
por um algoritmo complexo e secreto,
chamado "modelo de valor agregado".
Disse a ela: "Descubra
a fórmula dele e me mostre.
Aí, posso explicá-lo a você".
Ela disse: "Tentei conseguir a fórmula,
mas meu contato na Secretaria de Educação
me falou que era matemática
e que eu não iria entender".
E a história só fica pior.
O "New York Post" protocolou
um pedido de transparência,
pegou o nome de todos os professores,
e todas suas avaliações
e publicou como um ato
para expor os professores.

Persian: 
آن‌ها فکر می‌کنند که الگوریتم‌ها
عینی، درست و علمی هستند.
این یک حقهٔ بازاریابی است.
این هم یک حقهٔ بازاریابی است
که شما را با الگوریتم‌ها بترسانند،
که شما را وادار به اعتماد به الگوریتم‌ها
و ترس از آن‌ها کنند
به دلیل ترس و اعتماد شما به ریاضیات.
باور کورکورانه به کلان‌داده‌ها
می‌تواند عواقب نادرستی داشته باشد.
این کیری سورس است.
او مدیر یک دبیرستان در بروکلین است.
در سال ۲۰۱۱، او به من گفت
معلم‌های مدرسه‌اش
با یک الگوریتم مرموز
و پیچیده امتیازبندی می‌شوند
که نام آن
«مدل ارزش افزوده» است.
من به او گفتم، «خب، فرمول را پیدا کن
و به من نشان بده
من آن را برایت توضیح می‌دهم».
او گفت: «من سعی کردم
که فرمول را بدست بیاورم،
اما رابط اداره‌ی آموزش
به من گفت که ریاضیات است
و من آن را درک نخواهم کرد.»
بدتر هم می‌شود.
روزنامه «نیویورک پست» درخواستی
مربوط به «سند آزادی اطلاعات» منتشر کرد،
نام تمام معلم‌ها
و تمام نمراتشان را به دست آورد
و برای خجالت‌زده کردن معلمان
آنها را منتشر کرد.

Serbian: 
Ljudi misle da su algoritmi
objektivni, istiniti i naučni.
To je marketinški trik.
Marketinški trik jeste
i kada vas plaše algoritmima,
kada vas teraju da verujete
i da se plašite algoritama
jer verujete matematici i plašite je se.
Mnogo grešaka može se desiti
kada slepo verujemo u masovne podatke.
Ovo je Kiri Soares,
direktor srednje škole u Bruklinu.
Godine 2011. rekla mi je
da njen kolektiv ocenjuju
složenim, tajnim algoritmom
koji se zove „model dodatne vrednosti“.
Rekla sam joj: „Saznaj
koja je formula i pokaži mi je.
Objasniću ti je.“
Rekla je: „Pokušala sam dobiti formulu,
ali osoba iz Ministarstva obrazovanja
mi je rekla da je to matematika
i da je neću razumeti.“
Postaje sve gore.
Njujork Post je podneo zahtev
na osnovu zakona o slobodi informacija,
dobio imena i ocene svih nastavnika
i onda ih objavio kao čin
sramoćenja nastavnika.

Romanian: 
Ei cred că algoritmii
sunt obiectivi, adevărați și științifici.
Ăsta e un truc de marketing.
Și tot un truc al marketingului
e să vă intimideze cu algoritmi,
să vă încredeți
și să vă temeți de algoritmi,
pentru că vă încredeți
și vă temeți de matematică.
Pot apărea multe probleme când avem
încredere oarbă în volume mari de date.
Ea e Kiri Soares, directoarea
unui liceu din Brooklyn.
În 2011 mi-a zis că profesorii ei
erau evaluați
cu un algoritm complex și secret,
numit „modelul valoare adăugată”.
I-am zis: „Află care e formula,
arată-mi-o și ți-o explic.”
Ea a zis: „Am încercat să obțin formula,
dar la Departamentul de Educație
mi s-a zis că e matematică
și n-o să înțeleg.”
Se poate și mai rău.
New York Post a solicitat, conform
Legii privind libertatea de informare,
și a obținut numele
tuturor profesorilor și punctajele lor
și le-a publicat pentru a-i blama public.

Serbian: 
Kada sam probala istim putem doći
do formula, do izvornog kôda,
rečeno mi je da ne može.
Odbijena sam.
Posle sam saznala
da niko u Njujorku
nema podatke o toj formuli.
Niko je nije razumeo.
Onda se uključio neko
veoma bistar, Geri Rubenstajn.
Pronašao je 665 nastavnika
iz onog članka u Njujork Postu
koji zapravo imaju dva rezultata.
Ovo se moglo desiti jer su predavali
matematiku u sedmom i osmom razredu.
Odlučio je da ih ubaci u grafikon.
Svaka tačka je nastavnica ili nastavnik.
(Smeh)
Šta je to?
(Smeh)
To se nikako nije trebalo koristiti
za individualne procene.
Ovo je kao generator nasumičnih brojeva.
(Aplauz)
Ali, korišćeno je.
Ovo je Sara Visoki.
Otpuštena je kad i 205 drugih nastavnika
iz škola vašingtonskog okruga
iako je imala odlučne preporuke direktora
i roditelja učenika.
Znam šta mnogi od vas ovde sada misle,

Turkish: 
Aynı yollarla formül ve kaynak kodunu
almaya çalıştığımda
bunu alamayacağım söylendi.
Talebim reddedildi.
Sonra New York'ta hiç kimsenin
bu formüle erişimi olmadığını öğrendim.
Kimse içeriğini bilmiyor, anlamıyor.
Sonra Gary Rubinstein adında 
zeki biri olaya dâhil oldu.
Rubinstein, New York Post verisindeki
665 öğretmenin aslında iki tane
yani mükerrer puanı olduğunu keşfetti.
Bu ancak, öğretmenler 
7 ve 8'inci sınıflara
ders veriyor olsaydı oluşabilirdi.
Rubinstein, sonuçların grafiğini çizdi.
Her nokta bir öğretmeni temsil ediyor.
(Kahkahalar)
Nedir bu?
(Kahkahalar)
Bu asla kişileri değerlendirmek için
kullanılmamalıydı.
Tıpkı rasgele bir sayı üreticisi gibi.
(Alkışlar)
Ama kullanıldı.
Bu Sarah Wysocki.
Diğer 205 öğretmen ile birlikte
Washington'ta görevine son verildi.
Oysa okul müdürü ve veliler
kendisinden çok memnundu.
Burada başta yapay zeka uzmanları

Ukrainian: 
Коли я намагалася тими ж методами 
одержати формули, початковий код,
мені сказали, що я не можу цього зробити.
Мені відмовили.
Пізніше я дізналася,
що ніхто у місті Нью-Йорк
не мав доступу до цієї формули.
Ніхто її не розумів.
Потім до цього долучилася 
одна мудра людина, Гері Рубінштейн.
Він знайшов 665 вчителів з тої статті
у "Нью-Йорк Пост",
вчителів, що, власне, мали дві оцінки.
Так могло статися, якщо вони викладали
математику у сьомому класі 
і математику у восьмому.
Він вирішив відобразити їх дані.
Кожна крапка репрезентує вчителя.
(Сміх)
Що це таке?
(Сміх)
Це ніколи не слід було використовувати 
для індивідуальної оцінки.
Це майже як генератор випадкових чисел.
(Оплески)
Але це було використано.
Це - Сара Висоцкі.
Її звільнили, разом із 
205 іншими вчителями,
зі шкільного району м.Вашингтон 
в окрузі Колумбія,
хоча вона мала прекрасні рекомендації
від її директора
та батьків її дітей.
Я знаю, про що зараз думає
багато із вас,

Spanish: 
Cuando intenté conseguir las fórmulas en 
código base, usando el mismo mecanismo,
me dijeron que no se podía.
Me lo negaron.
Más tarde descubrí
que nadie tenía derecho 
a la fórmula en Nueva York.
Nadie lo podía entender.
Entonces apareció un tipo muy 
inteligente, Gary Rubenstein.
Localizó a 665 maestros por
los datos del New York Post
que tenían dos puntuaciones.
Eso podía ocurrir si enseñaban
matemática en 7º y 8º grado.
Decidió hacer un gráfico.
Donde cada punto representa 
a un maestro.
(Risas)
Y eso ¿qué es?
(Risas)
Eso no debiera haberse usado nunca
para evaluar a una persona.
Es casi un generador de números al azar.
(Aplausos)
Pero lo fue.
Esta es Sarah Wysocki.
La echaron junto a otros 205 maestros
de una escuela en Washington DC,
a pesar de tener muy buena recomendación 
de la directora
y de los padres de sus alumnos.
Me imagino lo que estarán pensando,

Thai: 
เมื่อฉันติดต่อเพื่อขอทราบสูตรการคำนวณ
ผ่านช่องทางเดียวกัน
กลับได้รับการแจ้งว่า
ไม่สามารถให้สูตรได้
ฉันถูกปฏิเสธ
และฉันมาพบภายหลังว่า
ไม่มีใครในนิวยอร์กสามารถเข้าถึงสูตรนั้นได้
ไม่มีใครเข้าใจมัน
จนกระทั่งคนที่ฉลาดมากคนหนึ่ง
เข้ามาเกี่ยวข้องด้วย แกรี่ รูบินสไตน์
เขาพบข้อมูลเกี่ยวกับครู 665 คน
จากข้อมูลของนิวยอร์คโพสต์
ที่ในความจริงแล้ว มีค่าคะแนนเป็นสองค่า
ซึ่งก็อาจจะเป็นไปได้หากพวกเขาสอน
คณิตศาสตร์ในชั้นเกรดเจ็ด และในชั้นเกรดแปด
เขาตัดสินใจนำข้อมูลพวกนั้นมาวาดกราฟ
แต่ละจุดแทนครูแต่ละคน
(เสียงหัวเราะ)
นั่นคืออะไร?
(เสียงหัวเราะ)
นั่นไม่ควรจะถูกเอามาใช้
ในการประเมินรายบุคคล
มันเกือบจะเหมือนการสร้างตัวเลขแบบสุ่มเลย
(เสียงปรบมือ)
แต่ก็เป็นไปแล้ว
และนี่คือ ซาร่า ไวซอคกี
เธอถูกไล่ออก พร้อมกับ
ครูคนอื่นๆ อีก 205 คน
จากเขตการศึกษาวอชิงตันดีซี
ถึงแม้ว่าเธอจะได้รับจดหมายแนะนำตัว
ที่ดีมากจากครูใหญ่ของเธอ
และจากผู้ปกครองของนักเรียน
ฉันรู้ว่า พวกคุณคิดอะไรกันอยู่

Romanian: 
Când am încercat să obțin formula,
codul sursă, cu aceleași mijloace,
mi s-a zis că nu se poate.
Mi s-a refuzat.
Mai târziu am aflat
că nimeni din New York
n-avea acces la acea formulă.
Nimeni n-o înțelegea.
Apoi s-a implicat cineva
foarte inteligent: Gary Rubinstein.
A descoperit că 665 de profesori
din datele de la New York Post
aveau, de fapt, două punctaje.
Asta se putea întâmpla dacă predau
matematică de clasa a șaptea și a opta.
A decis să facă un grafic.
Fiecare punct reprezintă un profesor.
(Râsete)
Ce-i asta?
(Râsete)
N-ar fi trebuit să fie niciodată
folosit pentru evaluare personală.
E mai degrabă un generator
de numere aleatorii.
(Aplauze)
Dar a fost.
Ea e Sarah Wysocki.
A fost concediată,
împreună cu alți 205 profesori,
din districtul școlar al Washington DC,
deși avea recomandări excelente
de la director și părinții copiilor.
Știu ce gândesc mulți dintre voi,

Chinese: 
当我试图用同样的方法来获取公式，
源代码的时候，
我被告知我没有权力这么做。
我被拒绝了。
后来我发现，
纽约市压根儿没有人能接触到这个公式。
没有人能看懂。
然后，一个非常聪明的人参与了，
加里·鲁宾斯坦。
他从纽约邮报的数据中
找到了665名教师，
实际上他们有两个分数。
如果他们同时教七年级与八年级的数学，
就会得到两个评分。
他决定把这些数据绘成图表。
每个点代表一个教师。
（笑声）
那是什么？
（笑声）
它永远不应该被用于个人评估。
它几乎是一个随机数生成器。
（掌声）
但它确实被使用了。
这是莎拉·维索斯基。
她连同另外205名教师被解雇了，
都是来自华盛顿特区的学区，
尽管她的校长还有学生的
父母都非常推荐她。
我知道你们很多人在想什么，

Japanese: 
一方 私がソース・コードを
同じ方法で手に入れようとしたところ
無理だと言われました
却下されたのです
後にわかったことですが
ニューヨーク市で その数式を
見られる人は誰もおらず
誰も理解していなかったのです
その後 ゲイリー・ルービンスタインという
頭のキレる人物が登場します
彼はニューヨーク・ポスト紙のデータから
２種類のスコアを持っている
教員665名を見つけ出しました
それに該当するのは 例えば
数学を７年生と８年生で
教えている場合です
彼は２種類のスコアを散布図にしました
点はそれぞれ 先生を表します
（笑）
これは どういうことでしょう？
（笑）
こんなものを教員の個人評価に
使ってはいけません
まるで乱数発生器じゃないですか
（拍手）
でも実際に使われたんです
彼女はサラ・ワイサキ
他の205人のワシントンD.C.学区の
先生たちと共に
解雇されました
校長や保護者からの評価は
非常に高かったのにです
校長や保護者からの評価は
非常に高かったのにです
皆さんが今 考えていることは
わかります

Portuguese: 
Quando tentei conseguir as fórmulas,
o código-fonte, através dos mesmos meios,
me disseram que não podia, me foi negado.
Descobri mais tarde que ninguém em
Nova Iorque tinha acesso àquela fórmula.
Ninguém a entendia.
Então, Gary Rubenstein,
um cara muito inteligente, se envolveu.
Ele descobriu 665 professores
naqueles dados do "New York Post"
que na verdade tinham duas avaliações.
Aquilo podia acontecer se eles ensinavam
matemática na sétima e na oitava série.
Ele decidiu marcá-los.
Cada ponto representa um professor.
(Risos)
O que é isto?
(Risos)
Isso nunca deveria ter sido usado
numa avaliação individual.
É quase um gerador aleatório de número.
(Aplausos) (Vivas)
Mas foi usado.
Esta é Sarah Wysocki.
Ela foi demitida, juntamente
com 205 outros professores,
da superintendência de ensino 
de Washington, D.C.,
mesmo tendo excelente recomendação
de sua diretora e dos pais das crianças.

iw: 
כשניסיתי להשיג את הנוסחאות,
את הקוד המקורי, באותם האמצעים,
אמרו לי, "אי-אפשר".
דחו אותי.
מאוחר יותר גיליתי
שלאף אחד בעיר ניו-יורק
אין גישה לנוסחה ההיא.
שאיש לא מבין אותה.
ואז נכנס לתמונה מישהו ממש חכם.
גרי רובינשטיין.
הוא זיהה בנתוני ה"ניו-יורק פוסט"
665 מורים עם שני דירוגים.
זה יכול היה לקרות אם הם לימדו
מתמטיקה בכיתות ז' וגם בכיתות ח'.
הוא החליט להציג זאת בגרף.
כל נקודה מסמלת מורה.
(צחוק)
מה זה?
(צחוק)
זה לא משהו שאמור לשמש
לצורך הערכות אישיות.
זהו כמעט מחולל מספרים אקראי.
(מחיאות כפיים)
אך זה שימש לכך.
זוהי שרה וויסוקי. היא פוטרה
יחד עם עוד 205 מורים
מהמחוז הבית-סיפרי של וושינגטון הבירה,
למרות שהיו לה המלצות מעולות
מהנהלת ביה"ס
וגם מההורים של הילדים שלימדה.
אני יודעת שרבים מכם חושבים,

Dutch: 
Toen ik zelf probeerde de formules, 
de broncode, te bemachtigen,
werd gezegd dat dat onmogelijk was.
Ik werd geweigerd.
Pas later kwam ik erachter
dat niemand in New York 
toegang had tot de formule.
Niemand begreep het.
Toen raakte de intelligente 
Gary Rubinstein bij de zaak betrokken.
In de gegevens van de New York Post 
vond hij 665 docenten
die twee scores bleken te hebben.
Dat gebeurde als ze wiskunde gaven
aan de brugklas en de tweede klas.
Hij besloot ze in kaart te brengen.
Elke stip is een docent.
(Gelach)
Wat is dat?
(Gelach)
Dat hadden ze nooit mogen gebruiken 
voor individuele beoordeling.
Het lijkt meer op een toevalsgenerator.
(Applaus)
En dat was ook zo.
Dit is Sarah Wysocki.
Samen met 205 andere docenten 
werd ze ontslagen
in het schooldistrict van Washington,
ondanks de lovende aanbevelingen 
van de schoolleiding
en de ouders van haar leerlingen.
Ik hoor jullie al denken,

French: 
Quand j'ai tenté d'avoir les formules,
le code source, par les mêmes moyens,
on m'a dit que je ne pouvais pas.
On me les a refusés.
Plus tard, j'ai découvert
que personne à New York n'avait
accès à cette formule.
Personne ne la comprenait.
Puis quelqu'un de très malin
s'en est mêlé, Gary Rubinstein.
Il a trouvé 665 enseignants
des données du New York Post
qui avaient deux notes.
Cela peut arriver s'ils enseignaient
les maths en cinquième et en quatrième.
Il a décidé d'en faire un graphique.
Chaque point représente un enseignant.
(Rires)
Qu'est-ce que c'est ?
(Rires)
Ça n'aurait jamais dû être utilisé
pour des évaluations individuelles.
On dirait presque un générateur aléatoire.
(Applaudissements)
Mais ça l'a été.
Voici Sarah Wysocki.
Elle a été virée
avec 205 autres enseignants
du secteur scolaire de Washington,
malgré les excellentes
recommandations de son directeur
et des parents de ses élèves.
Je sais ce que bon nombre
d'entre vous pensent,

Bengali: 
যখন আমি সূত্রগুলো পাওয়ার চেষ্টা করি,
সোর্স কোড গুলো, একই পথে,
আমায় বলা হয়ে যে আমায় তা দেওয়া হবেনা|
আমায় বাধা দেওয়া হয়|
আমি পরে জানতে পারলাম 
নিউ ইয়র্কে কারোই সেই কোড জানা নেই|
কেউ তা বুঝতোনা |
তারপর একদিন এক শিক্ষিত মানুষ জড়িয়ে পড়লেন,
গ্যারি রুবিনস্টাইন|
তিনি লক্ষ্য করলেন নিউ ইয়র্ক পোস্টের
তথ্যে
৬৬৫ শিক্ষকের দুটি নম্বর ছিল|
এটা তখনই সম্ভব যদি তারা সপ্তম
এবং অষ্টম দুই শ্রেণীতেই অঙ্ক পড়ান|
তিনি এগুলি চিত্র লেখন করেন।
একটি দাগ একটি শিক্ষককে বোঝায়|
(হাসি )
এটা কি?
(হাসি)
এরকম ব্যক্তিগতভাবে মূল্যায়ন করা সঠিক না।
এটি প্রায় একটি এলোমেলো সংখ্যা উৎপাদক।
(তালি)
কিন্তু তাই ছিল|
ইনি সারা ওয়াসকি |
তাকে ওয়াশিংটনে,ডিসি স্কুল জেলার ২০৫ জন
অন্যান্য শিক্ষকের সাথে বহিষ্কার করা হয়,
যদিও তার স্কুলের প্রধান ও বাচ্চাদের 
পিতামাতাদের
থেকে ভালো সুপারিশ ছিল।
আমি জানি আপনারা এখানে কি ভাবছেন, বিশেষত

Korean: 
제가 같은 방법으로 이 공식과
소스코드를 찾으려고 했더니
허가할 수 없다고 하더라고요.
거부 당한 겁니다.
그 후 알게된 건데
뉴욕의 어느 누구도 그 공식은
접근할 수 없었어요.
아는 사람도 없었죠.
그러다 게리 루빈스타인이라는 아주
똑똑한 사람이 여기 관여하게 됩니다.
그가 뉴욕 포스트 자료에서
665명의 선생님을 찾아내 봤더니
점수가 두 가지였어요.
한 분이 7학년 수학과 8학년 수학을
함께 가르치면 생기는 일입니다.
게리가 이걸로 그림을 그려봤어요.
점 하나 하나가 선생님 한 분입니다.
(웃음)
저건 뭡니까?
(웃음)
개인 인사 고과에 정말 이용하지 
말았어야 할 프로그램이었던 겁니다.
거의 난수 생성기네요.
(박수)
하지만 실제로 활용됐습니다.
이분은 사라 와이사키 선생님입니다.
다른 205명의 선생님과 함께
워싱턴 DC 학군에서 해직되셨죠.
교장이나 학생들 학부모로부터
높은 평가를 받았음에도
어쩔 수 없었어요.
여러분들, 특히 여기 데이터 과학자,
인공지능 과학자분들이

Hungarian: 
Amikor ugyanezzel a módszerrel meg akartam
szerezni a képletet, a forráskódot,
azt mondták, nem lehet.
Megtagadták.
Később megtudtam,
hogy senkinek sincs meg
a képlet New Yorkban.
Senki sem ismerte.
Aztán Gary Rubenstein, egy okos
ember, elkezdett vele foglalkozni.
A New York Post adataiban
talált 665 tanárt,
akiknek két különböző pontjuk volt.
Ez úgy lehet, ha a tanárok
hetedikes és nyolcadikas
matekot is tanítottak.
Úgy döntött, hogy ábrát készít.
Minden pötty egy tanárnak felel meg.
(Nevetés)
Mi ez?
(Nevetés)
Egyéni értékelés esetén
ilyen sohasem történt volna.
Majdhogynem egy véletlenszám-generátor.
(Taps)
Az is volt.
Ő Sarah Wysocki.
Kirúgták 205 tanártársával együtt
a washingtoni iskolakörzetből,
bár kitűnő véleménye
volt róla az igazgatójának,
a szülőknek és a gyerekeknek.
Tudom, a jelenlévők mire gondolnak,

Persian: 
وقتی من خواستم فرمول‌ها 
و کد را از همین طریق ببینم،
به من گفتند نمی‌توانم.
از این کار منع شدم.
بعداً فهمیدم
که هیچ‌کس در شهر نیویورک
به آن فرمول دسترسی نداشت.
هیچ‌کس آن را نمی‌فهمید.
بعداً یک فرد واقعاً باهوش
به نام «گری روبنشتاین» درگیر این موضوع شد.
او ۶۶۵ معلم که در داده‌های
نیویورک پست بودند را یافت
که هر یک، دو نمره داشتند.
اگر یک معلم در دو کلاس هفتم و هشتم
تدریس کند ممکن است این اتفاق رخ دهد.
او تصمیم گرفت این داده‌ها را ترسیم کند.
هر نقطه نشان‌دهنده‌ی یک معلم است.
(خنده‌ی حضار)
این چیست؟
(خنده‌ی حضار)
هرگز نباید برای ارزیابی افراد
مورد استفاده قرار می‌گرفت.
تقریباً یک تولیدکننده‌ی اعداد تصادفی است.
(تشوق حضار)
اما استفاده شد.
این سارا ویساکی است.
او به همراه ۲۰۵ معلم دیگر
از ناحیه‌ی مدارس واشنگتون دی‌سی اخراج شد.
علی‌رغم اینکه توصیه‌نامه‌های 
خیلی خوبی از طرف مدیر
و خانواده‌های شاگردانش داشت.
می‌دانم بسیاری از شما
چه فکر می‌کنید،

English: 
When I tried to get the formulas,
the source code, through the same means,
I was told I couldn't.
I was denied.
I later found out
that nobody in New York City
had access to that formula.
No one understood it.
Then someone really smart
got involved, Gary Rubinstein.
He found 665 teachers
from that New York Post data
that actually had two scores.
That could happen if they were teaching
seventh grade math and eighth grade math.
He decided to plot them.
Each dot represents a teacher.
(Laughter)
What is that?
(Laughter)
That should never have been used
for individual assessment.
It's almost a random number generator.
(Applause)
But it was.
This is Sarah Wysocki.
She got fired, along
with 205 other teachers,
from the Washington, DC school district,
even though she had great
recommendations from her principal
and the parents of her kids.
I know what a lot
of you guys are thinking,

Russian: 
Когда я сама попыталась получить формулы
и исходный код,
мне их не дали.
Мне отказали.
Позже я узнала,
что никто в Нью-Йорке
не имеет доступа к этой формуле.
Никто её не понимал.
Пока за дело не взялся кто-то 
умный — Гари Рубинштейн.
Он обнаружил, что 665 учителей
в базе данных Нью-Йорка
имели две оценки.
Это могло бы быть, если они преподают
математику в седьмом и восьмом классах.
Он решил создать график.
Каждая точка представляет собой учителя.
(Смех)
Что это?
(Смех)
Это нельзя было использовать
для индивидуального оценивания.
Это почти что генератор случайных чисел.
(Аплодисменты)
Однако так и было.
Это Сара Высоцки.
Её уволили вместе с 205 другими учителями
из школы в Вашингтоне округа Колумбия,
даже не смотря на отличные рекомендации
от директора её школы
и родителей учеников.
Я знаю, о чём думают многие из вас,

Swedish: 
När jag försökte få tag i formlerna, 
källkoden, på samma vis,
fick jag höra att det inte gick.
Jag nekades.
Senare upptäckte jag
att ingen i New York
hade tillgång till formeln.
Ingen förstod den.
Sedan blev någon som var riktigt smart
inblandad, Gary Rubenstein.
Han upptäckte att 665 lärare
i New York Posts reportage
egentligen hade två resultat.
Det kunde hända om de undervisade
både sjunde- och åttondeklassare
i matematik.
Han gjorde ett diagram.
Varje prick representerar en lärare.
(Skratt)
Vad är det här?
(Skratt)
Det här skulle aldrig ha använts
för individuella bedömningar.
Det är nästan som en slumpgenerator.
(Applåder)
Men det gjordes.
Detta är Sarah Wysocki.
Hon och 205 andra lärare fick sparken,
från Washington DCs skoldistrikt,
trots att hon hade strålande omdömen
från sin rektor och elevernas föräldrar.
Jag vet vad många av er tänker nu,

Chinese: 
當我試著透過同樣的手段
來找出方程式、原始碼，
我被告知我不可能辦到。
我被拒絕了。
我後來發現，
紐約市中沒有人能取得那方程式。
沒有人了解它。
有個很聰明的人介入：
蓋瑞魯賓斯坦。
他發現紐約郵報資料中
有 665 名老師
其實有兩個分數。
如果他們是在教七年級
及八年級數學，是有可能發生。
他決定把他們用圖畫出來。
每一個點代表一個老師。
（笑聲）
那是什麼？
（笑聲）
那絕對不該被用來做個人評估用。
它幾乎就是個隨機數產生器。
（掌聲）
但它的確被用了。
這是莎拉薇沙琪，
她和其他 205 名老師都被開除了，
都是在華盛頓特區的學區，
即使她有校長及
學童家長的強力推薦，
還是被開除了。
我很清楚你們在想什麼，

Arabic: 
عندما حاولتُ الحصول على الصيَغ
والشيفرة المصدرية عبر الوسائل نفسها،
قيل لي أنني لا أستطيع.
تمّ رفضي.
واكتشفتُ لاحقًا
بأنه لم يستطع أحد في مدينة (نيويورك)
الوصول إلى تلك الصيغة.
لم يفهمها أحد.
ثُم اهتم بالموضوع شخص ذكي حقًا،
يدعى (غاري روبنشتاين).
وجد أن 665 معلمًا من بيانات
صحفية (نيويورك بوست) تلك
لديهم في الحقيقة تقييمان.
ويمكن حدوث ذلك إن كانوا يدرّسون
مادة الرياضيات للصفين السابع والثامن.
قرّر تمثيلهم برسم بياني.
تمثلُ كل نقطة معلمًا.
(ضحك)
ما هذا؟
(ضحك)
لم يكن ينبغي استخدام ذلك
على الإطلاق للتقييم الفردي.
إنه تقريبًا مُولّد أرقام عشوائية.
(تصفيق)
ولكنه ما حدث.
هذه هي (سارة ويسوكي).
تمّ طردها من العمل 
-بالإضافة إلى 205 معلم آخر-
من قطاع مدارس العاصمة (واشنطن)،
مع أن لديها توصيات عظيمة من مديرتها
وأولياء أمور طلابها.
أعرفُ ما يفكرُ فيه الكثير منكم يا رفاق،

Portuguese: 
Quando tentei aceder às fórmulas,
ao código-fonte, através dos mesmos meios,
disseram-me que não podia fazê-lo.
Foi-me negado.
Mais tarde, descobri
que ninguém em Nova Iorque
teve acesso a essa fórmula.
Ninguém a percebia.
Então, envolveu-se um tipo
muito inteligente: Gary Rubenstein.
Ele descobriu 665 professores,
através dos dados publicados no jornal,
que tiveram dois resultados diferentes.
Podia acontecer
se estivessem a lecionar
matemática de sétimo
e matemática de oitavo ano.
Decidiu representá-los graficamente
em que cada ponto representa
um professor.
(Risos)
O que é isto?
(Risos)
Isto nunca poderia ter sido usado
para uma avaliação individual.
É como um gerador
de números aleatórios.
(Aplausos)
Mas foi utilizado.
Esta é Sarah Wysocki.
Foi despedida,
juntamente com 205 professores
de escolas do distrito de Washington, DC,
embora tivesse excelentes
recomendações do seu diretor
e dos pais dos seus alunos.
Sei o que muitos estão a pensar,

Italian: 
Quando ho chiesto le formule,
il codice sorgente,
attraverso gli stessi canali,
mi è stato detto
che non potevo averle.
Mi è stato negato.
Poi ho scoperto
che nessuno a New York
aveva accesso a quella formula.
Nessuno la capiva.
Poi qualcuno molto intelligente
è stato coinvolto, Gary Rubenstein.
Ha scoperto che 665 insegnanti
presenti nei dati del New York Post
in realtà avevano due punteggi.
Questo può accadere se insegnano
matematica in seconda e in terza media.
Decise di rappresentarli graficamente.
Ogni punto rappresenta un insegnante.
(Risate)
Cos'è questo?
(Risate)
Non avrebbero mai dovuto usarlo
per una valutazione individuale.
Sembra un generatore casuale di numeri.
(Applauso)
E lo era.
Lei è Sarah Wysocki.
È stata licenziata
con altri 205 insegnanti
dal distretto scolastico
di Washington DC,
nonostante le referenze
altamente positive da parte del preside
e da parte dei genitori dei suoi alunni.
So a cosa stanno pensando molti di voi,

Italian: 
soprattutto analisti, gli esperti
di Intelligenza Artificiale.
State pensando: "Io non farei mai
degli algoritmi così incoerenti".
Ma gli algoritmi possono sbagliare,
perfino causare effetti disastrosi
nonostante le buone intenzioni.
E mentre un aeroplano progettato male
precipita e può essere visto da tutti,
un algoritmo progettato male
può essere utilizzato per molto tempo
creando silenziosamente il caos.
Lui è Roger Ailes.
(Risate)
Ha fondato Fox News nel 1996.
Più di 20 donne lo hanno
accusato di molestie sessuali.
Hanno detto che a loro non era permesso
fare carriera a Fox News.
È stato cacciato l'anno scorso,
ma di recente abbiamo visto
che i problemi sono continuati.
Questo solleva la domanda:
cosa dovrebbe fare Fox News
per voltare veramente pagina?
E se sostituissero
il loro sistema di assunzione
con un algoritmo intelligente?
Sembra una buona idea, giusto?

Korean: 
무슨 생각들 하시는지 압니다.
이렇게 생각하시겠죠.
"음, 난 저런 일관성 없는
알고리즘은 절대 안 만들어."
하지만 알고리즘도 잘못될 수 있고
좋은 의도에도 심각히 파괴적인
결과로 이끌 수 있습니다.
설계가 잘못된 비행기는
땅으로 추락하고 그러면
모두가 알 수 있지만
설계가 잘못된 알고리즘은
오랜 시간에 걸쳐 조용히
우리를 파멸시킵니다.
이분은 로저 에일즈씨입니다.
(웃음)
1996년 폭스 뉴스를 세웠죠.
20명 이상의 여성들이
성희롱을 당했다고 했습니다.
그들에 따르면 여자들은 폭스 뉴스에서
성공할 수 없었다고 해요.
그는 작년에 쫓겨 났지만
우리는 최근에도
그 문제가 여전하다는 걸
접하고 있습니다.
여기서 의문이 떠오릅니다.
분위기를 쇄신하려면 폭스 뉴스는
뭘 해야 할까요?
음, 거기 고용 절차를
기계 학습 알고리즘으로 
바꾸면 어떨까요?
괜찮은 생각이죠? 안 그래요?

Spanish: 
especialmente los cientificos de 
datos, los expertos en IA
Pensarán "Nosotros nunca produciríamos
un algoritmo tan inconsistente."
Pero los algoritmos a veces fallan,
y tambien provocar mucha destrucción
sin querer.
Y mientras un avión mal diseñado
se estrella y todos lo ven,
un algoritmo mal diseñado
puede funcionar mucho tiempo
provocando un desastre silenciosamente.
Este es Roger Ailes.
(Risas)
Fundador de Fox News en el 1996.
Mas de 20 mujeres se quejaron de
acoso sexual.
Dijeron que no pudieron 
tener éxito en Fox News.
Lo echaron el año pasado,
pero hemos visto que hace poco
los problemas han continuado.
Esto plantea una pregunta:
¿Qué debe hacer Fox News para cambiar?
Y si substituyeran su mecanismo
de contratación
con un algoritmo de auto-
aprendizaje automatizado?
¿Suena bien?

Dutch: 
vooral de datawetenschappers,
de KI-experts hier:
zo'n onbetrouwbaar algoritme 
zou ik nooit maken.
Maar het kan fout gaan met algoritmes,
soms zelfs met desastreuze gevolgen, 
ondanks goede bedoelingen.
Maar als een slecht ontworpen vliegtuig
neerstort, dan ziet iedereen dat,
maar een slecht ontworpen algoritme
kan lange tijd 
ongemerkt schade aanrichten.
Dit is Roger Ailes.
(Gelach)
Hij richtte in 1996 Fox News op.
Meer dan 20 vrouwen klaagden 
over seksuele intimidatie.
Ze zeiden dat ze 
geen promotie kregen bij Fox News.
Hij is vorig jaar afgezet,
maar het blijkt nu
dat het probleem 
nog steeds niet is opgelost.
Dan rijst de vraag:
wat moet Fox News doen 
om dit te veranderen?
Wat als ze voortaan mensen zouden werven
met behulp van een zelflerend algoritme?
Klinkt goed, toch?

Hungarian: 
különösen az adattudósok
és az MI-szakértők.
Erre: "Én aztán soha nem csinálnék
olyan következetlen algoritmust!"
De az algoritmusok hibázhatnak,
és erős romboló hatásuk is
lehet jó szándékból adódóan.
Egy rosszul tervezett repülő
földre zuhan mindenki szeme láttára,
de egy rosszul tervezett algoritmus
sokáig működhet, csöndes rombolást okozva.
Ő Roger Ailes.
(Nevetés)
1996-ban ő alapította a Fox Newst.
Több mint 20 nő panaszkodott
szexuális zaklatás miatt.
Mondták, hogy nem számíthattak
sikerre a Fox Newsnál.
2016-ban Ailest kirúgták, de látható,
hogy a helyzet nem változik.
Adódik a kérdés:
Mit kell a Fox Newsnak tennie,
hogy a helyzet javuljon?
Mi lenne, ha felvételi rendszerüket
gépi tanulási algoritmusra cserélnék le?
Jól hangzik, ugye?

Russian: 
особенно специалисты ИТ, ИИ-эксперты.
Вы думаете: «Ну, я бы никогда не создал
такой непоследовательный алгоритм».
Но алгоритм может не сработать,
и даже благие намерения могут иметь
глубоко разрушительный эффект.
И в то время как самолёт
с ошибками в проекте
упадëт на землю, и все это увидят,
алгоритм с ошибками
может работать долгое время,
бесшумно давая волю хаосу.
Это Роджер Айлз.
(Смех)
Он основал Fox News в 1996 году.
Более 20 женщин жаловались
на сексуальные домогательства.
Они сказали, что им не дали возможности
преуспеть в Fox News.
Его сняли и в прошлом году, но понятно,
что проблемы так и остались нерешёнными.
Это вызывает вопрос:
что должны делать Fox News,
чтобы начать всё сначала?
Что, если бы они заменили процесс найма
машинным алгоритмом?
Неплохо, не так ли?

Portuguese: 
Muitos aqui devem estar pensando,
especialmente cientistas de dados,
os especialistas em IA:
"Eu nunca faria um algoritmo
inconsistente assim".
Mas os algoritmos podem dar errado,
mesmo os bem-intencionados podem ter
efeitos profundamente destrutivos.
E enquanto um avião mal projetado
cai, e todo mundo vê,
um algoritmo mal projetado
pode continuar a causar destruição
de forma silenciosa, por um longo tempo.
Este é Roger Ailes.
(Risos)
Ele fundou a Fox News em 1996.
Mais de 20 mulheres
reclamaram de assédio sexual.
Elas disseram que não lhes foi
permitido subir na Fox News.
Ele foi afastado ano passado,
mas vimos recentemente
que os problemas continuaram.
Uma pergunta se impõe aqui:
o que a Fox News deveria fazer
para virar essa página?
Que tal se eles substituírem
seu processo de contratação
por um algoritmo de aprendizado
de máquina? Parece boa ideia, né?

Romanian: 
mai ales experții în date
și inteligență artificială.
Vă ziceți: „N-aș face niciodată
un algoritm așa de inconsecvent.”
Dar algoritmii pot da greș,
pot avea chiar efecte profund distructive
în ciuda bunelor intenții.
Dar în timp ce un avion
care e prost conceput
se prăbușește și poate fi văzut de toți,
un algoritm prost conceput
poate să funcționeze mult timp
făcând ravagii pe ascuns.
El e Roger Ailes.
(Râsete)
A fondat Fox News în 1996.
Peste 20 de femei
s-au plâns de hărțuire sexuală.
Au zis că nu li s-a permis
să aibă succes la Fox News.
A fost demis anul trecut,
dar am văzut recent
că problemele au persistat.
Asta impune întrebarea:
ce ar trebui să facă Fox News
pentru a întoarce pagina?
Cum ar fi dacă ar înlocui
procesul de recrutare
cu algoritmi de învățare automatizată?
Sună bine, nu?

French: 
surtout les scientifiques de données,
vous vous dites que vous ne feriez jamais
un algorithme aussi incohérent.
Mais les algorithmes peuvent mal tourner,
voire avoir des effets destructeurs
avec de bonnes intentions.
Alors que quand un avion
mal conçu s'écrase,
tout le monde le voit,
un algorithme mal conçu, lui,
peut continuer longtemps 
à faire des ravages en silence.
Voici Roger Ailes.
(Rires)
Il a fondé Fox News en 1996.
Plus de 20 femmes se sont plaintes
de harcèlement sexuel,
elles ont dit ne pas avoir eu le droit
de réussir chez Fox News.
Il a été viré l'an dernier,
mais on a vu récemment
que ces problèmes persistent.
On peut se demander :
que devrait faire Fox News
pour tourner la page ?
Et s'ils remplaçaient leur procédure
de recrutement
par un algorithme ?
Ça a l'air bien, non ?

Bengali: 
যারা তথ্য বৈজ্ঞানিক এবং এ.আই বিশেষজ্ঞ|
আপনারা ভাবছেন,"আমরা কখনো এরকম অসঙ্গত 
অ্যালগরিদম তৈরী করবোনা|"
কিন্তু অ্যালগরিদমে ভুল হতে পারে,
এমনকি ভাল উদ্দেশ্যর সঙ্গে গভীরভাবে 
ধ্বংসাত্মক প্রভাব থাকতে পারে।
ঠিক যেভাবে খারাপ ভাবে নকশা করা
একটি বিমান যেমন মাটিতে ভেঙে পড়তে পারে,
একটি খারাপ ভাবে পরিকল্পিত অ্যালগরিদমও
দীর্ঘ সময় ধরে চলে, ক্ষয় করতে পারে|
ইনি রজার আইলেস |
(হাসি )
তিনি ১৯৯৬ সালে ফক্স নিউজ প্রতিষ্ঠা করেন।
২0 জনের বেশি মহিলা যৌন হয়রানি 
সম্পর্কে অভিযোগ করেছে।
তারা জানিয়েছে যে তাদের ফক্স নাউসে
সফলতা হাসিল করতে দেওয়া হয়নি|
গত বছর তিনি ক্ষমতাচ্যুত হন
কিন্তু আমরা দেখছি সমস্যাগুলি অব্যাহত।
তাই প্রশ্নটি ওঠে:
পাল্টানোর জন্য ফক্স নিউজের কি করণীয়?
কি হবে তারা যদি নিয়োগের
প্রক্রিয়াটি একটি মেশিন-লার্নিং
অ্যালগরিদম দিয়ে প্রতিস্থাপন করে?
তা শুনতে ভালো লাগে তাইনা?

Japanese: 
特にデータサイエンティストや
AIの専門家なら思うでしょう
「自分なら そんなデタラメな
アルゴリズムは作らない」って
でもアルゴリズムは誤ることもあれば
善意に基づいていても
破壊的な影響を及ぼすことだってあります
飛行機なら 設計がまずければ
墜落しますし
その様子が見えますが
アルゴリズムだと設計がまずくても
長期間に渡って 音もなく
大惨事をもたらし続けかねないんです
彼はロジャー・エイルズ
（笑）
1996年にFOXニュースを創設しました
20人以上の女性が
セクハラ被害を訴えました
またキャリアアップを
妨害されたそうです
彼自身は2016年に地位を追われましたが
最近のニュースにある通り
問題は依然残っています
ここで疑問が湧いてきます
再起をはかるために
FOXニュースは何をすべきか？
人材採用プロセスを
機械学習アルゴリズムに
替えるのはどうでしょう？
いいアイデアでしょう？

Turkish: 
ve veri bilimciler olmak üzere
ne düşündüğünüzü biliyorum.
Muhtemelen "Böyle tutarsız bir
algoritma oluşturmazdım" diyorsunuz.
Oysa algoritmalar hatalı kurulabilir
ve kötü niyetle oluşturulmasalar da
yıkıcı sonuçları olabilir.
Kötü tasarlanmış bir uçak
kaza yapar ve herkes hatayı görür,
oysa algoritma kötü tasarlandığında
zarar vermeye sessizce,
uzun süre devam edebilir.
Bu Roger Ailes.
(Kahkahalar)
Fox News kanalını 1996'da kurdu.
Kanalda 20'den fazla kadın 
taciz iddiasıyla şikayetçi oldu.
Haber kanalında başarıya ulaşmalarının
engellendiğini söylediler.
Görevi geçen sene sonlandırıldı
ama problemlerin devam ettiğini öğrendik.
Bu, şu soruyu akla getiriyor:
Fox News, temiz bir sayfa açmak
için ne yapmalı?
İşe alım süreçlerini 
makine öğrenmesine dayalı
bir algoritma ile değiştirseler ne olur?
Kulağa iyi geliyor, değil mi?

Chinese: 
尤其是这里的数据科学家，
人工智能专家。
你在想，“我可永远不会做出
这样前后矛盾的算法。”
但是算法可能会出错，
即使有良好的意图，
也会产生毁灭性的影响。
每个人都能看到一架设计的
很糟糕的飞机会坠毁在地，
而一个设计糟糕的算法
可以持续很长一段时间，
并无声地造成破坏。
这是罗杰·艾尔斯。
（笑声）
他在1996年创办了福克斯新闻。
公司有超过20多名女性曾抱怨过性骚扰。
她们说她们不被允许在
福克斯新闻有所成就。
他去年被赶下台，但我们最近看到
问题依然存在。
这引出了一个问题：
福克斯新闻应该做些什么改变？
如果他们用机器学习算法
取代传统的招聘流程呢？
听起来不错，对吧？

Arabic: 
خاصةً علماء البيانات وخبراء
الذكاء الاصطناعي هنا.
تفكّرون: "حسنًا، لم أكن لأنشئ
خوارزمية غير متجانسة كهذه".
ولكن يمكنُ للخوارزميات أن تفشل
وتسبّبَ آثارًا مدمّرة بشدّة 
حتى رغم النوايا حسنة.
وبينما الطائرة التي صُممت بطريقة سيئة
تتحطم على الأرض ويراها الجميع،
إلا أن الخوارزمية المصمّمة بطريقة سيئة
يمكنُ أن تبقى لوقت طويل 
تعيث فسادًا في صمت.
هذا هو (روجير إيلس).
(ضحك)
قام بتأسيس قناة (فوكس) الإخبارية عام 1996.
اشتكت أكثر من 20 امرأة من التحرش الجنسي.
قلن أن ذلك أثّر عليهن فلم يستطعن
النجاح في قناة (فوكس) الإخبارية.
تم طرده العام الماضي، لكن رأينا مؤخرًا
بأن المشاكل ما زالت مستمرة.
مما يطرحُ السؤال:
ما الذي ينبغي على قناة (فوكس) الإخبارية
عمله لتبدأ صفحة جديدة؟
ماذا لو استبدلوا عملية التوظيف لديهم
بخوارزمية "التعلّم الآلي"؟
يبدو هذا جيدًا، أليس كذلك؟

Serbian: 
posebno naučnici za podatke,
stručnjaci za veštačku inteligenciju.
Mislite: „Pa, nikada ne bismo napravili
tako nedosledan algoritam.“
Ali, algoritmi mogu pogrešiti,
čak imati i duboko destruktivno dejstvo
sa dobrom namerama.
Dok loše napravljen avion
padne na tlo i svi to vide,
loše osmišljen algoritam
može trajati dugo i potajno
i tiho praviti ogromnu štetu.
Ovo je Rodžer Ejls.
(Smeh)
Osnovao je Foks Njuz 1996. godine.
Preko 20 žena žalilo se
na seksualno uznemiravanje.
Rekle su da im u Foks Njuzu
nije dozvoljen uspeh.
Izbačen je prošle godine,
ali nedavno smo videli
da problemi još nisu rešeni.
To zahteva da se postavi pitanje
šta Foks Njuz treba da uradi
da okrene novi list.
Šta bi se desilo da proces zapošljavanja
zamene mašinskim algoritmom koji uči?
Zvuči dobro, zar ne?

Portuguese: 
sobretudo os cientistas de dados
especialistas em Inteligência Artificial.
Estão a pensar: "Eu nunca faria
um algoritmo tão inconsistente".
Mas os algoritmos podem correr mal,
chegando a ter efeitos profundamente
destrutivos, cheios de boas intenções.
Enquanto que um avião
que é mal arquitetado
se despenha e todos veem,
um algoritmo mal projetado
pode ser utilizado durante muito tempo,
causando estragos silenciosamente.
Este é Roger Ailes.
(Risos)
Fundou a Fox News em 1996.
Mais de 20 mulheres
queixaram-se de assédio sexual.
Diziam que, na Fox News,
não lhes era permitido terem sucesso.
Ailes foi despedido no ano passado,
mas, recentemente,
temos visto que os problemas persistem.
Isto leva-nos a perguntar:
O que é que a Fox News deveria fazer
para virar a página?
E se tivessem substituído
o seu processo de recrutamento
por um algoritmo
de aprendizagem automática?
Parece-vos bem, não é?

Ukrainian: 
зокрема фахівці з обробки даних
і штучного інтелекту.
Ви думаєте: "Ну, я б ніколи не створив 
алгоритм з такими протиріччями".
Але алгоритми можуть піти не за планом,
навіть мати надзвичайно нищівні наслідки,
незважаючи на добрі наміри.
В той час, як літак,
що був погано спроектований,
врізається у землю, і всі це бачать,
алгоритм, що був погано розроблений,
може довго функціонувати 
і тихенько завдавати шкоди.
Це - Роджер Ейлс.
(Сміх)
Він заснував Fox News у 1996 р.
Понад 20 жінок поскаржилися 
на сексуальні домагання.
Вони казали, що їм не дозволяли
досягати успіхів у Fox News.
Минулого року його вигнали,
але ми нещодавно побачили,
що проблеми все одно існують.
Виникає питання:
що повинна зробити Fox News,
щоб почати нову сторінку?
А якщо б вони замість свого процесу
найму працівників вживали
алгоритм машинного навчання?
Непогана ідея, правда?

Persian: 
خصوصاً دانشمندان داده،
و خبرگان هوش مصنوعی.
شما فکر می‌کنید، «من هرگز الگوریتمی
به این ناسازگاری نخواهم ساخت».
اما الگوریتم‌ها می‌توانند اشتباه کنند،
حتی آثار مخرب عمیقی داشته باشند،
در صورتی که نیت‌شان خیر بوده است.
برخلاف هواپیمایی
که بد طراحی شده است
و سقوط می‌کند و همه آن را می‌بینند،
الگوریتمی که بد طراحی شده باشد
ممکن است مدت زیادی
به صورت خاموش تخریب کند.
این راجر ایلز است.
(خنده‌ی حضار)
او در سال ۱۹۹۶ فاکس نیوز را تأسیس کرد.
بیش از ۲۰ زن از آزار جنسی
شکایت کردند.
آن‌ها می‌گفتند که اجازه موفقیت
در فاکس نیوز را ندارند.
او سال گذشته برکنار شد،
اما اخیراً دیده شده
که مشکلات باقی مانده‌اند.
این مسئله این سؤال را برمی‌انگیزد:
فاکس نیوز باید چه کند
تا بهبود یابد؟
خب، چطور است فرایند استخدم را
با یک الگوریتم یادگیری ماشین جایگزین کنیم؟
به نظر خوب می‌آید، نه؟

iw: 
במיוחד חוקרי הנתונים
ומומחי הבינה המלאכותית שכאן,
"אני אף פעם לא אכתוב אלגוריתם
כל-כך לא עיקבי."
אבל אלגוריתמים יכולים לטעות,
ואפילו לגרום לתוצאות הרסניות ביותר
מתוך כוונות טובות.
ובעוד שמטוס שתוכנן גרוע מתרסק
וכולם רואים זאת,
הרי כשאלגוריתם מעוצב גרוע,
הוא יכול לעבוד הרבה זמן
ולזרוע בשקט תוהו.
זהו רוג'ר איילס.
(צחוק)
הוא ייסד את "חדשות פוקס" ב-1996.
יותר מ-20 נשים התלוננו
על הטרדה מינית
ואמרו שהן לא הירשו להן
להצליח ב"חדשות פוקס".
הוא הודח בשנה שעברה, 
אך לאחרונה נודע לנו
שהבעיה נמשכת.
נשאלת השאלה:
מה צריכה רשת "חדשות פוקס"
לעשות כדי לפתוח דף חדש?
מה אם הם יחליפו את תהליך
ההעסקה שלהם
באלגוריתם של למידת-מכונה?
נשמע טוב, נכון?

Chinese: 
特別是這裡的資料科學家
及人工智慧專家。
你們在想：「我絕對不會寫出
那麼不一致的演算法。」
但演算法是可能出錯的，
即使出自好意
仍可能產生毀滅性的效應。
設計得很糟的飛機墜機，
每個人都會看到；
可是，設計很糟的演算法，
可以一直運作很長的時間，
靜靜地製造破壞或混亂。
這位是羅傑艾爾斯。
（笑聲）
他在 1996 年成立了 Fox News。
有超過二十位女性投訴性騷擾。
她們說，她們在 Fox News
不被允許成功。
他去年被攆走了，但我們看到近期
這個問題仍然存在。
這就帶來一個問題：
Fox News 該做什麼才能改過自新？
如果他們把僱用的流程換掉，
換成機器學習演算法呢？
聽起來很好，對嗎？

Thai: 
โดยเฉพาะเหล่านักวิทยาการข้อมูล
ที่เชี่ยวชาญ AI ในที่นี้
คุณคงคิดว่า "แหม ฉันคงไม่มีทาง
สร้างอัลกอริทึมที่ไม่แน่นอนอย่างนี้หรอก"
แต่อัลกอริทึม ก็สามารถผิดพลาดได้
และถึงขนาดส่งผลเสียหายอย่างขนานใหญ่
ทั้งๆ ที่มีเจตนาดีได้
นี่ไม่เหมือนกับการออกแบบเครื่องบินที่แย่
ซึ่งพอตกลงมา
ทุกคนจะมองเห็นได้
แต่อัลกอริทึมที่ออกแบบไม่ดี
อาจจะถูกใช้งานอยู่ได้เป็นเวลานาน 
สร้างหายนะอย่างเงียบๆ ไม่มีใครเห็นได้
นี่คือโรเจอร์ เอลส์
(เสียงหัวเราะ)
เขาก่อตั้งฟอกซ์นิวส์ในปี 1996
มีผู้หญิงกว่า 20 คนร้องเรียนเรื่อง
การคุกคามทางเพศ
พวกเธอกล่าวว่า พวกเธอไม่ได้รับโอกาส
ที่จะประสบความสำเร็จในฟอกซ์นิวส์
เขาออกจากตำแหน่งเมื่อปีที่แล้ว
แต่เราได้เห็นเร็วๆ นี้ว่า
ปัญหาเรื่องเพศ ยังคงมีอยู่
ซึ่งนั่นก่อให้เกิดคำถามว่า
ฟอกซ์นิวส์ควรจะทำอย่างไร
เพื่อจะเปลี่ยนไปในทางที่ดีขึ้น
แล้วถ้าหากว่าพวกเขาเปลี่ยน
กระบวนการว่าจ้าง
มาให้ใช้อัลกอริทึมที่
เรียนรู้ด้วยเครื่อง (Machine Learning) ละ
นั่นฟังดูดีใช่มั้ยละ

Swedish: 
särskilt dataanalytikerna,
AI-experterna här inne.
Ni tänker, "Jag skulle aldrig skriva
en sådan inkonsekvent algoritm."
Men algoritmer kan bli fel,
till och med ha djupt destruktiva effekter
även om intentionerna är goda.
Medan ett illa konstruerat flygplan
kraschar och alla kan se det,
kan en illa skriven algoritm
användas under lång tid,
och i tysthet skapa kaos.
Det här är Roger Ailes.
(Skratt)
Han grundade Fox News 1996.
Fler än tjugo kvinnor
anmälde sexuella trakasserier.
De menade att de inte tilläts
att lyckas på Fox News.
Han fick sparken förra året,
men nyligen såg vi
att problemen har fortsatt.
Det leder oss in på frågan:
Vad ska Fox News göra för att vända blad?
Tänk om de bytte ut
sin anställningsprocess
med en maskininlärningsalgoritm?
Det låter väl bra?

English: 
especially the data scientists,
the AI experts here.
You're thinking, "Well, I would never make
an algorithm that inconsistent."
But algorithms can go wrong,
even have deeply destructive effects
with good intentions.
And whereas an airplane
that's designed badly
crashes to the earth and everyone sees it,
an algorithm designed badly
can go on for a long time,
silently wreaking havoc.
This is Roger Ailes.
(Laughter)
He founded Fox News in 1996.
More than 20 women complained
about sexual harassment.
They said they weren't allowed
to succeed at Fox News.
He was ousted last year,
but we've seen recently
that the problems have persisted.
That begs the question:
What should Fox News do
to turn over another leaf?
Well, what if they replaced
their hiring process
with a machine-learning algorithm?
That sounds good, right?

Italian: 
Pensateci.
I dati, come sarebbero i dati?
Una scelta ragionevole potrebbe essere
gli ultimi 21 anni di domande
di assunzione a Fox News.
Ragionevole.
E come definire il successo?
Una scelta ragionevole sarebbe:
chi ha avuto successo a Fox News?
Ad esempio qualcuno che è stato lì,
diciamo, per quattro anni
ed è stato promosso
almeno una volta.
Sembra ragionevole.
E dopo l'algoritmo
dovrebbe essere preparato.
Sarebbe preparato a cercare le persone,
capire cosa conduce al successo,
che tipi di candidature hanno
storicamente portato al successo
secondo quella definizione.
Ora pensate a cosa succederebbe
se applicassimo questo
a un attuale campione di candidati.
Verrebbero escluse le donne
perché non rappresentano le persone
che hanno avuto successo in passato.
Gli algoritmi non rendono le cose giuste
se vengono applicati
allegramente e ciecamente.
Non rendono le cose giuste.

Turkish: 
Bir düşünün.
Veri ne olurdu?
Son 21 yılda kanala yapılan
iş başvuruları veri seçimi için
mantıklı olur.
Peki ya buradaki 'başarının tanımı' nedir?
Makul bir karar şöyle olurdu;
Fox News'da kim başarılı?
Diyelim ki 4 sene orada kalmış,
en az 1 kez terfi almış kişiler.
Kulağa mantıklı geliyor.
Sonra algoritma oluşturulurdu.
Kimlerin başarıya ulaştığını öğrenmek,
geçmişte ne tür başvuruların
başarıya ulaştığını görmek için
algoritma oluşturulurdu.
Mevcut iş başvurularının bulunduğu havuza
bu yöntem uygulansa ne olabilirdi,
düşünün.
Geçmişte başarılı olanlar gibi görünmeyen
kadınları filtreleyebilirdi.
Eğer sadece umarsızca
kör bir şekilde kullanırsanız
algoritmalar
süreçleri daha adil hale getirmez.

Serbian: 
Razmislite o tome.
Podaci. Šta bi bi bili podaci?
Ima smisla izabrati prijave za Foks Njuz
tokom poslednjih 21 godina.
Ima smisla.
A definicija uspeha?
Razuman izbor bio bi, valjda,
neko ko je uspešan u Foks Njuzu?
Recimo, osoba koja je tamo
bila četiri godine
i dobila unapređenje makar jednom.
Ima smisla.
Onda bismo osposobljavali algoritam.
Osposobili bismo ga da traži ljude,
da uči šta je vodilo ka uspehu,
kakve vrste prijava su vremenom
vodile ka uspehu
u skladu sa tom definicijom.
Razmislite sada šta bi se desilo
kada bismo to primenili
na trenutne kandidate.
Izbacilo bi žene
jer ne deluju kao osobe
koje su bile uspešne u prošlosti.
Algoritmi ne popravljaju stvari
ako ih samo nonšalantno
i slepo primenjujete.
Ne popravljaju stvari.

Thai: 
ลองคิดดูดีๆ นะคะ
ข้อมูลที่ใช้ ข้อมูลอะไรที่จะนำมาใช้
ตัวเลือกที่สมเหตุสมผลคือใบสมัครงาน
ของฟอกซ์นิวส์ใน 21 ปีที่ผ่านมา
สมเหตุสมผล
แล้วนิยามของความสำเร็จละ
ตัวเลือกที่ดูเหมาะสมก็คือ
คิดดูนะ ใครที่ประสบความสำเร็จ
ที่ฟอกซ์นิวส์
ฉันเดาว่า น่าจะเป็นใครสักคนที่อยู่
มาได้สัก 4 ปี
และได้เลื่อนตำแหน่ง
อย่างน้อยหนึ่งครั้ง
ฟังดูเข้าท่าดีใช่มั้ยล่ะ
และอัลกอริทึมก็จะถูกฝึกสอน
มันจะถูกสอนให้มองหาผู้สมัคร
มองหาลักษณะที่จะนำไปสู่ความสำเร็จ
ใบสมัครแบบไหน ที่จะประสบความสำเร็จ
จากในอดีตที่ผ่านมา
ตามนิยามความสำเร็จ
ลองคิดดูซิว่า จะเกิดอะไรขึ้น
ถ้าเราเอามาประยุกต์ใช้กับ
กลุ่มผู้สมัครในปัจจุบัน
มันจะคัดกรองเอาผู้หญิงออกไป
เพราะผู้หญิงดูไม่เหมือนกับ
คนที่จะประสบความสำเร็จในอดีต
อัลกอริทึมไม่ได้
ทำให้เกิดความยุติธรรมขึ้นนะคะ
ถ้าคุณแค่หลับหูหลับตา
เอาอัลกอริทึมมาใช้
มันไม่ทำให้เกิดความเป็นธรรม

Portuguese: 
Pensem bem.
Os dados, quais seriam os dados?
Uma escolha razoável seria os últimos
21 anos de contratação da Fox News.
Bem razoável.
E a definição de sucesso?
Seria uma escolha racional:
quem é bem-sucedido para a Fox News?
Digamos que seja alguém
que tenha ficado lá por quatro anos
e promovido pelo menos uma vez.
Parece razoável.
E então o algoritmo poderia ser treinado.
Seria treinado para procurar pessoas
para aprender o que leva ao sucesso,
que tipo de contratações
historicamente levaram ao sucesso
segundo aquela definição.
Agora pensem sobre o que aconteceria
se aplicado a um conjunto
atual de pedidos de emprego.
Ele filtraria as mulheres,
pois aparentemente elas não
tiveram sucesso no passado.
Os algoritmos não tornam as coisas justas
se forem aplicados
de forma cega e displicente.
Não tornam as coisas justas.

Chinese: 
想想看。
資料，資料會是什麼？
一個合理的選擇會是 Fox News 
過去 21 年間收到的申請。
很合理。
成功的定義呢？
合理的選擇會是，
在 Fox News 有誰是成功的？
我猜是在那邊待了四年、
且至少升遷過一次的人。
聽起來很合理。
接著，演算法就會被訓練。
它會被訓練來找人，
尋找什麼導致成功，
在過去怎樣的申請書會導致成功，
用剛剛的成功定義。
想想看會發生什麼事，
如果我們把它用到
目前的一堆申請書上。
它會把女性過濾掉，
因為在過去，女性
並不像是會成功的人。
如果只是漫不經心、
盲目地運用演算法，
它們並不會讓事情變公平。
演算法不會讓事情變公平。

Russian: 
Подумайте об этом.
Данные, какими будут данные?
Разумно было бы проанализировать 21 год
опыта приёма на работу в Fox News.
Разумно.
Как насчёт определения успеха?
Разумным было бы выбрать
тех, кто преуспевает в Fox News?
Я думаю, тех, кто скажем,
проработал там четыре года
и получил продвижение хотя бы один раз.
Звучит разумно.
А затем алгоритм
можно было бы натренировать.
Он мог бы искать людей,
которые способны достичь успеха,
узнать, какие из претендентов на должность
были успешными в прошлом.
По этому определению.
Подумайте о том, что произошло бы,
если применить эту формулу
ко всем претендентам.
Женщин можно сразу исключить,
потому что среди них немного тех,
кто достиг успеха в прошлом.
Алгоритмы не обеспечивают справедливости.
Если вы безропотно,
слепо применяете алгоритмы,
они не обеспечат честность.

Swedish: 
Fundera på det.
Data, vilken data skulle användas?
Ett rimligt val skulle vara
de senaste 21 årens ansökningar
till Fox News.
Det låter rimligt.
Hur skulle framgång definieras?
Ett rimligt val vore,
ja, vem är framgångsrik på Fox News?
Jag gissar på någon som,
låt säga, stannat där i fyra år
och befordrats minst en gång.
Det låter rimligt.
Därefter skulle algoritmen tränas.
Den skulle tränas i att hitta personer för
att lära sig vad som lett till framgång,
vilken typ av ansökningar
som historiskt lett till framgång
utifrån den definitionen.
Fundera nu på vad som skulle hända
om vi applicerade det här
på jobbsökare idag.
Den skulle välja bort kvinnor
för de liknar inte personer
som varit framgångsrika historiskt.
Algoritmer gör inte saker rättvisa
om man tillämpar dem tanklöst och blint.
De skapar inte rättvisa.

Hungarian: 
De gondoljunk bele!
Milyen adatok állnak rendelkezésre?
Az észszerű választás az utóbbi 21 évben
a Fox Newshoz beadott jelentkezési lapok.
Észszerű.
Mi van a siker meghatározásával?
Az észszerű válasz ez lenne:
aki sikeres volt a Fox Newsnál?
Mondjuk, aki négy évet ott töltött,
és legalább egyszer előléptették.
Észszerűnek hangzik.
Aztán idomítjuk az algoritmust arra,
hogy olyanokat keressen,
akik sikeresnek bizonyultak,
hogy megtudjuk, idővel
mely jelentkezők lettek sikeresek
meghatározásunk szerint.
De gondoljunk most arra, mi lenne,
ha ezt alkalmaznánk
a mostani jelentkezőkre,
és kiszűrnénk a nőket,
mert a nők nem voltak sikeresek a múltban?
Az algoritmusoktól a dolgok
nem válnak korrektté,
ha gondatlanul, vakon alkalmazzuk őket.
Tőlük semmi sem válik korrektté.

Bengali: 
এ বিষয় ভাবুন।
তথ্যটি কি হবে?
একটি যুক্তিসঙ্গত পছন্দ হল ফক্স নিউজের
সর্বশেষ ২১ বছরের অ্যাপ্লিকেশন।
যৌক্তিক।
এবং সাফল্যের বর্ণনাটি কি হবে?
একটি যৌক্তিক উত্তর হল,
ফক্স নিউজে কারা সফলতা লাভ করেছে?
ধরুন যে চার বছর কাজ করেছে এবং
অন্তত যার একবার পদোন্নতি হযেছে।
যৌক্তিক শোনাচ্ছে।
এবং তারপর অ্যালগরিদমটিকে শেখানো হবে।
এটা কীভাবে সাফল্যের দিকে পরিচালিত হবে 
তা জানতে লোকেদের সন্ধান করতে
প্রশিক্ষণ করা হবে, ঐতিহ্যগত ভাবে
কোন অ্যাপ্লিকেশন সাফল্যলাভ
করেছে সেই বর্ণনার দ্বারা।
এবার ভাবুন কি হবে
আমরা যদি এটা বর্তমানে একদল আবেদনকারীদের
উপর প্রয়োগ করি। তাহলে তা
নারীদের বাদ দিয়ে দেবে কারণ নারীরা
এক সময় সফল ছিলনা।
অন্ধের মতন অ্যালগরিদম প্রয়োগ
করলে তা যৌক্তিক হয়না
তা ন্যায্য হয়না।

Arabic: 
فكّروا في الأمر.
بالنسبة للبيانات، ماذا ستكون البيانات؟
ربما طلبات التوظيف في (فوكس) الإخبارية
خلال 21 سنة الأخيرة.
منطقي.
ماذا عن تعريف النجاح؟
سيكون الاختيار المعقول هو،
من هو الناجح
في قناة (فوكس) الإخبارية؟
لنقل أنه شخص بقي هناك لمدة أربع سنوات
وتم ترقيته مرة واحدة على الأقل.
يبدو الأمر معقولًا.
وبعد ذلك سيتم تدريب الخوارزمية.
سيتم تدريبها للبحث عن الأشخاص
لمعرفة ما الذي أدّى إلى النجاح،
ما نوع طلبات التوظيف
التي أدت تاريخيًا إلى النجاح
بناءً على التعريف السابق.
فكّروا الآن فيما سيحدث
لو طبّقنا ذلك على المجموعة الحالية
من طالبي التوظيف.
ستَستبعِد الخوارزمية النساء
لأنهن لا يشبهن الأشخاص
الذين نجحوا في الماضي.
لا تحقق الخوارزميات العدالة
إن طبّقتموها على نحو أعمى وبدون تفكير.
لا تجعل الأمور عادلة.

Dutch: 
Maar wat houdt dat in?
Welke data ga je gebruiken?
De sollicitaties van de afgelopen 
21 jaar zou redelijk zijn.
Redelijk.
En wanneer is het een succes?
Een redelijke keuze zou zijn:
wie is succesvol bij Fox News?
Iemand die er al vier jaar werkt
en minstens een keer 
promotie heeft gemaakt.
Klinkt redelijk.
En dan wordt het algoritme getraind.
Het leert zoeken naar mensen
om te weten wat tot succes leidt,
welke sollicitaties 
in het verleden succesvol waren
volgens die definitie.
Wat zou er gebeuren
als we dit zouden toepassen 
op de huidige kandidaten?
Het zou vrouwen eruit filteren,
want zo te zien waren zij 
niet succesvol in het verleden.
Algoritmes maken dingen niet eerlijker
als je ze klakkeloos toepast.
Ze maken het niet eerlijker.

Romanian: 
Gândiți-vă la asta.
Care ar fi datele?
O alegere rezonabilă ar fi cererile
de angajare din ultimii 21 de ani.
Rezonabilă.
Dar definiția succesului?
Alegerea rezonabilă ar fi...
păi, cine are succes la Fox News?
Presupun că cineva care, să zicem,
a lucrat acolo patru ani
și a fost promovat cel puțin o dată.
Sună rezonabil.
Apoi algoritmul ar fi instruit.
Va fi instruit să caute oameni,
ca să înțeleagă ce a condus la succes,
ce fel de cereri de angajare
au condus de-a lungul timpului la succes,
conform definiției.
Acum gândiți-vă ce s-ar întâmpla
dacă am aplica asta
unui grup actual de candidați.
Ar filtra femeile,
pentru că ele nu par genul
care să fi avut succes în trecut.
Algoritmii nu fac lucrurile echitabile,
dacă-i aplici fără griji și discernământ.
Nu fac lucrurile echitabile.

Ukrainian: 
Подумайте про це.
Дані, які в нас були б дані?
Резонно розглянути відгуки на вакансії
у Fox News за останній 21 рік.
Резонно.
А як ми визначимо успіх?
Резонно було б обрати,
ну, хто є успішним у Fox News?
Скажімо, та людина,
що пробула там чотири роки,
і яка хоч раз отримала підвищення.
Резонне визначення.
А потім ми б навчали алгоритм.
Його б навчали шукати людей, вивчати, 
що призвело до успіху,
якого роду відгуки про вакансії
призводили до успіху
за цим визначенням.
Подумайте, що сталося би 
по відношенню
до теперішнього 
банку даних про кандидатів.
Алгоритм відфільтрував би жінок,
бо вони не виглядають, як люди,
що були успішними у минулому.
Алгоритми не забезпечують справедливість,
якщо ви застосовуєте алгоритми
безтурботно і всліпу.
Це не гарантія справедливості.

Persian: 
به آن فکر کنید.
داده، داده‌ها چه خواهند بود؟
یک انتخاب منطقی سابقه‌ درخواست‌های استخدام
در ۲۱ سال گذشته‌ی فاکس نیوز است.
منطقی است.
تعریف موفقیت چطور؟
یک انتخاب منطقی این است که،
چه کسی در فاکس نیوز موفق است؟
به نظرم کسی که مثلاً،
چهار سال در آنجا مانده باشد
و حداقل یک بار ارتقاء گرفته باشد.
به نظرم منطقی است.
سپس الگوریتم را آموزش می‌دهیم.
الگوریتم آموزش داده می‌شود که بگردد
و بفهمد چه چیزی منجر به موفقیت شده است.
بر اساس این تعریف
که چه جور درخواست‌هایی در گذشته
منجر به موفقیت شده‌اند؟
حالا به این فکر کنید که اگر الگوریتم را
روی درخواست‌های فعلی اجرا کنیم
چه خواهد شد؟
زن‌ها حذف می‌شوند
چون شبیه افرادی که در گذشته 
موفق بوده‌اند به نظر نمی‌رسند.
الگوریتم‌ها چیزی را عادلانه نمی‌کنند
اگر آن‌ها را خوش‌بینانه
و کورکورانه به کار ببرید.
چیزی را عادلانه نمی‌کنند.

iw: 
חישבו על זה.
הנתונים, מה הם יהיו?
הגיוני שאלה יהיו נתוני 21 השנים האחרונות
של בקשות עבודה ב"חדשות פוקס".
הגיוני.
מה לגבי ההגדרה להצלחה?
בחירה הגיונית תהיה,
מי מצליח ב"חדשות פוקס"?
אולי מישהו שעובד שם
כבר 4 שנים,
וקיבל קידום לפחות פעם אחת.
נשמע הגיוני.
ואז האלגוריתם יעבור לימוד.
הוא ילמד לחפש אנשים
כדי ללמוד מה הוביל להצלחה,
אילו מועמדים הפכו לעובדים מוצלחים,
לפי ההגדרה הזו.
עכשיו חישבו מה יקרה
אם ניישם זאת למאגר מועמדים בהווה:
האלגוריתם יסנן החוצה נשים,
כי הן אינן דומות לאנשים שהצליחו בעבר.
האלגוריתמים אינם מתקנים את העולם
אם מיישמים אותם בשמחה ובעיוורון
הם לא מתקנים את העולם

Portuguese: 
Pensem nisso.
Que dados poderiam ser?
Uma escolha razoável seriam os currículos
recebidos nos últimos 21 anos.
Razoável.
E qual seria a definição de sucesso?
A escolha razoável seria...
Bem, quem tem sucesso na Fox News?
Eu diria alguém que lá trabalhou
durante quatro anos
e que foi promovido, pelo menos, uma vez.
Parece razoável.
E aí, o algoritmo seria treinado.
Seria treinado para procurar pessoas
e perceber o que levava ao sucesso,
que tipo de currículos
eram propícios a isso,
seguindo essa definição.
Pensem no que poderia acontecer
se o aplicássemos
ao conjunto atual de candidaturas.
Filtraria as mulheres,
porque não foram as pessoas
que tiveram sucesso no passado.
Os algoritmos não são justos,
se os aplicarmos
de ânimo leve e às cegas.
Eles não agem com justiça.

Chinese: 
想想看。
数据，这些数据到底是什么？
福克斯新闻在过去21年的申请函
是一个合理的选择。
很合理。
那么成功的定义呢？
合理的选择将是，
谁在福克斯新闻取得了成功？
我猜的是，比如在那里呆了四年，
至少得到过一次晋升的人。
听起来很合理。
然后这个算法将会被训练。
它会被训练去向人们
学习是什么造就了成功，
什么样的申请函在过去拥有
这种成功的定义。
现在想想如果我们把它
应用到目前的申请者中会发生什么。
它会过滤掉女性，
因为她们看起来不像
在过去取得成功的人。
算法不会让事情变得公平，
如果你只是轻率地，
盲目地应用算法。
它们不会让事情变得公平。

Japanese: 
検討してみましょう
まずデータには
何が使えるでしょう？
過去21年間に FOXニュースに送られた
履歴書がいいでしょう
妥当なデータです
では成功の基準は？
妥当な基準は…
どんな人がFOXニュースで
成功するんでしょう？
例えば ４年在職して
最低１回は昇進していれば
成功と言えそうです
妥当な基準です
それをアルゴリズムに学習させます
人々を探って
何が成功につながるか—
これまで どんな履歴書が
成功に繋がってきたのかを
この基準に従って学習させるのです
さて このアルゴリズムを
現在の就職希望者に
当てはめると どうなるでしょう？
まず女性は除外されるでしょう
過去に成功してきたようには
見えないからです
配慮もなく やみくもに
アルゴリズムを適用しても
物事は公平にはならないんです
アルゴリズムは公平を生みません

Spanish: 
Piénsenlo,
Los datos, ¿qué datos serían?
Una eleccion razonable serian las últimas
21 solicitudes recibidas por Fox News
Razonable.
Y ¿cuál sería la definición del éxito?
Algo razonable sería
preguntar, quién es exitoso en Fox News.
Me imagino que alguien que
hubiera estado alli unos 4 años
y subido de puesto por lo menosuna vez.
¿Suena razonable?
Y así se adiestraría el algoritmo.
Se adiestraría para buscar a gente 
que logra el éxito.
Y qué solicitudes antiguas 
llegaron al éxito
según esa definición.
Ahora piensen que ocurriría
si lo usáramos con los candidatos de hoy.
Filtraría a las mujeres
ya que no parecen ser personas que
hayan tenido éxito en el pasado.
Los algoritmos no son justos
si uno usa algoritmos a ciegas.
No son justos.

English: 
Think about it.
The data, what would the data be?
A reasonable choice would be the last
21 years of applications to Fox News.
Reasonable.
What about the definition of success?
Reasonable choice would be,
well, who is successful at Fox News?
I guess someone who, say,
stayed there for four years
and was promoted at least once.
Sounds reasonable.
And then the algorithm would be trained.
It would be trained to look for people
to learn what led to success,
what kind of applications
historically led to success
by that definition.
Now think about what would happen
if we applied that
to a current pool of applicants.
It would filter out women
because they do not look like people
who were successful in the past.
Algorithms don't make things fair
if you just blithely,
blindly apply algorithms.
They don't make things fair.

French: 
Pensez-y.
Les données,
quelles seraient les données ?
Un choix raisonnable serait les
candidatures des 21 dernières années.
Raisonnable.
Et la définition du succès ?
Le choix raisonnable serait,
mais qui a du succès chez Fox News ?
À mon avis, quelqu'un qui y est resté
au moins quatre ans,
qui a été promu au moins une fois.
Ça m'a l'air raisonnable.
Et puis l'algorithme serait mis au point.
Mis au point pour sonder les gens,
apprendre ce qui les a conduits au succès,
quels types de candidatures ont
historiquement mené au succès
par cette définition.
Pensez à ce qu'il pourrait se passer
si on appliquait cela
à un groupe actuel de candidats.
Le filtrage éliminerait les femmes
car elles ne ressemblent pas aux gens
qui ont eu du succès dans le passé.
Les algorithmes ne rendent pas
les choses équitables
si on les applique aveuglément,
avec négligence.
Ils n'instaurent pas l'équité.

Korean: 
생각해 보세요.
자료, 자료는 어떤 거면 될까요?
지난 21년간 팍스 뉴스 지원자의
자료면 합당하겠죠.
합리적입니다.
성공에 대한 정의는 어떨까요?
합리적인 선택이라면
음, 폭스 뉴스에서 성공한 사람
정도면 어때요?
제 생각에 예를 들어
4년 정도 근무하면서
적어도 한 번쯤 승진한 거면
될 듯한데.
그럴 듯합니다.
이제 알고리즘은 학습할 수 있습니다.
무엇이 성공의 원인인가를 학습해
이 정의에 따라
과거에 어떤 지원자가 성공했는지
찾아내도록 훈련한
알고리즘이 생기겠죠.
이제 그걸 지금의
지원자들에게 적용하면
어떤 일이 발생할지 생각해 봅시다.
여성은 배제될 겁니다.
과거에 성공한 경력이 
있을 것 같지 않기 때문이죠.
아무 생각 없이 맹목적으로 이용한다고
알고리즘으로 세상이
공평해지진 않습니다.
그걸로 세상이 공정해지진 않아요.

Italian: 
Ripetono le nostre prassi del passato,
i nostri modelli.
Automatizzano lo status quo.
Sarebbero straordinari
se vivessimo in un mondo perfetto,
ma non lo abbiamo.
Aggiungo che gran parte delle aziende
non ha cause legali imbarazzanti,
ma agli analisti di quelle aziende
viene detto di seguire i dati,
di focalizzarsi sull'accuratezza del dato.
Pensate a cosa significa.
Poiché tutti abbiamo pregiudizi, significa
che potrebbero codificare il sessismo
o qualsiasi altro tipo di intolleranza.
Conduco ricerche,
perché mi piacciono:
una società interamente segregata,
segregazione razziale,
tutte le città, tutti i quartieri,
dove si manda la polizia
solo nei quartieri periferici
a cercare il crimine.
I dati degli arresti sarebbero
intrisi di pregiudizi.
Cosa succederebbe se,
oltretutto, trovassimo gli analisti
e li pagassimo per prevedere
dove si verificherà il prossimo crimine?

Spanish: 
Repiten prácticas anteriores,
nuestros patrones.
Automatizan al status quo.
Sería genial en un mundo perfecto,
pero no lo tenemos.
Y aclaro que la mayoria de las empresas
no estan involucradas en litigios,
pero los cientificos de datos 
de esas empresas
emplean esos datos
para lograr la precisión.
Piensen qué significa esto.
Porque todos tenemos prejuicios,
y así podríamos codificar sexismo
u otro tipo de fanatismo.
Un experimento de pensamiento,
porque me gusta,
una sociedad totalmente segregada.
segregada racialmente, 
todas las ciudades y los barrios
y donde enviamos a la policia
solo a barrios minoritarios
para detectar delitos.
Los arrestos serían sesgados.
Y, además, elegimos a los
cientificos de datos
y pagamos por los datos para predecir
dónde ocurrirán los próximos delitos.

Russian: 
Они повторяют наш прошлый опыт,
наши шаблоны.
Они автоматизируют статус-кво.
Было бы здорово, если бы
у нас был идеальный мир,
но у нас его нет.
Кстати, большинство компаний
обошлись без судебных процессов,
но учёным в данных компаниях
велено следить за данными,
чтобы сосредоточиться на их точности.
Подумайте, что это значит.
Поскольку все мы не лишены предвзятости, 
данные могут кодифицировать сексизм
или другие формы дискриминации.
Вот мысленный эксперимент,
потому что мне они нравятся:
общество с полной сегрегацией —
расовое разделение во всех 
городах, всех районах.
Мы отправляем полицию только
в окрестности меньшинств
расследовать преступления.
Данные об аресте будут очень предвзятыми.
А что, если, мы нашли бы специалистов
и заплатили им за прогноз
места следующего преступления?

Japanese: 
過去の行為や行動パターンを
繰り返し
自動的に現状を維持するだけです
この世界が完璧なら
それでいいんでしょうが
そうではありません
さらに付け加えると ほとんどの企業は
みっともない裁判を抱えている訳ではありませんが
こういった企業にいる
データサイエンティストは
正確性に焦点を当て
データに従うよう指示されています
その意味を考えてみましょう
誰でもバイアスを持っているので
アルゴリズムに性差別や その他の偏見が
コード化されている可能性があります
思考実験をしてみましょう
私は思考実験が好きなので
人種を完全に隔離した
社会があるとします
どの街でも どの地域でも
人種は隔離され
犯罪を見つけるために
警察を送り込むのは
マイノリティーが住む地域だけです
すると逮捕者のデータは
かなり偏ったものになるでしょう
さらに データサイエンティストを
探してきて
報酬を払い 次の犯罪が起こる場所を
予測させたらどうなるでしょう？

Portuguese: 
Eles repetem nossas práticas
passadas, nossos padrões.
Eles automatizam o status quo.
Isso seria ótimo se tivéssemos
um mundo perfeito,
mas não temos.
E mais: a maioria das empresas
não inclui os litígios constrangedores,
mas os cientistas de dados dessas empresas
são orientados a seguirem os dados,
a terem rigor.
Pensem no que isso significa.
Como todos somos tendenciosos, significa
que poderiam estar codificando sexismo
ou qualquer outro tipo de intolerância.
Vamos fazer um exercício
intelectual, pois gosto deles:
uma sociedade inteiramente segregada,
racialmente segregada,
todas as cidades, todos os bairros,
e onde enviamos a polícia apenas
a bairros de minorias atrás de crimes.
Os dados sobre os presos
seriam muito tendenciosos.
E se, além disso, pegássemos
cientistas de dados
e pagássemos a eles para predizerem
onde vai ocorrer o próximo crime?

Hungarian: 
A múlt gyakorlatát ismétlik,
a mi sémáinkat,
Automatizálják a status quót.
Tökéletes világban ez nagyszerű is lenne,
de a világ nem olyan.
Hozzáteszem, hogy a legtöbb
cégnek nincsenek kínos perei,
de azoknál a cégeknél
az adattudósoknak azt mondják,
hogy tartsák magukat az adatokhoz,
a precizitás minden előtt.
Mit jelent ez?
Mivel mindannyian elfogultak vagyunk,
ezért esetleg szexizmust
vagy más fanatizmust kódolhatnak be.
Gondolatkísérlet.
Szeretem a gondolatkísérletet.
Teljesen szegregált társadalom,
rasszok szerint minden város,
minden környék szegregált,
és csak kisebbségi környékre
küldjük ki a rendőrséget
bűnüldözés céljából.
A letartóztatási adatok
igen torzak lesznek.
Mi lenne, ha adattudósokat kérnénk,
jelezzék előre, hol lesz
a következő bűntett.

Swedish: 
De repeterar det vi gjort tidigare,
våra mönster.
De automatiserar rådande läge.
Det skulle vara toppen
om världen vore perfekt,
men det är den inte.
Och jag kan tillägga att
de flesta företag inte har blivit stämda,
men dataanalytikerna i de här företagen
är ålagda att använda datan,
för att få tillförlitliga resultat.
Fundera på vad det betyder.
Eftersom vi alla har fördomar, betyder det
att de skulle kunna koda in sexism
eller något annat trångsynt.
Ett tankeexperiment,
eftersom jag gillar såna:
Tänk er ett helt segregerat samhälle -
rassegregerat, i alla städer,
i alla områden
och där vi bara skickar polisen
till minoritetsområdena
för brottsbekämpning.
Arresteringarna skulle vara
väldigt fördomsfulla.
Tänk om, till råga på allt,
vi fann dataanalytikerna
och betalade dem för att tala om
var nästa brott skulle ske?

Arabic: 
تعيدُ ممارساتنا الماضية،
وأنماط تصرّفاتنا.
وتدير الوضع الراهن آليًّا.
سيكون ذلك عظيمًا لو كان لدينا عالم مثالي،
ولكن ليس لدينا.
وسأضيفُ أن معظم الشركات ليس لديها
شكاوي قضائية محرجة،
ولكن علماء البيانات في هذه الشركات
يُطلب منهم تتبّع البيانات
للتركيز على الدقة.
فكّروا فيما يعنيه ذلك.
لأنه لدى جميعنا نزعة تحيّز،
فيمكن أن يقوموا بتقنين التمييز الجنسي
أو أي نوع آخر من التعصب الأعمى.
إليكم تجربة فكرية،
لأني أحبهم:
إن افترضنا وجود مجتمع
مفصول عنصريًا بالكامل،
كل بلداته وأحياؤه مفصولة على أساس عنصري
وحيث أننا نرسلُ الشرطة
لأحياء الأقليّات فقط
للبحث عن الجريمة،
فإن بيانات الاعتقال ستكون منحازة جدًا.
وعلاوة على ذلك، ماذا لو
وجدنا علماء البيانات
ودفعنا لهم للتنبؤ بمكان الجريمة التالية؟

Romanian: 
Ei repetă procedeele noastre din trecut,
tiparele noastre.
Automatizează status quo-ul.
Asta ar fi minunat
dacă am trăi într-o lume perfectă,
dar nu trăim.
Adaug că majoritatea companiilor
n-au procese de judecată jenante,
dar specialiștilor în date
din acele companii
li se spune să urmărească datele,
să se concentreze pe acuratețe.
Gândiți-vă ce înseamnă asta.
Pentru că toți avem prejudecăți,
înseamnă că ar putea codifica
discriminarea sexuală
sau orice alt fel de intoleranță.
Un experiment de gândire,
pentru că-mi plac:
o societate complet scindată,
divizată religios, toate orașele,
toate cartierele,
și în care trimitem poliția
doar în cartierele cu minorități
pentru a cerceta delicte.
Datele arestărilor
ar fi foarte părtinitoare.
Ce-ar fi dacă, în plus,
am găsi specialiștii în date
și i-am plăti ca să prezică
unde ar avea loc următoarea infracțiune?

Ukrainian: 
Вони повторюють наші минулі
методики роботи,
наші шаблони.
Вони автоматизують статус-кво.
Як було б добре, якщо б
ми жили в ідеальному світі,
але ми в ньому не живемо.
Додам, що більшість компаній не має
прикрих правових спорів,
але науковцям з даних у тих компаніях
кажуть слідкувати за даними,
концентруватися на точності.
Подумайте, що це означає.
Оскільки усі ми маємо упередження,
вони можуть кодувати сексизм
чи інший вид нетерпимості.
Інтелектуальний експеримент,
бо вони мені подобаються:
повністю сегреговане суспільство -
расова сегрегація в усіх містах,
усіх кварталах,
і поліцію посилають лиш до
кварталів, де проживає меншість,
щоб шукати там злочинців.
Дані про арешти були б дуже упередженими.
А якщо, окрім того, 
ми знайшли б науковців з даних
і платили б науковцям за передбачення,
де буде скоєно наступний злочин?

Chinese: 
它们只是重复我们过去的做法，
我们的规律。
它们使现状自动化。
如果我们有一个
完美的世界那就太好了，
但是我们没有。
我还要补充一点，
大多数公司都没有令人尴尬的诉讼，
但是这些公司的数据科学家
被告知要跟随数据，
关注它的准确性。
想想这意味着什么。
因为我们都有偏见，
这意味着他们可以编纂性别歧视
或者任何其他的偏见。
思维实验，
因为我喜欢它们：
一个完全隔离的社会——
种族隔离存在于所有的城镇，
所有的社区，
我们把警察只送到少数族裔的社区
去寻找犯罪。
逮捕数据将会是十分有偏见的。
除此之外，我们还会寻找数据科学家
并付钱给他们来预测
下一起犯罪会发生在哪里？

Dutch: 
Ze herhalen onze eerdere ervaringen,
onze patronen.
Ze automatiseren de status quo.
Dat werkt goed 
als de wereld perfect zou zijn,
maar dat is niet zo.
Ook hebben de meeste bedrijven 
geen pijnlijke rechtszaken lopen,
maar hun datawetenschappers
worden gedwongen de data te volgen,
met nadruk op nauwkeurigheid.
En wat betekent dat?
Want onze vooroordelen zorgen ervoor 
dat seksisme het systeem binnendringt,
net als andere vormen
van onverdraagzaamheid.
Even een gedachte-experiment,
want die zijn leuk:
een volledig gesegregeerde samenleving --
naar ras gescheiden, 
alle steden, alle wijken --
waar we de politie alleen
op wijken met minderheden afsturen
om criminaliteit op te sporen.
De arrestatiedata zouden 
sterk bevooroordeeld zijn.
Wat zou er gebeuren
als we datawetenschappers betaalden
om te voorspellen waar
de volgende misdaad zou plaatsvinden?

iw: 
אלא רק חוזרים על מה שעשינו בעבר,
על הדפוסים שלנו.
הם הופכים את המצב הקיים לאוטומטי.
היה נהדר אם היה לנו עולם מושלם,
אבל אין לנו.
ואני אוסיף שרוב החברות
לא מתמודדות עם תביעות מביכות,
אבל מומחי הנתונים בחברות אלה
מחוייבים לציית לנתונים,
להתמקד בדיוק.
חישבו מה זה אומר,
הרי לכולנו יש הטיות.
אולי הם מתכנתים לאפליה על רקע מין,
או כל סוג אחר של גזענות.
ניסוי מחשבתי,
כי אני אוהבת כאלה:
דמיינו חברה שלמה
שמופרדת לפי גזעים:
כל העיירות, כל השכונות,
ואת המשטרה שולחים לחפש פשיעה
רק בשכונות של מיעוטים.
נתוני המעצרים יהיו
מוטים בצורה מובהקת.
מה אם בנוסף,
מצאנו מומחה לנתונים
ושילמנו לו כדי שינבא
איפה יקרה הפשע הבא?

Serbian: 
Ponavljaju našu praksu iz prošlosti,
naše šablone.
Automatizuju status kvo.
Da živimo u savršenom
svetu to bi bilo sjajno,
ali ne živimo.
Dodaću da većina firmi
nema sramne parnice,
ali naučnicima za podatke
u tim kompanijama
rečeno je idu tragom podataka,
da paze na tačnost.
Razmislite šta to znači.
Pošto smo svi pristrasni, to znači
da će možda kodifikovati seksizam
ili drugu netrpeljivost.
Misaoni eksperiment,
jer ih volim:
jedno društvo, skroz podeljeno -
na osnovu rase, svi gradovi, sve opštine -
a policiju šaljemo
samo u delove gde živi manjina
u potrazi za kriminalom.
Podaci o hapšenjima
bili bi veoma pristrasni.
Šta ako bismo, povrh svega,
pronašli naučnike za podatke
i platili tim naučnicima
da predvide mesto sledećeg zločina?

Persian: 
آن‌ها تجربیات و الگوهای گذشته‌ی ما را
تکرار می‌کنند.
وضعیت موجود را خودکارسازی می‌کنند.
اگر دنیای ما بی‌نقص بود،
این عالی بود،
اما این‌طور نیست.
و اضافه می‌کنم که اکثر شرکت‌ها
دادخواست‌های شرم‌آوری ندارند،
اما به دانشمندان داده در این شرکت‌ها
گفته می‌شود که داده‌ها را دنبال کنند،
و روی دقت تمرکز کنند.
به این فکر کنید که این به چه معنی است.
چون ما همه تعصباتی داریم،
یعنی ممکن است تبعیض جنسی
یا هر نوع تعصب دیگر را به کد تبدیل کنیم.
یک آزمایش فکری،
چون آن را دوست دارم:
یک جامعه کاملاً تفکیک‌شده --
تفکیک‌شده‌ی نژادی، در تمام شهرها،
تمام محله‌ها
و پلیس‌ها را برای تشخیص جرم
فقط به محله‌ی اقلیت‌ها می‌فرستیم.
داده‌های دستگیری‌ها 
خیلی تبعیض‌آمیز خواهد بود.
چه خوا هد شد اگر علاوه بر این، 
تعدادی دانشمند داده‌ بیابیم
و به آن‌ها پول بدهیم تا محل وقوع
جرایم بعدی را پیش‌بینی کنند؟

Turkish: 
Geçmişteki uygulamalarımızı,
kalıplarımızı tekrarlar durur.
Otomatikmen kalıcı hale gelir.
Mükemmel bir dünyada yaşasaydık
bu iyi olurdu
fakat dünya mükemmel değil.
Şunu da söyleyeyim, pek çok şirketin
yüz kızartıcı davası yoktur
fakat veriyi takip etmeleri
ve veriye odaklanmaları söylenen
veri bilimcileri vardır.
Bunun ne anlama geldiğini düşünün.
Çünkü hepimizin ön yargıları var,
ki bu cinsiyetçiliği veya başka bir
ayrımcılığın kodlanabileceği
anlamına gelebilir.
Düşünce deneyi yapalım
çünkü bunu seviyorum:
Tüm şehirler ve mahallelerinin
ırk bakımından
ötekileştirildiği bir toplumda
polisler suç aramak için
sadece azınlık mahallelerine gidiyor.
Yakalamalar epey taraflı olurdu.
Bu sürecin yönetiminde
gelecek suçların nerede olacağını öngören
ve maaş ödenen 
veri bilimcileri olsa ne olurdu?

Korean: 
단지 과거의 관행과 우리 
행동의 유형을 따라할 뿐입니다.
현상태를 자동화하는 거죠.
우리의 현재가 완벽하다면
훌륭한 알고리즘이겠지만
현실은 완벽하지 않습니다.
그리고 여기에 대부분의 기업이
난처한 소송에 휘말리진 않아도
그런 기업의 데이터 과학자들은
그 데이터에 따라 일하도록
정확성에 집중하도록
요구받고 있습니다.
무슨 뜻일지 생각해 보세요.
우리는 모두 편견이 있기 때문에
성차별이나 다른 어떤 편견을
코드에 넣을 수 있습니다.
사고 실험 해봅시다.
제가 좋아하니까
완벽하게 분리된 사회
인종으로도 분리되고, 각 도시도
이웃도 분리되고
사회적 약자의 거주지역에만
경찰을 보내 범죄를 조사한다고 해보죠.
그 검거율 자료는
아주 편향되었을 겁니다.
거기에, 만약 데이터 과학자들과
고용된 데이터 분석가들에게
다음 번엔 어디서 범죄가 생길지
예측하게 한다면 어떻게 될까요?

Chinese: 
它們會重覆我們過去的做法，
我們的模式。
它們會把現狀給自動化。
如果我們有個完美的
世界，那就很好了，
但世界不完美。
我還要補充，大部份公司
沒有難堪的訴訟，
但在那些公司中的資料科學家
被告知要遵從資料，
著重正確率。
想想那意味著什麼。
因為我們都有偏見，那就意味著，
他們可能會把性別偏見
或其他偏執給寫到程式中，
來做個思想實驗，
因為我喜歡思想實驗：
一個完全種族隔離的社會，
所有的城鎮、所有的街坊
都做了種族隔離，
我們只會針對少數種族
住的街坊派出警力
來尋找犯罪。
逮捕的資料會非常偏頗。
如果再加上，我們
找到了資料科學家，
付錢給他們，要他們預測下次
犯罪會發生在哪裡，會如何？

Portuguese: 
Eles repetem o que fizemos no passado,
os nossos padrões.
Eles automatizam o "status quo".
Isso seria incrível
se o mundo fosse perfeito.
Mas não é.
E digo-vos mais: a maioria das empresas
não têm processos legais em curso,
mas essas empresas dizem
aos seus cientistas de dados
para seguirem os dados,
para se focarem na precisão.
Pensem no que isso significa.
Como todos temos preconceitos,
eles podiam codificar o sexismo
ou qualquer outro tipo de sectarismo.
Um exercício intelectual,
porque gosto de fazer isso:
uma sociedade inteiramente segregada
— todas as cidades, os bairros,
tudo segregado racialmente —
e onde só enviamos a polícia
a bairros minoritários
para combater o crime.
Os dados sobre os detidos
seriam tendenciosos.
E se tivéssemos cientistas de dados
para esta situação
e lhes pagássemos para preverem
onde iria ocorrer o crime seguinte?

French: 
Ils reproduisent nos pratiques du passé,
nos habitudes.
Ils automatisent le statu quo.
Cela aurait été bien 
si nous avions un monde parfait,
mais ce n'est pas le cas.
De plus, la plupart des sociétés ne
font pas l'objet de poursuites honteuses
mais les scientifiques de données 
dans ces sociétés
sont invités à suivre les données,
à se concentrer sur la précision.
Imaginez ce que ça veut dire :
parce que nous avons tous un parti pris,
cela veut dire qu'ils pourraient coder
des idées sexistes, entre autres.
Petit exercice de réflexion
parce que j'aime en faire :
une société entièrement en proie
à la ségrégation --
à la ségrégation raciale, dans toutes 
les villes, tous les voisinages
et où la police va seulement
dans les quartiers de minorité
à la recherche de crimes.
Les données policières seraient
complètement biaisées.
Et si, en plus, on trouvait
des experts en données
et qu'on les payait pour qu'ils nous
prédisent le lieu du prochain crime ?

Thai: 
มันแค่ทำซ้ำสิ่งที่เคยปฏิบัติมาในอดีต
รูปแบบของเรา
มันแค่ทำสถานะปัจจุบันให้เป็นอัตโนมัติ
ซึ่งมันคงจะเป็นเรื่องเยี่ยม
ถ้าเราอยู่ในโลกที่สมบูรณ์แบบ
แต่เราไม่ได้อยู่
และฉันจะเพิ่มเติมอีกว่า
ถึงบริษัทส่วนใหญ่จะไม่ได้มีคดีอื้อฉาว
แต่เหล่านักวิทยาการข้อมูลในบริษัทเหล่านั้น
ได้รับคำสั่งให้ถือข้อมูลเป็นหลัก
ให้เน้นไปที่ความถูกต้องแม่นยำ
ลองคิดดูว่า 
นั่นหมายความว่าอย่างไร
เนื่องจากเราต่างก็มีอคติ
มันหมายความว่า เรากำลังสร้างการเหยียดเพศ
หรือความอคติดื้อรั้นบางอย่างลงในระบบ
มาทดลองด้านความคิดกันหน่อย
เพราะฉันชอบทำ
สังคมแห่งหนึ่งที่มีความแบ่งแยกอย่างสมบูรณ์
แบ่งแยกกันด้านเชื้อชาติ ในทุกเมือง
ทุกชุมชน
และเราส่งตำรวจไปแค่ที่ชุมชน
ของคนกลุ่มเสียงข้างน้อยเท่านั้น
เพื่อตรวจหาอาชญากรรม
ข้อมูลการจับกุมก็จะมีความลำเอียงเป็นอย่างมาก
นอกจากนั้นแล้ว 
ถ้าเราหานักวิทยาการข้อมูลและจ้าง
ให้พวกเขาเหล่านั้น ทำนายว่า
อาชญากรรมครั้งต่อไปจะเกิดที่ไหน

Bengali: 
তা আমাদের অতীতের ব্যবহারগুলো,
পুনরায় অনুসরণ করে।
তারা স্থিতাবস্তায় স্বয়ংক্রিয় পদ্ধতি
প্রয়োগ করে। যদি পৃথিবীতে সবাই নিখুঁত
হত তাহলে তা
ঠিক ছিল,কিন্তু তা নয়।
এবং বেশিরভাগ সংস্থায় লজ্জাজনক
কোন মামলা হয় না,
তবে সেখানকার তথ্য বিজ্ঞানীদের 
তথ্যগুলি অনুসরণ
করতে বলা হয়,
সঠিকতায় গুরুত্ব দিতে বলা হয়।
ভাবুন তার মানে কি।
যেহেতু আমাদের সকলের মধ্যে পক্ষপাতিত্ব
রয়েছে,এর মানে তা কোন রকমের প্রাধান্য
বা ধর্মানুশাসনকে শ্রেণীবদ্ধ করে।
চিন্তাশীল পরীক্ষা নিরীক্ষা,
কারণ আমার তা ভাল লাগে:
একটি সম্পূর্ণ পৃথকীকৃত সমাজ --
জাতিগতভাবে পৃথকিত, সমস্ত শহর, সমস্ত এলাকা
এবং যেখানে আমরা পুলিশকে সংখ্যালঘু 
প্রতিবেশীদের
অপরাধের খোঁজে পাঠাই।
তা ছাড়া,আমরা যদি তথ্য বৈজ্ঞানিদের 
খুঁজে বার করে
তাদের টাকা দিয়ে ভবিষ্যতে কোন জায়গায়
অপরাধ ঘটবে তা জানার জন্য তাহলে কি হবে?

English: 
They repeat our past practices,
our patterns.
They automate the status quo.
That would be great
if we had a perfect world,
but we don't.
And I'll add that most companies
don't have embarrassing lawsuits,
but the data scientists in those companies
are told to follow the data,
to focus on accuracy.
Think about what that means.
Because we all have bias,
it means they could be codifying sexism
or any other kind of bigotry.
Thought experiment,
because I like them:
an entirely segregated society --
racially segregated, all towns,
all neighborhoods
and where we send the police
only to the minority neighborhoods
to look for crime.
The arrest data would be very biased.
What if, on top of that,
we found the data scientists
and paid the data scientists to predict
where the next crime would occur?

Serbian: 
Opštine sa manjinama.
Ili da predvide
ko će sledeći biti kriminalac?
Neko iz manjine.
Naučnici bi se hvalisali
svojim sjajnim i tačnim modelom,
i bili bi u pravu.
Realnost nije tako drastična,
ali postoje ozbiljne podele
u mnogim malim i velikom gradovima,
i imamo mnoštvo dokaza
o pristrasnim podacima
u sistemu policije i pravosuđa.
Mi zapravo predviđamo krizna mesta,
mesta gde će se desiti nasilje.
I predviđamo, zapravo,
pojedinačni kriminalitet,
kriminalitet pojedinaca.
Novinska organizacija Propablika
nedavno je proverila
jedan „algoritam ugrožen recidivizmom“
kako ih zovu,
koje sudije koriste
u presudama na Floridi.
Bernard, levo, crnac,
dobio je 10 od 10 poena.
Dilan, desno, 3 od 10.
Deset od deset, visok rizik.
Tri od deset, nizak rizik.

iw: 
שכונת מיעוטים.
או כדי שינבא
מי יהיה הפושע הבא?
בן מיעוטים.
מומחי הנתונים יתפארו
כמה נהדר ומדוייק המודל שלהם.
והם יצדקו.
המציאות לא כל כך דרסטית,
אבל יש לנו באמת הפרדה חמורה
בערים ועיירות רבות,
ויש לנו שפע ראיות
להטיות בנתונים המשטרתיים מוטים
ובמערכת המשפט.
ואנחנו אכן חוזים נקודות סיכון,
מקומות בהם יקרו פשעים.
ואנחנו גם מנבאים את מידת
הנטיה האישית לפשוע.
את נטייתם של אנשים מסויימים לפשוע.
סוכנות החדשות "פרופבליקה" בחנה לאחרונה
אחד אותם אלגוריתמים
ל"ניבוי הישנות פשיעה"
כמו שקוראים להם.
בפלורידה משתמשים בהם
שופטים בזמן חריצת גזר הדין.
ברנרד, משמאל, הגבר השחור
קיבל 10 נקודות מתך 10.
דילן, מימין - 3 מתוך 10.
10 מתוך 10 - סיכון גבוה.
3 מתוך 10 - סיכון נמוך.

Swedish: 
I minoritetsområdena.
Eller förutspå vem nästa brottsling är?
Någon från en minoritet.
Dataanalytikerna skulle skryta om
hur bra och tillförlitlig
deras modell skulle vara,
och de skulle ha rätt.
Nu är verkligheten inte så drastisk,
men vi har allvarlig segregation
i många städer och områden,
och vi har gott om bevis
om fördomsfullt polisarbete
och skev straffrättslig data.
Vi förutspår faktiskt hotspots,
platser där brott kan ske.
Faktum är, att vi förutspår
individers kriminalitet,
individers brottsbenägenhet.
Nyhetsorganisationen ProPublica
undersökte för en tid sedan
en av algoritmerna för "återfallsrisk",
som de kallas,
och som används i Florida
när domar ska avkunnas.
Bernard, mannen till vänster,
fick 10 poäng av 10 möjliga.
Dylan, till höger, 3 poäng av 10 möjliga.
10 av 10, hög risk.
3 av 10, låg risk.

Portuguese: 
Num bairro minoritário.
Ou para preverem quem seria
o criminoso seguinte?
Alguém da minoria.
Os cientistas de dados iriam vangloriar-se
da eficiência e precisão do seu modelo
e teriam razão.
A realidade não é tão drástica,
mas temos segregações graves
em várias cidades e vilas,
e existem inúmeras provas
de que os dados do sistema de justiça
são tendenciosos.
E nós prevemos lugares críticos,
locais onde irão ocorrer crimes.
E prevemos a criminalidade individual,
a criminalidade de indivíduos.
A agência de notícias ProPublica
analisou recentemente
um algoritmo de "risco de reincidência",
como lhe chamam,
que os júris usam na Flórida,
durante os julgamentos.
À esquerda, temos Bernard, de cor negra,
que teve uma pontuação de 10 em 10.
Dylan, à direita,
teve uma pontuação de 3 em 10.
10 em 10 é risco elevado. 
3 em 10 é risco reduzido.

Arabic: 
سيقولون أحد أحياء الأقليات.
أو للتنبؤ بالمجرم التالي؟
أيضًا من الأقليات.
سيتباهى علماء البيانات كم أن نموذجهم
سيكون رائعًا ودقيقًا،
وسيكونون محقّين بالفعل.
الآن، ليست الحقيقة بذلك التطرف،
ولكن لدينا تمييز وفصل شديد
في عدة مدن وبلدات
ولدينا الكثير من البراهين
من بيانات رجال الشرطة المتحيزة،
وبيانات نظام العدالة.
ونستطيع في الواقع التنبؤ بمواقع ساخنة،
وأماكن حيث ستحدث الجرائم.
ونستطيع التنبؤ، في الواقع،
بالجريمة الفردية،
جرائم الأفراد.
بحثت المنظمة الإخبارية (بروبليكا) مؤخرًا
أحد تلك الخوارزميات،
"خطر التعرض للانتكاس"
كما يطلق عليهم،
تم استخدامها في ولاية (فلوريدا)
أثناء إعلان الحُكم من قبل القضاة.
تم تصنيف (بيرنارد)، على اليسار،
الرجل الأسود، 10/10.
و(ديلان)، على اليمين، 3/10.
10 من 10، الخطر الأكبر،
و3 من 10، الخطر المنخفض.

Thai: 
ชุมชนของคนกลุ่มน้อย
หรือเพื่อทำนายว่า อาชญากรคนต่อไปจะเป็นใคร?
คนกลุ่มน้อย
นักวิทยาการข้อมูลก็คงจะอวดโอ่
ได้ว่าโมเดลของพวกเขานั้น
ยอดเยี่ยมและแม่นยำเพียงใด
และพวกเขาก็คงจะเป็นฝ่ายถูก
ในความเป็นจริงแล้ว มันคงไม่สุดขั้วขนาดนั้น
แต่เราก็มีปัญหาการแบ่งแยกที่รุนแรง
ในหลายๆ เมืองทั้งเล็กและใหญ่
และเรายังมีหลักฐานอีกมากมาย
ของข้อมูลเกี่ยวกับ
กระบวนการยุติธรรมที่มีอคติ
และเราก็มีการพยากรณ์จุดเสี่ยงจริงๆ
คือตำแหน่งที่จะเกิดอาชญากรรมขึ้น
และเราก็มีการพยากรณ์การเกิด
อาชญากรรมจริงๆ
การเกิดอาชญากรรมของแต่ละบุคคล
องค์กรสื่อที่เรียกว่า โปรพับลิก้า 
ได้ทำการศึกษาเมื่อเร็วๆ นี้
เกี่ยวกับอัลกอริทึม ที่เรียกกันว่า
"ความเสี่ยงที่จะทำผิดซ้ำซาก"
ที่ถูกใช้ในรัฐฟลอริด้า
ในระหว่างกระบวนการตัดสินของศาล
เบอร์นาร์ด ชายผิวดำ ทางด้านซ้าย
ได้คะแนน 10 เต็ม 10
ส่วนดีแลน ทางด้านขวา
ได้ 3 เต็ม 10
10 เต็ม 10 ความเสี่ยงสูง
3 เต็ม 10 ความเสี่ยงต่ำ

Portuguese: 
Bairros de minorias.
Ou predizer quem será o próximo criminoso?
Alguém das minorias.
Os cientistas de dados se gabariam
da excelência e da precisão de seu modelo,
e estariam certos.
Bem, a realidade não é drástica assim,
mas temos graves segregações
em muitas cidades e vilas,
e muitas evidências
de dados policiais
e judiciários tendenciosos.
Na verdade, predizemos focos de crise,
lugares onde crimes podem ocorrer.
E predizemos, de fato,
a criminalidade individual,
a criminalidade dos indivíduos.
A organização de notícias ProPublica
recentemente estudou
um desses algoritmos,
chamados de "risco de recidiva",
que têm sido usados por juízes
na Flórida para proferirem sentenças.
Bernard, à esquerda,
o homem negro, atingiu dez em dez.
Dylan, à direita, três em dez.

Bengali: 
সংখ্যালঘুদের পরিবেশে।
বা এটা জানতে পরের অপরাধীটি কে হবে?
একজন সংখ্যালঘু ব্যাক্তি।
তথ্য বিজ্ঞানীরা তাদের মডেলের সঠিকতার
সম্পর্কে প্রশংসা করবে,
এবং তারা সঠিক।
কিন্তু,বাস্তবতটা অতটা তীব্র নয় কিন্তু,
অনেক শহরে পৃথকীকরণ বিরাজমান
এবং আমাদের কাছে প্রমান আছে সেই
পক্ষপাতমূলক বিষয় এবং
আমরা সে সব হটস্পটগুলির উপস্থিতি আন্দাজ করি
যেখানে পরের অপরাধটি ঘটবে।
এবং আমরা পূর্বাভাস করি এক একটি অপরাধ,
ব্যক্তিদের অপরাধ।
সংবাদ সংস্থা প্রোপাবলিকা সম্প্রতি একটি
"অপরাধপ্রবণতা ঝুঁকি" অ্যালগোরিদমের দিকে
তাকিয়ে দেখেছে, যা
ফ্লোরিডায় ব্যাবহার করা হয় বিচারকদের দ্বারা
শাস্তি প্রদানের সময়।
বার্নার্ড,বাঁদিকের কালো মানুষটিকে ১০
এ ১০ নম্বর দেওয়া হয়।
ডাইলান, ডান দিকে,পায় ১০ এ ৩।
১০ এ ১০,অর্থাৎ উচ্চ ঝুঁকি।
১০ এ ৩,অর্থাৎ নিম্ন ঝুঁকি।

Spanish: 
El barrio de una minoría.
O a predecir quien será 
el próximo criminal.
Una minoría.
Los cientificos de datos se jactarían
de su grandeza y de la precisión
de su modelo,
y tendrían razón.
La realidad no es tan drástica,
pero tenemos grandes segregaciones
en muchas ciudades
y tenemos muchas pruebas
de datos políticos y 
legislativos sesgados.
Y podemos predecir puntos calientes,
lugares donde podrá ocurrir un delito
Y así predecir un crimen individual
y la criminalidad de los individuos.
El organismo de noticias ProPublica 
lo estudió hace poco.
un algoritmo de "riesgo recidivista"
según los llaman
usado en Florida
al hacer sentencias judiciales.
Bernardo, a la izquierda, un hombre negro
sacó una puntuación de 10 de 10.
Dylan, a la derecha, 3 de 10.
10 de 10, alto riesgo
3 de 10, bajo riesgo.

French: 
Le quartier des minorités.
Ou encore qu'ils prédisent qui serait
le prochain criminel ?
Un membre d'une minorité.
Les experts en données se vanteraient
de l'excellence et de l'exactitude
de leur modèle,
et ils auraient raison.
Bien sûr, la réalité n'est pas comme ça,
mais la ségrégation existe tout de même
dans beaucoup d'endroits,
et nous avons assez de preuves
que les données policières et judiciaires
sont biaisées.
Et nous prédisons vraiment
les zones sensibles,
là où les crimes seront commis,
et nous prédisons aussi, en fait, 
les infractions individuelles,
commises par un seul individu.
L'agence de presse « ProPublica »
s'est récemment penchée
sur l'un de ces algorithmes
de « risque de récidive »,
comme on les appelle,
utilisé par les juges en Floride 
pendant la détermination de la peine.
Bernard, à gauche, l'homme noir,
a obtenu un 10 sur 10.
Dylan, à droite, 3 sur 10.
10 sur 10 risque élevé,
3 sur 10, risque faible.

Japanese: 
マイノリティーの地域になります
あるいは 次に犯罪を犯しそうな人を
予測させたら？
マイノリティーでしょうね
データサイエンティストは
モデルの素晴らしさと正確さを
自慢するでしょうし
確かにその通りでしょう
さて 現実はそこまで極端ではありませんが
実際に多くの市や町で
深刻な人種差別があり
警察の活動や司法制度のデータが
偏っているという
証拠が揃っています
実際にホットスポットと呼ばれる
犯罪多発地域を
予測しています
さらには個々人の犯罪傾向を
実際に予測しています
報道組織プロパブリカが最近
いわゆる「再犯リスク」アルゴリズムの
１つを取り上げ調査しました
１つを取り上げ調査しました
フロリダ州で 判事による
量刑手続に使われているものです
左側の黒人男性バーナードのスコアは
10点満点の10点で
右の白人ディランは３点でした

Persian: 
محله‌ی اقلیت‌ها.
و یا پیش‌بینی کنند مجرمِ بعدی
که خواهد بود؟
یک [فردِ] اقلیت.
دانشمندان داده به عظمت
و دقتِ مدلِشان
افتخار خواهند کرد،
و حق دارند.
آیا این جدی نیست؟
اما ما این تفکیک‌های شدید را
در بسیاری شهرهای بزرگ و کوچک داریم،
و شواهدی زیادی از تعصبات پلیسی
و داده‌های سیستم قضایی،
در دست داریم.
و در واقع نقاط کانونی را پیش‌بینی می‌کنیم،
مکان‌هایی که جرم در آن رخ خواهد داد.
در حقیقت، جنایتکاری فردی
را پیش‌بینی می‌کنیم.
میزان جنایتکاری افراد را.
سازمان خبری پروپابلیکا
به یکی از الگوریتم‌های
به ظاهر [تشخیص‌دهنده‌ی] «ریسک تکرار جرم»
نگاهی انداخته است.
که در فلوریدا حین صدور رأی
قضات استفاده می‌شود.
برنابرد، در سمت چپ، مرد سیاه‌پوست،
امتیاز ۱۰ از ۱۰ گرفته بود.
دیلان، در سمت راست، ۳ از ۱۰.
۱۰ از ۱۰، ریسک زیاد.
۳ از ۱۰، ریسک کم.

Italian: 
Quartieri periferici
abitati dalle minoranze.
O per prevedere chi
sarà il prossimo criminale?
Uno della minoranza.
Gli analisti si vanterebbero
di quanto straordinari e accurati
sono i loro modelli,
e avrebbero ragione.
La realtà non è così drastica,
ma esistono gravi segregazioni
in molte città grandi e piccole,
e abbiamo ampia evidenza
di sistemi di dati investigativi
e giudiziari basati su pregiudizi.
In realtà siamo anche in grado
di anticipare i luoghi critici,
in cui si verificheranno i crimini.
Noi prevediamo, di fatto,
la criminalità individuale,
la criminalità dei singoli individui.
La nuova organizzazione ProPublica
ha recentemente esaminato
uno degli algoritmi
sul "rischio recidiva",
come vengono chiamati,
usati dai giudici in Florida
durante le sentenze.
Bernard, l'uomo di colore a sinistra,
ha avuto un punteggio di 10 su 10.
Dylan, sulla destra, 3 su 10.
10 su 10, rischio elevato.
3 su 10, rischio basso.

Chinese: 
答案：少數種族的街坊。
或是去預測下一位犯人會是誰？
答案：少數族裔。
資料科學家會吹噓他們的的模型
有多了不起、多精準，
他們是對的。
現實沒那麼極端，但在許多
城鎮和城市中，我們的確有
嚴重的種族隔離，
我們有很多證據可證明
執法和司法資料是偏頗的。
我們確實預測了熱點，
犯罪會發生的地方。
事實上，我們確實預測了
個別的犯罪行為，
個人的犯罪行為。
新聞組織 ProPublica 近期調查了
「累犯風險」演算法之一，
他們是這麼稱呼它的，
演算法被用在佛羅里達，
法官在判刑時使用。
左邊的黑人是伯納，
總分十分，他得了十分。
右邊的狄倫，十分只得了三分。
十分就得十分，高風險。
十分只得三分，低風險。

Korean: 
사회적 약자의 거주 지역일 겁니다.
혹은 다음 번 범죄자가 누구일지
예측케 한다면 누가 될까요?
사회적 약자겠죠.
그 데이터 과학자는 자신의 모델이
얼마나 대단하고 정확한지
자랑할 것이고
그게 맞겠죠.
지금 현실은 저렇게 극단적이진 않아도
우리는 많은 도시와 마을에서
심각한 인종차별이 있고
차별적인 경찰 활동과
법 집행에 대한 증거는 차고 넘칩니다.
그리고 우범지역, 바로 범죄가
발생할 것 같은 장소를
실제로도 예측합니다.
또한 우리는 실제로 개인의
범죄 가능성을 예측하죠.
개인적 범죄성이라고 합니다.
뉴스 조직인 프로 퍼블리카는 최근
어느 "재범 위험성 평가"
알고리즘을 살펴 봤습니다.
전문가들은 그렇게 부르더군요.
플로리다주에서 판사가 형을 
선고하는 동안 사용하고 있죠.
왼쪽의 흑인 버너드는 
10점 만점에 10점을 받았습니다.
오른쪽 딜런은 
10점 만점에 3점을 받았고요.
10점 만점에 10점, 고위험군.
10점 만점에 3점, 저위험군.

Hungarian: 
A kisebbségi környéken.
Vagy jósolják meg,
ki lesz a következő bűnöző.
Egy kisebbségi.
Az adattudósok azzal fognak kérkedni,
milyen nagyszerű és precíz a modelljük,
és igazuk lesz.
A valóság nem ily végletes,
de azért sok helyen
súlyos szegregációt tapasztalunk,
rengeteg a bizonyíték
elfogult intézkedésekre
és jogrendszeri adatokra.
De azért megjósoljuk a gócokat,
bűntettek előfordulási helyeit.
Megjósoljuk az egyéni bűnözést,
egyesek bűnelkövetését.
A ProPublica hírügynökség nemrég megnézett
egy "visszaesési kockázat" algoritmust,
ahogy ők hívják, Floridában,
bírói ítélethozatal közben.
Bernard, fekete férfi balról,
tízből 10 pontot kapott.
Dylan a jobb oldalon, tízből hármat.
Tízből 10 – nagy kockázat,
tízből három – kis kockázat.

Romanian: 
Cartierul cu minorități.
Sau să prezică cine ar fi
următorul infractor?
Un cetățean minoritar.
Specialiștii în date s-ar lăuda
cu cât de grozav și precis
ar fi modelul lor
și ar avea dreptate.
Realitatea nu-i așa de drastică,
dar avem diviziuni profunde
în multe orașe și comune,
și avem destule dovezi
în acțiunile părtinitoare ale poliției
și datele sistemului judiciar.
Și chiar prezicem punctele critice,
locurile unde se desfășoară infracțiunile.
Și chiar prezicem, de fapt,
infracțiunile individuale,
infracțiunile indivizilor.
Organizația de știri ProPublica
a analizat recent
unul din algoritmii
„riscului de recidivă”, cum li se zice,
folosiți în Florida
în sentințele judecătorești.
Bernard, în stânga, bărbatul de culoare,
a obținut zece puncte din zece.
Dylan, în dreapta, trei din zece.
Zece din zece, risc ridicat.
Trei din zece, risc scăzut.

Ukrainian: 
У кварталі, де проживає меншість.
Чи передбачити, хто буде 
наступним злочинцем?
Людина з меншості.
Науковці хвалилися б про те,
наскільки чудовою і точною
є їх модель,
і вони були б праві.
В реальному житті немає таких крайнощів,
але ми маємо суттєву сегрегацію
у великих і малих містах,
і маємо досить доказів
щодо упередженості поліції 
і судової системи.
І ми справді передбачаємо гарячі точки,
місця, де буде скоєно злочини.
І це факт, що ми передбачаємо 
індивідуальні злочинні дії,
злочинність окремих людей.
Інформагентство ProPublica нещодавно 
провело розслідування щодо
одного з алгоритмів 
"ризику рецидивізму",
так вони називаються,
що використовують судді у Флориді,
коли виносять вирок.
Бернард, зліва, темношкірий,
отримав рейтинг 10 з 10.
Ділан, справа, 3 з 10.
10 з 10, високий ризик.
3 з 10, низький ризик.

Chinese: 
少数族裔的社区。
或者预测下一个罪犯会是谁？
少数族裔。
这些数据科学家们
会吹嘘他们的模型有多好，
多精确，
当然他们是对的。
不过现实并没有那么极端，
但我们确实在许多城市里
有严重的种族隔离，
并且我们有大量的证据表明
警察和司法系统的数据存有偏见。
而且我们确实预测过热点，
那些犯罪会发生的地方。
我们确实会预测个人犯罪，
个人的犯罪行为。
新闻机构“人民 (ProPublica)”最近调查了，
其中一个称为
“累犯风险”的算法。
并在佛罗里达州的
宣判期间被法官采用。
伯纳德，左边的那个黑人，
10分中得了满分。
在右边的迪伦，
10分中得了3分。
10分代表高风险。
3分代表低风险。

Dutch: 
In de wijk met minderheden.
Of wie de volgende crimineel zou zijn?
Iemand uit een minderheidsgroep.
De datawetenschappers zouden opscheppen
over hoe geweldig
en nauwkeurig hun model was
en ze zouden gelijk hebben.
Zo erg is het nog niet,
maar ernstige segregatie 
vindt in de meeste steden plaats
en we hebben genoeg bewijzen
van bevooroordeelde politie
en rechtssysteem.
We voorspellen daadwerkelijk gebieden
waar zich criminaliteit zal voordoen.
En ook waar criminele 
eenmansacties zullen plaatsvinden.
De nieuwsorganisatie ProPublica
onderzocht onlangs zo'n zogeheten 
'recidive risico'-algoritme
dat in Florida wordt gebruikt 
tijdens de veroordeling door de rechter.
Bernard, links, de zwarte man, 
scoorde tien uit tien.
Dylan, rechts, drie uit tien.
Tien uit tien, hoog risico.
Drie uit tien, laag risico.

Russian: 
Окрестность меньшинств.
Или же за прогнозирование
следующего преступника?
Кто-то из меньшинств.
Специалисты обработки данных хвалятся тем,
насколько гениальны и точны
их модели,
и они правы.
Теперь реальность не настолько радикальна,
но у нас есть серьёзное разделение
во многих городах,
и у нас есть много доказательств
предвзятости
в политической и судебной системах.
И мы прогнозируем горячие точки —
места преступлений.
И мы на самом деле предсказываем
преступления отдельных лиц,
преступные действия индивидов.
Новостной ресурс ProPublica
недавно рассмотрел
один из алгоритмов — «риск рецидива»,
как его называют,
который используется во Флориде
при вынесения приговора судьями.
Бернар, чернокожий человек слева, 
получил 10 из 10.
Дилан, справа, — 3 из 10.
10 из 10 — это высокий риск.
3 из 10 — низкий риск.

Turkish: 
Azınlık mahalleleri.
Veya bir sonraki suçlunun kim
olacağını öngörmek için?
Bir azınlık.
Veri bilimcileri, modellerinin ne kadar
iyi ve uygulanabilir olduğu konusunda
övünürlerdi
ve haklı olurlardı da.
Şu an gerçeklik bu kadar keskin değil,
ama pek çok bölgede
taraflı davranıldığını gösteren
polis ve hukuk sistemi verisi
ayrımcılık yapıldığını gösteriyor.
Aslına bakılırsa suçların meydana geleceği
sıcak bölgeleri öngörüyoruz.
Hatta bireysel suçluluk konusunda da
öngörü yapıyoruz.
ProPublica isimli organizasyon
Florida'da hakimlerce kullanılan,
'suçun tekrarlama riski' adı verilen
algoritmaya baktılar.
Algoritmada Bernard, soldaki siyah kişi,
10 üzerinden 10 puan aldı.
Dylan, sağdaki kişi, 
10 üzerinden 3 puan.
10 üzerinden 10 yüksek risk.
10 üzerinden 3 düşük risk.

English: 
Minority neighborhood.
Or to predict who the next
criminal would be?
A minority.
The data scientists would brag
about how great and how accurate
their model would be,
and they'd be right.
Now, reality isn't that drastic,
but we do have severe segregations
in many cities and towns,
and we have plenty of evidence
of biased policing
and justice system data.
And we actually do predict hotspots,
places where crimes will occur.
And we do predict, in fact,
the individual criminality,
the criminality of individuals.
The news organization ProPublica
recently looked into
one of those "recidivism risk" algorithms,
as they're called,
being used in Florida
during sentencing by judges.
Bernard, on the left, the black man,
was scored a 10 out of 10.
Dylan, on the right, 3 out of 10.
10 out of 10, high risk.
3 out of 10, low risk.

Chinese: 
他们都因为持有毒品
而被带进了监狱。
他们都有犯罪记录，
但是迪伦有一个重罪
但伯纳德没有。
这很重要，因为你的分数越高，
你被判长期服刑的可能性就越大。
到底发生了什么？
数据洗钱。
这是一个技术人员
把丑陋真相隐藏在
算法黑盒子中的过程，
并称之为客观；
称之为精英模式。
当它们是秘密的，
重要的并具有破坏性的，
我为这些算法创造了一个术语：
“杀伤性数学武器”。
（笑声）
（鼓掌）
它们无处不在，也不是一个错误。
这些是私有公司为了私人目的
建立的私有算法。
甚至是我谈到的老师
与公共警察使用的（算法），

Italian: 
Erano entrambi processati
per possesso di droga.
Conosciuti dalla polizia,
ma Dylan aveva commesso un reato,
mentre Bernard no.
Questo è importante, perché
più il vostro punteggio è alto,
più è probabile che
la vostra condanna sia lunga.
Cosa sta succedendo?
Riciclaggio di dati.
È un processo con cui gli esperti
di tecnologia nascondono tremende verità
dentro la scatola nera degli algoritmi
e la definiscono oggettività;
la definiscono meritocrazia.
Quando sono segreti,
importanti e distruttivi,
ho coniato un termine
per questi algoritmi:
"Armi di distruzione matematica."
(Risata)
(Applauso)
Sono ovunque e non per errore.
Sono aziende private
che costruiscono algoritmi privati
per scopi privati.
Persino quelli di cui ho parlato
per gli insegnanti e la polizia

English: 
They were both brought in
for drug possession.
They both had records,
but Dylan had a felony
but Bernard didn't.
This matters, because
the higher score you are,
the more likely you're being given
a longer sentence.
What's going on?
Data laundering.
It's a process by which
technologists hide ugly truths
inside black box algorithms
and call them objective;
call them meritocratic.
When they're secret,
important and destructive,
I've coined a term for these algorithms:
"weapons of math destruction."
(Laughter)
(Applause)
They're everywhere,
and it's not a mistake.
These are private companies
building private algorithms
for private ends.
Even the ones I talked about
for teachers and the public police,

Spanish: 
Los sentenciaron por tener drogas.
Ambos con antecedentes penales
pero Dylan habia cometido un delito
Bernard, no.
Esto importa porque
a mayor puntuación
mayor probabilidad de 
una sentencia más larga.
¿Que sucede?
Lavado de datos.
El proceso que se usa para
ocultar verdades feas
dentro de una caja negra
de algoritmos
y llamarlos objetivos;
llamándolos meritocráticos
cuando son secretos,
importantes y destructivos
Les puse un nombre a estos algoritmos:
"armas matemáticas de destrucción"
(Risas)
(Aplausos)
Estan en todos sitios
Son empresas privadas
que construyen algoritmos privados
para fines privados.
Incluso los mencionados
de los maestros y la policía pública

Russian: 
Они оба были привлечены
за хранение наркотиков.
Они оба имели аресты,
но у Дилана было уголовное преступление,
а у Бернарда нет.
Это имеет значение, потому
что чем выше оценка,
тем больше вероятность того, что вам
дадут более длительный срок.
Что происходит?
«Отмывание» данных. 
Это процесс сокрытия правды
в «чёрном ящике» алгоритмов,
алгоритмов объективных
и заслуживающих одобрения. 
Они секретны, важны и разрушительны.
Я придумала термин для них:
«оружие математического уничтожения».
(Смех)
(Аплодисменты)
Они повсюду, и это не ошибка.
Частные компании строят
частные алгоритмы для себя.
Даже алгоритмы для учителей и полиции

Portuguese: 
Então, dez em dez, alto risco;
três em dez, baixo risco.
Ambos foram pegos por posse de droga.
Ambos tinham antecedentes,
e Dylan tinha um delito grave,
mas Bernard não.
Isso é importante,
pois, quanto maior a pontuação,
maior a chance de se receber
uma sentença mais severa.
O que que está havendo?
Branqueamento dos dados.
É um processo por meio do qual tecnólogos
escondem verdades sujas
dentro da caixa-preta dos algoritmos,
e os chamam de objetivos,
de meritocráticos.
Cunhei um termo para esses algoritmos
secretos, importantes e destrutivos:
"armas de destruição em matemática".
(Aplausos) (Vivas)
Eles estão por toda parte,
e isso não é um erro.
Trata-se de empresas privadas
criando algoritmos privados
para fins privados.
Mesmos aqueles que mencionei,
para os professores e a polícia,

Persian: 
هر دوی آن‌ها به خاطر حمل 
مواد مخدر دستگیر شده بودند.
هر دوی آن‌ها سابقه‌دار بودند،
اما دیلان سابقه‌ی تبه‌کاری داشت
ولی برنارد نداشت.
این مسئله به این خاطر اهمیت دارد
که هر چه امتیاز شما بالاتر باشد،
احتمال این‌که محکومیت طولانی‌تری
بگیرید افزایش می‌یابد.
قضیه چیست؟
داده‌شویی.
فرایندی که طی آن فناوری‌گرایان
حقایق زشت را در جعبه‌های سیاه
پنهان می‌کنند.
و آن را «عینی» می‌خوانند؛
آن‌را «شایسته‌سالاری» خطاب می‌کنند.
در حالی که این الگوریتم‌ها مخفی،
مهم و ویران‌گر هستند،
من برای آن‌ها نامی در نظر گرفته‌ام:
«سلاح کشتار ریاضی.»
(خنده حضار)
(تشویق حضار)
این‌ها همه جا هستند،
و این یک اشتباه نیست.
این شرکت‌های خصوصی
الگوریتم‌هایی خصوصی
برای اهداف شخصی می‌سازند.
حتی همان‌هایی که درباره‌شان صحبت کردم
برای معلمان و پلیس عمومی،

iw: 
שניהם נעצרו על החזקת סמים.
לשניהם היה כבר תיק.
אבל דילן עבר עבירה
וברנרד - לא.
זה משנה, כי ככל שתקבל
ניקוד יותר גבוה,
גובר הסיכוי שתקבל 
עונש מאסר ארוך יותר.
מה קורה פה?
הלבנת נתונים.
זהו תהליך שבו אנשי הטכנולוגיה 
מסתירים אמיתות מכוערות
בתוך אלגוריתמים חתומים
ואומרים שהם "אובייקטיביים",
שזאת מריטוקרטיה.
טבעתי כינוי לאלגוריתמים
סודיים, חשובים והרסניים אלו:
"נשק להשמדה מתמטית".
(צחוק)
(מחיאות כפיים)
הם בכל מקום
וזו לא טעות:
מדובר בחברות פרטיות
שכותבות אלגוריתמים פרטיים
לצרכיהן הפרטיים.
אפילו אלו שהזכרתי,
שמשמשים להערכה של מורים ולשיטור

French: 
Tous deux ont été jugés pour
possession de drogue.
Tous deux avaient un casier,
mais Dylan avait déjà commis un crime,
ce qui n'était pas le cas de Bernard.
C'est important, car plus le score
est élevé,
plus il est probable que la sentence 
soit longue.
Qu'est-ce qu'il se passe ?
Un blanchiment de données.
C'est un processus de technologues
pour cacher des vérités gênantes
dans des algorithmes « boîte noire »
soi-disant objectifs,
soi-disant méritocratiques.
Quand ces algorithmes sont secrets, 
importants et destructifs,
je leur ai inventé un nom :
« armes de destruction math-ive ».
(Rires)
(Applaudissements)
Ils sont partout, et ce n'est pas
une erreur !
Il s'agit de compagnie privées, 
qui créent des algorithmes privés,
à des fins privées.
Même ceux dont j'ai parlé, 
pour les professeurs et la police,

Chinese: 
他們都因為持有藥品而被逮捕。
他們都有犯罪記錄，
但狄倫犯過重罪，
伯納則沒有。
這很重要，因為你的得分越高，
你就越可能被判比較長的徒刑。
發生了什麼事？
洗資料。
它是個流程，即技術專家
用黑箱作業的演算法
來隱藏醜陋的真相，
還宣稱是客觀的；
是精英領導的。
我為這些秘密、重要、
又有毀滅性的演算法取了個名字：
「毀滅性的數學武器」。
（笑聲）
（掌聲）
它們無所不在，且不是個過失。
私人公司建立私人演算法，
來達到私人的目的。
即使是我剛談到
對老師和警方用的演算法，

Japanese: 
10点中10点はハイリスクで
3点はローリスクです
２人とも麻薬所持で逮捕され
どちらも前科はありましたが
３点のディランには重罪の前科があり
10点のバーナードにはありませんでした
これが重要な理由は
スコアが高ければ高いほど
刑期が長くなる
傾向があるからです
どうなっているのでしょう？
これは「データ・ロンダリング」です
このプロセスを通して 技術者が
ブラックボックスのようなアルゴリズムの内部に
醜い現実を隠し
「客観的」とか
「能力主義」と称しているんです
秘密にされている
重要で破壊的なアルゴリズムを
私はこんな名前で呼んでいます
「大量破壊数学」です
（笑）
（拍手）
それは間違いなく
どこにでも存在します
民間企業が 私的なアルゴリズムを
私的な目的で
作っているんです
先程お話しした
教員や警察向けのアルゴリズムでさえ

Romanian: 
Au fost acuzați de posesie de droguri.
Amândoi cu antecedente,
dar Dylan comisese o crimă,
iar Bernard nu.
Asta contează,
deoarece cu cât ai scorul mai mare,
cu atât ai mai multe șanse
să primești o sentință mai lungă.
Ce se întâmplă?
Spălare de date.
E un proces prin care tehnologii
ascund adevăruri neplăcute
în algoritmi de tip cutie neagră,
pe care-i numesc obiectivi
și meritocratici.
Când sunt secreți,
importanți și distructivi,
am inventat o denumire
pentru algoritmii ăștia:
„arme de distrugere matematică”.
(Râsete)
(Aplauze)
Sunt peste tot și nu din greșeală.
Sunt companii private
care construiesc algoritmi privați
pentru scopuri private.
Chiar și cei de care am vorbit,
pentru profesori și poliție,

Korean: 
둘 다 불법약물 소지혐의로
재판 중이었습니다.
둘 다 전과가 있었지만
딜런은 중범죄 전과자였고
버너드는 그렇지 않았죠.
이게 중요한데 왜냐하면
점수가 높으면 높을수록
더 긴 형기를 선고받을 수
있기 때문입니다.
도대체 무슨 일이 벌어지고 있죠?
데이터 세탁이죠.
바로 기술자들이 추악한 진실을
블랙 박스 알고리즘 속에 숨겨버리고
그것을 객관적이라 능력주의적이라
부르는 과정입니다.
그 알고리즘이 비밀이고,
중요하면서 파괴적이기 때문에
저는 이런 알고리즘에
새 이름을 지었습니다.
"대량 수학 살상 무기."
(웃음)
(박수)
어느 곳에나 퍼져 있고
그게 실수가 아닙니다.
이들이 자신들의 목적을 위해
자신들만의 알고리즘을 만든 사기업입니다.
심지어 제가 언급한 교직원이나
경찰관 고과평가 프로그램도
개인 기업이 만들고

Dutch: 
Ze werden allebei opgepakt 
voor drugsbezit.
Ze hadden allebei een strafblad,
maar Dylan voor een misdrijf
en Bernard niet.
Dat maakt uit, want hoe hoger de score,
des te zwaarder je gestraft wordt.
Hoe kan dit?
Door het witwassen van data.
Dit gebeurt als technologen 
de lelijke waarheid
in een zwarte doos 
van algoritmes verbergen
en ze objectief noemen,
ze meritocratisch noemen.
Geheime, essentiële 
en destructieve algoritmes
krijgen van mij de naam
'datavernietigingswapens'.
(Gelach)
(Applaus)
Ze zijn overal, echt waar.
Dit zijn particuliere bedrijven 
die eigen algoritmes maken
voor eigen gebruik.
Zelfs die waar ik het over had
voor docenten en politie,
kwamen van particuliere bedrijven

Serbian: 
Obojica su privedeni
zbog posedovanja droge.
Obojica su imali dosije,
ali Dilan je imao krivično delo,
a Bernard nije.
Ovo je bitno jer što su ti veći poeni,
veće su šanse da dobiješ dužu kaznu.
O čemu se ovde radi?
Pranje podataka.
Proces kojim tehnolozi
sakrivaju ružnu istinu
u crne kutije algoritama
i nazivaju ih objektivnima;
nazivaju ih meritokratskim.
Za tajne, važne i destruktivne algoritme
sam skovala frazu
„oružje za matematičko uništenje“.
(Smeh)
(Aplauz)
Oni su svuda i to nije greška.
To su privatne kompanije
koje prave privatne algoritme
za privatne ciljeve.
Čak i one već spomenute,
za nastavnike i policiju,
napravile su privatne kompanije

Thai: 
พวกเราถูกคุมตัวมาด้วยข้อหา
มียาเสพติดในครอบครอง
ทั้งคู่ต่างก็มีประวัติอาชญากรรม
แต่ดีแลนมีความผิดอุกฉกรรจ์ร่วมด้วย
แต่เบอร์นาร์ดไม่มี
เรื่องนี้เป็นประเด็น เพราะว่า
ยิ่งคุณได้คะแนนสูงเท่าไหร่
ยิ่งมีโอกาสที่จะต้องโทษ
เป็นเวลาที่ยาวนานกว่า
นี่มันเกิดอะไรขึ้น?
การฟอกข้อมูล
มันคือกระบวนการที่
นักเทคโนโลยีซ่อนความจริงที่น่าเกลียด
เอาไว้ภายในกล่องดำของอัลกอริทึม
แล้วเรียกมันว่า ภววิสัย
เรียกมันว่า คุณธรรมนิยม
เมื่อมันเป็นความลับ มีความสำคัญ 
และมีอำนาจทำลายล้าง
ฉันเลยบัญญัติศัพท์เรียกอัลกอริทึมพวกนี้ว่า
"อาวุธทำลายล้างด้วยคณิตศาสตร์"
(เสียงหัวเราะ)
(เสียงปรบมือ)
พวกมันอยู่ทุกหนแห่ง
และนี่ไม่ใช่ความผิดพลาด
นี่คือเหล่าบริษัทเอกชน
ที่สร้างอัลกอริทึมภาคเอกชน
เพื่อผลประโยชน์ของเอกชน
แม้กระทั่งเรื่องที่ฉันพูดถึง
เกี่ยวกับครูและตำรวจสาธารณะ

Swedish: 
Båda anhölls för droginnehav.
Båda var dömda tidigare,
men Dylan hade begått ett grovt brott
vilket Bernard inte hade.
Det här har betydelse,
för ju högre poäng man har,
desto troligare är det
att man får ett längre straff.
Vad är det som händer?
Datatvätt.
Det är en process där tekniker
gömmer fula sanningar
inuti automatiska algoritmer
som de kallar objektiva;
kallar meritokratiska.
När de är hemliga, viktiga
och destruktiva,
myntade jag ett begrepp för dem:
"matte-förstörelsevapen."
(Skratt)
(Applåder)
De finns överallt,
och det är inte ett misstag.
Det här är privata företag
som skapar privata algoritmer
för privata syften.
Även de för lärare och poliser
som jag pratat om,

Hungarian: 
Mindkettőt kábszer-birtoklásért kapták el.
Mindketten visszaesők,
Dylannak volt súlyos bűntette,
de Bernardnak nem.
Ez számít, mert magasabb pontszám esetén
súlyosabb ítéletet szabnak ki.
Mi történik?
Adatmosás.
Ezzel a folyamattal rejtik el
a technikusok a csúnya igazságot
a feketedoboz-algoritmusba,
s eztán már objektívnak
és érdemeken alapulónak hívják.
Mivel titkosak, fontosak és rombolók,
alkottam rájuk egy fogalmat:
"a matematika tömegpusztító fegyverei".
(Nevetés)
(Taps)
Mindenhol vannak, nem tévedés.
Magáncégek magánalgoritmusokat készítenek
magáncélokra.
Még az említett, tanároknak
és a rendőrségnek szántakat is

Arabic: 
تم القبض على كليهما لحيازتهما المخدرات.
ولدى كلاهما سجلات،
ولكن لدى (ديلان) جناية
بعكس (بيرنارد).
هذا يهم، لأنه إذا كانت درجتكم أعلى،
فستمنحون على الأرجح أحكامًا قضائية أطول.
ما الذي يجري هنا؟
غسل البيانات.
إنها عملية حيث يخفي التقنيون حقائق بشعة
داخل خوارزميات الصندوق الأسود
ويطلقون عليها موضوعية،
أطلقوا عليها "الإستحقاقراطية".
عندما تكون سرية، ومهمة، ومدمرة،
قمتُ بصياغة مصطلح لهذه الخوارزميات:
"أسلحة دمار العمليات الحسابية".
(ضحك)
(تصفيق)
إنها في كل مكان، وليست خطأ.
هذه هي شركات خاصة
تبني خوارزميات خاصة
لأغراض خاصة.
حتى تلك التي تحدثتُ حولها
بشأن المعلمين ورجال الشرطة،

Bengali: 
তাদের দুজনের কাছেই নেশার পদার্থ 
পাওয়া যায়। দুজনেরই
অপরাধের তালিকায় নাম,
ডাইলান আগে এক গুরুতর অপরাধে জড়িত ছিল
কিন্তু বার্নার্ড তা নয়।
এটি গুরুত্বপূর্ণ, কারণ আপনার যত
উচ্চতর নম্বর,
আপনার লম্বা শাস্তি পাওয়ার
সম্ভবনাটাও অতটা বেশি।
কি হচ্ছে এটা?
তথ্য পাচার।
এই প্রক্রিয়ার দ্বারা প্রযুক্তিবিজ্ঞানীরা 
কালো বক্স অ্যালগোরিদমগুলির
মধ্যে কুশ্রী সত্য লুকিয়ে রাখে
এবং তাদের উদ্দেশ্য বলে;
কল্যাণকামী বলে।
যখন তারা গুপ্ত, গুরুত্বপূর্ণ এবং 
ধ্বংসাত্মক হয়,
আমি এই অ্যালগোরিদমগুলির এক নামকরণ করেছি:
"গণিতের দ্বারা ধ্বংসের অস্ত্র।"
(হাসি )
(হাততালি)
তারা সব জায়গায় উপস্থিত,
এবং এটা কোন ভুল নয়।
এগুলি কিছু বেসরকারি সংস্থা যা তাদের 
ব্যক্তিগত প্রয়োজনে কিছু ব্যক্তিগত
অ্যালগোরিদম বানাচ্ছে।
এমনকি যেগুলোর বিষয় আমি আলোচনা করলাম 
শিক্ষক ও সরকারি পুলিশের বিষয়ে,

Portuguese: 
Foram ambos a julgamento
por posse de droga.
Ambos tinham cadastro,
mas Dylan já tinha cometido
um assalto à mão armada
e o Bernard não.
Isto é importante, porque,
quanto mais alta é a pontuação,
maior a probabilidade
de a sentença ser mais longa.
O que está a acontecer?
Lavagem de dados.
É um processo em que os tecnólogos
escondem verdades muito graves
dentro de algoritmos de caixa negra
e chamam-lhes objetivos;
chamam-lhes meritocráticos.
Quando são secretos,
importantes e destrutivos
eu chamo-lhes da seguinte maneira:
"armas de destruição maciça".
(Risos)
(Aplausos)
Estão por todo o lado
e não são um erro.
São empresas privadas que estão
a criar algoritmos privados
para objetivos privados.
Mesmo os que mencionei aqui
para os professores e a polícia,

Turkish: 
Her ikisi de uyuşturucu bulundurmaktan
göz altına alındı.
Her ikisinin de sabıka kaydı var.
Ama Dylan'ın ağır suçu varken
Bernard'ın yoktu.
Bu önemli çünkü puan yükseldikçe
uzun süreli ceza alma ihtimali artıyor.
Neler oluyor?
Veri manipülasyonu.
Bu, teknoloji uzmanlarının çirkin
gerçekleri kara kutulu algoritmalarla
gizledikleri bir süreç.
Bunun objektif
ve ideal olduğunu söylüyorlar.
Gizli, önemli ve yıkıcı sonuçları olan
algoritmalar için bir deyim türettim:
"Matematiksel yıkım silahları"
(Kahkahalar)
(Alkışlar)
Bunlar her yerdeler
ve her yerde olmaları hata sonucu değil.
Bunlar özel amaç için
özel algoritmalar üreten
özel şirketler.
Öğretmenler ve polisler ile ilgili
söylediklerim bile

Ukrainian: 
Їх обох заарештували за
зберігання наркотиків.
В них кримінальне минуле,
але Ділан скоїв тяжкий злочин,
а Бернард - ні.
Це має значення, бо
чим вищий в тебе ризик,
тим ймовірніше, що ти отримаєш 
довший термін покарання.
Що ж відбувається?
Відмивання даних.
Це процес, коли технологи ховають
неприємну правду
всередині алгоритмів типу "чорний ящик"
і називають їх об'єктивними;
називають їх меритократичними.
Коли ці алгоритми секретні,
важливі та нищівні,
я створила для них термін:
"зброя математичного знищення".
(Сміх)
(Оплески)
Вони повсюди,
і це не помилково.
Це приватні компанії,
що будують приватні алгоритми
для приватного зиску.
Навіть приклади, що я навела,
для вчителів і державної поліції,

English: 
those were built by private companies
and sold to the government institutions.
They call it their "secret sauce" --
that's why they can't tell us about it.
It's also private power.
They are profiting for wielding
the authority of the inscrutable.
Now you might think,
since all this stuff is private
and there's competition,
maybe the free market
will solve this problem.
It won't.
There's a lot of money
to be made in unfairness.
Also, we're not economic rational agents.
We all are biased.
We're all racist and bigoted
in ways that we wish we weren't,
in ways that we don't even know.
We know this, though, in aggregate,
because sociologists
have consistently demonstrated this
with these experiments they build,
where they send a bunch
of applications to jobs out,
equally qualified but some
have white-sounding names
and some have black-sounding names,
and it's always disappointing,
the results -- always.

Swedish: 
byggdes av privata företag
och såldes till statliga myndigheter.
De kallar dem "hemliga recept" -
det är därför de inte kan berätta om dem.
Det är också privat makt.
De skor sig genom att utöva
sin ogenomträngliga makt.
Nu kanske du tänker
att eftersom allt det här är privat
och fri konkurrens råder,
kommer marknaden kanske lösa problemen.
Det gör den inte.
Det finns mycket pengar
att tjäna på orättvisa.
Dessutom, är vi inte
ekonomiskt rationella varelser.
Alla har vi fördomar.
Alla är vi rasister och bigotta på sätt
som vi önskar att vi inte var,
på sätt vi inte ens vet att vi är.
Det här vet vi dock,
eftersom sociologer konsekvent visat det
genom olika expriment,
där de skickar jobbansökningar,
alla lika kvalificerade
men några har "vita" namn
och några har "svarta" namn,
och resultaten är alltid
en besvikelse - alltid.

Russian: 
были построены частными компаниями
и проданы государственным учреждениям.
Они называют это своим «секретом» —
вот почему они не рассказывают ничего.
Это также частная власть.
Они пользуются преимуществом,
обеспеченным секретностью.
Так как всё частное
и присутствует конкуренция,
свободный рынок — это выход.
Но это не так.
В этой несправедливости — куча денег.
И мы не рациональны
с точки зрения экономики.
Мы все предвзяты.
Мы все расисты и фанатики, к сожалению,
часто подсознательно.
Мы это знаем, но, в совокупности,
социологи демонстрируют это
своими экспериментами.
Они рассылают заявки
квалифицированных работников,
и по их именам можно понять,
белые они или чернокожие.
И результаты всегда разочаровывают.

Spanish: 
fueron diseñados por empresas privadas
y vendidos a 
instituciones gubernamentales.
Lo llaman su "salsa secreta"
por eso no nos pueden hablar de ello.
Es un poder privado
que saca provecho por su
autoridad inescrutable.
Entonces uno ha de pensar,
ya que todo esto es privado
y hay competición,
tal vez un mercado libre
podrá solucionarlo
Pero no.
Se puede ganar mucho dinero
con la injusticia.
Tampoco somos agentes 
económicos racionales.
Todos tenemos prejuicios
Somos racistas y fanáticos
de una forma que no quisiéramos,
de maneras que desconocemos.
Lo sabemos al sumarlo
porque los sociólogos
lo han demostrado consistentemente
con experimentos que construyeron
donde mandan una cantidad de solicitudes
de empleo
de personas de calificaciones iguales
pero algunas con apellidos blancos
y otras con apellidos negros,
y los resultados siempre los 
decepcionan, siempre.

Ukrainian: 
приватні компанії побудували їх
і продали державним установам.
Вони кажуть, що це їх 
"секретний соус",
тому вони не можуть
розповісти нам про нього.
Це також вплив приватних інтересів.
Вони отримують зиск, маючи владу
над незбагненним.
Позаяк це все приватні компанії,
ви можете припустити,
що існує конкуренція,
можливо, вільний ринок
вирішить цю проблему.
Ні, не вирішить.
На несправедливості можна заробити
чимало грошей.
До того ж, ми не є
економічними раціональними агентами.
У нас у всіх є упередження.
Ми всі до певної міри нетерпимі расисти, 
хоч нам це і не подобається,
ми самі не знаємо, до якої міри.
Однак ми знаємо, що так
загалом і є,
бо соціологи систематично
демонструють це
у експериментах, що вони проводять,
коли вони надсилають низку 
відгуків на вакансії,
однакові кваліфікації, але у деяких 
"білі" імена,
а в інших імена, як у темношкірих,
і результати завжди невтішні, 
завжди.

Thai: 
อัลกอริทึมเหล่านั้นถูกสร้างโดย
บริษัทเอกชน
และขายให้กับหน่วยงานของรัฐ
พวกเขาเรียกมันว่า "สูตรลับ"
และนั่นเป็นสาเหตุที่พวกเขาบอกเราไม่ได้
และมันยังเป็นอำนาจของเอกชนด้วย
พวกเขาได้กำไรจากการใช้
อำนาจที่ลึกลับและตรวจสอบไม่ได้
ถึงตอนนี้คุณอาจจะคิดว่า
ในเมื่อของพวกนี้เป็นของเอกชน
และมันมีการแข่งขัน
บางทีสภาพตลาดเสรี
อาจจะช่วยแก้ปัญหานี้ให้ได้
มันแก้ไม่ได้
เพราะมีความร่ำรวยมหาศาล
ที่ถูกสร้างขึ้นมาได้จากความไม่ยุติธรรม
และอีกอย่าง คนเราก็ไม่ได้มีความ
เป็นเหตุเป็นผลนักในทางเศรษฐศาสตร์
เราต่างก็มีอคติกันอยู่ทุกคน
เราต่างก็มีความเหยียดเชื้อชาติและอคติ
ในแบบที่เราไม่คิดว่าจะมี
หรือในแบบที่เราเองก็ไม่รู้ตัว
แต่เรารู้ว่า ในภาพรวมระดับสังคม 
เรามีอคติเหล่านี้
เพราะว่านักสังคมวิทยา
ได้สาธิตให้เราเห็นอคติเหล่านี้
อยู่บ่อยๆ ผ่านการทดลองต่างๆ
เช่นการส่งใบสมัครงานออกไป
โดยระบุคุณสมบัติพอๆ กัน
แต่กลุ่มหนึ่งชื่อเหมือนคนขาว
อีกกลุ่มมีชื่อเหมือนคนผิวสี
และผลลัพธ์ที่ออกมาก็น่าผิดหวัง
อยู่เสมอมา ตลอดมาจริงๆ

Romanian: 
au fost construiți de companii private
și vânduți instituțiilor guvernamentale.
Ei numesc asta „sosul lor secret”,
de asta nu ni-l pot dezvălui.
E și o putere privată.
Profită de faptul că exercită 
autoritatea impenetrabilă.
Acum o să vă gândiți
că, din moment ce totul e privat,
și există concurență,
poate că piața liberă
o să rezolve problema.
N-o s-o facă.
Sunt mulți bani de câștigat
din inechitate.
În plus, nu suntem
agenți economici raționali.
Toți suntem părtinitori.
Toți suntem rasiști și intoleranți
într-un fel în care ne dorim să nu fi fost
și de care nici nu ne dăm seama.
Dar știm asta, în ansamblu,
pentru că sociologii
au demonstrat-o constant
cu experimentele pe care le-au creat,
când trimit mai multe cereri
la anunțurile de angajare,
cu aceleași calificări, dar unele
au nume ca de albi și altele ca de negri,
iar rezultatele sunt mereu dezamăgitoare.

Japanese: 
民間企業が制作し
政府機関に販売したものです
アルゴリズムは
「秘伝のタレ」だから
公開できないと
企業側は主張します
また アルゴリズムは私的な権力です
この謎めいた存在が持つ権威を振りかざして
企業は利益を得ています
ただ こう思うかもしれません
アルゴリズムが民間のものなら
競争があるので
自由市場の力が
問題を解決するのではないか…
でも そうはいきません
不公平は大きな利益を
生み出しますから
それに我々人間は
合理的経済人ではなく
誰もがバイアスを持っています
私たちは 自分が望みも
気づきもしない形で
差別や偏見を持っているのです
全体を俯瞰して見ると
そのことがわかります
なぜなら社会学者が
考案した実験を通して
一貫して実証されてきたからです
その実験では研究者が
履歴書を大量に送付しました
同じように資格は満たしていますが
一部は白人っぽい名前で
一部は黒人っぽい名前
そして結果は
常にがっかりするものでした

Arabic: 
تم بناء الخوارزميات من قبل شركات خاصة
وتم بيعها إلى مؤســسات حكومية.
يسمونها "التركيبة السرية الخاصة" --
ولهذا السبب لا يمكنهم الإفصاح عنها.
إنها أيضًا سلطة خاصة.
إنهم يستفيدون من الممارسة البارعة
للسلطة الغامضة.
قد تعتقدون الآن، 
ولأنّ كل هذه الامور خاصة
وهناك منافسة،
ربما سيعالجُ السوق الحر هذه المشكلة.
لن يقوم بذلك.
تُجبى كمية ضخمة من الأموال
نتيجة عدم الإنصاف.
كذلك، لسنا عملاء اقتصاديون منطقيون.
جميعنا منحازون.
جميعنا عنصريون ومتعصبون 
بطرق نرغبُ بأننا لم نسلكها،
بطرق حتى لا نعرفها.
ورغم ذلك نعلمُ هذا، في كل الأحوال،
لأن علماء الاجتماع قدّموا لنا ذلك باستمرار
بهذه التجارب التي بنوها،
حيثُ يرسلوا حزمة من طلبات الوظائف المطلوبة
مؤهلين بالتساوي 
لكن لدى بعضهم أسماء تبدو لأشخاص بيض
ولدى البعض أسماء تبدو لأشخاص سود
ودائمًا النتائج مخيبة للآمال، دائمًا.

Persian: 
آن‌ها هم توسط شرکت‌های خصوصی
ساخته شده بودند
و به مؤسسات دولتی فروخته شده بودند.
به آن «سس مخصوص» خودشان می‌گویند
برای همین نمی‌توانند درباره‌ی آن
به ما توضیح دهند.
قدرت خصوصی هم هست.
آن‌ها به خاطر داشتن 
حق محرمانگی سود می‌برند.
ممکن است فکر کنید،
چون این چیزها خصوصی هستند
و رقابت وجود دارد،
شاید بازار آزاد
این مسئله را حل کند.
این‌طور نخواهد شد.
پول زیادی از بی‌عدالتی
به دست می‌آید.
علاوه بر این، ما 
عامل‌های اقتصادیِ منطقی‌ای نیستیم.
همه‌ی ما تعصباتی داریم.
ما همه نژادپرست و متعصبیم
به طرقی که دوست داشتیم نباشیم،
به طرقی که حتی نمی‌دانیم.
هر چند در مجموع این را می‌دانیم
چون جامعه‌شناسان
مدام این را با آزمایش‌هایی که می‌کنند،
ثابت کرده‌اند.
آن‌ها تعدادی درخواست
استخدام را ارسال می‌کنند
که به یک اندازه واجد شرایطند
اما برخی نام‌های سفیدپوستی
و برخی نام‌های سیاه‌پوستی دارند،
و نتیجه همواره ناامیدکننده است، همیشه.

Turkish: 
özel şirketler tarafından üretilip
kamu kurumlarına satıldı.
Buna onların "özel tarifi" diyorlar
ve bu yüzden içeriği ile
ilgili konuşmuyorlar.
Bu bir tür özel güç.
Kamu otoritesini kullanarak kar ediyorlar.
Tüm bunların özel sektörde olduğu
ve sektörde rekabet olduğu için
serbest piyasanın
bu sorunu çözeceğini düşünüyorsanız
sorunu çözmeyecek.
Adaletsizlik ile elde edilen
önemli miktarda para var.
Ayrıca ekonomik olarak 
rasyonel karar alıcılar değiliz.
Farkında olmadığımız
ön yargılarımız var.
Farkında olmasak 
ve öyle olmayı dilemesek bile
kafa tasçı ve dar kafalıyız.
Bunun böyle olduğunuz biliyoruz,
çünkü sosyologlar yaptıkları deneyler ile
öyle olduğumuzu gösterdiler.
Deneyde aynı yeteneklere sahip insanların
çok sayıda iş başvurusu vardı.
Kimi başvurular siyah,
kimi başvurular beyaz insanı
andıran isimlerle yapıldı.
Sonuç her zaman hayal kırıklığıydı.

Serbian: 
i zatim ih prodale vladinim telima.
Zovu ih „tajnim umakom“;
zato nam ništa ne mogu reći o tome.
To je i privatna moć.
Zarađuju na korišćenju autoriteta
koji se ne može proveriti.
Možda ste pomislili da,
pošto je ovo privatno,
postoji konkurencija;
možda će slobodno tržište rešiti problem.
Neće.
Mnogo se novca može napraviti nepravdom.
Uz to, mi nismo
ekonomski racionalni činioci.
Svi smo pristrasni.
Svi smo rasisti i netrpeljivi
onako kako ne želimo biti
u oblicima koje i ne poznajemo.
Ipak, znamo da je to kolektivno
jer to sociolozi dosledno dokazuju
eksperimentima koje osmišljavaju,
kada pošalju gomilu prijava za posao,
podjednako dobrih, ali neke imaju
imena koja zvuče belački
a neke koje zvuče kao crnački,
i uvek su razočaravajući rezultati; uvek.

Portuguese: 
foram criados por empresas privadas
e vendidos a instituições governamentais.
Chamam-lhes o seu "molho secreto"
— é por isso que não nos podem contar.
Trata-se, também, de poder privado.
Estão a lucrar para dominarem
a autoridade do inescrutável.
Agora, vocês podem pensar:
se tudo isto é privado
e existe concorrência,
talvez o mercado livre
corrija este problema.
Não, não o fará.
Pode fazer-se muito dinheiro
com a injustiça.
Além disso, nós não somos
agentes económicos racionais.
Somos todos tendenciosos.
Somos racistas e intolerantes
em proporções horríveis,
em proporções que nem nós sabemos.
Mas sabemos que isto acontece
em níveis agregados,
porque os sociólogos
têm vindo a demonstrá-lo,
através de experiências,
em que se enviam vários currículos
em resposta a anúncios,
igualmente qualificados,
mas alguns com nomes caucasianos
e outros com nomes de raça negra,
e os resultados são sempre
desconcertantes... Sempre!

Portuguese: 
foram criados por empresas privadas
e vendidos a instituições governamentais.
Eles os chamam de seu "molho secreto",
e por isso não nos contam sobre eles.
Isso é poder privado também.
Eles estão lucrando para exercerem
a autoridade do inescrutável.
Vocês podem achar, já que isso é privado
e não há competição,
que talvez o livre comércio
resolva o problema.
Não vai resolver.
Há muito dinheiro
a ser ganho com a injustiça.
Além disso, não somos
agentes econômicos racionais.
Somos todos tendenciosos.
Somos todos racistas e intolerantes
de maneiras que desejávamos não ser,
de maneiras das nem temos consciência.
No entanto, sabemos disso
porque os sociólogos têm
demonstrado isso consistentemente
com experimentos nos quais
enviam um monte de currículos,
todos igualmente qualificados,
mas alguns com nomes que parecem
ser de brancos, e outros, de negros,
e os resultados são sempre frustrantes.

Chinese: 
也都是由私人公司所打造的，
然后卖给政府机构。
他们称之为“秘密配方（来源）”——
这就是他们不能告诉我们的原因。
这也是私人权力。
他们利用神秘莫测的权威来获利。
你可能会想，既然所有这些都是私有的
而且会有竞争，
也许自由市场会解决这个问题。
然而并不会。
在不公平的情况下，
有很多钱可以赚。
而且，我们不是经济理性的代理人。
我们都是有偏见的。
我们都是固执的种族主义者，
虽然我们希望我们不是，
虽然我们甚至没有意识到。
总的来说，我们知道这一点，
因为社会学家会一直通过这些实验
来证明这一点，
他们发送了大量的工作申请，
都是有同样资格的候选人，
有些用白人人名，
有些用黑人人名，
然而结果总是令人失望的。

Hungarian: 
magáncégek készítették,
majd adták el állami intézményeknek.
"Titkos szósznak" hívják őket,
ezért nem fedik föl őket.
Ez is magánhatalom.
Profitálnak a kiismerhetetlen
hatalom gyakorlásából.
Fölvethetik: mivel ez mind magántermék,
verseny van,
talán a szabadpiac megoldja a nehézséget.
Nem fogja.
Tisztességtelenséggel
sokat lehet keresni.
Ráadásul nem vagyunk
gazdaságilag racionális egyedek.
Mind elfogultak vagyunk.
Mind rasszisták és bigottak vagyunk,
még ha nem akarjuk is,
még ha nem tudunk is róla.
De összességében mégis tudunk róla,
mert szociológiai kísérletek
ezt következetesen alátámasztják.
Beküldik egy csomó egyformán
alkalmas személy állásjelentkezését,
de egyeseknek "fehéres" nevük van,
másoknak feketének hangzó.
Az eredmény mindig elkeserítő.

French: 
ont été mis au point 
par des sociétés privées
et vendus au gouvernement.
Ils appellent ça 
leur « recette secrète »,
et donc ne peuvent pas 
nous en parler.
C'est aussi du pouvoir privé.
Ils tirent profit en donnant de 
l'autorité à ce qu'on ne comprend pas.
Vous pourriez penser,
puisque tout ceci est privé,
et qu'il y a concurrence,
que le marché libre pourrait
résoudre ce problème.
Eh bien non.
Il y a beaucoup d'argent à gagner
grâce à l'injustice.
De plus, nous ne sommes pas 
des acteurs économiques rationnels.
Nous sommes tous partiaux.
Nous sommes tous racistes et intolérants
sans le vouloir,
sans parfois même le savoir.
Globalement, pourtant, nous le savons,
car les sociologues l'ont 
sans cesse démontré
avec ces expériences
où ils envoient des candidatures
à qualifications égales
mais certaines avec des noms « blancs »
et d'autres avec des noms « noirs » :
les résultats sont toujours décevants. 
Toujours.

Bengali: 
সেগুলো কিছু বেসরকারি সংস্থা তৈরী করে
তা সরকারি সংস্থাদের কাছে বিক্রি করেছে।
তারা এটাকে তাদের "গোপন সস" বলে--
তাই আমাদের সেই বিষয়ে জানতে দিতে চায়না।
এটি বেসরকারি ক্ষমতা।
তারা অবর্ণনীয় কিছু ব্যক্তিদের হাতে ক্ষমতা
তুলে দিয়ে লাভ করছে।
আপনারা হয়তো ভাবছেন, যেহুতু
এইগুলো বেসরকারি বিষয়ে
এবং প্রতিযোগিতা রয়েছে,
তাহলে হয়তো স্বাধীন বাজার এই
সমস্যার সমাধান করবে।
তা হবেনা।
অসৎ পথে অনেক টাকা আয় হয়।
এছাড়া,আমরা অর্থনৈতিক যুক্তিসঙ্গত 
প্রতিনিধি নই।
আমরা সকলে পক্ষপাতদুষ্ট।
আমরা সবাই বর্ণবাদী সে সকল রূপে যা হয়তো 
আমরা চাইনা,
বা হয়তো জানিনা,
কিন্তু আমরা জানি, সামগ্রিকভাবে,
কারণ সমাজতাত্ত্বিকরা বারবার 
তাদের পরীক্ষার
দ্বারা তা উল্লেখ করেছেন,
যেখানে তারা একগুচ্ছ চাকরির
আবেদনপত্র পাঠায়,
সকলের সমান যোগ্যতা থাকে
কিন্তু তার মধ্যে কারো
নাম ভাল শোনায় কারো শোনায় না,
এবং এটা সবসময় হতাশাজনক, 
ফলাফলটা - সবসময়।

Korean: 
정부가 돈을 들여 산 겁니다.
그들은 이 알고리즘을
"비법"이라고 하고
그래서 공개 못한다는 건데
그게 사기업의 힘이죠.
그들은 "불가해"라는 권력을 휘둘러
이익을 챙기고 있죠.
여러분들 중에는 이 모든 게
사적인 문제이고
경쟁이 있으니까
자유 시장이 다 해결할 거라고
생각하실 수도 있습니다.
절대로 그렇지 않습니다.
불공정한 세상에서는
많은 돈을 벌 수 있습니다.
또한 우리는 경제적으로 
이성적 참여자가 아닙니다.
우리에겐 편견이 있죠.
우리는 원하지 않고
심지어 알지도 못하는 방식으로
모두 인종차별주의자이고
편견에 사로잡혀 있습니다.
전체적으로 우리는 전부 
이걸 알고 있습니다.
왜냐하면 많은 사회학자들이
자신들만의 실험으로
끊임없이 이걸 증명했기 때문이죠.
자격은 똑같았지만 백인일 것
같은 이름을 적은 지원서와
흑인일 것 같은 이름을 적은 
지원서를 여러 장 기업에 제출했는데
언제나 실망적이었습니다.
결과는, 늘 그랬어요.

Italian: 
sono stati creati da compagnie private
e venduti alle istituzioni governative.
Li chiamano il loro
"ingrediente segreto",
ecco perché non possono parlarcene.
È anche un potere privato.
Ne stanno traendo vantaggio per esercitare
l'autorità dell'imperscrutabile.
Ora potreste pensare che,
visto che è tutto privato
e c'è la concorrenza,
forse il mercato libero
risolverà il problema.
Invece no.
Ci sono un sacco di soldi
da fare in modo scorretto.
Inoltre, noi non siamo
agenti economici razionali.
Abbiamo tutti dei pregiudizi.
Siamo tutti razzisti e faziosi
in modi che preferiremmo non essere,
in modi che neanche immaginiamo.
Ma lo sappiamo grazie
al complesso dei dati,
perché i sociologi lo hanno dimostrato
con gli esperimenti che fanno,
in cui mandano in giro
un mucchio di richieste di lavoro,
con uguali qualifiche,
ma alcune con nomi da bianchi,
altre con nomi da afro-americani,
e il risultato è sempre
deludente. Sempre.

Dutch: 
en werden verkocht 
aan overheidsinstellingen.
Ze noemen het hun 'geheime recept' --
daarom willen ze er niets over zeggen.
Het gaat ook om private macht.
Ze maken handig gebruik van hun gezag
over dingen die onbegrijpelijk zijn.
Omdat alles in particuliere handen is
en er concurrentie is,
denk je wellicht dat de vrije markt 
dit probleem wel oplost.
Onjuist.
Er wordt grof geld verdiend 
met oneerlijke praktijken.
Ook zijn wij geen 
economisch rationele wezens.
We zijn bevooroordeeld.
We zijn racistisch en onverdraagzaam,
erger dan we willen toegeven
en vaak zonder dat we het doorhebben.
Dit weten we
doordat sociologen keer op keer
met hun onderzoeken hebben bewezen
dat als je sollicitaties verstuurt
met dezelfde opleiding,
maar met deels 'witte' namen 
deels 'zwarte' namen,
dat de resultaten 
altijd zullen tegenvallen.

iw: 
נכתבו בידי חברות פרטיות
ונמכרו למוסדות ממשלתיים.
הם אומרים שזה "הרוטב הסודי" שלהם
ולכן אינם יכולים לחשוף אותו.
זהו גם כוח פרטי.
הם מרוויחים מהפעלת כוח העמימות.
אתם יכולים לחשוב,
"בגלל שכל זה פרטי
"וישנה תחרות,
"השוק החופשי
אולי יפתור את הבעיה."
לא נכון.
אפשר להרוויח הרבה כסף
מחוסר הוגנות.
אנחנו גם לא יצורים רציונליים מבחינה כלכלית
לכולנו דעות קדומות.
כולנו גזענים ומוטים
למרות שהיינו מעדיפים לא להיות כאלה,
ובדרכים שאיננו אפילו יודעים.
אבל אנחנו יודעים שבמצטבר,
בגלל שסוציולוגים מראים באופן עקבי
בניסויים שהם עורכים,
שבהם הם שולחים למעסיקים
הרבה קורות חיים
עם כישורים זהים, כשחלק
מהשמות נשמעים "לבנים",
ושמות אחרים נשמעים "שחורים",
והתוצאות של הניסויים תמיד מאכזבות,
תמיד.

Chinese: 
也是由私人公司建立的，
然後再銷售給政府機關。
他們稱它為「秘方醬料」，
所以不能跟我們討論它。
它也是種私人的權力。
他們透過行使別人
無法理解的權威來獲利。
你可能會認為，
所有這些都是私人的，
且有競爭存在，
也許自由市場會解決這個問題。
並不會。
從不公平中可以賺取很多錢。
且，我們不是經濟合法代理人。
我們都有偏見。
我們都是種族主義的、偏執的，
即使我們也希望不要這樣，
我們甚至不知道我們是這樣的。
不過我們確實知道，總的來說，
因為社會學家不斷地用
他們建立的實驗
來展現出這一點，
他們寄出一大堆的工作申請書，
都有同樣的資格，
但有些用白人人名，
有些用黑人人名，
結果總是讓人失望的，總是如此。

Korean: 
그래서 우리는 편견을 가진 
동물이라는 겁니다.
그리고 우리는 이런 편견을
알고리즘에 투영합니다.
예를 들면 라면을
배제하기로 한다던지 하는 식으로
수집할 자료를 선별하고
저는 이것이 전혀 관계가 
없다고 생각했죠.
하지만 실제로 생긴 과거의 사례에서 
수집된 자료를 신뢰하거나
성공의 정의를 선택할 때
어떻게 알고리즘이
아무탈 없기를 기대하겠습니까?
불가능합니다.
그들의 유효성을 검증해야 합니다.
공정성을 위해 반드시
검증이 필요합니다.
좋은 소식은 우리가 공정성을
검증할 수 있다는 것입니다.
알고리즘은 조사할 수 있고
그러면 알고리즘은 매번 우리에게
진실을 말해 줄 겁니다.
그러면 우리는 수정할 수 있죠.
알고리즘을 개선할 수 있습니다.
저는 이걸 알고리즘 감사라고 합니다.
어떻게 하는지 알려드리죠.
첫 번째는 자료 진실성 검사입니다.
제가 말씀드린
재범 위험도 알고리즘에서
자료 진실성 확인은 미국에서
흑인과 백인 모두 같은 비율로
대마초를 피우고 있지만
체포율은 흑인이 훨씬 높음을
인정해야 한다는 겁니다.

Spanish: 
Nosotros somos los prejuiciosos
que inyectamos prejuicios
a nuestros algoritmos
al elegir qué datos recoger,
así como yo elegí no pensar 
en los fideos--
Y decidi que no era importante.
Pero tenerle confianza a los datos
basados en prácticas pasadas
y eligiendo la definición del éxito,
¿cómo pretendemos que los
algoritmos emerjan intactos?
No podemos. Tenemos que verificarlos.
Hay que revisarlos por equidad.
Y las buenas noticias son
que los algoritmos pueden ser 
interrogados,
y nos dirán la verdad todas las veces.
Y los podemos arreglar.
Y mejorarlos.
Lo explico. Esto se llama revisión 
del algoritmo,
lo explico.
Primero, verificación de 
integridad de datos.
por el riesgo recidivista.
La verificación de la integridad de datos 
implicaría una conciliación
que en EE. UU. los blancos y los 
negros fuman marihuana
pero a los negros es mas fácil que 
los arresten

Persian: 
بنابراین این ما هستیم که تعصب داریم،
و این تعصبات را
با داده‌هایی که جمع‌آوری می‌کنیم
به الگوریتم‌ها تزریق می‌کنیم.
مثلاً من تصمیمی گرفتم 
به ریمن نودل فکر نکنم
به نظرم نامربوط بود.
اما با اعتماد به داده‌هایی
که از تجربیات گذشته یاد می‌گیرند
و با انتخاب تعریف موفقیت،
چطور می‌توانیم از الگوریتم‌ها
انتظار داشته باشیم جان سالم به در ببرند؟
نمی‌توانیم. باید آن‌ها را بررسی کنیم.
باید عدالت را در آن‌ها بررسی کنیم.
خبر خوب این‌که،
می‌توانیم عدالت را در آنان بررسی کنیم.
می‌توان الگوریتم‌ها را بازجویی کرد.
و آن‌ها هر بار به ما
حقیقت را خواهند گفت.
و می‌توانیم آن‌ها را درست کنیم.
می‌توانیم آن‌ها را بهتر کنیم.
من به این حساب‌رسی الگوریتمی می‌گویم،
و آن را به شما توضیح می‌دهم.
نخست، بررسی درستی داده‌ها.
برای الگوریتم ریسک تکرار جنایت
که درباره‌اش صحبت کردم،
بررسی درستی داده به این معنی است
که باید با این حقیقت کنار بیاییم
که در ایالات متحده، سیاه‌پوستان
و سفیدپوستان به میزان یکسانی گُل می‌کشند
اما سیاه‌پوستان به مراتب
بیشتر دستگیر می‌شوند

Bengali: 
কাজেই আমরাই পক্ষপাতদুষ্ট,
এবং আমরা সেই দোষটা অ্যালগোরিদম
মধ্যে প্রদান করি
কোন তথ্য সংগ্রহ করা হবে তা বলে দিয়ে,
ঠিক যেমন আমি রামেন নুডলস সম্পর্কে 
ভাবতে পছন্দ করিনা--
আমি মনে করি এটি অপ্রাসঙ্গিক।
কিন্তু অতীতের প্রথাগুলির উপর নির্ভর থেকে
এবং সফলতার সংজ্ঞা বেছে নিয়ে,আমরা
অ্যালগোরিদমগুলিকে ত্রুটিহীন মেনে নিতে
পারি কি?
আমরা পারিনা। আমাদের উচিত তা যাচাই করা ।
আমাদের ন্যায্যতা যাচাই করতে হবে।
ভাল খবর হল,আমরা তাদের ন্যায্যতা 
পরীক্ষা করতে পারি।
অ্যালগরিদমগুলিকে জেরা করা যেতে পারে,
এবং তারা প্রত্যেকবার সত্যিটাই বলবে।
আমরা তা ঠিক করতে পারি।আমরা 
তাদের ভাল করে তুলতে পারি।
আমি এটাকে বলি অ্যালগরিদমিক নিরীক্ষা,
এবং আমি এ বিষয়টি আপনাদের বোঝাবো।
প্রথম, তথ্য অখণ্ডতা পরীক্ষা।
যে অপরাধপ্রবণতা ঝুঁকি অ্যালগরিদমগুলির
সম্পর্কে বললাম,
একটি তথ্য অখণ্ডতা পরীক্ষার অর্থ 
হবে আমরা এটা শিকার করি যে
মার্কিন যুক্তরাষ্ট্রে, সাদা এবং কালো
দুজনরাই একই পরিমানে নেশা করে
অথচ একটি কালো মানুষের গ্রেফতার হওয়ার
সম্ভবনা বেশি--

Hungarian: 
Tehát mind elfogultak vagyunk,
és elfogultságunkat azzal
ojtjuk be az algoritmusokba,
hogy megválasztjuk,
milyen adatot gyűjtsünk,
ahogy én sem vettem
tudomást a zacskós levesről,
mert nem tartottam lényegesnek.
De ha múltbéli gyakorlaton
alapuló adatokban bízva
határozzuk meg a sikert,
hogyan remélhetjük, hogy megbízhatók
lesznek az algoritmusok?
Sehogy. Ellenőriznünk kell őket!
Ellenőrizni, hogy pártatlanok-e.
A jó hír, hogy lehet ezt ellenőrizni.
Az algoritmusok vizsgálhatók.
Mindig megmondják az igazat.
Javíthatunk rajtuk.
Ezt hívom algoritmus-auditálásnak,
s megmutatom lépésenként, hogyan.
Első az adatintegritás vizsgálata.
Az említett visszaesési
kockázat algoritmusánál
az adatintegritás azt jelenti,
hogy el kell fogadnunk a tényt,
hogy feketék s fehérek azonos
arányban szívnak füvet az USA-ban,
ám a feketéket sokkal
gyakrabban tartóztatják le,

Arabic: 
لذلك فنحن المتحيزون،
ونحنُ من يضع تلك التحيزات داخل الخوارزميات
باختيار ما هي البينات التي علينا جمعها،
مثل ما اخترته
لعدم التفكير بالشعيرية المجففة --
قررتُ بأنه ليس لها صلة بالموضوع.
لكن وبالثقة بالبيانات التي هي في الواقع
اختيار الممارسات الماضية
واختيار تعريف النجاح،
كيف يمكننا توقع
ظهور الخوارزميات متكاملة؟
لا نستطيع. علينا التحقق منهم.
علينا التحقق منهم من أجل الإنصاف.
الخبر السار هو،
نستطيعُ التحقق منهم من أجل الإنصاف.
يمكنُ فحص واستنطاق الخوارزميات،
ويمكنهم قول الحقيقة كل الوقت.
ويمكننا اصلاحهم. ويمكننا جعلهم أفضل.
أطلقُ على هذه تدقيق الخوارزمية،
وسأخبركم عنها.
أولاً، التحقق من نزاهة وتكامل البيانات.
بالنسبة إلى خوارزمية
خطر الانتكاس التي تحدثتُ عنها،
ستعني التحقق من نزاهة البيانات 
بأنه علينا التوصل إلى تفاهم مع الواقع
بأنه في أمريكا، يدخنُ الحشيشَ البيض والسود
بنفس المعدل
لكن يتمُ اعتقال السود
على الأرجح أكثر بكثير --

Portuguese: 
Então, nós somos tendenciosos,
e estamos instilando
esses preconceitos nos algoritmos
quando escolhemos quais dados coletar,
como quando escolhi descartar o Miojo,
porque decidi que ele era irrelevante.
Mas, ao confiar em dados
que se baseiam em práticas do passado
e ao escolher a definição de sucesso,
como podemos esperar
que os algoritmos saiam incólumes?
Não dá, temos de fiscalizá-los.
Temos de checar se são justos.
A boa notícia é que isso é possível.
Os algoritmos podem ser questionados,
e eles sempre vão nos dizer a verdade.
E podemos repará-los, aperfeiçoá-los.
Podemos chamar de auditoria de algoritmos,
e vou mostrar como seria.
Primeiro, temos de checar
a integridade dos dados.
Para o algoritmo de risco
de recidiva que mencionei,
checar a integridade dos dados
significa aceitarmos o fato
de que, nos EUA, brancos e negros
fumam maconha na mesma proporção,
mas os negros têm
muito mais chance de serem presos,

Chinese: 
所以我们是有偏见的，
我们还通过选择收集到的数据
来把偏见注入到算法中，
就像我不选择去想拉面一样——
我自认为这无关紧要。
但是，通过信任那些
在过去的实践中获得的数据
以及通过选择成功的定义，
我们怎么能指望算法
会是毫无瑕疵的呢？
我们不能。我们必须检查。
我们必须检查它们是否公平。
好消息是，我们可以做到这一点。
算法是可以被审问的，
而且每次都能告诉我们真相。
然后我们可以修复它们。
我们可以让他们变得更好。
我把它叫做算法审计，
接下来我会为你们解释。
首先，数据的完整性检查。
对于刚才提到过的累犯风险算法，
数据的完整性检查将意味着
我们不得不接受这个事实，
在美国，白人和黑人
吸毒的比例是一样的，
但是黑人更有可能被逮捕——

Russian: 
Мы предвзяты
и внедряем предубеждения в алгоритмы,
отбирая данные.
Вот я решила не думать о лапше,
я решила, что это неприемлемо.
Но, доверяя собранным ранее данным
и выбирая своё определение успеха,
можно ли ожидать, что алгоритмы
окажутся непредвзятыми?
Нет. Мы должны их проверять.
Мы должны проверять их на справедливость.
Хорошей новостью является то,
что мы можем это сделать.
Алгоритмы можно допросить,
и они всегда скажут нам правду.
И мы можем их исправить.
Мы можем их улучшить.
Это алгоритмический аудит,
и я вам сейчас объясню.
Во-первых — проверка целостности данных.
Для алгоритма определения риска
рецидива, о котором я говорила ранее,
проверка целостности данных
означает принятие факта о том,
что в США белые и чёрные курят
марихуану одинаково,
но чернокожих чаще задерживают.

Italian: 
Quindi, siamo noi ad avere pregiudizi,
e stiamo iniettando
quei pregiudizi negli algoritmi,
decidendo quali dati raccogliere,
come ho scelto di non pensare
a quei noodles istantanei,
ho deciso che era irrilevante.
Lo facciamo fidandoci di dati che
si riferiscono a prassi del passato
e scegliendo gli indicatori
per valutare il successo
Come possiamo aspettarci
che gli algoritmi ne escano indenni?
Non possiamo. Dobbiamo controllarli.
Dobbiamo controllarli
per garantirne l'imparzialità.
La buona notizia è che possiamo
verificarne l'imparzialità.
Gli algoritmi possono essere interrogati,
e ci diranno la verità ogni volta.
Possiamo sistemarli.
Possiamo renderli migliori.
Lo definisco un audit algoritmico,
e ve lo illustro.
Primo, controllo dell'integrità dei dati.
Per il rischio di recidività
degli algoritmi di cui ho parlato,
un controllo dell'integrità dei dati
significherebbe constatare il fatto
che negli US, la percentuale di bianchi
e neri che fumano erba è uguale
ma i neri hanno molte più
probabilità di essere arrestati,

Chinese: 
所以，我們才是有偏見的人，
且我們把這些偏見注入演算法中，
做法是選擇要收集哪些資料、
比如我選擇不要考量拉麵，
我決定它不重要。
但透過相信這些資料
真的能了解過去的做法，
以及透過選擇成功的定義，
我們如何能冀望產生的演算法未受損？
不能。我們得要檢查這些演算法。
我們得要檢查它們是否公平。
好消息是，我們可以
檢查它們是否公平。
演算法可以被審問，
且它們每次都會告訴我們真相。
我們可以修正它們，
我們可以把它們變更好。
我稱這個為演算法稽核，
我會帶大家來了解它。
首先，檢查資料完整性。
針對我先前說的累犯風險演算法，
檢查資料完整性就意味著
我們得接受事實，
事實是，在美國，白人和黑人
抽大麻的比率是一樣的，
但黑人被逮捕的機率遠高於白人，

Romanian: 
Deci noi suntem cei părtinitori,
și introducem acele prejudecăți
în algoritmi,
alegând ce date să fie selectate,
așa cum aleg eu să nu mă gândesc
la tăiețeii ramen,
am decis că nu-i relevant.
Dar având încredere în datele
care reiau practicile din trecut
și alegând definiția succesului,
cum să ne putem aștepta
ca algoritmii să fie neafectați?
Nu putem. Trebuie să-i verificăm.
Trebuie să le verificăm echitatea.
Vestea bună e
că le putem verifica echitatea.
Algoritmii pot fi interogați
și ne vor spune adevărul de fiecare dată.
Și putem să-i reparăm.
Putem să-i îmbunătățim.
Eu numesc asta un audit algoritmic
și o să vă explic ce presupune.
Mai întâi,
verificarea integrității datelor.
Pentru algoritmul riscului de recidivă
de care am vorbit,
o verificare a integrității datelor
ar însemna să acceptăm faptul
că în SUA, albii și cei de culoare
fumează canabis în egală măsură,
dar cei de culoare
au mai multe șanse să fie arestați,

Japanese: 
つまりバイアスがあるのは私たちで
どんなデータを集め選ぶかによって
そのバイアスをアルゴリズムに
注入しているんです
これは私がインスタントラーメンを
含めないのと同じで
不適切だと決めたのは
私なんです
しかし実際に過去の行動を元にした
データを信頼し
成功の基準を恣意的に選びながら
どうして欠陥のないアルゴリズムを
期待できるのでしょう？
それは無理です
チェックが必要なんです
公平性を確かめる必要があるんです
幸い公正性は確認できます
アルゴリズムに問いただせば
常に本当のことしか
答えないので
修正を加え より良いものに
作り替えられます
私は これを
アルゴリズム監査と呼んでいます
その手順を説明しましょう
まずはデータ完全性チェックです
先ほど登場した
再犯リスク・アルゴリズムの場合—
データ完全性チェックとは
事実を直視するという意味になるでしょう
例えばアメリカでは 大麻の使用率は
白人と黒人で同じなのに
逮捕される割合は
黒人の方がはるかに高く

Swedish: 
Vi är alltså de som är fördomsfulla,
och vi lägger in fördomarna i algoritmerna
genom att välja datan vi samlar in,
så som jag valde
att inte ta med japanska nudlar.
Jag bestämde att de var oviktiga.
Men genom att lita på data
som bygger på tidigare erfarenheter
och välja definitionen av framgång,
hur kan vi då förvänta oss
att algoritmerna är harmlösa?
Det kan vi inte. Vi måste kontrollera dem.
Vi måste kolla att de är rättvisa.
Den goda nyheten är
att vi kan kolla rättvisan i dem.
Algoritmer kan ifrågasättas,
och de talar om sanningen varenda gång.
Vi kan rätta till dem.
Vi kan förbättra dem.
Jag kallar det för
revision av algoritmer,
och jag ska förklara.
Först, integritetskontroll av datat.
För algoritmen för återfallsrisk
som jag pratade om,
skulle en integritetstest betyda
att vi behöver ta tag i det faktum
att i USA, röker vita och svarta
maruijana i samma utsträckning
men svarta löper större risk
att arresteras -

Dutch: 
Wij zijn degenen met vooroordelen
en daar injecteren we de algoritmes mee
door te kiezen welke data 
worden verzameld,
zoals ik besloot 
ramen noedels uit te sluiten --
omdat ik het niet relevant vond.
Maar als we vertrouwen op data 
die uitgaan van eerder gedrag
en een definitie voor succes hanteren,
waarom denken we dan dat de algoritmes 
daar ongeschonden uitkomen?
Onmogelijk.
We moeten controleren of ze redelijk zijn.
Gelukkig is het mogelijk 
ze op redelijkheid te testen.
Algoritmes kan je ondervragen
en ze zullen steeds 
eerlijk antwoord geven.
We kunnen ze herstellen.
We kunnen ze verbeteren.
Dit noem ik een algoritme-inspectie
en ik leg even uit hoe dat werkt.
Allereerst, een data-integriteitscontrole.
Voor het 'recidive risico'-algoritme 
dat ik eerder noemde,
betekent een data-integriteitscontrole 
dat we moeten accepteren
dat in de VS
de witte en de zwarte bevolking 
net zoveel marihuana roken
maar de zwarte bevolking 
vaker wordt gearresteerd --

English: 
So we are the ones that are biased,
and we are injecting those biases
into the algorithms
by choosing what data to collect,
like I chose not to think
about ramen noodles --
I decided it was irrelevant.
But by trusting the data that's actually
picking up on past practices
and by choosing the definition of success,
how can we expect the algorithms
to emerge unscathed?
We can't. We have to check them.
We have to check them for fairness.
The good news is,
we can check them for fairness.
Algorithms can be interrogated,
and they will tell us
the truth every time.
And we can fix them.
We can make them better.
I call this an algorithmic audit,
and I'll walk you through it.
First, data integrity check.
For the recidivism risk
algorithm I talked about,
a data integrity check would mean
we'd have to come to terms with the fact
that in the US, whites and blacks
smoke pot at the same rate
but blacks are far more likely
to be arrested --

Portuguese: 
Somos nós que somos tendenciosos
e estamos a colocar
esses preconceitos nos algoritmos,
ao escolhermos os dados,
tal como eu decidi
em relação aos "noodles"
— decidi que eram irrelevantes.
Mas, ao confiarmos em dados
que têm, por base, acontecimentos passados
e ao escolhermos a definição de sucesso,
como é que podemos esperar
que os algoritmos saiam ilesos?
Não podemos. Temos de os verificar.
Temos de ver o nível de justiça.
A boa notícia é que podemos fazer isso.
Os algoritmos podem ser questionados
e as respostas são sempre verdadeiras.
Podemos corrigi-los.
Podemos torná-los melhores.
Posso chamar-lhe "auditoria algorítmica"
e explico-vos em que consiste.
Primeiro, verificar
a integridade dos dados.
Em relação ao risco de reincidência
de que já vos falei,
verificar a integridade dos dados
significa que concordamos com o facto
de que, nos EUA, tanto os brancos
como os negros fumam erva,
mas os negros têm
maior probabilidade de ser detidos

Turkish: 
Bizler farkında olmasak da taraflıyız
ve taraflılığımızı, 
seçtiğimiz veriler ile
algoritmalara dahil ediyoruz.
Mesela ben erişteleri es geçtim.
Onların yemek olmadığını düşündüm.
Ancak geçmiş deneyimleri
ve başarı tanımlarını 
baz alarak seçtiğimiz veriye
nasıl güvenebiliriz ve algoritmaların
sağlıklı olacağını nasıl bekleyebiliriz?
Bunu yapamayız. 
Algoritmaları test etmemiz gerekir.
Algoritmaların doğruluklarını
test etmeliyiz.
İyi haber şu ki bunu yapabiliriz.
Algoritmalar kontrol edilebilir
ve kontroller bize gerçeği söyleyebilir.
Algoritmaların hatalarını giderebiliriz.
Ben buna, 'algoritma denetimi'
adını veriyorum
ve size bundan bahsedeyim.
Öncelikle verinin doğruluğu testi.
Bahsettiğim suçun tekrarlama
riski algoritmasında
verinin doğruluğu testi şu anlama gelir:
Amerika'da beyaz ve siyahlar arasında
esrar tüketimi aynı ölçüde yaygın,
oysa siyahların tutuklanma ihtimalleri

iw: 
אז אנחנו בעלי הדעות הקדומות,
ואנחנו מחדירים את ההטיות האלו
לתוך האלגוריתמים
בכך שאנו בוחרים
אילו נתונים יש לאסוף,
כמו שאני החלטתי
לא להתייחס ל"מנה חמה"-
החלטתי שהיא איננה רלוונטית.
אבל אם אנחנו בוטחים בנתונים
ובהגדרת ההצלחה על יסוד גישות קודמות,
איך אנחנו יכולים לצפות 
שהאלגוריתמים ייצאו ללא פגע?
ממש לא.
אנחנו מוכרחים לבדוק אותם.
אנחנו מוכרחים לוודא שהם הוגנים.
החדשות הטובות הן: זה אפשרי.
אפשר לחקור אלגוריתמים
והם יגידו לנו תמיד את האמת.
ואנחנו יכולים לתקן ולשפר אותם.
אני קוראת לזה "בדיקת אלגוריתם"
אסביר לכם איך זה נעשה.
ראשית מוודאים את שלמות הנתונים.
באלגוריתם "הישנות הפשיעה" שהזכרתי,
בדיקת שלמות הנתונים פירושה
שמוכרחים להשלים עם העובדה
שבארה"ב, הלבנים והשחורים
מעשנים מריחואנה באותה מידה
אבל לשחורים יש סיכוי גבוה יותר להיעצר -

Ukrainian: 
Отже, ми маємо упередження,
і ми вбудовуємо ці упередження
в алгоритми,
обираючи, які дани потрібно збирати,
так само, як я вирішила
не думати про локшину рамен -
я вирішила, що це малозначуще.
Але коли ми довіряємо даним,
що вловлюють практику, що склалася,
і обираємо визначення успіху,
як ми можемо очікувати, що алгоритми
будуть без несправностей?
Не можемо. Ми повинні перевіряти їх.
Перевіряти їх на справедливість.
На щастя, ми можемо 
перевіряти їх на справедливість.
Алгоритми можна розпитувати,
і вони щоразу казатимуть
нам правду.
І ми можемо виправити їх.
Ми можемо покращити їх.
Я називаю це "алгоритмічним аудитом",
і я вам зараз його поясню.
По-перше, перевірка цілісності даних.
Повертаючись до алгоритму
риску рецидивізму,
перевірка цілісності даних означала б,
що нам довелося б змиритися із фактом,
що у США білі і темношкірі 
обкурені однаково,
однак темношкірих заарештовують
набагато частіше -

Serbian: 
Tako, mi smo pristrasni
i mi u algoritme ubacujemo pristrasnost
izborom podataka za prikupljanje,
kao kada sam odlučila
da ne mislim o instant-špagetama;
odlučila sam da su nebitne.
Ako verujemo podacima
koji otkrivaju praksu iz prošlosti
i biramo definiciju uspeha,
kako onda očekujemo
da algoritmi ostanu neoštećeni?
Ne možemo. Moramo ih proveriti.
Moramo proveriti da li su pravični.
Dobra vest jeste da možemo
proveriti jesu li pravični.
Algoritme možemo ispitati
i reći će nam istinu svaki put.
I možemo ih popraviti.
Možemo ih poboljšati.
To zovem revizijom algoritma
i ukratko ću vam je objasniti.
Prvo, provera integriteta podataka.
Zbog algoritma rizika od recidivizma
o kojem sam govorila,
provera integriteta podataka
značila bi prihvatanje činjenice
da u SAD crnci i belci
podjednako puše travu
ali crnci imaju mnogo više
šanse da budu uhapšeni -

Thai: 
ดังนั้น พวกเรานี่เองแหละที่มีอคติ
และเรากำลังใส่อคติเหล่านั้น
ลงไปในอัลกอริทึม
โดยผ่านการเลือกว่าจะเก็บข้อมูลอะไร
เหมือนที่ฉันเลือกที่จะไม่ใช้
บะหมี่กึ่งสำเร็จรูป
ฉันตัดสินใจว่า มันไม่ถือเป็นอาหาร
แต่โดยการเชื่อข้อมูลที่เรา
เก็บมาจากผลการกระทำในอดีต
และโดยการเลือกนิยามของความสำเร็จ
เราจะคาดหวังว่าอัลกอริทึมจะ
ออกมาดีได้อย่างไร?
เราคาดหวังไม่ได้ เราต้องตรวจสอบมัน
เราต้องตรวจสอบมัน
ในแง่ความเป็นธรรม
ข่าวดีก็คือ เราสามารถตรวจสอบ
ความเป็นธรรมของมันได้
อัลกอริทึมสามารถถูกสอบสวนได้
และมันจะบอกความจริงเราทุกครั้ง
และเราสามารถซ่อมแซมมันได้
เราทำให้มันดีขึ้นได้
ฉันเรียกมันว่า "การตรวจสอบอัลกอริทึม"
และฉันจะเล่าให้พวกคุณฟัง
สิ่งแรกคือ การตรวจสอบความสอดคล้องของข้อมูล
สำหรับอัลกอริทึมความเสี่ยง
ที่จะทำผิดซ้ำที่ได้เล่าไปแล้ว
การตรวจสอบข้อมูลหมายถึง
การที่เราต้องตระหนักความจริงที่ว่า
ในสหรัฐนั้น ทั้งคนขาวและคนดำ
ต่างก็เสพยาในอัตราเดียวกัน
แต่คนดำนั้นมีโอกาสสูงกว่ามาก
ที่จะถูกจับ

French: 
Donc, nous sommes 
porteurs de préjugés,
et nous les injectons dans les algorithmes
en choisissant 
les données à collecter
comme quand j'ai choisi
de mettre les ramen de côté,
car ce n'était pas pertinent.
Mais en se basant sur des données 
qui reprennent des pratiques passées
et en définissant soi-même la réussite,
comment peut-on s'attendre à ce que
les algorithmes en sortent indemnes ?
On ne peut pas. On doit les contrôler.
On doit contrôler leur équité.
La bonne nouvelle, c'est qu'on peut
contrôler leur équité.
Les algorithmes peuvent être interrogés,
et ils diront la vérité à chaque fois.
Et on peut les corriger, 
les améliorer.
J'appelle ça 
un « audit algorithmique »,
et je vais vous l'expliquer.
D'abord, vérification
de l'intégrité des données.
Pour l'algorithme « risque de récidive »
dont j'ai parlé,
cette vérification impliquera qu'il
faudra se rendre compte du fait
qu'aux États-Unis, blancs et noirs 
fument la même quantité de joints,
mais que les noirs ont bien plus de 
chance d'être arrêtés,

Romanian: 
de patru sau cinci ori mai des,
în funcție de regiune.
Cum arată prejudecata asta
în alte categorii de infracțiuni
și cum o justificăm?
În al doilea rând, ar trebui să ne gândim
la definiția succesului, să audităm asta.
Vă amintiți algoritmul pentru angajare?
Am vorbit de el.
Cineva care lucrează patru ani
și e promovat o dată?
Ăsta e un angajat de succes,
dar și unul
care e susținut de cultura lor.
Dar și asta poate fi părtinitor.
Trebuie să separăm aceste două aspecte.
Ar trebui să luăm audiția pe nevăzute
drept exemplu.
Presupune că cei care sunt audiați
stau după un paravan.
În cazul ăsta vreau să mă gândesc
că cei care ascultă au decis
ce-i important și ce nu
și nu li se distrage atenția de la asta.
Când s-a început cu audițiile pe nevăzute,
numărul femeilor în orchestre
a crescut de cinci ori.
Mai departe,
trebuie să examinăm acuratețea.
În cazul ăsta, modelul valorii adăugate
pentru profesori ar eșua imediat.

Korean: 
지역마다 다르지만 세 배에서
네 배까지 높죠.
다른 범죄에서는 이런 편견이
과연 어떨까요?
또 이걸 어떻게 반영해야 할까요?
두 번째, 우리는 성공에 대한
정의를 다시 생각하고 따져봐야 합니다.
고용문제 알고리즘 기억하세요?
아까 얘기했는데요.
4년 근무하면 1번 승진을 한 사람을
찾는 알고리즘 말입니다.
이건 성공한 직장인이긴 합니다만
또한 그 문화에 잘 동화된
직원이기도 합니다.
이렇게 말하면 이 알고리즘 또한
너무 한쪽으로 치우져 있죠.
우리는 이 둘을 분리할 
필요가 있습니다.
예로 블라인드 오케스트라 오디션을
참고할 필요가 있습니다.
심사자들이 커튼 뒤에 있는 거죠.
제가 여기서 찾는 것은
무엇이 중요한지를 결정을 하고
또 덜 중요한가를 결정하는 게
듣는 사람이라는 거죠
그 어떤 것에도 간섭받지 않는 거죠.
블라인드 오케스트라 오디션이 시작되면서
오케스트라의 여성 단원 수가
5배 정도 증가했습니다.
다음으로 정확성도 생각해봐야 합니다.
바로 여기서 선생님들에게 적용한
가치 증강 모델이 금방 탈락합니다.

Persian: 
چهار تا پنچ برابر بیشتر
وابسته به منطقه.
این تعصب در سایر رده‌های جرم چطور است،
و چطور آن را در نظر بگیریم؟
دوم، باید درباره‌ی تعریف موفقیت فکر کنیم،
آن را حسابرسی کنیم.
الگوریتم استخدام را به خاطر دارید؟
درباره‌ی آن صحبت کردیم.
فردی که چهارسال بماند
و یک بار ارتقاء گرفته باشد؟
خب، این یک کارمند موفق است.
اما علاوه بر این کارمندی است 
که در فرهنگش مورد حمایت قرار گرفته است.
بنابراین، آن هم می‌تواند متعصبانه باشد.
باید این دو را از هم جدا کنیم.
برای مثال باید
به مصاحبه‌ی ارکستر ناپیدا بنگریم.
در این مصاحبه افراد مصاحبه‌گر
در پسِ یک پرده هستند.
آن‌چه می‌خواهم به آن فکر کنم
این است که افرادی که گوش می‌دهند
متوجه شده‌اند چه چیزی مهم است
و چه چیزی مهم نیست،
و به خاطر آن
حواس‌شان پرت نمی‌شود.
زمانی که مصاحبه‌ی ارکستر ناپیدا شروع شد،
تعداد زنان در ارکسترها
پنچ برابر شد.
سپس، باید دقت را در نظر بگیریم.
اینجاست که مدل ارزش افزوده
برای معلمان بلافاصله در هم می‌شکند.

Chinese: 
取决于区域，可能性是白人的4到5倍。
这种偏见在其他犯罪类别中
是什么样子的，
我们又该如何解释呢？
其次，我们应该考虑成功的定义，
审计它。
还记得我们谈论的雇佣算法吗？
那个呆了四年的人，
然后被提升了一次？
这的确是一个成功的员工，
但这也是一名受到公司文化支持的员工。
也就是说，
这可能会有很大的偏差。
我们需要把这两件事分开。
我们应该去看一下乐团盲选试奏，
举个例子。
这就是人们在幕后选拔乐手的地方。
我想要考虑的是
倾听的人已经
决定了什么是重要的，
同时他们已经决定了
什么是不重要的，
他们也不会因此而分心。
当乐团盲选开始时，
在管弦乐队中，
女性的数量上升了5倍。
其次，我们必须考虑准确性。
这就是针对教师的增值模型
立刻失效的地方。

Ukrainian: 
у чотири-п'ять разів частіше,
залежно від району.
Як ця упередженість виглядає
в інших кримінальних категоріях,
і як ми приймаємо її до уваги?
По-друге, нам слід подумати про
визначення успіху,
проводити аудит визначення.
Пригадуєте алгоритм
щодо прийняття на роботу?
Той, хто утримується на роботі чотири роки
і раз отримує підвищення?
Ну так, це успішний працівник,
але це також працівник, котрого підтримує
організаційна культура.
Однак і тут може бути
багато упередження.
Нам треба розрізняти тих дві речі.
Давайте брати приклад 
з прослуховування всліпу
на роль в окрестрі,
Це коли люди на прослуховуванні
є за листом паперу.
На чому я хочу тут зосередитись:
люди, котрі прослуховують кандидатів,
вирішили, що важливе,
і вирішили, що неважливе,
і їх це не відволікає.
Коли розпочалися прослуховування вліпу,
кількість жінок в оркестрах
зросла у п'ять разів.
Потім нам потрібно розглянути точність.
Ось тут модель з розширеними функціями
для вчителів одразу б провалилася.

French: 
quatre ou cinq fois plus selon la région.
A quoi ressemble ce préjugé
dans les autres catégories de crime,
et comment en tient-on compte ?
Ensuite, on doit réfléchir 
à la définition du succès,
la contrôler.
Vous vous souvenez,
l'algorithme de recrutement ?
Quelqu'un qui reste plus de quatre ans 
et est promu une fois ?
Eh bien, cet employé est performant,
mais cet aussi un employé soutenu
par sa culture.
Cela peut donc aussi être biaisé.
Nous devons séparer ces deux idées.
Nous devrions prendre
les auditions à l'aveugle
comme exemple.
Celles où les gens auditionnent 
derrière un drap.
Ce à quoi je pense ici,
c'est que les gens qui écoutent
ont décidé de ce qui est important,
et de ce qui ne l'est pas,
et ils ne se laissent pas distraire
par cela.
Quand les auditions d'orchestre 
à l'aveugle ont commencé,
le nombre de femmes dans les orchestres
s'est multiplié par 5.
Ensuite, nous devons tenir compte
de la précision.
Le modèle de « valeur-ajoutée » pour
professeurs échouerait dans ce cas-là.

Portuguese: 
quatro ou cinco vezes mais,
dependendo da região.
E como esse viés surge
em outras categorias de crime
e como justificamos isso?
Segundo, devemos pensar
na definição de sucesso,
auditar esse conceito.
Lembram-se do algoritmo
de contratação de que falei?
Alguém que trabalhou por quatro anos
e foi promovido uma vez?
Bem, esse é um empregado de sucesso,
mas é também um empregado
que tem apoio da cultura da empresa.
Isso pode ser bem tendencioso.
Precisamos separar essas duas coisas.
Deveríamos nos mirar
na audição às cegas de orquestras.
É quando os examinadores
ficam atrás de uma planilha.
O importante aí
é que os examinadores
decidem o que é importante
e o que não é,
e não se distraem com outras coisas.
Quando as audições às cegas
de orquestras começaram,
o número de mulheres em orquestras
cresceu cinco vezes mais.
Depois, temos de considerar o rigor.
É aí que o modelo valor agregado para
professores fracassaria imediatamente.

Bengali: 
এলাকার উপর নির্ভর করে সম্ভবত চার বা 
পাঁচ গুণ বেশি।
অন্য ধরণের অপরাধের মধ্যে এই 
পক্ষপাতিত্ব কিরকম রয়েছে,
এবং কীভাবে আমরা এর জন্য দায়ী?
দ্বিতীয়ত, আমাদের সাফল্যের সংজ্ঞা
সম্পর্কে ভাবা উচিত,
তা নিরীক্ষা করা দরকার।
মনে আছে-সেই নিয়োগের অ্যালগরিদমের 
কথা যা আমি আলোচনা করলাম।
কাউর চার বছর পর যদি একবার
পদোন্নতি হয়?
সে এক সফল কর্মী, কিন্তু এটি একটি
এমন কর্মী যে তার সংস্কৃতির 
দ্বারা সমর্থন পায়।
এটিও খুব পক্ষপাতদুষ্ট হতে পারে।
আমাদের সেই দুটি জিনিস আলাদা করা উচিত।
আমরা উদাহরণ হিসাবে একটি অন্ধ
অর্কেস্ট্রা শ্রুতি
কল্পনা করতে পারি।
যারা নিজেদের শিল্প পেশ করছে
তারা একটি চাদরের পিছনে।
আমি ভাবতে চাই
এক দল মানুষ যারা তা শুনছে তারা নির্ণয় নিয়ে
নিয়েছে যে তারা কি শুনতে চায়
এবং কোনটা প্রয়োজনী এবং কোনটা অপ্রয়োজনী,
এবং তারা এর দ্বারা 
বিভ্রান্ত হচ্ছেনা।
যখন এরূপ অন্ধ অর্কেস্ট্রা অডিশন শুরু হয়,
অর্কেস্ট্রায় মহিলাদের সংখ্যা পাঁচগুন্ বেড়ে
উঠতে দেখা যায়।
আমাদের পরবর্তী কাজ, সঠিকতা বিবেচনা করা।
এই জায়গায় শিক্ষকদের জন্য তৈরী মূল্য-যুক্ত 
মডেলটি অবিলম্বে নিষ্ফল হবে।

Thai: 
สูงกว่ามากถึง 4 หรือ 5 เท่า
ขึ้นอยู่กับสถานที่
แล้วอคตินั้นเป็นอย่างไร
ในอาชญากรรมประเภทอื่นๆ
แล้วเราจะนำปัจจัยมาพิจารณาอย่างไร
อย่างที่สอง เราควรจะคิดถึง
นิยามของความสำเร็จ
ตรวจสอบนิยามเหล่านั้น
จำไว้ว่า ในอัลกอริทึมการว่าจ้าง
ที่เราได้พูดถึงนั้น
ใครบางคนที่อยู่มาสี่ปีและได้
เลื่อนขั้นอย่างน้อยครั้งหนึ่ง
นั่นถือว่าเป็นพนักงานที่ประสบความสำเร็จ
แต่นั่นก็เป็นพนักงานที่ได้รับการสนับสนุน
จากวัฒนธรรมของพวกเขาด้วย
หมายความว่า
มันสามารถที่จะลำเอียงได้มาก
เราจำเป็นต้องแยกสองอย่างนี้ออกจากกัน
เราน่าจะดูการปิดตาคัดตัว
ที่ใช้ในวงออร์เคสตรา
เป็นตัวอย่าง
นั่นคือเมื่อคนที่กำลังทดสอบ
ถูกกั้นอยู่หลังม่าน
สิ่งที่ฉันคิดก็คือ
นั่นทำให้คนที่กำลังฟังอยู่ 
สามารถตัดสินใจได้ว่า อะไรเป็นสิ่งสำคัญ
และพวกเขาได้ตัดสินใจแล้วว่า
อะไรไม่ใช่สิ่งสำคัญ
และจะไม่ยอมให้เกิดการ
เบี่ยงเบนความสนใจไปได้
เมื่อเริ่มมีการคัดตัวสมาชิก
วงออร์เคสตราแบบปิดตา
จำนวนของนักดนตรีหญิง
ในวงออร์เคสตรา สูงขึ้นถึง 5 เท่า
ต่อมา เราจำเป็นต้องพิจารณาเรื่องความแม่นยำ
นี่คือจุดที่โมเดลคุณค่าเพิ่ม สำหรับครู
จะล้มเหลวในทันที

Arabic: 
أربع أو خمس مرات أكثر من البيض،
اعتمادًا على المنطقة.
كيف يبدو هذا التحيز 
في فئات الجرائم الأخرى،
وكيف يمكننا حساب ذلك؟
ثانيًا، ينبغي علينا التفكير بتعريف النجاح،
تدقيق ذلك.
تذكروا، خوارزمية التوظيف، 
التي تحدثنا عنها.
يبقى شخص ما في الوظيفة لمدة أربع سنوات
ويتمُ ترقيته لمرة واحدة.
حسنًا، هذا موظفُ ناجح،
وإنه أيضًا موظف مدعوم 
من قبل التقاليد الموروثة.
وذلك، يمكن أن يكون ذلك تحيزًا
نحتاجُ لفصل هذين الأمرين.
علينا النظر
في تجربة أداء الأوركسترا العمياء
كمثال.
حيث يجري الأشخاص أداءهم من وراء جدار.
ما أرغبُ أن أفكر فيه هنا
أن من يستمع إلى هؤلاء قد قرروا ما هو المهم
وما ليس مهمًا،
ولم يتم ازعاجهم بأي شيء بهذا القرار.
عندما بدأت تجربة أداء الأوكسترا العمياء،
ارتفع عدد النساء في الأوكسترا بمقدار خمسة.
وبعد ذلك، علينا النظر في الدقة.
وهذا هو حيث سيفشل نموذج القيمة المضافة
بشأن المعلمين على الفور.

iw: 
סיכוי גבוה פי ארבעה או חמישה, 
תלוי באיזור.
איך נראית ההטיה 
בתחומי פשע אחרים,
ואיך אנחנו מסבירים אותה?
שנית, אנחנו צריכים
להגדיר מחדש מהי הצלחה.
לבדוק את הנושא.
זוכרים את האלגוריתם לשכירת עובדים?
דיברנו על זה.
עובד המועסק כבר ארבע שנים
וקודם פעם אחת?
זה באמת עובד מצליח,
אבל זה גם עובד
שהסביבה התרבותית תומכת בו.
אבל גם כאן יכולות להיות
דעות קדומות.
צריך להפריד בין שני הדברים.
למשל בבחינות קבלה עיוורות,
כשהבוחנים נמצאים מאחורי מסך.
אני רוצה לחשוב שכאן,
האנשים המקשיבים הם שהחליטו
מה חשוב ומה לא,
ודעתם לא מוסחת ע"י זה.
כשהתחילו המבחנים העיוורים,
מספר הנשים המנגנות בתזמורת
גדל פי חמש.
הבא בתור הוא הדיוק.
כאן אלגוריתם הערך המוסף
לדירוג מורים ייכשל מיד.

English: 
four or five times more likely,
depending on the area.
What is that bias looking like
in other crime categories,
and how do we account for it?
Second, we should think about
the definition of success,
audit that.
Remember -- with the hiring
algorithm? We talked about it.
Someone who stays for four years
and is promoted once?
Well, that is a successful employee,
but it's also an employee
that is supported by their culture.
That said, also it can be quite biased.
We need to separate those two things.
We should look to
the blind orchestra audition
as an example.
That's where the people auditioning
are behind a sheet.
What I want to think about there
is the people who are listening
have decided what's important
and they've decided what's not important,
and they're not getting
distracted by that.
When the blind orchestra
auditions started,
the number of women in orchestras
went up by a factor of five.
Next, we have to consider accuracy.
This is where the value-added model
for teachers would fail immediately.

Italian: 
da 4 o 5 volte di più,
a seconda della zona.
Che forma assume quel pregiudizio
in altre categorie criminologiche,
e come possiamo tenerne conto?
Secondo, dovremmo considerare
la definizione di successo,
sottoporla a verifica.
Ricordate l'algoritmo
delle assunzioni che ho illustrato?
Uno che mantiene il lavoro per quattro
anni ed è promosso una volta?
Quello è un impiegato di successo,
ma è anche un impiegato
sostenuto dalla loro cultura.
Detto questo, può esserci
anche un lieve pregiudizio.
Dobbiamo distinguere questi due aspetti.
Dovremmo prendere
le audizioni d'orchestra alla cieca
come esempio.
Quelle in cui chi fa il provino
sta dietro uno schermo.
Quello a cui voglio pensare
è che le persone che stanno ascoltando
hanno deciso cosa sia importante
e cosa non lo è,
e non si lasceranno distrarre.
da quando le audizioni d'orchestra
alla cieca sono iniziate,
il numero di donne
nelle orchestre è quintuplicato.
Poi dobbiamo considerare l'accuratezza.
È qui che il "modello di valore aggiunto"
per insegnanti fallisce immediatamente.

Swedish: 
fyra till fem gånger högre risk
beroende på område.
Hur ser den fördomen ut
i andra brottskategorier
och hur hanterar vi det?
Två, vi borde tänka över
hur vi definierar framgång,
granska det.
Kommer ni ihåg -
anställningsalgoritmen vi pratade om?
Någon som stannar fyra år
och befordras en gång?
Ja, det är en framgångsrik person,
men det är också någon
som stöttas av företagskulturen.
Som sagt, även det kan vara partiskt.
Vi måste skilja på de här två sakerna.
Vi bör titta på blindrekrytering
till orkestrar som ett exempel.
I en sådan är den sökande
bakom en skärm.
Det jag vill framhålla är
att de som lyssnar
har bestämt vad som är viktigt
och vad som är oviktigt
och de distraheras inte av det.
När den här typen
av rekryteringar startade,
steg andelen kvinnor
i orkestrarna femfalt.
Sen måste vi överväga tillförlitligheten.
Det är här mervärdesmodellen
för lärare skulle misslyckas omedelbart.

Russian: 
Вероятность ареста в 4–5 раз выше,
в зависимости от района.
Как это выглядит в других сферах права,
и как это можно объяснить?
Во-вторых — успех,
проверьте его.
Помните? Алгоритм принятия на работу?
У кого стаж четыре года
и одно продвижение?
Это — успешный сотрудник,
но это и тот, кого поддерживает
культура компании.
И это может быть довольно предвзятым.
Нам нужно разделять эти две вещи.
Вот слепое cобеседование
для примера.
Прослушивают людей, не видя их.
Я думаю о том,
что прослушивающие люди решили, что важно
для них, а что нет.
И больше они не отвлекаются на эту тему.
Когда начались «слепые оркестровые
прослушивания»,
число женщин в оркестрах
выросло в пять раз.
Затем мы должны учитывать точность.
Тут модель добавленной стоимости
для учителей провалилась бы сразу.

Spanish: 
más probablemente cuatro o cinco 
veces más dependiendo de la zona.
Y ¿cómo son los prejuicios en 
otras categorías criminales,
y cómo lo justificamos?
Segundo, debemos pensar 
en la definición del éxito,
revisarla.
¿Recuerdan el algoritmo
de la contratación?
alguien que se queda cuatro años 
y asciende de cargo una vez?
Ese es el empleado exitoso,
pero tambien es el empleado
apoyado por la cultura.
Esto puede ser bastante injusto.
Tenemos que separar dos cosas.
Mirar a la audicion de una 
orquesta de ciegos
por ejemplo.
Los que dan la audición están 
detrás de la partitura.
Lo que quiero que piensen
es que la gente que escucha
decide lo que es importante
y lo que no lo es,
sin que eso nos distraiga.
Cuando empezaron las audiciones 
de orquesta de ciegos
la cantidad de mujeres aumentó
un factor de cinco veces.
Tambien hay que pensar en la precisión
y así el modelo 
del valor añadido fallaría.

Turkish: 
bölgeye bağlı olarak 
dört veya beş kat fazla.
Diğer suçlarda 
bu tür bir taraflılık nasıldır
ve bunu nasıl inceleriz?
İkincisi başarının tanımı hakkında düşünüp
onu gözden geçirmeliyiz.
İşe alım algoritmasından
bahsetmiştim, hatırlayın.
Şirkette 4 yıl kalıp 
en az bir kez terfi alan kişi.
Kendisini başarılı tanımlamıştık
ama kendisi ayrıca kültürlerince
desteklenen bir kişi.
Bu da aslında bir taraflılık olabilir.
Bu iki şeyi ayırmamız gerekiyor.
Mesela orkestralara yönelik 'kör seçim'
adı verilen seçimlere bakalım.
Bu uygulamada ses sınavında olan kişiler
perdenin arkasında
bulunduğundan görünmüyor.
Sadece dinlediği konusunda
bir sonuca ulaşan insanları düşünün.
Herhangi bir şeyden dikkatleri dağılmıyor.
Orkestra için 'kör seçim' 
başladığından beri
orkestralardaki kadın sayısı 5 kat arttı.
Sonra kesinliği göz önünde
bulundurmalıyız.
Bu öğretmenlere için katma değer modelinin
anında başarısız olacağı aşama olurdu.

Japanese: 
地域によっては
４〜５倍になるという事実があります
このようなバイアスは
他の犯罪では どんな形で表れ
私たちは それを
どう説明したらいいでしょうか？
次に 私たちは成功の基準について
考えなければなりません
その基準を監査するのです
採用アルゴリズムを
思い出してください
勤続年数が４年で
昇進１回の人はどうだったでしょう
その人は成功した社員でしょうが
同時に その会社の文化に
支持されたとも言えます
ただ その文化に
バイアスがあるかもしれないので
この２つは分けて考える必要があります
一つの例として オーケストラの
ブラインド・オーディションを見るべきでしょう
一つの例として オーケストラの
ブラインド・オーディションを見るべきでしょう
オーディションを受ける人は
衝立の向こうにいます
ここで注目したいのは
審査員は 何が重要で
何が重要でないかを
あらかじめ決めて
重要でないものに
惑わされないようにしている点です
ブラインド・オーディションを
するようになって
女性がオーケストラに占める割合は
５倍に増えました
次に正確性を吟味しなければなりません
教員向けの付加価値モデルなら
すぐ落第になる項目です

Chinese: 
四、五倍高的可能性被捕，
依地區而異。
在其他犯罪類別中，
那樣的偏見會如何呈現？
我們要如何處理它？
第二，我們要想想成功的定義，
去稽核它。
記得我們剛剛談過的僱用演算法嗎？
待了四年且升遷至少一次？
那就是個成功員工，
但那也是個被其文化所支持的員工。
儘管如此，它也可能很有偏見。
我們得把這兩件事分開。
我們應該要把交響樂團的盲眼甄選
當作參考範例。
他們的做法是讓試演奏的人
在布幕後演奏。
我想探討的重點是
那些在聽並且決定什麼重要的人，
他們也會決定什麼不重要 ，
他們不會被不重要的部份給分心。
當交響樂團開始採用盲眼甄選，
團內的女性成員數上升五倍。
接著，我們要考量正確率。
這就是老師的加值模型
立刻會出問題的地方。

Hungarian: 
a körzettől függően
négy-ötször gyakrabban.
Hogy néz ki az elfogultság
más bűnügyi területen,
és mivel magyarázható?
Másodszor, foglalkoznunk
kell a siker meghatározásával,
auditálnunk kell.
Emlékeznek a felvételi algoritmusra?
Sikeres, aki négy éve dolgozik,
és egyszer léptették elő?
Ő sikeres munkatárs,
de azért, mert belesimult
a cég kultúrájába.
Ez is elfogultság lehet.
A két dolgot el kell választanunk.
Példának ott van
a vak zenekari meghallgatás:
a zenészek függöny mögött játszanak.
A lényeg, hogy akik hallgatják őket,
már eldöntötték, mi fontos,
s azt is eldöntötték, mi nem,
s erről semmi nem vonja el a figyelmüket.
Amikor megindult
a vak zenekari meghallgatás,
a zenekarban játszó nők
száma ötszörösére nőtt.
Aztán minősíteni kell a precizitást.
Itt rögtön megbukik a tanároknak
szóló hozzáadottérték-modell.

Serbian: 
četiri ili pet puta, zavisi od kraja.
Kako ta pristrasnost izgleda
u drugim kriminalnim oblastima,
i kako je uzimamo u obzir?
Drugo, treba da razmislimo
o definiciji uspeha,
da je revidiramo.
Setite se algoritma za zapošljavanje
koji smo spomenuli.
Osoba koja je tu četiri godine
i unapređena je jednom?
Pa, to je uspešan zaposleni,
ali je takođe i zaposleni
u skladu sa njihovom kulturom.
Tako i to može biti pristrasno.
Moramo razdvojiti te dve stvari.
Treba da uzmemo
slepe audicije za orkestar kao primer.
Tamo ljudi konkurišu su iza zastora.
Što je meni bitno jeste
da ljudi koji slušaju
odlučuju šta je bitno
i odlučuju su šta nije bitno,
tako da im to ne odvlači pažnju.
Otkad su počele
slepe audicije za orkestre,
broj žena u orkestrima
povećao se pet puta.
Zatim, moramo razmotriti tačnost.
Tada bi se model dodatne vrednosti
za nastavnike odmah raspao.

Dutch: 
vier tot vijf keer vaker zelfs, 
afhankelijk van de buurt.
Hoe ziet die vertekening eruit 
in andere misdrijfcategorieën
en hoe verantwoorden we dat?
Ten tweede, we moeten kijken 
naar onze definitie voor succes
en dat checken.
Weet je nog het wervingsalgoritme 
waar we het over hadden?
Iemand die vier jaar in dienst is 
en één keer promotie maakt?
Dat is een succesvolle werknemer,
maar het is ook een werknemer
die de goedkeuring krijgt
van de bedrijfscultuur.
Kortom, vooroordelen.
We moeten die twee dingen 
uit elkaar houden.
Laten we het voorbeeld nemen
van de blinde orkestauditie.
De mensen die auditie doen,
zitten daarbij achter een laken.
Wat volgens mij relevant is,
is dat de toehoorders 
hebben besloten wat belangrijk is
en daar zullen ze niet vanaf wijken.
Toen de blinde orkestaudities begonnen,
schoot het aantal vrouwen 
in orkesten met factor vijf omhoog.
Ook moeten we kijken naar nauwkeurigheid.
Hier zou het meerwaardemodel 
voor docenten direct falen.

Portuguese: 
— quatro ou cinco vezes mais
probabilidades, dependendo da zona.
Como é que se comporta
esta tendência, noutros crimes
e como é que lidamos com isso?
Segundo, devemos pensar
na definição de sucesso,
rever esse conceito.
Lembrem-se do algoritmo
de contratação de que já falámos.
Alguém que fica na empresa
durante quatro anos e é promovido uma vez?
É um trabalhador bem-sucedido,
mas também é alguém
que apoia a cultura da empresa.
Assim, vemos que também
é muito tendencioso.
É necessário separar estas duas coisas.
Tomemos como exemplo
uma audição às cegas
de uma orquestra
As pessoas que fazem a audição
escondem-se atrás duma cortina.
O que é importante reter
é que as pessoas que estão a ouvir
decidiram o que é importante
e o que não é importante,
e não se deixam distrair.
Quando as audições às cegas começaram,
o número de mulheres em orquestras
aumentou cinco vezes.
Em seguida, temos de considerar
a precisão.
É aqui que falharia o "modelo de valor
acrescentado" dos professores.

French: 
Aucun algorithme n'est parfait,
évidemment,
donc nous devons examiner les 
erreurs de tous les algorithmes.
Reviennent-elles souvent, 
et pour qui est-ce que le modèle échoue ?
Quel est le coût de cet échec ?
Enfin, nous devons prendre en compte
l'effet à long terme des algorithmes,
les boucles de réactions
qu'ils engendrent.
Cela semble abstrait,
mais imaginez, si les ingénieurs 
de Facebook y avaient pensé
avant de décider de nous montrer
seulement les publications de nos amis.
J'ai encore deux messages, un pour 
les scientifiques de données ici.
Nous ne devrions pas être
les arbitres de la vérité.
Nous devrions être les traducteurs 
des discussions d'ordre éthique
de la société en général.
(Applaudissements)
Et pour le reste d'entre vous,
qui n'êtes pas du milieu,
ceci n'est pas un test de math.
C'est une bataille politique.

Romanian: 
Niciun algoritm nu e perfect, desigur,
deci trebuie să ne gândim
la erorile fiecărui algoritm.
Cât de des apar erori
și pentru cine nu funcționează modelul?
Care e costul acestui eșec?
Și, în sfârșit, trebuie să analizăm
efectele pe termen lung ale algoritmilor,
buclele de feedback care se generează.
Sună abstract,
dar imaginați-vă că tehnicienii Facebook
s-ar fi gândit la asta
înainte să decidă să ne arate
doar ce au publicat prietenii noștri.
Mai am două mesaje, unul e
pentru specialiștii în date dintre voi.
Specialiști în date,
nu trebuie să fim arbitrii adevărului.
Ar trebui să fim traducătorii
discuțiilor etice care au loc
în societate la scară largă.
(Aplauze)
Iar pentru voi, ceilalți,
nespecializați în date:
ăsta nu-i un test de matematică.
E o luptă politică.

Arabic: 
لا يوجد خوارزمية مثالية، بطبيعة الحال،
لذلك ينبغي علينا حساب الأخطاء
في كل خوارزمية.
كم مرة تتكرر هذه الأخطاء،
ولمن يفشل هذا النموذج؟
وما هي تكلفة هذا الفشل؟
وأخيرًا، علينا اعتبار
الآثار طويلة الأجل للخوارزمية،
ومجموعات التقييم التي تم إحداثها.
يبدو ذلك نظرية مجردة،
لكن تخيلوا لو أن مهندسو الفيسبوك
أخذوا بعين الاعتبار ذلك
قبل أن يقرروا أن يُظهروا لنا
الأشياء التي ينشرها أصدقاؤنا فقط.
عندي رسالتان أخريان، 
الأولى لعلماء البيانات الموجودن من حولنا.
يا علماء البيانات:
لا ينبغي علينا أن نقرر ما هي الحقيقة.
علينا أن نترجم النقاشات الأخلاقية 
التي تحدثُ في المجتمع الأكبر.
(تصفيق)
والبقية منكم،
من غير علماء البيانات:
هذا ليس اختبار رياضيات.
إنها معركة سياسية.

Portuguese: 
Claro que nenhum algoritmo é perfeito,
é por isso que temos de considerar
os erros de cada um.
Com que frequência existem erros
e com quem é que este modelo falha?
Qual é o custo desta falha?
Por último, temos de considerar
os efeitos a longo prazo dos algoritmos,
o "feedback" que está programado.
Isto parece abstrato,
mas imaginem se os engenheiros
do Facebook consideravam
mostrar-nos apenas
o que os nossos amigos publicam.
Tenho mais duas mensagens,
uma delas para os cientistas de dados.
Cientistas de dados: nós não
devemos ser os árbitros da verdade.
Devemos ser tradutores
de discussões éticas
que acontecem em sociedades mais amplas.
(Aplausos)
E aos restantes,
aos que não são cientistas de dados:
isto não é um teste matemático.
É uma luta política.

Chinese: 
当然，没有一个算法是完美的，
所以我们要考虑每一个算法的误差。
出现错误的频率有多高，
让这个模型失败的对象是谁？
失败的代价是什么？
最后，我们必须考虑
这个算法的长期效果，
与正在产生的反馈循环。
这听起来很抽象，
但是想象一下
如果脸书的工程师们之前考虑过，
并决定只向我们展示
我们朋友所发布的东西。
我还有两条建议，
一条是给数据科学家的。
数据科学家们：我们不应该
成为真相的仲裁者。
我们应该成为大社会中
所发生的道德讨论的
翻译者。
（掌声）
然后剩下的人，
非数据科学家们：
这不是一个数学测试。
这是一场政治斗争。

Chinese: 
當然，沒有演算法是完美的，
所以我們得要考量
每個演算法的錯誤。
多常會出現錯誤、這個模型
針對哪些人會發生錯誤？
發生錯誤的成本多高？
最後，我們得要考量
演算法的長期效應，
也就是產生出來的反饋迴圈。
那聽起來很抽象，
但想像一下，如果臉書的工程師
決定只讓我們看到朋友的貼文
之前就先考量那一點。
我還有兩個訊息要傳遞，
其一是給資料科學家的。
資料科學家，我們
不應該是真相的仲裁者，
我們應該是翻譯者，
翻譯大社會中發生的每個道德討論。
（掌聲）
至於你們其他人，
不是資料科學家的人：
這不是個數學考試。
這是場政治鬥爭。

Ukrainian: 
Звісно, що не існує ідеальних алгоритмів,
тому нам треба приймати до уваги помилки
у кожному алгоритмі.
Як часто там трапляються помилки,
і кого підведе ця модель?
Якою є ціна цього провалу?
І наприкінці, нам потрібно 
прийняти до уваги
довготермінові ефекти алгоритмів,
ланцюги зворотного зв'язку, що виникають.
Звучить абстрактно,
але уявіть, якщо інженери Facebook
прийняли б це до уваги,
перш ніж вони вирішили показувати нам
лише те, що постять наші друзі.
В мене є ще дві думки, що я хочу донести,
одна для науковців з даних.
Науковці з даних: нам не слід бути
арбітрами правди.
Нам слід бути перекладачами
етичних дискусій, що відбуваються
у ширшому суспільстві.
(Оплески)
А щодо решти з вас,
не-науковців з даних:
це не тест з математики.
Це політична боротьба.

Turkish: 
Elbette hiçbir algoritma mükemmel değil,
bu yüzden her algoritmanın
hatalarını dikkate almalıyız.
Bu hatalar ne sıklıkla oluşuyor,
hangileri modeli başarısız kılıyor?
Başarısızlığın maliyeti ne?
Son aşamada
algoritmaların uzun dönemli etkilerini,
geri besleme döngülerini
göz önünde bulundurmalıyız.
Kulağa soyut geliyor
ama Facebook yazılımcıları
sadece arkadaşlarımızın paylaşımını
görmemize karar vermeden önce
bunun üzerinde düşünseydi
nasıl olurdu, hayal edin.
İki mesajım var. 
Birincisi veri bilimciler için:
Bizler neyin doğru olduğuna
karar verenler olmamalıyız.
Bizler toplumlarda meydana gelen 
etik tartışmaların
tercümanları olmalıyız.
(Alkışlar)
Ve geri kalanlar,
veri bilimci olmayanlar:
Bu herhangi bir matematik testi değil.
Bu bir politik mücadele.

English: 
No algorithm is perfect, of course,
so we have to consider
the errors of every algorithm.
How often are there errors,
and for whom does this model fail?
What is the cost of that failure?
And finally, we have to consider
the long-term effects of algorithms,
the feedback loops that are engendering.
That sounds abstract,
but imagine if Facebook engineers
had considered that
before they decided to show us
only things that our friends had posted.
I have two more messages,
one for the data scientists out there.
Data scientists: we should
not be the arbiters of truth.
We should be translators
of ethical discussions that happen
in larger society.
(Applause)
And the rest of you,
the non-data scientists:
this is not a math test.
This is a political fight.

iw: 
אין אלגוריתם מושלם, כמובן,
אז צריך לקחת בחשבון את
השגיאות של כל אלגוריתם:
כמה ומתי הן קורות
ועם מי המודל הזה נכשל?
מהו המחיר של הכשלון הזה?
ולסיום, אנחנו מוכרחים 
לקחת בחשבון
את ההשפעות ארוכות הטווח
של האלגוריתמים,
של לולאות המשוב שנוצרות.
זה נשמע מופשט,
אבל מה אם מהנדסי "פייסבוק"
היו לוקחים זאת בחשבון
בטרם החליטו להראות לנו
רק מה ששיתפו החברים שלנו.
יש לי עוד שני מסרים,
אחד למתכנתים באשר הם:
מתכנתים:
אסור לנו לתווך את האמת.
אנחנו צריכים לתת ביטוי
לדיוני מוסר שמתקיימים
בחברה כולה.
(מחיאות כפיים)
ולשאר האנשים,
אלו שאינם עוסקים במידע:
לא מדובר במבחן במתמטיקה,
אלא במאבק פוליטי.

Hungarian: 
Persze, nincs tökéletes algoritmus,
ezért mérlegelni kell minden
algoritmus esetleges hibáját.
Milyen gyakoriak a hibák,
és kinél sikertelen a modell?
Mi a sikertelenség ára?
Végezetül, meg kell fontolnunk
az algoritmusok s a keletkező
visszacsatolási hurkok
hosszú távú kihatásait.
Ez elvontnak hangzik,
de képzeljék el, ha a Facebook-
mérnökök gondoltak volna rá,
mielőtt eldöntötték, hogy csak a barátaink
posztolta dolgokat mutatják nekünk.
Még két megjegyzésem van,
egyik az itt ülő adattudósoknak szól.
Adattudósok!
Nem lehetünk az igazság döntőbírái.
A szélesebb társadalomban
folyó erkölcsi eszmecserét
kell tolmácsolnunk.
(Taps)
A többieknek,
a nem adattudósoknak:
ez nem matekvizsga.
Ez politikai küzdelem.

Swedish: 
Självklart är ingen algoritm perfekt,
så vi måste överväga felen
i varje algoritm.
Hur ofta förekommer fel
och för vem misslyckas modellen?
Vad är kostnaden för de felen?
Slutligen, måste vi överväga
de långsiktiga effekterna av algoritmerna,
och feedbacken som de medför.
Det låter abstrakt,
men tänk om Facebooks ingenjörer
övervägt det här
innan de bestämde sig för att bara
visa oss det våra vänner lagt upp.
Jag har ytterligare två budskap,
ett för dataanalytikerna där ute.
Dataanalytiker: Vi bör inte vara
sanningens skiljedomare.
Vi bör vara översättare
av de etiska diskussioner som sker
i samhället i stort.
(Applåder)
Och ni andra,
som inte är dataanalytiker:
Det här är inte ett matteprov.
Det här är en politisk kamp.

Japanese: 
当然 完璧なアルゴリズムなどないので
あらゆるアルゴリズムの
誤りを検討する必要があります
誤りを起こす頻度は？
どんな相手だと そのモデルは機能しないのか？
失敗した時の損失規模は？
そして最後に考えなければならないのは
アルゴリズムの長期的影響 つまり
それによって生じる
フィードバック・ループです
抽象的な話に
聞こえるかもしれませんが
もしFacebookのエンジニアが
友人の投稿だけを表示する前に
フィードバック・ループの影響を
考慮していたらと考えてみてください
伝えたいことは あと２つ
１つはデータサイエンティストに向けたものです
私たちデータサイエンティストが
真実を決めるべきではありません
私たちは もっと広い社会に生じる
倫理的な議論を
解釈する存在であるべきです
（拍手）
そしてデータサイエンティスト以外の
皆さん—
そしてデータサイエンティスト以外の
皆さん—
この状況は数学のテストではなく
政治闘争なのです

Russian: 
Конечно, нет идеальных алгоритмов,
поэтому мы должны учитывать
ошибки всех алгоритмов.
Когда бывают ошибки,
к кому эта модель не подходит?
Какова цена этой неудачи?
И, наконец, мы должны рассмотреть
долгосрочные эффекты алгоритмов,
петли обратной связи.
Это звучит абстрактно,
но представьте, если бы об этом
подумали творцы Facebook,
прежде чем они решили показать нам
публикации наших друзей.
У меня есть ещё два сообщения,
одно для ИТ специалистов.
Ребята, мы не должны быть судьями правды,
мы должны передавать этику
широкой общественности.
(Аплодисменты)
А для остальных, 
не специалистов ИТ:
это не математический тест.
Это политическая борьба.

Korean: 
물론 어느 알고리즘도
완벽하지 않습니다.
그래서 모든 알고리즘의 오류를
고려해야 합니다.
얼마나 자주 오류가 발생하고
이 모델이 안 맞는 사람은 누군가요?
그 오류의 댓가는 얼마나 되나요?
그리고 마지막으로
반드시 고려해야 하는 것은
알고리즘의 장기적 영향과
여기서 생겨나는 피드백 고리죠.
구체적으로 와닿진 않겠지만
페이스북 엔지니어가 친구들이
올린 글만 보여주도록 결정하기 전에
이 점을 먼저 생각해 봤다면
과연 어땠을까요?
제가 드릴 메세지가 둘 있는데
하나는 데이터 과학자분들 겁니다.
데이터 과학자 여러분, 우리는
진실의 결정권자가 아닙니다.
우리는 더 큰 사회에서 벌어지는
윤리적 토론을 번역하는 사람에 불과합니다.
(박수)
나머지 비데이터 과학자
여러분
이 문제는 수학 시험이 아닙니다.
이것은 정치적 투쟁입니다.

Serbian: 
Nema savršenog algoritma, naravno,
pa moramo razmotriti
greške svakog algoritma.
Koliko su greške česte
i za koga ovaj model ne funkcioniše?
Koja je cena te nefunkcionalnosti?
Na kraju, moramo razmotriti
dugoročne efekte algoritama,
njihove povratne kružne sprege
koje se stvaraju.
Ovo zvuči apstraktno,
ali zamislite da su Fejsbukovi inženjeri
to uzeli u obzir
pre odluke da nam prikažu
samo postove naših prijatelja.
Imam još dve poruke,
jednu za naučnike koji se bave podacima.
Naučnici za podatke - ne treba
da budemo sudije istine.
Treba da budemo
prevodioci etičkih rasprava
koje se odvijaju u širem društvu.
(Aplauz)
A za vas ostale,
koji niste naučnici za podatke:
ovo nije test iz matematike.
Ovo je politička borba.

Italian: 
Nessun algoritmo è perfetto, certo,
quindi dobbiamo considerare
gli errori di ogni algoritmo.
Quanto spesso ci sono errori
e per chi fallisce questo modello?
Qual è il prezzo di quel fallimento?
Infine, dobbiamo considerare
gli effetti a lungo termine
degli algoritmi,
i cicli di feedback
che stanno generando.
Può sembrarvi un'astrazione,
ma immaginate se i tecnici di Facebook
lo avessero considerato
prima di decidere di mostrarci solo
le cose pubblicate dai nostri amici.
Ho altre due raccomandazioni,
una per gli analisti di dati là fuori.
Analisti: non dovremmo
essere gli arbitri della verità.
Dovremmo essere i traduttori
delle discussioni etiche che accadono
nella società.
(Applausi)
E per tutti gli altri,
i non-analisti di dati:
questo non è un esame di matematica.
Questa è una lotta politica.

Spanish: 
Por supuesto ningún algoritmo es perfecto,
asi que hay que considerar los 
errores de cada algoritmo.
¿Qué frecuencia tienen los errores
y con quiénes falla?
Y ¿cuál es el costo de dicha falla?
Y por último, tenemos que considerar
los efectos a largo plazo 
de los algoritmos,
los bucles de retroalimentación 
que engendran.
Eso suena a abstracto.
Pero imagínese si los ingenieros 
de Facebook lo hubieran considerado
antes de mostrarnos cosas
publicadas por nuestros amigos.
Tengo dos mensajes,
uno para los científicos de datos.
Cientificos de datos: no debemos
ser los árbitros de la verdad.
Debemos ser tradutores de las
discusiones éticas que ocurren
en toda la sociedad.
(Aplausos)
Y para el resto de Uds.
los que no son científicos de datos:
esta no es un examen de matemáticas.
Es una lucha politica.

Bengali: 
কোন এলগোরিদমই সম্পূর্ণ নিখুঁত নয় অবশ্য,
তাই আমাদের উচিত প্রতিটি আলগোরিদমের
ত্রুটি বিবেচনা করা।
এতে ভুল কতটা সাধারণ,
এবং কাদের বিষয় এই মডেল ব্যর্থ হয়?
এই ব্যর্থতার খরচ কি?
এবং অবশেষে, আমাদের অ্যালগরিদমের
দীর্ঘমেয়াদী প্রভাব বিবেচনা করতে হবে,
প্রতিক্রিয়ার বৃত্তমান পথগুলি প্ররোচিত করে।
এটি বিমূর্ত শোনায় ,
ভাবুন যদি ফেইসবুকের প্রকৌশলীরা এটি
ভেবে থাকতেন
আমাদের বন্ধুদের পোস্ট গুলো আমাদের
দেখানোর আগে।
আমার আরও দুটি বার্তা আছে, এক 
তথ্য বিজ্ঞানীদের জন্য।
তথ্য বিজ্ঞানীরা: আমাদের সত্যের
সালিশ হতে হবেনা।
আমাদের এই বৃহত্তর সমাজে নৈতিক আলোচনাগুলির
অনুবাদক হওয়া উচিত।
(হাততালি)
এবং বাকিদের জন্য, যারা
তথ্য বৈজ্ঞানিক নন:
এটি অংকের পরীক্ষা নয়।
এটি একটি রাজনৈতিক যুদ্ধ।

Persian: 
البته هیچ الگوریتمی بی‌نقص نیست،
بنابراین باید خطای
تمام الگوریتم‌ها را در نظر بگیریم.
این خطاها تا چه حد پر تکرارند،
و این مدل برای چه کسانی بد عمل می‌کند؟
هزینه‌ی این خطا چقدر است؟
و در نهایت، باید 
آثار بلند مدت الگوریتم‌ها را 
در نظر بگیریم.
حلقه‌های بازخوردی که تشدید کننده‌اند.
به نظر انتزاعی می‌رسد،
اما تصور کنید اگر مهندسان فیسبوک
پیش از آن‌که تصمیم بگیرند
فقط چیزهایی را به ما نشان بدهند 
که دوستانمان فرستاده‌اند،
این مسئله را در نظر نگرفته بودند.
دو پیام دیگر هم دارم،
یکی برای دانشمندان داده.
دانشمندان داده: ما نباید
داوران حقیقت باشیم.
ما باید مترجمان گفتگوهای اخلاقی باشیم
که در جامعه‌ی بزرگتر رخ می‌دهد.
(تشویق حضار)
و بقیه‌ی شما،
کسانی که دانشمند داده نیستند:
این یک امتحان ریاضی نیست.
این یک جنگ سیاسی است.

Portuguese: 
Nenhum algoritmo é perfeito, claro,
assim, temos de partir
do pressuposto de que todos erram.
Qual a frequência desses erros,
e com quem esse modelo falha?
Qual o preço desse fracasso?
E, finalmente, temos de considerar
os efeitos de longo prazo dos algoritmos,
os círculos viciosos que são gerados.
Isso parece abstrato, mas imaginem
se os engenheiros do Facebook
tivessem considerado isso
antes de decidirem nos mostrar
apenas coisas que nossos amigos postam.
Tenho mais duas mensagens,
uma para os cientistas de dados.
Cientistas de dados: não devemos
ser os árbitros da verdade.
Devemos ser tradutores
dos debates éticos que ocorrem
na sociedade como um todo.
(Aplausos) (Vivas)
E os demais,
os que não são cientistas de dados:
isso não é um teste de matemática.
Essa é uma luta política.

Dutch: 
Geen enkel algoritme is perfect,
dus we moeten rekening houden 
met de fouten van ieder algoritme.
Hoe vaak worden fouten gemaakt
en wie is daar het slachtoffer van?
Wat zijn de gevolgen?
En tot slot moeten we stilstaan
bij de gevolgen van algoritmes 
op de lange termijn,
de terugkoppeling 
die het met zich meebrengt.
Dat klinkt vaag,
maar stel dat de Facebookontwerpers 
daar aan hadden gedacht
voordat ze besloten ons alleen te laten 
zien wat onze vrienden hadden gepost.
Ik wil nog twee dingen kwijt. 
Allereerst aan de datawetenschappers:
wij zijn niet de scheidsrechters 
die bepalen wat waar is.
Wij moeten de ethische discussies
die zich voordoen,
begrijpelijk maken
voor de hele samenleving.
(Applaus)
En tegen alle 
niet-datawetenschappers zeg ik:
dit is geen wiskundetest.
Dit is een politiek gevecht.

Thai: 
จริงอยู่ที่ไม่มีอัลกอริทึมใดจะสมบูรณ์แบบ
ดังนั้นเราจะต้องพิจารณาถึง
ความผิดพลาดต่างๆ ของทุกอัลกอริทึม
ความผิดพลาดเกิดบ่อยแค่ไหน
และมันส่งผลเสียต่อใครบ้าง
ความเสียหายนั้นมีต้นทุนเป็นอย่างไร
และท้ายที่สุดแล้ว เรายังต้องพิจารณาถึง
ผลกระทบในระยะยาวของอัลกอริทึมต่างๆ
ที่เกิดจากวงจรของเสียงตอบรับ
นั่นฟังดูค่อนข้างเป็นนามธรรม
แต่ลองนึกภาพว่าถ้าวิศวกรของเฟซบุ๊ค
ได้เคยหยุดคิดถึงผลกระทบ
ก่อนที่พวกเขาจะตัดสินใจแสดง
แต่เฉพาะสิ่งที่เพื่อนๆ เราได้โพสไป
ฉันมีอีกสองประเด็นที่อยากบอก
เรื่องแรกสำหรับนักวิทยาการข้อมูลทั้งหลาย
เราไม่ควรทำตัวเป็นผู้ชี้ขาดความจริง
เราควรเป็นผู้สื่อประเด็น
ข้อถกเถียงทางศีลธรรมที่กำลังเกิดขึ้น
ในสังคมวงกว้าง
(เสียงปรบมือ)
และสำหรับคุณที่เหลือ
ที่ไม่ใช่นักวิทยาการข้อมูล
นี่ไม่ใช่การทดสอบทางคณิตศาสตร์
นี่เป็นการต่อสู้ทางการเมือง

English: 
We need to demand accountability
for our algorithmic overlords.
(Applause)
The era of blind faith
in big data must end.
Thank you very much.
(Applause)

Turkish: 
Bizler algoritma amirlerinden
sorumluluk talep etmeliyiz.
(Alkışlar)
Büyük verideki kör inanç dönemi bitmeli.
Teşekkür ederim.
(Alkışlar)

Portuguese: 
Precisamos exigir prestação de contas
dos "senhores dos algoritmos".
(Aplausos) (Vivas)
A era da fé cega
no Big Data tem de acabar.
Muito obrigada.
(Aplausos) (Vivas)

iw: 
אנחנו צריכים לדרוש משליטי
האלגוריתמים לקחת אחריות.
(מחיאות כפיים)
עידן האמון העיוור בנתונים
חייב להסתיים.
תודה רבה.
(מחיאות כפיים)

Russian: 
Нужна отчётность собственников алгоритмов.
(Аплодисменты)
Эре слепой веры в «большие данные» конец!
Спасибо большое.
(Аплодисменты)

Chinese: 
我们应该要求我们的
算法霸主承担问责。
（掌声）
盲目信仰大数据的时代必须结束。
非常感谢。
（掌声）

Serbian: 
Od naših algoritamskih vladara
moramo zahtevati odgovornost.
(Aplauz)
Doba slepe vere u masovne podatke
mora se okončati.
Hvala vam mnogo.
(Aplauz)

Swedish: 
Vi måste kräva ansvarsskyldighet
från våra algoritmiska överherrar.
(Applåder)
Tiden när vi trodde blint
på big data måste få ett slut.
Tack så mycket.
(Applåder)

Thai: 
เราจำเป็นต้องเรียกร้องความรับผิดชอบ
ของผู้มีอำนาจบงการอัลกอริทึมเหล่านี้
(เสียงปรบมือ)
ยุคแห่งความเชื่อที่มืดบอด
ในโลกแห่งข้อมูลมหาศาลจะต้องสิ้นสุดลง
ขอบคุณมากค่ะ
(เสียงปรบมือ)

Korean: 
알고리즘을 지배하는 이들에게
책임을 요구할 필요가 있습니다.
(박수)
빅 데이터에 대한 맹신의 시기는
반드시 끝나야 합니다.
대단히 감사합니다
(박수)

Portuguese: 
Precisamos de exigir a responsabilização
dos soberanos dos nossos algoritmos.
(Aplausos)
A era da fé cega nos "big data"
tem de acabar.
Muito obrigada.
(Aplausos)

Japanese: 
専制君主のようなアルゴリズムに対して
私たちは説明を求める必要があります
（拍手）
ビッグデータを盲信する時代は
終わらせるべきです
ありがとうございました
（拍手）

French: 
Nous devons réclamer des comptes 
à nos souverains algorithmiques.
(Applaudissements)
L'ère de la confiance absolue 
dans le Big Data doit prendre fin.
Merci beaucoup.
(Applaudissements)

Hungarian: 
Követelnünk kell, hogy az algoritmusok
nagyurai elszámoltathatók legyenek.
(Taps)
Vessünk véget a big datába
vetett vakhit korszakának!
Köszönöm szépen.
(Taps)

Dutch: 
We moeten onze algoritmebazen
ter verantwoording roepen.
(Applaus)
Het wordt tijd dat er een eind komt 
aan het blinde vertrouwen in Big Data.
Dank jullie wel.
(Applaus)

Spanish: 
Tenemos que exigir responsabilidad
a los lores de los algoritmos.
(Aplausos)
La era de la fe ciega en los
datos masivos debe terminar.
Muchas gracias.
(Aplauso)

Romanian: 
Trebuie să pretindem responsabilizarea
suzeranilor noștri algoritmici.
(Aplauze)
Vremea încrederii oarbe în volumele mari 
de date trebuie să ia sfârșit.
Mulțumesc mult.
(Aplauze)

Italian: 
Dobbiamo pretendere più trasparenza
dai signori degli algoritmi.
(Applausi)
L'era della fede cieca 
nelle masse di dati deve finire.
Vi ringrazio molto.
(Applausi)

Ukrainian: 
Ми повинні вимагати підзвітності
від наших алгоритмічних можновладців.
(Оплески)
Епоха сліпої віри у великі дані
має підійти до кінця.
Дуже вам дякую.
(Оплески)

Arabic: 
نحتاجُ أن نطالبَ بالمساءلة
لمن يضع الخوارزميات من الأسياد.
(تصفيق)
يجب أن ينتهي عصر الثقة العمياء
في البيانات الضخمة.
شكرًا جزيلًا لكم.
(تصفيق)

Bengali: 
আমাদের অ্যালগরিদমের জমিদারির বিরুদ্ধে
দায়বদ্ধতা দাবি করতে হবে।
(হাততালি)
'বিগ ডাটা' এ অন্ধবিশ্বাসের যুগ 
শেষ করতে হবে|
ধন্যবাদ |
(হাততালি)

Chinese: 
我們得要求為演算法的超載負責。
（掌聲）
盲目信仰大數據的時代必須要結束。
非常謝謝。
（掌聲）

Persian: 
ما باید مسئولیت‌پذیری را
از اربابانِ الگوریتمی‌مان مطالبه کنیم.
(تشویق حضار)
عصر ایمان کورکورانه
به داده‌های عظیم باید پایان بیابد.
خیلی متشکرم.
(تشویق حضار)
