
Arabic: 
المترجم: Ahmad Elwehedy
المدقّق: Ayman Mahmoud
لدي فكرة تمكننا من جعل العالم مكان أفضل،
وكجميع الأفكار الجيدة حقاً،
تبدأ هذه الفكرة برحلة على الطريق.
الشخصيات المحورية خلال هذه الرحلة
هم أنا و أستاذ لدى جامعة شيكاغو،
والذي يدرس الجريمة ونظام القضاء الجنائي،
و أحد أصدقائي، وهو أستاذ في كلية الطب
التابعة لرابطة اللبلاب (Ivy League).
وهكذا كنا نحن، أكاديميين اثنين
بارزين نوعاً ما على الأقل
نقود باتجاه طريق 95.
(ضحك)
وكان علينا أن نقضي بضع ساعات في طريقنا
من مدينة نيويورك إلى نيو إنجلاند،
فحاولت آنذاك أن أجرب استخدام
مهارات التحدث هذه
التي يشتهر بها أساتذة الجامعات.
قمت بالالتفات لصديقي وقلت له،
"احك لي عن أكبر خطأ
لم تفعل مثله قط طيلة حياتك."
توقف قليلا ثم التفت إلي وقال،
"لدي فكرة، لما لا تبدأ أنت أولاً؟"
(ضحك)
فقلت لصديقي

Japanese: 
翻訳: Mayumi Oiwa-Bungard
校正: Eriko T
私には 世界をより良い場所にするための
アイデアがあります
本当に良いアイデアというのは得てして
ドライブ中に産まれるもので
主人公はこの私
犯罪学と刑事司法制度を研究する
シカゴ大学教授と
友人で アイビーリーグ大学の
医学部教授
こんなそこそこ名の知れた学者二人が
96号線をドライブしています
（笑）
ニューヨークからニューイングランドまでの
数時間の道のり
教授というものは
会話上手で知られていますから
そのスキルを実践してみたわけです
友達に尋ねました
「人生で犯した一番大きな過ちは何だい？」
彼は一瞬の沈黙の後
私に向かって言います
「それなら 君から先に話したらどうだい？」
（笑）
私は言い返しました

English: 
Translator: Delia Cohen
Reviewer: Ellen Maloney
I have an idea for how to make
the world a better place,
and like all truly good ideas,
this one starts with a roadtrip.
The protagonists on the road trip
are me, a University of Chicago professor
who studies crime
and the criminal justice system,
and a friend of mine who's a professor
at an Ivy League medical school.
And so, there we were, two at least
moderately distinguished academics
driving up Route 95.
(Laughter)
We had several hours to kill on the way
from New York City to New England,
and so I tried to use some
of those conversational skills
that professors are famous for.
I turned to my friend and I said,
"Tell me about the biggest mistake
that you've ever made in your life."
He paused, then turned to me and said,
"I've got an idea:
why don't you go first?"
(Laughter)
So, I said to my friend

Portuguese: 
Tradutor: Josiane Kuchar Marinhuk
Revisor: Custodio Marcelino
Tenho uma ideia sobre como
fazer do mundo um lugar melhor
e, como todas as verdadeiras boas ideias,
essa começa com uma viagem.
Os protagonistas dessa viagem são: eu,
professor da Universidade de Chicago
que estudo crimes 
e o sistema de justiça criminal,
e um amigo meu que é professor
numa Escola de Medicina da Ivy League.
E então, estávamos lá, dois no mínimo
moderadamente renomados acadêmicos
dirigindo na estrada 95.
(Risos)
Nós tínhamos muito tempo no caminho
de Nova Iorque até Nova Inglaterra,
então decidimos usar algumas 
das habilidades de conversação
que professores são famosos por ter.
Virei para o meu amigo e disse:
"Conte-me o maior erro
que você já cometeu na vida".
Ele parou, virou pra mim e disse:
"Tenho uma ideia:
por que você não começa?"
(Risos)
Então eu disse pra ele:

Portuguese: 
"Eu perguntei primeiro.
Por que você não começa?"
Então, meu amigo me contou sobre um dia,
quando trabalhava na emergência,
e chegou um paciente com dor no peito.
O protocolo padrão nessas situaçōes 
é fazer um teste de enzima cardíaca
para ver o que há
no sangue e tentar prever
se o paciente está tendo
um ataque cardíaco naquele momento.
O paciente entrou, e eles fizeram o teste.
O nível dessa enzima 
estava acima do limite,
e geralmente o padrão 
seria por o paciente numa UTI.
Mas, antes de fazerem isso,
meu amigo foi na sala de espera
ver o paciente pessoalmente,
e o paciente está sentado lá,
comendo uma melancia.
Meu amigo conversa com ele 
por alguns minutos,
e volta para falar com o resto da equipe.
Então, o resto da equipe,
os médicos e enfermeiros de plantão,
não tinham visto o paciente,
tudo o que viram foi a tabela de dados
e o exame acima do limite.
Então eles disseram:

English: 
"I'm the one who asked the question.
Why don't you go first?"
So, my friend told me about a time
that he was working in the ER,
and a patient came in
complaining of chest pain.
The standard protocol
in situations like that
is to do a cardiac enzyme test
to see what's in the blood
to try and predict
whether the patient is having
a heart attack at the time.
The patient comes in,
and they administer the test.
The level of the enzyme
is above the threshold,
and usually the default would be to take
the patient into the intensive care unit.
But before they do that, my friend goes 
into the waiting room to see the patient
in person first,
and the patient is sitting there
snacking on a watermelon.
My friend talks to him for a few minutes,
goes back out to meet
the rest of the team.
Now, the rest of the team -
the doctors and nurses
on duty in the ER -
they haven't seen the patient.
All they've seen are the data in the chart
and the test level above the threshold.

Japanese: 
「私が先に訊いたんだから 
君が先に答えてくれ」
彼が救急治療室で働いていた時のこと
胸部の痛みを訴える患者が
やって来たそうです
このような場合 一般的な処置は
血液検査で心筋マーカー値を調べ
患者が心筋梗塞を起こしているか
推測するというものです
来院した患者に検査をして
マーカーが閾値を超えていれば
通常は集中治療室へ連れていきますが
その前に 友人は待合室にいる患者を
直接診に行きました
すると患者は座って スイカを食べていました
友人は患者と数分会話した後
チームの所へ戻りました
他のメンバー
つまり当直医や看護師は
患者を直接見ていません
マーカーが閾値を超えているのを
カルテ上で見ただけです

Arabic: 
"أنا من قام بطرح السؤال،
فلم لا تبدأ أنت أولاً؟"
فأخبرني صديقي عن وقت ما
عندما كان يعمل في قسم الطوارئ
ودخل عليه مريض يشكو من آلام في الصدر.
إن البروتوكول المتعارف عليه
في مثل هذه الحالات
هو القيام بفحص لإنزيمات القلب
لمعرفة محتويات الدم من أجل التأكد
ما إذا كان يعاني المريض
من نوبة قلبية في ذلك الوقت.
يدخل المريض ويقوم بتلقي الفحص.
كان مستوى الإنزيمات تفوق المستوى الطبيعي،
ومن المعتاد أن يتم احتجاز المريض
في وحدة العناية المركزة.
ولكن قبل القيام بذلك، يدخل صديقي
غرفة الانتظار ليرى المريض،
ليراه شخصياً في بداية الأمر.
وكان المريض يجلس هناك
ويتناول بطيخاً كوجبة خفيفة.
تحدث صديقي إليه لدقائق قليلة،
ثم يعود لمقابلة بقية فريق العمل.
والآن بقية الفريق -
الأطباء و الممرضات
في مهمة بقسم الطوارئ -
لم يقوموا برؤية المريض.
كل ما قاموا برؤيته هو البيانات في الجدول 
وأن نتيجة الفحص تفوق المستوى الطبيعي.

Japanese: 
「今すぐ集中治療室へ連れて行かないと」
と言う彼らに対し
友人は「いやいや
患者に会ってきたけど 落ち着いてるよ
ちゃんと座って 食べ物も食べてる
問題ない このまま様子を見よう」
すると30分後 その患者は
急に心停止となり
緊急手術をすることになってしまいました
これは行動経済学や心理学によって得られた
教訓の好例でしょう
人間の脳が どれだけ簡単に
取るに足らないけれども目立つ情報に
注意を逸らされやすいものかという
そこで私も考えさせられました
私が運営の一旦を担う
シカゴ大学の研究所「犯罪ラボ」では
ここ何年も アメリカ合衆国における
刑務所制度の問題に 取り組んでいます
一年に何百万回も
裁判官は決断を迫られます
逮捕された者が どこで裁判を待つのか

Arabic: 
فتحدثوا قائلين "علينا أن ننطلق لنقوم
باحتجاز الرجل في وحدة العناية المركزة"
فيرد صديقي قائلا ً "لا، لا، لا.
ذهبت والتقيت بالمريض، 
فهو مرتاح ورائق تماماً.
إنه جالس هناك ويتناول وجبة خفيفة.
أعتقد أنه بخير،
لنتركه وشأنه فحسب."
وبعد نصف ساعة،
يدخل الرجل في سكتة قلبية 
وكان عليهم الإسراع به إلى غرفة العمليات.
هذا توضيح لدرس قمنا بتعلمه
عن الاقتصاد السلوكي و علم النفس أنه،
كيف يمكن للعقل البشري بكل بساطة
أن يتم تضليله بواسطة معلومات 
ليس لها صلة بالموضوع، لكنها هامة للغاية.
هذا جعلني أفكر في مشكلة
كان مركز الأبحاث التابع لي
الذي أشارك في إدارته لدى 
معمل الجنايات في جامعة شيكاغو
يعمل على حلها لمدة سنوات عديدة،
وهي مشكلة نظام السجون في الولايات المتحدة.
ملايين المرات كل عام
يجب على القضاة اتخاذ القرار
ما إذا كان شخص ما سيتم اعتقاله أم لا،
حيث يترقب ذلك الشخص المحاكمة:

English: 
So they start saying, "We've got to go; 
let's get this guy up to the ICU."
My friend says, "No, no, no.
I went and met with the patient;
he's totally chill.
He's sitting there, he's having a snack.
I think he's okay;
let's leave him where he is."
And then, a half hour later,
the guy goes into cardiac arrest, and they
have to race him to the operating room.
That is an illustration of a lesson 
that we've learned
from behavioral economics and psychology
about how easy it is for the human brain
to get distracted by irrelevant
but very salient information.
That got me thinking of a problem
that my own research center
I help run at the University
of Chicago at The Crime Lab,
has been working on for several years
which is the problem of the jail
system in the United States.
Millions and millions of times a year,
judges have to make a decision
about when someone is arrested,
where that person awaits trial:

Portuguese: 
"Nós temos que ir, precisamos
levar esse homem para a UTI".
Meu amigo disse: "Não, não, não.
Fui ver o paciente,
ele está totalmente relaxado.
Ele está lá sentado, comendo um lanche.
Acho que ele está bem, 
vamos deixá-lo onde ele está".
E então, meia hora depois,
o homem teve uma parada cardíaca,
e tiveram que levá-lo às pressas
para a sala de cirurgia.
Esse é um exemplo de lição que aprendemos
da economia comportamental e psicológica
sobre quāo fácil é para o cérebro humano
ser distraído por informações
irrelevantes, mas muito evidentes.
Isso me fez pensar em um problema
que o meu centro de pesquisa
na Universidade de Chicago,
no laboratório criminal,
tem trabalhado por vários anos,
que é o problema do sistema 
prisional nos Estados Unidos.
Milhões de vezes por ano,
os juízes precisam tomar uma decisão,
quando alguém é preso,
sobre onde a pessoa
vai aguardar o julgamento:

English: 
do they get to go home
or do they have to sit in jail?
And by law, that decision
is supposed to hinge
on the judge's prediction
of what the defendant
would do if they were released:
Is that person a flight risk?
Is that person a public safety risk?
This is an enormously
high-stakes decision.
If the judge puts you in jail,
you will on average sit there
for two to three months or longer,
sometimes much, much longer.
The flip side of this is:
if the judge releases someone
who goes on to commit a new crime,
that could be horrible in its own way.
And this is a decision
that's very difficult for the judge
for the same reason
that the emergency room decision
is difficult for my doctor friend.
ER doctors at least have the benefit
of something like a cardiac enzyme test
to help them make
those sorts of decisions.
We give judges a stack of manila files
with some information
about what the person was arrested for
and the person's prior criminal record,
and then the judge has to make
a decision in their head.

Portuguese: 
eles vão para casa 
ou devem esperar na prisão?
Pela lei, essa decisão
é supostamente condicionada
à previsão do juiz
sobre o que o réu faria
se ele fosse liberado.
Há risco dessa pessoa fugir?
Essa pessoa é um risco
para a segurança pública?
Essa é uma decisão de alto risco.
Se o juiz te colocar na prisão,
você vai ficar lá, em média,
por dois a três meses ou mais,
às vezes muito mais tempo.
O outro lado disso é:
se o juiz soltar alguém
que comete um novo crime,
isso poderia ser horrível 
à sua própria maneira.
E essa é uma decisão
muito difícil para o juiz
pela mesma razão que a decisão
da sala de emergência
é difícil para o meu amigo médico.
Os médicos, pelo menos, têm o benefício
de algo como um teste de enzima cardíaca
para ajudá-los a tomar 
esse tipo de decisão.
Damos aos juízes uma pilha
de arquivos de papel
com alguma informação sobre
o motivo pelo qual a pessoa foi presa
e os antecedentes criminais da pessoa,
e então o juiz deve tomar
uma decisão por conta própria.

Japanese: 
自宅へ返すか？
拘置所で勾留するか？
法律で その決断は
被告が保釈されたら
どんな行動を取るかという
裁判官の予測によって為されています
逃亡の危険性はあるか？
公安上の危険に成り得るか？
非常にリスクの高い判断です
勾留されれば 平均で２〜３か月
時にはもっと もっと長い間
入所したままです
逆に 保釈されたとして
被告が新たに罪を犯そうものなら
それはそれで悲惨です
私の友人の医療現場における
決断の難しさと同じ理由で
こうした決断は裁判官にとって
非常に難しいものです
救命救急医にとっては 
少なくとも判断の基になる
心筋マーカー検査などがありますが
裁判官に与えられるのは 書類の山
逮捕理由や
前科の有無などの情報を根拠に
頭の中で決断を下さなければなりません

Arabic: 
أيمكنهم العودة للمنزل 
أم عليهم البقاء في السجن؟
والمفترض أن يكون القرار وبالقانون
أن يعتمد على توقعات القضاة
فيما يمكن أن يقوم به المدعى عليه
إذا تم إطلاق صراحه:
هل ذلك الشخص عرضة للهروب من البلاد؟
هل ذلك الشخص خطر على الأمن العام؟
هذا قرار مصيري بشكل كبير جداً.
إذا قرر القاضي وضعك 
في السجن، ستمكث هناك لمدة
شهر أو ثلاثة أشهر في المتوسط،
وأحياناً لمدة أطول بكثير من ذلك.
والقرار المقابل كذلك وهو:
إذا قرر القاضي إطلاق سراح شخص ما، 
والذي من المحتمل أن يرتكب جرائم جديدة.
والذي سيكون أمراً فظيعاً
للغاية فيما يترتب عليه.
وهذا قرار صعب جداً بالنسبة للقاضي
لنفس السبب الذي جعل قرار غرفة الطوارئ
قراراً صعباً لصديقي الطبيب.
بل ولدى أطباء الطوارئ ميزة على الأقل 
كشئ ما مثل تحاليل إنزيمات القلب
والتي تساعدهم في إتخاذ 
هذه الأنواع من القرارات.
يتم إعطاء القضاة حزمة من
ملفات مانيلا بها بعض المعلومات
عن سبب القبض على ذلك الشخص
و السجل الجنائي السابق له،
وعلى القضاة إتخاذ قرار ما بداخل رؤوسهم.

Arabic: 
لنتمكن من تخيل مدى الجنون في هذا الأمر
يجب أن نضع في الأعتبار أن القاضي نفسه الذي
يقضي اليوم كله يقرأ متنقلاً بين المجلدات
ويقوم باتخاذ قرارات قد تغير من 
مسار حياة بعض الناس ومصيرهم
حيث يعودون بعدها إلى ديارهم ويرغبون
في الإسترخاء قليلاً في نهاية اليوم
عن طريق مشاهدة فيلم ما في التلفاز
ولمساعدة إتخاذ هذا القرار الحرج
يُتاح للقاضي الدخول إلى منصة نتفليكس
والتي تستخدم بعض من تقنيات
التعلم الآلي الأكثر تعقيداً
على وجه الأرض
التي يمكنها التنبؤ بأي فيلم سيعجب القاضي.
لماذا لا نستخدم بعض من هذه التقنيات
التي تم تطبيقها بطريقة
فعالة جداً في القطاع التجاري
لتساعدنا في حل هذه المشاكل الخاصة
بالسياسات العامة غاية الأهمية أيضاً؟
الآن، ولكي نعرف ما إذا
سيكون هذا مفيداً حقاً أم لا،
أعتفد أنه سيكون أفضل للمبتدئين
بأن يكونوا على دراية أكثر
بماهية التعلم الآلي وكيفية عملها.
دعوني أوضح لكم باختصار
مشكلة معيارية في علم الحاسوب، 
والتي تدعى تحليل الوجدان.
إليكم ما أعنيه:

English: 
To think about how crazy this is,
consider that the very same judge
who spends all day reading through folders
and making predictions that will change
the course of people's lives,
they go home and they want to relax
at the end of the day
by watching a movie on TV
and for help with that critical decision
the judge gets access to Netflix,
which uses some of the most
sophisticated machine learning technology
on the planet,
to help predict what movie
the judge is going to like.
Why aren't we using some
of these technologies
that have been deployed so productively
in the commercial sector
to help us solves these really important
public policy problems as well?
Now, to think about whether this
would actually be helpful or not,
I think it's useful for starters to have
a little bit more sense
for what machine learning is
and how it works.
Let me talk you through briefly
a canonical problem in computer science,
which is called sentiment analysis.
So here's what that is:

Portuguese: 
Para pensar sobre como isso é louco,
considere que o mesmo juiz,
que passa o dia inteiro lendo pastas
e fazendo previsões que vão 
mudar a vida das pessoas,
vai para casa e quer relaxar no fim do dia
assistindo um filme na TV,
e para ajudar com essa decisão crítica
o juiz tem acesso a Netflix,
que usa algumas das mais sofisticadas
tecnologias de aprendizado de máquina
do planeta,
para ajudar a prever o filme
que o juiz vai gostar.
Por que não estamos usando
algumas dessas tecnologias,
implantadas de forma tão 
produtiva no setor comercial,
para nos ajudar a resolver importantes
problemas de política pública também?
Para pensar se isso seria
realmente útil ou não,
é bom para os iniciantes
terem mais compreensão sobre o que é
o aprendizado de máquina e como funciona.
Vou falar brevemente
sobre um problema canônico
na ciência da computação 
que se chama análise de sentimento.
Veja como é isso:

Japanese: 
考えてみれば 物凄いことです
一日中書類を読んでは
人の一生を変えるような推論をしている
そんな裁判官自身も
家に帰ればテレビで映画でも見て
ゆっくりしたいと思いますよね
映画の選択を助けてくれるのは
Netfilxです
世界最先端の機械学習技術を使って
世界最先端の機械学習技術を使って
裁判官がどんな映画を好むかを
予測してくれます
商業分野でこれだけ有効に利用されている
この技術を
重要な公共政策問題の
解決に役立てられないか？
その実現性を見極めるためには
まずは機械学習の実態と仕組みを
少し知っておいた方がいいでしょう
手短かに説明します
コンピュータ科学における基本的な問題に
感情分析があります
それは何かというと

Japanese: 
文章の一部を切り取って
それを書いた人の感情を分析することです
伝えたいのはポジティブな感情か
ネガティブな感情か？
例を見てみましょう
これは適当に選んだ商品
「Huzler 571 バナナスライサー」
（笑）
Thrifty Eの書いたレビューです
「シリアル用のバナナを切る作業が
スピードアップ
でも節約した時間は
これを洗うのに取られてパア」
（笑）
「すごく洗いづらい
横棒の間を全部
洗わないといけないんだから！」
これは悪い評価だと 一読したら分かります
５つの星うち２つしか付いていないことからも
それが確認できます
こちらはUncle Pookieによるレビュー
「最高のプレゼントだ」
（笑）
「切る前にバナナの皮を剥くのがコツだと
気づいてからは
（笑）
ぐっと使いやすくなった」
５つ星です
これはQ-Tipによるレビュー

Portuguese: 
é basicamente tirar um trecho de texto
e tentar determinar 
qual a emoção do autor:
o autor está tentando transmitir
uma emoção positiva ou negativa?
Então, é assim que se parece
para um produto selecionado
mais ou menos aleatoriamente,
o cortador de bananas Hutzler 571.
(Risos)
Aqui está uma avaliação da Thrifty E:
"Comprei isso para acelerar o corte
de uma banana para o meu cereal.
O tempo que economizei nessa tarefa
foi gasto limpando o utensílio".
(Risos)
"Não é fácil de limpar.
Você deve esfregar entre cada lâmina 
para limpá-lo completamente."
Após ler isso, é muito fácil para nós
dizer que isso é uma crítica negativa.
E podemos confirmar nossa opinião
ao ver a classificação das estrelas,
apenas duas de cinco estrelas.
Aqui está mais uma opinião
do tio Pookie que diz:
"Ótimo presente".
(Risos)
"Uma vez que descobri que tinha 
que descascar a banana antes de usá-lo,
(Risos)
funcionou muito melhor."
Avaliação de cinco estrelas.
Aqui está uma opinião de Q-Dica:

English: 
It is basically taking a snippet of text
and trying to determine
what the author's affect was:
is the author trying to convey 
a positive or negative emotion?
So, here's how that looks
for a more or less randomly
selected consumer product,
the Hutzler 571 Banana Slicer.
(Laughter)
Now, here's a review by Thrifty E:
"I bought this in order to speed up
cutting up a banana for my cereal.
Any time I saved in that endeavor
was spent cleaning this implement."
(Laughter)
"It is not easy to clean.
You have to scrub between
every rung to thoroughly clean it."
Now, we read that; it's trivially easy
for us to tell that is a negative review.
And we can confirm our assessment
by looking at the star rating,
merely two out of five stars.
Here's another one
by Uncle Pookie who says
"Great gift."
(Laughter)
"Once I figured out I had to peel
the banana before using it,"
(Laughter)
"it works much better."
Five-star review.
Here's one by Q-Tip:

Arabic: 
هي عبارة عن أخذ مقطع من النص
ومحاولة تحديد عاطفة المؤلف وقتها:
هل يحاول المؤلف أن ينقل
إلينا عاطفة إيجابية أم سلبية؟
إذاً سأريكم كيف يبدو ذلك
بالنسبة إلى منتج استهلاكي تم اختياره 
بشكل أكثر أو أقل عشوائية
وهو قاطع الموز (هاتسلر 571)
(ضحك)
والآن لدينا مراجعة نقدية
للمنتج بواسطة (ريفتي إي)
"لقد اشتريت هذه لأتمكن من تقطيع
الموز على الفطور بشكل أسرع.
فالوقت الذي أوفره بهذه المحاولة 
أقضيه كله في تنظيف هذه الأداة."
(ضحك)
"إن تنظيفها ليس بالأمر السهل.
عليك بالدعك بين كل شفرة لتنظفها جيداً."
والآن عندما نقرأ هذا يمكننا بكل
سهولة وبساطة أن نعتبر هذا تقييم سلبي.
ويمكننا تأكيد تقديرنا للأمر 
بالنظر إلى عدد النجوم في التقييم
اثنان من خمسة نجوم فحسب.
إليكم مراجعة أخرى 
بواسطة العم (بوكي)، فيقول
"هدية عظيمة"
(ضحك)
"وعندما اكتشفت أنه علي أن أقوم
بتقشير الموزة قبل استعمال الأداة"
(ضحك)
"أصبحت تعمل بشكل أفضل بكثير."
تقييم خمس نجوم.
هذه أخرى بواسطة (كيو تيب)

English: 
"Confusing. There's no way to tell if this
is a standard or metric banana slicer."
(Laughter)
"Additional markings on it
would help greatly."
And here's one more by J. Anderson:
"Angle is wrong.
I tried this banana slicer
and found it unacceptable.
As shown in the picture, 
the slice is curved from left to right
and all of my bananas
are bent the other way."
(Laughter)
Now, reading through these text reviews,
you realize that it is
very, very easy for us to do this,
and that gave the early
computer scientists an idea
about how to get computers to do this.
Why don't we just introspect
on how we do this,
and then try and program the computer
to do exactly what we're doing?
Here's the results of a study
that tries to do sentiment analysis
using what's called a programming
approach for movie reviews.
The data set that we have of movie reviews
it's half positive reviews,
half negative reviews.

Arabic: 
"أمر مربك، لا توجد طريقة لمعرفة ما إذا 
كانت هذه قاطعة موز عادية أم قياسية."
(ضحك)
"وضع علامات قياسية
عليها سيكون مفيداً للغاية."
وهذا تعليق آخر بواسطة (ج. أندرسون):
"إن الزاوية خاطئة.
لقد قمت بتجربة قاطعة الموز 
هذه ووجدتها غير مقبولة تماماً.
كما هو موضح في الصورة، فإن 
القاطعة منحنية من اليسار إلى اليمين
وجميع الموز لدي منحني في الأتجاه الآخر."
(ضحك)
والآن بعد قراءة هذه التعليقات والانتقادات
ستكتشف أنه من السهل
جداً جداً لنا أن نقوم بفعل ذلك
وهذا أعطى لعلماء الحاسبات الأوائل
عن كيفية جعل الحاسوب يقوم بفعل ذلك أيضاً.
لماذا لا نستبطن ونفحص أنفسنا
فحسب عن طريقة قيامنا بذلك،
وبعدها نحاول برمجة الحاسوب
أن يفعل كما نقوم بفعله تماماً؟
لدينا هنا نتائج دراسة ما
تحاول القيام بتحليل للعواطف
مستخدمةً ما يسمى بالتقدم
البرمجي لمراجعة الأفلام.
فمجموعة بيانات مراجعة الأفلام لدينا
نجد أن نصفها مراجعات إيجابية،
والنصف الآخر مراجعات سلبية.

Portuguese: 
"Confuso. Não há como saber se é
um cortador de banana padrão ou métrico".
(Risos)
"Marcações adicionais ajudariam muito."
E aqui está mais um, de J. Anderson:
"O ângulo está errado.
Eu tentei usar este cortador 
de banana e achei-o inaceitável.
Conforme a imagem, o cortador
é curvado da esquerda para a direita
e minhas bananas são
para o lado contrário."
(Risos)
Lendo essas avaliações,
você percebe que é muito fácil
para nós fazermos isso,
e isso deu uma ideia 
aos cientistas da computação
sobre como ensinar 
computadores a fazer o mesmo.
Por que não refletimos
sobre como nós fazemos isso,
e depois tentamos programar
o computador para fazer o mesmo?
Aqui estão os resultados de um estudo
que tenta fazer a análise de sentimentos,
usando a chamada programação de abordagem
para avaliação de filmes.
Os dados que temos sobre opinião de filmes
são metade críticas positivas,
metade negativas.

Japanese: 
「単位がインチかセンチか分からず
混乱している
（笑）
目盛を付けてくれれば助かるのに」
最後に J. Anderson
「角度が間違っている
全く使い物にならない
写真の通り
商品は左から右へ湾曲しているが
私のバナナはみんな逆向きに曲がってる」
（笑）
これらのレビューを読むと
感情分析というものが
人間にとってはとても簡単だと
分かるでしょう？
そこで初期の研究者はコンピューターに
これをどう処理させるかを考えました
我々が感情分析をどうやって
しているのかを振り返り
それを真似するプログラムを
作ったらどうか？
これは
そのプログラミング・アプローチという方法で
映画のレビューの感情分析を試みた研究です
データとして用いたレビューは
半分がポジティブ もう半分はネガティブ

Japanese: 
つまりプログラムの精度が50％であれば
当てずっぽうと変わりません
大勢のプログラマーが集まって
どんな単語がレビューに
現れるだろうかと
自分の行動を振り返りながら
考えてみました
これが皆が考えた
良いレビューに出て来そうな
ポジティブな単語と
ネガティブなレビューに出て来そうな単語です
結果 精度は60％ほどになりました
当てずっぽうよりはマシですが
そこまでの差はありませんね
コンピュータ科学では
これが常に課題とされてきました
かなり基本的なタスクでも
コンピューターに 高い精度で
人間のやっていることを真似させ
良い成果をあげるのは
非常に難しいと わかったのです
なぜなら このような作業の際に
自分がしていることを
後から振り返って完全に把握することが
大変難しいからです
これは心理学者の間では
「内観の錯覚」と呼ばれています

Portuguese: 
E assim, uma taxa de precisão
de 50% seria basicamente,
como adivinhação aleatória.
Então, você escolhe vários programadores,
eles analisam quais palavras
você esperaria ver
em uma crítica positiva e em uma negativa.
Aqui estão algumas palavras positivas
que você esperaria ver 
em uma boa avaliação
e palavras que você veria
em uma crítica negativa.
E quando você faz isso, você obtém
uma taxa de precisão de 60%.
Isso já é melhor
que adivinhar aleatoriamente,
mas não muito melhor.
Esse é o desafio que os cientistas 
de computação ainda têm nessa área.
Mesmo com problemas bastante básicos,
acaba por ser muito, muito difícil
programar computadores
para fazer o que estamos fazendo
e obter um bom desempenho.
A razão para isso é que, para nós,
é muito mais difícil
descobrir o que estamos fazendo 
quando desempenhamos essas tarefas.
Meus amigos psicólogos chamam isso
de "ilusão da introspecção".

Arabic: 
وبهذا تصبح الدقة بنسبة 50%
وكأنها تماماً تخمين عشوائي.
فيصبح لديك مجموعة من المبرمجين
والذين يقومون بطريقة ما استبطان
الكلمات التي تتوقع رؤيتها
في المراجعات الإيجابية،
والمراجعات السلبية.
لدينا هنا بعض الكلمات الإجابية
والتي تظن أنه بإمكانك 
رؤيتها في المراجعات الجيدة
وبعض الكلمات التي يمكن
رؤيتها في المراجعات السلبية.
وعند قيامك بذلك يصبح لديك دقة بنسبة 60%.
والآن هذا أفضل من التخمين العشوائي،
لكن ليس أفضل بكثير.
هذه هي التحديات التي ظل علماء
الحاسبات يواجهونها في هذا المجال.
حتى وإن كانت المشكلات بسيطة
فقد اتضح أنه من الصعب جداً جداً
برمجة الحاسوب ليتمكن من القيام بما نقوم به
والحصول على أداء جيد.
والسبب وراء ذلك هو أنه اتضح
لنا أن الأصعب من ذلك بكثير
هو استبطان واكتشاف ما نفعله فعلاً
عند قيامنا بهذه المهمات بشكل كامل.
أطلق علماء النفس أصدقائي
على ذلك ما يسمى "وهم الإستبطان"

English: 
And so, an accuracy rate of 50% would
basically be just like random guessing.
And so, you get a bunch of programmers,
they sort of introspect on what words
you would expect to see
in a positive review,
in a negative review.
Here are some of the positive words
that you think you would expect
to see in a good review
and some of the words you'd see
in a negative review.
And when you do this, you get
an accuracy rate on the order of like 60%.
Now, that's better than random guessing,
but not much better.
This is the challenge that the computer
scientists kept running into in this area.
Even with pretty basic problems,
it turned out to be very, very hard
to program computers up
to do what we're doing
and get good performance.
The reason for that is that it turns out
to be much more difficult for us
to fully introspect and figure out what
we are doing when we do these tasks.
My psychology friends call that
the "introspection illusion."

Portuguese: 
O progresso nesta área só veio, realmente,
quando os cientistas 
de computação perceberam
que precisávamos esquecer completamente
que nós próprios sabíamos 
como fazer essas coisas
e transformaram essas tarefas
em potentes exercícios de coleta de dados.
A análise de críticas
de filme seria assim:
você pegaria uma grande 
amostra de críticas de filmes
das quais sabe se são boas ou más críticas
pela classificação de estrelas,
e você deixaria o computador aprender
quais palavras tendem
a estar em críticas boas
e quais palavras tendem
a surgir em comentários ruins.
Está bem?
E depois usamos essas palavras
como seu algoritmo de previsão
para futuras críticas.
E, uma vez que você adota
essa abordagem baseada em dados -
estas são as palavras
que o computador aprende,
que a máquina aprende,
e são indicativas de críticas 
positivas e negativas -
agora podemos chegar a taxas
de precisão na ordem de 95%.

Japanese: 
この分野が進歩し始めたのは
コンピューター科学者たちが
これは人間の判断に
頼れるようなものだと考えずに
完全にデータの問題として
取り扱わなければならないのだと
気づいた後からでした
映画のレビュー分析の場合はこうです
星の数で映画の良し悪しを決める
レビューデータを数多く集めます
レビューデータを数多く集めます
それを基に
良いレビュー また悪いレビューに
頻出するのはどの単語か
コンピューターに学習させます
いいですね？
そしてこれらの単語を
予測アルゴリズムとして
新たなレビューに当てはめます
このデータに基づくアプローチを
採用すると
それぞれの単語と感情の関連性を
コンピュータが自ら学習します
コンピュータが自ら学習します
これで精度は95％ほどにも上がります

English: 
Progress in this area really only came
once the computer scientists realized
that we needed to just completely forget
that we knew how to do
these things ourselves
and turned these tasks into just
brute force data exercises.
In the movie review analysis, 
here's what that would look like:
You would take a large sample
of movie reviews
where you know whether
they're good or bad reviews
by the star rating
and you would let the computer learn
which words tend
to come up in good reviews
and which words tend
to come up in bad reviews.
Okay?
And then use those words
as your prediction algorithm
for future reviews.
And once you adopt
that data-driven approach,
these are the words 
that the computer learns,
that the machine learns,
are indicative of positive
and negative reviews.
Now we can get up to accuracy rates
on the order of 95%.

Arabic: 
لم يظهر تقدم في هذا المجال إلا حتى
اتضح لعلماء الحاسبات أنه
كان علينا فقط أن ننسى تماماً
أنه كان لدينا معرفة بكيفية
قيامنا بهذه الأشياء بأنفسنا
وأن نغير هذه المهمات إلى مجرد
تدريبات قاسية على البيانات.
إليكم كيف سيبدو هذا
في تحليل مراجعات الأفلام:
ستأتي بعينة كبيرة من مراجعات الأفلام
والتي ستعرف ما إذا كانت إيجابية أم سلبية
بواسطة التقييم بالنجوم
وستترك الحاسوب يتعلم
أي من الكلمات تظهر غالباً
في المراجعات الإيجابية
وأي من الكلمات تظهر في المراجعات السلبية.
حسناً؟
وبعد ذلك قم باستخدام هذه الكلمات
على أنها خوارزميات تتنبأ بها
المراجعات المستقبلية.
وبمجرد وصولك إلى
ذلك التقدم المنساق بالبيانات،
فهذه هي الكلمات التي يتعلمها الحاسوب،
التي تتعلمها الآلة،
وهي مؤشر للمراجعات الإيجابية والسلبية.
الآن يمكننا الحصول على
دقة في هذا النظام بنسبة 95%

Portuguese: 
Essa é, realmente, a mágica por trás
do aprendizado de máquina,
e você poderia aplicar isso
nas decisões sobre liberdade provisória.
Deixe o computador aprender
quais características do caso,
ou combinaçōes de características,
são mais prováveis nos riscos de fuga,
ou nos riscos contra a segurança pública.
Tenho trabalhado em uma equipe 
de pesquisa nos últimos anos,
tentando criar um algoritmo
de previsão para liberdade provisória
que seja útil aos juízes.
Estamos fazendo isso com dados
de uma grande e anônima cidade americana
de 8,5 milhões de pessoas.
(Risos)
O que descobrimos é que não é
tão difícil construir o algoritmo.
Você pode baixar um software 
gratuito da internet
e descobrir como fazer isso.
A parte difícil é testar o algoritmo
e ver se isso vai realmente fazer
do mundo um lugar melhor ou não.
Para a Netflix, isso não é
um problema difícil.
Tudo o que a Netflix faz está contido
no seu ambiente on-line.

Arabic: 
هذا الذي أعتقد بأنه السحر
وراء تعلم الآلة حقاً.
ويمكنكم رؤية كيف يمكننا تطبيق ذلك
على أمر مثل قرارات
إطلاق السراح قبل المحاكمة.
دع الحاسوب يتعلم أي من
سمات و معلومات القضية،
أو مزيج من سمات ومعلومات القضية،
هي الأكثر توقعاً لعرضة الهروب
من البلاد أو ما يهدد الأمن العام.
كنت أعمل للتو كجزء من
فريق أبحاث منذ بضع أعوام
نحاول بناء خوارزميات تنبؤية
لعملية إطلاق السراح قبل المحاكمة
لرؤية ما إذا كان ذلك مفيداً للقضاة.
كنا نقوم بذلك مستخدمين بيانات
من مدينة أمريكية ضخمة و مجهولة
يسكنها 8.5 مليون شخص.
(ضحك)
ما اكتشفناه هو
أنه ليس من الصعب حقاً بناء الخوارزميات.
يمكنك تحميل تطبيق برمجي مجاني عبر الإنترنت
واكتشاف كيفية القيام بهذا.
إن الجزء الصعب هنا هو تجربة الخوارزميات
ومعرفة ما إذا كانت ستجعل
العالم مكان أفضل حقاً أم لا.
بالنسبة لمنصة (نتفليكس)
هذا ليس بالأمر الصعب.
فكل شيء تقوم به (نتفليكس)
يكون من نوع المحتوى
الذاتي الخاص عبر الإنترنت.

Japanese: 
これこそが 機械学習のマジックです
この方法が裁判前の被告の
保釈、拘置の判断などに
応用できるかもしれない
ということがわかりますね
どんな事件の特性やその組み合わせが
逃亡や公安上の危険性を
最も正確に予測できるのかを
機械に学ばせるのです
私はここ数年 研究チームの一員として
裁判官が公判前保釈の
判断をするのを補助する
予測アルゴリズムの開発に
取り組んできました
使ったデータは 人口850万人
アメリカのとある大都市のもの
一体どこでしょう？
（笑）
実はアルゴリズムを設計するのは
そんなに大変ではなかったんです
ネットで無料のソフトウェアを
ダウンロードできますから
困難なのは このアルゴリズムが
本当に世の中を改善できるのか 
検証することです
Netflixだったら
大した問題ではありません
オンライン環境のみで
全てが完結するシステムですから

English: 
This, I think, is really the magic
behind machine learning,
and you can see how you
would apply this then
to something like pre-trial
release decisions.
Let the computer learn
what case characteristics,
or combination of case characteristics,
are actually most predictive
of flight risk or public safety risk.
I've been working as part of a research
team for the last several years
trying to build a prediction
algorithm for pre-trial release
to see if we can be helpful to judges.
We've been doing this with data
from a large, anonymous American city
of 8.5 million people.
(Laughter)
What we discovered is that
it's not so hard to actually
build the algorithm.
You can download free
software off the internet
and figure out how to do that.
The hard part here
is testing the algorithm
and seeing whether it will actually
make the world a better place or not.
For Netflix, this is not
such a hard problem.
Everything that Netflix does
is in this sort of self-contained
online environment.

Arabic: 
لكن تجربة الخوارزميات في العالم الحقيقي
المحيط بالنسبة لتطبيقات السياسات العامة
يكون في الغالب أمراً معقداً.
هذه مسألة لن يتم حلها إلا بصعوبة،
بسبب غياب القدرة على
افتعال محاكمة عشوائية،
وإنها لمسألة صعبة تخص علم الإجتماع،
ليست المشكلة الصعبة التي نواجهها
تخص علم الحاسبات.
وإنه لأمر صعب للغاية
أن يقوم مجموعة من الناس الذين يفكرون
في أخذ أدوات تعلم الآلة هذه
إلى ساحة السياسات العامة
بتخطي المرحلة التجريبية للمشروع
وأخذ الأدوات مباشرة من مرحلة
التخطيط على الحاسوب إلى العالم الحقيقي.
وهذا أعتقد بأنه خطأ كبير.
إنه من المحتمل بناء أداة دون وعي أو حذر
تقلب الأمر رأساً على عقب وتنتهي
بجعل العالم مكاناً أسوأ وليس مكاناً أفضل.
بالنسبة للمشروع الذي نعمل عليه حتى الآن
أصعب جزء يواجهنا هو
معرفة كيف يتم تجربة الأداة
والتأكد من أنها ستكون مفيدة بالفعل.
تم بناء الطريقة التي صممناها
لتجربة الأداة على رؤيتين.
عليكم ملاحظة سبب صعوبة هذه
المسألة في قضية ما قبال المحاكمة.
فنحن نقوم بإنشاء قاعدة خوارزمية

English: 
But testing an algorithm in the real world
for public policy applications
is often much more complicated.
This is a difficult problem to solve,
absent the ability
to do a randomized trial,
and it's a difficult
social science problem,
not a difficult computer science problem
that we run into.
And it's so difficult
that many of the people
who are now thinking
about taking these machine learning tools
and bringing them
into the public policy arena
are tempted to just give up 
on the testing stage
and take tools right from the drawing
board of the computer into the real world.
And I think that would be a mistake.
It is very possible
to inadvertently build a tool
that can wind up making the world
a worse place, not a better place.
For the project that we've been working on
the hardest part for us has been
to figure out how to test the tool
and make sure it's actually helpful.
The way that we have come up with
to test the tool builds on two insights.
Notice why this problem is difficult
in the pre-trial case.
We build an algorithmic rule
to inform pre-trial release

Portuguese: 
Mas testar um algoritmo no mundo real
para aplicações de políticas públicas
é muito mais complicado.
Este é um problema difícil de resolver,
não havendo como fazer
um julgamento aleatório,
e é um problema difícil
de ciências sociais,
não é um problema complexo 
de informática, que nós encontramos.
E é tão difícil, que muitas pessoas
que estão pensando em pegar
essas ferramentas
de aprendizado de máquina
e trazê-las para a arena 
de políticas públicas,
estão tentadas a desistir
da fase de testes
e trazer as ferramentas diretamente
do projeto para o mundo real.
E eu acho que isso seria um erro.
É muito possível criar 
acidentalmente uma ferramenta
que pode acabar fazendo do mundo
um lugar pior, e não um lugar melhor.
No projeto em que trabalhamos,
a parte mais difícil para nós é
descobrir como testar a ferramenta
e certificar-se de que é realmente útil.
O jeito que encontramos
para testar a ferramenta,
baseia-se em duas percepções.
Vemos por que esse problema é difícil
no caso de julgamento preliminar.
Criamos uma regra algorítmica
para informar a decisão de liberação,

Japanese: 
現実の世界で 公共政策へ用いるための
アルゴリズムをテストするのは
それよりずっと複雑なことです
この難しい問題では
無作為化試験を行うことも叶わず
コンピューター科学というよりは
社会科学上の難題です
社会科学上の難題です
この問題はあまりにも難しく
機械学習ツールを公共政策の分野に
導入したいと考える人々の多くが
テストすることを諦めて
コンピューターで設計したツールを
直接 現実世界に持ち込もうと
つい思ってしまうほどです
でも それは過ちでしょう
はからずも世の中を改善するどころか
改悪するツールを作ってしまうことに
なりかねません
我々のプロジェクトにおいて最大の難題は
ツールを実際に試用して 
その有用性を確かめる方法を
模索することです
我々の考えついた解決策は
２つの考察に基づいています
裁判前のケースの難しさを考えてみましょう
我々の開発したアルゴリズムは
公判前保釈について

Japanese: 
危険性が最も高く予測された者を
優先して勾留し
その他は保釈するという推薦をします
すると必ず 裁判官が勾留を決定した者の
何人かを保釈するよう
アルゴリズムは求めます
アルゴリズムがそう提案しても
被告たちは実際には勾留されているので
もし保釈されていたら
どんな行動をとったのかは
わかりません
これがデータ欠如という厄介な問題です
しかし逆の場合
裁判官が保釈した者を
アルゴリズムが勾留すべきだと推薦するなら
その評価は支障無くできます
なぜなら勾留したら 
逃亡や公安上の危険性が
どうなるかは明らかだからです
裁判所に出頭しないとか
再逮捕のリスクも
払拭されます
これが第１の考察
「データ欠如の問題は偏ったものである」
第２の考察としては
研究対象のこの大都市では
裁判官への事件の割り当ては
ほぼ無作為に行われているので
つまりは 各裁判官の抱えている事件数は

English: 
that says let's prioritize the people
with highest predicted risk
for jailing and let everybody else go.
That algorithmic rule will inevitably
want to release someone
that the judge jailed.
And when the algorithm wants to do that,
we can't see what that person
would have done had they been released
because the judge actually jailed them.
So, we have this very difficult
missing data problem.
On the flip side, though,
if the algorithm wants to jail
someone that the judge released,
we don't have an evaluation problem
because we know what the effect
of putting someone in jail is
on their flight risk
or their public safety risk.
Being in jail eliminates the risk
that you won't show up in court
or get re-arrested.
That's insight number one
that this missing data
challenge is one sided.
And the second insight that helps us here
is that in the big city
in which we've been working,
cases are more or less
randomly assigned to judges.
What that means, then, is
that we have a sample of judges

Arabic: 
والتي تنص على أن نعطي الأولوية
للأشخاص الأكثر عرضة لتسبيب المخاطر
ليتم حبسهم وإطلاق سراح الباقين.
ستلجأ هذه القاعدة الخوارزمية على حسب
كل التوقعات إلى تحرير شخص ما
قد قام القاضي بحبسه.
وعندما تريد الخوارزمية القيام بذلك،
لا يمكننا معرفة ما الذي كان سيقوم به
هذا الشخص لو تم إطلاق سراحه
لأن القاضي قد قام بحبسه بالفعل.
لهذا سيكون لدينا مشكلة
البيانات المفقودة العسيرة هذه.
على النقيض إذاً
إذا أرادت الخوارزمية حبس شخص
ما قام القاضي بإطلاق سراحه،
لن يكون لدينا مشكلة في التقييم
لأننا نعلم تأثير وضع شخص ما في السجن
على عرضته للهروب من البلاد 
أو تهديده للأمن العام.
كون هذا الشخص في السجن يمحو
احتمال الخطرلأن يتم عرضه على المحكمة
أو إعادة القبض عليه.
هذه هي الرؤية رقم واحد
وهي أن تحدي البيانات
المفقودة سلاح ذو حد واحد.
والرؤية الثانية التي تساعدنا هنا
هي أن في المدينة الكبيرة
التي بها كنا نقوم بعملنا
أن القضايا يتم توكيلها للقضاة
بشكل أكثر أو أقل عشوائية.
ما يعنيه هذا أن لدينا عينة من القضاة

Portuguese: 
onde vamos priorizar a prisão
das pessoas com o maior risco previsto
e deixar todos os outros irem embora.
Essa regra algorítmica vai querer
inevitavelmente liberar alguém
que o juiz prendeu.
E quando o algoritmo quer fazer isso,
não podemos ver o que essa pessoa
teria feito se tivesse sido liberada
porque o juiz realmente a prendeu.
Então, nós temos esse problema 
difícil de falta de dados.
Por outro lado, porém,
se o algoritmo quiser prender
alguém que o juiz liberou,
não temos um problema de avaliação
porque sabemos qual é o efeito
de colocar aquela pessoa na prisão,
por seu risco de fuga
ou de segurança pública.
Estar na prisão elimina o risco
de você não aparecer no tribunal
ou ser novamente preso.
Essa é a percepção número um: 
o desafio da falta de dados é parcial.
E a segunda visão que nos ajuda aqui
é que, na grande cidade 
em que temos trabalhado,
os casos são distribuídos aos juízes
mais ou menos aleatoriamente.
O que isso significa é
que temos uma amostra de juízes

Portuguese: 
que estão recebendo processos
muito semelhantes
e os juízes se diferenciam muito
em relação ao seu rigor e tolerância.
Aqui está o que podemos fazer nesse caso:
imagine que temos dois juízes,
um juiz indulgente 
que libera 90% dos casos
e um juiz mais rigoroso que libera 80%.
Podemos basicamente comparar
como os juízes atuam
quando se tornam mais rígidos,
e como o algoritmo decidiria
ao se tornar mais rigoroso,
com um teste justo
de desempenho do algoritmo.
Aqui está o que isso pareceria:
aqui está o juiz indulgente, 
que libera 90% dos casos.
Podemos ver todos os resultados
das pessoas que esse juiz liberou.
e o algoritmo diria que, se quisermos
nos tornar mais rigorosos
e passar de uma taxa
de liberação de 90% para 80%,
o algoritmo apenas diria:
"Vamos identificar 10% das pessoas
de maior risco nos processos do juiz
e priorizá-las para serem presas".
Assim, baixamos a taxa
de liberação para 80%,
e podemos observar qual taxa 
de criminalidade conseguimos.

Arabic: 
الذين يستمعون إلى أحجام
متشابهة من القضايا.
اتضح أن القضاة يختلفون بشكل كبير
بالنسبة إلى تشددهم و تسامحهم.
إذاً لديكم ما سنقوم به في هذه القضية.
تخيلوا أن لدينا قاضيين اثنين:
أحدهما قاضٍ متساهل يطلق سراح
الأشخاص في 90% من القضايا،
والثاني أكثر حزماً ويطلق سراح
الأشخاص في 80% من القضايا.
يمكننا بكل بساطة أن نقارن بين اداء القضاة
عندما يصبحون أكثر حزماً
وبين كيفية اختيار الخوارزمية
بأن تكون أكثر حزماً
التي ستكون بمثابة تجربة
هشة لأداء الخوارزمية.
أمامكم كيف سيبدو ذلك الأمر.
لديكم هنا القاضي المتساهل الذي يطلق
سراح الأشخاص في 90% من القضايا.
يمكننا مشاهدة جميع الأحداث المترتبة
على إطلاق سراح القاضي لأشخاص ما.
وستقوم الخوارزمية بإخبارنا ما إذا
كنا نرغب بأن نكون أكثر حزماً
وننتقل من إطلاق سراح بنسبة 90% إلى 80%،
ستقوم الخوارزمية فحسب بإخبارنا:
لنتحقق من أعلى نسبة احتمال الخطر لدى 10%
من الأشخاص في حجم القضايا لدى لقاضي
ونرتبهم حسب الأولوية للحبس.
الآن انخفضت نسبة إطلاق السراح إلى 80%،
ويمكننا ملاحظة نسبة الجريمة
التي كنا سنتمكن من الحصول عليها،

English: 
who are hearing very similar caseloads.
The judges turn out to differ a lot
with respect to their
strictness and leniency.
So, here's what we can do in that case.
Imagine that we have two judges:
a lenient judge that releases
90% of the cases
and a stricter judge that releases 80%.
We can basically compare
how the judges perform
when they become stricter
compared to how the algorithm
would choose to become stricter,
as a fair test of the
algorithm's performance.
Here's what that would look like.
Here's the lenient judge
who releases 90% of their cases.
We can observe all the outcomes
for the people that judge releases.
And the algorithm would say
if we wanted to become stricter
and go from a 90% to an 80% release rate,
the algorithm would just say:
let's identify the highest risk
10% of people in the judge's caseload
and prioritize them for jail.
Now we're down to an 80% release rate,
and we can observe what the crime rate
would be that we could get,

Japanese: 
とても似通っているということ
そして裁判官は
厳しかったり寛大だったり
個人差が大きいということです
そこでこんな事ができるのです
２人の裁判官がいたとします
ひとりの裁判官は保釈率が90％
もう一方は80％のみを保釈
生身の裁判官が厳格に振る舞った時と
アルゴリズムが更に厳しさを増す決断をする時
この2つを比較することで
アルゴリズムの精度を公平に測れます
こういうことです
９割の被告を保釈する
寛大な判事がいるとします
保釈された全員がどうなったか
調査することもできます
釈放率を９割から８割へ下げたいとすれば
アルゴリズムはこう言うでしょう
アルゴリズムはこう言うでしょう
裁判官の担当事件から
最もリスクの高い１割を選別して
優先して勾留しましょう
こうして保釈率を
９割から８割に下げたとき
保釈後の犯罪率がどう推移したか観察し

Portuguese: 
E então poderíamos comparar isso
às decisões do juiz mais rigoroso
ao baixar a taxa de liberação
de 90% para 80%.
Isso nos dá uma maneira 
razoável de comparar
o desempenho do algoritmo com o do juiz
em um conjunto de casos semelhantes,
concentrando-se na tarefa algorítmica
em que não temos o problema
da falta de dados,
e na qual o algoritmo está apenas
selecionando pessoas para ir à prisão,
dentre o grupo de pessoas
que os juízes deixaram ir.
Agora, tendo resolvido
o problema de avaliação,
e o problema de teste,
podemos fazer algumas simulações
para sugerir o que aconteceria
se realmente seguíssemos
a decisão do algoritmo,
em vez da prática padrão
do sistema de justiça criminal.
O que vimos é que, se você seguir
as recomendações do algoritmo,
você poderia reduzir a taxa
de criminalidade em 25%,
sem ter que colocar uma única 
pessoa a mais na prisão.

Arabic: 
وبعد ذلك يمكننا مقارنة
هذا بكيفية قيام القاضي
بالهبوط إلى إطلاق سراح
بنسبة 80% بدلاً من 90%.
هذا يعطينا طريقة للمقارنة بشكل ضعيف
بين أداء الخوارزمية وأداء القاضي
من حيث مجموعة قضايا قابلة للمقارنة،
بالتركيز على المهمة الخوارزمية
حيث لا نواجه مشكلة البيانات المفقودة،
وحيث تختار الخوارزمية فحسب الأشخاص لتحبسهم
من بين العدد الكبير من الأشخاص
الذين أطلق القضاة سراحهم.
الآن، وبعد حل مسألة التقدير
و مشكلة الاختبار،
يمكننا القيام بعمل بعض المحاكاة
للسياسات لنقترح ماذا سيحدث
لو اتبعنا فعلاً قاعدة الخوارزمية
بدلاً من الممارسات الاعتيادية
في نظام القضاء الجنائي.
ما وجدناه هو أنه إذا اتبعتم
توصيات الخوارزمية
ستتمكنون من خفض الجريمة بنسبة 25% كاملةً
دون الحاجة إلى وضع شخص
واحد إضافي في السجن.

Japanese: 
厳しい方の裁判官の場合の犯罪率と
比べることができます
こうして類似した事件をもとに
アルゴリズムの判断と
裁判官たちの判断とを
データ欠如の問題が無い状態で
公平に比較できます
裁判官が保釈した者の中から
アルゴリズムが
勾留する者を選ぶという
アルゴリズム的タスクの
成績を これで検証できます
さて 評価の問題が解決したところで
さて 評価の問題が解決したところで
政策シミュレーションをして
刑事司法制度における
標準的な実践の結果に代えて
アルゴリズムに従ったとしたら
どうなるか考えてみます
我々の研究結果では
アルゴリズムの推薦に従えば
犯罪率を丸ごと25％も減らせると
わかったんです
それも拘置人数は一人も増やさずに
言い換えれば 犯罪率を
増加させることなく

English: 
and then we could compare that
to how the stricter judge did
in getting us down from a 90%
to an 80% release rate.
This gives us a way to fairly compare
the algorithm's performance
against the judge's
on a comparable set of cases,
focusing on the algorithmic task
where we don't have
this missing data problem,
where the algorithm is just
selecting people to jail
from among the pool of people
that the judges let go.
Now, having solved
the evaluation problem,
the testing problem,
we can do some policy simulations
to suggest what would happen
if we actually followed
the algorithm's rule
instead of standard practice
in the criminal justice system.
What we find is that if you follow
the recommendations of the algorithm,
you'd be able to reduce
the crime rate by fully 25%
without having to put
a single additional person in jail.

Portuguese: 
Alternativamente, você poderia reduzir
a população da prisão em 42%,
sem aumentar a taxa de criminalidade.
E o motivo pelo qual o algoritmo
é capaz de nos dar grandes ganhos
sobre o status quo
do sistema de justiça criminal
é que podemos ver nos dados que os juízes,
assim como meu amigo médico,
estão sendo distraídos por informações
irrelevantes, mas muito evidentes
sobre esses casos.
E isso é especialmente verdadeiro
nos casos de maior risco
no grupo dos réus.
Então, o que acabei de fazer 
foi mostrar a você o lado positivo
da aplicação do aprendizado
de máquina nesses problemas.
Existe também uma potencial desvantagem,
que é a possibilidade 
de que esses algoritmos,
quando aplicados a problemas políticos,
especialmente problemas
de justiça criminal,
podem nos trazer ganhos 
em alguns resultados,
mas comprometer coisas importantes
para nós, como a imparcialidade.
Por isso as pessoas estão preocupadas.
Na cidade em que estamos trabalhando,
89% das pessoas na prisão são minorias;

English: 
Alternatively, you could reduce
the jail population by fully 42%
without any increase 
in the crime rate at all.
And the reason that the algorithm
is capable of giving us such big gains
over the status quo
criminal justice system
is we can see in the data that the judges,
just like my ER doctor friend,
are getting distracted by irrelevant
but very salient information
about these cases.
And that's especially true
among the highest-risk cases
in the defendant pool.
So, what I've just done is I've showed you
the upside of applying machine
learning to these policy problems.
There's a potential downside as well,
which is the possibility
that these algorithms,
once we apply them to policy problems,
maybe especially
criminal justice problems,
might get us gains on some outcomes
but compromise other things
that we care about like fairness.
You can see why people
are worried about this.
In the city in which we are working,
fully 89% of people
in jail are minorities -

Japanese: 
留置場の収容人数を42％も減らせるんです
このアルゴリズムが
刑事司法制度の現状に対し
これだけ大きなメリットをもたらせる
ということは
つまり裁判官たちが
前述の救命救急医のように
事件に関する
取るに足らないけれども目立つ情報に
惑わされているということが
データから見て取れるのです
リスクの高い被告の事件ほど
特にこの傾向があります
これで こうした政策問題へ機械学習を
適用する利点が お分かりいただけたでしょう
マイナス面も可能性としてはあります
実際にこういったアルゴリズムを
政策問題に適用した結果
特に刑事司法制度においては
利益ももたらされる一方
公平性など 他の大事な要素が
失われるかもしれません
心配する声が多いのもわかります
研究対象のこの都市では
刑務所に収容されている89％が
マイノリティです

Arabic: 
وبشكل بديل، يمكنكم خفض تكدس
وازدحام السجون بنسبة 42%
دون زيادة نسبة الجريمة مطلقاً.
وسبب كون الخوارزمية قادرة
على تحقيق مكاسب أكبر بكثير
عن الوضع الراهن لدى نظام القضاء الجنائي
هو أنه يمكننا بما نراه
في البيانات أن القضاة،
تماماً مثل طبيب الطوارئ صديقي،
يتم تشتيتهم بمعلومات ليست
ذات صلة ولكنها مهمة جداً
عن هذه القضايا.
وهذا الأمر صحيح خصوصاً في
القضايا الأكثر احتمالاً للخطر
في مجتمع المدعى عليهم.
فما قمت بفعله للتو هو أنني أريتكم
الجانب الإيجابي من تطبيق تقنية
تعلم الآلة في مسائل السياسات هذه.
هناك جانب سلبي محتمل أيضاً،
ألا وهي احتمالية أن هذه الخوارزميات،
بمجرد أن نقوم بتطبيقها على مسائل السياسات،
ربما مسائل القضاء الجنائي بالأخص،
من المحتمل أن تحقق لنا
مكاسب في بعض النتائج
ولكن ستقوم بتسوية أشياء
أخرى نحرص عليها مثل العدالة.
يمكنكم ملاحظة لماذا يقلق الناس حيال هذا.
ففي المدينة التي نعمل بها،
فإن 89% من الناس في السجون أقلية -

Japanese: 
都市全体の人口に対する
マイノリティの割合は
89％には遠く及ばないというのに
機械学習を適用するのに
不安を覚えるのも ある意味当然です
こういった問題を全く無視するような
アルゴリズムなら
状況をさらに悪化させるツールを
世に出してしまうことに
なってしまうかもしれません
しかしそういった問題に配慮して
設計したアルゴリズムでなら
犯罪率と刑務所の収容人数
そして司法制度における人種格差を
同時に減らすための 判断補助ツールを
開発できるでしょう
一体どうやって？
そもそも 法廷において人種とは結局
取るに足らないけれども目立つ情報の類に
過ぎ無いのではないでしょうか？
我々の中に潜む偏見は
まさに内観の錯覚の一種では？

English: 
in a city where I can assure you
the overall city population
is not anywhere like 89% minority.
The people who are concerned
about the use of machine learning
for these problems, I think, are right
in a way in that we have discovered
that if you build an algorithm
in a release rule
that ignores this issue entirely,
it is indeed possible to build
a tool that makes this problem,
if anything, a little bit worse.
But what we've also found
is that if you build an algorithm
paying attention to this problem,
you can design a decision aid
that would simultaneously
let you reduce crime,
reduce jail populations,
and reduce racial disparities
in the criminal justice system as well.
How does the algorithm let you do that?
Well, what is race, after all,
but an irrelevant but highly salient
piece of information in the courtroom?
What is an implicit bias
other than a version
of the introspection illusion?

Portuguese: 
em uma cidade onde lhes asseguro
que a população geral da cidade
não é nem perto de 89% de minorias.
E as pessoas que estão preocupadas
com o uso do aprendizado de máquina
para esses problemas,
estão certas no sentido em que descobrimos
que, se você construir um algoritmo
para uma regra de liberação
que ignore esta questão inteiramente,
sem dúvida é possível
construir uma ferramenta
que faz esse problema ser um pouco pior.
Mas o que também descobrimos
é que, se você construir um algoritmo
prestando atenção a este problema,
você pode projetar um meio
de auxílio de decisões
que simultaneamente 
permitiria reduzir o crime,
reduzir a população das prisões 
e reduzir disparidades raciais
no sistema de justiça criminal também.
Como o algoritmo permite 
que você faça isso?
O que é raça, afinal,
se não uma informação irrelevante,
mas altamente evidente
na sala do tribunal?
O que é um preconceito implícito
se não uma versão
da ilusão da introspecção?

Arabic: 
في مدينة وبكل تأكيد يكون
إجمالي عدد السكان فيها
ليس بشكل أو بآخر 89% أقلية.
إن الناس الحريصين على استخدام تعلم الآلة
لحل هذه المسائل، أعتقد أنهم
على حق بشكل ما اكتشفنا به
أنه إذا قمت بإنشاء خوارزمية
في قاعدة تخص إطلاق سراح
تتجاهل هذه المشكلة تماماً.
فإنه من الممكن بكل تأكيد
بناء أداة ستجعل المشكلة،
إن وجدت، أكثر سوءاً بقليل.
ولكن ما اكتشفناه أيضاً أنه
إذا قمت بإنشاء خوارزمية
توجه انتباهها إلى هذه المسألة،
ستتمكن من تصميم دعم للقرار
يمكنه في ذات الوقت خفض معدل الجريمة
والخفض من ازدحام السجون و التباين العنصري
في نظام القضاء الجنائي أيضاً.
كيف تساعدك الخوارزمية في القيام بذلك؟
حسناً، ما هو العنصر،مهما كان،
غير أنه مجرد معلومة ليست ذات صلة
لكن ذات أهمية كبيرة في المحكمة؟
ماذا يكون الانحياز الضمني
غير أنه مجرد نوع من
وهم الاستبطان ومطالعة النفس؟

English: 
The algorithm is not prone
to those challenges
to human judgment and decision making.
I think what's particularly
exciting about bail
is that it is just one illustration
of a larger class
of public policy problems
that hinge on a prediction
that a human being is currently making,
but in principle could be informed
by machine learning algorithms.
There is an active debate underway
about whether it's a good idea
or a bad idea to take these algorithms
from the commercial sector and bring
them in to the public policy arena.
Should we do that or not?
I think that that actually
is the wrong way
to frame the debate
and frame the question,
and here's a thought exercise about why.
Imagine that I could
magically transport you back
to the beginning of the 20th century.
You would arrive telling people
about this new technology
that was on the horizon
that would very quickly become
one of the leading causes of death
and have massively adverse
impacts on the environment.

Arabic: 
إن الخوارزمية ليست عرضة لهذه التحديات
التي تواجه حكم البشر و اتخاذ القرارات.
أعتقد أن المثير في أمر الخروج بكفالة
هو أنه مجرد بيان واحد
من قضية أكبر في مسائل السياسات العامة
حيث تتوقف على توقع يأتي به إنسان،
ولكن من الممكن أن يتم إبلاغه مبدئياً
عن طريق خوارزميات تعلم الآلة.
هناك جدال قائم
حيال ما إذا كانت فكرة جيدة أم سيئة
بأن ننتقل بهذه الخوارزميات
من القطاع التجاري إلى
ساحة السياسات العامة.
أنقوم بفعل بذلك أم لا؟
أعتقد أن هذا أسلوب خاطئ حقاً
في تصوير الجدال وصياغة السؤال،
وها هو تمرين للفكر عن السبب.
تخيلوا أن بإمكاني بطريقة
سحرية إعادتكم في الزمن
إلى بدايات القرن العشرين.
ستصلون هناك وتحكون
للناس عن هذه التقنية الجديدة
التي كانت في الأفق
والتي ستصبح بسرعة جداً
أحد أسباب الموت الرئيسية
وتكون ذات تأثير معاكس
بشكل كبير على البيئة المحيطة.

Japanese: 
人間の下す判断と違い
アルゴリズムに偏見はありません
保釈の問題がとりわけ興味深いのは
これが現在
人間の立てた予測に頼っているものを
機械学習アルゴリズムによる情報で
補足することができる
数多くの公共政策問題の一例だからです
今 活発な議論が進んでいます
このようなアルゴリズムを
商業分野から公共政策へ導入するのが
果たして良いことなのか？
私はそういった議論は
問題の捉え方として
間違っていると思います
その理由をちょっと考えてみましょう
もし私が20世紀初頭に
皆さんをタイムスリップさせられたら？
あなたは当時開発中だったある技術の事を
人々に教えて回るでしょう
自動車は瞬く間に我々の主な死因の一つとなり
環境に膨大な悪影響を与えることになると

Portuguese: 
O algoritmo não é propenso
a esses desafios
ao julgamento humano
e à tomada de decisões.
O que é particularmente empolgante 
sobre a liberdade provisória
é que ela é apenas uma ilustração
de uma classe maior 
de problemas de políticas públicas
que dependem de uma previsão
que um ser humano está fazendo atualmente,
mas que poderia ser informada
por algoritmos de aprendizado de máquina.
Há um debate ativo em andamento
sobre se é uma boa ou má ideia
trazer esses algoritmos do setor comercial
para a arena de políticas públicas.
Devemos fazer isso ou não?
Acho que isso realmente é o caminho errado
para enquadrar o debate e a questão,
e aqui está um pensamento sobre o porquê.
Imagine que eu pudesse
magicamente transportá-los de volta
ao início do século 20.
Você chegaria contando às pessoas
sobre esta nova tecnologia
que estava no horizonte,
que se tornaria rapidamente
uma das principais causas de morte
e que teria massivo impacto
no meio ambiente.

Japanese: 
にもかかわらず 自動車を
普及させるべきでなかったと言う人は
僅かでしょう
車のない生活など想像できますか？
ここ100年で起きたような経済成長など
あり得なかったでしょう
生活の質は様々な面で低下
ドライブもできない！
（笑）
というわけで私が思うに 論ずるべきは
この先10年間で 機械学習という新技術を
公共政策に「用いるか否か」ではなく
「どう用いるのか」ということです
「どう用いるのか」ということです
ご清聴ありがとうございます
（拍手）

Portuguese: 
E, no entanto, acho que poucos de nós aqui
argumentaria que não 
deveríamos ter adotado
automóveis com motores de combustão.
Imagine como a vida seria sem carros.
Nós não teríamos nada 
do crescimento econômico
que vimos nos últimos 100 anos.
Nossas vidas seriam empobrecidas
de inúmeras maneiras,
E não teríamos viagens pela estrada.
(Risos)
Então acho que a conversa certa a se ter
sobre o uso do aprendizado de máquina
para aplicação em políticas
nos próximos dez anos
não é se devemos adotar
essas novas tecnologias,
mas como.
Muito obrigado.
(Aplausos)

Arabic: 
حتى الآن أعتقد أن قليلاً منا هنا نسبياً
سيجادلون بأنه ما كان يجب علينا اختراع
السيارات ذات محرك الاحتراق الداخلي.
تخيلوا كيف ستكون الحياة بدون سيارات.
لم يكن ليصبح لدينا شيء
مثل هذا النمو اقتصادي
الذي شهدناه على مر المائة سنة الماضية.
ولكانت ستصبح حياتنا
مستنزفة بطرق لا حصر لها،
وما كنا لنقوم برحلات على الطرق.
(ضحك)
وبهذا أعتقد أن النقاش الصحيح
الذي يجب أن يكون حول استخدام تعلم الآلة
في تطبيقات السياسات خلال
العشر سنوات القادمة
هو ليس ما إذا سيتم
اتخاذ هذه التقنيات الجديدة،
ولكن كيف.
شكراً جزيلاً لكم.
(تصفيق)

English: 
And yet, I think relatively few of us here
would argue that we shouldn't have adopted
the internal combustion engine automobile.
Imagine what life
would be like without cars.
We wouldn't have had anything 
like the economic growth
we've seen over the last 100 years.
Our lives would be impoverished
in countless ways,
and we wouldn't have road trips.
(Laughter)
And so I think the right conversation
to be having about
the use of machine learning
for policy applications
over the next ten years
is not whether to adopt
these new technologies
but how.
Thank you very much.
(Applause)
