
iw: 
תרגום: Shlomo Adam
עריכה: Allon Sasson
עליית המכונות!
מי כאן פוחד מרובוטים רצחניים?
(צחוק)
אני!
בעבר עבדתי בתחום הכטבמ"ים -
כלי-טיס בלתי-מאויישים -
וכשהתבוננתי בהם
יכולתי רק לחשוב שיום אחד
מישהו יחבר להם מקלעים
ונחילים של דברים כאלה יצודו אותי.
אני עובד בתחום הרובוטיקה
באוניברסיטת בראון
ואני פוחד מרובוטים.
למען האמת, אני די מבוהל,
האם אפשר להאשים אותי?
מאז היותי ילד
ראיתי רק סרטים

English: 
Translator: Hélène Vernet
Reviewer: Bangyou Xiang
The rise of the machines!
Who here is scared of killer robots?
(Laughter)
I am!
I used to work in UAVs -
Unmanned Aerial Vehicles -
and all I could think seeing
these things is that someday,
somebody is going to strap
a machine-gun to these things,
and they're going
to hunt me down in swarms.
I work in robotics at Brown University
and I'm scared of robots.
Actually, I'm kind of terrified,
but, can you blame me?
Ever since I was a kid,
all I've seen are movies

Arabic: 
المترجم: Faris Hasan
المدقّق: Riyad Almubarak
ارتقاء الآلات!
من هنا يخشى الروبوتات القاتلة؟
(ضحك)
أنا!
اعتدتُ العملَ في مجال
المركبات الجوية غير المأهولة
وكلّ ما شغل تفكيري
عند رؤيتي لتلك الأشياء أنه يوماً ما
سيقوم أحدهم بتزويد تلك الآلات بسلاح،
وسوف تطاردني على شكل أسراب.
أعملُ في مجال علم الروبوت في جامعة
"براون" ومع ذلك أنا أخشى الروبوتات.
حقيقةً أنا مُصاب بالذعر،
لكن هل تلومونني؟
ما شاهدته من أفلام مذ كنت طفلاً،

French: 
Traducteur: Lucie Jouan
Relecteur: Claire Ghyselen
Le soulèvement des machines !
Qui ici a peur des robots tueurs ?
(Rires)
Moi !
Je travaillais dans les UAV -
véhicules aériens sans pilote -
et la seule chose à laquelle je pensais
en voyant ces choses, c'est qu'un jour,
quelqu'un va attacher
une mitraillette à ces engins,
et qu'ils me traqueront en meute.
Je travaille en robotique
à la Brown University
et j'ai peur des robots.
En fait, j'en suis terrifié,
mais pouvez-vous m'en vouloir ?
Depuis que je suis enfant,
je n'ai vu que des films

Italian: 
Traduttore: Silvia Monti
Revisore: Barbara Nettl
La rivolta delle macchine!
Chi ha paura dei robot assassini?
(Risate)
Io sì!
Lavoravo con i droni,
gli aeromobili a pilotaggio remoto,
e tutto quello a cui riuscivo a pensare
vedendo quelle macchine era che un giorno
qualcuno ci attaccherà una mitragliatrice
e si metteranno a darmi
la caccia in sciami.
Lavoro nel campo della robotica
all'Università Brown
e ho paura dei robot.
A dire il vero, ne sono terrorizzato.
Ma potete biasimarmi?
Sin da quando ero bambino
non ho fatto altro che vedere film

Portuguese: 
Tradutor: Margarida Ferreira
Revisora: Mafalda Ferreira
A ascensão das máquinas!
Quem aqui tem medo de robôs assassinos?
(Risos)
Eu tenho!
Eu trabalhava em VAA
— Veículos Aéreos Autónomos —
e sempre que via aquelas coisas
pensava que, um dia,
alguém iria colocar
uma metralhadora naquelas coisas
que me iam perseguir em enxames.
Trabalho em robótica na Universidade Brown
e tenho medo de robôs.
Sinto-me mesmo aterrorizado,
mas poderão censurar-me?
Desde miúdo, só tenho visto filmes

Portuguese: 
que descrevem a ascensão
da Inteligência Artificial
e o nosso inevitável conflito com ela
— a Odisseia no Espaço 2001,
o Exterminador, Matrix —
e as histórias que contam
são assustadoras:
bandos de malfeitores a fugir
de máquinas super inteligentes.
Isso assusta-me. Pelas vossas mãos,
parece que também vos assusta.
Sei que é assustador para Elon Musk.
Mas temos algum tempo
antes de os robôs se levantarem.
Os robôs como o PR2,
que tenho na minha iniciativa,
ainda nem conseguem abrir a porta.
Portanto, acho que esta conversa
sobre robôs super inteligentes
é uma manobra de diversão
para uma coisa ainda mais insidiosa
que se passa com os sistemas IA
por todo o país.
Neste momento, há pessoas

French: 
qui décrivent la montée
de l'Intelligence Artificielle
et notre inévitable conflit avec elle -
2001 l'Odyssée de l'espace,
Terminator, Matrix -
et les histoires qu'ils racontent
sont plutôt effrayantes :
des bandes d'humains voyous
fuyant des machines super intelligentes.
Cela me fait peur.
Il semblerait que cela
vous effraie également.
Je sais que cela fait peur à Elon Musk.
Mais vous savez, nous avons
un peu de temps
avant que les robots ne se rebellent.
Des robots comme le PR2
dont j'ai eu l'initiative,
ils ne peuvent même pas ouvrir
une porte pour l'instant.
Donc, dans mon esprit, cette discussion
sur les robots super intelligents
n'est qu'une distraction
pour nous détourner
de quelque chose
de beaucoup plus insidieux
qui se passe avec les systèmes
d'IA dans tout le pays.

Italian: 
che narrano dell'ascesa
dell'Intelligenza Artificiale
e del nostro inevitabile conflitto
con essa:
2001: Odissea nello spazio,
Terminator, Matrix...
E le storie che raccontano
sono piuttosto spaventose:
bande di umani ribelli in fuga
da macchine super intelligenti.
Questa cosa mi spaventa.
E, dalle vostre mani,
mi sembra che spaventi anche voi.
So che spaventa Elon Musk.
Ma abbiamo ancora un po' di tempo
prima che i robot insorgano.
I robot del mio progetto come il PR2
non sono ancora in grado
di aprire una porta.
Quindi, secondo me, il dibattito
sui robot super intelligenti
non è che una distrazione
da qualcosa di molto più insidioso
che sta succedendo in tutta
la nazione con i sistemi di IA.
Vedete, ora come ora, ci sono persone,

Arabic: 
هي تلك التي تُصوّر هيمنة الذكاء الصناعي
ومواجهة الإنسان الحتمية لها.
فيلم "أوديسة الفضاء 2001"،
"الفاني"، "المصفوفة"،
والقصص التي يروونها مرعبة للغاية،
عصبة شريرة من البشر 
يفرّون من آلات خارقة الذكاء.
ذلك يُخيفني، وأيديكم المرفوعة 
تثبت أنه يخيفكم أنتم أيضاً.
وأعلم أنه يخيف (إلون ماسك).
لكن أتعلمون؟ لدينا بعض الوقت
قبل أن تنتفض الروبوتات.
فروبوتات (ب ر 2) التي أعمل معها في مشروعي
لا يمكنها فتح الباب بعد.
وحسب اعتقادي، فإن مناقشة موضوع
الروبوتات خارقة الذكاء
يعتبر ابتعاداً عن موضوع أكثر مكراً،
وهو ما يجري خلال استخدامنا 
لأنظمة الذكاء الصناعي في البلاد.

English: 
that portrayed the ascendance
of Artificial Intelligence
and our inevitable conflict with it -
2001 Space Odyssey,
The Terminator, The Matrix -
and the stories they tell are pretty scary:
rogue bands of humans running away
from super intelligent machines.
That scares me. From the hands, 
it seems like it scares you as well.
I know it is scary to Elon Musk.
But, you know, we have a little bit
of time before the robots rise up.
Robots like the PR2
that I have at my initiative,
they can't even open the door yet.
So in my mind, this discussion
of super intelligent robots
is a little bit of a distraction
from something far more insidious
that is going on with AI systems
across the country.

iw: 
שתיארו את עליית התבונה המלאכותית
ואת המלחמה הבלתי-נמנעת שלנו נגדה -
"2001 אודיסיאה בחלל",
"שליחות קטלנית", "מטריקס" -
שכולם מספרים סיפורים
מפחידים למדי:
קבוצות מורדים אנושיים
בורחות ממכונות סופר-נבונות.
זה מפחיד אותי,
ולפי הרמת הידיים -
גם אתכם.
אני יודע שזה מפחיד
גם את אילון מאסק.
אבל נותר לנו קצת זמן
לפני שהרובוטים יתקוממו.
רובוטים כמו פי-אר2
שאני עובד עליהם
אינכם יכולים עדיין
אפילו לפתוח דלת.
אז לדעתי, הדיון הזה
ברובוטים סופר-נבונים
הוא בגדר הסחת-דעת
ממשהו ערמומי בהרבה
שקורה עם מערכות התבונה המלאכותית
בארץ כולה.
כי כיום, יש אנשים -

Italian: 
dottori, giudici, contabili,
che ottengono informazioni
da un sistema di IA
e che trattano queste informazioni
come se provenissero da un collega fidato.
È questa fiducia che mi preoccupa.
E non perché spesso l'IA sbagli.
I ricercatori dell'IA sono fieri
della precisione dei risultati.
È quanto gravemente sbaglia
quando commette un errore
quello che mi preoccupa davvero.
Questi sistemi non sbagliano di poco.
Ma vediamo un po' come funzionano.
Questo è un cane che è stato scambiato
per un lupo da un algoritmo di IA.
I ricercatori volevano sapere:
perché proprio questo husky
è stato scambiato per un lupo?
Così, hanno riscritto l'algoritmo
affinché indicasse loro
quali erano le parti della foto
a cui aveva prestato attenzione
quando ha fatto la sua scelta.

iw: 
רופאים, שופטים, רואי-חשבון -
שמקבלים מידע ממערכות תבונה מלאכותית
ומתייחסים אליו כאל מידע
שמתקבל מעמית מהימן.
האמון הזה הוא שמטריד אותי
לא מידת התכיפות שבה
התבונה המלאכותית טועה;
כל החוקרים מתגאים
בדיוק התוצאות שלה.
חומרת הטעויות, היא שמדאיגה אותי.
המערכות הללו אינן נכשלות באופן חינני.
הבה נראה זאת.
זהו כלב שזוהה בטעות כזאב
ע"י אלגוריתם של תבונה מלאכותית.
החוקרים ביקשו לדעת
מדוע כלב ההאסקי הזה
זוהה בטעות כזאב?
אז הם שיכתבו את האלגוריתם
כדי שיסביר להם
מהם חלקי התמונה
שהאלגוריתם התייחס אליהם
כשהוא קיבל את החלטתו.

Arabic: 
فالآن يوجد أشخاصٌ
كالأطباء والقضاة والمحاسبين
الذين يتلقون معلوماتٍ 
من أنظمة الذكاء الصناعي
ويُعاملونها كما لو أنها جاءت 
من مصدر موثوق.
فتلك الثقة هي ما يزعجني،
ليس بسبب عدد المرات التي تُخطئ فيها
أنظمة الذكاء الصناعي،
فالباحثون في مجال الذكاء الصناعي
يتباهونَ بالنتائج الدقيقة،
بل مدى فداحة هذه الأخطاء عند ارتكابها
هي ما يُقلِقني.
فتلك الأنظمة لا تفشل بشكلٍ آمن.
دعونا نُلقي نظرةً على هذه الصورة،
هذا الكلب تم تعريفه بالخطأ على أنه ذئب
من قبل خوارزمية ذكاء صناعي.
أراد الباحثون معرفة السبب،
لماذا أخطأت بالتعرف على كلب
الهاسكي هذا على أنه ذئب؟
لذا، قاموا بإعادة تكويد الخوارزمية 
بغية توضيح
الأجزاء التي كانت محل اهتمام الخوارزمية
لحظة اتخاذها القرار.

English: 
You see, right now,
there are people -
doctors, judges, accountants -
who are getting information
from an AI system
and treating it as if it is information
from a trusted colleague.
It's this trust that bothers me
not because of how often
AI gets it wrong.
AI researchers pride themselves
in accuracy on results.
It's how badly it gets it wrong
when it makes a mistake
that has me worried.
These systems do not fail gracefully.
So, let's take a look
at what this looks like.
This is a dog that has been misidentified
as a wolf by an AI algorithm.
The researchers wanted to know:
why did this particular husky
get misidentified as a wolf?
So they rewrote the algorithm
to explain to them
the parts of the picture
it was paying attention to
when the AI algorithm made its decision.

French: 
Vous voyez, en ce moment,
il y a des gens -
des médecins, des juges, des comptables -
qui obtiennent des informations
d'un système d'IA
et qui les traitent comme s'il s'agissait
d'informations d'un collègue de confiance.
C'est cette confiance qui me dérange,
non à cause de la fréquence
à laquelle l'IA se trompe.
Les chercheurs en IA sont fiers
de l'exactitude des résultats.
C'est à quel point elle se trompe quand
elle commet une erreur qui m'inquiète.
Ces systèmes n'échouent pas gracieusement.
Alors, regardons à quoi cela ressemble.
Ceci est un chien qui a été mal identifié
comme étant un loup
par un algorithme d'IA.
Les chercheurs ont voulu savoir :
pourquoi ce husky en particulier a-t-il
été identifié à tort comme un loup ?
Ils ont donc réécrit l’algorithme
pour que celui-ci explicite
les parties de l’image à laquelle
il prêtait attention.
Lorsque l’algorithme d’IA
a pris sa décision.

Portuguese: 
— médicos, juízes, contabilistas —
que estão a obter informações
de um sistema de IA
e a trabalhá-las como se fossem
informações de um colega de confiança.
É esta confiança que me preocupa,
não pela frequência com que a IA erra.
Todos os investigadores se orgulham
do rigor dos seus resultados.
O pior é o grau de erro que existe
quando ela se engana
que me preocupa mais.
Estes sistemas, quando erram,
não erram por pouco.
Vejamos o que acontece.
Isto é um cão que um algoritmo da IA
identificou erradamente como um lobo.
Os investigadores quiseram saber
porque é que este "husky"
tinha sido confundido com um lobo.
Voltaram a escrever o algoritmo
para que ele explicasse
quais as partes da imagem
a que ele prestava atenção
quando o algoritmo da IA
tomava a decisão.

Portuguese: 
Nesta imagem, a que é que acham
que ele prestava atenção?
A que é que vocês prestariam atenção?
Talvez aos olhos,
talvez às orelhas, ao focinho...
Mas ele prestava atenção a isto:
sobretudo à neve, 
o pano de fundo da imagem.
Estão a ver, havia um desvio no conjunto
de dados que alimentava este algoritmo.
Na maior parte das imagens,
os lobos estão no meio da neve,
por isso, o algoritmo da IA
associava a presença ou ausência da neve
à presença ou ausência de um lobo.
O que é assustador nisto
é que os investigadores não faziam
ideia de que isso acontecia
a não ser quando voltaram a escrever
o algoritmo para que se explicasse.
É o que acontece com os algoritmos da IA,
com a aprendizagem profunda,
a aprendizagem de máquinas.
Mesmo os especialistas
que trabalham nesta coisa

Arabic: 
في هذه الصورة، 
ما الأجزاء التي لاحظتها برأيكم؟
ماذا ستلاحظون؟
ربما العيون، أو الأذنين 
أو الأنف المدبب ..
هذا ما لاحظته الخوارزمية،
إنه الثلج الموجود في خلفية الصورة.
يوجد خطأ منهجي في البيانات
المُدخلة للخوارزمية.
فمعظم صور الذئاب كانت على الثلج،
فقد قرنت الخوارزمية وجود الثلج وعدمه
بوجود الذئب وعدم وجوده.
والمخيف في الأمر
هو أن الباحثين لم يعلموا بحدوثه أصلاً
إلى أن أعادوا تكويد الخوارزمية 
لتوضيح السبب.
وهذا هو الحال مع خوارزميات الذكاء الصناعي
والتعلّم العميق وتعلّم الآلة.
إذ أن حتى المطورين الذي يعملون عليها

iw: 
אל מה בתמונה הזאת, לדעתכם,
התייחס האלגוריתם?
למה אתם מתייחסים?
אולי העיניים, האוזניים, האף?
הנה מה שהאלגוריתם התייחס אליו:
בעיקר השלג והרקע בתמונה.
הנתונים שהוזנו אל האלגוריתם
היו פשוט מוטעים.
מרבית צילומי הזאבים היו בשלג,
אז האלגוריתם חיבר
את נוכחות או העדר השלג
לנוכחות או העדר זאב.
המפחיד בכך
הוא שלחוקרים לא היה
כל מושג על כך
עד ששיכתבו את האלגוריתם
כדי שיסביר את עצמו.
וזה העניין עם אלגוריתמים
של תבונה מלאכותית,
למידה עמוקה ולמידת מכונה.

Italian: 
Guardando questa fotografia, 
a cosa pensate abbia prestato attenzione?
Voi a cosa avreste prestato attenzione?
Forse agli occhi,
forse alle orecchie, magari al muso.
Ecco a cosa ha prestato attenzione:
principalmente alla neve
e allo sfondo della fotografia.
C'era un preconcetto nell'insieme di dati
che è stato dato a questo algoritmo.
Nella maggior parte delle foto,
i lupi erano sulla neve,
quindi l'algoritmo di IA ha scambiato
la presenza o l'assenza della neve
per la presenza o l'assenza di un lupo.
La cosa preoccupante
è che i ricercatori non avevano idea
di quello che stava succedendo
fino a quando non hanno riscritto
l'algoritmo affinché lo spiegasse loro.
È questo il problema
degli algoritmi di IA,
dell'apprendimento
approfondito e automatico.
Persino gli sviluppatori
che lavorano con essi

French: 
Sur cette image, à quoi pensez-vous
qu'il ait prêté attention ?
À quoi feriez-vous attention ?
Peut-être les yeux,
peut-être les oreilles, le museau...
Voici à quoi il a prêté attention :
principalement la neige
et l'arrière-plan de l'image.
Il y avait un biais dans le jeu de données
alimentant cet algorithme.
La plupart des images de loups
étaient dans la neige,
l'algorithme d'IA a donc confondu
la présence ou l'absence de neige
avec la présence ou à l'absence d'un loup.
La chose effrayante ici
est que les chercheurs n’avaient
aucune idée de ce qu'il se passait,
avant de réécrire l’algorithme
pour qu'il explicite ses choix.
Et c'est le problème
avec les algorithmes d'IA,
l'apprentissage profond et automatique.
Même les développeurs
qui travaillent sur ce genre de choses

English: 
In this picture, what do you
think it paid attention to?
What would you pay attention to?
Maybe the eyes,
maybe the ears, the snout ...
This is what it paid attention to:
mostly the snow
and the background of the picture.
You see, there was bias in the data set
that was fed to this algorithm.
Most of the pictures of wolves were in snow,
so the AI algorithm conflated
the presence or absence of snow
for the presence or absence of a wolf.
The scary thing about this
is the researchers had
no idea this was happening
until they rewrote
the algorithm to explain itself.
And that's the thing with AI algorithms,
deep learning, machine learning.
Even the developers who work on this stuff

Arabic: 
لا يملكون أدنى فكرة عما تفعله
قد يكون هذا مثالاً رائعاً في أحد البحوث،
لكن ماذا يعني ذلك في الحياة العملية؟
تُستخدم خوارزمية نظام "كومبس" 
للأحكام الجنائية في 13 ولاية
لتحديد احتمالية تكرار الجريمة
أو احتمالية ارتكابك لجريمة
فور إطلاق سراحك.
لقد وجدت مؤسسة "برو بابليكا" 
أنك لو كنت من أصول إفريقية،
فإن نظام "كومبس" سوف يرى
احتمالية ارتكابك للعنف بنسبة 77%
مما لو كنت قوقازياً.
إنه نظام موجود في عالمنا هذا، 
يُستخدم من قبل قضاة حقيقيين
لإطلاق أحكام تتعلق بحياة أُناس حقيقيين.
لماذا يثق القضاة بنظامٍ
يُظهر أخطاءً منهجية؟
إن السبب وراء استخدامهم لنظام "كومبس"
هو أنه نموذج لتحقيق الكفاءة.

English: 
have no idea what it's doing.
So, that might be
a great example for a research,
but what does this mean in the real world?
The Compas Criminal Sentencing
algorithm is used in 13 states
to determine criminal recidivism
or the risk of committing
a crime again after you're released.
ProPublica found
that if you're African-American,
Compas was 77% more likely to qualify
you as a potentially violent offender
than if you're a Caucasian.
This is a real system being used
in the real world by real judges
to make decisions about real people's lives.
Why would the judges trust it
if it seems to exhibit bias?
Well, the reason they use Compas
is because it is a model for efficiency.

Portuguese: 
não fazem ideia do que se passa.
Isto podia ser um bom exemplo
para uma investigação
mas o que é que significa
no mundo real?
O algoritmo Compas de Sentenças Criminais
é usado em 13 estados
para determinar a reincidência criminal
ou o risco de voltar a praticar um crime
depois de se ser libertado.
A ProPublica descobriu
que, em relação aos afro-americanos,
o Compas tinha mais 77%
de probabilidades de os classificar
como um agressor potencialmente violento
do que em relação aos caucasianos.
Isto é um sistema real
que está a ser usado
no mundo real por juízes reais
para tomar decisões
sobre a vida de pessoas reais.
Porque é que os juízes confiam nele
se tudo indica que é parcial?
Eles usam o Compas porque
é um modelo de eficácia.

Italian: 
non hanno idea di quello che fanno.
Questo potrebbe essere
un esempio perfetto per un ricercatore,
ma che significato ha nel mondo reale?
L'algoritmo COMPAS Criminal Sentencing
viene usato in 13 Stati americani
per determinare la recidività criminale
o il rischio di commettere
un reato dopo il rilascio.
ProPublica ha constato
che un afroamericano
con COMPAS ha il 77% in più
di possibilità di essere qualificato
come criminale potenzialmente violento
rispetto a un caucasico.
Questo è un sistema reale che viene usato
nel mondo reale da giudici reali
per prendere decisioni
sulla vita reale delle persone.
Perché i giudici dovrebbero fidarsi
di questo algoritmo
se si basa su un pregiudizio?
Il motivo per cui usano COMPAS
è perché è un modello di efficienza.

iw: 
אפילו למפתחי הדברים האלה
אין מושג מה הם עושים.
אז זה יכול להיות
נושא נהדר למחקר,
אבל מה זה אומר בעולם האמיתי?
אלגוריתם השיפוט הפלילי "קומפס"
נמצא בשימוש ב-13 מדינות
לצורך קביעת שיעור הפשיעה החוזרת,
או הסיכון לביצוע פשע
שנה אחרי השחרור מהכלא.
"פרופבליקה" מצא
שאם אתם אפרו-אמריקנים,
הסבירות של "קומפס" לסווג אתכם
כעבריינים אלימים-בפוטנציה גדולה ב-77%
מאשר אם אתם לבנים.
מדובר במערכת אמיתית
שמשתמשים בה שופטים אמיתיים
בעולם האמיתי
כדי לקבל החלטות בנוגע
לחייהם של אנשים אמיתיים.
למה שהשופטים יסמכו עליה
אם היא ככל הנראה מפגינה הטיה?
ובכן, הם משתמשים ב"קומפס"
כי היא מופת של יעילות.
"קומפס" מאפשרת להם לעבור
מהר יותר על ערימות של תיקים

French: 
n'ont aucune idée de ce qu'ils font.
Cela pourrait être un excellent exemple
pour une recherche,
mais qu'est-ce que cela signifie
dans le monde réel ?
L'algorithme de jugement criminel COMPAS
est utilisé dans 13 États d'Amérique
pour déterminer la récidive criminelle
ou le risque de commettre
un crime à nouveau après votre libération.
ProPublica a constaté
que si vous êtes afro-américain,
COMPAS avait 77% plus de chances
de vous qualifier de délinquant
potentiellement violent
que si vous étiez caucasien.
Ceci est un système réel, utilisé
dans le monde réel par de vrais juges,
pour prendre des décisions
sur la vie de vraies personnes.
Pourquoi les juges lui feraient-ils
confiance s'il semble être biaisé ?
La raison pour laquelle
ils utilisent COMPAS,
c'est parce qu’il s’agit
d’un modèle d’efficacité.

Italian: 
COMPAS permette di velocizzare
considerevolmente il carico di lavoro
in un sistema giudiziario penale
in cui ci sono molte cause arretrate.
Perché dovrebbero mettere
in dubbio il loro stesso software?
È stato richiesto dallo Stato,
approvato dal Dipartimento di Informatica.
Perché dovrebbero metterlo in dubbio?
Le persone condannate da COMPAS
lo hanno messo in dubbio
e le loro cause
dovrebbero farci rabbrividire.
La Corte Suprema
del Wisconsin ha stabilito
che COMPAS non negava
un processo equo all'imputato
a condizione che venisse utilizzato
"adeguatamente".
Ha inoltre stabilito
che l'imputato non poteva esaminare
il codice sorgente di COMPAS.
Deve essere usato adeguatamente,
ma non si può esaminare
il codice sorgente?
Prese insieme,
queste decisioni sono preoccupanti
per chiunque si trovi ad affrontare
una condanna penale.
A voi magari non interessa dato che
non state affrontando una condanna penale,
ma se vi dicessi che le black box
degli algoritmi di IA come questo
vengono usate per decidere
se concedervi il prestito per la casa,

French: 
COMPAS leur permet de traiter
des dossiers beaucoup plus rapidement
dans un système de justice surchargé.
Pourquoi mettraient-ils en doute
leur propre logiciel ?
Il a été acheté par l'État, approuvé
par leurs services informatiques.
Pourquoi le remettraient-ils en cause ?
Les personnes condamnées par COMPAS
l'ont remis en question,
et le procès devrait tous nous refroidir.
La Cour suprême
de l'État du Wisconsin a statué
que COMPAS ne refuserait pas à un accusé
une procédure régulière
à condition qu'il ait été utilisé
« correctement ».
Dans le même temps, ils ont statué
que l'accusé ne pouvait pas inspecter
le code source de COMPAS.
Il doit être utilisé correctement
mais vous ne pouvez pas
inspecter le code source ?
C’est un ensemble
de décisions troublantes,
qui s’appliquent à quiconque
encourant une condamnation pénale.
Cela vous est peut-être égal
parce que vous n'êtes pas
poursuivi en justice,
mais si je vous disais que des algorithmes
opaques d'IA comme celui-ci
sont utilisés pour décider si vous pouvez
obtenir ou non un prêt pour votre maison,

Portuguese: 
O Compas permite-lhes resolver
contenciosos muito mais depressa
num sistema judicial criminal
assoberbado.
Porque é que haviam de pôr em causa
o seu próprio "software"?
Foi adquirido pelo estado, aprovado
pelo Departamento de Informática.
Porque é que haviam de o pôr em causa?
As pessoas condenadas pelo Compas
puseram-no em causa
e os processos deviam 
assustar-nos a todos.
O Supremo Tribunal de Winsconsin
determinou
que o Compass não negava
ao réu um processo correto
se fosse usado "corretamente".
Na mesma decisão, determinaram
que o réu não podia inspecionar
o código de origem do Compass.
Tinha que ser usado corretamente
mas não era possível inspecionar
o código de origem?
É um conjunto de normas perturbador,
quando consideradas em conjunto,
para quem enfrenta
uma condenação criminal.
Vocês podem não se preocupar com isto
porque não enfrentam
uma sentença criminal,
mas e se eu vos disser que 
algoritmos IA de caixa negra, como este,
estão a ser usados para decidir

Arabic: 
يخوّلهم نظام "كومبس" بالتعامل السريع
مع مئات القضايا
المتراكمة في النظام القضائي الجنائي.
لمَ قد يُشكّكون بنظامهم الخاص؟
لقد كَثُر الطلب عليها في مؤسسات الدولة
واعتمدتهُ إدارة شؤون الموظفين.
لماذا يُشكّكون به؟
حسناً، لقد شكّك بأدائه 
الأشخاص المحكوم عليهم بنظام "كومبس"،
وسوف تُفاجئنا قضاياهم جميعاً.
لقد قضت محكمة "ويسكنسون" العليا
بأن نظام "كومبس" لا يُنكر حق المتهم
بمحاكمة عادلة ومشروعة
شريطة أن يُستخدم "بالشكل المناسب".
ومن بين القوانين التي أقرتها أيضاً،
أنه لا يحق للمُتهم الاطلاع
على الشفرة المصدرية لنظام "كومبس".
يجب أن يُستخدم بشكل مناسب
لكن لا يمكنك الاطلاع على الشفرة المصدرية.
هذه قوانين مُقلقة عند مواجهتها
من قبل شخص يواجه أحكاماً جنائية.
قد لا تكترثون بذلك لأن أحداً منكم لا يواجه
أحكاماً جنائية،
لكن ماذا لو أخبرتكم أن خوازميات
الذكاء الصناعي، بالغة السرية، هذه
تُستخدم لتحديد فيما إذا كنت مُستحقاً
للحصول على قرض لمنزلك أو لا،

iw: 
במערכת המשפט הפלילי
העמוסה לעייפה.
מדוע שיפקפקו בתוכנה שלהם?
היא נרכשה ע"י המדינה,
אושרה ע"י משרד המשפטים שלהם;
מדוע שיפקפקו בה?
ובכן, האנשים שנשפטו בעזרת "קומפס"
פקפקו בה.
והתביעות שהם הגישו
צריכות לצמרר את כולנו.
בית המשפט העליון של ויסקונסין פסק
ש"קומפס" לא מנע מנתבע
הליך הגנה נאות
בתנאי שהוא נעשה "נכון".
באותה פסיקה הוא קבע
שהנתבע אינו רשאי לבחון
את קוד המקור של "קומפס".
חובה להשתמש בו נכון
אבל אסור לבחון את קוד המקור?
ביחד, זו מערכת פסיקות מטרידה
עבור כל מי שצפוי לדין פלילי.
אולי לכם לא איכפת מכך
כי אינכם צפויים לדין פלילי,
אבל מה דעתכם על כך
שאלגוריתמי קופסה שחורה כאלה
משמשים כדי לקבוע אם
לתת לכם הלוואה לרכישת בית,

English: 
Compas lets them go
through caseloads much faster
in a backlogged criminal justice system.
Why would they question
their own software?
It's been requisitioned by the State,
approved by their IT Department.
Why would they question it?
Well, the people sentenced
by Compas have questioned it,
and their lawsuits should chill us all.
The Wisconsin State Supreme Court ruled
that compass did not deny
a defendant due process
provided it was used "properly."
In the same set of rulings, they ruled
that the defendant could not inspect
the source code of Compass.
It has to be used properly
but you can't inspect the source code?
This is a disturbing set of rulings
when taken together
for anyone facing criminal sentencing.
You may not care about this because
you're not facing criminal sentencing,
but what if I told you
that black box AI algorithms like this
are being used to decide whether or not
you can get a loan for your house,

Arabic: 
أو حصولك على مقابلة عمل،
أو الرعاية الصحية،
وحتى فيما يخصّ قيادة العربات والشاحنات 
على الطريق السريع،
ألا تريدون للعامة من الناس
أن يطّلعوا على الخوارزمية
التي تحاول التمييز بين سلة التسوق
وبين عربة الطفل 
في سيارة ذاتية التحكم،
بنفس الطريقة التي تحاول بها
الخوارزمية التمييز
بين كلب وذئب؟
هل أنتم بمثابة الكلب، بالمعنى المجازي،
الذي تم تعريفه بالخطأ على أنه ذئب
من قبل خوازمية ذكاء صناعي كتبها أحدهم؟
بالنظر إلى التعقيد الذي يلف الناس،
هذا ممكن.
هل يوجد ما يمكننا فعله الآن؟
على الأرجح لا، وهذا ما يجب التركيز عليه.
علينا وضع معايير للمُساءلة
والشفافية والطعن بأنظمة الذكاء الصناعي.

Italian: 
se avete ottenuto un colloquio di lavoro,
se avete diritto all'assistenza sanitaria
e stanno addirittura guidando
automobili e camion in autostrada?
Vorreste che alle persone
fosse permesso esaminare l'algoritmo
che sta cercando di distinguere
un carrello della spesa da un passeggino
in un camion che si guida da solo
nello stesso modo in cui
l'algoritmo cane/lupo
stava cercando di distinguere
un cane da un lupo?
Siete potenzialmente un cane metaforico
che è stato scambiato per un lupo
dall'algoritmo di IA di qualcuno?
È possibile, se consideriamo
la complessità delle persone.
C'è qualcosa che potete fare
a riguardo ora?
Probabilmente no.
Ed è proprio su questo punto
che dobbiamo concentrarci.
Dobbiamo chiedere
standard di responsabilità,
trasparenza e ricorsi nei sistemi di IA.
L'ISO, l'Organizzazione
internazionale per la normazione,

English: 
whether you get a job interview,
whether you get Medicaid,
and are even driving cars 
and trucks down the highway.
Would you want the public
to be able to inspect the algorithm
that's trying to make a decisiom
between a shopping cart 
and a baby carriage
in a self-driving truck,
in the same way the dog/wolf
algorithm was trying to decide
between a dog or a wolf?
Are you potentially a metaphorical dog
who's been misidentified as a wolf
by somebody's AI algorithm?
Considering the complexity
of people, it's possible.
Is there anything
you can do about it now?
Probably not, and that's
what we need to focus on.
We need to demand
standards of accountability,
transparency and recourse in AI systems.

iw: 
לקבל אתכם לראיון עבודה,
לזכות בטיפול רפואי,
ואפילו עבור נהיגת
מכוניות ומשאיות בכביש המהיר.
האם הייתם רוצים שהציבור
יוכל לבחון את האלגוריתם
שאמור להחליט במשאית אוטונומית
בין עגלת מרכול לעגלת תינוק,
כמו שהאלגוריתם של כלב/זאב
ניסה לבחור
אם זה כלב או זאב?
האם אתם עלולים להיות
כלב מטפורי שמזוהה בטעות כזאב
בידי אלגוריתם התבונה המלאכותית
של מישהו?
כשחושבים על מורכבות האדם,
זה אפשרי.
האם יש משהו שאתם יכולים
לעשות כרגע בנוגע לכך?
כנראה שלא,
ובכך עלינו להתמקד.
עלינו לדרוש תקנים
של נשיאה באחריות,
שקיפות והיחלצות
במערכות תבונה מלאכותית.

French: 
si vous pouvez obtenir
un entretien d'embauche,
si vous pouvez bénéficier
d'une assurance maladie,
et qu'ils conduisent même des voitures
et des camions sur l'autoroute.
Souhaiteriez-vous que le public
soit en mesure d'inspecter l'algorithme
qui tente de faire la distinction
entre un panier et un landau
dans un camion autonome,
de la même manière
que l'algorithme chien/loup
essayait de faire la différence
entre un chien et un loup ?
Êtes-vous potentiellement
un chien métaphorique
qui a été mal identifié comme un loup
par l'algorithme d'IA de quelqu'un ?
Compte tenu de la complexité
des personnes, c'est possible.
Y a-t-il quelque chose
que vous puissiez faire maintenant ?
Probablement pas,
et c'est ce sur quoi
nous devons nous concentrer.
Nous devons exiger
des normes de responsabilité,
de transparence et des recours
concernant les systèmes d'IA.
L'ISO, l'Organisation internationale
de normalisation,

Portuguese: 
se podemos obter ou não
um empréstimo para comprar casa,
se conseguimos ou não
uma entrevista para um emprego,
se obtemos ou não assistência médica,
e até estão a dirigir carros e camiões
pelas autoestradas?
Desejariam que o público
pudesse inspecionar o algoritmo
que está a tomar decisões
entre um carrinho de compras
e um carrinho de bebé,
num camião autónomo,
do mesmo modo que o algoritmo
cão/lobo tentava decidir
entre um cão e um lobo?
Seremos potencialmente um cão
metafórico confundido com um lobo
por qualquer algoritmo de IA?
Considerando a complexidade
das pessoas, isso é possível.
Haverá alguma coisa
que possamos fazer, neste momento?
Provavelmente não, e é nisso
que devemos concentrar-nos.
Precisamos de exigir normas
de responsabilização,
de transparência e recurso
quanto aos sistemas de IA.
A Organização Internacional
de Normalização,

English: 
ISO, the International Standards
Organization, just formed a committee
to make decisions about
what to do for AI standards.
They're about five years out
from coming up with a standard.
These systems are being used now,
not just in loans, but they're being
used in vehicles like I was saying.
They're being used in things like
Cooperative Adaptive Cruise Control.
It's funny that they call that "cruise control"
because the type of controller used
in cruise control, a PID controller,
was used for 30 years in chemical plants
before it ever made into a car.
The type of controller that's used
to drive a self-driving car
and a machine learning,
that's only been used
in research since 2007.
These are new technologies.
We need to demand the standards
and we need to demand regulation

French: 
vient de former un comité
pour prendre des décisions
sur ce qui doit être fait
concernant les normes sur l'IA.
Il leur faut environ cinq ans
pour élaborer une norme.
Ces systèmes sont utilisés en ce moment,
pas seulement pour estimer
l'octroi de prêts,
mais ils sont utilisés dans
des véhicules, comme je l'expliquais.
Ils sont utilisés dans des domaines
tels que le régulateur de vitesse
adaptatif coopératif.
C'est drôle qu'ils appellent cela
« régulateur de vitesse »
parce que le type de contrôleur utilisé
dans le régulateur de vitesse,
un contrôleur PID,
a été utilisé pendant 30 ans
dans des usines chimiques
avant d’être transféré sur des voitures.
Le type de contrôleur utilisé
pour conduire une voiture autonome
et l'apprentissage automatique,
n'est utilisé en recherche
que depuis 2007.
Ce sont des nouvelles technologies.
Nous devons exiger des normes
et nous devons exiger une réglementation

Arabic: 
لقد شكلت منظمة توحيد المقاييس الدولية
لجنةً لتوها،
بشأن القرارات حول ما يمكن فعله 
بخصوص معايير الذكاء الصنعي.
لدينا خمس سنوات قبل أن يخرجوا علينا
بمعايير تخص هذا الشأن.
لكن هذه الأنظمة هي قيد الاستخدام الآن،
ليس فقط بما يخص القروض، لكن أيضاً
بما يخص الشاحنات كما أسلفت سابقاً.
وتُستخدم في أمور مثل أنظمة مراقبة
الرحلات البحرية ذات التوجيه الذاتي.
ومن المضحك تسميتها "بأنظمة مراقبة بحرية"
لأن خاصية المراقبة المستخدمة
في الملاحة البحرية هي من طراز (PID)،
التي استُخدِمت لمدة 30 سنة في المصانع
الكيميائية قبل استخدامها في السيارة.
ونظام المراقبة المُستخدم
في السيارات ذاتية القيادة والتعلّم الآلي،
استخدِم فقط لأغراض بحثية منذ العام 2007.
تلك تقنيات جديدة،
علينا المطالبة بالمعايير
والمطالبة بقوانين ناظمة

iw: 
ארגון התקינה הבינלאומי, ISO,
הקים לאחרונה ועדה
שתחליט מה לעשות בעניין
תקנים בתבונה המלאכותית.
הם רחוקים כחמש שנים
מניסוח תקן.
המערכות האלה נמצאות בשימוש
היום,
לא רק למתן הלוואות
אלא גם בכלי-רכב, כפי שאמרתי.
הן משמשות בדברים כמו
"בקרת-שיוט סתגלנית שיתופית".
מצחיק שמכנים זאת "בקרת שיוט",
כי סוג הבקר של בקרת השיוט,
בקר פי-איי-די,
היה 30 שנה בשימוש בתעשיה הכימית
לפני שהגיע אל המכוניות.
סוג הבקר שבו משתמשים
במכוניות אוטונומיות ובלמידת מכונה
נחקר רק מאז 2007,
אלה הן טכנולוגיות חדשות.
עלינו לדרוש תקנים ופיקוח
כדי שלא ימכרו לנו שיקויי-פלא.

Italian: 
ha creato una commissione
che deve decidere cosa fare
per quanto riguarda gli standard dell'IA.
Impiegheranno circa cinque anni
per fissare uno standard.
Questi sistemi vengono usati adesso,
non solo per i prestiti, ma anche,
come vi dicevo prima, nei veicoli.
Vengono usati per cose come il controllo
di adattamento della velocità di crociera.
È buffo che lo chiamino
"controllo di crociera"
perché il tipo di controllore
che viene usato, il controllore PID,
è stato usato per trent'anni
negli stabilimenti chimici
prima di venire installato
su un'automobile.
Il tipo di controllore impiegato
per guidare un'automobile senza conducente
e per l'apprendimento automatico
viene utilizzato nelle ricerche
solo dal 2007.
Sono nuove tecnologie.
Dobbiamo chiedere standard
e dobbiamo chiedere regolamentazioni
per evitare di trovare
ciarlatanate sul mercato.

Portuguese: 
instituiu há pouco uma comissão
para tomar decisões sobre o que fazer
para normas da IA.
Vão demorar uns cinco anos
antes de apresentarem uma norma.
Estes sistemas já estão a ser usados,
não só para empréstimos, estão a ser
usados em veículos, como já referi.
Estão a ser usados em coisas como
o Controlo de Velocidade
Adaptável Cooperativo.
É curioso que lhe chamem
"controlo de velocidade"
porque o tipo de controlador que usaram
para o controlo de velocidade
— um controlador PID —
foi usado durante 30 anos
em instalações químicas,
antes de ser adaptado para carros.
O tipo de controlador que está a ser usado
para dirigir um carro autónomo
e para aprendizagem de máquinas
só tem sido usado
na investigação desde 2007.
Trata-se de tecnologias novas.
Precisamos de exigir as normas
e precisamos de exigir regulamentação
para não termos "banha de cobra"
no mercado.

English: 
so that we don't get snake oil 
in the marketplace.
And we also have to have
a little bit of skepticism.
The experiments in Authority
done by Stanley Milgram
after World War II,
showed that your average person
would follow an authority figures orders
even if it meant harming their fellow citizen.
In this experiment,
every day Americans would shock an actor
past the point of him
complaining about her trouble,
past the point of him screaming in pain,
past the point of him
going silent in simulated death,
all because somebody
with no credentials, in a lab coat,
was saying some variation of the phrase
"The experiment must continue."

Arabic: 
حتى لا نُخدع بادعاءات السلامة الزائفة.
وعلينا التشكيك بها بعض الشيء.
إن تجارب برنامج "أوثورتي"
التي قام بها (ستانلي ميلغرام) 
بعد الحرب العالمية الثانية،
أظهرت أن الشخص العادي 
سوف يُنفّذ أوامر رجل السلطة
حتى لو كان على حساب أذية مواطن آخر.
في هذه التجربة،
يقوم مواطنون أمريكيون بصعق رجل ممثل،
متجاهلين كونه يشتكي من هذا الموقف
ومتجاهلين صراخه تحت تأثير الألم
ومتجاهلين لحظة صمته وتمثيله الموت،
كل ذلك لأن شخصاً،
بدون أوراق اعتماد ويرتدي معطفًا أبيضًا،
كان يقول ما يشبه عبارة:
"التجربة يجب أن تستمر".

Italian: 
E dobbiamo anche essere un po' scettici.
Gli esperimenti sull'autorità
effettuati da Stanley Milgram
dopo la Seconda Guerra Mondiale
hanno dimostrato che una persona media
eseguirebbe gli ordini
di una figura autoritaria
anche se questo significasse
fare del male ai propri concittadini.
In questo esperimento,
i cittadini medi americani
davano la scossa a un attore
anche dopo che questi
si lamentava del male,
anche dopo che urlava dal dolore
e persino dopo che si zittiva
fingendosi morto.
E questo solo perché qualcuno
senza qualifica
e con un camice da laboratorio
diceva loro una variante della frase:
"L'esperimento deve andare avanti".

French: 
pour éviter de se retrouver avec
n'importe quoi sur le marché.
Et nous devons également avoir
un peu de scepticisme.
Les expériences appelées Authority,
faites par Stanley Milgram
après la Seconde Guerre mondiale,
ont montré qu'une personne moyenne suivra
les ordres d'une personne d'autorité
même si cela signifie
torturer son concitoyen.
Dans cette expérience,
des Américains lambda
pensent électrocuter des acteurs,
ignorant leurs gémissements,
ignorant leurs cris de douleur,
allant même jusqu'à l'électrocution
et une mort simulée,
tout cela parce que quelqu'un
sans qualifications,
dans une blouse de laboratoire,
disait une variante de la phrase :
« L'expérience doit continuer. »

iw: 
וכדאי גם שנטפח מידה של ספקנות.
ניסויי הסמכות של סטנלי מילגרם
אחרי מלחמת העולם ה-2,
הוכיחו שהאדם הממוצע יציית
להוראותיה של דמות סמכותית
אפילו אם זה יפגע בזולתו.
בניסוי ההוא,
אמריקנים רגילים התבקשו
לתת הלם חשמלי לשחקן
מעבר לשלב שבו התלונן על בעיה,
מעבר לשלב שבו צרח מכאב
מעבר לשלב שבו דמם
כאילו מת,
רק משום שמישהו
ללא שום כתב-הסכמה,
בחלוק מעבדה,
השמיע גירסה כלשהי של האמירה,
"יש להמשיך בניסוי."

Portuguese: 
Também temos de ter
um pouco de ceticismo.
As experiências sobre autoridade
feitas por Stanley Milgram
depois da II Guerra Mundial
mostraram que uma pessoa comum
cumpre as ordens de figuras de autoridade
mesmo que isso signifique
prejudicar os seus concidadãos.
Nesta experiência,
norte-americanos vulgares
infligiram choques a um ator
ao ponto de ele se queixar
ao ponto de ele gritar de dor,
ao ponto de ele se calar,
numa morte simulada,
só porque alguém
sem credenciais,
com a bata do laboratório,
lhes dizia, com algumas variantes:
"A experiência tem que continuar".

English: 
In AI, we have Milgram's
ultimate authority figure.
We have a dispassionate
system that can't reflect,
that can't make another decision,
that there is no recourse to,
that will always say "The system
or "The process must continue."
Now, I'm going to tell you a little story.
It's about a car trip I took
driving across country.
I was coming into Salt Lake City
and it started raining.
As I climbed into the mountains,
that rain turned into snow,
and pretty soon that snow was whiteout.
I couldn't see the taillights
of the car in front of me.
I started skidding.
I went 360 one way,
I went 360 the other way.
I went off the highway.
Mud-coated my windows,
I couldn't see a thing.
I was terrified some car was going
to come crashing into me.

iw: 
בתבונה המלאכותית מתגלמת
הדמות הסמכותית האולטימטיבית של מילגרם.
יש לנו מערכת נטולת-חמלה
שאינה חושבת על מעשיה,
שאינה מסוגלת להחלטות אחרות,
שאין ממנה מפלט,
ושתמיד תאמר
"המערכת צריכה להמשיך לפעול"
או, "יש להמשיך בתהליך".
כעת אספר לכם סיפור קטן.
זהו סיפור על נסיעה שלי בדרכים.
התקרבתי לסולט-לייק-סיטי
והחל לרדת גשם.
כשהמשכתי לעלות בהרים,
הגשם הפך לשלג,
ומהר מאד הכל הלבין.
לא יכולתי לראות את
האורות האחוריים של הרכב שלפני.
התחלתי להחליק.
הסתחררתי 360 מעלות לכאן
ו-360 מעלות לשם.
חניתי בצד.
החלונות כוסו בבוץ,
לא ראיתי כלום.
פחדתי שתתנגש בי מכונית.

Italian: 
Nell'IA, abbiamo la figura autoritaria
di Milgram per eccellenza.
Abbiamo un sistema imparziale
incapace di riflettere,
incapace di prendere altre decisioni,
al quale non si può fare ricorso
e che dirà sempre: "Il sistema"
o "Il processo deve andare avanti".
Ora vi racconterò una storia.
Parla di un viaggio in macchina
che ho fatto in giro per il Paese.
Stavo entrando a Salt Lake City
quando ha cominciato a piovere.
Quando sono arrivato sulle montagne,
la pioggia era diventata neve
e in poco tempo la neve
era diventata una tormenta.
Non riuscivo a vedere i fari posteriori
dell'auto che avevo davanti.
Ho iniziato a sbandare.
L'auto è slittata di 360 gradi
da una parte, poi dall'altra.
Sono uscito dall'autostrada.
C'era fango sui finestrini,
non vedevo niente.
Avevo paura che una macchina
mi piombasse addosso.

French: 
Dans l'IA, nous avons
la figure d'autorité ultime de Milgram.
Nous avons un système impartial
qui ne peut pas réfléchir,
qui ne peut pas prendre d'autre décision,
qui n'autorise aucun recours,
qui dira toujours « Le système »
ou « Le processus doit continuer. »
Maintenant, je vais vous raconter
une histoire.
Il s’agit d’un voyage en voiture
que j’ai fait à travers le pays.
J'allais à Salt Lake City
et il commença à pleuvoir.
En montant dans les montagnes,
cette pluie s'est transformée en neige,
et très vite, cette neige
a tout recouvert.
Je ne voyais même plus les feux arrière
de la voiture devant moi.
J'ai commencé à déraper.
J'ai fait un 360 dans un sens,
puis dans l'autre.
J'ai fait une sortie de route.
La boue recouvrait mes vitres,
je ne voyais plus rien.
J'étais terrifié à l'idée
qu'une voiture me percute.

Portuguese: 
Na IA, temos as figuras supremas
de autoridade de Milgram.
Temos um sistema calculista
que não reflete,
que não pode tomar outra decisão,
para a qual não há recurso,
que dirá sempre: "O sistema —
ou o processo — tem que continuar".
Agora, vou contar uma história.
Trata-se se um passeio de carro
que fiz pelo país.
Estava a chegar à cidade de Salt Lake,
quando começou a chover.
Quando subi a montanha,
a chuva transformou-se em neve
e, em breve, ficou tudo coberto de neve.
Não via as luzes traseiras do carro
à minha frente.
Comecei a derrapar.
Dei uma volta para um lado,
dei uma volta para o outro lado.
Saí da autoestrada.
Com os vidros cheios de lama,
não conseguia ver nada.
Fiquei aflito com medo
que outro carro colidisse comigo.

Arabic: 
وفي الذكاء الصناعي، لدينا رجل سلطة 
مشابه لتجربة (ميلغرام).
لدينا نظام لا يبدي أية مشاعر،
لا يعود عن قراراته،
ولا ملاذ من قراراته
التي تنص على أن النظام
أو العملية يجب أن تستمر.
سوف أخبركم الآن بقصة قصيرة.
تدور حول رحلة بالسيارة قمت بها في الريف.
كنت أقترب من مدينة "سالت ليك"
وبدأ المطر ينهمر.
وكلما صعدت أكثر نحو الجبل،
أخذ المطر يتحول إلى ثلوج،
وسرعان ما تحول الثلج إلى عاصفة ثلجية،
لم أستطع رؤية المصابيح الخلفية 
للسيارة المقابلة لي،
وبدأت السيارة بالانزلاق.
انحرفت بدرجة 360 بهذا الاتجاه
و360 بالاتجاه الآخر.
انحرفت عن مسار الطريق.
كانت النوافذ مغطاة بالوحل
ولم أبصر شيئاً.
كنت مذعوراً من أن سيارة ما 
قد ترتطم بي وتتحطم.

English: 
Now, I'm telling you this story
to get you thinking
about how something small 
and seemingly mundane
like a little bit precipitation,
can easily grow
into something very dangerous.
We are driving in the rain
with AI right now,
and that rain will turn to snow,
and that snow could become a blizzard.
We need to pause,
check the conditions,
put in place safety standards,
and ask ourselves
how far do we want to go,
because the economic incentives
for AI and automation
to replace human labor
will be beyond anything we have seen
since the Industrial Revolution.
Human salary demands can't compete

iw: 
אני מספר לכם זאת
כדי לעורר אתכם למחשבה
על כך שמשהו קטן
וחסר-חשיבות לכאורה
כמו קצת משקעים,
עלול בקלות לגדול
ולהפוך למשהו מסוכן ביותר.
היום אנו נוסעים בגשם
בעזרת תבונה מלאכותית,
והגשם עתיד להפוך לשלג,
והשלג עלול להתפתח לסופה.
עלינו לעצור לרגע,
לבחון את התנאים,
לקבוע תקני בטיחות
ולשאול את עצמנו עד כמה
ברצוננו להרחיק לכת,
כי התמריצים הכלכליים
לתבונה מלאכותית ולאוטומציה
שיחליפו את עבודת הכפיים
יהיו גדולים יותר מכל מה שראינו
מאז המהפכה התעשייתית.
הדרישות האנושיות לשכר
אינן עומדות בתחרות

Arabic: 
أخبرتكم بهذه القصة كي أدفعكم على التفكير
كيف أن أمراً صغيراً، ويبدو عادياً
كانهمار المطر،
قد يتطور بسهولة ليبصح موقفاً خطيراً.
نحن نقود السيارات المزودة 
بتقنية الذكاء الصناعي الآن،
وهذا المطر سوف يتحول إلى ثلج،
وقد يتحول الثلج إلى عاصفة ثلجية عنيفة.
علينا التوقف قليلاً
لنتفحص الظروف
وأن نضع معايير السلامة في مكانها الصحيح،
ونسأل أنفسنا، إلى أي مدى نريد أن نمضي،
لأن الدوافع الاقتصادية المشجعة
للذكاء الصناعي والأتمتة
لاستبدال العمالة البشرية،
ستكون أكثر حماساً مما كانت عليه
منذ الثورة الصناعية.
فلن تكون رواتب البشر أقل كلفةً

Portuguese: 
Estou a contar esta história
para vocês pensarem
como uma pequena coisa,
aparentemente vulgar,
como um pouco de precipitação,
pode facilmente passar a ser
uma coisa muito perigosa.
Estamos a conduzir à chuva,
neste momento, com a IA
e essa chuva vai transformar-se em neve.
Essa neve pode passar a ser
uma tempestade de neve.
Temos que parar,
verificar as condições,
instituir normas de segurança,
e perguntar até onde
queremos chegar,
porque os incentivos económicos
para a IA e para a automação,
para substituir o trabalho humano
vão ultrapassar tudo o que vimos
desde a Revolução Industrial.
As exigências do salário dos seres humanos

French: 
Je vous raconte cette histoire
pour vous faire réfléchir
comment quelque chose d'insignifiant
et d'apparence banale
comme un peu de précipitation,
peut facilement devenir
quelque chose de très dangereux.
Nous conduisons sous la pluie avec l'IA,
en ce moment,
et cette pluie se transformera en neige,
et cette neige pourrait
devenir un blizzard.
Nous devons faire une pause,
vérifier les conditions,
mettre en place des normes de sécurité,
et nous demander
jusqu'où nous voulons aller,
car les motivations économiques
de l'IA et de l'automatisation
pour remplacer le travail humain
seront au-delà de tout
ce que nous avons vu
depuis la révolution industrielle.
Les exigences de salaire humain
ne peuvent pas rivaliser

Italian: 
Vi sto raccontando questa storia
per farvi riflettere
su quanto una cosa piccola
e apparentemente banale
come un po' di pioggia
possa facilmente trasformarsi
in qualcosa di molto pericoloso.
Ora stiamo guidando
sotto la pioggia con l'IA
e quella pioggia si trasformerà in neve
e quella neve potrebbe diventare
una tormenta.
Dobbiamo fermarci un attimo,
verificare le condizioni,
stabilire degli standard di sicurezza
e dobbiamo chiederci
quanto in là vogliamo spingerci
perché gli incentivi finanziari per l'IA
e per l'automazione
che sostituirà il lavoro umano
andranno al di là
di qualsiasi cosa abbiamo visto
dai tempi della Rivoluzione Industriale.
Le richieste salariali degli umani
non possono competere

Portuguese: 
não podem competir
com o custo básico da eletricidade.
A IA e os robôs vão substituir
os cozinheiros nas cadeias
de comida rápida
e os radiologistas nos hospitais.
Um dia, a IA irá diagnosticar
o nosso cancro,
e um robô realizará a cirurgia.
Só um saudável ceticismo
em relação a esses sistemas
irá manter as pessoas nesse ciclo.
Tenho confiança de que,
se pudermos manter pessoas no ciclo,
se pudermos criar sistemas de IA
transparentes,
como o exemplo do cão/lobo,
em que a IA explicou o que estava
a fazer às pessoas
e as pessoas puderam detetá-lo.
podemos criar novos empregos
para as pessoas fazerem parceria com a IA.
Se trabalharmos em conjunto com a IA,
provavelmente conseguiremos resolver
alguns dos nossos maiores problemas.

iw: 
עם מחיר הבסיס של החשמל.
מכשירי תבונה מלאכותית ורובוטים
יחליפו שפים, מפגשי מזון מהיר
וגם רדיולוגים בבתי החולים.
מתישהו, תבונה מלאכותית
תאבחן סרטן
ורובוט הוא שיבצע את הניתוח.
רק ספקנות בריאה
ביחס למערכות האלה
תעזור לראות גם
את בני האדם שבתמונה.
ואני בטוח שאם נצליח
לשמור את בני האדם בתמונה,
אם נוכל לבנות מערכות תבונה מלאכותית
שקופות כמו זו של הכלב/זאב
שתוכלנה להסביר לבני-אדם
מה הן עושות,
ובני-אדם יוכלו לבחון אותן
באופן אקראי,
נוכל ליצור מקומות עבודה חדשים
לבני-אדם במשולב עם תבונה מלאכותית.
אם נעבוד ביחד
עם התבונה המלאכותית,
נוכל אולי להתגבר על כמה
מאתגרינו הגדולים ביותר.

English: 
with the base cost of electricity.
AIs and robots will replace
fry cooks and fast-food joints
and radiologists in hospitals.
Someday, the AI will diagnose your cancer,
and a robot will perform the surgery.
Only a healthy skepticism of these systems
is going to help keep people in the loop.
And I'm confident, if we can
keep people in the loop,
if we can build transparent
AI systems like the dog/wolf example
where the AI explained
what it was doing to people,
and people were able to spot-check it,
we can create new jobs
for people partnering with AI.
If we work together with AI,
we will probably be able to solve
some of our greatest challenges.

Italian: 
con il costo base dell'elettricità.
L'IA e i robot rimpiazzeranno
i cuochi nei fast food
e i radiologi negli ospedali.
Un giorno, sarà l'IA
a diagnosticarvi il cancro
e sarà un robot a eseguire l'intervento.
Solo un salutare scetticismo
verso questi sistemi
aiuterà a tenere le persone informate.
E confido nel fatto che se riusciremo
a tenere le persone informate,
se riusciremo a costruire
sistemi di IA trasparenti
come quello dell'esempio cane/lupo
dove l'IA ha spiegato alle persone
quello che stava facendo
e le persone hanno avuto
la possibilità di esaminarlo,
possiamo creare nuovi lavori
per le persone che collaborano con l'IA.
Se collaboriamo con l'IA,
riusciremo probabilmente a risolvere
alcuni dei nostri problemi più grandi.

French: 
avec le coût de base de l'électricité.
Les IA et les robots remplaceront
les cuisiniers dans les fast-foods
et les radiologues dans les hôpitaux.
Un jour, l'IA diagnostiquera votre cancer,
et un robot effectuera l'opération.
Seul un scepticisme sain
vis-à-vis de ces systèmes
aidera à tenir les gens informés.
Et je suis confiant,
si nous pouvons tenir les gens informés,
si nous pouvons construire
des systèmes d'IA transparents
comme l'exemple du chien et du loup
où l'IA a expliqué aux ingénieurs
ce qu'elle faisait,
et ces derniers ont pu le vérifier,
nous pouvons créer de nouveaux emplois
pour des personnes s’associant à l'IA.
Si nous travaillons ensemble avec l'IA,
nous serons probablement
capables de résoudre
certains de nos plus grands défis.

Arabic: 
من تكلفة فواتير الكهرباء العادية.
سوف تحلّ أنظمة الذكاء الصناعي والروبوتات 
محلّ طهاة البطاطس والوجبات السريعة
وأخصائيو الأشعة في المشافي.
يوماً ما، سوف يُشخص السرطان 
بأنظمة الذكاء الصنعي،
وسيقوم أحد الروبوتات
بإجراء العمليات الجراحية.
وحده الحس التشكيكي السليم بهذه الأنظمة،
سوف يحول دون استبعاد البشر من اللعبة.
وأنا على ثقة أننا إن استطعنا
إبقاء البشر في اللعبة،
وإن تمكنّا من تطوير أنظمة ذكاء صناعي
تتحلّى بالشفافية كمثال الكلب والذئب
حيث أظهرالذكاء الصناعي
طريقة تعامله معنا،
وتمكنّا من ملاحظة الخلل،
نستطيع عندها، خلق فرص عمل جديدة
بالتعاون من أنظمة الذكاء الصناعي.
إن عملنا سوياً مع الذكاء الصناعي،
قد نتمكن من حل 
بعض أكبر التحديات التي نواجهها.

Italian: 
Ma per farlo dobbiamo essere
i leader, non i seguaci.
Dobbiamo scegliere di essere
meno simili ai robot
e dobbiamo costruire robot
più simili alle persone
perché, in fin dei conti,
l'unica cosa che dobbiamo temere
non sono i robot assassini,
ma la nostra pigrizia intellettuale.
L'unica cosa che dobbiamo temere
siamo noi stessi.
Grazie.
(Applausi)

Arabic: 
وكي نحقق ذلك، علينا أن نقود 
لا أن نتبع.
علينا أن نختار
ألا نكون شبيهين بالروبوتات،
وتطوير روبوتات تكون أقرب من البشر،
لأنه في نهاية المطاف،
ما علينا خشيته ليست الروبوتات القاتلة،
بل تكاسلنا الذهني.
الشيء الوحيد الذي يجب أن نخشاه 
هو أنفسنا.
شكراً لكم.
(تصفيق)

iw: 
אבל לשם כך עלינו להוביל,
ולא להיות מובלים.
עלינו להחליט להיות פחות רובוטיים,
ולבנות רובוטים יותר אנושיים,
כי בסופו של דבר,
הדבר היחיד שצריך להפחיד אותנו
איננו רובוטים רצחניים,
אלא העצלנות האינטלקטואלית שלנו.
הדבר היחיד שממנו כדאי שנחשוש
הוא אנו-עצמנו.
תודה לכם.
(מחיאות כפיים)

French: 
Mais pour faire cela,
nous devons diriger et non suivre.
Nous devons choisir
de ne pas ressembler à des robots,
et nous devons construire des robots
qui soient plus humains,
parce que finalement,
la seule chose que nous devons craindre,
ce ne sont pas les robots tueurs,
c'est notre propre paresse intellectuelle.
La seule chose que nous devons craindre,
c'est nous-mêmes.
Merci.
(Applaudissements)

English: 
But to do that, we need
to lead and not follow.
We need to choose to be less like robots,
and we need to build the robots
to be more like people,
because ultimately,
the only thing we need to fear
is not killer robots,
it's our own intellectual laziness.
The only thing we need
to fear is ourselves.
Thank you.
(Applause)

Portuguese: 
Mas, para isso, precisamos
de comandar, não de obedecer.
Precisamos de optar
por sermos menos como robôs
e precisamos de construir robôs
mais parecidos com pessoas,
porque, no final,
a única coisa que temos de recear
não são os robôs assassinos,
é a nossa preguiça intelectual.
A única coisa de que precisamos
de ter medo é de nós mesmos.
Obrigado.
(Aplausos)
