
Korean: 
번역: Moonjeong Kang
검토: Jihyeon J. Kim
저는 오늘 기술과 사회에 대한 
이야기를 하려고 합니다.
교통부 추산에 따르면
작년 한 해 동안 미국에서만 
3만 5천 명이 교통사고로 죽었습니다.
세계적으로는 매년 120만 명이 
교통사고로 죽죠.
만약 이런 사고의 90%를
없앨 수 있는 방법이 있다면
여러분은 지지하시겠습니까?
물론 그러시겠죠.
이것이 바로 자율주행차 
기술의 목표입니다.
사고의 주요 원인이라 할 수 있는
인간의 실수를 없앰으로써 말이죠.
2030년에 자율주행차에 
타고 있다고 상상해 보세요.
느긋이 앉아서 오래된 
TEDxCambridge 영상을 보고 있죠.

Spanish: 
Traductor: Analia Padin
Revisor: Sebastian Betti
Hoy voy a hablar de tecnología 
y de la sociedad.
El Departamento de Transporte
estimó que, el año pasado,
hubo 35 000 muertos
en accidentes de auto, tan solo en EE.UU.
A nivel mundial, mueren 1,2 millones
de personas por año en accidentes de auto.
Si hubiera una manera de eliminar
el 90 % de esos accidentes,
¿apoyarían la causa?
Por supuesto que lo harían.
Esto es lo que promete
la tecnología de vehículos autónomos,
al eliminar la principal causa
de accidentes:
el error humano.
Imagínense en el año 2030,
viajando en un vehículo autónomo,
sentados, mirando este video vintage
de un evento TEDxCambridge.

Portuguese: 
Tradutor: Diana Almeida
Revisora: Margarida Ferreira
Hoje, vou falar
sobre tecnologia e sociedade.
O Departamento de Transportes
estimou que, no ano passado,
morreram 35 mil pessoas devido
a acidentes rodoviários, somente nos EUA.
A nível mundial, 1,2 milhões de pessoas 
morrem por ano em acidentes rodoviários.
Se existisse uma forma de eliminar 
90% desses acidentes,
vocês iriam apoiá-la?
Claro que sim.
É isto que a tecnologia de
carros autónomos pretende alcançar
ao eliminar a causa principal 
dos acidentes
— o erro humano.
Imaginem-se num carro autónomo
no ano de 2030,
descontraídos e a ver este vídeo
"vintage" do TEDxCambridge.

Portuguese: 
Tradutor: Carl Lenny Homer
Revisor: Maricene Crus
Hoje, vou falar
sobre tecnologia e sociedade.
O Departamento de Transportes
estimou que, no ano passado,
35 mil pessoas morreram em acidentes
de trânsito, somente nos EUA.
No mundo todo, 1,2 milhão de pessoas
morrem por ano em acidentes de trânsito.
Se houvesse uma forma de eliminar
90% desses acidentes, você a apoiaria?
Claro que sim.
Isso é o que a tecnologia
de carro autônomo promete realizar,
eliminando a principal fonte
de acidentes, o erro humano.
Agora, imagine-se em um carro
sem motorista, no ano de 2030,
relaxando e assistindo a este vídeo
vintage do TEDxCambridge.

English: 
Today I'm going to talk
about technology and society.
The Department of Transport
estimated that last year
35,000 people died
from traffic crashes in the US alone.
Worldwide, 1.2 million people
die every year in traffic accidents.
If there was a way we could eliminate
90 percent of those accidents,
would you support it?
Of course you would.
This is what driverless car technology
promises to achieve
by eliminating the main
source of accidents --
human error.
Now picture yourself
in a driverless car in the year 2030,
sitting back and watching
this vintage TEDxCambridge video.

Russian: 
Переводчик: Valeriya Salter
Редактор: Anna Kotova
Сегодня я поговорю
о технологиях и обществе.
Министерство транспорта
подсчитало, что в прошлом году
35 000 человек погибло
в автомобильных авариях в США.
В мире 1,2 миллиона человек
погибает в авариях ежегодно.
Если бы была инициатива
сократить эту цифру на 90%,
вы бы её поддержали?
Конечно же да.
Технология беспилотных
автомобилей обещает это
за счёт исключения
основной причины аварий —
человеческой ошибки.
Представьте, что вы
в беспилотной машине в 2030 году —
смотрите этот винтажный ролик
TEDxCambridge.

German: 
Übersetzung: Lisa Dietrich
Lektorat: seohyeon Yoon
Ich werde heute über 
Technologie und Gesellschaft sprechen.
Das Verkehrsministerium schätzt,
dass im letzten Jahr
35.000 Menschen bei Verkehrsunfällen
allein in den USA gestorben sind.
Weltweit sterben jährlich 1,2 Millionen
Menschen bei Verkehrsunfällen.
Wenn es eine Möglichkeit gäbe,
90 % dieser Unfälle zu vermeiden,
wären Sie dafür?
Natürlich wären Sie das.
Genau das ist es, was die Technologie
fahrerloser Autos erreichen möchte,
indem sie die Hauptursache
für Autounfälle eliminiert –
menschliches Versagen.
Stellen Sie sich vor, Sie sitzen
im Jahr 2030 in einem fahrerlosen Auto.
Sie sind entspannt und schauen
dieses alte TEDxCambridge-Video.

Lithuanian: 
Translator: Adele Mikoliunaite
Reviewer: Andrius Družinis-Vitkus
Šiandien kalbėsiu apie
technologiją ir visuomenę.
Transporto departamentas
apskaičiavo, kad praėjusiais metais
vien JAV auto įvykiuose
žuvo 35 tūkstančiai žmonių.
Pasaulio mastu kasmet auto įvykiuose
žūsta 1,2 milijono žmonių.
Jeigu rastumėme būdą
išvengti 90 procentų šių įvykių,
ar pritartumėte šiam sprendimui?
Žinoma pritartumėte.
Būtent tai ir žada savieigių
transporto priemonių technologija,
panaikindama esminę
auto įvykių priežąstį –
žmogiškąją klaidą.
Įsivaizduokite save savieigiame
automobilyje 2030-iais metais –
sėdite atsipalaidavę ir žiūrite šį seną
įrašą iš TED konferencijos Kembridže.

Ukrainian: 
Перекладач: Hanna Malienkina
Утверджено: Khrystyna Romashko
Сьогодні я буду говорити
про технології та суспільство.
Міністерство Транспорту встановило,
що минулого року
35 000 людей загинуло
в автомобільних аваріях лише у США.
В усьому світі 1,2 мільйони людей
помирають щороку в автомобільних аваріях.
Якщо була б можливість усунути
90 процентів з цих аварій,
чи ви підтримали б її?
Звичайно, що так.
Це те, чого технологія безпілотних
автомобілів обіцяє досягнути
шляхом усунення основного джерела аварій -
людського фактору.
Уявіть себе у безпілотному
автомобілі у 2030 році,
як ви сидите позаду
та дивитесь це вінтажне відео
від TEDxCambridge.

Chinese: 
翻译人员: Yolanda Zhang
校对人员: Bangyou Xiang
今天我想谈谈技术和社会。
据交通部的估算，
在美国，仅去年就有
3万5千人死于交通事故。
而在全世界，每年则有
120万人死于交通事故。
如果有一种方法能减少90%的交通事故，
你会支持它吗？
答案绝对是肯定的。
这就是无人车技术所承诺实现的目标，
通过消除造成事故的主要原因——
人为过错。
现在想象一下你在2030年中的一天，
坐在一辆无人车里
悠闲地观看我这个过时的
TEDxCambridge视频。

Dutch: 
Vertaald door: Eric Cornelissen
Nagekeken door: Peter van de Ven
Vandaag ga ik het hebben
over technologie en maatschappij.
Het ministerie van transport
schatte dat afgelopen jaar
35.000 mensen zijn overleden
door verkeersongelukken in de VS.
Wereldwijd overlijden er ieder jaar
1,2 miljoen mensen in verkeersongelukken.
Als er een manier was
om 90% van die ongelukken te voorkomen,
zou je er dan vóór zijn?
Natuurlijk ben je daar voor.
Dit is wat zelfrijdende auto's
beloven te doen
door de hoofdoorzaak van ongevallen,
menselijke fouten, weg te nemen.
Stel je voor dat je in
een zelfrijdende auto zit, het is 2030,
en je kijkt naar deze
vintage TEDxCambridge video.

French: 
Traducteur: Mariana Ciric
Relecteur: eric vautier
Aujourd'hui, je vais parler 
de technologie et de société.
Le Département du Transport a estimé
que, l'année dernière,
le nombre de morts dû aux accidents de la
circulation à 35 000, seulement aux USA.
Au niveau mondial, c'est 1,2 million de
gens qui meurent chaque année.
S'il y avait une possibilité d'éliminer
90% de ces accidents,
la soutiendriez-vous ?
Bien sûr que oui.
La technologie des voitures sans 
conducteur promet d'y arriver
en éliminant la principale source 
d'accidents--
l'erreur humaine.
Imaginez vous, en 2030, dans une voiture 
sans conducteur,
regardant cette ancienne vidéo TED.

Persian: 
Translator: Iman Mirzadeh
Reviewer: Leila Ataei
امروز قراره درباره
تکنولوژی و جامعه صحبت کنم.
دپارتمان حمل و نقل،
در سال گذشته تخمین زد که
فقط در آمریکا، ۳۵،۰۰۰ نفر
به علت تصادفات ترافیکی مرده‌اند.
در سراسر جهان هر ساله ۱.۲ میلیون نفر
به خاطر سوانح ترافیکی میمیرند.
اگه راهی بود که میتونسیتم باهاش
۹۰ درصد این تصادف‌ها رو حذف کنیم،
آیا ازش حمایت میکردین؟
البته که میکردین.
این چیزیه که تکنولوژی ماشین خودران
( بدونِ راننده) وعده میده که بهش به
به وسیله منبع اصلی تصادفات میرسه--
خطای انسان.
حالا خودتون رو تصور کنید
که در سال ۲۰۳۰ در یک ماشین خودران نشستید،
و دارین این ویدیو قدیمی 
TEDxCambrdige رو میبینین.

iw: 
מתרגם: Zeeva Livshitz
מבקר: hila scherba
היום אני רוצה לדבר על טכנולוגיה וחברה.
משרד התחבורה העריך שבשנה שעברה
35,000 אנשים נהרגו בתאונות דרכים,
בארה"ב בלבד.
ברחבי העולם, 1.2 מיליון אנשים
נהרגים מדי שנה בתאונות דרכים.
אם היתה דרך למנוע 90% מהתאונות,
הייתם תומכים בזה?
כמובן שכן.
זה מה שהטכנולוגיה של המכונית האוטונומית
מבטיחה להשיג
על ידי מניעת המקור העיקרי לתאונות --
טעות אנוש.
עכשיו דמיינו את עצמכם
במכונית אוטונומית בשנת 2030.
נשענים אחורה וצופים בוידאו משובח זה
של TEDxCambridge .

Hungarian: 
Fordító: Péter Pallós
Lektor: Zsuzsanna Lőrincz
Ma a technológiáról
és a társadalomról fogok beszélni.
A Közlekedési Minisztérium
2015-ös adata szerint
csupán az USA-ban 35 000 fő
halt meg közlekedési balesetben.
A világon ugyanezen okból 1,2 milliónyian.
Ha mód lenne a balesetek
90%-ának elkerülésére,
támogatnák-e?
Nyilvánvalóan igen.
A vezető nélküli autó 
technológiája erre ad reményt,
mert megszünteti a fő baleseti forrást,
az emberi hibát.
Képzeljük el magunkat a 2030-as évek
vezető nélküli autójában,
amint hátuljában nézzük
a TEDxCambridge ősrégi videóját.

Arabic: 
المترجم: Lalla Khadija Tigha
المدقّق: Riyad Almubarak
سأتحدث اليوم عن التكنولوجيا والمجتمع.
قدّرت هيئة المواصلات أنه في السنة الماضية
توفي 35000 شخص إثر حوادث سير
في الولايات المتحدة وحدها.
على مستوى العالم، يموت 1.2 مليون شخص
سنويًا إثر حوادث سير.
إن كانت هناك طريقة تستطيع تجنب 90 في المئة
من هذه الحوادث،
هل كنت لتدعمها؟
بالطبع ستفعل.
هذا ما تطمح السيارات ذاتية القيادة
للوصول إليه
عن طريق حذف السبب الرئيس للحوادث --
وهو الخطأ البشري.
تخيل نفسك الآن في سيارة ذاتية القيادة
سنة 2030،
وأنت تجلس في الخلف 
وتشاهد هذا الشريط القديم ل TEDxCambridge.

Italian: 
Traduttore: Francesca Finetti
Revisore: antonio parlato
Oggi parlerò di tecnologia e società.
Il Dipartimento dei Trasporti 
ha stimato che lo scorso anno
35.000 persone sono decedute a causa 
di incidenti stradali, negli Stati Uniti.
Nel Mondo, 1,2 milioni di persone muoiono 
ogni anno a causa di incidenti stradali.
Se ci fosse la possibilità di eliminare
il 90 percento di questi incidenti,
la sosterreste?
Certo che lo fareste.
Questo è quello che la tecnologia 
delle auto a guida autonoma si prefigge,
eliminando la principale 
causa di incidenti --
l'errore umano.
Ora, immaginatevi in una macchina 
a guida autonoma nell'anno 2030,
accomodati a guardare 
questo video vintage di TEDxCambridge.

Japanese: 
翻訳: Yasushi Aoki
校正: Eriko T
今日はテクノロジーと
社会についてお話しします
運輸省の推計では
去年の交通事故死者数は
米国だけで３万５千人に上ります
世界全体では 毎年120万人が
交通事故で亡くなっています
そのような交通事故の９割を
なくせる方法があるとしたら
皆さんは支持しますか？
もちろんするでしょう
これは自動運転車の技術が
実現を約束していることです
事故の主要な原因である
人的なミスを
取り除くことによってです
想像してみてください
2030年に自動運転車に乗って
くつろいで この大昔の
TEDxCambridgeのビデオを見ているところを

Chinese: 
譯者: Lilian Chiu
審譯者: NAN-KUN WU
今天我要談的是科技與社會。
交通部估計去年
在美國有 35,000 人死於交通事故。
全球，每年有 120 萬人
死於交通意外。
如果有方法可以避免
90% 的那些意外，
你們願意支持嗎？
當然你們會願意。
這就是無人駕駛車技術
許諾要達成的目標，
做法是消除意外事故的主要源頭：
人類錯誤。
想像一下，2030 年，
你坐在一臺無人駕駛的車內，
你靠坐著，看著這支極佳的
TEDxCambridge 影片。

Croatian: 
Prevoditelj: Senzos Osijek
Recezent: Sanda L
Danas ću govoriti o tehnologiji i društvu.
Odjel za transport je procijenio
da je prošle godine
35,000 ljudi umrlo
u prometnim nesrećama samo u SAD-u.
Diljem svijeta, 1,2 milijuna ljudi umre
svake godine u prometnim nesrećama.
Kad bi postojao način na koji bismo mogli
eliminirati 90 posto tih nesreća,
biste li ga podržali?
Naravno da biste.
Upravo ovo obećava postići
tehnologija automobila bez vozača
eliminirajući glavni uzrok nesreća --
ljudsku pogrešku.
Sada zamislite sebe u automobilu
bez vozača u 2030. godini,
kako sjedite otraga i gledate ovaj
zastarjeli TEDxCambridge video.

Turkish: 
Çeviri: Esra Çakmak
Gözden geçirme: Ramazan Şen
Bugün, teknoloji ve toplum
hakkında konuşacağım.
Ulaştırma Bakanlığı verilere göre 
geçen sene yalnızca ABD'de
35.000 insanın trafik kazalarında 
yaşamını yitirdiğini bildirdi.
Dünya çapında, her yıl 1.2 milyon insan
trafik kazalarında hayatını kaybediyor.
Bu kazaların yüzde 90'ını ortadan 
kaldırabileceğimiz bir yöntem olsaydı,
bunu destekler miydiniz?
Elbette desteklerdiniz.
Sürücüsüz araba teknolojisi
işte bunu vadediyor;
kazaların ana sebebini,
yani insan hatasını
ortadan kaldırmayı.
Şimdi kendinizi 2030 yılında
sürücüsüz bir araba içerisinde hayal edin,
arkada oturuyor ve bu nostaljik
TEDxCambridge videosunu izliyorsunuz.

Ukrainian: 
(Сміх)
Аж раптом
в автомобіля стається механічний збій
і він не може зупинитись.
Якщо автомобіль продовжить рух,
він вріжеться у групу пішоходів,
що переходять вулицю,
але автомобіль може повернути,
і врізатись в одного перехожого,
вбивши його, щоб врятувати пішоходів.
Що має зробити автомобіль,
та хто має вирішувати?
Що, як замість того автомобіль
міг би повернути у напрямку стіни,
врізатись і вбити вас, пасажира,
щоб врятувати тих пішоходів?
На цей сценарій надихнула
проблема вагонетки,
яка була запропонована
філософами кілька десятиліть тому
для обмірковування
етичної сторони.
Наше ставлення
до цієї проблеми має значення.
Ми могли б, наприклад,
не думати про це зовсім.
Ми могли б сказати,
що такий сценарій є нереалістичний,
дуже малоймовірний
або просто безглуздий.

Chinese: 
（笑聲）
突然間，
這臺車發生機械故障，無法停下來。
如果車繼續前進，
它會撞上過馬路的一群行人，
但可以把車突然轉向，
只撞死一個旁觀者，
撞死他就可以救一群行人。
這臺車會怎麼做？誰來決定？
如果改成，這臺車可以
突然轉向去撞牆，
撞毀後只有乘客──也就是你──
會身亡，
這樣就能夠救那些行人，如何？
這個情境的靈感是來自於電車問題，
那是幾十年前哲學家所發明的問題，
做道德思考用。
我們思考這個問題的方式
是很重要的。
比如，我們有可能完全不去想它。
我們可能會說，這個情境不實際、
非常不可能發生或很蠢。

Portuguese: 
(Risos)
De repente, o carro tem uma falha
mecânica e não consegue parar.
Se o carro continuar,
vai atropelar um monte de gente
que está atravessando a rua,
mas o carro pode desviar,
atingindo um transeunte,
matando-o, para salvar os pedestres.
O que o carro deve fazer
e quem deve decidir?
E se, em vez disso, o carro
pudesse desviar para uma parede,
batendo e matando o passageiro,
que é você, para salvar os pedestres?
Este cenário é inspirado
no problema do bonde,
que foi concebido por filósofos há algumas
décadas, para se refletir sobre ética.
A forma de pensar
nesse problema é importante.
Podemos, por exemplo,
simplesmente não pensar nisso.
Podemos dizer que esse cenário não é real,
bastante improvável ou simplesmente tolo.

Croatian: 
(Smijeh)
Odjednom,
automobilu se dogodio mehanički kvar
i ne može se zaustaviti.
Ako automobil nastavi voziti,
sudarit će se s hrpom pješaka
koji prelaze ulicu,
ali automobil može i skrenuti,
udarajući nekoga tko stoji sa strane,
usmrćujući ga kako bi spasio pješake.
Što automobil treba učiniti
i tko o tome treba odlučiti?
Što ako bi, umjesto toga,
automobil mogao skrenuti u zid,
sudarajući se i ubijajući tebe, putnika,
kako bi spasio te pješake?
Ovaj scenarij je inspiriran
problemom trolejbusa,
kojeg su se dosjetili filozofi
prije nekoliko desetljeća,
da bi promišljali o etici.
Zato je važan način
na koji razmišljamo o ovom problemu.
Možemo, na primjer,
uopće ne razmišljati o njemu.
Možemo reći kako je taj scenarij nerealan,
iznimno nevjerojatan
ili jednostavno blesav.

German: 
(Lachen)
Plötzlich tritt ein mechanischer Fehler
auf und das Auto kann nicht anhalten.
Wenn das Auto weiterfährt,
wird es in in ein paar Fußgänger fahren,
die gerade die Straße überqueren.
Das Auto könnte jedoch auch ausweichen,
einen Beobachter treffen und töten,
um die Fußgänger zu schützen.
Was sollte das Auto machen
und wer sollte entscheiden?
Was wäre, wenn das Auto stattdessen
ausweichen und eine Wand treffen könnte
und dabei Sie, den Insassen, töten würde,
um die Fußgänger zu retten?
Dieses Szenario ist vom
Trolley-Problem inspiriert,
das vor einigen Jahrzehnten
von Philosophen erfunden wurde,
um Ethik zu erforschen.
Die Art, wie wir über 
das Problem denken, zählt.
So könnten wir etwa
gar nicht darüber nachdenken.
Wir könnten sagen, 
dass das Szenario unrealistisch,
extrem unwahrscheinlich oder albern ist.

Chinese: 
（笑声）
突然间，
车子出现了机械故障，刹车失灵了。
如果车继续行驶，
就会冲入正在穿越人行道的人群中，
但是车还可能转向，
撞到路边一个不相干的人，
用他的生命来换那些行人的生命。
这辆车该怎么做，
又该是谁来做这个决定呢？
再如果，这辆车会转向并撞墙，
连你在内人车俱毁，
从而挽救其他人的生命，
这会是个更好的选择吗？
这个场景假设是受到了
“电车问题”的启发，
这是几十年前由一群哲学家
发起的对道德的拷问。
我们如何思考这个问题非常关键。
我们也许压根儿就
不应该去纠结这个问题。
我们可以辩称这个场景假设不现实，
太不靠谱，简直无聊透顶。

Lithuanian: 
(Juokas.)
Staiga,
automobilyje įvyksta mechaninė
klaida ir jis negali sustoti.
Jei nekeis krypties
automobilis rėšis į būrį
per perėją einančių pėsčiųjų.
Jis taip pat gali pasukti į šalį,
tačiau tuomet partrenks
šalikelėje stovintį žmogų,
kad išgelbėtų penkis pėsčiuosius.
Kaip automobilis turėtų pasielgti,
ir kas turėtų tai nuspręsti?
O jei automobilis galėtų
pasukti ir rėžtis į sieną
taip užmušdamas jus – keleivį,
kad išgelbėtų tuos penkis pėsčiuosius?
Šį scenarijų įkvėpė vežimėlio problema,
kurią filosofai sukūrė
prieš kelis dešimtmečius,
mąstydami apie etiką.
Tai, kaip mes suvokiame
šią problemą, yra svarbu.
Galbūt mes visai ir
nesistengiame jos suvokti,
sakydami, kad šis
scenarijus nėra realistiškas,
ypač mažai tikėtinas ar tiesiog kvailas.

Spanish: 
(Risas)
De pronto,
el auto tiene una falla mecánica
y no puede detenerse.
Si el auto continúa,
va a atropellar a un grupo
de peatones que cruza la calle.
Pero el auto puede cambiar de dirección,
atropellar a un solo transeúnte,
matarlo, y así salvar a los peatones.
¿Qué debería hacer el auto,
y quién debería decidir?
¿Y si en cambio el auto
pudiera irse contra una pared,
chocar y matarte a ti, el pasajero,
para salvar a los peatones?
Este caso hipotético está inspirado
en el dilema del tranvía,
que fue inventado por unos filósofos
hace unas décadas
para reflexionar sobre la ética.
Es importante saber
cómo pensamos en este problema.
Podríamos, por ejemplo,
no pensar en esto en absoluto.
Podríamos decir que la situación 
es poco realista,
remotamente probable,
o simplemente absurda.

Russian: 
(Смех)
Как вдруг
происходит поломка
и машина не может затормозить.
Если машина продолжит движение,
она врежется в пешеходов,
переходящих дорогу.
Но машина может повернуть
и сбить прохожего,
убив его и сохранив жизнь
других пешеходов.
Что должна сделать машина,
и кто это решает?
А что, если машина врежется в стену,
убив тебя, пассажира,
чтобы спасти этих пешеходов?
Этот сценарий был вдохновлён
«Проблемой вагонетки» —
она была придумана философами
несколько десятилетий назад
с целью поразмышлять об этике.
Важно, как мы решаем
этот этический вопрос.
Мы можем, например,
вообще об этом не задумываться.
Можно сказать, что сценарий
не реалистичен,
маловероятен и глуп.

iw: 
(צחוק)
לפתע פתאום,
המכונית חווה תקלה מכנית
ואינה מסוגלת לעצור.
אם המכונית ממשיכה,
היא תתנגש בחבורת הולכי רגל 
שחוצים את הכביש,
אבל המכונית יכולה לסטות,
ולפגוע בעובר אורח,
להרוג אותו, כדי להציל את הולכי הרגל.
מה על המכונית לעשות, ומי צריך להחליט?
מה אם במקום זה המכונית תסטה ותיתקע בקיר.
תתרסק ותהרוג אותך, הנוסע,
כדי להציל את הולכי הרגל?
תרחיש זה הינו בהשראה של בעיית העגלה,
שהומצאה על ידי פילוסופים לפני כמה עשורים
תוך חשיבה על אתיקה.
כעת, הדרך בה אנחנו חושבים
על בעיה זו היא חשובה.
אנו יכולים למשל לא לחשוב על זה בכלל.
אנו יכולים לומר שתרחיש זה אינו מציאותי,
מאוד לא סביר, או פשוט טיפשי.

French: 
(Rires)
Quand tout à coup,
une panne mécanique l'empêche
de s'arrêter.
Si la voiture roule toujours,
elle peut écraser les piétons qui sont
en train de traverser;
mais elle peut aussi faire une embardée,
touchant un passant en le tuant
pour sauver les piétons.
Que devrait faire la voiture
et qui devrait décider ?
Et si la voiture fonçait dans un mur,
vous tuant vous, le passager
pour sauver ces piétons ?
Ce scénario est inspiré du problème 
venant des trolleybus,
inventé par des philosophes il y a 
quelques décennies
pour penser à l'éthique.
Il est important de savoir ce que nous
en pensons.
Peut être que nous n'y pensons
pas du tout.
On peut trouver ce scénario irréel,
extrêmement peu probable ou juste stupide.

English: 
(Laughter)
All of a sudden,
the car experiences mechanical failure
and is unable to stop.
If the car continues,
it will crash into a bunch
of pedestrians crossing the street,
but the car may swerve,
hitting one bystander,
killing them to save the pedestrians.
What should the car do,
and who should decide?
What if instead the car
could swerve into a wall,
crashing and killing you, the passenger,
in order to save those pedestrians?
This scenario is inspired
by the trolley problem,
which was invented
by philosophers a few decades ago
to think about ethics.
Now, the way we think
about this problem matters.
We may for example
not think about it at all.
We may say this scenario is unrealistic,
incredibly unlikely, or just silly.

Turkish: 
(Gülüşmeler)
Aniden,
arabada mekanik bir arıza oluyor
ve duramıyor.
Araba sürüşe devam ederse,
yoldan geçen bir grup insana çarpacak,
fakat araç direksiyon kırabilir,
görgü tanıklarından birine çarpar
ve böylece daha çok yaya kurtulmuş olur.
Araba ne yapmalı
ve buna kim karar vermeli?
Farz edelim ki,
araba direksiyonu bir duvara kırıyor,
diğer yayaları kurtarmak adına,
duvara çarparak arabadaki 
yolcuyu yani sizi öldürüyor.
Bu senaryo,
bundan 30-40 yıl önce
ahlak kuramını irdelemek adına
filozoflarca yaratılan tren ikileminden
esinlenerek ortaya konmuş.
Bu probleme bakış açımız önem taşıyor.
Mesela, hiç üzerine kafa yormayabiliriz.
Bu senaryonun gerçekçi olmadığını,
son derece olağan dışı olduğunu
veya aptalca olduğunu düşünebiliriz.

Dutch: 
(Gelach)
Plotseling gaat er iets fout met de auto
en de auto kan niet meer stoppen.
Als de auto door blijft rijden,
rijdt deze in op een groep voetgangers
die de straat aan het oversteken zijn.
Maar de auto kan uitwijken
en een omstander aanrijden,
wiens dood de redding
van de voetgangers zou betekenen.
Wat zou de auto moeten doen
en wie moet dat besluiten?
Wat als de auto in plaats daarvan
kan uitwijken naar een muur,
waarbij jij dan wel overlijdt,
maar de voetgangers worden gered?
Dit scenario is gebaseerd
op 'The trolley problem',
bedacht door filosofen
een paar decennium geleden
om te redeneren over ethiek.
Hoe we over dit probleem
denken, is belangrijk.
We kunnen het bijvoorbeeld negeren.
We kunnen zeggen
dat dit scenario onrealistisch,
onwaarschijnlijk of zelfs flauw is.

Japanese: 
(笑)
突然 車が故障を起こし
ブレーキが
効かなくなりました
もし真っ直ぐ進み続けたら
道を横断する歩行者の群れに
突っ込むことになります
でもハンドルを切れば
歩道の１人を死なせるかわりに
何人もの歩行者を
救うことができます
車はどうすべきで そして誰が
それを決めるべきなのでしょう？
あるいはハンドルを切って
壁に突っ込んで
歩行者を救うかわりに
車の中の人を死なせるとしたら
どうでしょう？
このシナリオは
倫理的な問題について考察するために
数十年前に哲学者が考案した―
「トロッコ問題」を
ヒントにしたものです
この問題を我々がどう考えるか
ということが重要です
たとえば まったく考えない
というのもありえます
こんなシナリオは
非現実的で ありそうになく
馬鹿げていると
しかしそのような批判は

Persian: 
(خنده حاضرین)
ناگهان،
ماشین به مشکل مکانیکی میخوره
و نمیتونه متوقف شه.
اگه ماشین ادامه بده،
به عده‌ای از عابرین پیاده
که در حال عبور از خیابان هستند خواهد زد.
ولی ممکنه ماشین منحرف بشه،
و به یکی از افراد داخل پیاده رو بزنه،
و اونا رو برای نجات جان عابران پیاده بکشه.
ماشین باید چیکار کنه
و چه کسی باید تصمیم بگیره؟
اگه به جای اینکار
ماشین بتونه به سمت دیوار منحرف شه،
و تصادف کنه و شما که سرنشین هستین رو بکشه،
برای نجات اون عابران پیاده، اونوقت چی؟
این سناریو
از مشکل قطار برقی الهام گرفته است،
که چندین دهه پیش
توسط فلاسفه اختراع شد
تا درباره اخلاق فکر کنند.
حالا، جوری که ما
به این مساله فکر میکنیم مهمه.
مثلا ممکنه اصلاً بهش فکر نکنیم.
ممکنه بگید این سناریو غیر واقعیه،
یا غیر محتمل، یا احمقانه.

Italian: 
(Risate)
All'improvviso,
la macchina ha un guasto meccanico,
e non riesce più a fermarsi.
Se la macchina proseguisse,
si schianterebbe contro un gruppo
di pedoni che attraversano la strada,
ma se la macchina sterzasse
colpirebbe un passante,
uccidendo lui per salvare i pedoni.
Cosa dovrebbe fare l'auto,
e chi dovrebbe decidere?
E se invece l'auto
potesse sterzare contro un muro,
schiantandosi e uccidendo voi,
il passeggero,
per salvare questi pedoni?
Questo scenario è ispirato
dal dilemma del carrello,
che è stato formulato
da filosofi qualche decennio fa
per riflettere sull'etica.
Ora, come pensiamo
a questo problema importa.
Potremmo ad esempio
non pensarci affatto.
Potremmo dire 
che questo scenario è irrealistico,
altamente improbabile, 
o semplicemente sciocco.

Korean: 
(웃음)
여기서 갑자기
차량 오작동으로 인해 
차를 멈출 수 없게 됩니다.
만약 계속 간다면
길 건너편에 있는 
보행자들과 부딪칠 거예요.
하지만 차는 방향을 바꾸어서
한 사람만 치어 죽이고
보행자 무리를 구할 수도 있어요.
차는 무엇을 해야 하며, 
이런 결정은 누가 해야 할까요?
만약에 보행자들을 구하기 위해서
차가 벽으로 돌진해서
탑승자인 당신을 죽게 한다면요?
이 시나리오는 '트롤리의 문제'에서 
영감을 받았어요.
수 십 년전에 철학자들이
윤리에 대해 생각하기 위해 고안한 문제죠.
우리가 이 문제에 대해 
생각하는 방식은 중요합니다.
예를 들어, 우리는 이 문제에 대해 
전혀 생각하지 않을 수 있고요.
이 시나리오가 비현실적이라거나
있을 수 없는 일이라거나,
그저 바보같다고도 할 수도 있죠.

Hungarian: 
(Nevetés)
Az autó váratlanul
műszaki hibát észlel,
de képtelen megállni.
Ha továbbhalad,
elüt egy csomó, zebrán átkelő gyalogost,
de elkanyarodhat,
s így egy bámészkodót gázol halálra,
s ezzel megóvja a gyalogosokat.
Mit tegyen a kocsi, és ki döntsön róla?
De mi lenne, ha falba csapódna,
s ezzel önt, az utast ölné meg,
hogy a gyalogosokat mentse meg?
E feladványt az ún.
villamoskocsi-dilemma ihlette,
amelyet filozófusok pár évtizede
erkölcsi döntésre gondoltak ki.
Fontos, miként oldjuk meg a dilemmát.
De azt is lehet, hogy nem törődünk vele.
Mondhatjuk, hogy a feladvány nem reális,
teljesen valószínűtlen és ostobaság.

Portuguese: 
(Risos)
De repente,
o carro sofre uma falha mecânica
e é incapaz de parar.
Se o carro continuar em frente,
irá colidir com um monte de peões
que atravessam a rua,
mas o carro poderá desviar-se,
atingindo um peão no passeio,
matando-o para salvar os restantes peões.
O que deverá o carro fazer, 
e quem deverá decidir?
E se o carro pudesse desviar-se 
contra uma parede,
chocando e matando o passageiro,
de forma a salvar aqueles peões?
Este cenário é inspirado 
pelo dilema do elétrico,
inventado por filósofos 
há algumas décadas,
para pensar sobre a ética.
A forma como pensamos
neste problema é importante.
Por exemplo, nós podemos
nem sequer pensar nele.
Podemos dizer que 
este cenário é irrealista,
extremamente improvável
ou simplesmente absurdo.

Arabic: 
(ضحك)
وفجأة،
تتعرض السيارة لخلل ميكانيكي
ولا تستطيع التوقف.
إن استمرت السيارة في التقدم،
ستصطدم بمجموعة من الراجلين
وهم يقطعون الطريق،
لكن السيارة تنحرف،
لتصطدم بشخص واقف،
لتقتله وتنقذ الراجلين.
ما الذي يجب على السيارة فعله،
ومن عليه أن يقرر؟
ماذا لو انحرفت السيارة في اتجاه الحائط
لتسحقك وتقتلك، أنت الراكب فيها،
لتنقذ هؤلاء الراجلين؟
تم استلهام هذا السيناريو
من مشكلة الترولي،
والتي تم اختراعها من طرف فلاسفة
قبل عقود قليلة
للتفكير حول الأخلاقيات.
الآن، الطريقة التي نفكر بها
في هذا المشكل مهمة.
يمكننا مثلًا ألا نفكر فيه إطلاقًا.
يمكننا أن نقول أن هذا السيناريو غير واقعي،
غير ممكن بتاتًا، أو أنه تافه.

Russian: 
Я думаю, что такая критика
упускает главное
из-за того, что смотрит
на проблему слишком буквально.
Конечно, авария будет выглядеть иначе,
в авариях не бывает,
чтобы два или три исхода
вели к чьей-то неминуемой смерти.
Вместо этого машина будет
рассчитывать вероятность
вреда для группы людей
при различной смене движения,
возможно, повышая риск
для пассажиров или других водителей
по сравнению с пешеходами.
Такой расчёт будет довольно сложным,
но так или иначе будет
включать компромисс,
а компромисс — это часто вопрос этики.
Кто-то скажет: «Давайте
не будем об этом думать,
пока технология не разовьётся
и не станет безопасной на 100%».
Представим, что мы сможем
сократить число аварий на 90%,
или даже 99%, в ближайшие десять лет,
а на устранение последнего процента аварий

Chinese: 
但我認為這種批判是失焦了，
因為它看這個情境看得太表面。
當然不會有像這樣子的意外發生；
沒有意外會有兩、三個選項，
且每個選項都有人死。
情況是，這臺車去做計算，
比如計算撞到某一群人的機率，
如果你向這個方向急轉彎，
跟另一個方向做比較，
你可能會稍微增加乘客
或其他駕駛人的風險，
跟行人的風險比較等等。
這會是個比較複雜的計算，
但它仍然會涉及取捨，
而取捨通常都會需要用到道德。
我們可能會說：「別擔心這個。
我們可以等到技術完全
準備好且 100% 安全。」
假設我們的確可以減少
90% 的意外事故，
或是在接下來十年甚至達到 99%。

Croatian: 
Ali, ja smatram da takva osuda
promašuje poantu
jer shvaća taj scenarij previše doslovno.
Naravno da nijedna nesreća
neće izgledati ovako;
nijedna nesreća nema dvije ili tri opcije
u kojima svi nekako stradaju.
Umjesto toga, automobil
će izračunati nešto
poput vjerojatnosti udaranja
u određenu skupinu ljudi,
ako skrenete u jednom smjeru
naspram drugog smjera,
mogli biste neznatno povećati rizik
za putnike ili druge vozače
naspram pješaka.
To će biti složenija kalkulacija,
ali će i dalje uključivati kompromise,
a za kompromis je često potrebna
moralna prosudba.
Možemo onda reći 
„Pa, nemojmo se brinuti oko toga.
Pričekajmo dok tehnologija ne bude
potpuno spremna i 100 posto sigurna.“
Pretpostavimo da zaista možemo uspjeti
eliminirati 90 posto tih nesreća,
ili čak 99 posto u idućih 10 godina.

Chinese: 
不过我觉得这种批判没有切中要害，
因为仅仅是停留在了问题表面。
当然没有任何事故会出现这种情况；
没有哪个事故会同时出现2-3种选择，
而每种选择中都会有人失去生命。
相反，车辆自身会做些计算，
比如撞击一群人的可能性，
如果转向另一个方向，
相对于行人来说，你可能略微
增加了乘客，或者其他驾驶员
受伤的可能性。
这将会是一个更加复杂的计算，
不过仍然会涉及到某种权衡，
而这种权衡经常需要做出道德考量。
我们可能会说，“还是别杞人忧天了。
不如等到技术完全成熟，能达到
100%安全的时候再用吧。”
假设我们的确可以在
未来的10年内消除90%，
甚至99%的事故。

Persian: 
ولی من فکر میکنم این انتقاد
از نکته اصلی غافل میشه
چون سناریو رو خیلی سطحی بررسی میکنه.
البته که هیچ تصادفی این شکلی نیست،
هیچ تصادفی دو یا سه گزینه نداره
که توش هرکی به طریقی میمیره.
به جاش، ماشین میره سراغ حساب کردن
چیزی مثل احتمال اصابت به گروهی از مردم،
وقتی به جهتی منحرف بشین
نسبت به یک جهت دیگه،
شاید اندکی ریسک رو برای
سرنشینان یا سایر رانندگان
نسبت به عابران پیاده زیاد کنین.
این محاسبات پیچیده‌تر هم خواهد شد،
ولی همچنان شامل بده‌ بستان‌هایی خواهد بود،
و بده بستان‌ها
غالباً نیازمند اخلاقیات هستند.
ممکنه بگیم،
"خب، بیا نگران این مساله نباشیم.
بیاین صبر کنیم تا تکنولوژی
کاملاً آماده و صد درصد امن بشه."
فرض کنید ما بتونیم
واقعاً ۹۰ درصد این تصادفات رو حذف کنیم،
یا حتی ۹۹ درصدشون رو طی ۱۰ سال آینده.
اگه حذف کردن اون ۱ درصدِ
باقی مونده از تصادفات

Spanish: 
Pero para mí esta crítica
pierde de vista el problema,
porque se toma la situación
muy al pie de la letra.
Por supuesto que ningún accidente
es exactamente así;
ningún accidente tiene dos o tres opciones
donde de una forma u otra muere alguien.
Lo que va a ocurrir,
es que el auto va a calcular algo,
como la probabilidad de atropellar
a un determinado grupo de personas
si toma una dirección u otra.
Se podría aumentar levemente el riesgo
de los pasajeros y conductores,
en favor de los peatones.
Va a ser un cálculo más complejo,
pero aun así va a implicar
hacer concesiones,
y las concesiones normalmente
requieren una ética.
Podríamos decir: "Bueno,
no nos preocupemos por esto.
Esperemos a que la tecnología esté
totalmente preparada y sea 100 % segura".
Supongamos que efectivamente podemos 
eliminar el 90 % de esos accidentes,
o incluso el 99 % en los próximos 10 años.
¿Qué pasaría si eliminar el 1 % 
de los accidentes restante

Italian: 
Ma penso che questa critica
non colga il punto,
perché considera 
lo scenario letteralmente.
Di certo nessun incidente
assomiglierà a questo;
nessun incidente ha due o tre scelte,
dove qualcuno muore comunque.
Invece, la macchina calcolerebbe qualcosa
come la probabilità di colpire 
un certo gruppo di persone
se sterzi in una direzione,
anziché nell'altra,
potresti accrescere il rischio
per i passeggeri o per gli altri autisti,
piuttosto che per i pedoni.
Sarebbe un calcolo più complesso
che, comunque,
prevede una scelta,
e le scelte spesso presuppongono l'etica.
Potremmo dire, 
"Beh, non preoccupiamoci di questo.
Aspettiamo finché la tecnologia 
sarà pronta e al 100 percento sicura."
Supponiamo di poter davvero eliminare
il 90 percento di questi incidenti,
o persino il 99 percento, 
nei prossimi 10 anni.

iw: 
אבל אני חושב שהביקורת הזאת 
מחמיצה את הנקודה
כי היא בוחנת את התרחיש באופן מילולי מדי.
כמובן ששום תאונה לא תיראה כך;
לשום תאונה אין שתיים או שלוש אפשרויות
שבה כולם מתים איכשהו.
במקום זה, המכונית הולכת לחשב משהו
כמו ההסתברות לפגוע בקבוצה מסוימת של אנשים,
אם אתם סוטים בכיוון אחד ולא לכיוון אחר,
אתם עלולים להגדיל מעט 
את הסיכון לנוסעים או לנהגים אחרים
לעומת הולכי רגל.
זה הולך להיות חישוב מורכב יותר,
אבל זה עדיין יהיה כרוך בבחירת חלופות,
ובחירת חלופות נזקקת לעתים קרובות לאתיקה
אפשר לומר אם כן, 
"טוב, בואו לא נדאג בקשר לזה.
בואו נחכה עד שהטכנולוגיה תהיה 
מוכנה לחלוטין ו 100% בטוחה."
נניח שאנחנו יכולים באמת 
למנוע 90% מהתאונות האלו,
או אפילו 99 אחוזים ב -10 השנים הבאות.
מה אם מניעת האחוז האחרון של התאונות

Dutch: 
Maar ik denk dat
dit soort kritiek het punt mist,
omdat het het scenario
te letterlijk neemt.
Natuurlijk is er geen ongeluk
wat er precies zo uit ziet.
Er zijn nooit maar twee
of drie mogelijkheden,
waarbij altijd iedereen overlijdt.
In plaats daarvan
gaat de auto iets berekenen.
Bijvoorbeeld, de kans dat hij een
bepaalde groep mensen gaat raken;
als je naar de ene kant uitwijkt
in plaats van de andere;
je kunt het risico van passagiers
of andere bestuurders verhogen
tegenover dat van voetgangers.
De berekening zal complexer zijn.
Maar er zullen afwegingen
gemaakt moeten worden.
En afwegingen vereisen vaak
ethische overwegingen.
We kunnen ervoor kiezen
om ons er geen zorgen over te maken.
Wacht gewoon tot de technologie
helemaal klaar en 100% veilig is.
Stel dat we daadwerkelijk 90%
van de ongelukken kunnen voorkomen,
of zelfs 99%, in de komende 10 jaar.
Wat als het voorkomen van die laatste 1%

Ukrainian: 
Але я вважаю, що такий критицизм
втрачає головне,
тому що сприймає сценарій
надто буквально.
Звичайно, що ніяка аварія
не буде саме такою;
ніяка аварія не має два чи три шляхи,
в яких всі помирають так чи інакше.
Натомість, автомобіль буде
дещо розраховувати,
на кшталт можливості наїхати
на якусь групу людей,
якщо повернути в певному напрямку
замість іншого,
можна трохи підвищити ризик
для пасажирів чи інших водіїв
замість пішоходів.
Це буде складніший розрахунок,
але все одно будуть компроміси,
а компроміси часто вимагають етики.
Ми могли б сказати: "Давайте
не хвилюватись про це.
Давайте зачекаємо, поки технологія
буде повністю готова
та на 100 процентів безпечна."
Припускаючи це, ми справді можемо
усунути 90 процентів тих аварій,
або навіть 99 процентів
у найближчі 10 років.

Turkish: 
Fakat bu eleştirinin,
işin özünü kaçırdığını düşünüyorum,
çünkü senaryoyu
fazla direkt yorumluyorlar.
Elbette hiçbir kaza bu şekilde olmaz,
herkesin o veya bu şekilde öldüğü
iki üç olasılığa indirgenemez.
Buna karşın araba,
vuracağı kişi sayısı gibi
kendi içinde hesaplamalara gidecek,
direksiyonu çevireceği
yönleri kıyaslayarak
yolcu veya diğer sürücülere 
vereceği hasarı, yayalara oranla
nispeten arttırabilir.
Çok daha karmaşık bir hesaplama olacaktır,
ama yine de risk oranını
hesaba katmış olacaktır
ve risk oranları,
sıklıkla ahlak kuramı içindedir.
Şu şekilde düşünebiliriz,
''Peki, o hâlde daha fazla uzatmayalım.
Teknolojinin tamamen hazır olmasını,
%100 güvenli hâle gelmesini bekleyelim.''
Gelecek 10 yılda, bu kazaların %90'ını
ve hatta %99'unu
önleyebildiğimizi farz edelim.
Peki ya diğer %10'luk
kaza dilimini önleyebilmek,

German: 
Aber ich denke, dass diese Kritik
am Thema vorbeigeht,
da sie das Szenario zu wörtlich nimmt.
Natürlich wird kein Unfall
genauso aussehen.
Bei keinem Unfall gibt es
zwei oder drei Optionen,
bei denen immer jemand stirbt.
Stattdessen wird das Auto
eine Zahl ausrechnen,
wie die Wahrscheinlichkeit,
eine bestimmte Menschengruppe zu treffen.
Wenn es in die eine oder
die andere Richtung ausweicht.
könnte das Risiko für Passagiere
geringfügig höher sein,
als das Risiko für Fußgänger.
Die Berechnung wäre komplexer,
würde aber immer noch
Abwägungen beinhalten
und Abwägungen beinhalten oft Ethik.
Jetzt könnten wir sagen:
„Lasst uns keine Sorgen machen.
Lasst uns warten, bis die Technologie
bereit und zu 100 % sicher ist.“
Nehmen wir an, wir können tatsächlich
90 % dieser Unfälle vermeiden
oder sogar 99 % in den nächsten 10 Jahren.
Was wäre, wenn die Eliminierung 
der letzen 1 % der Unfälle

French: 
Je pense que cette critique manque
d'un point important
car elle suit ce scénario à la lettre.
Il est évident qu'aucun accident
ne ressemblera à ça,
aucun accident n'a deux ou trois options
où tout le monde finit par mourir.
Pour contrer tout cela, la voiture
pourrait calculer
la probabilité d'heurter
un groupe de personnes,
si on dévie d'un côté ou d'un autre,
on augmenterait le risque des passagers
ou des conducteurs
versus les piétons.
Il s'agit d'un calcul un peu plus 
complexe,
mais cela impliquerait quand même
des compromis,
et les compromis demandent souvent 
de l'éthique.
On pourrait donc dire :
« Ne nous en préoccupons pas.
Attendons à ce que la technologie soit 
prête et sûre à 100%. »
Imaginez qu'on puisse éliminer 90%
de ces accidents,
ou même 99% dans les dix prochaines 
années.
Et si l'élimination du dernier 1%
des accidents

Portuguese: 
Mas acho que essa crítica não procede,
porque enfoca o problema
de forma muito literal.
Naturalmente, nenhum acidente
vai se parecer com esse;
nenhum acidente tem duas ou três opções,
nas quais alguém acaba morto.
Em vez disso, o carro
vai fazer alguns cálculos,
como a probabilidade de atingir
um certo grupo de pessoas,
se houver um desvio
numa ou noutra direção,
pode-se aumentar o risco
aos passageiros ou a outros motoristas,
versus atropelar os pedestres.
Vai ser um cálculo mais complexo,
mas ainda vai envolver compromissos,
e compromissos
frequentemente requerem ética.
Pode-se dizer: "Bem, não vamos
nos preocupar com isso.
Vamos aguardar até que a tecnologia esteja
totalmente desenvolvida e 100% segura".
Suponha que se possa
eliminar 90% desses acidentes,
ou mesmo 99% nos próximos 10 anos.

Arabic: 
لكن أعتقد أن هذا الانتقاد يغفل المغزى
لأنه ينظر إلى السيناريو بطريقة بسيطة.
بالطبع، لايمكن لحادثة أن تكون هكذا،
ليس هناك احتمالان أو ثلاثة لحادثة
حيث يموت الجميع بطريقة أو بأخرى.
عوضا عن ذلك، ستقوم السيارة بحساب ما
مثل احتمال الاصطدام
بمجموعة معينة من الناس،
حين تنحرف إلى اتجاه دون آخر،
يمكن أن ترفع الخطر بشكل ضئيل
على الركاب أو السائقين الآخرين
في مقابل الراجلين.
ستكون عبارة عن حسابات معقدة،
لكنها ستشمل دائمًا نوعا من المقايضة،
وغالبا مما تتطلب المقايضة حضور الأخلاقيات.
يمكننا أن نقول حينها، "حسنا، 
لمَ لا نترك القلق جانيًا.
فلننتظر حتى تصير التكنولوجيا جاهزة
وآمنة 100 بالمئة."
لنفترض أننا فعلا نستطيع حذف 90 في المئة
من هذه الحوادث،
أو حتى 99 في المئة منها
خلال 10 سنوات المقبلة.
ماذا لو كان يتطلب حذف العشر في المئة
المتبقية من الحوادث

Lithuanian: 
Tačiau aš manau, kad tokia
kritika pameta esmę,
nes priima scenarijų pernelyg tiesiogiai.
Žinoma joks įvykis taip neatrodys,
nė vienas įvykis nėra apribotas
dviem ar trimis pasirinkimais
kuriuose visuose kas nors žūsta.
Iš tiesų automobilis suskaičiuos
kažką panašaus į tikimybę,
jog rėšis į tam tikrą žmonių grupę,
jeigu pasuks į vieną, o ne į kitą pusę.
Taip galbūt padidindamas keleivių
ar kitų vairuotojų riziką
vietoj pėsčiųjų.
Tai bus kur kas sudetingesni skaičiavimai,
tačiau jie vis tiek reikalaus kompromisų,
o kompromisai dažnai reikalauja etikos.
Galime sakyti: „Nesijaudinkime dėl to.
Geriau palaukime kol technologija bus
pilnai paruošta ir 100-u procentų saugi.“
Tarkime, kad galime išvengti
90 procentų šių įvykių,
ar netgi 99 procentų per
ateinančius 10-čia metų.

English: 
But I think this criticism
misses the point
because it takes
the scenario too literally.
Of course no accident
is going to look like this;
no accident has two or three options
where everybody dies somehow.
Instead, the car is going
to calculate something
like the probability of hitting
a certain group of people,
if you swerve one direction
versus another direction,
you might slightly increase the risk
to passengers or other drivers
versus pedestrians.
It's going to be
a more complex calculation,
but it's still going
to involve trade-offs,
and trade-offs often require ethics.
We might say then,
"Well, let's not worry about this.
Let's wait until technology
is fully ready and 100 percent safe."
Suppose that we can indeed
eliminate 90 percent of those accidents,
or even 99 percent in the next 10 years.
What if eliminating
the last one percent of accidents

Hungarian: 
De a kritika szem elől
téveszti a lényeget,
mert szó szerint veszi a feladványt.
Igaz, hogy ilyen baleset nem történik,
nem szokott két-három
választási lehetőség adódni,
ahol valaki mindenképp meghal.
Az autó valamit ki fog számolni,
pl. mennyi valamely embercsoportba
való csapódás valószínűsége,
ha egyik vagy másik irányba kanyarodik,
kissé növelhető az utasok
vagy idegen vezetők kockázata
a gyalogosokéhoz képest.
A számítás elég bonyolult lesz,
de a kompromisszum benne lesz,
és a kompromisszum
gyakran erkölcsi kérdés.
Mondhatják: "Ne törődjünk vele, várjuk ki,
amíg a technológia 100%-osan
fejlett és biztonságos nem lesz."
Tegyük föl, hogy 10 éven belül valóban
kiküszöbölhetjük a balesetek 90%-át,
vagy akár 99%-ukat.
Mi van, ha az utolsó
százalék kiküszöbölése

Japanese: 
話を文字通りに取りすぎて
本質を見逃していると思います
もちろん現実の事故は
この通りには行かないでしょう
事故状況において選択肢が
２つか３つしかなく
いずれの場合も誰かが死ぬ
などということはなく
実際には 車がそれぞれの相手を轢く
確率のようなものを
計算することになるでしょう
ハンドルを切る方向によって
車の乗員や 歩行者や
他のドライバーのリスクが
どう変わるかなどです
計算はずっと複雑なものに
なるでしょうが
トレードオフの問題があることに
変わりはありません
そしてトレードオフには
倫理がからむのです
「そんなことに
頭を悩ませるのはやめて
技術がすっかり成熟して100%安全なものに
なるまで待とう」と思うかもしれません
今後10年で
そういった事故の90%—
いや 99%まで
なくせると仮定しましょう

Korean: 
하지만 이런 비판은 논점을 벗어나요.
시나리오를 문자 그대로 
받아들이기 때문이죠.
물론 사고가 이런 식으로 
일어나긴 힘듭니다.
사고가 일어날 수 있는 
두 세가지의 확률에서
모든 경우에 사망자가 
생기는 경우는 잘 없죠.
대신에 차는 어떤 
확률 같은 걸 계산 할 거예요.
각 경우에 사람들을 
치게 되는 확률 말이죠.
가령, 여러분이 저 쪽 대신 
이 쪽으로 방향을 바꾸면
탑승자나 다른 운전자들의 위험도가
보행자에 비해 더 증가할겁니다.
조금 더 복잡한 계산이 되겠지만
이것은 트레이드 오프와 
관련이 있습니다.
트레이드 오프는 
흔히 도덕성을 필요로 합니다.
그럼 이렇게 말하겠죠
"음, 이건 신경쓰지 말자"
"기술이 좀 더 발전해서 
100% 안전해 질 때까지 기다리자"
우리가 앞으로 10년안에 
사고율을 90%, 혹은 99% 까지 
감소시킬 수 있다고 가정해 봅시다.
나머지 1% 의 사고확률을 없애기 위해

Portuguese: 
Mas eu acho que esta crítica
perde de vista o objetivo
porque leva o cenário demasiado à letra.
É óbvio que nenhum acidente 
se parecerá com este;
nenhum acidente tem duas ou três opções
em que alguém acaba morto inevitavelmente.
Em vez disso, o carro irá calcular algo
como a probabilidade de embater 
num certo grupo de pessoas
e, caso se desvie para 
uma direção ou para outra,
poderá aumentar o risco dos passageiros
ou de outros condutores
em vez dos peões.
Irá ser um cálculo mais complexo,
mas irá envolver na mesma
tomar decisões
e muitas das vezes, 
tomar essas decisões requer ética.
Podemos dizer:
"Não nos vamos preocupar com isso.
"Vamos esperar até que a tecnologia esteja
totalmente desenvolvida e 100% segura."
Suponhamos que, de facto, se possam
eliminar 90% desses acidentes,
ou mesmo 99% nos próximos 10 anos.
E se eliminar esse 1% dos acidentes

Turkish: 
50 yıllık bir çalışma daha
gerektiriyor olsaydı?
Teknolojiyi uyarlamamız gerekmez mi?
Mevcut oranı korursak,
bu 60 milyon insanın araba kazalarında
canlarını yitirdiği anlamına geliyor.
Demek istediğim şu ki,
tamamen güvenliği sağlamak için
beklemek bir seçenek,
fakat aynı zamanda,
kendi içinde risk taşıyor.
Sosyal medyada insanlar,
bu problemi düşünmemek için
türlü fikirler öne sürüyorlar.
Bir kişi arabanın bir şekilde,
yaya ile tanık arasından
geçmesi fikrini
(Gülüşmeler)
öne sürdü.
Elbette araba eğer bunu yapabiliyorsa,
bunu yapması gerekir.
Böyle bir çözümün mümkün
olmadığı senaryolardan bahsediyoruz.
Bir blog yazarınca öne sürülen,
şahsen benim en sevdiğim öneride,
arabada basılabilen fırlatma tuşu ile
(Gülüşmeler)
arabanın devamında
kendini imha etmesi çözümüydü.
(Gülüşmeler)

Chinese: 
如果說要把最後 1% 的
意外事故都消除，
會需要再多做 50 年的研究呢？
我們不該採用這個技術嗎？
如果我們繼續用目前的方式，
那就會有 6000 萬人死亡。
所以重點是，
等到完全安全也是一個選擇，
而這個選擇也涉及取捨。
人們在網路社會媒體上
提出各式各樣的方式，
來避免思考這個問題。
有個人建議，車應該要急轉彎，
穿過這些路人──
（笑聲）
和旁觀者之間。
當然，如果這臺車能這麼做，
那它是應該這麼做。
我們感興趣的是
沒辦法這樣做的情況。
我個人的最愛，
是一個部落客的建議，
他建議車要裝設一個
彈射按鈕，讓你可以──
（笑聲）
在車自毀之前按下它。
（笑聲）

Japanese: 
でも 残りの１%の事故を
なくすために
さらに50年の研究が
必要だったとしたらどうでしょう？
この技術の採用を
見送るべきでしょうか？
現在の状況が続くとしたら
その間に６千万人が
交通事故で死ぬことになります
技術がすっかり安全になるまで
待つというのも
１つの選択であり
それにもトレードオフは
伴うということです
人々はソーシャルメディア上で
この問題に頭を悩ませないための
あらゆる方法を考え出しています
ある人は
車は歩行者の間をすり抜ければ
いいんだと指摘しました—
(笑)
道端の人も避けながら
それができるなら
もちろん そうすべきでしょうが
我々に興味があるのは 
それができない場合です
私が気に入っているのは
あるブロガーが提案したものですが
脱出ボタンで車から飛び出して—
(笑)
車は自己破壊させる
という方法です
(笑)

Korean: 
50 여년의 연구가 더 필요하다면요?
그 기술을 사용하지 말아야 할까요?
이 말은 현재의 추세로 따져보았을 때,
6천만 명의 사람들이
차 사고로 죽는 셈이 됩니다.
요점은
완벽한 안전을 위해 기다리는 것 
또한 하나의 선택이고
트레이드 오프와 관련이 있다는 겁니다.
사람들은 온라인 소셜미디어에서
이 문제를 회피하기 위한
온갖 방법을 제시해 왔습니다.
어떤 사람은 차가 어떻게 해서든지
탑승자들과 행인 사이로 가도록
(웃음)
방향을 틀어야 한다고 했죠.
만약 차가 그렇게 할 수만 있다면, 
그렇게 해야 할 겁니다.
우리는 이런 시나리오가 불가능한 경우에 
관심이 있습니다.
제가 개인적으로 가장 좋아하는 의견은
어떤 블로거가 제안한 것인데요.
차에 탈출 버튼이 있어서
(웃음)
차가 부서지기 직전에
그 버튼을 누르는 거예요.
(웃음)

Dutch: 
ons 50 jaar extra onderzoek kost?
Moeten we de technologie dan negeren?
Dat betekent dat er 60 miljoen mensen
overlijden in auto-ongelukken,
gegeven de huidige trend.
Het punt is,
wachten op veiligheid is ook een keuze
en heeft ook ethische afwegingen.
Mensen, online en op social media,
hebben allerlei manieren bedacht
om niet stil te hoeven staan
bij dit probleem.
Iemand stelde voor:
"De auto moet op de een of andere manier
tussen de passagiers en de voetgangers
(Gelach)
door rijden."
Natuurlijk moet de auto
dat doen als dat mogelijk is.
Onze focus ligt op de scenarios
waar dit niet mogelijk is.
Mijn persoonlijke favoriet was
een suggestie van een blogger,
om een schietstoel in de auto
te hebben die afgaat --
(Gelach)
net voor de auto botst.
(Gelach)

Hungarian: 
további 50 kutatói évet igényel?
Addig ne vezessük be a technológiát?
A jelenlegi arányok mellett
ez 60 millió halott.
A lényeg:
a teljes biztonság kivárása is lehetőség,
s ennek ára is kompromisszum.
A közösségi oldalakon rengeteg az ötlet,
hogyan kerüljük el e konfliktust.
Valaki azt javasolta, hogy az autó
valahogy szlalomozzon a gyalogosok...
(Nevetés)
és a bámészkodó között.
Persze, ha nincs más lehetőség,
az autó így fog tenni.
De minket azok a változatok
érdekelnek, ahol ez nem lehetséges.
Kedvencem az egyik blogger ötlete,
hogy legyen katapultáló gomb
az autóban, amelyet megnyomunk...
(Nevetés)
mielőtt az autó
megsemmisítené magát.
(Nevetés)

Lithuanian: 
O jeigu išvengti to paskutinio
procento auto įvykių
pareikalaus dar 50 metų tyrimų?
Ar turėtume nesinaudoti
šia technologija iki tol?
Tai – 60 milijonų žmonių,
žuvusių auto įvykiuose,
jei nieko nekeisime.
Esmė tokia,
kad visiškai saugios technologijos
laukimas taip pat yra pasirinkimas,
ir jis taip pat reikalauja kompromisų.
Žmonės internete ir socialinėse
medijose sugalvojo daugybę būdų,
kaip negalvoti apie šią problemą.
Vienas žmogus pasiūlė, kad automobilis
turėtų tiesiog kažkaip saugiai išlaviruoti
tarp pėsčiųjų
(Juokas.)
ir stovinčiųjų šalikelėse.
Žinoma, jeigu automobilis gali tai
padaryti, jis turėtų taip ir padaryti.
Mums labiau rūpi situacijos, kuriose
tokie sprendimai nėra įmanomi.
Mano mėgstamiausią sprendimą
pasiūlė vienas blogeris –
automobilyje įdiegti katapulto mygtuką,
kurį galima paspausti
(Juokas.)
prieš automobiliui susinaikinant.
(Juokas.)

iw: 
תדרוש עוד 50 שנים של מחקר?
האם עלינו לא לאמץ את הטכנולוגיה?
זה 60 מיליון אנשים שנהרגים בתאונות דרכים
אם משמרים את הקצב הנוכחי
אז הנקודה היא,
שהמתנה לבטיחות מלאה היא גם בחירה,
והיא גם כרוכה בבחירת חלופות.
אנשים במדיה החברתית ברשת
מצאו כל מיני דרכים
כיצד לא לחשוב על בעיה זו.
אדם אחד הציע שעל המכונית רק לסטות איכשהו 
אל בין הנוסעים --
(צחוק)
ועובר האורח.
כמובן, שאם זה מה שהמכונית
יכולה לעשות, זה מה שעליה לעשות.
אנו מעוניינים בתרחישים שבהם זה אינו אפשרי.
והמועדפת האישית שלי היתה של בלוגר שהציע
שיהיה כפתור חילוץ במכונית, שלוחצים עליו --
(צחוק)
ממש לפני שהמכונית משמידה את עצמה.
(צחוק)

German: 
50 weitere Jahre der Forschung
bedeuten würde?
Sollten wir die Technologie ablehnen?
Dann würden 60 Millionen Menschen
bei Autounfällen sterben,
wenn wir die Rate so beibehalten.
Der Punkt ist also,
dass das Warten auf vollkommene Sicherheit
eine Möglichkeit wäre,
diese aber auch
Abwägungen beinhalten würde.
In den sozialen Medien haben die Nutzer
unzählige Möglichkeiten entwickelt,
um diesem Problem aus dem Weg zu gehen.
Eine Person schlug vor, das sich das Auto
zwischen den Fußgängern
durchschlängeln soll,
(Lachen)
und dem Beobachter.
Natürlich könnte und sollte
das Auto dies machen,
aber wir beleuchten Szenarien,
in denen das unmöglich ist.
Mein Lieblingsvorschlag
kam von einem Blogger,
der vorschlug eine Schleudersitz-Taste
im Auto zu haben, die gedrückt wird,
(Lachen)
bevor sich das Auto zerstört.
(Lachen)

Ukrainian: 
Що, як усунення останнього
одного проценту аварій
вимагатиме ще 50 років досліджень?
Чи маємо відмовитися
від технології?
Це 60 мільйонів людей,
загиблих у автомобільних аваріях,
при поточному рівні аварій.
Тож суть у тому,
що очікування на повну безпеку -
це також вибір,
і він також потребує компромісів.
Люди в інтернеті на соціальних ресурсах
пропонували різноманітні шляхи,
як уникнути міркувань про цю проблему.
Одна людина запропонувала,
щоб автомобіль просто вивернув якось
поміж пасажирами
(Сміх)
та спостерігачем.
Звичайно, якщо це те, що автомобіль
може зробити,
то це те, що автомобіль має зробити.
Нас цікавлять сценарії,
в яких це неможливо.
Та мою улюблену пропозицію
запропонував блогер:
вбудувати в автомобіль кнопку катапульти,
яку ти натискаєш
(Сміх)
перед тим, як автомобіль самознищується.
(Сміх)

French: 
demandait plus de 50 ans de recherches ?
Ne devrions-nous pas
adopter cette technologie ?
Ce sont 60 millions de morts à cause 
des accidents de voiture
si nous maintenons les taux actuels.
Le fait est que,
attendre pour une sécurité optimale 
est aussi un choix
mais cela implique aussi des compromis.
Les gens ont trouvé plusieurs manières,
sur les réseaux sociaux,
pour éviter de penser à ce problème.
Une personne a suggéré que la voiture 
devrait pouvoir dévier
entre les piétons--
(Rires)
et les passants.
Si la voiture avait les capacités 
de le faire, elle le ferait sûrement.
Nous sommes intéressés
par d'autres scénarios.
Mon préféré est une suggestion 
de la part d'un blogueur,
qui est d'avoir un bouton pour
siège éjectable--
(Rires)
juste avant l'autodestruction.
(Rires)

Portuguese: 
E se para eliminar
o último 1% dos acidentes
precisássemos de mais 50 anos de pesquisa?
Não deveríamos adotar a tecnologia?
Serão 60 milhões de pessoas
mortas em acidentes de carro,
se mantivermos a taxa atual.
Então a questão é:
esperar por uma segurança
total também é uma escolha,
e, também, envolve compromissos.
As pessoas nas mídias sociais
aparecem com todo tipo de desculpas
para não pensar sobre isso.
Uma pessoa sugeriu que o carro deveria
simplesmente passar entre os pedestres
(Risos)
e o transeunte.
Naturalmente, se for possível,
é o que o carro deve fazer.
Estamos interessados nos casos
em que isso não é possível.
E a minha favorita foi
a sugestão de um blogueiro:
que houvesse um botão de ejeção
no carro, que você pressiona,
(Risos)
pouco antes da batida.
(Risos)

Portuguese: 
exigir mais 50 anos de pesquisa?
Não deveremos adotar a tecnologia?
Trata-se de 60 milhões de pessoas
mortas em acidentes,
se mantivermos o ritmo atual.
Isto significa que
esperar por segurança total
também é uma escolha
e também envolve tomar decisões.
Nas redes sociais, as pessoas
têm arranjado inúmeras formas
para não ter de pensar neste problema.
Uma pessoa sugeriu que o carro 
devia, de alguma forma,
passar entre os peões...
(Risos)
e o peão no passeio.
Claro que, se isso for possível, 
é o que o carro deve fazer.
Estamos interessados em cenários 
em que isso não é possível.
O meu cenário favorito foi 
uma sugestão feita por um "blogger",
de o carro ter um botão de ejeção 
que se pressiona...
(Risos)
antes de o carro se autodestruir.
(Risos)

Arabic: 
50 سنة أخرى من البحث؟
أليس علينا أن نتبنى التكنولوجيا؟
سيكون لدينا 60 مليون حالة وفاة
من حوادث السير
إذا حافظنا على المعدل الحالي.
فالفكرة هنا،
التريث حتى نصل
للسلامة الكاملة هو اختيار أيضا،
ويشمل مقايضات أيضا.
قام الناس على مواقع التواصل الاجتماعية
باختلاق كل الطرق الممكنة
لعدم التفكير في هذا المشكل.
اقترح شخص أن على السيارة
أن تنحرف في اتجاه ما فحسب
بين الركاب --
(ضحك)
والشخص الواقف.
بالطبع، إن كانت السيارة تستطبع فعل ذلك،
فعليها فعل ذلك.
نحن مهتمون بإيجاد سيناريوهات
حيث لا يكون هذا ممكنا.
والاقتراح المفضل لدي شخصيا كان من مدون
بأن تضع زر إخراج في السيارة، 
حيث يمكنك الضغط عليه --
(ضحك)
قبل أن تدمر السيارة نفسها.
(ضحك)

Persian: 
به ۵۰ سال تحقیق نیاز داشته باشه،
اونوقت تکلیف چیه؟
آیا باید قید این تکنولوژی رو بزنیم؟
که یعنی ۶۰ میلیون مرگ در تصادفات رانندگی
اگر که با همین نرخ تصادفات پیش بریم.
منظورم اینه که،
صبر کردن برای رسیدن به ایمنی کامل
یک گزینه هست،
ولی بده-بستانهای خودش رو داره.
مردم در رسانه‌های اجتماعی 
به انواع مختلفی از روش‌ها رسیدن که
به این مشکل فکر نکنیم.
یه نفر پیشنهاد داده بود که
ماشین باید به سمتی منحرف بشه
که ماشین بخوره به جایی بین سرنشین‌ها --
(خنده حاضرین)
و عابر پیاده.
البته اگه این کاریه که ماشین میتونه بکنه،
باید همین کار رو بکنه.
ولی ما درباره سناریو‌هایی کنجکاویم
که نمیشه این کار رو کرد.
و راه مورد علاقه خودم
پیشنهاد یک بلاگ‌نویس هستش
که داخل ماشین یک دکمه پرتاب به بیرون باشه
که فشارش بدین --
(خنده حاضرین)
درست قبل از خود نابودسازی ماشین.
(خنده حاضرین)

Croatian: 
Što ako uklanjanje tog zadnjeg
postotka nesreća
zahtijeva još dodatnih
50 godina istraživanja?
Zar ne trebamo usvojiti tehnologiju?
To je 60 milijuna ljudi poginulih
u automobilskim nesrećama,
ako zadržimo trenutnu stopu.
Stoga poanta je da,
čekanje potpune sigurnosti
je također izbor
i isto uključuje kompromise.
Ljudi prisutni na društvenim mrežama
pronalaze svakakve načine
kako ne misliti o ovom problemu.
Jedna je osoba predložila da
automobil samo skrene nekako
između putnika --
(Smijeh)
i promatrača.
Naravno, ako to automobil može učiniti,
onda to i treba učiniti.
Nas zanimaju scenariji
u kojima ovo nije moguće.
I moj osobni favorit bio je
prijedlog blogera
da u automobilu imamo
gumb za izbacivanje koji pritisnemo --
(Smijeh)
netom prije no što se
automobil sam uništi.
(Smijeh)

Chinese: 
如果消除最后这1%的事故
却需要再研究50年才能实现呢？
我们是不是应该放弃这项技术了？
按照目前的死亡率计算，
那可还要牺牲
6千万人的生命啊。
所以关键在于，
等待万无一失的技术也是一种选择，
这里也有权衡的考虑。
社交媒体上的人们想尽了办法
去回避这个问题。
有人建议无人车应该把握好角度，
刚好从人群和路边的
无辜者之间的缝隙——
（笑声）
穿过去。
当然，如果车辆能做到这一点，
毫无疑问就应该这么做。
我们讨论的是无法实现这一点的情况。
我个人比较赞同一个博主的点子，
在车里加装一个弹射按钮——
（笑声）
在车辆自毁前按一下就行了。
（笑声）

English: 
requires 50 more years of research?
Should we not adopt the technology?
That's 60 million people
dead in car accidents
if we maintain the current rate.
So the point is,
waiting for full safety is also a choice,
and it also involves trade-offs.
People online on social media
have been coming up with all sorts of ways
to not think about this problem.
One person suggested
the car should just swerve somehow
in between the passengers --
(Laughter)
and the bystander.
Of course if that's what the car can do,
that's what the car should do.
We're interested in scenarios
in which this is not possible.
And my personal favorite
was a suggestion by a blogger
to have an eject button in the car
that you press --
(Laughter)
just before the car self-destructs.
(Laughter)

Russian: 
потребуется ещё 50 лет исследований,
нужно ли будет внедрить технологию?
60 миллионов человек погибнут
в автомобильных авариях,
если мы продолжим ждать.
Я хочу сказать,
что продолжать ждать — это такой же выбор,
требующий компромисса.
Люди в социальных сетях
обмениваются идеями,
как избежать этого конфликта.
Один человек предложил,
что машина должна повернуть так,
чтобы проехать между пешеходами...
(Смех)
и прохожим.
Конечно, если такой вариант есть,
машина так и поступит.
Нас интересуют сценарии,
где такой исход невозможен.
Мой любимый вариант дал один блогер,
который предложил сделать
кнопку эвакуации в машине...
(Смех)
на которую нажимаешь перед аварией.
(Смех)

Spanish: 
llevara 50 años más de investigación?
¿No deberíamos adoptar la tecnología?
Estaríamos hablando de 60 millones
de muertos en accidentes de auto
si seguimos al ritmo al que vamos.
Quiere decir que,
esperar a tener seguridad total
también es una elección
y también implica hacer concesiones.
En línea, en las redes sociales, la gente
ha estado proponiendo todo tipo de ideas
para no pensar en este problema.
Una persona sugirió que el auto
debería zigzaguear de alguna forma
entre los peatones...
(Risas)
y el transeúnte.
Por supuesto que, si el auto fuera capaz
de hacer eso, debería hacerlo.
Pero nos interesan las situaciones
donde esto no es posible.
Mi favorita fue la idea de un bloguero
que propuso un botón de "eyectarse"
que se presiona justo antes...
(Risas)
de que el auto se autodestruya.
(Risas)

Italian: 
E se eliminare il restante 
un per cento di questi incidenti
richiedesse altri 50 anni di ricerca?
Non dovremmo
usare questa tecnologia?
Avremmo 60 milioni di morti
in incidenti automobilistici
se continuassimo così.
Quindi il punto è,
aspettare la sicurezza totale
è anch'essa una scelta,
che comunque ha conseguenze.
Le persone sui social media 
hanno trovato tutti i modi
per non pensare al problema.
Una persona ha suggerito che l'auto
dovrebbe sterzare in qualche modo
tra i passeggeri --
(Risate)
e il passante.
Ovvio, se la macchina può farlo,
la macchina deve farlo.
Ma siamo interessati agli scenari
dove non è possibile.
Personalmente, il mio preferito
è stato il suggerimento di un blogger
sull'avere un pulsante di espulsione, 
che puoi premere --
(Risate)
prima che la macchina si autodistrugga.
(Risate)

Turkish: 
Arabaların trafikte risk oranı tahlili
yapacağını kabul edecek olursak,
bu risk oranı tahlilleri hakkında
nasıl düşüneceğiz
ve nasıl karar vereceğiz?
Belki de toplumun ne istediğini
anlamak için bir anket düzenlemeliyiz,
çünkü nihayetinde,
düzenlemeler ve yasalar
toplumsal değerlerin bir yansımasıdır.
Böyle yaptık.
Ekip arkadaşlarım ile birlikte,
Jean-François Bonnefon ve Azim Shariff,
bir anket yaptık
ve bu ankette insanlara
bu tarz senaryolar sunduk.
Onlara, iki filozoftan ilham aldığımız
iki seçenek sunduk:
Jeremy Bentham ve Immanuel Kant.
Bentham'a göre, araba faydacı
bir etiğe göre hareket etmeli:
büyük çaptaki hasarı en aza
indirgeyecek şekilde hareket etmeli,
bu eylem bir tanığı öldürecek olsa da,
bu eylem bir yolcuyu öldürecek olsa da.
Immanuel Kant'a göre araba,
vazifesinin icabına göre hareket etmeli,
''Öldürmeyeceksin'' gibi.

Korean: 
이렇게 차들이 도로에서 
트레이드 오프 함을 인정한다면
우리는 이 트레이드 오프를 
어떤 방식으로 대해야 하며
어떻게 결정을 내려야 할까요?
사회가 원하는 게 무엇인지 알기 위해 
우리는 아마 설문 조사를 해야 할 거예요.
왜냐하면, 궁극적으로
규제과 법은 사회적 가치를 
반영하고 있기 때문입니다.
그래서 우리는 다음과 같은 일을 했어요
저는 제 동료인
장 프랑수아 보네퐁, 
아짐 샤리프와 함께
설문조사를 실시했어요.
이런 종류의 시나리오들을 
사람들에게 보여줍니다.
두 철학자에게서 영감을 받은
두 가지 옵션을 줍니다.
제레미 벤담과 엠마누엘 칸트
벤담은 차가 공리주의적 윤리에 
따라야 한다고 말합니다.
전체의 피해를 최소화할 수 있는 
행동을 취해야 한다는 입장이죠
그 결정이 한 사람의 행인이나
탑승자를 죽이는 결정이라 하더라도요.
칸트는 차가 의무에 입각한 
원칙을 따라야 한다고 합니다.
가령 "살인을 하지 말라" 와 
같은 원칙이죠.

Spanish: 
Entonces, si aceptamos que los autos
van a tener que hacer concesiones,
¿cómo pensamos en esas concesiones,
y cómo decidimos cuáles son?
Tal vez deberíamos hacer una encuesta
y ver qué quiere la sociedad,
porque en última instancia,
las regulaciones y las leyes
son el reflejo de los valores sociales.
Y fue lo que hicimos.
Con mis colaboradores,
Jean-François Bonnefon y Azim Shariff,
hicimos una encuesta
en la que le propusimos a la gente
este tipo de situaciones.
Les dimos dos opciones
inspiradas en dos filósofos:
Jeremy Bentham e Immanuel Kant.
Bentham dice que el auto
debería seguir la ética del utilitarismo:
debería tomar la acción
que minimice el daño total,
aun si esto implica matar a un transeúnte,
y aun si esto implica matar al pasajero.
Immanuel Kant dice que el auto
debería seguir la ética del deber,
tal como "No matarás".

Chinese: 
所以，如果我們承認車在
路上行駛時會需要做取捨，
我們要如何去想那些取捨？
我們要如何做決定？
也許我們該做個調查
來了解社會想要什麼，
因為，最終，
規定和法律都是反應出社會價值。
所以我們就這麼做了。
我和我的共同研究者，
尚方斯華．邦納方和阿辛．夏利夫，
一起進行了一項調查，
調查中，我們給人們看這些情境。
我們給予他們兩個選項，
選項靈感來自兩位哲學家：
傑瑞米．邊沁及伊曼努爾．康德。
邊沁說，車應該要遵循特定的道德：
它應該要採取
能讓傷害最小的行為──
即使那個行為會害死一名旁觀者，
即使那個行為會害死一名乘客。
康德說，車應該要遵循
責無旁貸原則，
比如「你不該殺人」。

Chinese: 
那么如果我们认同车辆
将不得不在行驶中做出权衡的话，
我们要如何考量这种权衡
并做出决策呢？
也许我们应该做些调查问卷
看看大众是什么想法，
毕竟最终，
规则和法律应该反映社会价值。
所以我们做了这么件事儿。
跟我的合作者
朗·弗朗索瓦·伯尼夫和
阿米滋·谢里夫一起，
我们做了一项调查问卷，
为人们列举了这些假设的场景。
受哲学家杰里米·边沁（英国）和
伊曼努尔·康德（德国）的启发，
我们给出了两种选择。
边沁认为车辆应该
遵循功利主义道德：
它应该采取最小伤害的行动——
即使是以牺牲一个无辜者为代价，
即使会令乘客身亡。
伊曼努尔·康德则认为
车辆应该遵循义不容辞的原则，
比如“不可杀人。”

iw: 
אז אם אנחנו מודים שהמכוניות האלו 
יצטרכו לבחור חלופות על הכביש,
איך אנו חושבים על אותן חלופות.
וכיצד אנו מחליטים?
טוב, אולי כדאי שערוך סקר
כדי לברר מה החברה רוצה,
כי בסופו של דבר,
התקנות והחוק הם השתקפות של ערכים חברתיים.
אז זה מה שעשינו.
עם שותפיי לעבודה,
ז'אן פרנסואה בונפון ועזים שריף,
הרצנו סקר
שבו הצגנו בפני אנשים סוגים אלה של תרחישים.
נתנו להם שתי אפשרויות 
בהשראת שני פילוסופים:
ג'רמי בנת'ם ועמנואל קאנט.
בנת'ם אומר שהמכונית צריכה 
לעקוב אחר האתיקה התועלתנית:
צריך שהיא תבחר בפעולה שתפחית
עד למינימום את הנזק הכולל -
גם אם פעולה זו תהרוג עובר אורח
וגם אם פעולה זו תהרוג את הנוסע.
עמנואל קאנט אומר שהמכונית
צריכה לעקוב אחר עקרונות מחייבים,
כמו "לא תרצח".

Portuguese: 
Se admitirmos que os carros
terão que tomar decisões nas ruas,
como resolveremos esses compromissos
e como decidiremos?
Talvez uma pesquisa para avaliar
a posição da sociedade,
porque, em última instância,
as regulamentações e as leis são
um reflexo dos valores da sociedade.
Então, fizemos o seguinte.
Com meus colaboradores,
Jean-François Bonnefon e Azim
Shariff, fizemos uma pesquisa
em que apresentamos
às pessoas esses tipos de cenários.
Oferecemos duas opções
inspiradas por dois filósofos:
Jeremy Bentham e Immanuel Kant.
Bentham diz que o carro
deveria seguir a ética prática:
fazer aquilo que minimiza os danos totais,
mesmo que isso mate um transeunte
e mesmo que isso mate o passageiro.
Immanuel Kant diz que o carro
deve seguir princípios morais,
tais como: "Não matarás".

Italian: 
Dunque, se accettiamo che le macchine 
debbano fare delle scelte in strada,
come pensiamo a queste scelte,
e come decidiamo?
Forse potremmo somministrare 
un questionario su cosa vuole la società,
perché alla fine,
regole e leggi sono un riflesso 
dei valori della società.
Quindi, questo è quello
che abbiamo fatto.
Con i miei collaboratori,
Jean-François Bonnefon e Azim Shariff,
abbiamo fatto un'indagine
dove abbiamo presentato al campione
questi tipi di scenario.
Abbiamo dato due opzioni
ispirate da due filosofi:
Jeremy Bentham e Immanuel Kant.
Bentham dice: l'auto deve
seguire un'etica utilitaristica:
deve scegliere l'azione 
che minimizza il danno totale --
anche se questa azione 
può uccidere un passante
e anche se questa azione 
ucciderà il passeggero.
Immanuel Kant dice: l'auto deve seguire 
i principi dell'imperativo categorico,
come "Non uccidere."

Japanese: 
車が道路上でトレードオフの
判断をしなければならないと認めるとして
では そのようなトレードオフは
どう考え
どのように
決めたらよいのでしょう？
社会が何を望むのか探るため
世論調査をすべきかもしれません
規制や法というのは
社会の価値観を
反映したものであるわけですから
それで やってみました
共同研究者の
ジャン=フランソワ・ボンフォンと
アジム・シャリフとともに
こういった感じの
シナリオを提示する
世論調査をしました
２人の哲学者にヒントを得た
選択肢を用意しました
ジェレミ・ベンサムと
イマヌエル・カントです
ベンサムなら 車は
功利主義倫理に従うべきだと言うでしょう
被害の総量を最小化するような
行動を取るべきだと
たとえその行動によって
歩行者や乗員が
死ぬことになっても
イマヌエル・カントなら
「殺すべからず」といった道義的な原則に
従った行動をすべきだと言うでしょう

Ukrainian: 
Тож, якщо ми визнаємо,
що автомобілі будуть змушені
робити компроміси на дорозі,
то що ми думаємо
з приводу цих компромісів,
та як нам вирішувати?
Можливо, треба провести опитування,
щоб дізнатися, чого суспільство хоче,
тому що зрештою,
правила та закон -
це відображення суспільних цінностей.
Це те, що ми зробили.
З моїми співробітниками,
Жаном-Франсуа Боннефоном
та Азімом Шаріфом,
ми провели опитування,
в якому презентували людям
ці види сценаріїв.
Ми дали їм два варіанти,
що були натхненні двома філософами:
Джеремі Бентамом та Іммануїлом Кантом.
Бентам стверджує, що автомобіль
має дотримуватися утилітарної етики:
він має вжити дій,
що мінімізують загальну шкоду,
навіть, якщо ця дія вб'є спостерігача,
і навіть, якщо ця дія вб'є пасажира.
Іммануїл Кант стверджує, що автомобіль
має дотримуватись відчуття обов'язку,
як заповіді "Не вбивай".

German: 
Wenn wir also anerkennen, dass Autos
auf der Straße abwägen müssen,
wie denken wir über diese Abwägungen
und wie entscheiden wir uns?
Vielleicht sollten wir eine Umfrage
in der Gesellschaft machen.
Denn letztendlich
sind Vorschriften und das Gesetz
ein Spiegel der gesellschaftlichen Werte.
Genau das haben wir getan.
Mit meinen Mitarbeitern,
Jean-François Bonnefon und Azim Shariff,
haben wir eine Umfrage gemacht,
in der wir Menschen
diese Art von Szenarien zeigten.
Wir haben ihnen zwei Optionen gegeben,
von zwei Philosophen inspiriert:
Jeremy Bentham und Immanuel Kant.
Bentham sagt, dass das Auto
utilitaristischer Ethik folgen sollte:
Es soll die Handlung ausführen,
die den Gesamtschaden minimiert,
sogar, wenn dies einen Beobachter tötet
und sogar, wenn diese Handlung
den Passagier tötet.
Immanuel Kant sagt, dass das Auto
pflichtgemäßen Prinzipien folgen sollte,
wie „Du sollst nicht töten.“

French: 
Si nous considérons que les voitures
devront aussi faire des compromis,
comment y penser,
mais surtout comment se décider ?
Peut être devrions-nous faire un sondage
auprès de la société,
car finalement,
les règlements et la loi sont les reflets
des valeurs sociétales.
Nous avons donc fait ceci.
En compagnie de mes collaborateurs,
Jean-François Bonnefon et Azim Shariff,
nous avons mené une enquête
où nous avons présenté ces scénarios
aux gens.
Nous leur avons donné deux options, 
inspirées par deux philosophes :
Jeremy Bentham et Emmanuel Kant.
Selon Bentham, la voiture devrait suivre
l'éthique utilitariste :
son action devrait être celle qui réduit
tous les dommages --
même si cette action finira par tuer 
un passant
ou même si elle finira par tuer 
le passager.
Selon Kant, la voiture devrait agir selon
certains commandements,
comme  « Tu ne tueras point. »

English: 
So if we acknowledge that cars
will have to make trade-offs on the road,
how do we think about those trade-offs,
and how do we decide?
Well, maybe we should run a survey
to find out what society wants,
because ultimately,
regulations and the law
are a reflection of societal values.
So this is what we did.
With my collaborators,
Jean-François Bonnefon and Azim Shariff,
we ran a survey
in which we presented people
with these types of scenarios.
We gave them two options
inspired by two philosophers:
Jeremy Bentham and Immanuel Kant.
Bentham says the car
should follow utilitarian ethics:
it should take the action
that will minimize total harm --
even if that action will kill a bystander
and even if that action
will kill the passenger.
Immanuel Kant says the car
should follow duty-bound principles,
like "Thou shalt not kill."

Croatian: 
Dakle, ako priznamo da će automobili
morati raditi kompromise na cesti,
kako ćemo razmišljati o tim kompromisima
i kako ćemo donijeti odluku?
Pa, možda bismo trebali provesti anketu
da saznamo što društvo želi,
jer naposljetku,
regulacije i zakon su odraz
društvenih vrijednosti.
Stoga smo učinili ovo.
S mojim suradnicima,
Jean-Françoisem Bonnefonom i
Azimom Shariffom,
proveli smo istraživanje
u kojem smo predstavili ljudima
ove vrste scenarija.
Dali smo im dvije mogućnosti
inspirirane dvama filozofima:
Jeremyem Benthamom i Immanuelom Kantom.
Bentham kaže da automobil
treba pratiti utilitarnu etiku:
treba poduzeti akciju koja će
minimalizirati totalnu štetu --
čak i ako će ta akcija ubiti promatrača
te čak i ako će ta akcija ubiti putnika.
Immanuel Kant kaže da automobil
treba pratiti moralna načela,
poput „Ne ubij.“

Persian: 
پس اگه ما قبول کنیم که ماشین‌ها
بده‌-بستان‌هایی رو در جاده خواهند داشت،
تکلیف این بده بستانها چیه،
و چطور تصمیم میگیریم؟
خب، شاید باید یه نظرسنجی برگزار کنیم
تا ببینیم جامعه چی میخواد،
چون در نهایت،
قوانین و مقررات
بازتابی از ارزش‌های اجتماعی هستند.
ما هم همین کارو کردیم.
با همکارانم،
عظیم شریف و‌ ژان-فرانیوا بونفون
یک نظرسنجی برگزار کردیم
که توش به مردم
این سناریوها رو نشون میدادیم.
بهشون دوتا حق انتخاب میدادیم که
الهام گرفته از دو فیلسوف بودن:
امانوئل کانت و جرمی بنتهام.
بنتهام میگه که ماشین
باید از اخلاق سودگرایانه پیروی کنه:
باید کاری کنه که مجموعِ ضرر کمینه بشه --
حتی اگه این کار
باعث کشته شدن یک عابر پیاده بشه
حتی اگه این کار یک سرنشین رو بکشه.
امانوئل کانت میگه ماشین باید
از اصول تکلیفی پیروی کنه،
مثل فرمان "نباید به قتل برسانی."

Russian: 
В общем, если принять,
что компромисс на дорогах неизбежен,
как мы подойдём к его решению
и кто будет принимать решение?
Мы можем провести опрос,
чтобы узнать общественное мнение,
в конце концов
законы и регламенты являются отражением
общественных ценностей.
Мы так и поступили.
Мои коллеги,
Жан-Франсуа Боннефон и Азим Шариф,
и я провели опрос,
в котором предлагались
такого рода сценарии
и два варианта решения,
навеянные двумя философами,
Иеремией Бентамом и Иммануилом Кантом.
По Бентаму, машина должна
следовать утилитарной этике:
действовать так,
чтобы минимизировать вред,
даже если такое действие
приведёт к гибели прохожего
или пассажира.
По Иммануилу Канту, машина должна 
действовать по принципу долга:
«Не убий».

Dutch: 
Als we erkennen dat auto's
afwegingen moeten maken op de weg,
hoe denken we over die overwegingen
en hoe nemen we die beslissing.
Misschien moeten we een enquête houden
om te bepalen wat men wil,
want uiteindelijk zijn regels en wetten
een afspiegeling
van maatschappelijke waarden.
Dus deden we dat.
Met mijn collega's,
Jean-François Bonnefon en Azim Shariff,
hielden we een enquête
waarin we mensen
dit soort scenario's voorlegden.
We gaven mensen twee opties
geïnspireerd door twee filosofen:
Jeremy Bentham en Immanuel Kant.
Bentham zegt dat de auto
utilitaristisch moet handelen:
de auto moet dát doen
wat het minste letsel veroorzaakt.
Zelfs als dat betekent
dat er een omstander overlijdt
en zelfs als dat betekent
dat de passagier overlijdt.
Immanuel Kant zegt dat de auto
plichtgebonden moet handelen,
zoals in 'gij zult niet doden'.

Hungarian: 
Ha elfogadjuk, hogy az autóknak
kompromisszumokat kell kötniük
mit tartunk róluk,
és ki fog dönteni?
Tán kutatást kellene végeznünk,
hogy mit akar a társadalom,
mert végül is,
a szabályozások és törvények
a társadalmi értékekhez igazodnak.
Ezt tettük.
Munkatársaimmal,
Jean-François Bonnefonnal
és Azim Shariff-fal,
kutatást végeztünk,
amelyben az emberek elé
tártuk a lehetőségeket.
Két filozófus, Jeremy Bentham
és Immanuel Kant alapján
két lehetőséget adtunk meg.
Bentham szerint az autónak
haszonelvű etikát kell követnie:
úgy kell tennie, hogy csak 
minimális kár keletkezzék,
még ha a bámészkodó meghal is,
és még ha miatta meghal egy utas.
Immanuel Kant szerint az autónak
kötelességelvű etikát kell követnie:
pl, a "Ne ölj!" elvét.

Lithuanian: 
Tad jeigu pripažįstame,
kad automobiliai keliuose
privalės priimti kompromisus,
kaip mums galvoti apie tuos kompromisus,
ir kaip nuspręsti?
Galėtume atlikti apklausą, kad
išsiaiškintume ko nori visuomenė,
nes juk nuostatai ir įstatymai –
visuomenės vertybių atspindys.
Būtent tai ir padarėme.
Su bendradarbiais
Jean-François Bonnefon ir Azim Shariff
atlikome apklausą,
kurioje pateikėme tokio tipo situacijas.
Dalyviams davėme du pasirinkimus,
įkvėptus dviejų filosofų:
Jeremy Bentham ir Immanuel Kant.
Bentham teigia, kad automobiliai
turėtų sekti utilitarine logika –
priimti bendrai mažiausią
žalą darantį sprendimą,
net jei tai užmuštų
šalikelėje stovintį žmogų,
net jei tai užmuštų keleivį.
Immanuel Kant teigia, kad automobilis
turėtų sekti pareigos principu,
tokiu kaip „Nežudyk“.

Arabic: 
إذن حين نعترف أنه من الممكن للسيارات
أن تقوم بمقايضات على الطريق،
كيف يمكننا التفكير حيال هذه المقايضات،
وكيف لنا أن نقرر؟
حسنا، ربما علينا إجراء استقصاء
لنعرف ما الذي يريده المجتمع،
لأنه في النهاية،
القوانين هي انعكاس للقيم المجتمعية.
إذن فهذا ما قمنا به.
مع زملائي،
جون فرونسوا بونفون وأزيم شريف،
أجرينا استقصاءً
حيث قدمنا للناس هذه الأنواع
من السيناريوهات.
قدمنا لهم احتمالين مستلهمين
من فيلسوفين:
جيرمي بينتام وإيمانويل كانت.
يقول بينتام أن على السيارة 
أن تتبع الأخلاقيات النفعية:
عليها أن تخطو الخطوة
التي ستقلل مجموع الضرر --
حتى وإن كانت ستقتل الرجل الواقف
حتى وإن كانت هذه الخطوة ستقتل الراكب.
يقول إيمانويل كارت أن على السيارة
أن تتبع مبادئ الواجب الملزم،
"عليك ألا تقتل."

Portuguese: 
Se nós reconhecermos que os carros 
terão que tomar decisões na estrada,
como devemos ponderar essas decisões
e como é que decidimos?
Talvez devêssemos fazer um inquérito 
para saber o que a sociedade quer
porque, em última análise,
as normas e as leis são o espelho
dos valores da sociedade.
Então foi o que fizemos.
Com os meus colaboradores,
Jean-François Bonnefon e Azim Shariff,
realizámos um inquérito
no qual apresentámos às pessoas 
estes tipos de cenários.
Demos-lhes duas opções, 
inspiradas por dois filósofos:
Jeremy Bentham e Immanuel Kant.
Bentham diz que o carro 
deve seguir a ética utilitarista:
fazer aquilo que irá 
minimizar os danos totais
— mesmo que isso implique 
matar um peão no passeio
e, mesmo que isso 
acabe por matar o passageiro.
Immanul Kant diz que o carro 
deve seguir princípios morais,
como "Não matarás."

French: 
Ton action ne devrait donc pas nuire à
un être humain de manière explicite,
et tu devrais laisser la voiture faire
sa route
même si plus de gens finiront blessés.
Qu'en pensez-vous ?
Bentham ou bien Kant ?
Voici notre solution.
La plupart étaient pour Bentham.
Les gens veulent donc que la voiture
soit utilitariste,
réduire les dommages,
ce que nous devrions tous faire.
Problème résolu.
Mais il y a un petit piège.
Lorsque nous leur avons demandé
s'ils achèteraient ces voitures,
ils ont répondu : « Absolument pas. »
(Rires)
Ils aimeraient acheter des voitures qui
les protègent à tout prix,
mais ils veulent que tous les autres les
achètent pour réduire les dommages.
(Rires)
Nous connaissons ce type de problème.
C'est un dilemme social.
Pour comprendre ce dilemme social,
nous devons remonter un peu dans le temps.
Dans les années 1800,

Hungarian: 
Nem szabad olyat tenni,
ami kárt okoz egy emberi lénynek,
s hagyni kell, hogy a kocsi csak menjen,
még ha több embert megsebesít is.
Önök mit gondolnak?
Bentham vagy Kant?
Mi az eredmény?
A legtöbben Benthamot támogatták.
Úgy látszik, az emberek
inkább haszonelvűek,
minimalizálják a teljes kárt,
és ezt kell tennünk.
A kérdés megoldva.
De van egy kis bökkenő.
Amikor azt kérdeztük:
"Vennének-e ilyen autót?",
határozott nemmel válaszoltak.
(Nevetés)
Olyan kocsit vennének,
amely mindenáron megvédi őket,
ám azt akarják, hogy mások csakis
a kárt minimalizálót vegyenek.
(Nevetés)
Már találkoztunk ezzel a problémával:
ez a társadalmi dilemma.
A társadalmi dilemma megértéséhez
egy kissé menjünk vissza a történelemben.
Az 1800-as években

German: 
Man sollte also nicht so handeln,
dass es einen Menschen explizit verletzt,
sondern das Auto seinen Weg nehmen lassen,
sogar, wenn dies mehr Menschen verletzt.
Was denken Sie?
Bentham oder Kant?
Hier ist unser Ergebnis.
Die Meisten sind auf Benthams Seite.
Die Menschen scheinen also zu wollen,
dass Autos utilitaristisch sind
und den Gesamtschaden minimieren
und das sollten wir alle tun.
Problem gelöst.
Da gibt es aber einen Haken.
Als wir die Leute fragten,
ob sie solche Autos kaufen würden
antworteten sie: „Niemals.“
(Lachen)
Sie möchten Autos kaufen,
die sie um jeden Preis schützen,
aber alle anderen sollen Autos kaufen,
die Schaden minimieren.
(Lachen)
Das Problem kannten wir.
Man nennt es soziales Dilemma.
Um das soziale Dilemma zu verstehen,
müssen wir in die Vergangenheit schauen.
Im 19. Jahrhundert veröffentlichte

Portuguese: 
Então, não se deve agir, caso isso 
implique magoar um ser humano,
e deverá deixar-se que o carro 
siga o seu percurso
mesmo que se magoem mais pessoas.
O que acham?
Bentham ou Kant?
Estes são os resultados.
A maioria concordou com Bentham.
Parece que as pessoas preferem 
que os carros sejam utilitários,
minimizem os danos totais,
e é isso que todos nós devemos fazer.
Problema resolvido.
Mas há um pequeno senão.
Quando perguntámos às pessoas 
se elas comprariam esses carros,
elas responderam: "Claro que não."
(Risos)
Elas gostariam de comprar carros 
que as protegessem a todo o custo,
mas querem que os restantes 
comprem carros que minimizem os danos.
(Risos)
Já vimos este problema.
Chama-se dilema social.
Para perceber o dilema social,
temos que recuar um pouco na história.
No início do século XIX,

Turkish: 
Bariz bir şekilde, bir insana
zarar verecek şekilde hareket etmemeli
ve araba kendi hâline bırakılmalı,
daha fazla insana zarar verecek olsa bile.
Siz ne düşünüyorsunuz?
Bentham mı, Kant mı?
Bizim bulgumuzu paylaşayım.
Çoğu insan Bentham'a hak verdi.
Öyle ki, insanlar arabaların faydacı
olmalarını istiyorlar gibi görünüyor,
toplam zararı en aza indirgemesini,
ki bu hepimizin
yapması gereken şey aslında.
Sorun çözüldü.
Dikkat etmemiz gereken bir nokta var.
İnsanlara bu tarz arabaları satın alma
durumlarını sorduğumuzda,
''Kesinlikle hayır.'' dediler.
(Gülüşmeler)
Kendilerini her an koruyan
arabalar satın almak isterken,
diğer herkesin zararı en aza indirgeyen
arabalardan almalarını istiyorlar.
(Gülüşmeler)
Bu problemle daha önce karşılaşmıştık.
Buna ''toplumsal ikilem'' deniyor.
Toplumsal ikilemi anlayabilmek için,
biraz eskilere gitmemiz gerekir.
1800'lerde,

Croatian: 
Zato ne bismo trebali poduzeti akciju
koja eksplicitno šteti ljudskom biću
i trebali bismo pustiti
da automobil ide svojim putem,
čak i ako će to ozlijediti više ljudi.
Što vi mislite?
Bentham ili Kant?
Evo što smo mi pronašli.
Većina ljudi je stala na stranu Benthama.
Stoga se čini kako većina želi
da automobili budu korisni,
da smanje totalnu štetu
i to bismo svi trebali činiti.
Riješen problem.
Ali, postoji mala kvaka.
Kad smo pitali ljude bi li kupili
takve automobile,
odgovorili su: „ Apsolutno ne.“
(Smijeh)
Oni bi htjeli kupiti automobile
koji njih štite pod svaku cijenu,
ali žele da svi ostali kupe automobile
koji minimaliziraju štetu.
(Smijeh)
Već prije smo se sreli s ovim problemom.
Zove se društvena dilema.
I da bismo razumjeli društvena dilemu,
moramo se vratiti malo u prošlost.
U 1800-ima,

iw: 
אז לא צריך לנקוט פעולה
שפוגעת במפורש בבני אדם,
וצריך לאפשר למכונית לקחת את המסלול שלה
גם אם זה יפגע ביותר אנשים.
מה אתם חושבים?
בנת'ם או קאנט?
הנה מה שמצאנו.
רוב האנשים צידדו עם בנת'ם.
אז נראה שאנשים רוצים 
שהמכוניות יהיו תועלתניות,
מזעור של הנזק הכולל,
וזה מה שכולנו צריכים לעשות.
הבעיה נפתרה.
אבל יש מלכוד קטן.
כששאלנו אנשים אם הם ירכשו מכוניות כאלה,
הם אמרו, "בהחלט לא".
{צחוק}
הם רוצים לקנות מכוניות
שיגנו עליהם בכל מחיר,
אבל הם רוצים שכל האחרים
יקנו מכוניות שימזערו את הנזק.
(צחוק)
ראינו את הבעיה הזו בעבר.
היא נקראת דילמה חברתית.
וכדי להבין את הדילמה החברתית,
אנחנו צריכים ללכת קצת חזרה להיסטוריה
במאה ה 19,

Chinese: 
因此你不应该有意
去伤害一个人，
应该让车顺其自然行驶，
即使这样会伤害到更多的人。
你会怎么选择？
支持边沁还是康德？
我们得到的结果是这样的。
大部分人赞同边沁的观点。
所以人们似乎希望
车辆是功利主义的，
将伤害降到最小，
我们都应该这么做。
问题解决了。
不过这里还有个小插曲。
当我们问大家他们
会不会买这样一辆车时，
他们不约而同地回答，“绝对不会。”
（笑声）
他们更希望买能够
不顾一切保障自己安全的车，
不过却指望其他人
都买能将伤害降到最低的车。
（笑声）
这个问题以前就出现过。
叫做社会道德困境。
为了理解这个概念，
我们要先简单回顾一下历史。
在19世纪，

Japanese: 
意図的に人を害する行動を
取るべきではなく
結果的に より多くの人が
被害に遭おうとも
車は そのまま進めるべきだと
皆さんはどう思いますか？
ベンサムかカントか？
私たちの調査で分かったのは
多くの人はベンサムの側の
意見だということです
車が功利主義的に
被害を最小化することを
みんな望んでいるようなので
我々はそうすべきなのでしょう
問題解決です
しかし これには
小さな落とし穴があります
そんな功利主義的な車を
買いますかと聞いてみたところ
「絶対買わない」
という答えだったのです
(笑)
どんな犠牲を払っても 乗る者を
守る車を自分では望んでいますが
他の人たちには
被害を最小化する車を買って欲しいのです
(笑)
このような問題は
以前にも見たことがあります
社会的ジレンマと
呼ばれる問題です
社会的ジレンマを
理解するためには
少し歴史を遡る
必要があります
1800年代に

English: 
So you should not take an action
that explicitly harms a human being,
and you should let the car take its course
even if that's going to harm more people.
What do you think?
Bentham or Kant?
Here's what we found.
Most people sided with Bentham.
So it seems that people
want cars to be utilitarian,
minimize total harm,
and that's what we should all do.
Problem solved.
But there is a little catch.
When we asked people
whether they would purchase such cars,
they said, "Absolutely not."
(Laughter)
They would like to buy cars
that protect them at all costs,
but they want everybody else
to buy cars that minimize harm.
(Laughter)
We've seen this problem before.
It's called a social dilemma.
And to understand the social dilemma,
we have to go a little bit
back in history.
In the 1800s,

Portuguese: 
Você não deve fazer nada que prejudique
especificamente um ser humano
e deve deixar o carro seguir seu curso,
mesmo que isso prejudique mais pessoas.
O que você acha?
Bentham ou Kant?
Veja os resultados.
A maioria concordou com Bentham.
Parece que as pessoas querem
que os carros sejam práticos,
minimizando os danos totais
e é o que todos deveríamos fazer.
Problema resolvido.
Mas há um pequeno senão.
Quando perguntamos às pessoas
se comprariam esses carros,
disseram: "Absolutamente não".
(Risos)
Elas gostariam de comprar
carros que os protejam totalmente,
mas querem que as demais comprem
os carros que minimizem os danos.
(Risos)
Já vimos esse problema antes.
Chama-se de dilema social.
E para entender esse dilema,
temos que voltar um pouco na história.
Nos anos 1800,

Dutch: 
Hij mag dus niets doen
wat expliciet iemand letsel toebrengt
en de auto moet niet
van richting veranderen,
zelfs als dat meer letsel veroorzaakt.
Wat denk jij?
Bentham of Kant?
Dit is wat wij vonden.
De meeste mensen kozen voor Bentham.
Het lijkt dus dat mensen
utilitaire auto's willen,
letsel willen voorkomen,
en dat iedereen dat zo moet doen.
Probleem opgelost.
Maar er is één klein probleem.
Toen we vroegen of mensen
zo'n auto zouden kopen,
zeiden ze: "Natuurlijk niet."
(Gelach)
Men koopt graag een auto
die hen te allen tijde beschermt,
maar wil dat de rest een auto koopt
die de totale schade vermindert.
(Gelach)
Dit is een bekent probleem
en het heet een sociaal dilemma.
En om dit sociale dilemma te begrijpen,
moeten we naar het verleden kijken.
In de 18de eeuw

Chinese: 
所以你不能採取很明確
會傷害到人類的行為，
你應該讓車就照它的路去走，
即使那最後會傷害到更多人。
你們認為如何？
邊沁或康德？
我們發現的結果如下。
大部分人站在邊沁這一邊。
所以，似乎人們會希望
車是功利主義的，
把總傷害降到最低，
我們所有人都該這麼做。
問題解決。
但有一個小難處。
當我們問人們，
他們是否會買這樣的車，
他們說：「絕對不會。」
（笑聲）
他們會買不計代價來保護他們的車，
但他們希望其他人都買
能把傷害減到最低的車。
（笑聲）
我們以前就看過這個問題。
它叫做社會兩難。
要了解社會兩難，
我們得要回溯一下歷史。
在 1800 年代，

Ukrainian: 
Тож, тобі не слід вживати дію,
що вочевидь шкодить людині,
та слід дозволити автомобілю
рухатися своїм шляхом,
навіть, якщо це нашкодить
більшій кількості людей.
Як ви вважаєте?
Бентам чи Кант?
Ось, що ми з'ясували.
Більшість людей стали на бік Бентама.
Тож здається, що люди хочуть,
щоб автомобілі були утилітарними,
мінімізували загальну шкоду,
і це те, що нам всім слід робити.
Проблему вирішено.
Але є маленький нюанс.
Коли ми спитали людей,
чи придбали б вони такі автомобілі,
вони сказали: "Ні в якому разі."
(Сміх)
Вони хотіли б придбати автомобілі,
які б захищали їх за будь-яку ціну,
але вони хочуть, щоб усі інші
купували автомобілі, що мінімізують шкоду.
(Сміх)
Ми стикалися з такою проблемою раніше.
Це називається соціальна дилема.
І щоб зрозуміти соціальну дилему,
нам треба звернутися трошки до історії.
У 1800-х роках

Persian: 
پس شما نباید کاری کنین که به صراحت
به یک انسان آسیب بزنین،
و باید بذارین که ماشین به مسیرش ادامه بده
حتی اگه به مردم بیشتری آسیب بزنه.
شما نظرتون چیه؟
بنتهام درست میگه یا کانت؟
ما به این نتیجه رسیدیم.
بیشتر مردم میگن بنتهام.
به نظر میرسه مردم میخوان که ماشین
سودمندگرا باشه،
مجموع ضرر رو کمینه کنه،
و این کاریه که همه باید بکنیم.
مشکل حل شد.
ولی یک گیر کوچیک اینجا هست.
وقتی ما از مردم پرسیدیم که
آیا شما اینجور ماشین‌ها رو میخرین،
گفتن: "قطعا نه."
(خنده حاضرین)
مردم میخوان ماشین‌ها رو بخرن که
تحت هر شرایطی ازشون محافظت کنه،
ولی میخوان بقیه ماشینی رو بخرن که
ضرر رو کمینه کنه.
(خنده حاضرین)
ما این مشکل رو قبلاً هم دیده‌ایم.
بهش میگن دوراهی اجتماعی.
و برای اینکه دوراهی اجتماعی رو درک کنین،
باید در تاریخ یه ذره به عقب برگردیم.
حدود سال ۱۸۰۰ میلادی،

Spanish: 
O sea que no deberías tomar ninguna acción
que implique hacerle daño a un ser humano,
y deberías dejar que el auto siga su curso
aun si eso resulta en más heridos.
¿Uds. qué piensan?
¿Bentham o Kant?
El resultado fue este:
la mayoría optó por Bentham.
Así que parece que la gente quiere 
que los autos sean utilitarios,
minimizar el daño total,
y eso es lo que deberíamos hacer.
Problema solucionado.
Pero hay una pequeña trampa.
Cuando le preguntamos a la gente
si comprarían estos autos,
la respuesta fue un "No" rotundo.
(Risas)
Les gustaría comprar un auto
que los proteja a ellos a toda costa,
pero quieren que los demás compren autos
que minimicen el daño.
(Risas)
Ya conocemos este tipo de problema.
Es un dilema social.
Y para entender el dilema social,
hay que retroceder
un poco en la historia.
En el 1800,

Italian: 
Quindi non si deve agire in modi
che rechino palese danno
all'essere umano,
e lasciare che l'auto 
faccia il suo corso
anche nuocendo a più persone.
Cosa ne pensate?
Bentham o Kant?
Abbiamo rilevato
che la maggior parte delle persone 
è d'accordo con Bentham.
Così sembra che le persone vogliano 
macchine utilitaristiche,
che minimizzano il danno totale.
ed è ciò che tutti dovremmo fare.
Problema risolto.
Eppure, c'è un piccolo particolare.
Quando abbiamo chiesto alle persone 
se avrebbero acquistato una macchina così,
hanno risposto, 
"Assolutamente no".
(Risate)
Vogliono comprare auto
che li proteggano ad ogni costo,
ma vogliono che tutti gli altri
acquistino auto che minimizzino i danni.
(Risate)
Abbiamo già visto questo problema.
Si chiama dilemma sociale.
E per capire un dilemma sociale,
dobbiamo andare
un po' indietro nella storia.
Nel diciannovesimo secolo,

Russian: 
То есть нельзя совершать
действие, которое навредит человеку,
машина должна продолжать движение,
даже если в результате
погибнет больше людей.
Что вы думаете?
Бентам или Кант?
Мы обнаружили следующее.
Бо́льшая часть людей выбирает Бентама.
Кажется, что люди более утилитарны
и хотят минимизировать вред,
и надо этому следовать.
Проблема решена.
Но есть небольшая загвоздка.
Когда мы спросили людей,
купят ли они такой автомобиль,
они ответили: «Ни за что».
(Смех)
Они хотят купить машину,
которая их защитит, что бы ни случилось,
при этом пусть другие покупают
машины, минимизирующие вред.
(Смех)
Эта проблема не нова,
она называется социальной дилеммой.
И чтобы понять социальную дилемму,
вернёмся ранее в историю,
в XIX век.

Korean: 
명백하게 인류를 해치게 만드는 
행위를 해서는 안되고
차가 원래 가던길을 가게 해야 합니다.
그 결정이 더 많은 사람들을 
죽이게 될지라도요.
어떻게 생각하시나요?
벤담입니까? 칸트입니까?
설문조사의 결과입니다.
대부분의 사람들이 
벤담의 손을 들었습니다.
사람들은 차가 공리주의적으로
전체 피해를 최소화하길 원하며
우리 모두가 그렇게 하길 바랍니다.
문제는 해결되었습니다.
하지만 조금 걸리는 점이 있어요.
우리가 사람들에게 
이런 차를 사겠냐고 물었더니
절대로 사지 않겠다고 대답했어요.
(웃음)
사람들은 어떻게 해서든 
자기를 보호할 차를 사고싶어 하지만
다른 사람들은 전체 피해를 
최소화하는 차를 사길 원하죠.
(웃음)
우리는 전에 
이 문제를 본 적이 있어요.
이것을 사회적 딜레마라고 합니다.
사회적 딜레마를 이해하기 위해서는
역사를 잠시 살펴보아야 합니다.
1800년대에

Arabic: 
إذن فعليك ألا تتخذ خطوة ستضر بها
عنوة شخصا ما،
وعليك أن تترك السيارة تأخذ مسارها
حتى وإن كانت ستلحق الضرر بأشخاص أكثر.
ماذا تعتقدون؟
بيتم أو كانت؟
إليكم ماوجدنا.
معظم الناس وقفوا إلى جانب بينتام.
لذا يبدو أن الناس يريدون
أن تكون السيارات نفعية،
وتقلل مجموع الضرر،
وهذا ماعلينا أن نقوم به جميعا.
تم حل المشكلة.
لكن هناك نقطة صغيرة.
حين سألنا الناس إن كانوا سيشترون
مثل هذه السيارات،
قالوا "بالطبع لا."
(ضحك)
هم يريدون أن يشتروا سيارات تحميهم بأي ثمن،
لكنهم يريدون أن يشتري الآخرون سيارات
تقلل من الضرر.
(ضحك)
لقد رأينا هذا المشكل من قبل.
وهو يدعى المعضلة الاجتماعية.
ولفهم المعضلة الاجتماعية
علينا أن نعود قليلا إلى التاريخ.
في القرن 19،

Lithuanian: 
Tad neturėtume rinktis sprendimo,
kuris tyčia kelia žalą žmogui
ir automobilis turėtų važiuoti savo keliu,
net jeigu nuo to nukentės daugiau žmonių.
Ką manote jūs?
Bentham ar Kant?
Štai ką išsiaiškinome.
Dauguma žmonių sekė Bentham.
Panašu, kad žmonės nori
utilitarinių automobilių,
mažinančių bendrą žalą,
ir mes visi turėtume taip daryti.
Problema išspręsta.
Bet tai dar ne viskas.
Kai paklausėme žmonių,
ar jie pirktų tokias mašinas,
jie atsakė: „Tikrų tikriausiai ne.“
(Juokas.)
Jie nori pirkti automobilius, kurie
apsaugos juos bet kokiomis priemonėmis.
Tačiau nori, kad visi kiti pirktų
automobilius mažinančius bendrą žalą.
(Juokas.)
Ši problema nėra nauja.
Ji vadinama socialine dilema.
Kad suprastume socialinę dilemą,
turime žvilgtelti į istoriją.
1800-aisiais,

Ukrainian: 
англійський економіст
Вільям Фостер Лойд опублікував памфлет,
в якому описано наступний сценарій.
Маєте групу фермерів -
англійських фермерів -
які використовують спільну
земельну ділянку для випасу їхніх овець.
Якщо кожен фермер
виведе певну кількість овець -
скажімо, три вівці -
ділянка буде оновлюватись,
фермери - щасливі,
вівці - щасливі,
все добре.
Якщо ж один фермер
виведе ще одну вівцю,
цьому фермеру буде трохи краще,
і ніхто інший не постраждає.
Але якщо всі фермери приймуть таке 
індивідуально раціональне рішення,
ділянка буде виснажена та збіднена,
що зашкодить усім фермерам,
і, звичайно ж, зашкодить вівцям.
Ми бачимо цю проблему у багатьох місцях:
у складнощах керування переловом риби
чи у зменшенні викидів вуглецю,
щоб пом'якшити кліматичні зміни.

Dutch: 
publiceerde de Engelse econoom
William Forster Lloyd een pamflet
waarin het volgende scenario
werd beschreven.
Er is een groep boeren --
Engelse boeren --
die een stuk land delen
om hun schapen te laten grazen.
Als iedere boer een bepaald
aantal schapen heeft --
laten we zeggen drie --
dan blijft het land goed
en zijn de boeren en de schapen gelukkig.
Alles is goed.
Als een boer een extra
schaap introduceert,
dan heeft die boer het iets beter
en daar heeft niemand last van.
Maar als iedere boer
die individueel rationele keuze maakt,
wordt het land overbegrazen
en is het niet meer bruikbaar.
Ten nadele van alle boeren
en natuurlijk de schapen.
Dit is een probleem wat veel voorkomt:
bij het beleid van overbevissing,
of CO2-uitstoot verminderen
om klimaatverandering tegen te gaan.

Japanese: 
イギリスの経済学者
ウィリアム・フォースター・ロイドは
こんなシナリオが書かれた
小冊子を出版しました
一団の農家がいて—
イギリスの農家です—
羊が草を食むための
牧草地を共有しています
それぞれの農家は 同じ数の
羊を連れて来ます—
３頭ずつとしましょう
その場合には 牧草地は回復し
農家はハッピー
羊もハッピーで
万事問題はありません
農家のうちの１人が
１頭余計に連れてきたら
その農家は少し得をしますが 
他の人が損害を受けるわけではありません
しかし農家の誰もが
同じ 自分に好都合な判断をすると
牧草が過剰に消費されて
枯渇してしまい
農家全員にとって
損害となり
そしてもちろん 
羊にとっても損害となります
この問題はいろんなところで
目にします
過剰漁獲を防ぐ難しさとか
気候変動を軽減するための
二酸化炭素排出量削減もそうです

Persian: 
اقتصاددان انگلیسی ویلیام فورستر للوید
رساله‌ای رو منتشر کرد
که این سناریو‌ها رو توش توضیح میداد.
فرض کنید گروهی از چوپان‌ها دارین --
چوپان‌های انگلیسی --
که زمین مشترکی
برای چروندن گوسفنداشون دارن.
حالا، اگه هر چوپان
تعداد مشخصی گوسفند‌ بیاره --
مثلاً هرکی ۳ تا گوسفند --
زمین سالم میمونه و کاریش نمیشه،
چوپان‌ها خوشحالن،
گوسفند‌ها خوشحالن،
همه چی خوبه.
حالا اگه یکی از چوپان‌ها
یه گوسفند اضافی بیاره،
اون چوپان‌ یکم وضعش بهتر میشه،
و هیچکس ضرر نمیکنه.
ولی اگه همه چوپان‌ها این تصمیم فردی رو
که برای هرکدومشون منطقیه بگیرن،
زمین بیش از اندازه بهش فشار میاد،
و خراب میشه.
چوپان‌ها ضرر میکنن،
و البته گوسفند‌ها هم ضرر میکنن.
این مشکل رو خیلی جاها میبینیم:
مشکل حل ماهیگیری بیش از اندازه،
یا کاهش انتشار کربن،
برای کند کردن روند تغییرات اقلیمی.

Portuguese: 
o economista inglês William Forster Lloyd 
publicou um folheto
que descrevia o seguinte cenário:
Temos um grupo de pastores
— pastores ingleses —
que partilham um terreno
para as ovelhas pastarem.
Se cada pastor levar
um certo número de ovelhas
— por exemplo, três ovelhas —
o terreno recuperará,
os pastores ficam contentes,
as ovelhas ficam contentes,
tudo fica bem.
Se um pastor levar uma ovelha extra,
terá uma pequena vantagem, 
mas ninguém será prejudicado.
Mas, se cada pastor tomar
a mesma decisão,
a terra será sobreutilizada
e ficará empobrecida
prejudicando todos os pastores
e, claro, as ovelhas também.
Vemos este problema em muitos sítios:
na dificuldade de controlar 
a pesca excessiva,
ou em reduzir as emissões de carbono 
para atenuar as mudanças climáticas.

Hungarian: 
William Forster Lloyd angol közgazdász
az alábbi tartalmú vitairatot
jelentette meg.
Gazdák egy csoportja –
angol gazdák –
fölosztják maguk között a közlegelőt,
hogy birkáik legelhessenek.
Na mármost, ha mindenki ugyanannyi juhot,
mondjuk, hármat legeltet,
a legelő megújul,
a gazdák elégedettek,
a birkák elégedettek,
minden rendben.
Ha valamelyik gazda
még egy birkát odavisz,
az kissé jobban jár,
és senki sem károsodik.
Ám ha mindenki ezt
az egyénileg észszerű döntést hozná,
a legelőt túlhasználnák és fölélnék
minden gazda hátrányára,
és persze, a birkák hátrányára is.
E problémával gyakran találkozunk:
pl. a túlhalászat esetén,
vagy a klímaváltozás mérséklésére
a CO₂-kibocsátás csökkentésénél.

Italian: 
l'economista inglese William Forster Lloyd
ha pubblicato un opuscolo
che descrive il seguente scenario.
C'è un gruppo di agricoltori --
agricoltori inglesi --
che dividono una terra comune
dove pascolano le loro pecore.
Se un agricoltore ha
un certo numero di pecore --
diciamo tre pecore --
la terra sarà rinvigorita,
gli agricoltori felici,
le pecore felici,
tutti contenti.
Se un agricoltore 
porta una pecora aggiuntiva,
quell'agricoltore farà un po' meglio, 
e nessun altro ne avrà un danno.
Ma se ogni agricoltore prendesse
questa razionale arbitraria decisione,
la terra verrebbe abusata ed impoverita
a scapito di tutti gli agricoltori
e, ovviamente, a scapito della pecora.
Osserviamo questo problema in molti posti:
nella difficoltà di gestire la sovrapesca,
o nel ridurre le emissioni di carbonio 
per mitigare il cambiamento climatico.

French: 
l'économiste anglais William Forster Lloyd
a publié un pamphlet
décrivant le scénario suivant.
Vous avez un groupe de fermiers--
fermiers anglais--
qui se partagent des terres
pour leurs moutons.
Si chaque fermier ramène un certain nombre
de moutons--
disons trois moutons--
la terre sera régénérée,
les fermiers heureux,
les moutons heureux,
tout est en ordre.
Maintenant si un fermier en ramène un
de plus,
il s'en sortira un peu mieux,
au détriment de personne.
Mais si chaque fermier faisait de même,
la terre serait surexploitée et appauvrie
au détriment de tous les fermiers
et bien sûr à celui des moutons.
Nous rencontrons ce problème
à plusieurs endroits :
dans la difficulté à gérer la surpêche,
ou à réduire les émissions de carbone pour
atténuer le changement climatique.

iw: 
הכלכלן האנגלי ויליאם פורסטר לויד 
פרסם חוברת
שמתארת את התרחיש הבא.
יש לכם קבוצה של חקלאים -
חקלאים אנגלים --
שחולקים קרקע משותפת 
שמשמשת מרעה לכבשים שלהם.
אם כל חקלאי מביא מספר מסוים של כבשים --
שלוש כבשים למשל -
הקרקע תתחדש,
החקלאים יהיו מרוצים,
הכבשים תהיינה מרוצות,
הכל טוב.
עכשיו, אם אחד החקלאים מביא כבשה נוספת,
אותו איכר ישפר מעט את מצבו, 
ואף אחד אחר לא ייפגע.
אבל אם כל חקלאי יקבל החלטה 
אינדיווידואלית רציונלית זו,
האדמה תהיה עמוסה ותידלדל
מה שיפגע בכל החקלאים,
וכמובן, יפגע בכבשים.
אנו רואים בעיה זו במקומות רבים:
בקושי של ניהול דיג בהיקף מוגזם,
או בהפחתת פליטת הפחמן
כדי להקל על שינויי האקלים.

Croatian: 
engleski ekonomist William Forster Lloyd
objavio je pamflet
koji opisuje idući scenarij.
Imate grupu farmera,
engleskih farmera,
koji dijele zajedničko zemljište
za ispašu njihovih ovaca.
Sada, ako svaki farmer dovodi
određeni broj ovaca --
recimo tri ovce --
zemljište će biti pomlađeno,
farmeri sretni,
ovce sretne,
sve je dobro.
Sada, ako jedan farmer dovede
jednu ovcu više,
tom će farmeru ići malo bolje
i nitko drugi neće biti oštećen.
Međutim, ako svaki farmer donese
tu individualno racionalnu odluku,
zemljište će postati pretrpano
i bit će istrošeno
na štetu svih farmera
i naravno, na štetu ovaca.
Možemo vidjeti ovaj problem
u raznim područjima:
u poteškoćama u vođenju
pretjeranog ribolova
ili u smanjenju emisija ugljika
za ublažavanje klimatskih promjena.

Arabic: 
نشر خبير الاقتصاد البريطاني
ويليام فورستر لويد كتيبا
يصف فيه السيناريو الآتي.
لديك مجموعة من المزارعين --
مزارعون بريطانيون --
يتقاسمون أرضا مشتركة لترعى بها أغنامهم.
الآن، إذا قام كل مزارع بجلب
عدد معين من الأغنام --
لنقل ثلاثة أغنام --
ستزدهر الأرض،
وسيفرح المزارعون،
وستفرح الأغنام،
كل شيء على ما يرام.
الآن، إذا قام مزارع بجلب خروف إضافي،
سيكون ذلك المزارع ناجحا بقدر يسير،
ولن يتضرر أحد من هذا.
لكن إن أخذ كل مزارع 
هذا القرار الفردي المنطقي،
سيتم استغلال الأرض بشكل جائر
وستُستنزف
ولن يستفيد المزارعون جميعهم.
وبالتأكيد، لن تستفيد الأغنام.
نرى هذا المشكل في كل مكان:
في صعوبة إدلرة الصيد الجائر،
أو تقليل انبعاث الكربون
للتعامل مع التغير المناخي.

English: 
English economist William Forster Lloyd
published a pamphlet
which describes the following scenario.
You have a group of farmers --
English farmers --
who are sharing a common land
for their sheep to graze.
Now, if each farmer
brings a certain number of sheep --
let's say three sheep --
the land will be rejuvenated,
the farmers are happy,
the sheep are happy,
everything is good.
Now, if one farmer brings one extra sheep,
that farmer will do slightly better,
and no one else will be harmed.
But if every farmer made
that individually rational decision,
the land will be overrun,
and it will be depleted
to the detriment of all the farmers,
and of course,
to the detriment of the sheep.
We see this problem in many places:
in the difficulty of managing overfishing,
or in reducing carbon emissions
to mitigate climate change.

German: 
der englische Ökonom
William Forster Lloyd ein Merkblatt,
das das folgende Szenario beschreibt.
Eine Gruppe von Bauern –
englische Bauern –
teilen sich ein Stück Land,
auf dem ihre Schafe grasen.
Wenn jeder Bauer
eine bestimmte Anzahl Schafe hat,
sagen wir 3 Schafe,
wird das Land verjüngt.
Die Bauern sind glücklich
und die Schafe sind glücklich.
Alles ist gut.
Wenn jetzt aber ein Bauer
ein Schaf mehr hat,
geht es ihm etwas besser
und niemand kommt zu Schaden.
Trifft aber jeder Bauer diese
individuelle rationale Entscheidung,
ist das Stück Land überlaufen
und wird erschöpft,
zum Nachteil aller Bauern
und natürlich zum Nachteil der Schafe.
Wir sehen dieses Problem überall:
beim Versuch Überfischung zu vermeiden
oder beim Versuch Emission zu reduzieren,
um den Klimawandel einzudämmen.

Lithuanian: 
anglų ekonomistas William Forster Lloyd
išspausdino brošiūrą,
kuri apibūdino tokią situaciją.
Turite grupę ūkininkų,
anglų ūkininkų,
kurie dalinasi bendra žeme avims ganytis.
Jei kiekvienas ūkininkas atsives
tam tikrą skaičių avių,
sakykime tris avis,
žemė atsinaujins,
ūkininkai bus laimingi,
avys – laimingos,
viskas gerai.
Jei vienas ūkininkas atsives
viena avimi daugiau,
šiam ūkininkui seksis truputį geriau
ir niekas nuo to nenukentės.
Bet jei kiekvienas ūkininkas priims
tokį individualų ir racionalų sprendimą –
žemė bus suniokota ir išeikvota,
sukeldama žalą kitiems ūkininkams
ir žinoma kitoms avims.
Šią problemą matome daugelyje sričių:
pernelyg intensyvios žvejybos
valdymo sunkumuose
ar siekiant sumažinti anglies dvideginio
išmetimą klimato kaitai sušvelninti.

Chinese: 
英國經濟學家威廉．佛斯特．洛伊
出版了一本小冊子，
小冊子描述了下列情境：
有一群農夫
──英國農夫──
他們在一塊共用地上面
放牧他們的羊。
每個農夫都會帶來一定數量的羊──
比如說三隻羊──
這塊地會更生，
農夫都很快樂，
羊也很快樂，
一切都很好。
現在，如果一個農夫多帶了一隻羊，
那位農夫的生計會更好一些，
其他人也沒受害。
但如果每位農夫都各別
做出了那個理性的決定，
就會超過這塊地的限度，
資源會被用盡，
所有農夫都會受害，
當然，羊也會受害。
我們在許多地方都會看到這類問題：
比如管理過度捕魚的困難，
或是減少碳排放來緩和氣候變遷。

Chinese: 
英国经济学家威廉·福斯特·劳埃德
出版了一个宣传册，
里面描述了这样一个场景。
有一群农场主，
英国农场主，
共同在一片地里放羊。
如果每个农场主都
带了一定数量的羊，
比如每家三只，
这片土地上的植被还可以正常再生，
农场主们自然高兴，
羊群也自在逍遥，
一切都相安无事。
如果有一个农场主多放了一只羊，
他就会获益更多，
不过其他人也都没什么损失。
但是如果每个农场主
都擅自增加羊的数量，
土地容量就会饱和，变得不堪重负，
所有农场主都会受损，
当然，羊群也会开始挨饿。
我们在很多场合都见到过这个问题：
比如过度捕捞的困境，
或者应对气候变化的碳减排。

Russian: 
Английский экономист Уильям Фостер Ллойд
опубликовал памфлет,
описывающий сценарий,
в котором группа фермеров,
английских фермеров,
имеет общее поле,
на котором пасутся их овцы.
Если у каждого определённое
количество овец,
скажем, три,
то поле успевает восстановиться,
фермеры довольны,
овцы счастливы,
всё прекрасно.
Если один фермер приведёт
ещё одну овцу,
он заживёт чуть лучше, никому не навредив.
Но если каждый фермер
примет такое разумное решение,
то поле будет переполнено, оно истощится
в убыток всем фермерам
и, конечно, к огорчению овец.
Такого рода проблема встречается часто,
например черезмерный отлов рыбы
или сокращение выброса углерода
для предотвращения изменения климата.

Spanish: 
el economista inglés William Forster Lloyd
publicó un folleto
que describe la siguiente situación.
Hay un grupo de pastores,
pastores ingleses,
que comparten un prado común
donde pastan sus ovejas.
Si cada pastor 
trae una cierta cantidad de ovejas,
digamos tres ovejas,
el suelo se recupera bien,
los pastores contentos,
las ovejas contentas,
todo va bien.
Ahora, si uno de los pastores
trae una oveja extra,
ese pastor va a estar un poquito mejor,
y nadie más va a salir perjudicado.
Pero si cada pastor tomara esa decisión
individualmente racional,
el prado se vería sobreexplotado
y el pasto se agotaría,
en detrimento de todos los pastores,
y por supuesto,
en detrimento de las ovejas.
Es un problema que se ve mucho:
en la dificultad de
controlar la sobrepesca,
o al reducir las emisiones de carbono
para contrarrestar el cambio climático.

Portuguese: 
o economista inglês William
Forster Lloyd publicou um folheto
que descrevia o seguinte cenário:
existia um grupo de agricultores ingleses,
que compartilhavam um terreno
para suas ovelhas pastarem.
Se cada fazendeiro levasse
um certo número de ovelhas,
digamos três ovelhas,
a terra seria revitalizada,
os agricultores e as ovelhas
ficariam felizes,
e tudo ficaria bem.
Agora, se um agricultor
trouxesse uma ovelha a mais,
ele teria uma pequena vantagem,
e ninguém mais seria prejudicado.
Mas, se cada fazendeiro
tomasse essa decisão racional,
a terra seria exaurida e empobrecida
em detrimento de todos os agricultores
e, naturalmente, das ovelhas.
Vemos este problema em muitos lugares:
na dificuldade de gerenciar
a pesca excessiva,
ou na redução das emissões de carbono
para mitigar as mudanças climáticas.

Korean: 
영국 경제학자인 윌리엄 포스터 로이드가
글을 발표했는데
다음과 같은 시나리오를 담고 있어요.
한 무리의 농부들이 있어요.
영국 농부들이구요
이들은 양을 방목하기 위한 
땅을 공유하고 있어요.
각 농부마다 
몇 마리의 양을 데리고 와요.
농부당 세 마리 라고 합시다.
땅은 활력을 찾을 것이고
농부들은 행복하고
양들도 행복하고
모든 것이 좋을 거예요.
이제 한 농부가 양을 
한 마리 더 데리고 와요.
그 농부는 조금 더 이익을 보지만, 
여기서 손해를 보는 사람은 아무도 없어요.
하지만 모든 농부가 이렇게 
개인에게 합리적인 선택을 한다면
땅은 꽉 차게 되고, 고갈될 거예요.
농부들에게 해를 입히고
양들에게까지 해를 입힐 정도로 말이죠.
우리는 많은 곳에서
이와 비슷한 문제를 봅니다.
남획 관리의 어려움에서
혹은 기후 변화를 완화하기 위해
탄소 배출량을 줄이는 것에서요.

Turkish: 
İngiliz iktisatçı William Forster Lloyd,
şu senaryoyu aktaran bir broşür yayınladı:
Bir grup çiftçi var,
İngiliz çiftçiler,
koyunlarını otlatmak için
umumi bir araziyi paylaşıyorlar.
Her bir çiftçi,
belirli sayıda koyun getirirse
- 3 koyun diyelim -
toprak yenilenmiş olacak,
çiftçiler mutlu,
koyunlar mutlu,
her şey iyi olacak.
Fakat bir çiftçi,
fazladan bir koyun daha getirirse,
o çiftçinin işleri için daha iyi olacak
ve bu kimseye zarar vermeyecek.
Ama her bir çiftçi, bireysel olarak
bu mantıklı kararı verecek olursa,
alan istilaya uğramış olacak
ve yeşillik tükenecek,
bu da her çiftçinin zararına olacak
ve tabii ki koyunların da zararına olacak.
Bu sorun ile birçok kez karşılaşıyoruz:
aşırı balık avlanması hususunda,
ya da iklim değişikliğini azaltmak adına
karbon salınımını azaltmada.

Dutch: 
Als het gaat over het reguleren
van autonome voertuigen
kan veiligheid worden gezien
als het gedeelde land van de boeren --
dat is het algemeen goed --
en de boeren zijn de passagiers
of de eigenaren van die auto's
die ervoor kiezen er in te rijden.
En door de individueel
rationele keuze te maken,
het prioriteren van de eigen veiligheid,
zorgt iedereen ervoor
dat het algemeen goed afneemt,
wat het verminderen
van het totale letsel is.
Dit heet de tragedie van de meent,
van oudsher,
maar in de context van zelfrijdende auto's
is het probleem
misschien wat verraderlijk,
want er is niet perse
een menselijk individu
dat de beslissingen neemt.
En dus kunnen autofabrikanten
auto's zo programmeren
dat ze de veiligheid
van hun klanten maximaliseren,
en dit soort auto's leren
automatisch en zelfstandig
dat dit vereist dat voetgangers
meer risico lopen.

Persian: 
وقتی این مشکل به مقررات
ماشین‌های بدون راننده(خودران) میرسه،
زمین مشترک برای چَرا
همون امنیت عمومی میشه --
که ارزش مشترک هست --
و چوپان‌ها همون سرنشین‌ها میشن
یا صاحبان ماشین‌ها که دارن رانندگی میکنن.
و تصمیم فردی عاقلانه
که اولیت دادن به امنیت خود شخص هست،
ممکنه به صورت جمعی در حال
تخریب مال مشترکشون(زمین چَرا) باشن،
که کمینه کردن کل ضرر هست.
بهش میگن تراژدی اشتراکها،
به طور سنتی،
ولی من فکر میکنم در مورد
ماشین‌های بدون راننده(خودران)،
شاید مشکل یه ذره ظریف‌تر باشه
چون حتماً اونی که تصمیم رو میگیره،
یک انسان نیست.
ممکنه سازندگان ماشین
خودرو‌ها رو طوری برنامه‌ریزی کنن،
که امنیت مشتریانشون رو بیشینه کنه،
و اون ماشین‌ها شاید خودشون یاد بگیرن که
به صورت اتوماتیک
انجام این کار خطراتی رو
برای عابرین پیاده داره.

Chinese: 
而到了无人车的制度问题，
公共土地在这里指的就是公共安全，
也就是公共利益，
而农场主就是乘客，
或者车主，决定乘车出行的人。
通过自作主张把自己的安全凌驾于
其他人的利益之上，
他们可能共同损害了
能将总损失降到最低的
公共利益。
传统上把这称为
公地悲剧，
不过我认为对于无人车来说，
问题可能是更深层次的，
因为并没有一个人
去做决策。
那么无人车制造商可能会
简单的把行车电脑程序
设定成最大程度保护车主的安全，
而那些车可能会自主学习，
而这一过程也就会略微增加
对行人的潜在危险。

Russian: 
Когда речь идёт о регламентах
для беспилотных автомобилей,
общее поле — это, по сути,
общественная безопасность,
это общее благо,
где фермеры — это пассажиры
или владельцы автомобилей,
которые в них ездят.
Если каждый сделает выбор,
рациональный для себя,
приоритизируя собственную безопасность,
то в целом пострадает общее благо,
то есть минимизация общего вреда.
Это традиционно называется
«трагедией общин».
Но в случае с беспилотными
автомобилями, я думаю,
проблема более хитрая,
так как необязательно кто-то конкретный
принимает эти решения.
Производители машин могут
запрограммировать их так,
чтобы максимизировать
безопасность своих клиентов,
и эти машины могут самостоятельно усвоить,
что это будет несколько
более рискованно для пешеходов.

French: 
Quand il s'agit du règlement des voitures
sans conducteur,
la terre commune représente
la sécurité publique --
c'est le bien commun --
et les fermiers sont les passagers
ou les propriétaires de ces voitures qui 
décident de les conduire.
En faisant ce choix rationnel
de prioriser leur propre sécurité,
ils sont peut être en train d'affaiblir
le bien commun,
de réduire donc les dommages.
C'est la Tragédie des biens communs,
typiquement,
mais je pense que dans le cas des voitures
sans conducteur,
le problème est peut-être
un peu plus insidieux
car ce n'est pas forcément
un seul être humain
qui prend ces décisions.
Les fabricants de voitures pourraient 
simplement les programmer
pour maximiser la sécurité des clients,
et elles pourraient apprendre
par elles-mêmes
qu'en agissant de cette manière, elles
augmenteraient le risque des piétons.

iw: 
כשמדובר ברגולציה של מכוניות אוטונומיות,
הקרקע המשותפת עכשיו
הוא ביסודו של דבר בטוחה לציבור -
זה הטוב המשותף -
והחקלאים הם הנוסעים
או בעלי המכוניות שבוחרים
לנסוע במכוניות אלה.
ועל ידי עשיית בחירה אישית הגיונית
של מתן עדיפות לביטחונם,
הם עשויים לגרום יחד להפחתת הטוב המשותף,
שהוא מזעור הנזק המוחלט.
זה נקרא הטרגדיה של נחלת הכלל,
באופן מסורתי,
אבל אני חושב שבמקרה של מכוניות אוטונומיות,
הבעיה עשויה להיות קצת יותר ערמומית
כי אין כאן בהכרח אדם יחיד
שמקבל החלטות אלה.
כך שיצרני הרכב יכולים פשוט לתכנת מכוניות
שימקסמו את הבטיחות עבור הלקוחות שלהם,
והמכוניות האלה עשויות ללמוד
באופן אוטומטי בעצמן
שעשייה כזו דורשת מעט
הגדלת סיכון להולכי רגל.

Lithuanian: 
Kalbant apie savieigių
automobilių nuostatus,
bendra žemė čia yra visuomenės saugumas.
Tai – visuotinis gėris.
Ūkininkai – tai keleviai,
arba automobilių savininkai, kurie
pasirinko naudotis šiais automobiliais.
Priimdami individualų
racionalų sprendimą –
suteikti pirmenybę savo saugumui
jie kartu naikina visuotinį gėrį –
bendros žalos mažinimą.
Tai tradiciškai vadinama
bendrųjų išteklių tragedija,
tačiau kalbant apie savieigius
automobilius, aš manau,
problema yra šiek tiek klastingesnė,
nes nebūtinai tai bus individualūs asmenys
priimantys šiuos sprendimus.
Automobilių gamintojai
galbūt paprasčiausiai
užprogramuos automobilius taip,
kad jie užtikrintų maksimalų
saugumą jų klientams.
Ir automobiliai galbūt patys išmoks,
kad toks veiksmas reikalauja
padidinti pėsčiųjų riziką.

Portuguese: 
Quando se trata da regulamentação 
de carros autónomos,
os terrenos baldios são,
basicamente, a segurança pública
— ou seja, o bem comum.
Os pastores são os passageiros
ou os donos de carros que escolham 
conduzir esse tipo de veículo.
E ao fazer essa escolha
individual e racional
de dar prioridade à sua segurança,
eles podem estar, em conjunto,
a prejudicar o bem comum,
que é o que está
a minimizar os danos totais.
É a chamada "tragédia dos comuns",
tradicionalmente.
Mas eu penso que, no caso 
de carros autónomos,
o problema pode ser 
um pouco mais insidioso
pois não é necessariamente um ser humano
a tomar essas decisões.
Os fabricantes de automóveis
podem programar carros
que irão maximizar
a segurança dos seus clientes,
e esses carros poderão aprender sozinhos
que, ao fazer isso, aumentará
o risco para os peões.

Croatian: 
Kada je u pitanju regulacija
automobila bez vozača,
zajedničko je, zapravo, javna sigurnost --
to je opće dobro --
a farmeri su putnici
ili vlasnici automobila koji odabiru
voziti se u tim automobilima.
I odabirući individualno racionalni odabir
davanja prioriteta vlastitoj sigurnosti,
oni bi kolektivno mogli
umanjiti opće dobro,
koje je smanjene totalne štete.
To se naziva tragedija zajedništva,
tradicionalno,
ali ja mislim da u slučaju
automobila bez vozača,
problem je možda malo više podmukao
jer ne postoji nužno
individualno ljudsko biće
koje donosi te odluke.
Proizvođači automobila mogu jednostavno
programirati automobile
tako da maksimalno povećaju
sigurnost svojih klijenata
te bi takvi automobili mogli
automatski samostalno naučiti
da to zahtijeva povećanje
rizika za pješake.

Portuguese: 
Quando se trata da regulamentação
de carros autônomos,
a terra comum agora é basicamente
a segurança pública, que é o bem comum,
os agricultores são os passageiros
ou os donos de carros que decidiram
usar aquele tipo de veículo.
Fazendo uma escolha racional
de priorizar sua própria segurança,
pode-se estar, coletivamente,
depreciando o bem comum,
que é reduzir os danos totais.
Isso é tradicionalmente
chamado de tragédia compartilhada,
mas acredito que, no caso
dos carros autônomos,
o problema pode ser
um pouco mais capcioso,
porque não existe
necessariamente um ser humano
tomando essas decisões.
Os fabricantes de automóveis podem
simplesmente programar os carros
que irão maximizar
a segurança de seus clientes,
e esses carros podem
aprender por conta própria
e isso resulta num risco
ligeiramente maior para os pedestres.

Korean: 
자율주행차에 대한 규제에 있어서
공유지는 기본적으로 공공안전입니다.
그것이 공익입니다.
농부들은 탑승자들 혹은
그 차에 타는 결정을 한 
차량소유주들 이겠죠.
본인의 안전을 우선으로 하는
개인에게 합리적인 선택을 함으로써
총체적으로는
전체적인 피해를 최소화하는, 이 공익을
약화시킬 겁니다.
이것은 공유지의 비극으로 불립니다
전통적으로요,
하지만 자율주행차의 경우엔
이 문제는 좀 미묘하게 됩니다.
왜냐하면 개개인이 반드시 
그런 선택을 해야하는 것은
따라서 자동차 제조사들은 아마
고객의 안전을 최대한 보장하도록
차량 프로그램을 단순하게 할 겁니다.
그러면 차들은 자동으로 
자율학습을 할 수 있습니다.
그러한 선택이 보행자들의 위험을
살짝 증가시킨다는 점을 말이죠.

German: 
Wenn es um Vorschriften
für fahrerlose Autos geht,
steht das gemeinsame Land
für die öffentliche Sicherheit –
das Gemeinwohl –
und die Bauern sind die Passagiere
oder die Autobesitzer,
die in diesen Autos fahren.
Beim Treffen der individuellen
rationalen Entscheidung,
die eigene Sicherheit zu bevorzugen,
könnten sie das Gemeinwohl
zusammen vermindern,
was den Gesamtschaden verringert.
Man nennt dies die Tragik der Allmende,
herkömmlicherweise,
aber im Fall fahrerloser Autos,
könnte das Problem
etwas komplizierter sein,
weil nicht unbedingt ein Mensch
diese Entscheidungen trifft.
Autohersteller könnten also einfach
Autos so programmieren,
dass sie maximale Sicherheit
für ihre Kunden gewähren
und diese Autos könnten
automatisch, alleine lernen,
dass diese Sicherheit mit einem
erhöhten Risiko für Fußgänger einhergeht.

English: 
When it comes to the regulation
of driverless cars,
the common land now
is basically public safety --
that's the common good --
and the farmers are the passengers
or the car owners who are choosing
to ride in those cars.
And by making the individually
rational choice
of prioritizing their own safety,
they may collectively be
diminishing the common good,
which is minimizing total harm.
It's called the tragedy of the commons,
traditionally,
but I think in the case
of driverless cars,
the problem may be
a little bit more insidious
because there is not necessarily
an individual human being
making those decisions.
So car manufacturers
may simply program cars
that will maximize safety
for their clients,
and those cars may learn
automatically on their own
that doing so requires slightly
increasing risk for pedestrians.

Japanese: 
自動運転車の規制
ということで言うと
共有地に当たるのは
公共の基本的な安全です—
これは共通の利益です—
そして農家に当たるのは
そういう車に乗ることを選択する
乗員や車の所有者です
自分の安全を優先するという
各自にとって都合の良い選択を
みんながすると
結果的に 被害の総量を最小化するという
共通の利益が
損なわれることになります
この問題は伝統的に
「共有地の悲劇」と呼ばれています
しかし自動運転車の場合には
問題はもう少し
嫌らしいものになります
そういった判断をするのが
必ずしも当人ではないからです
自動車メーカーは
単に顧客の安全を最大化するように
車をプログラムするかもしれません
そして車は そのためには
歩行者のリスクを多少上げる必要があると
自分で判断するかもしれません

Chinese: 
當用到規範無人駕駛車的情況時，
這塊共用地基本上就是公共安全──
也就是共善──
農夫就是乘客，
或是選擇坐這種車的車主。
他們各自做出理性的選擇，
把他們自己的安全擺在第一，
那麼整體來說，
他們就可能會削減了共善，
共善就是把總傷害減到最低。
這就是所謂的「公地悲劇」，
傳統是這麼稱呼的。
但我認為在無人駕駛車的情況中，
問題可能還有涉及其他隱患，
因為並沒有特別一個人類
在做那些決定。
汽車製造商很可能就會把他們的車
設計成以確保客戶安全為第一要務，
而那些車可能會自己發現，
保護客戶會稍微增加行人的風險。

Turkish: 
Sürücüsüz araba hukukuna baktığımızda,
umumi alan toplum güvenliği oluyor
- yani kamu yararı -
ve çiftçiler yolcular oluyor
veya o arabaları kullanmayı
tercih eden araç sahipleri oluyor.
Ve kendi güvenliklerine öncelik tanıyan,
bireysel mantıklı seçimlerini yaparak
hep birlikte genelin iyiliğini azaltarak
toplam zarar riskini aza indirgemeyi
düşürüyor olabilirler.
Buna bilindiği üzere
ortak malların trajedisi
deniyor,
fakat bana kalırsa,
sürücüsüz araba hususunda
sorun biraz daha derin olabilir,
çünkü temelde bu kararları veren
bir insan söz konusu değil.
Araba imalatçıları, müşterileri için
üst düzey güvenlik önlemleri alan
araba programlayabilirler
ve bu arabalar, otomatik olarak
bu seçimleri yapmanın
yayalar için riskleri bir nebze de olsa
arttırdığını öğrenebilir.

Spanish: 
Volviendo al tema de la regulación
de vehículos autónomos,
el prado común vendría a ser
básicamente la seguridad pública;
ese es el bien común.
Y los pastores serían los pasajeros
o los dueños de los autos que 
eligen viajar en esos vehículos.
Y al tomar la decisión
individualmente racional
de priorizar su propia seguridad,
podrían estar disminuyendo
colectivamente el bien común,
que es minimizar el daño total.
Esto se llama "tragedia de los comunes",
tradicionalmente,
pero creo que en el caso
de los vehículos autónomos,
el problema es tal vez
un poquito más traicionero
porque no es necesariamente
un ser humano
el que toma las decisiones.
Entonces, los fabricantes podrían
simplemente programar los autos
para maximizar la seguridad
de sus clientes.
Y esos autos podrían aprender,
automáticamente y por su cuenta,
que hacer eso requiere aumentar
levemente el riesgo de los peatones.

Ukrainian: 
Стосовно ж регулювань
для безпілотних автомобілів,
спільна земельна ділянка -
це загальна безпека,
це спільне благо -
а фермери - це пасажири
або власники автомобілів,
які обирають їздити у цих автомобілях.
Та зробивши індивідуально
раціональний вибір
і надавши пріоритет їх власній безпеці,
вони разом могли б
зменшити спільне благо,
яке мінімізує загальну шкоду.
Це називається трагедія спільного,
традиційно,
але я гадаю, що у випадку
безпілотних автомобілів,
проблема може бути трошки більш підступною
через те, що це необов'язково людина
приймає ці рішення.
Виробники автомобілів можуть
просто запрограмувати автомобілі,
щоб максимізувати безпеку
для їхніх клієнтів,
і такі автомобілі можуть
автоматично навчатися,
що певна дія вимагає трохи
підвищити ризик для пішоходів.

Italian: 
Quando si parla di regolamentazione 
di veicoli a guida autonoma,
l'argomento comune è ora principalmente
la sicurezza pubblica --
che è un bene comune --
e gli agricoltori sono passeggeri
o automobilisti che stanno scegliendo 
di guidare questa macchine.
E facendo questa scelta
arbitraria e razionale
di preferire la propria sicurezza,
possono collettivamente diminuire
il bene comune,
che è minimizzare il danno totale.
È chiamata la tragedia dei beni comuni,
normalmente,
ma penso che anche nel caso 
dei veicoli a guida autonoma,
il problema potrebbe essere 
un po' più insidioso
perché non è necessariamente 
un essere umano
a prendere queste decisioni.
Quindi i produttori di autoveicoli
potrebbero programmare le loro auto
per massimizzare 
la sicurezza dei loro clienti,
e queste auto potrebbero 
imparare automaticamente, loro stesse,
che per fare ciò devono incrementare 
leggermente il rischio per i pedoni.

Arabic: 
حين يتعلق الأمر بتقنين
السيارات ذاتية القيادة،
فالأرض المشتركة الآن هي بالأساس
السلامة العامة --
هذا هو الشيء المشترك --
والمزارعون هم الركاب
أو أصحاب السيارات الذيم يختارون
أن يتجولوا بهذه السيارات.
وباتخاذ اختيار منطقي فردي
أو إعطاء الأولوية للسلامة الشخصية،
فقد يكونون بصدد إلحاق الضرر
بالشيء المشترك،
والذي هو تقليل مجموع الضرر.
وهذا مايسمى بتراجيديا المشاع،
بشكل تقليدي،
لكنني أعتقد أنه في حالة السيارات
ذاتية القيادة،
فإن المشكلة قد تكون أكثر تعقيدًا
لأنه ليس هناك بالضرورة شخص واحد
يقوم بهذه القرارات.
إذ يمكن لمصنعي السيارات ببساطة
أن يبرمجوا سيارات
تعطي حماية قصوى لعملائهم،
ويمكن لهذه السيارات
أن تتعلم تلقائيا بمفردها
أن القيام بذلك يتطلب
زيادة الخطر بالنسبة للراجلين.

Hungarian: 
A vezető nélküli autó szabályozása esetén
a közlegelő itt a közbiztonság,
ez a közjó;
a gazdák az utasok,
vagy a kocsitulajdonos,
aki az autóban utazik.
Egyénileg észszerű döntéssel
előnyben részesítve saját biztonságunkat
közösségileg csökkentenénk a közjót,
amely minimalizálná a teljes kárt.
Hagyományosan ezt hívjuk
a közbirtok tragédiájának,
de a vezető nélküli autó esetében
a dilemma tán kissé még fogósabb,
mert nem szükségképpen emberi lény
hozza a döntéseket.
Az autógyárak a kocsikat
egyszerűen beprogramozhatják,
amellyel maximalizálhatják
ügyfeleik biztonságát,
és a kocsik automatikusan
önállóan tanulhatnak,
és ez a biztonság kissé fokozza
a gyalogosok kockázatát.

Japanese: 
羊のメタファーを使うなら
今や自分の考えを持った
電気羊が現れたようなものです
(笑)
そして その羊は飼い主の知らぬうちに
勝手に草を食べに行くかもしれません
「アルゴリズム的共有地の悲劇」
とでも呼びましょうか
これは新たなタイプの問題を
提起します
伝統的には 
このようなタイプの社会的ジレンマは
規制によって
解決されてきました
政府ないしは
コミュニティが力を合わせ
どのような結果を望むのか
個々人の行動にどのような制約を
課す必要があるのかを
集団的に決めるのです
それから監視と強制力によって
公共の利益が
守られるようにします
それでは 
被害の最小化を
すべての車の
要件にするよう
規制当局に求めては
どうでしょう？
それが みんなが望むと
言っていることなんですから
さらに大事なのは
フェアだと確信できることです

Dutch: 
Dus in het schaapmetafoor:
we hebben nu elektrische schapen
die zelf kunnen denken.
(Gelach)
En die kunnen gaan grazen
zonder dat de boer het weet.
Dit kunnen we 'de tragedie
van de algoritmische meent' noemen.
En het brengt nieuwe
uitdagingen met zich mee.
Normaal gesproken, traditioneel,
lossen we dit soort
sociale dilemmas op met regulaties,
dus overheden of
gemeenschappen komen samen
en beslissen samen
wat voor uitkomst men wil
en wat voor limitaties
op individueel vlak daarvoor nodig zijn.
En dan, door middel van
monitoring en handhaving,
zorgen ze ervoor dat het
publieke goed beschermd wordt.
Dus waarom vragen we regelgevers niet
om te vereisen dat alle auto's
letsel verminderen.
Uiteindelijk zegt men dat te willen.
En nog belangrijker,
als individu ben ik zeker dat,

Hungarian: 
A birka-hasonlattal élve:
nekünk most saját tudatú
elektromos birkáink vannak.
(Nevetés)
A gazda tudtán kívül is
bemehetnek a legelőre.
Hívhatjuk ezt az algoritmikus
közbirtok tragédiájának,
s ez új feladatot ró ránk.
E társadalmi jellegű dilemmákat
általában szabályozással oldjuk meg.
Kormányszervek vagy közösségek
megvitatják őket,
és közösen döntik el,
milyen eredményt szeretnének,
és az egyéni cselekvés
milyen korlátozására van szükség.
Aztán ellenőrzési 
és végrehajtási intézkedésekkel
elérhető a közjó megmaradása.
Akkor szabályozó szervként
mondjuk ki,
hogy minden autó köteles
minimalizálni a kárt!
Végtére, mindenki ezt akarja.
De ennél is fontosabb,
hogy személy szerint biztos lehetek benne,

Italian: 
Usando la metafora della pecora,
è come se avessimo delle pecore elettriche
dotate di una propria mente.
(Risate)
Che possono andare a pascolare
senza che l'agricoltore lo sappia.
Questa è quella che potremmo chiamare 
la tragedia degli "algoritmi comuni"
e offre nuovi tipi di sfide.
Normalmente e tradizionalmente,
risolviamo questo tipo 
di dilemmi sociali
usando la regolamentazione,
Così sia i governi, 
che le comunità si uniscono,
e decidono collettivamente 
quale tipo di risultato vogliono
e quale tipo di restrizione 
sul comportamento individuale
è necessario introdurre.
E usando il monitoraggio e l'applicazione,
possono assicurare 
che il bene pubblico sia preservato.
Quindi perché non richiediamo,
da regolamentatori,
soltanto che tutte le macchine
minimizzino il danno?
Dopotutto, questo è quello 
che le persone dicono di volere.
E soprattutto
posso essere sicuro come individuo

Ukrainian: 
Використовуючи
метафору з вівцями,
це ніби у нас електричні вівці,
які мають власний розум.
(Сміх)
І вони можуть піти та випасатися,
навіть, якщо фермер не знає про це.
Це те, що ми можемо назвати
трагедією алгоритмічного спільного,
і це пропонує нові виклики.
Зазвичай, традиційно,
ми вирішуємо такі типи соціальних дилем
за допомогою правил,
тож держава або спільнота збираються разом
та колективно вирішують,
який результат вони хочуть,
та які обмеження поведінки суб'єкта
їм треба розробити.
А потім, за допомогою
моніторингу та примушення,
вони можуть переконатися,
що суспільне благо зберігається.
Тож чому б нам, як регулювальникам,
не вимагати, щоб всі автомобілі
мінімізували шкоду?
Зрештою, це те, чого люди
хочуть, за їх словами.
І що більш важливо,
я можу бути впевнений, як окрема людина,

Portuguese: 
Na metáfora das ovelhas,
é como se existisse uma ovelha
elétrica tomando decisões próprias.
(Risos)
Elas poderiam ir pastar,
sem o agricultor saber.
Isso é o que se chama de tragédia
dos algorítmicos compartilhados,
e oferece novos tipos de desafios.
Normalmente, tradicionalmente,
resolvemos esses tipos de dilemas
sociais com a regulamentação,
em que os governos
ou as próprias comunidades,
decidem coletivamente o que se deseja
e quais restrições sobre comportamentos
individuais são necessárias.
Então, com o acompanhamento e a aplicação,
pode-se garantir
a preservação do bem público.
Então, por que não nós,
como regulamentadores,
exigimos que todos os carros
minimizem os prejuízos?
Afinal, isso é o que as pessoas querem.
E, o mais importante, posso
ter certeza que, como indivíduo,

English: 
So to use the sheep metaphor,
it's like we now have electric sheep
that have a mind of their own.
(Laughter)
And they may go and graze
even if the farmer doesn't know it.
So this is what we may call
the tragedy of the algorithmic commons,
and if offers new types of challenges.
Typically, traditionally,
we solve these types
of social dilemmas using regulation,
so either governments
or communities get together,
and they decide collectively
what kind of outcome they want
and what sort of constraints
on individual behavior
they need to implement.
And then using monitoring and enforcement,
they can make sure
that the public good is preserved.
So why don't we just,
as regulators,
require that all cars minimize harm?
After all, this is
what people say they want.
And more importantly,
I can be sure that as an individual,

Spanish: 
O sea que, volviendo a las ovejas:
es como si ahora tuviéramos
ovejas eléctricas que piensan solas.
(Risas)
Y pueden irse a pastar solas
aunque el pastor no lo sepa.
O sea que a esto podríamos llamarlo
"la tragedia de los comunes algorítmicos",
y nos presenta nuevos desafíos.
Típicamente, tradicionalmente,
este tipo de dilemas sociales
se resuelven implementando regulación.
Ya sea el gobierno
o la comunidad, se juntan
y deciden colectivamente
qué resultado quieren obtener,
y qué tipo de restricciones
a la conducta individual
necesitan implementar.
Y luego, a través del control
y la imposición de normas,
pueden garantizar
la preservación del bien común.
Entonces ¿por qué no exigimos,
en nuestro rol de reguladores,
que todos los autos
tienen que minimizar el daño?
A fin de cuentas, eso es
lo que la gente dice que quiere.
Y más importante aún,
puedo estar seguro de que, como individuo,

Croatian: 
Da upotrijebim metaforu s ovcom,
to je kao da sada imamo
električnu ovcu s vlastitim umom.
(Smijeh)
I one mogu otići i jesti bez da uopće
njihov farmer to zna.
Dakle, ovo bismo mogli nazvati
tragedijom zajedničkog algoritma
te nam ona nudi nove vrste izazova.
Obično, tradicionalno,
ove vrste društvenih dilema
rješavamo koristeći propise,
stoga se sastanu ili vlade ili zajednice
i kolektivno odluče kakav ishod žele
i kakva ograničenja
individualnog ponašanja
trebaju provoditi.
Te tada, koristeći praćenje i provedbu,
mogu osigurati očuvanje javne sigurnosti.
Stoga, zašto mi ne bismo samo,
kao regulatori,
zahtijevali da svi automobili
potpuno smanje štetu?
Uostalom, to je ono
što ljudi kažu da žele.
I još važnije,
mogu biti siguran da kao pojedinac,

Arabic: 
وباستخدام مثال الأغنام،
فهذا أشبه بخروف كهربائي
له عقله الخاص.
(ضحك)
ويمكنه أن يذهب ويرعى دون أن يدري المزارع.
وهذا مايمكننا أن نسميه
تراجيديا المشاع الخوارزمية،
وهي تقدم أنواعا جديدة من التحديات.
عادة، وبشكل تقليدي،
نحل هذا النوع من المعضلات الاجتماعية
عن طريق القوانين،
حيث تجتمع الحكومات أو المجتمعات
ليقرروا جماعيا ما نوع النتائج 
التي يريدونها
وما نوع العوائق على مستوى السلوك الفردي
التي يجب عليهم تنفيذها.
وبعد ذلك، باستخدام المراقبة والفرض،
يمكنهم ضمان الحفاظ على الصالح العام.
لذا، لم لا نقوم،
كواضعي قوانين،
بإجبار السيارات على تقليل الضرر؟
في جميع الأحوال، هذا ما يريده الناس.
والأهم من هذا،
يمكنني أن أكون متأكدا كفرد،

Chinese: 
跟羊群的比喻类似，
这就好像换成了一批
可以自己思考的机器羊。
（笑声）
它们可能会自己去吃草，
而农场主对此毫不知情。
这就是我们所谓的算法共享悲剧，
这会带来新的类型的挑战。
通常在传统模式下，
我们可以通过制定规则
来解决这些社会道德困境，
政府或者社区共同商讨决定
他们能够接受什么样的后果，
以及需要对个人行为施加
什么形式的限制。
通过监管和强制执行，
就可以确定公共利益得到了保障。
那么我们为什么不像
立法者那样，
让所有无人车把危险降到最小？
毕竟这是所有人的共同意愿。
更重要的是，
作为一个个体，我很确定

Persian: 
مثلاً توی مثال گوسفند‌ها،
یک گوسفند الکتریکی داشته باشیم
که ذهن خودش رو داره.
(خنده حاضرین)
و گوسفند‌ها شاید برن و بِچرند
در حالی که چوپان نمیدونه.
این چیزیه که اسمش رو میذاریم
تراژدی اشتراکات الگورتیمی،
که چالش‌های جدیدی رو در خودش داره.
معمولاً و به طور سنتی،
ما این نوع دوراهی‌های اجتماعی رو
با استفاده از مقررات حل میکنیم،
پس حکومت‌ها یا جوامع گِرد هم میان،
و تصمیم میگیرن که چه نتیجه‌ای رو میخوان،
و چه محدودیت‌هایی روی
رفتارهای فردی
باید اعمال کنند.
و بعدش با استفاده از نظارت و الزام،
میتونن مطمئن شن که منافع عمومی حفظ میشه.
پس چرا نیایم،
به عنوان قانون گذاران،
بخوایم که همه ماشین‌ها ضرر رو کمینه کنن؟
به هرحال، این چیزیه که همه
ادعا میکنن میخوانش.
و مهمتر از اون،
مطمئناً منِ نوعی،

iw: 
אז אם נשתמש במטפורת הכבשים,
זה כאילו שיש לנו עכשיו כבשים חשמליות
שיש להן חשיבה משל עצמן.
(צחוק)
והן יכולות ללכת ולרעות
גם אם האיכר אינו יודע על כך.
אז זה מה שאנחנו יכולים לקרוא לו
הטרגדיה של נחלת הכלל האלגוריתמית,
והיא מציעה סוגים חדשים של אתגרים.
בדרך כלל, באופן מסורתי,
אנו פותרים סוגים אלה של דילמות חברתיות
באמצעות רגולציה,
אז או שהממשלות או שהקהילות נפגשות,
ומחליטות ביחד
באיזו סוג של תוצאה הם מעונינים
ואיזה סוג של אילוצים על התנהגות אישית
הם צריכים ליישם.
ואז באמצעות ניטור ואכיפה,
הם יכולים לוודא שטובת הכלל נשמרת.
אז למה אנחנו איננו פשוט,
כרגולטורים,
דורשים מכל המכוניות למזער נזק?
אחרי הכל, זה מה שאנשים אומרים שהם רוצים.
וחשוב יותר,
אני יכול להיות בטוח כי כאדם יחיד,

French: 
Revenons à notre métaphore,
c'est comme si maintenant nous avions
des moutons électriques conscients.
(Rires)
Ils peuvent brouter sans que le fermier
le sache.
C'est ce qu'on pourrait appeler la 
Tragédie des communs algorithmiques,
qui offre de nouveaux types de défis.
De manière générale, typiquement,
nous résolvons ces types de dilemmes 
sociaux grâce aux lois :
soit les gouvernements soit
les communautés se réunissent
pour décider ensemble quel est
le résultat voulu
et quelles sortes de contraintes liées
au comportement
doivent être appliquées.
Ensuite grâce à la surveillance
et au contrôle,
ils peuvent s'assurer que le bien civil
soit préservé.
Pourquoi ne pourrions-nous pas,
en tant que régulateurs,
exiger à ce que toutes les voitures
réduisent les dommages ?
Après tout, c'est ce que veulent les gens.
Plus important encore,
je peux être sûr qu'en tant qu'individu,

Chinese: 
若用放牧羊的比喻，
就像是有電子羊，自己會思考。
（笑聲）
他們可能會在農夫不知道的
情況下自己去吃草。
所以我們可以稱之為
「演算法公地悲劇」，
它會帶來新的挑戰。
通常，傳統上，
我們會用規制來解決這些社會兩難，
所以政府或是社區會集合起來，
他們共同決定想要什麼樣的結果、
以及對於個人行為，他們需要實施
什麼樣的限制。
接著透過監控和執行，
他們就能確保公善能被維護。
身為管理者，
我們為什麼不
要求所有的車都要把
傷害降至最低就好了？
畢竟，這是人民要的。
更重要的，
我可以確定，身為個人，

Korean: 
양으로 비유하자면
우린 이제 스스로 생각할 수 있는
전자 양으로 가진 셈이죠.
(웃음)
이 양들은 농부 몰래 가서
풀을 뜯어 먹을 수 있어요.
우리는 이것을 알고리즘적 
공유지의 비극이라 부를 수 있겠고요.
이는 새로운 종류의 도전을 야기합니다.
일반적으로, 전통적으로
이런 종류의 사회적 딜레마를 해결하기 위해서
규제가 사용됩니다.
정부나 지역사회들이 함께 모여
집단적으로 결정합니다.
어떤 종류의 결과를 원하는지
그리고 개인들의 행동에 대해선
어떤 종류의 제한을 
둘 것인지를 말이죠.
그런 다음에, 감시과 강화를 통해
공익이 보존됨을 확인할 수 있죠.
그렇다면 우리는
규제를 만드는 입장으로서
모든 차량들에게 그저 피해를 
최소화하도록 요구하면 되는 것 아닐까요?
결국엔 이것이
사람들이 원한다고 말하는 것이에요.
그리고 더 중요한 것은
한 개인으로서 저는 확신합니다.

German: 
In der Schaf-Metapher
würde das elektronische Schafe
mit eigener Meinung bedeuten.
(Lachen)
Und diese könnten grasen,
ohne, dass der Bauer davon weiß.
Der Name dafür könnte also
Tragik der algorithmischen Allmende sein
und diese stellt uns vor
ganz neue Probleme.
Normalerweise
haben wir diese Art von sozialen Dilemmas
mit Vorschriften gelöst.
Entweder Regierungen
oder Gemeinden kommen zusammen
und entscheiden gemeinsam,
welches Ergebnis sie möchten
und welche Einschränkungen 
des individuellen Verhaltens
sie einführen müssen.
Dann wird mittels Überwachung
und Vollstreckung sichergestellt,
dass das Gemeinwohl gewahrt bleibt.
Warum sagen wir dann nicht,
als Regulatoren,
dass alle Autos Schaden minimieren müssen?
Im Grunde, ist es das,
was Menschen wollen.
Und was noch wichtiger ist,
ich, als Individuum, kann sicher sein,

Turkish: 
Koyun benzetmesine dönecek olursak,
şu anda kendi fikirlerini verebilen
elektrikli koyunlara sahibiz diyebiliriz.
(Gülüşmeler)
Ve kendi başlarına kaçıp
çiftçinin haberi olmadan otlanabilirler.
Bunu da şu şekilde ifade edebiliriz:
algoritmik ortak malların trajedisi.
Beraberinde yeni zorluklar getiriyor.
Genellikle, çoğunlukla,
bu tür toplumsal ikilemleri
yasalar nezdinde çözüme kavuştururuz;
ya hükümet ya da topluluklar
bir araya gelir
ve hep birlikle ne tür bir sonuç
elde etmek istediklerine karar verirler
ve bireysel davranışlarda,
ne tür kısıtlamalara gidilmesi gerektiğini
kararlaştırırlar.
Gözlem ve yürürlülüğü kullanarak
kamu yararının korunduğuna emin olurlar.
Düzenleyiciler olarak,
neden bütün arabalara
zararı en aza indirgeme statüsü
kazandırmıyoruz?
Nihayetinde,
herkes bunu istediğini dile getiriyor.
Daha da önemlisi,
bir birey olarak eminim ki

Portuguese: 
Na metáfora das ovelhas,
é como se tivéssemos ovelhas eletrónicas 
que pensam por si mesmas.
(Risos)
Elas podem ir pastar
sem que o pastor saiba disso.
É a isso que chamamos
a tragédia dos algoritmos comuns,
e isso apresenta novos tipos de problemas.
Tipicamente,
nós resolvemos este tipo de 
dilemas sociais com regulamentações
em que os governos
e as comunidades se juntam,
e decidem coletivamente
que tipo de resultado querem
e que tipo de restrições é necessário
aplicar no comportamento individual.
E depois, com o acompanhamento 
e a sua imposição,
podem certificar-se de que 
o bem público é preservado.
Então porque é que nós,
enquanto entidades reguladoras,
não exigimos que todos os carros 
minimizem os danos?
Afinal, as pessoas dizem 
que é isso que querem.
E mais importante ainda,

Lithuanian: 
Grįžtant prie avių metaforos,
įsivaizduokite, kad šios avys –
elektrinės ir turi sąmonę.
(Juokas.)
Taigi jos eis ir ganysis, net jeigu
jų ūkininkas ir nežino apie tai.
Būtent tai vadiname
algoritmine bendrumo tragedija
ir tai kelia naujus iššūkius.
Paprastai, tradiciškai
tokias socialines problemas
sprendžiame nuostatų pagalba.
Kai vyriausybės ar
bendruomenės susiburia
ir kartu nusprendžia,
kokio rezultato siekti
ir kokius individualaus
elgesio apribojimus
reikėtų pritaikyti.
Tuomet per stebėjimą ir veiksmus
jie gali užtikrinti visuotinį gėrį.
Tad kodėl mums, reguliuotojams,
nepareikalavus,
kad automobiliai sumažintų žalą?
Juk tai yra būtent tai,
ko žmonės sako, kad nori.
Bet svarbiausia,
tokiu būdu aš, kaip asmuo,

Russian: 
Используя метафору с овцами,
получается, у нас теперь есть 
электронная овца со своим разумом.
(Смех)
И они могут пастись самостоятельно,
не спрашивая фермера.
Можно это назвать «трагедией
алгоритмических общин»,
уже с другими задачами.
Традиционно такого рода
социальные дилеммы решаются
с помощью законов,
правительства или сообщества
вместе решают,
что им нужно и как для этого
ограничить поведение
отдельной личности.
Далее они контролируют
соблюдение этих правил,
чтобы обеспечить сохранность
общественного блага.
Почему бы тогда
ни создать закон,
требующий минимизации вреда в машинах?
В конце концов, это то, чего хотят люди.
И что более важно,
я могу быть уверенным, что как личность,

Croatian: 
ukoliko kupim automobil koji bi me mogao
žrtvovati u vrlo rijetkom slučaju,
nisam jedina naivčina čineći to
dok svi ostali uživaju bezuvjetnu zaštitu.
U našoj anketi, pitali smo ljude
bi li podržali propise
i evo što smo saznali.
Prvo, ljudi su rekli ne propisima;
i drugo, rekli su:
„Pa, ako regulirate automobile da to čine
i da potpuno smanje štetu,
ja neću kupiti te automobile.“
Dakle, ironično,
regulirajući automobile u svrhu
potpunog smanjenja štete,
možemo zapravo završiti s više štete
jer se možda ljudi neće odlučiti
za sigurniju tehnologiju,
čak i ako je puno sigurnija
od ljudskih vozača.
Nemam konačan odgovor na ovu zagonetku,
ali mislim da, za početak,
trebamo društvo da se zajedno okupi
kako bismo odlučili
s kojim kompromisima se slažemo
i kako bismo osmislili
načine donošenja tih kompromisa.

Korean: 
제가 만약 아주 드물 확율로 
저를 희생시킬 수도 있는 차를 산다면
다른 모든 사람들이
무조건적인 보호를 즐기는 동안
저만 홀로 그런 선택을 하는 사람은
아닐 겁니다.
우리 설문 조사에서 사람들에게 
규제를 지지하는지를 물어보았고
여기 그 결과가 있습니다.
우선 사람들은
규제에는 반대한다고 했습니다.
그리고 말하더군요.
"만약 차량에 대해 이런식으로 규제를 하고,
전체 피해를 줄이고자 한다면"
"그 차를 사지 않겠어요"
아이러니하게도
피해를 최소화하려고 규제를 하는 것은
더 큰 피해를 불러올 수 있습니다
왜냐하면 사람들이 더 안전한 기술에
동의하지 않을 수도 있기 때문이죠.
비록 그것이 사람이 운전하는 것보다
훨씬 안전하다 할지라도요.
이 난제에 대한 최종 정답은 없습니다.
하지만 출발점으로서
사회를 한 곳에 모을 필요는 있습니다.
어떤 트레이드 오프가 
우리에게 편안한지를 결정하고
그 트레이드 오프를 실행하기 위한 방법들을 
제시하기 위해서 말이죠
출발점으로서

Chinese: 
如果我買了一臺有可能在
非常少數情況下把我犧牲的車，
至少我不會是唯一的冤大頭，
因為人人都享有無條件保護。
在我們的調查中，
我們有問人們是否支持規制，
這是我們的發現。
首先，人們對規制說不；
第二，他們說：
「如果你們規定車都要這樣做，
並把總傷害降至最低，
我不會去買那些車。」
所以，很諷刺，
藉由規範汽車來將傷害降至最小，
結果卻會是更多的傷害，
因為人們可能不會選擇
比較安全的科技，
即使科技比人類駕駛還安全。
關於這個謎，我沒有最終的答案，
但我認為，做為一個起始點，
我們需要社會能團結起來，
來決定我們對何種取捨
會覺得比較舒服，
並提出方法來執行這些取捨。

Russian: 
если я покупаю машину
и в редком случае она мной жертвует,
я буду не единственным лохом,
в то время как другие получают
абсолютную безопасность.
В нашем опросе мы спросили
людей, поддержат ли они такой закон,
и вот что мы обнаружили.
Прежде всего, люди были
против такого закона,
и во-вторых, они сказали:
«Если машины будут обязаны
минимизировать вред,
то я такую машину не куплю».
Как ни странно,
обязывая машины минимизировать вред,
можно спровоцировать больший вред,
так как люди не обязательно выберут
более безопасную технологию,
даже если она надёжнее, чем водитель.
У меня нет конечного ответа
на эту загадку,
но я думаю, что для начала
нужно, чтобы общество
согласилось с тем, что является
приемлемым компромиссом
и как его можно обеспечить.

English: 
if I buy a car that may
sacrifice me in a very rare case,
I'm not the only sucker doing that
while everybody else
enjoys unconditional protection.
In our survey, we did ask people
whether they would support regulation
and here's what we found.
First of all, people
said no to regulation;
and second, they said,
"Well if you regulate cars to do this
and to minimize total harm,
I will not buy those cars."
So ironically,
by regulating cars to minimize harm,
we may actually end up with more harm
because people may not
opt into the safer technology
even if it's much safer
than human drivers.
I don't have the final
answer to this riddle,
but I think as a starting point,
we need society to come together
to decide what trade-offs
we are comfortable with
and to come up with ways
in which we can enforce those trade-offs.

French: 
si j'achète une voiture pouvant
me sacrifier dans un cas très rare,
je ne vais pas être le seul pigeon
à le faire alors que tous les autres
sont protégés.
Dans notre enquête, nous avons demandé
s'ils valideraient un telle loi
et voici le résultat.
Tout d'abord, les gens ont répondu
non à la loi ;
ensuite, ils ont dit :
« Si vous légiférer pour que les voitures
réduisent les dommages,
je ne les achèterais pas. »
Donc ironiquement,
en réglant les voitures pour réduire
les dommages,
ça pourrait être pire
car les gens n'opteraient pas pour
la technologie plus sécurisée
même si c'est plus sûr qu'un conducteur.
Je n'ai pas la réponse finale de
cette énigme,
mais pour commencer,
notre société devrait s'unir
pour décider quels compromis
nous correspondent le plus
et trouver des moyens pour les appliquer.

Portuguese: 
se eu comprar um carro que possa
me prejudicar muito raramente,
não seria o único fazendo isso,
enquanto as outras pessoas
teriam proteção incondicional.
Na pesquisa, perguntamos se as pessoas
apoiariam a regulamentação
e este é o resultado.
Em primeiro lugar,
elas disseram não à regulamentação;
e em segundo, disseram:
"Se houver uma regulamentação dos carros
para fazer isso e minimizar danos totais,
não comprarei esses carros".
Ironicamente,
regulamentando-se os carros
para minimizarem os danos,
pode-se, de fato, causar mais danos
porque as pessoas podem
não optar pela tecnologia mais segura,
mesmo se for mais seguro
que motoristas humanos.
Não tenho uma resposta
definitiva para este enigma,
mas acho que, como início, precisamos
de uma resposta da sociedade,
e decidir quais são
os compromissos mais adequados
e para encontrar formas
de impor esses compromissos.

Hungarian: 
hogy ha ilyen kocsit veszek,
és kivételes esetben engem föláldoz,
nem én leszek az egyetlen palimadár,
miközben a többiek élvezik
a feltétlen biztonságot.
Kutatásunkban azt kérdeztük az emberektől,
támogatnák-e a szabályozást;
íme, az eredmény.
Nemet mondtak a szabályozásra,
s hozzátették:
"Ha szabályozzák az autókat,
hogy minimalizálják a kárt,
nem veszek olyan kocsit."
Elég vicces,
hogy a kárminimalizációs szabályozás
nagyobb kárral járhat,
mert az emberek nem a biztonságosabb
technológiát választják,
még ha a vezetőnél megbízhatóbb is.
Nincs végső válaszom e rejtélyre,
de mindenekelőtt
a társadalomnak kell megvitatnia,
mi az elfogadható kompromisszum,
és azt hogyan lehet megvalósítani.

Lithuanian: 
pirkdamas automobilį, kuris paaukos
mane itin retoje situacijoje,
nebūsiu vienintelis toks nevykėlis,
kol visi kiti mėgausis
besąlygiška apsauga.
Savo apklausoje,
mes klausėme žmonių, ar jie
palaikytų tokias nuostatas
ir štai ką atradome.
Visų pirma, žmonės nesutiko
su tokiomis nuostatomis,
ir antra, jie sakė:
„Jeigu jūs reguliuosite automobilių
veiksmus bendrai žalai mažinti,
aš nepirksiu tokių automobilių.“
Ironiška,
bet reguliuodami automobilius
bendrai žalai mažinti,
rezultate galbūt
turėsime daugiau žalos,
nes žmonės nesirinks
saugesnės technologijos,
net jeigu ji ir yra kur kas saugesnė
už žmones vairuotojus.
Aš neturiu galutinio
šios mįslės sprendimo.
Tačiau manau, kad pirmiausia
mes, visuomenė, turime susiburti
ir nuspręsti, kokius kompromisus
esame pasirengę priimti
ir surasti būdus, kuriais galėtume
šiuos kompromisus pritaikyti.

Persian: 
اگه یه ماشین بخرم که ممکن باشه
من رو در یه حالت خیلی خاص قربانی کنه،
من تنها احمقی نیستم که این کار رو میکنه
در حالی که بقیه از
محافظت بی‌قید و شرط لذت میبرن.
در نظرسنجی ما، از مردم پرسیدیم که آیا
از قانون گذاری حمایت میکنن یا نه
و به این نتایج رسیدیم.
اول از همه، مردم به قانون گذاری نه گفتند.
و دوم، اونا گفتن
"خب اگه شما برای ماشین‌ها قانون بذارین
که این‌ کار رو بکنن و ضرر رو کمینه کنن،
من اون ماشین‌ها رو نمیخرم."
پس به طرز مسخره‌ای،
با قانون‌گذاری برای ماشین‌ها
برای کمینه کردن ضرر،
ما بیشتر ضرر میکنیم!
چون مردم نمیخوان که
از تکنولوژی امن‌تر استفاده کنن
حتی اگه خیلی خیلی امن‌تر از
رانندگان انسانی باشه.
من جواب نهایی این معما رو نمیدونم،
ولی فکر میکنم به عنوان یک نقطه شروع،
ما لازم داریم که همه جمع شیم،
تا تصمیم بگیریم که چه بده-بستون‌هایی
رو باهاش کنار میایم
و به راه‌هایی برسیم که
بتونیم اون بده-بستون‌ها رو اجرایی کنیم.

Portuguese: 
enquanto indivíduo, tenho a certeza
de que, se comprasse um carro,
numa situação improvável, 
decidisse sacrificar-me,
eu não seria o único a fazer isso
enquanto as demais pessoas
teriam uma proteção ilimitada.
No inquérito, perguntámos às pessoas 
se apoiariam a regulamentação
e obtivemos este resultado:
Para começar, as pessoas disseram 
que não apoiariam a regulamentação.
E em segundo, disseram:
"Se regulamentarem os carros para 
fazer isso e minimizar os danos totais,
"não irei comprar esses carros."
Então, ironicamente,
ao regulamentar os carros 
para minimizarem os danos,
pode-se estar a causar mais danos
pois as pessoas podem não optar 
pela tecnologia mais segura
mesmo sendo mais segura
do que os condutores humanos.
Eu não possuo a resposta final
para este enigma,
mas acho que, para começar,
é necessário que a sociedade
concorde nas decisões mais adequadas
e encontre formas de como 
se podem impor essas decisões.

Japanese: 
まれに自分を犠牲にするような
車を買うのであれば
他のみんなが無条件の保護を
享受している中で
ただ１人馬鹿を見たくはありません
私たちの調査で
規制を支持するか聞いたところ
こんなことがわかりました
まず人々は規制に対しては
拒否を示しました
そして「そんな風に
被害の総量を最小化するよう
規制するのであれば
そんな車は買わない」
と言うのです
皮肉なことに
車を規制して被害を
最小化しようとすると
被害をもっと大きくすることに
なるかもしれません
人間のドライバーよりも
ずっと安全であっても
そのような技術を人々が
選ばなくなるのですから
この難問に対する最終的な答えは
持ち合わせていませんが
どんなトレードオフなら
受け入れるのか
そのようなトレードオフを
どう強制できるのか
社会が一緒になって
見出さなければならない時が
来ていると思います

German: 
dass, wenn ich ein Auto kaufe,
dass mich im seltenen Fall opfern würde,
ich nicht der einzige Dumme bin,
während alle anderen
bedingungslose Sicherheit genießen.
In unser Umfrage haben wir gefragt,
ob Vorschriften befürwortet werden
und hier ist die Antwort.
Zuerst haben sich die Teilnehmer
gegen Vorschriften ausgesprochen.
Dann haben sie gesagt:
„Wenn Autos so reguliert werden
und den Schaden minimieren sollen,
kaufe ich das Auto nicht. “
Ironischerweise
indem wir Autos regulieren,
so dass sie Schaden minimieren
könnten wir noch mehr Schaden nehmen,
weil die Menschen sich nicht
für sichere Technologie entscheiden,
obwohl sie viel sicherer
als der Mensch ist.
Ich habe keine ultimative Antwort
für dieses Rätsel,
aber ich denke,
zuallererst sollte die Gesellschaft
zusammen kommen
und die Kompromisse beschließen,
die wir verkraften können
und Ideen entwickeln,
wie wir diese durchsetzen können.

Chinese: 
如果我买了一辆会在极端情况下
牺牲我的利益的车，
我不会是唯一一个自残，
让其他所有人都受到无条件保护的人。
在我们的调查问卷中确实
也问了人们，是否会支持立法，
调查结果如下。
首先，人们并不赞同立法，
其次，他们认为，
“如果你们要制定规则保证
这些车造成的损失最小，
那我肯定不会买。”
讽刺的是，
让无人车遵循最小损失原则，
我们得到的反而可能是更大的损失，
因为人们可能放弃
使用这种更安全的技术，
即便其安全性远超过人类驾驶员。
对于这场争论
我并没有得到最终的答案，
不过我认为作为一个开始，
我们需要团结整个社会
来决定哪种折中方案
是大家都可以接受的，
更要商讨出可以有效推行
这种权衡决策的方法。

Dutch: 
indien mijn auto mij opoffert
in een buitengewoon scenario,
ik niet de enige ben die dat doet en dat 
anderen ongelimiteerd beschermd worden.
In onze enquête vroegen we mensen
of ze regulatie zouden steunen
en dit is waar we achter kwamen.
Ten eerste, mensen
zeiden nee tegen regulatie.
En ten tweede zegt men:
"Als je wel de auto's reguleert
om letsel te verminderen,
dan koop ik die autos niet."
Ironisch:
door auto's te reguleren
om letsel te verminderen,
eindigen we misschien met meer letsel.
Want mensen kiezen dan niet
voor de veiligere technologie,
zelfs als die veel veiliger is dan mensen.
Ik heb niet de oplossing
voor dit probleem,
maar ik denk dat om te beginnen
de maatschappij samen moet komen
om te besluiten met welke trade-offs
we comfortabel zijn,
en om manieren te bedenken
waarop we die kunnen afdwingen.

Turkish: 
çok nadir bir durumda beni
gözden çıkarabilecek bir araba alırsam,
diğer herkes
koşulsuz korumanın keyfini çıkarırken
bunu yapan tek keriz ben olmam.
Ankette insanlara, yasal düzenlemeye
destek verip vermeyeceklerini sorduk
ve sonuç şu şekildeydi.
İlk önce, insanlar yasaya hayır dediler
ve sonra dediler ki,
''Arabaları bunun için ve toplam zararı
en aza indirgemek için düzenlersek,
bu arabaları satın almam.''
İşe bakın ki,
zararı en aza indirgemek için
arabaları düzenleyerek
daha fazla zarara sebebiyet verebiliriz,
çünkü insanlar daha güvenli olan bu
teknolojiye dahil olmak istemeyebilirler,
insan sürücülerden daha güvenli olsa bile.
Bu bilmeceye nihai bir cevabım yok,
ama başlangıç noktası olarak,
toplumun bir araya gelip
risk oranı dengesinde ortak bir noktada
karara varması gerekir
ve bu denge unsurunun uygulamasında
izleyeceğimiz yol belirlenebilir.

Spanish: 
si compro un auto que en un caso
muy extremo podría llegar a sacrificarme,
no soy el único papanatas haciéndolo
mientras todos los demás
gozan de protección ilimitada.
En nuestra encuesta indagamos
acerca de la idea de la regulación,
y el resultado fue este:
Primero, la gente dijo 
"no" a la regulación;
y segundo:
"Bueno, si van a regular los autos
para actuar así y minimizar el daño total,
yo no los voy a comprar".
Entonces, irónicamente,
al regular los autos
para minimizar el daño,
podríamos acabar con más daño
porque la gente no adoptaría
esta nueva tecnología
aun cuando es mucho más segura
que los conductores humanos.
No tengo la respuesta final
a este acertijo,
pero creo que, para empezar,
necesitamos que la sociedad
se ponga de acuerdo
sobre las concesiones
que está dispuesta a aceptar,
y las posibles maneras
de imponer esas concesiones.

Italian: 
che, se comprassi una macchina 
che potrebbe sacrificarmi in rari casi,
non sia io l'unico babbeo a farlo
mentre tutti gli altri si godono 
la loro protezione incondizionata.
Nel nostro sondaggio, 
abbiamo domandato alle persone
se sostengono la regolamentazione
e abbiamo scoperto
che prima di tutto, le persone
hanno detto no alla regolamentazione;
e poi hanno detto,
"Se voi regolamentate le macchine 
a minimizzare il danno totale,
io non le comprerò."
Così ironicamente,
dal regolamentare le macchine
a minimizzare il danno
finiamo per creare un danno maggiore
perché le persone potrebbero 
non scegliere la tecnologia più sicura,
anche se fosse più sicura 
degli autisti umani.
Non ho una risposta finale 
a questo rompicapo,
ma penso che come punto di partenza,
ci serve una società coesa
per decidere il compromesso
con cui siamo più a nostro agio
e trovare delle soluzioni per poter 
applicare questi compromessi.

Ukrainian: 
що якщо я куплю автомобіль, який може
пожертвувати мною у рідкому випадку,
то я не єдиний невдаха,
який це робить,
поки всі інші насолоджуються
безумовним захистом.
У нашому опитуванні ми запитали людей,
чи підтримали б вони правила,
і ось, що ми виявили.
Перш за все, люди відмовилися від правил;
і по-друге, вони сказали:
"Якщо за правилами автомобілі будуть
робити це і мінімізувати загальну шкоду,
то я не купуватиму
такі автомобілі."
Тож за іронією,
встановивши правила
для автомобілів мінімізувати шкоду,
ми можемо зрештою прийти
до ще більшої шкоди,
адже люди не підтримають
більш безпечну технологію,
навіть, якщо вона набагато
безпечніша, ніж люди-водії.
В мене немає остаточної відповіді
на цю дилему,
але я вважаю,
що для початку треба,
щоб суспільство зібралося разом
для вирішення, які компроміси
є комфортними для нас
та придумати шляхи
для втілення цих компромісів.

iw: 
אם אני קונה מכונית שאולי
תקריב אותי במקרה נדיר מאוד,
אני לא הפראייר היחיד שעושה את זה
בעוד כל האחרים נהנים מהגנה בלתי מותנית.
בסקר שלנו, שאלנו אנשים אם הם 
יתמכו ברגולציה
והנה מה שמצאנו.
ראשית, אנשים אמרו לא לרגולציה;
ושנית, הם אמרו,
"אם תהיה תקנה שהמכוניות
יעשו זאת, וכדי למזער את הנזק הכולל,
אני לא אקנה את המכוניות האלו".
אז באופן אירוני,
על ידי הסדרת המכוניות כדי למזער נזק,
אנו עשויים למעשה לסיים עם יותר נזק
כי אנשים עשויים לא לבחור 
בטכנולוגיה הבטוחה יותר
גם אם זה הרבה יותר בטוח מנהגים אנושיים
אין לי את התשובה הסופית לחידה זו,
אבל לדעתי, כנקודת מוצא,
אנחנו צריכים שהחברה תתאחד
כדי להחליט מהן החלופות 
שאיתן אנו מרגישים בנוח
ולמצוא דרכים שבעזרתן נוכל לאכוף אותן.

Arabic: 
إن اشتريت سيارة يمكنها أن تضحي بي
في حالة نادرة جدا،
فلن أكون الأبله الوحيد
الذي يقوم بهذا
بينما يتمتع الجميع بحماية لامحدودة.
في استقصائنا، سألنا الناس فيما إن كانوا
سيدعمون القوانين
وإليكم ماوجدنا.
أولا، رفض الناس القوانين،
ثانيا، قالوا،
"حسنا، إن قننتم السيارات لتقوم بهذا
وتقلل مجموع الضرر،
فلن أشتري هذه السيارة."
لذا، من المضحك،
أنه بتقنين السيارات لتقليل الضرر،
ربما سينتهي بنا المطاف
بالمزيد من الضرر
لأن الناس لن يختاروا التكنولوجيا
الأكثر أمنا
حتى وإن كانت أكثر أمنا
من الأشخاص السائقين.
ليست لدي إجابة نهائية لهذا اللغز،
لكنني أعتقد كبداية،
نريد أن يجتمع المجتمع
لنقرر ما هي المقايضات التي نرتاح لها
ونجد طرقا يمكننا بها فرض هذه المقايضات.

Chinese: 
做為一個起始點，我的出色學生們，
艾德蒙．艾瓦和索漢．達蘇札，
建立了「道德機器」網站，
它會為你產生隨機的情境，
基本上是一連串的隨機兩難，
你得要選擇在給定的情境中，
車要怎麼做。
我們會改變受害者的年齡和物種。
目前我們已經從
來自全世界超過 100 萬人，
收集到了超過 500 萬個決定，
透過網站取得的。
這能協助我們勾勒出初步的狀況，
了解人們對怎樣的取捨
感到比較舒服、
什麼對他們比較重要──
且是跨文化的。
但更重要的，
做這個演練，能協助人們認清
做那些決定有多困難、
而管理者的工作就是要
做不可能的選擇。
也許這能協助我們這個社會
去了解這類的取捨，

Japanese: 
その出発点として
私の優秀な教え子たち
エドモンド・アワドと ソハン・ドスーザが
『モラル・マシン』という
ウェブサイトを作りました
様々なシナリオを
ランダムに生成して
一連のランダムな
ジレンマ状況に対して
車がどうすべきか
選んでもらいます
被害者の年齢から生物種まで
様々に変えたシナリオがあります
このウェブサイトを通じて
世界の100万人以上の
人たちから
500万以上の決断のデータを
集めました
これは 文化を超えて
人々にとって
どんなトレードオフなら良く
何は譲れないのか
大まかな理解を得る
助けになります
さらに大事な点は
このようなことを通して
そういう決断がいかに難しいか
当局がいかに無理な選択を迫られているか 
人々が認識するようになることです
そして いつか規制に
盛り込まれるトレードオフを

Portuguese: 
Como ponto de partida, 
os meus brilhantes alunos,
Edmond Awad e Sohan Dsouza,
criaram o site "Moral Machine",
que gera cenários aleatórios
— basicamente, um monte
de dilemas aleatórios
em que vocês têm que escolher
o que um carro deve fazer
num determinado cenário.
E vamos mudando as idades
e as espécies das diversas vítimas.
Até agora, recolhemos 
mais de cinco milhões de respostas
de mais de 1 milhão de pessoas,
a nível mundial,
através desse site.
Isto está a ajudar-nos
a formar um quadro inicial
do tipo de decisões que 
as pessoas acham adequadas
e o que é importante para elas,
mesmo noutras culturas.
Mas mais importante,
fazer este exercício ajuda as pessoas
a reconhecer a dificuldade
de fazer aquelas escolhas
e que a entidade reguladora está
incumbida de fazer escolhas impossíveis.
Enquanto sociedade, talvez isto nos 
ajude a perceber que tipos de decisões

Korean: 
저의 똑똑한 학생들인
에드몬드 어와드와 소한 드수자는
도덕 기계 (Moral Machine) 
웹사이트를 만들었습니다.
랜덤한 시나리오들을
여러분에게 보여줍니다.
기본적으로 랜덤한 딜레마들이 
연속적으로 나오는 것이고요.
여러분은 차가 무엇을 
해야 하는지를 골라야 합니다.
여기서 희생자들의 
나이와 인종은 각각 다릅니다.
지금까지 우리는
500만 건이 넘는 결정들을 수집했습니다.
전 세계적으로 
100만명이 넘는 사람들이
웹사이트를 통해 참여했습니다.
이 결과는 저희가 초기 연구를 만드는 데에
도움이 되고 있습니다.
사람들이 편안해 하는 
트레이드 오프가 무엇이고
무엇이 그들에게 중요한지에 대해서
문화를 넘어서까지 말이죠.
하지만 더 중요한 것은
이 훈련은 사람들로 하여금
이런 선택을 하는 것이 힘들다는 것과
결정권자들이 불가능한 선택을 가지고 일함을
인지시키는데에 도움이 되고 있습니다.
이것은 사회가 궁극적으로 규제로 만들 
트레이드 오프의 종류를 이해하는 데

French: 
Pour commencer, mes brillants étudiants,
Edmond Awad et Sohan De Souza
ont créé le site Moral Machine;
celui-ci génère des scénarios aléatoires--
une série de dilemmes à la chaîne
où vous devez choisir ce que ferait 
la voiture dans ces cas.
Nous varions les âges et la nature 
des différentes victimes.
Jusqu'à présent, nous avons récolté
plus de 5 millions de décisions
prises par plus d'un million de gens
depuis le site internet.
Ceci nous aide à avoir une idée
de quels compromis les gens sont prêts
à accepter
et ce qui compte pour eux--
même à travers les cultures.
Mais surtout,
ces exercices aident les gens
à reconnaître
la difficulté que représente le fait
de faire un choix
et que les lesgilateurs sont confrontés
à des choix impossibles.
Peut-être que ceci nous aidera
à comprendre, en tant que société,

German: 
Als Grundlage haben
meine brillanten Studenten,
Edmong Awad und Sohan Dsouza,
die Moral Machine Website gebaut,
die eine Reihe von Szenarien vorgibt,
eine Reihe von zufälligen
Dilemmas in Folge,
bei denen Sie bestimmen müssen,
wie das Auto reagiert.
Wir verändern das Alter und sogar
die Spezies der verschiedenen Opfer.
Bisher haben wir 
über fünf Millionen Entscheidungen
von über einer Million Menschen weltweit
mit der Webseite erhoben.
Und das hilft uns dabei,
von Anfang an zu verstehen,
mit welchen Kompromissen
die Menschen leben können
und was ihnen wichtig ist –
sogar kulturübergreifend.
Das Wichtigste ist jedoch,
dass diese Übung dabei hilft,
zu verstehen,
wie schwierig es ist,
diese Entscheidungen zu treffen,
und dass Regulatoren vor
unmöglichen Entscheidungen stehen.
Und vielleicht hilft es
der Gesellschaft zu verstehen,

English: 
As a starting point,
my brilliant students,
Edmond Awad and Sohan Dsouza,
built the Moral Machine website,
which generates random scenarios at you --
basically a bunch
of random dilemmas in a sequence
where you have to choose what
the car should do in a given scenario.
And we vary the ages and even
the species of the different victims.
So far we've collected
over five million decisions
by over one million people worldwide
from the website.
And this is helping us
form an early picture
of what trade-offs
people are comfortable with
and what matters to them --
even across cultures.
But more importantly,
doing this exercise
is helping people recognize
the difficulty of making those choices
and that the regulators
are tasked with impossible choices.
And maybe this will help us as a society
understand the kinds of trade-offs

Ukrainian: 
У якості стартової точки,
мої блискучі студенти,
Едмонд Авад та Сохан Дсоуза,
створили веб-сайт - Моральну Машину,
яка генерує для вас випадкові сценарії -
по суті, набір випадкових дилем
одна за одною,
де вам потрібно обрати, що автомобіль
має зробити у наданому сценарії.
Ми також змінюємо вік і навіть
біологічні види різних потерпілих.
На даний момент ми зібрали більше
п'яти мільйонів рішень
від більше, ніж одного мільйона людей
по всьому світу
з веб-сайту.
І це допомагає нам
отримати первинну картину того,
які компроміси є прийнятні для людей
та що є важливо для них -
навіть поміж різних культур.
Та що важливіше,
виконання цієї вправи
допомагає людям усвідомити
складність прийняття таких рішень
і те, що перед регулювальниками
постає неможливий вибір.
І, можливо, це допоможе нам,
як суспільству, зрозуміти ті компроміси,

Turkish: 
Başlangıç noktası olarak,
benim parlak öğrencilerim
Edmond Awad ve Sohan Dsouza,
Ahlak Makinesi internet sitesini kurdu.
Bu site size rastgele senaryolar sunuyor,
bir dizi ikilemler yöneltiyor
ve verilen bu senaryoda, arabanın ne
yapması gerektiğine karar veriyorsun.
Yaşları ve hatta farklı kurbanların
türlerini bile çeşitlendirdik.
Şu ana kadar, site üzerinden
dünya genelinde
bir milyonu aşkın insan tarafından
beş milyonun üzerinde
karar topladık.
Bu bulgular, kültürler arası bile
insanların neleri feda edebileceklerini
ve onlar için
önem arz eden şeyleri anlayıp
bir temel oluşturmamızda yardımcı oluyor.
Ama daha önemlisi,
bu araştırma insanlara,
bu seçimleri yapmanın
ne kadar zor olduğunu
ve yasal düzenlemelerin, imkânsız
seçimler ile çevrelendiğini hatırlatıyor.
Bu belki de toplum olarak,
nihayetinde yasalara işlenecek türde

Persian: 
به عنوان یک نقطه شروع،
دانشجویان فوق‌العاده من،
ادموند اواد و سوهن دئسوزا.
سایت ماشین با اخلاق رو ساختند،
-- که سناریوهای تصادفی
برای شما تولید میکنه
اساساً دنباله‌ای از تعدادی مساله تصادفی
که شما باید تصمیم بگیرین که ماشین
در سناریو گفته شده چه کار باید بکنه.
و ما حتی سن و نوع قربانی‌ها رو عوض میکنیم.
تا اینجا ما بیش از ۵ میلیون تصمیم
از این سایت برای این سناریو‌ها جمع کردیم
توسط یک میلیون نفر در سرتاسر جهان
و این کمک میکنه که
یک تصویر ابتدایی داشته باشیم
از اینکه مردم
با چه بده-بستان‌هایی کنار میان
و چه چیزهایی براشون مهمه --
حتی در فرهنگ‌های مختلف.
ولی مهمتر از این،
انجام این کار،
به مردم کمک میکنه که
دشوار این تصمیم گرفتن‌ها رو بشناسن
و اینکه قانون‌گذاران
با تصمیم‌های غیرممکن روبرو هستند.
و شاید این به ما به عنوان یک جامعه کمک کنه
انواع بده-بستانها رو درک کنیم

Russian: 
В качестве отправного пункта
мои замечательные студенты
Эдмонд Авад и Сохан Дзуза
сделали сайт «Moral Machine»,
который генерирует различные сценарии,
по сути, различные дилеммы,
где вы выбираете, что машина должна
сделать в каждом случае.
Мы варьируем возраст
и даже биологический вид жертв.
Мы собрали более пяти миллионов решений
от более миллиона человек со всего мира
на этом сайте.
Это помогает нам иметь
раннее представление
о приемлемых компромиссах
и о том, что важно людям
разных культур.
И ещё важнее,
такое упражнение помогает людям осознать
тяжесть такого рода решений
и что тот, кто принимает закон,
столкнётся с невыносимым выбором.
И возможно, это даст нам,
обществу, понять, какого рода компромиссы

Spanish: 
Como punto de partida,
mis brillantes alumnos,
Edmond Awad y Sohan Dsouza,
construyeron el sitio web Moral Machine,
que genera y presenta
situaciones hipotéticas al azar;
es básicamente una secuencia
aleatoria de dilemas
donde tienes que elegir
qué debería hacer el auto en cada caso.
Y variamos las edades y hasta las especies
de las distintas víctimas.
Hasta ahora hemos recolectado
más de 5 millones de decisiones,
de más de un millón de personas
en todo el mundo
a través del sitio web.
Esto nos está ayudando
a pintar un panorama inicial
de las concesiones
que la gente está dispuesta a hacer
y de qué es lo que les importa,
incluso en distintas culturas.
Pero, lo que es más importante,
este ejercicio está ayudando
a la gente a comprender
lo difícil que es tomar esas decisiones,
y que los organismos reguladores
se enfrentan con decisiones imposibles.
Y tal vez esto nos ayude, como sociedad,
a entender el tipo de concesiones

iw: 
כנקודת מוצא, הסטודנטים המבריקים שלי,
אדמונד עוואד וסוהאן דסוזה,
בנו את אתר האינטרנט "מכונת המוסר",
שמייצר תרחישים אקראיים -
בעצם מקבץ של דילמות אקראיות ברצף
שבהן תצטרכו לבחור מה המכונית 
צריכה לעשות בתרחיש נתון.
ואנחנו משנים את הגילאים ואפילו את המין
של הקורבנות השונים.
עד כה אספנו מעל 5 מיליון החלטות
של יותר ממיליון אנשים ברחבי העולם
מהאתר.
וזה עוזר לנו ליצור תמונה מוקדמת
של החלופות שלאנשים נוח איתן
ומה חשוב להם -
אפילו באופן שחוצה תרבויות.
אבל חשוב יותר,
לעשות את התרגיל הזה
עוזר לאנשים לזהות
את הקושי שבקבלת החלטות אלה
וכי על הרגולטורים מוטלות 
בחירות בלתי אפשריות.
ואולי זה יעזור לנו כחברה
להבין את סוגי החלופות

Portuguese: 
Como ponto de partida,
meus alunos brilhantes,
Edmond Awad e Sohan Dsouza,
criaram o site chamado Moral Machine,
que produz situações aleatórias,
ou seja, vários dilemas
aleatórios em sequência,
nos quais se deve escolher que decisão
o carro deve tomar numa certa situação.
Variamos as idades e até mesmo
os tipos das diferentes vítimas.
Até agora, obtivemos
mais de 5 milhões de respostas,
de mais de um milhão
de pessoas no mundo todo,
a partir do site.
Isso está nos ajudando
a formar um quadro inicial
de como as pessoas encaram os compromissos
e com o que elas se importam,
mesmo em outras culturas.
O mais importante
ao fazer este exercício,
é ajudar as pessoas a reconhecer
a dificuldade de se fazerem as escolhas,
que os legisladores terão de enfrentar
com essas alternativas impossíveis.
Talvez isso ajude a sociedade
a entender os tipos de compromissos

Croatian: 
Za početak, moji sjajni studenti,
Edmond Awad i Sohan Dsouza,
napravili su internetsku stranicu
Moral Machine,
koja vam postavlja nasumične događaje --
obično gomilu nasumičnih dilema u nizu,
gdje vi trebate odlučiti što bi automobil
trebao napraviti u određenoj situaciji.
U ponudi imamo žrtve raznih dobi i vrsta.
Dosad smo prikupili
više od pet milijuna odluka
od preko milijun ljudi diljem svijeta
putem te internetske stranice.
Ovo nam od početka pomaže u razumijevanju
s kakvim kompromisima se ljudi slažu
te što je njima važno --
čak i u različitim kulturama.
No, važnije od toga,
ljudima se time pomaže u shvaćanju
težine donošenja tih odluka
te da su oni koji donose odluke
zaduženi za nemoguće izbore.
I možda će upravo ovo pomoći nama
kao društvu u razumijevanju kompromisa

Italian: 
Come punto di partenza,
i miei brillanti studenti,
Edmond Awad e Sohan Dsouza,
hanno costruito il sito Internet 
della Macchina Morale,
che genera scenari casuali --
praticamente una serie 
di dilemmi in sequenza
dove bisogna scegliere cosa deve fare 
la macchina in uno specifico scenario.
Facciamo variare l'età 
e anche la specie delle vittime.
Fino ad oggi abbiamo raccolto
più di cinque milioni di decisioni
da più di un milione di persone
nel mondo
grazie al sito.
E questo ci aiuta 
ad avere un'idea iniziale
delle scelte con cui
le persone sono a loro agio,
e che cosa è importante per loro --
anche tra varie culture.
Ma soprattutto,
fare questo esercizio aiuta 
le persone a riconoscere
che compiere queste scelte
è complesso
e che chi decide le regole
è incaricato di scelte impossibili.
E forse questo può aiutarci come società 
a riconoscere l'importanza delle decisioni

Hungarian: 
Kiváló hallgatóim,
Edmond Awad és Sohan Dsouza
létrehozták a Moral Machine honlapot,
amely véletlenszerűen
generál baleseti helyzeteket,
dilemmákat,
ahol ki kell választanunk,
mit tegyen az autó.
Az áldozatok korát
és fajtáját változtatjuk.
Idáig több mint ötmillió döntést
gyűjtöttünk össze világszerte,
egymillió fő részvételével
a honlapról.
Ezzel fölvázolhatjuk,
milyen kompromisszummal
lennének elégedettek az emberek,
és mi fontos nekik
a különböző kultúrákban.
De még ennél is fontosabb,
hogy e gyakorlatok
megértetik az emberekkel,
milyen bonyolult dönteni,
s hogy a szabályozó szervek
lehetetlen döntésekre kényszerülnek.
Talán ez elősegíti, hogy a társadalom
megértse a kompromisszum szerepét

Arabic: 
وكنقطة بداية، بنى طلابي الأذكياء،
إدموند عواد و سوهان دسوزا،
موقع Moral Machine،
الذي يخرج سيناريوهات عشوائية لكم --
مجموعة من المعضلات العشوائية بتسلسل
حيث يمكنك أن تختار ما الذي يجب
أن تقوم به السيارة في سيناريو معين.
ونقوم بتغيير الأعمار
وأنواع الضحايا المختلفة.
ولحد الآن فقد جمعنا 5 ملايين قرار
من ما يفوق مليون شخص حول العالم
من الموقع.
وهذا يساعدنا على تكوين صورة مبكرة
عن ماهية المقايضات التي يرتاح لها الناس
وما هي الأشياء المهمة بالنسبة لهم --
حتى وإن اختلفت الثقافات.
لكن الأمر الأهم،
يساعد هذا التمرين الناس على التعرف
على صعوبة اتخاذ هذه الاختيارات
وأن أمام واضعي القوانين مهمة صعبة 
ذات اختيارات مستحيلة.
وهذا سيساعدنا كمجتمع على أن نفهم
أنواع المقايضات

Dutch: 
Dus als een startpunt
hebben mijn briljante studenten
Edmond Awad en Sohan Dsouza
de Morele Machine website gebouwd,
die random scenarios voor je maakt --
simpelweg een hoop
random dilemma's op een rij
waarbij jij moet kiezen wat de auto
moet doen in dat scenario.
Hierbij variëren de leeftijden
en zelfs de diersoort van de slachtoffers.
Tot nu toe hebben we meer
dan vijf miljoen beslissingen verzameld,
door meer dan een miljoen mensen,
via de website.
Dit helpt ons een beeld te schetsen
van het soort trade-offs
waar men comfortabel mee is
en wat voor hen belangrijk is --
zelfs voor verschillende culturen.
Maar nog belangrijker,
door dit te doen herkennen mensen
hoe lastig het is
om dit soort keuzes te maken
en dat regelgevers de taak hebben
om onmogelijke keuzes te maken.
En misschien helpt dit ons
om verschillende trade-offs te begrijpen

Chinese: 
以此为基础，我的两位出色的学生，
Edmond Awad和Sohan Dsouza,
创建了“道德衡量器”网站，
可以为你设计出随机的场景——
简单来说就是一系列
按顺序发生的随机困境，
你需要据此判断无人车应该如何抉择。
我们还对不同的（潜在）受害者
设置了年龄，甚至种族信息。
目前我们已经搜集到了
超过5百万份决定，
来自于全世界超过1百万人
在网上给出的答案。
这帮助我们
形成了一个概念雏形，
告诉了我们对人们来说
哪些折中方案最适用，
他们最在意的是什么——
甚至跨越了文化障碍。
不过更重要的是，
这项练习能帮助人们认识到
做出这些选择有多难，
而立法者更是被要求做出
不现实的选择。
这还可能帮助我们整个社会
去理解那些最终将会被

Lithuanian: 
Pirmąjį žingsnį žengė mano
puikūs studentai
Edmond Awad ir Sohan Dsouza
sukurdami Moral Machine
(ang. moralinė mašina) tinklapį,
kuris generuoja atsitiktines situacijas,
tiesiog daugybę
atsitiktinių dilemų paeiliui.
Ir jūs turite nuspręsti, kaip automobilis
turėtų pasielgti duotoje situacijoje.
Situacijose mes keičiame
aukų amžių ir netgi rūšį.
Šiuo metu turime surinkę
virš penkių milijonų sprendimų
iš daugiau nei milijono žmonių
visame pasaulyje,
šio tinklapio dėka.
Ši informacija padeda mums
susidaryti ankstyvą įspūdį
apie tai, kokius kompromisus
žmonės yra pasirengę priimti,
ir kas jiems rūpi,
visose kultūrose.
Tačiau svarbiausia yra tai,
kad toks pratimas padeda žmonėms suvokti
kokie sudėtingi yra šie sprendimai,
ir kokius neįmanomas užduotis
turi atlikti reguliuotojai.
Galbūt tai padės mums, kaip
visuomenei, suprasti kokie kompromisai

Portuguese: 
que existirão na regulamentação.
Fiquei muito feliz ao ouvir
que o primeiro conjunto de regulamentos,
anunciado pelo Departamento
de Transportes, na semana passada,
tem uma lista de 15 pontos
que todas as montadoras devem fornecer,
e o número 14 é uma consideração
ética, de como se vai lidar com isso.
Temos pessoas refletindo
sobre suas próprias decisões,
porque se mostrou a elas um resumo
de suas próprias escolhas.
Vamos ver um exemplo,
e já aviso que este não é
um exemplo de um usuário típico.
Este é o personagem mais sacrificado
e mais salvo para essa pessoa.
(Risos)
[Resultados]
[Personagem mais salvo]
[Personagem mais morto]
Alguns podem concordar com ele,
ou com ela, não sabemos.
Essa pessoa também parece preferir
ligeiramente passageiros do que pedestres

iw: 
שייושמו בסופו של דבר.
ואכן, שמחתי מאוד לשמוע
שמערכת התקנות הראשונה
שהגיעה ממשרד התחבורה --
הודיעה בשבוע שעבר --
שהיא כללה רשימה של 15
נקודות שעל כל יצרן מכוניות לספק,
ומספר 14 היה שיקול מוסרי -
איך אתם מתכוונים להתמודד עם זה.
אנחנו גם משקפים לאנשים את ההחלטות שלהם
על ידי הצגת סיכומים של מה שהם בחרו.
אתן לכם דוגמה אחת --
אני רק עומד להזהיר אתכם
שזו לא דוגמה טיפוסית שלכם,
המשתמש הטיפוסי שלכם.
אלו הדמות שהכי נשמרה וזו שהכי הוקרבה
אצל אדם מסוים.
(צחוק)
אחדים מכם עשויים להסכים איתו,
או איתה, איננו יודעים.
אבל נראה שאדם זה מעדיף במקצת
את הנוסעים על פני הולכי רגל

Turkish: 
risk oranı tahlilini
anlamamıza yardımcı olabilir.
Geçtiğimiz hafta,
Ulaştırma Bakanlığı tarafından yapılan
ilk yasal düzenlemelerden
haberdar olduğuma çok sevindim.
Tüm araba üreticilerinin sağlaması gereken
15 maddelik bir kontrol listesine sahip
ve 14. madde işin
ahlaki boyutu ile alakalıydı,
bu sorumluluğu
nasıl taşıyabileceğimizle alakalıydı.
İnsanlara, seçimlerinin sonuçlarını
özet şeklinde sunarak
kendi kararlarının getirilerini gösterdik.
Sizlere bir örnek vereceğim.
Belirtmeliyim ki bu genel bir örnek,
genel bir kullanıcı değil.
Bu kişi için en çok kurtarılan (kedi)
ve feda edilen (bebek) görüldüğü gibi.
(Gülüşmeler)
Bazılarınız bu kişiye katılıyor olabilir,
bilmiyoruz.
Bu kişi aynı zamanda seçimlerinde,
yayalara karşın yolcuları daha çok tutuyor

Korean: 
도움이 될 것입니다.
지난주에 교통부에서
첫 번째 규제를 발표했다는 소식을 듣고
저는 참으로 기뻤습니다.
이 규제는 모든 자동차 회사들이 제공해야 할
15개의 체크리스트를 담고 있는데
이 중 14번이 윤리적인 고려입니다.
그걸 어떻게 처리할 것이냐
하는 것이죠.
우리는 또 사람들에게
자신의 선택들을 돌이켜보게 합니다.
그들이 선택한 것을
다시 요약해줌으로써 말이죠.
한 가지 예를 들어볼게요.
여러분에게 경고드립니다.
이것은 일반적인 예나
일반적인 사용자가 아닙니다.
이것은 이 사람에게
가장 희생되고 가장 구원받은 캐릭터입니다.
(웃음)
여러분 중 일부는
이 사람에게 동의하실지도 모르겠어요.
하지만 이 사람의 선택을 살펴보면

Spanish: 
que se van a implementar,
en última instancia, como normativa.
Me alegré mucho cuando me enteré
de que el primer conjunto de regulaciones
que publicó el Departamento de Transporte
la semana pasada
incluye una lista de 15 ítems
que deben presentar los fabricantes,
y el número 14
es "consideraciones éticas";
cómo van a manejar ese tema.
En el sitio, la gente también
puede reflexionar sobre sus decisiones
al recibir un resumen
de las opciones que eligieron.
Les voy a dar un ejemplo.
Les advierto que no es un ejemplo típico;
no es un usuario típico.
Estos son los individuos que esta persona
más salvó y más sacrificó.
(Risas)
Algunos de Uds. estarán de acuerdo con él,
o ella, no sabemos.
Esta persona también parece inclinarse
más a favor del pasajero que del peatón,

Lithuanian: 
galiausiai bus pritaikyti realybėje.
Nudžiugau išgirdęs,
kad į pirmuosius Transporto
departamento išleistus nuostatus,
paskelbtus praėjusią savaitę,
buvo įtrauktas ir 15-os
punktų kontrolinis sąrašas,
skirtas automobilių gamintojams.
14-as punktas jame – etikos klausimas –
kaip ketinate tai spręsti.
Mes taip pat skatiname žmones
pagalvoti apie savo pačių sprendimus
pateikdami jiems jų
pasirinkimų santraukas.
Duosiu jums vieną pavyzdį.
Tik įspėju, tai nėra įprastas pavyzdys
ir tai nėra įprastas vartotojas.
Tai – šio dalyvio dažniausiai išgelbėtas
ir dažniausiai užmuštas personažai.
(Juokas.)
Kai kurie jūsų galbūt sutiks su juo
ar ja, mes nežinome.
Tačiau šis asmuo savo pasirinkimuose

Arabic: 
التس سيتم تطبيقها في النهاية في القوانين.
وبالفعل، كنت سعيدا جدا حينما سمعت
بأن الدفعة الأول من القوانين
التي صدرت عن هيئة المواصلات --
أُعلِن عنها الأسبوع الماضي --
تتضمن لائحة من 15 نقطة
على كل مصنعي السيارات توفيرها،
والنقطة رقم 14 كانت ذات اعتبار أخلاقي --
كيف ستقوم بالتعامل مع هذا.
لقد جعلنا الناس يفكرون في قراراتهم الخاصة
من خلال إعطائهم ملخصات عما اختاروه.
سأعطيكم مثالًا --
وعلي أن أحذركم
أن هذا ليس مثالا اعتدتم عليه،
كمستعمل اعتيادي
هذه هي الشخصية التي يتم إنقاذها بكثرة
وهذه هي التي يتم التضحية بها
(ضحك)
قد يتفق بعضكم معه،
أو معها، لا ندري.
لكن يبدو أن هذا الشخص يفضل
قليلا الركاب على الراجلين

Persian: 
که بالاخره در مقررات به کار خواهد رفت.
و در واقع، من خیلی خوشحالم که میشنوم
اولین مجموعه قوانین و مقرارت
توسط وزارت حمل و نقل --
هفته پیش اعلام شد --
شامل یک چک لیست ۱۵ امتیازی
برای تمام خودروسازان،
و شماره ۱۴ یک ملاحظه اخلاقی بود --
با آن چطوری کنار خواهید آمد.
همچنین ما افرادی رو داریم که
با دادن خلاصه‌‌ای از آنچه انتخاب کرده‌اند
تصمیماتشون رو بازتاب میدن.
بهتون یک مثال نشون میدم --
فقط بهتون هشدار میدم که
این یک مثال عادی نیست،
یا کاربر عادی.
این مثال بیشترین قربانی و بیشترین نجات 
توسط این آدم رو نشون میده.
(خنده حاضرین)
بعضی از شما شاید
با نظر این مرد موافق باشین،
یا شایدم نظر این زن، نمیدونم.
ولی به نظر میرسه این فرد
یکم سرنشین‌ها رو نسبت به عابرین پیاده

French: 
quels compromis seront mis en place
dans la loi.
En effet, j'ai été très heureux
d'entendre que la première série
venue du Département des Transports--
annoncée la semaine dernière
a inclus une liste de 15 points à remplir
par tous les fabricants de voitures.
Le numéro 14 était la consideration 
éthique --
comment allez-vous gérer ça ?
Ces personnes peuvent aussi réfléchir
à leurs décisions
en recevant des résumés à propos
de leurs choix.
Je vais vous donner un exemple --
je vous avertis juste que ceci n'est pas
un exemple typique,
ni un utilisateur typique.
Voici ce que la personne a sauvé
et a tué le plus.
(Rires)
Certains d'entre vous allez être
d'accord avec lui ou avec elle.
Cette personne a aussi l'air de préférer
les passagers aux piétons

Chinese: 
終究這類的取捨在將來也會
被納入到規制當中。
的確，我非常高興聽到
來自交通部的
第一組規定
在上週宣佈，
內容有一張清單，上面有 15 個項目，
是要汽車製造商避免的，
而第 14 項就是道德考量──
你要如何去處理它。
也有人會反思他們自己的決定，
我們會把人們所做的決定
歸納給他們。
我舉一個例子給各位──
我要先警告各位，
這不是典型的例子，
使用者也不是典型的。
這個人最會犧牲的角色（小孩）
及最會拯救的角色（貓）是這些。
（笑聲）
有些人可能認同他，
或她，性別不詳。
但這個人對於乘客的偏好
也略高於行人，

Ukrainian: 
що будуть запроваджені
зрештою у регулюваннях.
І справді, я був щасливий почути,
що перший набір регулювань,
що видали у Міністерстві Транспорту -
оголошено минулого тижня -
містить 15 пунктів, що мають забезпечити
всі виробники автомобілів,
і номер 14 стосувався етичного аспекту -
як ви вчините щодо цього.
Ми також даємо людям
обміркувати їх власні рішення,
надавши їм підсумки того,
що вони обирали.
Ось один приклад -
але попереджаю, що це
нетиповий приклад,
типовий користувач.
Це - найбільш постраждалий
та найбільш врятований персонажі
для цієї людини.
(Сміх)
Дехто з вас може погодитися з ним,
чи з нею, ми не знаємо.
Але ця людина також надає трохи більше
переваги пасажирам, ніж пішоходам

Chinese: 
纳入法规的折中方案。
诚然，我很高兴听到
第一套由交通部
批准的法规——
上周刚刚公布——
囊括了需要所有无人车厂商
提供的15点清单，
而其中第14点就是道德考量——
要如何处理道德困境。
我们还通过为大家
提供自己选择的概要，
让人们反思自己的决定。
给大家举个例子——
我要提醒大家
这不是一个典型的例子，
也不是典型的车主。
这个人有着最容易牺牲（儿童），
也最容易被保护的特征（宠物）。
（笑声）
你们中有人可能会赞同他，
或者她，我们并不知道其性别。
不过这位调查对象
也似乎更愿意保护乘客，

Croatian: 
koji će biti ostvareni u konačnici
pri donošenju propisa.
I zaista, bio sam sretan saznajući
da je prvi skup propisa
iz Odjela za transport --
objavljen prošli tjedan --
obuhvaćao kontrolni popis of 15 točaka
za sve proizvođače automobila
te da je broj 14 uzimao u obzir etiku --
kako ćete se vi nositi s tim.
Također, potičemo ljude da promišljaju
o vlastitim odlukama
tako što im dajemo sažetak
njihovih odabira.
Dat ću vam jedan primjer --
samo ću vas upozoriti
da ovo nije tipičan primjer,
tipičan korisnik.
Ovo je najviše žrtvovan
i najviše spašen lik za ovu osobu.
(Smijeh)
Neki od vas bi se mogli složiti s njim,
ili s njom, ne znamo.
No također, čini se da ova osoba ipak malo
više preferira putnike nego pješake

German: 
welche Abwägungen letztendlich
in Vorschriften enthalten sind.
Und ich war glücklich zu hören,
dass die erste Reihe von Vorschriften
vom Verkehrsministerium,
wie letzte Woche angekündigt,
eine 15-Punkte-Checkliste
für alle Autohersteller enthielten
und Nummer 14 waren moralische Bedenken
und wie man mit diesen umgeht.
Wir haben Menschen
ihre Angaben reflektieren lassen,
indem wir ihnen eine Zusammenfassung
ihrer Entscheidung gaben.
Hier ist ein Beispiel.
Ich muss Sie nur vorher warnen,
dies ist kein typisches Beispiel,
kein typischer Nutzer.
Dies ist der am meisten geopferte und
der am meisten geschützte Charakter.
(Lachen)
Manche mögen seine Meinung teilen
oder ihre Meinung, wer weiß.
Diese Person neigt jedoch mehr dazu,
Passagiere über Fußgänger zu stellen

Portuguese: 
deverão ser implementadas 
na regulamentação.
Fiquei bastante feliz ao ouvir
que o primeiro conjunto de regulamentações
anunciado pelo Departamento de Transporte,
na semana passada,
inclui uma lista de 15 pontos
que todos os fabricantes
de automóveis devem fornecer.
O número 14 foi uma reflexão ética
sobre como a pessoa vai lidar com isso.
Nós fazemos as pessoas 
refletir nas suas decisões
ao dar-lhes uma síntese do que escolheram.
Vou dar-vos um exemplo
e desde já vos aviso que este não é 
o exemplo de um utilizador habitual.
Estas são a personagem mais sacrificada 
e a mais salvo para esta pessoa.
(Risos)
Alguns de vocês podem concordar com ele,
ou com ela — não sabemos.
Mas esta pessoa preferiu salvar
os passageiros ao invés dos peões

English: 
that will be implemented
ultimately in regulation.
And indeed, I was very happy to hear
that the first set of regulations
that came from
the Department of Transport --
announced last week --
included a 15-point checklist
for all carmakers to provide,
and number 14 was ethical consideration --
how are you going to deal with that.
We also have people
reflect on their own decisions
by giving them summaries
of what they chose.
I'll give you one example --
I'm just going to warn you
that this is not your typical example,
your typical user.
This is the most sacrificed and the most
saved character for this person.
(Laughter)
Some of you may agree with him,
or her, we don't know.
But this person also seems to slightly
prefer passengers over pedestrians

Dutch: 
die geïmplementeerd
zullen worden in regulaties.
En ik was dan ook blij om te horen
dat de eerste regulaties
van het ministerie van transport --
vorige week aangekondigd --
een 15-punts checklist
voor alle autofabrikanten bevatten,
en nummer 14 was ethische overwegingen --
hoe ben je van plan dit te implementeren?
We vragen ook te reflecteren
op de eigen beslissingen
door men een samenvatting
te geven van hun keuzes.
Ik zal een voorbeeld geven --
en ik waarschuw dat dit niet
een typisch voorbeeld is
van een typische gebruiker.
Dit zijn de figuren die het meest
opgeofferd and gered zijn door de persoon.
(Gelach)
Misschien ben je het met hem eens,
of haar, dat weten we niet.
Maar deze persoon lijkt een voorkeur te
hebben voor passagiers boven voetgangers

Russian: 
будут в итоге приняты в законодательстве.
Я действительно был очень рад
увидеть, что первый набор регламентов
от Министерства транспорта,
объявленный на прошлой неделе,
включает 15 вопросов для всех
автопроизводителей,
где вопрос под номером 14 — этический,
какое решение принять.
Мы также позволяем людям
поразмышлять над выбором,
увидев сумму своих решений.
Дам вам один пример.
Я предупреждаю, это не самый обычный
и типичный пользователь.
Котика он спасал чаще всего,
а ребёнком чаще всего жертвовал.
(Смех)
Кто-то может с ним
или с ней согласиться.
Он также предпочитает пассажиров пешеходам

Italian: 
che possono infine
diventare regolamentazione.
E sono davvero stato 
felice di sentire
che la prima serie di regolamentazioni
ricevuta dal Dipartimento dei Trasporti --
annunciata la scorsa settimana --
include una lista di 15 punti 
che ogni produttore di auto deve fornire,
e la numero 14 era 
una considerazione etica --
su come vogliono gestire la cosa.
Abbiamo anche persone 
che riflettono sulle loro decisioni
e danno descrizioni delle loro scelte.
Vi faccio un esempio --
vi voglio solo avvisare 
che non è il tipico esempio,
il tipico utente.
Questi sono il più sacrificabile e 
il più salvabile soggetto
per questa persona.
(Risate)
Alcuni di voi potrebbero 
essere d'accordo con lui,
o lei, non lo sappiamo.
Ma questa persona sembra anche 
preferire i passeggeri ai pedoni,

Japanese: 
社会が理解する
助けになるかもしれません
実際 喜ばしいことに
先週発表された
運輸省による
最初の規制には
すべての自動車メーカーが提示すべき
15項目のチェックリストが含まれていて
その14番目は
倫理的な考慮—
そういう問題にどう対処するか
ということでした
私たちはまた その人がした選択の
要約を見せることで
自分の決断を振り返るよう
促しています
ある人の例を
お見せしましょう
これは典型例ではない
ということを
あらかじめ
お断りしておきます
これは この人物によって １番救われた対象(猫)と 
１番犠牲にされた対象(ベビーカー)です
(笑)
皆さんの中には 
この人に同意する人も
いるかもしれません
しかしまた
この人は歩行者よりも

Hungarian: 
a meghozandó szabályozásban.
Nagyon örültem, amikor meghallottam,
hogy a Közlekedési Minisztérium
kezdeti szabályozása
– múlt héten tették közzé –
minden autógyártóra kötelező, 15 tételből
álló követelménylistát tartalmaz;
és a 14. pont erkölcsi jellegű:
milyen döntés szülessen.
Arra késztetjük az embereket,
hogy gondolkozzanak el döntéseiken
az összesített eredmények ismeretében.
Mondok egy példát.
A példa nem tipikus.
A használó sem az.
Az illető megkíméli a macskákat,
és föl szokta áldozni a gyerekeket.
(Nevetés)
Lehet, hogy van,
aki egyetért vele.
De az illető inkább az utasoknak
kedvez döntései során,

Arabic: 
في اختياره
وهو سعيد بأن يعاقب
كل من لا يحترم إشارة المرور .
(ضحك)
إذن لنلخص ما سبق.
فقد بدأنا بسؤال --
لنسمه المعضلة الأخلاقية --
ما الذي يجب على السيارة أن تقوم به
في حالة معينة:
أن تنحرف أو لا؟
لكن بعدها أدركنا أن المشكل كان مختلفًا.
كان المشكل عن كيفية جعل المجتمع
يوافق ويفرض
المقايضات التي يرتاح لها.
هذه معضلة اجتماعية.
في الأربعينيات، كتب إسحاق عظيموف
قوانينه الشهيرة عن الروبوتات --
قوانين الروبوتات الثلاث --
الروبوت لن يضر الإنسان،
الروبوت لن يعصي الإنسان،
ولن يسمح الروبوت لنفسه بأن يأتي الضرر --
بهذا التسلسل حسب الأهمية.
لكن بعد 40 سنة ونيف
وبعد العديد من القصص التي دفعت 
هذه القوانين لتظهر ضعفها،
قدم عظيموف القانون الصفري للترموديناميك

Chinese: 
而不是行人，
甚至相当支持严惩横穿马路的行人。
（笑声）
那么我们来总结一下。
我们由一个问题开始——
就叫它道德困境问题——
关于在特定条件下
无人车应该如何抉择：
转向还是直行？
但之后我们意识到这并不是问题的核心。
关键的问题在于如何让
大众在他们能够接受的权衡方案中
达成一致并付诸实施。
这是个社会道德困境。
在20世纪40年代， 艾萨克·阿西莫夫
（俄科幻小说家）就写下了他那著名的
机器人三大法则。
机器人不能伤害人类，
机器人不能违背人类的命令，
机器人不能擅自伤害自己——
这是按重要性由高到低排序的。
但是大约40年后，
太多事件不断挑战这些法则的底线，
阿西莫夫又引入了第零号法则，

Spanish: 
según las opciones que escogió,
y no tiene problema
en castigar al peatón imprudente.
(Risas)
Entonces, redondeando.
Empezamos con la pregunta,
llamémosle dilema ético,
de qué debería hacer el auto
en una situación específica:
¿cambiar de dirección o seguir?
Pero luego nos dimos cuenta
de que el problema es otro.
El problema es que la sociedad
se ponga de acuerdo
sobre qué concesiones le son aceptables
y cómo imponerlas.
Es un dilema social.
En 1940, Isaac Asimov escribió
sus famosas leyes de la robótica;
las tres leyes de la robótica.
Un robot no hará daño al ser humano,
un robot debe obedecer al ser humano,
y un robot debe preservarse a sí mismo.
En ese orden de importancia.
Pero después de 40 años más o menos,
y después de tantas historias
que llevaron estas leyes al límite,
Asimov introdujo la ley cero,

Portuguese: 
nas suas escolhas,
e parece muito feliz por punir
peões que não cumprem a lei.
(Risos)
Vamos então, concluir.
Começámos com a questão
— chamemos-lhe dilema ético —
sobre o que o carro deverá
fazer num cenário específico:
desviar-se ou continuar?
Mas depois apercebemo-nos 
que o problema era outro.
O problema era sobre como levar 
a sociedade a concordar e a impor
as decisões que consideram adequadas.
É um dilema social.
Nos anos 40, Isaac Asimov escreveu 
as suas famosas leis da robótica,
as três leis da robótica.
Um robô não pode magoar um ser humano,
um robô não pode desobedecer 
a um ser humano,
e um robô não se pode 
danificar-se a ele mesmo
— seguindo esta ordem de importância.
Mas cerca de 40 anos depois,
e depois de tantas histórias 
que levavam estas leis ao limite,
Asimov introduziu a lei zero,

English: 
in their choices
and is very happy to punish jaywalking.
(Laughter)
So let's wrap up.
We started with the question --
let's call it the ethical dilemma --
of what the car should do
in a specific scenario:
swerve or stay?
But then we realized
that the problem was a different one.
It was the problem of how to get
society to agree on and enforce
the trade-offs they're comfortable with.
It's a social dilemma.
In the 1940s, Isaac Asimov
wrote his famous laws of robotics --
the three laws of robotics.
A robot may not harm a human being,
a robot may not disobey a human being,
and a robot may not allow
itself to come to harm --
in this order of importance.
But after 40 years or so
and after so many stories
pushing these laws to the limit,
Asimov introduced the zeroth law

Portuguese: 
em suas escolhas
e fica muito feliz em punir
pedestres imprudentes.
(Risos)
Vamos terminar aqui.
Nós começamos com uma pergunta,
vamos chamá-la de dilema ético,
sobre o que os carros deveriam
fazer num cenário específico:
desviar ou não?
Então, percebe-se
que o problema é diferente.
É o problema de como conseguir
que a sociedade concorde e respeite
os compromissos em que se sentem
confortáveis. É um dilema social.
Na década de 1940, Isaac Asimov
escreveu suas famosas leis da robótica,
as três leis da robótica:
um robô não pode ferir um ser humano,
um robô não pode
desobedecer um ser humano,
e um robô não pode se prejudicar,
nesta ordem de importância.
Depois de 40 anos
e depois de tantas histórias
levando essas leis ao limite,
Asimov criou a lei zero,

Lithuanian: 
išreiškia nestiprų polinkį
gelbėti keleivius vietoj pėsčiųjų
ir mėgsta bausti einančius per raudoną.
(Juokas.)
Apibendrinant,
mes pradėjome klausimu,
pavadinkime tai etikos dilema,
ką tam tikroje situacijoje
turėtų daryti automobilis –
keisti kryptį ar ne?
Tačiau tuomet suvokėme,
kad problema yra visai kita.
Tikroji problema – kaip pasiekti
visuomenės susitarimą
ir pritaikyti kompromisus,
kuriems būtume pasirengę.
Tai socialinė dilema.
1940-aisiais Isaac Asimov parašė
garsiąsias robotikos taisykles,
tris robotikos taisykles.
Robotas privalo nekenkti žmogui,
robotas privalo paklusti žmogui
ir robotas privalo apsaugoti
save nuo žalos.
Būtent tokiu svarbos eiliškumu.
Tačiau po 40 metų
ir po daugybės bandymų
pastūmėti šias ribas,
Asimov sukūrė dar vieną, nulinį įstatymą,

iw: 
בבחירות שלהם.
והוא שמח מאוד להעניש
את אלה שחוצים כביש ברשלנות.
(צחוק)
אז בואו ונסכם.
התחלנו עם השאלה - שנקרא לה הדילמה האתית -
של מה שהמכונית צריכה לעשות בתרחיש ספציפי:
לסטות או להישאר?
אבל אז הבנו שהבעיה היתה שונה.
זו היתה הבעיה של איך לגרום לחברה
להסכים ולאכוף
את החלופות שהם מרגישים איתן נוח.
זו דילמה חברתית.
בשנות הארבעים, איזק אסימוב כתב את 
החוקים המפורסמים של הרובוטיקה -
את שלושת חוקי הרובוטיקה.
רובוט לא רשאי לפגוע בבני אדם,
אסור לרובוט לא להישמע לאדם,
ורובוט לא יכול להרשות לעצמו 
לבוא כדי לפגוע -
על פי סדר חשיבות זה.
אבל אחרי 40 שנה בערך
ואחרי כל כך הרבה סיפורים שדוחקים
חוקים אלה עד קצה גבול התחום המותר,
אסימוב הציג את חוק האפס

Japanese: 
車の乗員を
優先する傾向があり
信号を無視して横断する人は
喜んで罰します
(笑)
ではまとめましょう
私たちは 倫理的ジレンマに関する
問いかけから始めました
ある特殊な状況で
車はどうすべきか
直進するか 曲がるか
しかしそれから問うべきことが
別にあることに気付きました
どんなトレードオフなら
受け入れられるものか
社会で どう合意し どう強制するか
という問題です
これが社会的ジレンマです
1940年代にアイザック・アシモフが
有名な「ロボット工学三原則」
というのを作りました
ロボットは人間に
危害を加えてはならない
ロボットは人間に
服従しなければなならない
ロボットは自分自身を
守らなければならない
これは重要な順に並んでいます
その後40年ほどの間に
これらの原則を限界まで突き詰めるような
沢山の物語が生まれ
アシモフは三原則に優先する

French: 
dans ses choix
et est très heureuse de punir
ceux qui traversent en dehors des clous.
(Rires)
Résumons.
Nous avons commencé avec une question --
un dilemme éthique --
de ce que devrait faire la voiture dans
un scénario précis :
dévier ou rester ?
Mais nous avons réalisé que
le problème était autre.
Le problème était de comment faire pour
que la société accepte et applique
les compromis qui lui conviennent.
C'est un dilemme social.
Dans les années 1940, Isaac Asimov a écrit
sa célèbre loi de la robotique --
les trois règles de la robotique.
Un robot ne nuira pas à un être humain,
un robot ne désobéira pas
et il ne s'autorisera pas
à faire au mal --
dans cet ordre d'importance.
Mais environ 40 ans plus tard
et après tellement de scénarios qui ont
testé ces règles,
Asimov a présenté la loi Zéro

Korean: 
보행자 보다는 
탑승자를 약간 더 선호하고
무단횡단자를 벌주고 싶어해요.
(웃음)
정리하겠습니다.
우리는 이 질문과 함께 시작했어요.
윤리적 딜레마라고 부를게요.
시나리오 상에서 차가 
어떻게 해야하는지를 물어요.
방향을 틀 것인가? 가만히 있을 것인가?
그런 다음에 우린 문제는 
다른 것이라는 사실을 깨닫죠.
그것은 어떻게 
사회적인 합의를 이끌어내고
사람들이 편안해하는 트레이드 오프를
집행할 것인가의 문제였죠.
이것은 사회적 딜레마입니다.
1940년대에 아이작 아시모프는
그의 유명한 
로봇의 3원칙을 저술합니다.
로봇은 인간에게 해를 끼칠 수 없고
로봇은 인간이 내리는 
명령에 복종해야 하며
로봇은 자신의 존재를 보호해야 한다.
순서대로 중요하죠.
하지만 40여년의 세월이 흐르고
많은 스토리들이 나타나며
이 법칙들이 한계에 부딪치자
아시모프는 0번째 법칙을 소개했습니다.

Ukrainian: 
у своїх рішеннях
та дуже охоче наказує порушників.
(Сміх)
Тож, підсумуємо.
Ми почали з питання -
назвемо це етичною дилемою -
що автомобіль має робити
у наданому сценарії:
повернути чи залишитись?
Але згодом ми усвідомили,
що проблема, насправді, у іншому.
Вона у тому, як погодити суспільство
та запровадити
компроміси, з якими воно погоджується.
Це соціальна дилема.
У 1940-х роках Айзек Азімов написав
свої відомі закони робототехніки -
три закони робототехніки.
Робот не може заподіяти шкоду людині,
робот повинен підкорятися наказам людини,
і робот повинен захищати самого себе -
у цій послідовності за важливістю.
Але після 40 років чи близько цього,
та після стількох історій, що
наполягають на цих трьох законах,
Азімов впроваджує нульовий закон,

Turkish: 
gibi gözüküyor
ve kırmızı ışıkta geçenleri
cezalandırmaktan memnuniyet duyuyor.
(Gülüşmeler)
Konuyu toparlayalım.
Arabanın belirli bir senaryoda ne
yapması gerektiğini irdeleyen bir soruyla,
daha doğrusu ahlaki bir ikilemle başladık:
dönecek mi, kalacak mı?
Fakat sonra, sorunun farklı
bir şey olduğunu fark ettik.
Toplum olarak, risk durumunda insanların
nelerden fedakarlık yapabileceklerine
uzlaşma ve uygulama sorunu.
Toplumsal bir ikilemden bahsediyoruz.
1940'larda, Isaac Asimov
o meşhur Üç Robot Yasasını
kaleme aldı.
Robot, bir insana zarar veremez,
robot bir insana itaatsizlik edemez
ve robot kendisini gelecek zararlardan
korumakla yükümlüdür,
bu önem sırasına göre.
40 yıl kadar sonra,
bu yasaların sınırlarını zorlayan
birçok hikâyenin ardından Asimov,
diğer bütün yasalara üstünlük gösteren

Persian: 
توی انتخاب‌هاش ترجیح میده
و از تنبیه کردن عابرین داخل
خیابون خوشحال میشه.
(خنده حاضرین)
حالا بیاین جمع بندی کنیم.
ما با یک سوال که اسمش رو
دوراهی اخلاقی میذاریم، شروع کردیم --
که ماشین توی سناریو خاص چه کار باید بکنه:
منحرف بشه یا ادامه بده؟
ولی بعدش فهمیدیم که این مساله دیگه‌ای بود.
مساله، هم‌نظر کردن جامعه
و اجرای بده-بستان‌هایی بود
که جامعه باهاش کنار میاد.
که یک معمای اجتماعی هست.
در سال ۱۹۴۰، ایزاک آسیموف
قوانین مشهورش برای ربات‌ها را نوشت --
سه قانون برای ربات‌ها.
ربات نباید به انسان آسیب بزنه،
ربات نباید از انسان سرپیچی کنه،
و ربات نباید به خودش اجازه بده 
که آسیب بزنه --
به ترتیب اهمیت از اول به سوم.
ولی بعد از گذشت حدود ۴۰ سال
و بعد داستان‌های زیادی که
به این قوانین فشار آوردن،
آسیموف قانون صفرم رو مطرح کرد

Italian: 
nelle sue scelte,
ed è molto contenta di punire 
chi attraversa distrattamente.
(Risate)
Quindi, riepilogando.
Siamo partiti con un quesito --
chiamiamolo, dilemma etico --
di cosa la macchina dovrebbe fare
in uno scenario specifico:
sterzare o rimanere?
Poi abbiamo realizzato 
che il problema era differente.
Era un problema di come 
far accettare alla società, e applicare
le scelte su cui è più a suo agio.
È un dilemma sociale.
Negli anni '40, Isaac Asimov ha scritto 
le sue famose leggi sulla robotica --
le tre leggi della robotica.
Un robot non può recar danno
a un essere umano,
un robot deve obbedire 
agli ordini degli esseri umani,
un robot deve proteggere 
la propria esistenza --
in questo ordine di importanza.
Ma dopo circa 40 anni,
e dopo così tante storie che hanno portato
queste leggi fino ai massimi limiti,
Asimov ha introdotto la sua legge zero

Croatian: 
u svojim odlukama
te da vrlo rado kažnjava neoprezno
prelaženje ulice.
(Smijeh)
Dakle, zaključimo.
Započeli smo pitanjem --
nazovimo to moralnom dilemom --
kako bi automobil trebao postupiti
u određenoj situaciji:
skrenuti ili ostati?
Ali onda smo shvatili da je problem
bio u nečem drugom.
U tome kako pridobiti društvo da donese
zajedničku odluku i provede
kompromise s kojim se slaže.
To je društvena dilema.
1940., Isaac Asimov je napisao svoje
slavne zakone robotike --
tri zakona robotike.
Robot nikada ne smije
naškoditi ljudskom biću,
robot nikada ne smije
ne poslušati ljudsko biće
i robot nikada ne smije
dopustiti sebi štetu --
tim redoslijedom važnosti.
No, nakon otprilike 40 godina
i nakon toliko slučajeva koji guraju
ove zakone do krajnjih granica,
Asimov je predstavio nulti zakon,

Russian: 
в своём выборе
и рад наказать тех, кто перебегает дорогу.
(Смех)
Подводя итог,
мы начали с вопроса,
назовём его этической дилеммой,
о том, что должна сделать машина
в определённом сценарии,
повернуть или ехать дальше?
Но затем мы поняли,
что проблема не в этом.
Проблема в том, как достичь
согласия в обществе и как контролировать
установленные компромиссы.
Это социальная дилемма.
В 1940-е Айзек Азимов написал
свои знаменитые законы роботехники,
три закона.
Робот не может причинить вред человеку,
робот должен повиноваться
приказам человека,
Робот должен заботиться
о своей безопасности.
В этом порядке.
Около 40 лет спустя,
после всех историй,
проверяющих эти законы,
Азимов ввёл нулевой закон,

Hungarian: 
semmint a gyalogosoknak, és boldog,
ha megbüntetheti a szabálytalankodó
gyalogosokat.
(Nevetés)
Összegezve:
azzal kezdtük,
hívjuk erkölcsi dilemmának,
mit tegyen az autó bizonyos helyzetben,
kanyarodjon vagy álljon meg.
De rájöttünk, hogy más a probléma,
az, hogyan vegyük rá a társadalmat
egy általa elfogadott
kompromisszum betartására?
Ez társadalmi dilemma.
1940-ben Isaac Asimov leírta
a híres robotikai törvényeit,
a három törvényt.
A robot nem árthat az emberi lénynek,
engedelmeskednie kell neki,
és a robot magában sem tehet kárt:
ez a fontossági sorrend.
Ám kb. 40 év múltán,
s annyi történet után,
amelyek kipróbálták a törvényeket,
Asimov bevezette a nulladik törvényt,

Chinese: 
從他們的選擇看得出來，
且非常樂意懲罰闖紅燈的人。
（笑聲）
來總結收尾一下。
我們一開頭問的問題，
就姑且稱之為道德兩難，
在特定的情境中， 車該怎麼做：
急轉彎或保持原路？
但接著我們了解到，
這個問題有所不同。
問題是要如何讓社會認同，
並且執行讓他們覺得舒服的取捨。
這是個社會兩難。
在四〇年代，以撒．艾西莫夫
寫了著名的機器人學法則──
機器人學的三大法則。
機器人不得傷害人類，
機器人不得違背人類，
且機器人不得
讓它自己受到傷害──
重要性就是依這個順序。
約四十年後，
許多故事已經把
這些法則推到了極限，
艾西莫夫又提出了第零條法則，

Dutch: 
in de keuzes
en straft gevaarlijk oversteken af.
(Gelach)
Om af te ronden.
We begonnen met de vraag --
noem 't het ethisch dilemma --
wat moet een auto doen
in een bepaald scenario:
uitwijken of doorrijden?
Toen realiseerden we ons
dat het om een ander probleem ging.
Namelijk: de gemeenschap zal het eens
moeten worden over wat ze wil
en dit ook gaan afdwingen.
Het is een sociaal dilemma.
In de jaren 40 schreef Isaac Asimov
zijn bekende wetten van robotica,
de drie wetten van de robotica.
Een robot mag niet
een mens letsel toebrengen;
een robot moet mensen gehoorzamen;
een robot mag zichzelf
niet laten beschadigen.
In afnemende mate van belangrijkheid.
Maar na ongeveer 40 jaar
en na zoveel verhalen
die deze wetten hebben beproefd,
introduceerde Asimov de nulde wet,

German: 
und bei den Entscheidungen
verkehrswidriges Verhalten zu bestrafen.
(Lachen)
Fassen wir also zusammen.
Wir starteten mit der Frage –
wir nennen sie moralisches Dilemma –
wie sich das Auto in einem
spezifischen Szenario verhalten soll:
ausweichen oder bleiben?
Aber dann merkten wir,
dass das Problem ein anderes war.
Die Frage war, wie man die Gesellschaft
dazu bringt, Kompromisse durchzusetzen,
mit denen sie sich wohl fühlen.
Ein soziales Dilemma.
In den 1940ern schrieb Isaac Asimov
die berühmten Robotergesetze –
die drei Robotergesetze.
Ein Roboter darf kein
menschliches Wesen verletzen.
Ein Roboter muss einem Menschen gehorchen.
Ein Roboter muss 
seine Existenz beschützen.
In dieser Reihenfolge.
Aber nach ungefähr 40 Jahren
und nach so viele Geschichten,
die diese Gesetze an ihre Grenzen bringen,
entwickelte Asimov das nullte Gesetz,

Persian: 
که بر هر سه قانون قبلی تقدم داره،
و اون این بود که ربات نباید به
کلیت انسان‌ها آسیب بزنه.
من نمیدونم مصداق این قانون در زمینه
ماشین‌های خودران چی میشه
یا هر حالت خاصی،
و نمیدونم که ما چطوری میخوایم اجراش کنیم،
ولی فکر میکنم که با فهمیدنِ اینکه
مقررات ماشین‌های خودران تنها 
یک مساله مرتبط با تکنولوژی نیست
و یک مساله همکاری اجتماعی هم هست،
میتونم امیدوار باشم که حداقل شروع به
پرسیدن سوالات درست کنیم.
سپاس گزارم.
(تشویق حاضرین)

Ukrainian: 
що має перевагу над усіма,
і він про те, що робот не може
заподіяти шкоду людству в цілому.
Я не знаю, що це значить
у контексті безпілотних автомобілів
або будь-якої конкретної ситуації,
і я не знаю, як ми можемо
це реалізувати,
але я думаю, що визнавши,
що регулювання безпілотних автомобілів -
це не лише технологічна проблема,
але також проблема
соціальної співдружності,
сподіваюсь, ми принаймні можемо
почати ставити правильні питання.
Дякую.
(Оплиски)

French: 
qui a préséance avant tout.
Un robot ne devrait pas nuire
à l'Humanité.
Je ne sais pas ce que cela représente dans
le cas des voitures sans conducteur
ou dans une situation spécifique,
et je ne sais pas comment
la mettre en œuvre ;
mais en admettant que
la législation de ces voitures n'est pas 
uniquement un problème technique
mais aussi un problème de coopération
sociétale, j'espère que
nous puissions au moins nous poser
les bonnes questions.
Merci.
(Applaudissements)

German: 
das über allen anderen steht.
Es besagt, dass ein Roboter
die Menschheit nicht verletzen darf.
Ich weiß nicht, was das in Verbindung
mit fahrerlosen Autos bedeutet
oder in Verbindung mit anderen Situationen
und ich weiß nicht,
wie wir es umsetzen können.
Wenn wir jedoch anerkennen,
dass die Vorschriften für fahrerlose Autos
nicht nur ein technologisches Problem,
sondern auch ein gesellschaftliches
Kooperationsproblem sind,
dann können wir beginnen,
die richtigen Fragen zu stellen.
Danke.
(Applaus)

Chinese: 
凌驾于之前所有法则之上，
说的是机器人不能伤害人类这个整体。
我不太明白在无人车和
其他特殊背景下
这句话是什么意思，
也不清楚我们要如何实践它，
但我认为通过认识到
针对无人车的立法不仅仅是个技术问题，
还是一个社会合作问题，
我希望我们至少可以
从提出正确的问题入手。
谢谢大家。
（掌声）

iw: 
שנותן קדימות מעל לכל,
לכך שהרובוט לא יפגע באנושות בכללותה.
אינני יודע מה זה אומר בהקשר
למכוניות אוטונומיות
או למצב ספציפי כלשהו,
ואינני יודע איך אנחנו יכולים ליישם את זה,
אבל אני חושב שעל ידי הכרה בכך
שהרגולציה של מכוניות אוטונומיות
אינה רק בעיה טכנולוגית
אלא גם בעיה של שיתוף פעולה חברתי,
אני מקווה שנוכל לפחות להתחיל
לשאול את השאלות הנכונות.
תודה לכם.
(מחיאות כפיים)

Lithuanian: 
turintį aukščiausią pirmenybę –
robotas privalo nekenkti
žmonijai kaip visumai.
Aš nežinau ką tai reiškia
savieigių automobilių kontekste
ar bet kokioje specifinėje situacijoje.
Nežinau ir kaip reikėtų tai pritaikyti.
Tačiau pripažindami,
jog savieigių automobilių nustatymai
nėra tik technologinė problema,
bet taip pat ir socialinės
kooperacijos problema,
tikiuosi, kad galėsime bent jau
pradėti kelti teisingus klausimus.
Ačiū.
(Plojimai.)

Italian: 
che precede tutte le altre,
e dice che un robot non può 
recare danno all'umanità intera.
Non so cosa questo significhi 
nel contesto delle auto a guida autonoma
o nelle situazioni specifiche,
e non so come possiamo implementarla,
ma penso che riconoscendo
che la regolamentazione 
delle auto a guida autonoma
non sia solo un problema tecnologico,
ma anche un problema 
di cooperazione sociale,
spero che potremo almeno 
iniziare a farci le giuste domande.
Grazie.
(Applausi)

Arabic: 
والذي كانت له الأولوية قبل كل شيء،
وهي أن الروبوت لن يضر الإنسانية جمعاء.
لست أدري ما الذي يعنيه هذا 
في سياق السيارات ذاتية القيادة
أو أي حالة معينة،
ولست أدري كيف يمكننا تطبيق هذا،
لكنني أعتقد أنه من خلال الإدراك
أن تقنين السيارات ذاتية القيادة 
ليس مشكلا تكنولوجيا فقط
ولكنه مشكل تعاون مجتمعي،
آمل أن يكون بمقدرونا أن نبدأ على الأقل
في طرح الأسئلة المناسبة
شكرا لكم.
(تصفيق)

Portuguese: 
que as precede a todas,
aquela em que um robô 
não pode prejudicar a humanidade.
Eu não sei o que isto significa
no contexto de carros autónomos
ou em qualquer situação específica,
e não sei como é que 
podemos implementar isto,
mas acho que, ao reconhecer
que a regulamentação dos carros autónomos 
não é apenas um problema tecnológico,
mas também um problema
de cooperação social,
espero que possamos começar 
a fazer as questões certas.
Obrigado.
(Aplausos)

English: 
which takes precedence above all,
and it's that a robot
may not harm humanity as a whole.
I don't know what this means
in the context of driverless cars
or any specific situation,
and I don't know how we can implement it,
but I think that by recognizing
that the regulation of driverless cars
is not only a technological problem
but also a societal cooperation problem,
I hope that we can at least begin
to ask the right questions.
Thank you.
(Applause)

Spanish: 
que precede a las demás,
y es que un robot
no hará daño a la Humanidad.
No sé qué quiere decir esto
en el contexto de los vehículos autónomos,
o en cualquier situación específica,
y no sé cómo lo podemos implementar,
pero creo que reconociendo
que la regulación de vehículos autónomos
no es solo un problema tecnológico
sino también un problema
de cooperación social,
espero que podamos al menos empezar
a hacer las preguntas adecuadas.
Gracias.
(Aplausos)

Croatian: 
koji ima prednost
spram svih ostalih zakona
i glasi da robot nikada ne smije
naškoditi čovječnosti u cijelosti.
Ne znam što ovo znači u kontekstu
automobila bez vozača
ili u bilo kojoj specifičnoj situaciji,
i ne znam kako bismo to mogli primijeniti,
ali smatram da prepoznavanjem
kako regulacija automobila bez vozača
nije samo problem tehnologije
već i čitavog društva i njegove suradnje,
nadam se, možemo barem početi
postavljati prava pitanja.
Hvala vam.
(Pljesak)

Russian: 
идущий прежде всех остальных:
робот не должен навредить
человечеству в целом.
Я не знаю, какое это имеет влияние
в контексте беспилотных автомобилей
или любой конкретной ситуации,
и не знаю, как мы можем это обеспечить,
но думаю, что важно осознать,
что законы для беспилотных автомобилей
не только проблема технологии,
но и проблема взаимного сотрудничества.
Я надеюсь, что мы начнём
задавать правильные вопросы.
Спасибо.
(Аплодисменты)

Turkish: 
sıfırıncı yasasını yayınladı;
bu yasa bir robotun genel olarak
insanlığa zarar veremeyeceğini belirtiyor.
Bu yasanın, sürücüsüz arabalar konusunda
veya belirli bir durumdaki
yerini bilmiyorum.
Bunu nasıl yürürlüğe
koyacağımızı da bilmiyorum,
fakat sürücüsüz araba düzenlemesinin,
yalnızca bir teknolojik problem olduğunu
değil de, aynı zamanda toplumsal uzlaşma
problemi olduğunu kabul edersek,
umuyorum ki, en azından sonunda
doğru soruları sormaya başlayabileceğiz.
Teşekkürler.
(Alkışlar)

Japanese: 
ゼロ番目の原則を付け加えました
ロボットは人類全体に
危害を加えてはならない というものです
これが自動運転車や 
特定の状況という文脈で
どのような意味を持つのか
分かりませんし
どう実現したら良いのかも
分かりませんが
自動運転車の規制は
技術だけの問題ではなく
社会的協力に関する問題でもある
と認識することで
我々が少なくとも正しい質問を
問い始められると期待しています
ありがとうございました
(拍手)

Chinese: 
其重要性高於前述的所有法則，
這條法則是，
機器人不得傷害整體人性。
我不知道在無人駕駛車的情況中，
或任何明確的情境中，
這條法則是什麼意思，
我也不知道我們要如何實施它，
但我認為，透過認清
無人駕駛車的規範不只是科技問題，
也是社會合作問題，
我希望我們至少能
開始問出對的問題。
謝謝。
（掌聲）

Portuguese: 
que tem prioridade acima de tudo,
aquela em que um robô
não pode fazer mal à humanidade.
Não sei o que isso significa
no contexto dos carros autônomos,
ou em qualquer situação específica,
e não sei como podemos implementar isso,
mas acredito que, ao reconhecer
que a regulamentação
não é apenas um problema tecnológico,
mas também um problema
de cooperação social,
espero que possamos começar
a fazer as perguntas certas.
Obrigado.
(Aplausos)

Korean: 
이는 3가지 법칙보다 우선하는 법칙으로
바로, 로봇은 인류 전체에게 
해를 끼칠 수 없다는 것입니다.
저는 이것이 자율주행차의 
경우나 다른 경우에 있어
어떤 의미가 되는지 잘 모르겠습니다.
우리가 어떻게 
구현할지도 잘 모르겠고요.
하지만 자율주행차에 대한 규제가
단지 기술적인 문제가 아니라
사회적 협력 문제임을 인식함으로써
우리가 적어도 올바른 질문을 
시작할 수 있게 되기를 희망해봅니다.
감사합니다.
(박수)

Hungarian: 
amely minden mást megelőz.
Ez pedig: a robot nem árthat
az egész emberiségnek.
Nem tudom, hogy értendő ez
a vezető nélküli autóra
vagy valami különleges helyzetre,
s azt sem, hogyan vezethetnénk be,
de ha elismerjük,
hogy a vezető nélküli autóra vonatkozó
szabályozás nem csak technológiai,
hanem társadalmi együttműködési
probléma is, remélem,
hogy legalább hozzáláthatunk
a helyes kérdések föltevéséhez.
Köszönöm.
(Taps)

Dutch: 
die belangrijker is dan alle andere.
Deze zegt dat een robot niet de mensheid
als geheel letsel mag toebrengen.
Ik weet niet wat dit betekent
in de context van zelfrijdende auto's
of welke specifieke situatie dan ook.
En ik weet niet hoe we
het kunnen implementeren,
maar ik hoop dat door te erkennen
dat de regulatie van zelfrijdende auto's
niet alleen een technisch probleem is,
maar ook een sociaal-economisch probleem,
we op zijn minst de juiste vragen
kunnen beginnen te stellen.
Dank u zeer.
(Applaus)
