
Bulgarian: 
Здравейте, дами и господа. Вие сте с Luscid.
Представете си, че наблюдавате трамвай, насочил се към трима
работници, които ще умрат до един, ако трамваят продължи по сегашния си курс.
Вие случайно стоите до лост, който може да отклони трамвая по втори път.
Но ето я и уловката.
По този път също има работник, но само един.
Какво бихте направили в тази ситуация?
Бихте ли жертвали един живот, за да спасите три?
И как всъщност се прави избор между две толкова лоши възможности?
Този обезпокоителен избор е вариация на така наречения „Трамваен проблем“ – известен
философски мислен експеримент.
През последните 40 години този проблем е привлякъл вниманието на множество брилянтни умове – етици,
психолози, инженери.
През годините „Трамвайният проблем“ е получил и известна доза критика, че е твърде нереалистичен,
за да разкрие нещо важно за морала в ежедневието.

English: 
Hello, ladies and gents, Luscid here!
Imagine you're watching a runaway trolley
heading down the tracks straight towards three
workers who will all be killed if the trolley
proceeds on its present course.
You happen to be standing next to a switch that will divert the trolley onto a second track.
But here's the catch.
That track has a worker on it, too, but just
one.
What do you do?
Do you sacrifice one life to save three?
And how can a person decide between two really
bad options?
This disturbing choice is a variation of the
so called “trolley problem,” an iconic
philosophical thought experiment.
In the past 40 years it has caught the attention
of brilliant minds, from academic ethicists
to psychologists to engineers.
The trolley problem has also been criticized
over the years for being too unrealistic to
reveal anything important about real-life
morality.

English: 
But new technology is making this kind of
ethical consideration more important than ever.
Self-driving cars are already cruising the
streets.
Fully autonomous vehicles have the potential
to benefit our world by increasing traffic
efficiency, reducing pollution, and beyond
all eliminating up to 90% of traffic accidents.
It has been estimated that worldwide, 1.2
million people die every year in traffic accidents.
As you might have noticed, humans are terrible
drivers.
AVs, by contrast, make consistent and calculated
choices, and are incapable of getting drunk, angry,
or distracted.
Not all crashes will be avoided, though, and
some crashes will require AVs to make difficult
ethical decisions in cases that involve unavoidable
harm.
For example, the AV may avoid harming several
pedestrians by swerving and sacrificing a passerby,
or the AV may be faced with the
choice of sacrificing its own passenger to
save one or more pedestrians.
Those scenarios are nothing unprecedented.

Bulgarian: 
Но новите технологии правят подобни етични съображения по-важни от всякога.
Себеуправляващите се коли вече се срещат по улиците.
Напълно автономните автомобили имат потенциала да увеличат ефикасността
на трафика, да намалят вредните емисии и най-важното – да елиминират до 90% от пътните инциденти.
Установено е, че по целия свят около 1.2 милиона души умират в пътни катастрофи всяка година.
Както може би сте забелязали, хората са ужасни шофъори.
Автономните автомобили, от друга страна, вземат последователни и добре изчислени решения и не са способни да се напиват, да се ядосват
или да се разсейват.
Реалността обаче е, че не всички катастрофи ще бъдат избегнати и в някои ситуации автономните автомобили ще са изправени пред трудни
етични решения в ситуации, в които вредата не може да бъде избегната.
Например, автономната кола би могла да избегне нараняването на няколко пешеходеца, като завие и блъсне случаен минувач,
или пък би могла да бъде изправена пред избора дали да жертва собствените си пътници,
за да спаси един или повече пешеходци.
Тези сценарии не са безпрецедентни.

Bulgarian: 
Много шофъори са попадали в подобни ситуации.
Но именно тук се крие проблемът.
Ако Вие шофирате ръчно, какъвто и избор да направите в подобна ситуация,
той ще бъде възприет като инстинктивна паническа реакция, не обмислено действие.
Но ако програмист инструктира колата да предприема същата маневра в същата ситуация,
това би могло да бъде възприето като предумишлено убийство, защото изходите от ситуацията ще бъдат предопределени
месеци, ако не и години по-рано.
За да провери какво е публичното мнение по въпроса, Ияд Рахван и
колегите му са провели изследване, в което са представили подобни сценарии на група хора.
Изследваните лица се изправят пред две възможности, вдъхновени от двама философи: Джереми Бентам и Имануел Кант.
Според вижданията на Бентам колата трябва да следва така наречената „утилитарна етика“:
тя трябва да предприеме действието, което ще убие възможно най-малко хора дори това действие да жертва
случаен минувач или пътник в колата.
Философията на Кант е различна.

English: 
Many drivers have encountered them.
But here is the problem.
If you were driving in manual mode, whichever
way you’d react in a situation like this
would be understood as just that, an instinctual
panicked reaction, not a deliberate decision.
But if a programmer were to instruct the car
to make the same move in the same situation,
well that looks more like intentional homicide
because the outcomes would have been determined
months or even years in advance.
In order to see what’s the public’s opinion
on the matter, scientist Iyad Rahwan and his
colleagues ran a survey in which people were
presented with the aforementioned types of scenarios.
They were given two options inspired by two
philosophers: Jeremy Bentham and Immanuel Kant.
According to Bentham’s view the car should
follow the so called Utilitarian ethics:
it should take the action that will minimize
total harm - even if that action will kill
a bystander or a passenger.
Kant’s philosophy is different.

Bulgarian: 
Придържайки се към неговите виждания, човек не трябва да предприема действие, което наранява друго човешко същество.
Следователно в тази ситуация колата трябва да продължи по първоначалната си траектория дори това да нарани повече хора.
Какво е вашето мнение по въпроса?
Бентам или Кант?
Резултатите от изследването сочат, че повечето хора се придържат към гледната точка на Бентам.
Излиза, че хората искат автономните автомобили да бъдат уталитарни, да минимизират броя на жертвите.
Проблемът е решен!
Но както ще видите – не точно.
Когато по-късно са попитани дали биха си купили подобна кола, изследваните лице отговарят:
„В никакъв случай“.
Това е и парадоксалното.
Изглежда, че хората биха искали да купуват коли, които предпазват тях самите на всяка цена, но искат
всички други да си купуват коли,
които минимизират броя на жертвите.
Това е един от основните проблеми с „Трамвайната дилема“.
Когато са изправени пред такива хипотетични ситуации,
хората често отговарят как биха искали да реагират, а не как в действителност биха отреагирали.

English: 
Conforming to his view you should not take
an action that explicitly harms a human being.
So in this case you should let the car take
its course even if that's going to harm more people.
So what’s your opinion?
Bentham or Kant?
The results from the study show that most
people stick to Bentham’s view.
It seems that people want the self-driving
cars of the future to be utilitarian, to minimize total harm.
Problem solved!
But as it turns out – not quite.
When people were later asked whether they
would purchase such cars, their answer was,
"Absolutely not."
And therein lies the paradox.
It seems that people would like to buy cars
that protect them at all cost, but they want
everybody else to buy cars
that minimize harm.
That’s one of the main problems with the trolley dilemma.
When faced with such a hypothetical scenario,
people regularly answer how they wish they’d act rather than how they actually would act.

Bulgarian: 
Преди няколко месеца с помощта на виртуална реалност изследователи от университета в Оснабрюк
успяват да хвърлят светлина върху належащия въпрос как да представяме подобни етични проблеми, така че да разкриват истинските ценности на хората.
Потапяйки ги във виртуална реалност, изследователите изправят участниците пред неочаквани неизбежни катастрофи.
 
Изправени пред възможността да блъснат хора, животни, неодушевени предмети,
изследваните лица трябва да вземат решения за части от секундата, като по този начин показват каква стойност приписват на всеки обект.
Чрез внимателна обработка на резултатите авторите успяват да създадат
таблица за стойността на живота на всеки човек, животно и неодушевен предмет, с които шофъорите са се сблъскали.
Хипотетично, когато са изправени пред неизбежна катастрофа,
автономните автомобили биха могли да се консултират с таблицата за стойността на живота и да блъснат единицата с най-ниска стойност.
Това поне би пренесло човешките ценности у автомобилите.

English: 
A few months ago, thanks to virtual reality, researchers at the University of Osnabrück
have shed light on the question how to model such ethical problems in a way that reveals our true values.
With the aid of immersive virtual reality, the researchers placed participants in unexpected unavoidable crash situations
while driving a virtual car.
Faced with choices between hitting people, animals, and inanimate objects,
the participants had to make split-second decisions revealing how they valued each item.
Through a careful analysis of the results, the authors were able to create
a value-of-life table of every human, animal, and inanimate object the drivers encountered.
Hypothetically, when faced with an unavoidable crash,
the autonomous vehicle could simply consult the value-of-life table and choose to hit the entity with lowest value of life.
This at least would succeed in transferring human values onto automobiles.

Bulgarian: 
И въпреки това има поне два проблема с този подход. Първата пречка е, че различните култури и регионални групи
по всяка вероятност ще имат различни преценки за стойността на живота.
Тук стои въпросът дали трябва да приложим различна етика в различните култури, или да наложим един етичен код по целия свят.
Вторият и то много по-обезпокоителен проблем е, че сумата от нашите решения може да покаже, че всъщност сме много егоистични и расистки настроени.
Програмирането на подобна таблица за стойността на живота в автомобилите може да резултира в пренасяне на най-срамните ни уклони към машините.
Ако пък започнем да коригираме тези уклони, се връщаме отново в началото –
поставени пред въпроса дали да програмираме машините да се държат така, както бихме искали да действаме, или както бихме действали в действиетлност.
Тези открития представят един сериозен проблем – автономните автомобили скоро може да излезнат на пазара,
но хората не са готови да приемат етичните предизвикателства, които идват с тях.
Какво трябва да направим? Дали в крайна сметка няма да се окаже, че едно случайно решение е по-добро от едно предопределено решение
дори когато е създадено така, че да минимизира жертвите?

English: 
And yet, there are at least two major problems with this approach. The first concern is that different cultures and regional groups
may have very different value-of-life tables.
So should we apply different ethics in different cultures or should we use one ethical code worldwide.
The second (and far more disturbing) problem is that the sum of our ethical choices might reveal us to be incredibly selfish and racist.
Applying such value-of-life system to autonomous vehicles would result in transferring our most embarrassing biases onto machines.
And if we start correcting for these biases, we’re back to where we started:
facing the question of whether to program machines behave how we wish we would act, or how we actually would act.
Those findings pose a serious problem: AVs may soon be ready to hit the market,
but humans aren’t ready to accept the ethical challenges that come along with them.
So what should we do? Could it be the case that a random decision is still better than a predetermined one
even though it’s designed to minimize harm?

Bulgarian: 
И кой трябва да прави тези избори?
Никой няма финален отговор на тези въпроси, но едно нещо е ясно:
технологията ще напредва, независимо дали това ни харесва, или не.
Това, което трябва да направим като общество, е да намерим колективни отговори на тези сложни въпроси
и да посрещнем бъдещето заедно!
Благодаря ви, че гледахте!
Ако видеото ви е харесало, погледнете и другите ни видеа ето тук
и се абонирайте за месечна доза наука! Ще се видим скоро!

English: 
And who should be making those decisions?
Nobody has a final answer to those questions, but one thing is certain:
technology is going to advance whether we like it or not.
What we need to do right now as a society is to figure out collective answers to these puzzling questions
and embrace the future together.
Thank you for watching!
If you enjoyed this video, check out more from us here
and consider subscribing for a monthly dose of science! See you soon!
