
Polish: 
(oklaski)
- Dobry wieczór wszystkim.
Nazywam się Rob Reich i cieszę się, że mogę was dziś gościć
na Uniwersytecie Stanforda, na wieczornej rozmowie
z Yuvalem Noahem Hararim, Fei-Fei Li i Nickiem Thompsonem.
Jestem profesorem politologii
i dyrektorem kadry akademickiej Centrum
Etyki Społecznej Stanforda, które,
razem z Instytutem Sztucznej Inteligencji Skoncentrowanej na Ludziach
oraz Centrum Nauk Humanistycznych Stanforda
organizuje dzisiejsze wydarzenie.
Nasz dzisiejszy temat jest poważny.
Będziemy rozważać obietnice
i zagrożenia sztucznej inteligencji,
technologii, która dynamicznie zmienia świat ekonomii, społeczeństwa
i polityki, na lepsze lub gorsze.
Pytania, które dziś podniesiemy
są pewnie znane wielu ludziom tutaj,

Chinese: 
（观众鼓掌）
各位，晚上好。
我是罗布·赖希。
我很高兴地欢迎你们
今晚来到斯坦福大学，
与尤瓦尔·赫拉利教授，李飞飞教授，
尼克·汤普森教授一起进行对话。
我是这里的政治学教授，
也是斯坦福社会道德中心的主任，
社会道德中心
与斯坦福人本中心的人工智能研究所
以及斯坦福人文中心共同为
今晚的活动提供赞助。
我们今晚的话题很宏大。
我们将一起思考
人工智能的希望和危险。
这项技术迅速重塑我们的经济、社会
和政治世界——是更好还是更坏。
人工智能的出现所带来的这些问题，
已为人所知——至少对硅谷的许多人来说都是如此。

English: 
(audience applauding)
- Good evening, everyone.
My name is Rob Reich, I am
delighted to welcome you here
to Stanford University for
an evening of conversation
with Yuval Harari, Fei-Fei
Li, and Nick Thompson.
I'm a professor of political science here
and the faculty director
of the Stanford Center
for Ethics in Society,
which is a co-sponsor
of tonight's event along
with the Stanford Institute
for Human-Centered Artificial Intelligence
and the Stanford Humanities Center.
Our topic tonight is a big one.
We're going to be thinking
together about the promises
and perils of artificial intelligence,
the technology quickly
reshaping our economic, social,
and political worlds
for better or for worse.
The questions raised
by the emergence of AI
are by now familiar, at
least to many people here

English: 
in Silicon Valley, but
I think it's fair to say
that their importance is only growing.
What will the future of work look like
when millions of jobs can be automated?
Are we doomed or perhaps
blessed to live in a world
where algorithms make
decisions instead of humans?
And these are smaller questions
in the big scheme of things.
What, might you ask, of the large ones?
Well, here are three.
What will become of the human species
if machine intelligence approaches
or exceeds that of an
ordinary human being?
As a technology that currently relies
on massive centralized pools of data,
does AI favor authoritarian
centralized governance
over more decentralized
democratic governance?
And are we at the start
now of an AI arms race,
and what will happen if powerful
systems of AI, especially
when deployed for purposes
like facial recognition,

Chinese: 
但我们不能说
这些问题的的重要性将只增不减。
当数百万个工作岗位实现自动化时，
未来的工作会是什么样子？
生活在一个由算法而不是人类做决定的世界里,
我们是命中注定还是无比幸运？
这些都是大计划中的小问题。
也许你们会问，那什么才是大问题？
这里有三个问题：
如果机器智能可以接近或超过
普通人的能耐，
人类这个物种会变成什么样？
作为一种目前依赖于
大量集中的数据池的技术，
人工智能是否有利于独裁主义的集中管制，
而非更加分散的民主治理？
我们目前正处于一场人工智能军备竞赛中吗？
如果强大的人工智能系统——尤其在
面部识别被有目的部署的情况下——

Polish: 
w Dolinie Krzemowej, ale ich waga
jest coraz większa.
Jak będzie wyglądała przyszłość pracy,
gdy miliony zawodów zostaną zautomatyzowane?
Przekleństwem czy błogosławieństwem byłoby żyć w świecie,
gdzie decyzje podejmują algorytmy, nie ludzie?
Wszystko to są małe pytania w ogromnej perspektywie.
Jak, w takim razie, brzmią te duże?
Są trzy.
Co się stanie z ludzkością,
jeśli inteligencja maszyn dogoni
lub przegoni naszą?
Skoro technologia jest obecnie skoncentrowana
w wielkich centrach danych,
czy AI sprzycia scentralizowanym rządom autorytarnym,
raczej niż zdecentralizowanej demokracji?
I czy jesteśmy u progu nowego wyścigu zbrojeń
i co się stanie, gdy potężne systemy AI,
szczególnie takie jak rozpoznawanie twarzy,

English: 
are in the hands of authoritarian rulers?
These challenges only scratch the surface
when it comes to fully wresting
with the implications of AI
as the technology continues to improve
and its use cases continue to multiply.
I wanna mention the format
of the evening event.
First, given the vast areas of expertise
that Yuval and Fei-Fei
have, when you ask questions
via Slido, those questions should pertain
or be limited to the topics
under discussion tonight.
So this web interface
that we're using, Slido,
allows people to up vote
and down vote questions,
so you can see them now if you have
an Internet communication device.
If you don't have one, you can
take one of these post cards,
which hopefully you got
outside, and on the back,
you can fill in a question you might have
about the evening event
and collect it at the end,
and the Stanford Humanities Center
will try to foster some
type of conversation
on the basis of those questions.
A couple housekeeping things.
If you didn't purchase
one already, Yuval's books

Chinese: 
落入独裁主义统治者手中会发生什么？
当提到人工智能的全面影响，
这些挑战才刚刚触及皮毛，
因为人工智能技术在不断改进；
其应用范围也在不断扩大。
我来介绍一下今晚活动的形式。
首先，鉴于尤瓦尔和飞飞拥有的
渊博的学识，当你们通过slido提问时，
这些问题应该适用于或
限于今晚讨论的主题。
我们所使用的网络交互界面——Slido,
可以给上面的问题投赞同票或者反对票，
如果你手上有上网设备，
你现在就能看到这些问题。
如果你没有上网设备的话，可以拿明信片，
希望你刚才在场外拿到了。
在卡片背后你可以写下关于今晚活动的问题，
我们将在最后收集。
斯坦福人文中心将尝试
在这些问题的基础上
促成某种形式的对话。
以下是一些琐碎的嘱咐。
如果你还没买尤瓦尔的书，

Polish: 
wpadnie w ręce autokratów?
Te wyzwania to jedynie czubek góry lodowej
wszystkich implikacji AI,
jej rozwoju
i popularyzacji jej użytku.
Chciałbym wyjaśnić format dzisiejszego wydarzenia.
Po pierwsze, z uwagi na szerokie spektrum specjalizacji
Yuvala i Fei-Fei, jeśli macie jakieś pytania
do przekazania przez Slido, powinny one być
ograniczone do tematów dzisiejszej dyskusji.
Slido, interfejs którego używamy,
umożliwia głosowanie nad pytaniami.
Możecie je zobaczyć
na urządzeniach z internetem.
Jeśli takiego nie macie, możecie wziąć jedną z karteczek,
które, mam nadzieję, dostaliście przed wejściem.
Napiszcie swoje pytanie z tyłu;
zbierzemy je na koniec
i Centrum Nauk Humanistycznych
postara się zorganizować jakąś rozmowę
na ich podstawie.
Kilka rzeczy organizacyjnych:
Jeśli jeszcze ich nie kupiliście, książki Yuvala

Chinese: 
可以在散场后到外面的大堂选购。
请您将手机静音。
整个座谈时间
为90分钟，
90分钟后我们将准时结束。
现在我将离开这个舞台，
接下来，一位斯坦福大学杰出的本科生
将为我们介绍来宾。
她是安娜·索菲亚·莱瑟。
我来向你们介绍一些她的事迹。
她在斯坦福大学读大三，主修经济学
辅修计算机科学。
在课外，安娜·索菲亚是一名记者，
她的作品曾发表于《环球邮报》，
半岛电视台、《水星新闻报》，《西雅图时报》，
以及校报《斯坦福日报》。
她目前是《斯坦福日报》的执行编辑，
今年早些时候她在杂志刊发的名为
《计算机科学+伦理》的文章，审视了
斯坦福大学计算机科学和伦理教育的历史。

English: 
are available for sale outside
in the lobby after the event.
A reminder to please turn
your cell phone ringers off.
And we will have 90 minutes
for our moderated conversation here
and will end sharp after 90 minutes.
Now, I'm going to leave
the stage in just a minute
and allow a really amazing
undergraduate student here
at Stanford to introduce our guests.
Her name is Anna-Sofia
Lesiv, let me just tell you
a bit about her.
She's a junior here at
Stanford, majoring in economics
with a minor in computer science.
And outside the classroom,
Anna-Sofia is a journalist
whose work has been featured
in The Globe and Mail,
Al Jazeera, The Mercury
News, The Seattle Times,
and this campus' paper of
record, The Stanford Daily.
She's currently the executive
editor of the Daily,
and her daily magazine
article from earlier
in the year called CS +
Ethics examined the history
of computer science and
ethics education at Stanford,

Polish: 
będą do kupienia po wydarzeniu, w lobby.
Przypominam o wyciszeniu telefonów.
Moderowana dyskusja
będzie trwała 90 minut.
Skończymy dokładnie za 90 minut.
Już za minutę zejdę ze sceny
i pozwolę naprawdę wspaniałemu studentowi
przedstawić naszych gości.
Nazywa się Anna-Sofia Lesiv, pozwólcie że krótko
o niej opowiem.
Jest na trzecim roku studiów ekonomicznych,
które łączy z informatyką.
Anna-Sofia jest dziennikarką,
której prace publikował The Globe, Mail,
Al Jazeera, The Mercury News, The Seattle Times
i nasza gazeta, The Stanford Daily.
Obecnie jest redaktorem naczelnym Daily.
Jej artykuł z tego roku,
"Informatyka + Etyka", opisywał historię
edukacji informatyki i etyki na Stanfordzie

Polish: 
i wygrał studencką nagrodę za najlepszy artykuł 2018.
Anna ciągle publikuje próbki statystyczne
związane z wyzwaniami etycznymi
technologii.
Panie i panowie, proszę zapamiętajcie
to nazwisko, bo już wkrótce będziecie czytać artykuły jej
lub o niej, a najprawdopodobniej oba.
Proszę powitajcie Annę-Sofię Lesiv.
(oklaski)
- Dziękuję bardzo za wstęp, Rob.
Bardzo mi miło powitać
naszych dzisiejszych gości: Yuvala Noaha Harariego,
Fei-Fei Li i Nicholasa Thompsona.
Profesor Yuval Noah Harari jest historykiem,
futurystą, filozofem i profesorem na Uniwersytecie Hebrajskim.
Świat zna go jako autora kilku
z najbardziej ambitnych i wpływowych książek naszej dekady.
Książki Profesora Harariego,
które sprzedały się w milionach kopii na całym świecie,

Chinese: 
这篇文章获得了“2018年度最佳学生新闻奖”。
她仍在继续发表真知灼见的报道——
探究这里和其他地方的技术专家
所面临的伦理挑战。
女士们，先生们，
我想请你们记住这个名字——
你们会读到她的事迹或者文章或者兼而有之。
欢迎斯坦福大学大三学生安娜·索菲亚·莱瑟。
（观众鼓掌）
非常感谢你的介绍，罗布。
我现在很荣幸地介绍三位嘉宾：
尤瓦尔·诺亚·赫拉利教授、
李飞飞教授以及尼古拉斯·汤普森。
尤瓦尔·诺亚·赫拉利教授是一位历史学家，
未来主义者、哲学家和希伯来大学的教授。
最近十年，他也因为写了几本最野心勃勃
和最有影响力的书而为世人所知。
赫拉利教授的国际畅销书，
在全球销售了上千万册。

English: 
and it won the student prize
for best journalism of 2018.
She continues to publish
probing examinations
of the ethical challenges faced
by technologists here and elsewhere.
So ladies and gentlemen,
I invite you to remember
this name, for you'll be reading about her
or reading her articles or likely both.
Please welcome Stanford
junior Anna-Sofia Lesiv.
(audience applauding)
- Thank you very much for
the introduction, Rob.
Well, it's my great honor now to introduce
our three guests tonight,
Yuval Noah Harari,
Fei-Fei Li, and Nicholas Thompson.
Professor Yuval Noah
Harari is a historian,
futurist, philosopher, and
professor at Hebrew University.
The world also knows
him for authoring some
of the most ambitious and
influential books of our decade.
Professor Harari's internationally
best selling books,
which have sold millions
of copies worldwide,

English: 
have covered a dizzying
array of subject matter,
from narrativizing the entire history
of the human race and sapience
to predicting the future
awaiting humanity,
and even coining a new faith
called dataism in Homo Deus.
Professor Harari has
become a beloved figure
in Silicon Valley whose
readings are assigned
in Stanford's classrooms and
whose name is whispered through
the hallways of the comparative literature
and computer science departments alike.
His most recent book is 21
Lessons for the 21st Century,
which focuses on the
technological, social,
political, and ecological
challenges of the present moment.
In this work, Harari cautions that,
as technological breakthroughs
continue to accelerate,
we will have less and
less time to reflect upon
the meaning and consequences
of the changes they bring.
And this urgency is what charges
professor Fei-Fei Li's work every day
in her role as the co-director
of Stanford's Human-Centered AI Institute.
This institute is one of
the first to insist that AI
is not merely the domain of technologists,

Polish: 
mówią o wielu aspektach najważniejszych obecnie spraw,
od narracyjności historii
rodzaju ludzkiego
do przewidywań przyszłości która czeka ludzkość,
a nawet tworzenia nowej religii, w Homo Deus, dataizmu.
Profesor Harari jest ukochaną postacią
Doliny Krzemowej, którego dzieła czytane są
w klasach Stanforda i którego imię jest szeptane
zarówno na wydziale literatury porównawczej
jak i wydziale informatyki.
Jego najnowsza książka, "21 lat
Lekcji na XXI wiek",
która koncentruje się na technologicznych, społecznych,
politycznych i ekologicznych wyzwaniach obecnie...
W tej pracy Harari ostrzega, że
przyspieszający przełom technologiczny
pozbawi nas czasu na refleksję
nad znaczeniem i konsekwencjami
zmian, które mu towarzyszą.
Pilność tych spraw motywuje
pracę profesor Fei-Fei Li każdego dnia,
jako współdyrektor
Instytutu Sztucznej Inteligencji Skoncentrowanej na Ludziach.
Ten instytut jest jednym z pierwszych, który twierdził, że AI
to nie tylko dziedzina technologów,

Chinese: 
他的书涵盖了一系列令人眼花缭乱的主题，
《人类简史》从叙述人类的
整个历史着眼；
再在《未来简史》中预测人类即将面对的未来，
甚至提出了一种新的信仰——“数据主义”。
赫拉利教授已成为深受“硅谷”热爱的人物。
他的书在列入斯坦福学生的书单；
在比较文学系的走廊里
总能听到人们提到他的大名；
在计算机科学系情况也是类似。
他最新的一本书是《今日简史》，
这本书关注当下的技术、社会
政治和生态挑战。
在这本书中，赫拉利教授警告世人：
随着技术突破的不断加快，
我们会越来越没时间反省技术变革的意义
和变革带来的结果。
而这种紧迫性正在每天
冲击着李飞飞教授的工作。
李飞飞教授是斯坦福人本中心
人工智能研究所的联合主任。
该研究所是首个坚信人工智能
不仅是一个技术领域，

English: 
but a fundamentally interdisciplinary
and ultimately human issue.
Her fascination with the
fundamental questions
of human intelligence is
what piqued her interest
in neuroscience, as she
eventually become one
of the world's greatest
experts in the fields
of computer vision, machine learning,
and cognitive and
computational neuroscience.
She's published over
100 scientific articles
in leading journals and
has had research supported
by the National Science Foundation,
Microsoft, and The Sloan Foundation.
From 2013 to 2018,
professor Fei-Fei Li served
as the director of Stanford's AI lab,
and between January
2017 and September 2018,
professor Fei-Fei Li served
as vice president at Google
and chief scientist of
AI and machine learning
at Google Cloud.
Nicholas Thompson is the editor-in-chief
of Wired Magazine, a position
he's held since January 2017.
Under Mr. Thompson's leadership,
the topic of artificial
intelligence has come
to hold a special place at the magazine.
Not only has Wired assigned
him more feature stories

Chinese: 
还从根本上是一个跨学科的、
终极的人类问题。
她对人类智能基本问题的着迷
激发了她对神经科学的兴趣.
她最终成为了世界上
最伟大的跨学科专家——
她的研究涉及计算机视觉、机器学习、
认知和计算神经科学。
她在前沿期刊上发表了
一百多篇科研成果。她的研究得到了
国家科学基金会、
微软和斯隆基金会的支持。
从2013年到2018年，李飞飞教授担任
斯坦福人工智能实验室的主任。
从2017年1月到2018年9月，
李飞飞教授担任谷歌副总裁
并兼任谷歌云的人工智能
和机器学习首席科学家。
尼古拉斯·汤普森自2017年1月起
担任《连线》杂志的主编。
在汤普森先生的领导下，
人工智能的话题在
该杂志占据了特殊地位。
《连线》杂志不但分配给人工智能

Polish: 
ale zasadniczo kwestia interdyscyplinarna
i, ostatecznie, ludzka.
Jej fascynacja podstawowymi pytaniami na temat
ludzkiej inteligencji jest powodem jej zainteresowania
neurobiologią. Jest jednym
z największych ekspertów na świecie w dziedzinach
wizji komputerowej, uczenia maszynowego
i kognitywnego oraz neuronauki obliczeniowej.
Opublikowała ponad 100 artykułów naukowych
w wiodących czasopismach i uzyskała wsparcie badań
od Narodowej Fundacji Nauki,
Microsoftu i Fundacji Sloan.
Od 2013 do 2018 r.
profesor Fei-Fei Li służyła
jako dyrektor laboratorium AI Stanforda.
Między styczniem
2017 i wrześniem 2018 r.,
profesor Fei-Fei Li była wiceprezesem Google
i głównym naukowcem do spraw AI i uczenia maszynowego
w Google Cloud.
Nicholas Thompson jest redaktorem naczelnym
Wired Magazine; stanowisko objął w styczniu 2017 r.
Pod przewodnictwem pana Thompsona
temat sztucznej inteligencji
zajął specjalne miejsce w magazynie.
Wired nie tylko opublikowało więcej artykułów

English: 
on AI than on any other subject,
but it is the only specific topic
with a full time reporter assigned to it.
It's no wonder then that
professors Harari and Li
are no strangers to its pages.
Mr. Thompson has led discussions
with the world's leaders
in technology and AI,
including Mark Zuckerberg
on Facebook and privacy,
French president Emmanuel
Macron on France's AI strategy,
and Ray Kurzweil on the
ethics and limits of AI.
Mr. Thompson is a Stanford
University graduate
who earned his BA double
majoring in Earth systems
and political science, and impressively,
even completed a third
degree in economics.
Of course, I would be
remiss if I did not mention
that Mr. Thompson cut
his journalistic teeth
in the opinion section
of the Stanford Daily.
So Nick, that makes both of us.
Like all our guests today, I am
at once fascinated and
worried by the challenges
that artificial intelligence
poses for our society.
One of my goals at Stanford has been
to write about and document the challenge

Chinese: 
远多于其他选题的报道篇幅；
而且也让人工智能成为了
唯一一个配备全职记者的选题。
毫无疑问，赫拉利教授和李教授
的名字常在《连线》杂志出现。
汤普森先生曾与科技和人工智能领域的
世界级领袖展开过讨论。
包括和马克·扎克伯格探讨脸书及其隐私问题；
和法国总统埃马纽埃尔·马克龙
探讨法国的人工智能战略；
和谷歌工程总监雷蒙德·库茨魏尔
探讨人工智能的伦理和局限。
汤普森先生是斯坦福大学校友，
他获得地球系统和政治学的双学士，
了不起的是，
他还修完了经济学的学位。
当然，我一定要提一下，
他是在《斯坦福日报》的意见板块
开启了职业记者的生涯。
尼克，《斯坦福日报》成就了你我。
和今天的嘉宾一样，
我对人工智能给社会带来的挑战
感到既着迷又忧虑。
我在斯坦福大学的目标之一
就是报道和记录下教育新一代学生的挑战。

Polish: 
o AI niż jakikolwiek innym temacie,
ale też jest to jedyny temat
z przypisanym pełnoetatowym reporterem.
Nic dziwnego, że profesorowie Harari i Li
często goszczą na stronach magazynu.
Pan Thompson prowadził dyskusje
ze światowymi liderami technologii i sztucznej inteligencji,
w tym Markiem Zuckerbergiem, o Facebooku i prywatności,
Prezydentem Francji Emmanuelem
Macronem o francuskiej strategii AI,
i Rayem Kurzweilem o etyce i ograniczeniach AI.
Pan Thompson jest absolwentem Stanforda,
na którym ukończył zarówno studia w naukach o systemach ziemskich,
i politologii, a nawet
w ekonomii.
Oczywiście, nie mogę nie wspomnieć, że
Mr. Thompson zaczynał karierę dziennikarską
w dziale opinii Stanford Daily.
Nick, jest nas dwoje.
Tak jak wszyscy nasi goście dzisiaj, jestem
zafascynowana i zmartwiona wyzwaniem,
które sztuczna inteligencja stanowi dla naszego społeczeństwa.
Jednym z moich celów na Stanfordzie było
opisywanie i dokumentowanie wyzwania

English: 
of educating a generation
of students whose lives
and workplaces will eventually
be transformed by AI.
Most recently, I published
an article called Complacent
Valley with the Stanford Daily.
In it, I critiqued our propensity
to become overly comfortable
with the technological
and financial achievements
that Silicon Valley
has already reached lest
we become complacent
and lose our ambition and momentum
to tackle the great challenges
the world has in store.
Answering the fundamental questions
of what we should spend our time on,
how we should live our lives
has become much more difficult,
particularly on the doorstep
of the AI revolution.
I believe that the kind
of crisis of agency
that author J. D. Vance
wrote of in Hillbilly Elegy,
for example, is not confined to Appalachia
or the deindustrialized Midwest,
but is emerging even at elite
institutions like Stanford.
So conversations like ours
this evening hosting speakers
that aim to recenter the
individual at the heart of AI
will show us how to take
responsibility in a moment
when most decisions can seemingly be made

Chinese: 
这代学生的生活和工作场所
都将最终被人工智能所改变。
最近，我在《斯坦福日报》发表了
一篇名为《自满谷》的文章。
在这篇文章中，我批评了我们
因为“硅谷”已取得技术和金融上的成就
而变得过度舒适的这一倾向。
我唯恐我们自鸣得意，
失去了应付世界巨大挑战
的雄心和动力。
在人工智能革命即将到来之际，
回答“我们该把时间花在哪里？”
“我们该如何过好人生？”
这类问题变得越来越难。
我相信那种例如，
作家J·D·万斯在《乡下人的悲歌》中所描写的代理危机，
并不局限于阿巴拉契亚
或去工业化的中西部，
它也出现在像斯坦福大学这样的精英机构。
因此，今晚我们的对话，
旨在将个人重新置于人工智能的核心位置，
这将向我们展示如何在大多数看似
可以让算法为我们

Polish: 
edukacyjnego pokolenia studentów, których życie
i miejsca pracy zostaną przekształcone przez AI.
Ostatnio opublikowałam
artykuł o nazwie Dolina Zadowolenia w Stanford Daily.
Skrytykowałam w nim naszą skłonność
do idealizowania technologii
i osiągnięć finansowych Doliny Krzemowej,
które prowadzi nas do samozadowolenia
oraz utraty ambicji i rozpędu
w stawianiu czoła wielkim wyzwaniom dzisiejszego świata.
Odpowiedzi na fundamentalne pytania
jak powinniśmy spędzać nasz czas,
jak powinniśmy żyć, stały się znacznie trudniejsze
u progu rewolucji AI.
Wierzę, że ten kryzys agencji,
o którym J. D. Vance pisał w Hillbilly Elegy,
nie dotyczy wyłącznie Apallachów
i nieuprzemysłowionego Midwest,
ale wyrasta nawet w elitarnych instytucjach, takich jak Stanford.
Więc rozmowy takie jak ta dzisiejsza,
które starają się znowu umieścić człowieka w centrum zainteresowania,
pokażą nam jak brać odpowiedzialność,
gdy większość decyzji będzie

Polish: 
potencjalnie podejmowana przez algorytmy.
Nie istnieją narracje, które poprowadziłyby nas
przez przyszłość ze sztuczną inteligencją, żadne starożytne mity czy legendy,
na których moglibyśmy się oprzeć, które powiedziałyby nam co robić.
W momencie, gdy ludzkość stawia czoła
największemu wyzwaniu w historii,
nie możemy sobie pozwolić na utratę idei lub kierunku.
To właśnie ten wybór, o historycznym znaczeniu,
przyciągnął mnie do dziennikarstwa i pisarstwa.
Dlatego bardzo chętnie usłyszę
co nasi mówcy mają do powiedzenia o przyszłości.
Więc proszę, razem ze mną,
gorąco ich powitajcie.
(oklaski)
- Wow.
Dziękuję bardzo, Anna-Sofia, dziękuję, Rob.
Dziękuję, Stanford, za zaproszenie nas tutaj.
Przypominają mi się czasy, gdy ostatni raz byłem na scenie
w Stanfordzie, gdy grałem na gitarze w CoHo.
Nie było tam ze mną ani Yuvala ani Fei-Fei.
W zasadzie było tylko 6 osób na widowni,

Chinese: 
做出决策的时刻承担责任。
没有任何叙述可以用人工智能
引导我们走向未来。我们无法
依靠古老的神话和故事告诉我们何去何从。
在人类面临最大
挑战的时候，不知为何，
我们不能再束手无策，失去方向。
这是人类历史上重要的十字路口，
它将我拉向新闻业并对未来展开写作。
这就是为什么今晚我渴望听到
三位嘉宾聚在一起讨论未来。
所以请和我一起
对他们表示热烈的欢迎。
（观众鼓掌）
哇
非常感谢你。安娜·索菲亚。谢谢你，罗布。
感谢斯坦福大学邀请我们。
记得上次在斯坦福大学登台，
我是在大学的咖啡屋（CoHo）弹吉他。
也没有尤瓦尔或者飞飞看我表演。
有六个观众，

English: 
for us by algorithms.
There are no narratives
to guide us through
a future with AI, no
ancient myths or stories
that we may rely on to tell us what to do.
At a time when humanity is facing
its greatest challenge yet, somehow,
we cannot be more at a loss
for ideas or direction.
It's this momentous
crossroads in human history
that pulls me towards journalism
and writing in the future,
and it's why I'm so eager to hear
our three guests discuss
exactly such a future tonight.
So please, give me a very, please join me
in giving them a very
warm welcome this evening.
(audience applauding)
- Wow.
Thank you so much,
Anna-Sofia, thank you, Rob.
Thank you, Stanford, for
inviting us all here,
I'm having a flashback to the
last time I was on a stage
at Stanford, which was
playing guitar at the CoHo.
And I didn't have either
Yuval or Fei-Fei with me,
so there were about six
people in the audience,

Chinese: 
其中一个还戴着耳机。
但我是在那里遇到了我妻子。
甜蜜吧？
好吧，再来啰嗦几句杂话，
问题会显示在Slido界面上。
你可以提问题，可以给问题投票，
我们已经有几千个提问了，
请给你喜欢的问题投票。
如果有人可以编出人工智能，
用它提出个毁灭性问题并难住尤瓦尔，
我就奖励你《连线》的免费订阅。
我希望这次对话分为三部分。
首先是介绍现状，
然后讨论一些我们现在必须做出的选择。
最后，为在座的各位
探讨出一些建议。
这便是我将提问的
三部分内容。
结束前可能会有特定的提问时间，
我们得开始了。
尤瓦尔
上次我们交流的时候，您提到
你有很多精彩的言论，但最突出的
是您的一句话：
我们不仅处于一场技术危机中，
我们也处于一场哲学危机中。

Polish: 
z czego jedna nosiła słuchawki.
Ale poznałem wtedy moją żonę.
Czy to nie słodkie?
Ok, w ramach przypomnienia, sprawy organizacyjne.
Pytania będą nadchodzić przez Slido.
Możecie je tam zadawać, możecie na nie głosować.
Już mamy kilka tysięcy.
Więc proszę, głosujcie na te, które naprawdę wam się podobają.
Jeśli ktoś potrafi zaprogramować AI, które
zada naprawdę zabójcze pytanie Yuvalowi,
dostanie ode mnie darmową subskrypcję Wired.
Chciałbym podzielić tę rozmowę na 3 części.
Po pierwsze, wyjaśnijmy dlaczego tu jesteśmy.
Potem porozmawiajmy o wyborach które stoją przed nami teraz.
a na końcu przedstawmy rady dla
wszystkich tych cudownych ludzi.
Zatem istnieją 3 główne obszary,
co jakiś czas będę dorzucał jakieś pytanie.
Możemy zakończyć któryś etap pytaniami,
ale zaczynajmy.
Yuval.
Ostatnim razem gdy rozmawialiśmy, powiedziałeś wiele
znakomitych rzeczy, ale szczególnie zapadło mi w pamięć
twoje twierdzenie, że nie doświadczamy
tylko kryzysu technologicznego, ale również filozoficznego.

English: 
one of whom had her headphones on.
But I did meet my wife.
Isn't that sweet?
All right, so a reminder, housekeeping.
Questions are gonna come in in Slido,
you can put them in, you
can vote up questions,
we've already got several thousand.
So please, vote up the
ones you really like.
If someone can program an AI that can get
a really devastating
question in and stump Yuval,
I will get you a free
subscription to Wired.
I want this conversation to
kind of have three parts.
First, lay out where we are.
Then talk about some of the
choices we have to make now.
And last, talk about some advice for all
of the wonderful people in the halls.
So those are the three general areas,
I'll feed in questions as we go.
We may have a specific period
for questions at the end,
but let's get cracking.
Yuval.
So the last time we talked, you said many,
many brilliant things,
but one that stuck out,
it was a line where you
said, we are not just
in a technological crisis, we
are in a philosophical crisis.

English: 
So explain what you meant,
explain how it ties to AI,
and let's get going with a
note of existential angst.
- Yeah, so I think what's happening now
is that the philosophical
framework of the modern world
that has been established
in the 17th and 18th century
around ideas like human agency
and individual free will
are being challenged like never before.
Not by philosophical ideas,
but by practical technologies.
And we see more and more questions,
which used to be, you
know, the bread and butter
of the philosophy department being moved
to the engineering department.
And that's scary partly
because, unlike philosophers
who are extremely patient people.
They can discuss something
for thousands of years
without reaching any agreement
and they are fine with that.

Polish: 
Wyjaśnij co miałeś na myśli, wyjaśnij co to ma wspólnego z AI,
a najlepiej dorzuć jeszcze odrobinę obaw egzystencjalnych.
- Tak, myślę że obecnie
filozoficzne fundamenty naszego świata,
powstałe w XVII i XVIII wieku,
wokół idei takich jak ludzie-agenci i wolna wola,
są podważane jak nigdy wcześniej.
Nie przez idee filozoficzne, ale przez praktyczne technologie.
Stoi przed nami coraz więcej pytań,
które sprawiają, że praca
wydziału filozofii jest przenoszona
do wydziału inżynierii.
Jest to przerażające, między innymi dlatego, że, w przeciwieństwie do filozofów,
którzy są ekstremalnie cierpliwymi ludźmi,
potrafią dyskutować nad czymś przez tysiące lat
nie rozwiązując ostatecznie niczego,

Chinese: 
您指的是什么？它是如何与人工智能联系的？
让我们带着存在主义的焦虑开始吧。
我认为现在正在发生的是，
于十七、十八世纪，
围绕着人类能动性和个体自由意志等概念
建立起来的现代哲学框架，
正面临着空前的挑战。
这种挑战并非源于哲学理念，而是源于实用技术。
我们目睹越来越多的问题，
那些本属于哲学领域
的基本问题正逐步
转变成工程领域的问题。
这件事很可怕，部分是因为
哲学家都是极为耐心的人，
他们可以为一个问题讨论数千年，
并不急于达成共识，并安之若素。

Polish: 
inżynierzy nie mogą czekać.
Nawet jeśli chcieliby zaczekać,
to inwestorzy sponsorujący ich pracę z całą pewnością nie.
Oznacza to, że nie mamy dużo czasu.
Żeby streścić na czym polega ten kryzys...
Inżynierzy, szczególnie
w miejscach takich jak Dolina Krzemowa, lubią równania.
Może spróbujmy sformułować równanie,
które opisze co się dzieje.
Równanie brzmi: B*C*D=H.
Oznacza to: biologiczną wiedza pomnożona przez
moc obliczeniową pomnożona przez dane
równa się możliwość hackowania ludzi.
Rewolucja AI nie odnosi się tylko do AI,
ale również biologii. Powstaje biotechnologia.
Nie widzimy jeszcze żadnych przykładów,
ponieważ proces jeszcze się nie skończył.

Chinese: 
然而工程师们和哲学家不同，才不会等。
即使工程师们愿意等，
工程师背后的投资者也不会等。
所以这意味着，我们没有太多的时间了。
为了概述一下我们面临的危机，
工程师们，
尤其“硅谷”的工程师们喜欢公式。
对于正在发生的变革，我可以试着
像工程师一样列出这样一个等式：
B×C×D=H。
生物学知识乘以计算能力
再乘以数据等于
非法侵入人类的能力。
而人工智能的革命并不只关于人工智能
也关于生物学，这是生物技术。
我们尚未察觉是因为
两者之间的关联尚未完成。

English: 
The engineers won't wait.
And even if the engineers
are willing to wait,
the investors behind the
engineers won't wait.
So it means that we
don't have a lot of time.
And in order to encapsulate
what the crisis is,
I know that, you know,
engineers, especially
in a place like Silicon
Valley, they like equations.
So maybe I can try and
formulate an equation
to explain what's happening.
And the equation is B
times C times D equals H.
Which means biological
knowledge multiplied
by computing power
multiplied by data equals
the ability to hack humans.
And the AI revolution or
crisis is not just AI,
it's also biology, it's biotech.
We haven't seen anything yet because
the link is not complete.

Polish: 
Jest obecnie duży hype wokół AI i komputerów,
ale to tylko jedna strona medalu.
Drugą jest wiedza biologiczna
pochodząca z biologii i kognitywistyki.
Łącząc to z AI, dostaniemy
możliwość hackowania ludzi.
Wyjaśnię co to znaczy.
Hackowanie ludzi oznacza tworzenie algorytmu,
który zrozumie mnie lepiej niż ja siebie rozumiem
i przez to może mnie zmanipulować, ulepszyć lub zastąpić.
Jest to coś, co nasze filozoficzne zaplecze
i nasze przekonania, na przykład dotyczące ludzi-agentów,
wolnej woli, tego, że klient ma zawsze rację
i tego, że wyborca wie najlepiej, okazują się nieprawdą,
gdy masz takie możliwości.
- Gdy masz takie możliwości i gdy są wykorzystywane
żeby manipulować tobą lub ciebie zastąpić,
nie żeby cię ulepszyć.

Chinese: 
围绕着人工智能和计算机有很多大肆宣传，
但这只是这项技术的一半。
它的另一半是来自脑科学和生物学
的生物学知识。
一旦你将其与人工智能关联上，
你将获得侵入人类的能力。
让我解释一下这意味着什么，
入侵人类的能力是通过创建一种算法，
使它能比我自己更了解我自己。
因此它能够操纵我，提高我，或者取代我。
这是我们哲学上的包袱，
也是我们所信仰的东西——
比如人的能动性、自由意志、“顾客永远是对的”，
以及“选民对此最清楚”。
一旦你有了侵入人类的能力，这些理念就崩塌了。
一旦你有了这种能力，
如果不用它提升你，
它就会操纵或取代你

English: 
There is a lot of hype now
around AI and computers
but just, there is just half the story.
The other half is the biological knowledge
coming from brain science and biology.
And once you link that to AI, what you get
is the ability to hack humans.
And maybe I'll explain what it means,
the ability to hack humans
to create an algorithm
that understands me better
than I understand myself
and can therefore manipulate
me, enhance me, or replace me.
And this is something that
our philosophical baggage
and all our belief in,
you know, human agency
and free will and the
customer is always right
and the voter knows best,
this just falls apart
once you have this kind of ability.
- Once you have this kind
of ability and it's used
to manipulate or replace
you, not if it's used
to enhance you.

Polish: 
- Nawet gdy mówimy o ulepszaniu, pytanie brzmi
kto decyduje co jest dobrym ulepszeniem
a co złym?
Pierwszym instynktem jest, żeby oprzeć się na
tradycyjnych ideach humanistycznych,
że klient ma zawsze rację.
Klient wybierze jakie chce ulepszenie.
Albo, jeśli wyborca ma zawsze rację, to oni zagłosują,
ulepszenia będą polityczną decyzją.
Albo, jeśli czujesz się z tym dobrze, zrób to.
Będziemy po prostu podążać za wewnętrznym głosem.
Nic z tego nie działa w przypadku technologii
hackowania ludzi na szeroką skalę.
Nie możesz ufać swoim uczuciom, wyborcom,
ani klientom.
Najłatwiej zmanipulować ludzi,
którzy wierzą w wolną wolę, ponieważ myślą,
że nie mogą być zmanipulowani.
Jak więc zdecydować co można ulepszać,

English: 
- Also when it's used to
enhance you, the question is,
who decides what is a good enhancement
and what is a bad enhancement?
So our immediate fallback
position is to fall back
on the traditional humanist ideas
that the customer is always right.
The customers will choose the enhancement.
Or the voter is always
right, the voters will vote,
there will be a political
decision about enhancement.
Or if it feels good, do it.
We'll just follow our heart,
we'll just listen to ourselves.
None of this works when
there is a technology
to hack human on a large scale.
You can't trust your
feelings or the voters
or the customers on that.
The easiest people to
manipulate are the people
who believe in free
will, because they think
they cannot be manipulated.
So how do you decide what to enhance if,

Chinese: 
另外，如果它要提升你，问题是：
谁来决定什么是好的提升，
什么是坏的提升？
所以我们的应变方式是退回到
传统的人文主义观点，
即“顾客永远是对的”。
顾客会选择提升的方式。
或者“选民永远是对的”，选民会投票，
投出一个如何提升的政治性决定。
如果这种方式感觉很好，那就做。
我们随心而为，听命于自己。
当大规模的侵入人类发生时，
这些都将不起作用。
在此事上，你不能相信你的
感受、选民或者顾客。
最容易被操纵的就是那些
相信自由意志的人，因为他们认为
他们不可能被操纵。
你要如何决定进行提升。

Chinese: 
这是一个非常深刻的伦理以及哲学问题。
再者，哲学家们几千年来
一直在争论什么是好的；
什么是我们需要加强的好品质？
所以如果你不信任顾客，如果你不信任选民，
如果你不信任自己的感受，
那你信任谁，你将何去何从？
-好吧，飞飞，你有博士学位，
还有一个计算机科学学位，
还是一名斯坦福大学的教授。
你认为A乘以B乘以C等于H吗？
对于我们前行的方向
尤瓦尔的理论正确吗？
-好吧。
你起了个好头，谢谢你，尤瓦尔。
过去几年我一直在读尤瓦尔的书，
还与你进行了交谈。
我现在非常嫉妒哲学家，
因为他们可以提出危机中的问题，
却不必做出回答。
（观众笑声）

English: 
and this is a very deep ethical
and philosophical question.
Again, that philosophers
have been debating
for thousands of years, what is good,
what are the good qualities
we need to enhance?
So if you can't trust the
customer, if you can't trust
the voter, if you can't
trust your feelings,
who do you trust, what do you go by?
- All right, Fei-Fei, you have
a PhD, you have a CS degree,
you're a professor at Stanford.
Does A times B times C equal H?
Is Yuval's theory the right way
to look at where we're headed?
- Well.
What a beginning, thank you, Yuval.
One of the things, I've
been reading Yuval's book
for the past couple of
years and talking to you.
And I'm very envious of philosophers now,
because they can propose
questions in crisis,
but they don't have to answer them.
(audience laughing)

Polish: 
skoro jest to tak głębokie pytanie etyczne i filozoficzne.
Ponownie, filozofowie dyskutowali
przez tysiące lat co jest dobre
i jakie dobre cechy musimy ulepszać.
Jeśli nie możemy zaufać klientowi,
wyborcy ani swoim uczuciom,
komu zaufamy?
- W porządku, Fei-Fei, masz doktorat, masz dyplom z informatyki,
jesteś profesorem Stanforda.
Czy A*B*C=H?
Czy Yuval
ma rację?
- Cóż.
Na początek, dziękuję, Yuval.
Czytałam twoje książki
przez ostatnie kilka lat i możliwość porozmawiania z tobą...
Bardzo zazdroszczę filozofom,
ponieważ mogą oni stawiać pytania,
na które nie mają odpowiedzi.
(śmiech)

Chinese: 
作为一名工程师、科学家，我觉得
我们现在必须解决危机。
所以说实话，我非常感谢。我的意思是
就我个人而言，这两年一直在读你的书。
和其他人一样，我非常感谢尤瓦尔
提出了对我们很重要的问题。
而且，当你提出人工智能危机时，
我坐在那里想，
这是我热爱的领域，
我研究了它20年。
单纯出于一个攻读人工智能博士学位
的年轻科学家对科学的好奇心。
20年后，到底怎么回事，
人工智能变成了危机？
事实上，人工智能的进化

Polish: 
Jako inżynier i naukowiec, uważam,
że musimy rozwiązać ten kryzys teraz.
Szczerze, jestem bardzo wdzięczna.
Osobiście, czytam twoje książki od dwóch lat.
I jestem wdzięczna Yuvalowi oraz innym ludziom
za otwarcie nam oczu na to ważne pytanie.
Kiedy mówisz o kryzysie AI,
siedzę tu i myślę,
że to branża którą kochałam, pasjonowałam się
i badałam przez 20 lat.
I zawsze była to tylko naukowa ciekawość
młodego naukowca robiącego doktorat z AI.
Jak to jest, że 20 lat później
przerodziło się to w kryzys?
To właśnie ewolucja AI

English: 
No, as an engineer and
scientist, I feel like
we have to now solve the crisis.
So honestly, I think I'm
very thankful, I mean,
personally, I've been reading
your book for two years.
And I'm very thankful that
Yuval, among other people,
but have opened up this really
important question for us.
And it's also quite a, when
you said the AI crisis,
and I was sitting there thinking,
this is a field I loved
and felt passionate about
and researched for 20 years.
And that was just a scientific curiosity
of a young scientist entering PhD in AI.
How did, what happened
that 20 years later,
it has become a crisis?
And it actually, speak
of the evolution of AI

English: 
that got me where I am
today and got my colleagues
at Stanford where we are today
with the human-centered AI
is that this is a
transformative technology,
it's a nascent technology, it's still
a budding science compared to
physics, chemistry, biology.
But with the power of data, computing,
and the kind of diverse
impact that AI is making,
it is, like you said,
it's touching human lives
and business in broad and deep ways.
And responding to that kind
of questions and crisis
that's facing humanity, I think one
of the proposed solution,
or if not a solution,
at least a try, that Stanford
is making an effort about
is can we reframe the
education, the research,
and the dialogue of AI
and technology in general
in a human-centered way?

Polish: 
doprowadziła mnie do miejsca, gdzie jestem dziś, i doprowadziła moich kolegów
ze Stanforda do miejsca, gdzie są dziś z AI skoncentrowanym na ludzi.
To wciąż rozwijająca się technologia,
to technologia w zarodku. To wciąż
początkująca technologia w porównaniu do fizyki, chemii, biologii.
Ale potęga danych, obliczeń
i tego zróżnicowanego wpływu, który ma AI,
jak powiedziałeś, wpływa na życie ludzi
i biznes w szeroki i głęboki sposób.
Odpowiadając na pytania dotyczące kryzysu,
z którym mierzy się ludzkość, myślę że jednym
z proponowanych rozwiązań, a jeśli nie rozwiązań,
to przynajmniej próby rozwiązania, którą podejmuje Stanford
jest przemiana edukacji, badań naukowych
oraz relacji AI i technologii w ogóle
w kierunku ludzi.

Chinese: 
让我走到了现在的位置；让我的同事们取得了在
斯坦福大学人本人工智能领域的地位。
这是一项变革性技术，
这是一项新兴的技术，
与物理、化学、生物相比，这仍是一个新兴学科。
但有了数据、计算的力量，
以及人工智能的多重影响
如你所说，它以广泛而深入的方式，
影响着人类的生活和商业。
为了应对这一全人类
所面临的问题与危机，我认为
其中一种解决方案，或称不上是解决方案，
至少是斯坦福大学正在努力做的一种尝试。
以人本中心的方式
重新拟定人工智能的教育，研究，
技术和对话。

Polish: 
Niekoniecznie znajdziemy rozwiązanie dzisiaj.
Ale możemy zaangażować humanistów, filozofów,
historyków, politologów, ekonomistów,
etyków, prawników, neurobiologów,
psychologów i przedstawicieli wielu innych dyscyplin
do badania i rozwijania AI
w jej następnych fazach.
- Nie bądź taka pewna że nie znajdziemy
odpowiedzi dzisiaj. Mam tu dwoje z najmądrzejszych ludzi
na świecie, mam Slido
i mam jeszcze 72 minuty, więc spróbuję.
- Powiedział, że mamy tysiące lat.
- Ale pozwól mi pójść trochę dalej w pytaniu Yuvala.
Yuval w swoim wstępie powiedział, że
ludzie mówią o różnych kryzysach AI.
Mówią o AI, które zdobywa świadomość,
o automatyzacji zawodów,
mówią o stronniczości. Yuval bardzo jasno powiedział,
który z nich uważa na najważniejszy,

English: 
We're not necessarily gonna
find a solution today.
But can we involve the
humanists, the philosophers,
the historians, the political
scientists, the economists,
the ethicists, the legal
scholars, the neuroscientists,
the psychologists, and
many more other disciplines
into the study and development of AI
in the next chapter, in the next phase?
- Don't be so certain we're not gonna get
an answer today, I've got
two of the smartest people
in the world glued to their
chairs and I've got Slido
for 72 minutes, so let's give it a shot.
- He said we have thousands of years.
- But let me go a little bit
further in Yuval's question.
So there are a lot, or
Yuval's opening statement,
there are a lot of crises about
AI that people talk about.
They talk about AI becoming conscious
and what would that mean, they
talk about job displacement,
they talk about biases, and
Yuval has very clearly laid out
what he thinks is the most important one,

Chinese: 
我们不见得在今天找到解决方案。
但是我们能不能让人文主义者，哲学家、
历史学家、政治科学家、经济学家，
伦理学家、法律学者、神经科学家、
心理学家，以及更多其他学科的专家
在下一篇章，下一阶段
参与到人工智能的研究与发展中来？
— 别那么确信我们今天得不出答案。
两位世界上最聪明的人。
就坐在我的旁边。Slido上
还剩72分钟，让我们试一试。
— 他说我们有几千年的历史。
—但让我再深化一下尤瓦尔的问题。
如尤瓦尔一开始提到的，人们谈论
很多有关人工智能的危机。
他们谈论人工智能在变得有意识，
以及这意味着什么。他们谈到工作有可能被取代
他们谈论偏见，尤瓦尔在这点上的布局非常清晰——
他认为最重要的是，

Chinese: 
生物学与计算外加数据的结合
将导致侵入人类的发生。
他提出了一个非常具体的问题。
这是思考人工智能的人
应该关注的焦点吗？
— 答案是肯定的。
任何人类拥有的技术都从火开始，
这是一把双刃剑。
它可以带来生活、工作
和社会层面的改善，但它也带来危险。
人工智能具有危险性。
我每天一睁眼，就开始担心
人工智能的各种问题。
我们担心公平或缺乏公平、隐私
和劳动力市场，所以，我们必须关心这些问题，
并且因此，我们需要扩展研究、
制订政策、
开展与人工智能的对话——不光停留在

English: 
which is the combination of biology
plus computing plus
data leading to hacking.
So he's laid out a very specific concern.
Is that specific concern
what people who are thinking
about AI should be focused on?
- So absolutely.
So any technology humanity has
created, starting from fire,
is a double edge sword.
So it can bring improvements
to life, to work,
and to society, but it
can bring the perils,
and AI has the perils, you know.
I wake up every day,
worry about the diversity,
inclusion issue in AI.
We worry about fairness or
the lack of fairness, privacy,
the labor market, so absolutely,
we need to be concerned,
and because of that, we
need to expand the study,
the research, and the
development of policies
and the dialogue of AI beyond just

Polish: 
mianowicie kombinację biologii,
obliczeń i danych, która prowadzi do hackowania.
Przedstawił bardzo konkretną obawę.
Czy ludzie zajmujący się AI
powinni skoncentrować się na tym zagrożeniu?
- Absolutnie.
Wszystkie technologie, które ludzkość rozwinęła, zaczynając od ognia,
miały dwa ostrza.
Mogą poprawić życie, pracę,
społeczeństwo, ale mogą nieść ze sobą niebezpieczeństwa.
Jak wiesz, AI jest bardzo niebezpieczna.
Każdego dnia, gdy budzę się rano, obawiam się o różnorodność
i kwestie tolerancji AI.
Martwimy się o sprawiedliwość lub jej brak, prywatność,
rynek pracy, więc absolutnie musimy się tym martwić.
Z tego też powodu, musimy rozwijać nasze badania,
rozwój polityk
i dyskusję o AI wykraczającą

Chinese: 
将代码和产品融进人类问题，
和这些社会问题。
所以我完全同意你的观点，
现在是时候开启对话，
展开对这些问题的研究了。
—好的。
—我想再说一遍，
我的一部分恐惧就来自对话。
我不怕人工智能专家和哲学家交谈，
我没意见，历史学家，很好，
文学评论家，棒极了。
我怕的是你开始与生物学家交谈。
这是我最大的恐惧，是你和生物学家
一拍即合，“实际上咱们有共同语言”，
“我们可以一起做点儿事”。
这是我觉得最可怕的--
—你能具体说说吗？我们和生物学家交谈
怎么就可怕了？
那一刻，你们不再通过
收集我们搜索关键词的数据

Polish: 
poza kod i produkty ludzkich błędów
w kwestiach społecznych.
Absolutnie zgadzam się z tobą,
że czas już rozpocząć dialog
i badania w tych kwestiach.
- Ok.
- Nawet jeśli, ponownie,
obawiam się, że ten dialog...
Nie martwię się rozmową ekspertów od AI z filozofami.
Pasuje mi to. Historycy - dobrze.
Krytycy literaccy - świetnie.
Ale boję się momentu, gdy zaczną rozmawiać z biologami.
To moja największa obawa, że znajdziecie z biologami
wspólny język
i zapragniecie robić rzeczy razem.
Wtedy zaczną się straszne rzeczy...
- Mógłbyś powiedzieć, co dokładnie
martwi cię w naszych rozmowach z biologami?
- Wtedy naprawdę zaczyna się hackowanie ludzi.
Nie odbywa się ono przez zbieranie danych na temat naszych wyszukiwań,

English: 
the codes and the products
into these human wrongs,
into these societal issues.
So I absolutely agree with you on that,
that this is the moment
to open the dialogue,
to open the research in those issues.
- Okay.
- Even though I would
just say that, again,
part of my fear is that the dialogue,
I don't fear AI experts
talking with philosophers,
I'm fine with that, historians, good,
literary critics, wonderful.
I fear the moment you start
talking with biologists.
That's my biggest fear, when
you and the biologists will,
hey, we actually have a common language.
And we can do things together.
And that's when the really
scary things I think will be--
- [Fei-Fei] Can you elaborate
on, what is scaring you
that we talk to biologists?
- That's the moment when you
can really hack human beings
not by collecting data
about our search words

Chinese: 
或者我们的购买习惯，或者我们的行踪入侵人类。
而是开始窥视人类的内在，
直接从我们的心脏和
大脑收集数据。
— 好，我来具体说说吧？
首先，AI的诞生是人工智能科学家与生物学家，
具体是神经科学家交流出来的，没错。
人工智能的诞生深受
大脑功能的启发。
快进到60年后，今天的人工智能
在医疗方面取得了长足的进步，
通过生理学与病理学上的收集
以及通过机器学习，
我们获取了大量数据来帮助我们。
但我觉得你在谈论其他事情。
—这就是其中的一部分，我是说，
如果技术中没有伟大的希望，
也就没有什么危险可言，
因为根本没人走那条路。
很明显，人工智能可以为我们

Polish: 
naszych zakupów lub jakie miejsca odwiedzamy w mieście.
Ale w tym momencie zaczynacie faktycznie zaglądać do środka
i zbierać dane bezpośrednio z naszych serc
i umysłów.
- Ok, mogę być dokładna?
Po pierwsze, samo powstanie AI oparte jest na rozmowie
naukowców z biologami, szczególnie neurobiologami.
Powstanie AI jest mocno zainspirowane
możliwościami naszego umysłu.
60 lat później, dzisiejsze AI
robi wielkie postępy w medycynie,
zbiera masę danych o naszej fizjologii
i patologii i używa deeplearningu
żeby nam pomóc.
Ale odnoszę wrażenie, że mówisz o czymś innym.
- To część problemu. Gdyby nie wielkie obietnice,
które stoją za technologią, nie byłoby też zagrożenia,
ponieważ nikt by jej nie rozwijał.
Oczywiście, są niezmiernie przydatne rzeczy,

English: 
or our purchasing habits or
where do we go about town.
But you can actually start peering inside
and collect data directly from our hearts
and from our brains.
- Okay, can I be specific?
First of all, the birth of
AI is AI scientists talking
to biologists, specifically
neuroscientists, right,
the birth of AI is very much inspired
by what the brain does.
Fast forward to 60 years later, today's AI
is making great improvement in healthcare,
there's a lot of data from our physiology
and pathology being collected
and using machine learning
to help us.
But I feel like you're
talking about something else.
- That's part of it, I mean,
if there wasn't a great promise
in the technology, there
would also be no danger
because nobody would go
along with that path.
I mean, obviously, there are
enormously beneficial things

English: 
that AI can do for us, especially
when it is linked with biology.
We are about to get the
best healthcare in the world
in history, and the
cheapest, and available
for billions of people
via their smartphones,
which today they have almost nothing.
And this is why it is almost impossible
to resist the temptation.
And with all the issue,
you know, of privacy,
if you have a big battle
between privacy and health,
health is likely to win hands down.
So I fully agree with that, and you know,
my job as a historian, as a philosopher,
as a social critic, is to
point out the dangers in that,
because, especially in Silicon Valley,
people are very much
familiar with the advantages,
but they don't like to think
so much about the dangers.
And the big danger is what
happens when you can hack
the brain, and that can serve not just

Polish: 
które AI może dla nas zrobić, szczególnie
gdy połączyć ją z biologią.
Być może będziemy mieli najlepszą opiekę medyczną na świecie,
w historii, najtańszą i dostępną
milionom ludzi przez smartfony,
jednak dzisiaj nie mamy nic.
Dlatego tak trudno
oprzeć się pokusie.
Z wszystkimi kwestiami, na przykład, prywatności...
Jeśli zaistnieje konflikt między prywatnością a zdrowiem,
zdrowie z pewnością wygra.
Zgadzam się całkowici.
Moją rolą jako historyka, filozofa
i krytyka społecznego jest wskazać zagrożenia,
ponieważ, szczególnie w Dolinie Krzemowej,
ludzie dużo mówią o korzyściach,
ale nie lubią mówić o zagrożeniach.
A umiejętność hackowania umysłu jest dużym zagrożeniem,
który może posłużyć nie tylko

Chinese: 
做很多极其有益的事情，
尤其当它和生物学关联的时候。
我们即将获得世界上、历史上
最好的医疗。
数十亿人将通过智能手机获取，
而当今他们什么都没有。
这就是为什么几乎不可能
抵制住这种诱惑。
关于隐私的所有问题，
如果你在隐私和健康之间进行取舍，
健康很可能会获得胜利。
我完全同意这一点。
我的工作是作为一名历史学家、哲学家、
社会评论家，来指出人工智能的危险，
因为，特别是在“硅谷”，
人们非常熟悉人工智能的优势，
但他们不太喜欢思考关于危险的事情
很大一个危险是当你可以入侵
大脑时，它不仅可以

Polish: 
lekarzom, ale wielu innym ludziom,
od szalonych dyktatorów, do...
- Skupmy się na tym, co znaczy zhackować umysł.
Nawet obecnie, w pewien sposób, mój umysł jest hackowany.
Odczuwam chęć spoglądani
co chwila na to urządzenie.
W ten sposób mój mózg jest hackowany.
Twój nie, bo ty medytujesz 2 godziny dziennie,
ale mój, i prawdopodobnie większości ludzi tutaj, tak.
W jaki sposób hackowanie w przyszłości
będzie różnić się od dzisiejszego?
- Formalnie będzie podobny, ale na znacznie większą skalę.
Na przykład, wyobraź sobie sytuację,
gdy coraz więcej twoich życiowych decyzji
jest podejmowana przez algorytm,
który jest w tym znacznie lepszy niż ty.
Mamy dwie różne wizje dystopii,
które w pewien sposób się zbiegają.
Mamy wizję kapitalistycznej inwigilacji,

English: 
your healthcare provider,
that can serve so many things
from a crazy dictator to--
- Let's focus on that, what
it means to hack the brain.
Like what, right now, in some
ways, my brain is hacked,
right, there is an allure of this device,
it wants me to check it constantly,
like my brain has been
a little bit hacked,
yours hasn't because you
meditate two hours a day,
but mine has, and probably
most of these people have.
But what exactly is the
future brain hacking going
to be that it isn't today?
- Much more of the same,
but on a much larger scale.
I mean, the point when, for example,
more and more of your
personal decisions in lives
are being outsourced to an algorithm that
is just so much better than you.
So you know, we have
two distinct dystopias
that kind of mesh together.
We have the dystopia of
surveillance capitalism,

Chinese: 
为你的医疗提供者所用，它还能被其他东西利用——
从疯狂的独裁者到……
—让我们聚焦于入侵大脑意味着什么。
打个比方，现在我的大脑被黑了
这个装置极具诱惑，
它要我经常查看它，
就像我的大脑被入侵了一样，
你的大脑没被入侵是因为你每天冥想两小时，
但我的被入侵了，而且可能大多数人的都被入侵了。
但到底有什么大脑入侵是尚未发生，
未来会发生的呢？
—其实和今天的黑客入侵差不多，但规模更大。
我是说，比如说，
你生活中越来越多的个人决定
被外包给一个算法。
它比你强多了。
我们有两种不同的
反乌托邦交织到一起。
我们有“监视资本主义”的反乌托邦。

Chinese: 
其中没有类似的“老大哥”那样的独裁者，
但越来越多你的决定
正在由一个算法做出。
这决定不光是关于吃什么，
或是买什么，而是去哪里工作、
去哪里学习、跟谁约会
和谁结婚，投票给谁。
这是同样的逻辑。
我很好奇，在你看来，关于人类
有没有什么东西
是无法被入侵的。
我们不会赶上那么一天，
算法能做出比我们更好的决定。
这就是反乌托邦的一种
这里的人们对此更加熟悉。
然后你有了羽翼丰满的反乌托邦——
一个建立在监控体系基础上的
极权主义政权。
有点像我们在20世纪
看到的极权主义政权，
但其中增加了生物传感器

Polish: 
w której nie ma Wielkiego Brata,
ale coraz więcej twoich decyzji
podejmowana jest przez algorytm.
I nie są to tylko decyzje co zjeść
albo co kupić, ale gdzie pracować
gdzie studiować, z kim chodzić na randki,
z kim się ożenić i na kogo głosować.
Logika pozostaje taka sama.
Zastanawia mnie co sądzisz,
czy jest jakaś część ludzi,
której, z definicji, nie da się zhackować.
Gdzie nie może istnieć algorytm,
który podjąłby lepszą decyzję ode mnie.
To jedna wersja dystopii, która
jest bardziej znajoma w tej części świata.
Z drugiej strony masz dystopię pełną gębą,
z totalitarnym reżimem opartym na
systemie totalnej inwigilacji.
Coś jak reżimy totalitarne,
które widzieliśmy w XX wieku,
ale zintensyfikowane przez biologiczną cenzurę

English: 
in which there is no like
Big Brother dictator,
but more and more of your decisions
are being made by an algorithm.
And it's not just
decisions about what to eat
or what to shop, but
decisions like where to work
and where to study and whom to date
and whom to marry and whom to vote for.
It's the same logic.
And I would be curious
to hear if you think
that there is anything in humans which
is by definition unhackable.
That we can't reach a
point when the algorithm
can make that decision better than me.
So that's one line of dystopia which is
a bit more familiar in
this part of the world.
And then you have the
full fledged dystopia
of a totalitarian regime based
on a total surveillance system.
Something like the totalitarian regimes
that we have seen in the 20th century,
but augmented with biometric censors

English: 
and the ability to basically track each
and every individual 24 hours a day.
And you know, which in
the days of, I don't know,
Stalin or Hitler was absolutely impossible
because they didn't have the technology,
but maybe might be possible
in 20 years to 30 years.
So we can choose which
dystopia to discuss,
but they are very close in the--
- Let's choose the liberal
democracy dystopia.
Fei-Fei, do you wanna answer
Yuval's specific question,
which is is there something in dystopia A,
liberal democracy dystopia,
is there something
endemic to humans that cannot be hacked?
- So when you asked me that
question just two minutes ago,
the first word that
came to my mind is love.
Is love hackable?
- Ask the Internet, I don't know.
(audience laughing)
- Dating.
- That's a defense--
- Dating is not the
entirely of love, I hope.
- But the question is, which kind of love

Polish: 
i możliwość obserwacji każdej
jednostki 24 godziny na dobę.
W czasach Stalina
albo Hitlera było to zupełnie niemożliwe,
ponieważ nie mieli technologii,
ale może być to możliwe za 20 czy 30 lat.
Możemy wybrać, którą dystopię chcemy omówić,
ale są one dosyć zbliżone...
- Porozmawiajmy o demokratycznej dystopii.
Fei-Fei, chciałabyś odpowiedzieć na pytanie Yuvala,
czy istnieje coś w dystopii A,
dystopii liberalnej demokracji, czy w ludziach
istnieje coś endemicznego, czego nie da się zhackować?
- Gdy zadałeś mi to pytanie 2 minuty temu,
pierwsza rzecz jaka przyszła mi do głowy to miłość.
Czy możemy zhackować miłość?
- Sprawdź w internecie, nie wiem.
(śmiech)
- Randki.
- To obrona...
- Randki nie opierają się w całości na miłości, mam nadzieję.
- Pytanie brzmi: o który rodzaj miłości

Chinese: 
并有能力追踪
每个人一天二十四小时的行踪。
在斯大林或希特勒那个年代，
他们绝对不可能做到这些
因为他们没有这项技术，
但也许二、三十年后。这些都变得可能。
我们可以选择到底讨论哪种反乌托邦，
但它们都离我们很近-——
— 我们选自由民主的反乌托邦吧。
飞飞，你想回答尤瓦尔这个问题吗？
在自由民主的反乌托邦里，
人类有没有什么特殊的东西
是不可能被入侵的？
— 当你两分钟前问我这个问题的时候，
我脑海中浮现的第一个词是爱。
爱能被入侵吗？
-—问Tinder (交友软件)，我不知道。
（观众笑声）
— 约会。
—- 那是一种辩护-。
—我希望约会不是爱的全部。
—但问题是，

Polish: 
ci chodzi?
Jeśli masz na myśli tę miłość
z greckiej filozofii, albo miłującą dobroć Buddyzmu,
to jest to kwestia, która, moim zdaniem,
jest znacznie bardziej skomplikowana.
Jeśli masz na myśli
biologiczne rytuały ssaków,
wtedy myślę, że tak. Dlaczego nie?
W jaki sposób jest to różne niż cokolwiek innego
co dzieje się w naszym organizmie?
- Jednak ludzie są ludźmi, ponieważ
jest w nas jakaś cząstka, która wychodzi
poza rytuały godowe, prawda?
Czy ta cząstka jest hackowalna?
- To kwestia...
Większość książek lub filmów science-fiction
uważa to za odpowiedź.
Gdy złe, pozaziemskie roboty chcą
podbić ziemię i nic nie może ich powstrzymać.
Opór jest daremny, w ostatnim momencie
ludzie wygrywają, ponieważ roboty nie rozumieją miłości.

English: 
are you referring to?
If you're referring to this,
you know, I don't know,
Greek philosophical love or the
loving kindness of Buddhism,
that's one question, which I think
it's much more complicated.
If you are referring to
the biological mammalian
courtship rituals and,
then I think yes, I mean, why not?
Why is it different from anything else
that is happening in the body?
- But humans are humans because we are,
there is some part of us that are beyond
the mammalian courtship, right?
So is that part hackable?
- That's the question, I mean, you know,
in most science fiction books and movies,
they give your answer.
When the extraterrestrial
evil robots are about
to conquer planet Earth and
nothing can resist them,
resistance is futile,
at the very last moment,
humans win because the
robots don't understand love.

Chinese: 
你指的是哪种爱？
如果你指的是，我也说不好，
希腊哲学的爱或是佛教的仁爱，
这是个问题，我认为
要复杂得多。
如果你指的是
哺乳动物的求爱仪式，
那么我想约会就算爱。我的意思是，为什么不算呢？
为什么它和身体里的
其他东西不一样呢？
—但人类是人类，因为我们是人类，
人身上有的部分已经超越了
哺乳动物的求爱，对吧？
那这部分是可以入侵的吗？
—这就是问题，我是说，你知道，
在大多数科幻小说和电影中，
他们给了你答案。
当天外来客、邪恶的机器人
将要征服地球，没什么能抵抗他们，
抵抗是没用的，在最后一刻，
人类获胜是因为机器人不懂得爱。

Polish: 
- W ostatnim momencie ratuje nas bohaterski, biały gość.
(śmiech)
- Dlaczego to robimy?
- Nie, nie, to był żart nie martw się.
Ale ok, dwie dystopie. Nie mam odpowiedzi
na dwie dystopie.
Ale właśnie dlatego
tak ważne są obecnie poszukiwania rozwiązań.
Dlatego właśnie teraz
uważamy, że trzeba napisać nowy rozdział AI
z pomocą wspólnego wysiłku wszystkich profesji: od humanistów i
socjologów do biznesmenów
i rządów, którzy usiedli by ze sobą do stołu
i prowadzili wielostronną konwersację w atmosferze współpracy

English: 
- Last moment, there's one
heroic white dude that saves us.
(audience laughing)
- Why we do this?
- No, no, it was a joke, don't worry.
But okay, so the two dystopia,
I do not have answers
to the two dystopias.
But I wanna keep saying
is, this is precisely why
this is the moment that we
need to seek for solutions.
This is precisely why this is the moment
that we believe the new chapter
of AI needs to be written
by cross-pollinating
efforts from humanists,
social scientists to business
leaders to civil society
to governments to come at the same table,
to have that multilateral
and cooperative conversation,

Chinese: 
—最后一刻，有一个白人英雄拯救了我们。
（观众笑声）
—我们为什么这么做？（尤瓦尔没听清）
—不，不，我开玩笑呢，别当真。
但好吧，对于两个反乌托邦
我没有答案。
但我想重申，这就是为什么
现在我们需要寻求解决方案。
这就是为什么现在
我们相信跨界合作的新篇章已经展开。
从人文主义者、社会科学家
到商界领袖再到民间团体，
再到政府，都聚在一起，
进行多边的和合作对话。

English: 
and I think you really
bring out the urgency
and the importance and the
scale of this potential crisis.
But I think in the face
of that, we need to act.
- Yeah, and I agree that
we need cooperation,
that we need much closer
cooperation between engineers
and philosophers or
engineers and historians.
And also, from a
philosophical perspective,
I think there is something wonderful
about engineers philosophically.
- Thank you.
- That they really cut the bullshit.
I mean, philosophers can
talk and talk, you know,
in cloudy and flowery metaphors.
And then the engineers can
really focus the question.
Like I just had a discussion the other day
with an engineer from Google about this.
And that he said okay, I know
how to maximize people's time
on the website.
If somebody comes to
me and tells me, look,
your job is to maximize
time on this application,

Polish: 
myślę, że bardzo by to złagodziło pilność,
wagę i skalę tego potencjalnego kryzysu.
Jednak sądzę, że w takiej perspektywie musimy działać.
- Tak, zgadzam się, że potrzebujemy współpracy,
że potrzebujemy znacznie bliższej kooperacji między inżynierami
i filozofami, albo inżynierami i historykami.
Z filozoficznej perspektywy,
myślę że jest coś cudownego
w filozoficznej inżynierii.
- Dziękuję.
- Bardzo ograniczyłoby to czcze gadanie.
Filozofowie potrafią gadać i gadać,
używając mglistych i kwiecistych metafor.
Jednocześnie inżynierowie potrafią naprawdę skoncentrować się na pytaniu.
Jakiś czas temu dyskutowałem o tym
z inżynierem z Google.
On stwierdził: "Ok, wiem jak zmaksymalizować czas,
który ludzie spędzają na stronie.
Jeśli ktoś przyjdzie do mnie i powie,
że moim zadaniem jest zmaksymalizowanie czasu jaki ludzie poświęcą tej aplikacji,

Chinese: 
我觉得你真的说出了紧迫感
以及这场潜在危机的重要性和规模。
但我认为面对这一点，我们需要采取行动。
—是的，我同意，我们需要合作，
我们需要哲学家和工程师之间更紧密的合作；
或者历史学家和工程师之间的合作。
还有，从哲学家的角度讲，
我认为工程师具备一些
贤明美妙的特质。
—谢谢。
—他们真的不耍嘴皮子。
我的意思是，哲学家可以说啊说，你知道的，
各种云里雾里的讨论。
工程师可以聚焦于某个问题。
就像前几天我刚和谷歌工程师
我谈过这个话题。
他说，好，我知道如何将
人们上网时间最大化。
如果有人来告诉我，
你的工作是把这个软件的用户使用时间最大化，

Polish: 
wiem jak to zrobić, bo wiem jak to zmierzyć.
Ale jeśli ktoś przyjdzie i powie,
że mam zmaksymalizować ludzki potencjał
lub zmaksymalizować uniwersalną miłość, nie wiem co to znaczy."
Wówczas inżynierowie wracają do filozofów
i pytają co to znaczy,
Upada wtedy wiele teorii filozoficznych,
ponieważ nie potrafią tego wyjaśnić.
Potrzebujemy tego rodzaju współpracy,
żeby pójść dalej.
- Potrzebujemy równania na to.
- Ale, Yuval, czy to nie znaczy, że Fei-Fei ma rację?
Że nie możemy zakodować miłości. Czy AI
potrafiłoby to kiedykolwiek odtworzyć, czy jest to coś ekskluzywnego
dla ludzi, czego maszyny nigdy nie przejmą?
- Nie sądzę, żeby maszyny się zakochiwały,
ale nie musisz odczuwać miłości,
żeby móc ją zhackować, monitorować,
przewidzieć, zmanipulować.

English: 
I know how to do it because
I know how to measure it.
But if somebody comes
along and tells me, well,
you need to maximize human
flourishing or you need
to maximize universal love,
I don't know what it means.
So that's what the engineers
go back to the philosophers
and ask them, what do you actually mean?
Which, you know, a lot of
philosophical theories collapse
around that, because they
can't really explain what,
and we need this kind of collaboration
in order to move forward.
- We need a equation for that.
- But then, Yuval, is Fei-Fei
right, if we can't explain
and we can't code love,
can artificial intelligence
ever recreate it, or it
is something intrinsic
to humans that the machines
will never emulate?
- I don't think that
machines will feel love,
but you don't necessarily need to feel it
in order to be able to
hack it, to monitor it,
to predict it, to manipulate it.

Chinese: 
我知道该怎么做因为我知道如何量化它。
但如果有人来告诉我，
你要将人类的繁荣最大化
或者将普世的爱最大化，我不知道那是什么意思。
工程师们回去找哲学家
问：你究竟什么意思？
你知道，很多哲学理论不堪一击
因为它们无法被解释，
为了前进，我们需要这种合作。
—我们需要一个方程。
—但是，尤瓦尔，飞飞说的对吗？
如果我们不能解释或编码“爱”，
人工智能能再创造“爱”吗？
有没有人类特有的、机器无法效仿的能力？
—我认为机器无法感受到爱，
但是你不一定非要感觉到它，
才能入侵它、监视它、
预测它，操纵它

Polish: 
Maszyny nie lubią grać w Candy Crush,
ale wciąż potrafią...
- Czy takie urządzenie, w przyszłości,
kiedy będzie znacznie potężniejsze niż jest teraz,
może sprawić że zakocham się w kimś z widowni?
- To kwestia
świadomości i umysłu.
- Powinniśmy to zbadać.
- Nie sądzę, żebyśmy wystarczająco dobrze rozumieli
świadomość, żeby odpowiedzieć na pytanie
czy możliwa jest nieorganiczna świadomość.
Po prostu tego nie wiemy.
Ale ponownie, zhackowanie ludzi jest znacznie łatwiejsze.
Maszyny nie potrzebują własnej świadomości
żeby przewidzieć i zmanipulować nasze wybory.
Wystarczy że, jeśli przyjmiemy, że
miłość, koniec końców,
jest procesem biologicznym, skoro AI
jest tak wspaniała w medycynie,

English: 
I mean, machines don't
like to play Candy Crush,
but they can still--
- This device, in some future where
it's infinitely more
powerful than it's right now,
could make me fall in love
with somebody in the audience?
- That's, that goes to the question
of consciousness and mind.
- We should go there.
- I don't think that we
have the understanding
of what consciousness is
to answer the question
whether a non-organic
consciousness is possible
or is not possible, I
think we just don't know.
But again, the bar for
hacking humans is much lower,
the machines don't need to
have consciousness of their own
in order to predict our choices
and manipulate our choices.
They just need to, all
right, if you accept
that something like love is, in the end,
a biological process in the
body, if you think that AI
can provide us with wonderful healthcare,

Chinese: 
我是说，机器不会喜欢玩《糖果传奇》，
但它们仍可以——
—这个设备，在未来的某个时候
会比现在强大很多。
它能让我和某位观众坠入爱河吗？
—这就是另一个问题——
关于意识和思想。
—我们讨论一下这个问题吧。
—我不认为我们能理解
意识是什么。
无机意识是否可能？
我想我们就是不知道。
但话说回来，侵入人类的门槛要低得多，
为了预测我们的选择操纵我们的选择，
机器不需要有自己的意识。
好吧，如果你接受的话，
它们最终只需要体内有
类似“爱”的一个生物过程。如果你认为人工智能
能通过监控和预测

Polish: 
potrafi monitorować i przewidywać
grypę lub nowotwory,
zasadniczą różnicą między grypą a miłością,
w rozumieniu biologicznego procesu,
i to jest kolejna rzecz, którą trzeba rozdzielić
od biologicznych realiów ciała, jest że
nawet jeśli będzie istnieć maszyna zdolna do monitorowania
i przewidywania grypy, czy brakuje jej czegoś
żeby przewidzieć miłość?
- Fei-Fei.
- Mam dwa komentarze, które wynikają
z mojej natury inżyniera.
Robimy dwa bardzo ważne założenia
w tej części rozmowy. Jedno, że AI
jest tak wszechmogące, że potrafi
przewidzieć wszystko co fizyczne,
wszystko na poziomie świadomości, a nawet

Chinese: 
流感或癌症，
为我们提供极好的医疗，
那流感和爱有什么本质区别呢？
在这个意义上，这是生物学的。
还有一些东西
区分于身体的生物属性，
即使我们的机器可以监控、
预测流感，机器仍缺乏一些本质上的东西
来监控和预测爱。
— 飞飞，
— 我想点评两点，
出于我工程师的个性。
在这部分对话里，我们做了两个
非常重要的假设。一个是人工智能
是如此无所不能，以至于它达到了一个
超越预测有形物质的状态，
它已经进入意识层面，

English: 
by being able to monitor
and predict something like
the flu or something like cancer,
what's the essential
difference between flu and love
in the sense of, is this biological
and this is something
else which is so separated
from the biological
reality of the body that,
even if we have a machine
that's capable of monitoring
and predicting flu, it still
lacks something essential
in order to do the same thing with love?
- [Nick] Fei-Fei.
- So I wanna make two
comments, and this is where
my engineering, you know,
personality speaking.
We're making two very
important assumptions
in this part of the
conversation, one is that AI
is so omnipotent, that
it's achieved to a state
that it's beyond predicting
anything physical,
it's got into the consciousness
level, it got into even

English: 
the ultimate, the love
level of capability.
And I do wanna make sure that we recognize
that we're very very very far from that,
this technology is still very nascent,
part of the concern I
have about today's AI
is that super hyping of its capability.
So I'm not saying that
that's not a valid question,
but I think that part of this conversation
is built upon that assumption
that this technology
has become that powerful, and there is,
I don't know how many
decades we are from that.
Second related assumption I feel we are,
our conversation is being based on is that
we're talking about the
world or a state of the world
that only that powerful AI exists
or that small group of
people who have produced
the powerful AI and is intended
to hack human are existing.

Chinese: 
甚至达到了拥有爱这种能力的终极水平。
我确定我们意识到
现在离这一目标还很远很远很远。
这项新兴技术还处于初期，
我对当今人工智能的担心之一
是对人工智能能力的炒作。
我不是说你的问题是无效的，
但我认为这次谈话是部分建立在
“这项技术已经变得非常强大”
这个假设上的。我不知道还要几个十年
人工智能才会达到那样的水平。
第二个相关的假设，
我认为我们的谈话是基于
“只有强大的人工智能存在”
这种世界和世界的状态；
或是认为存在一小撮人，他们生产出了
强大的人工智能并蓄意侵入人类。

Polish: 
na ostatecznym poziomie miłości.
Musimy pamiętać, że do czegoś takiego,
wciąż jest bardzo, bardzo daleko.
Ta technologia jest wciąż w fazie rozwoju.
Jedną z rzeczy, które mnie martwią w dzisiejszym rozwoju AI
jest właśnie to przecenianie jej możliwości.
Nie twierdzę, że tak nie może się wydarzyć,
ale musimy pamiętać, że twój argument
opiera się na tym dużym założeniu,
że technologia będzie tak potężna.
Nie wiem ile dekad jeszcze minie zanim osiągniemy ten stan.
Drugim, związanym założeniem, na którym
opiera się nasza rozmowa jest, że
w przyszłości będzie istnieć
jakieś potężne AI,
lub grupa ludzi kontrolująca to AI,
która będzie chciała zhackować ludzi.

Polish: 
Podczas gdy nasze społeczeństwo jest tak skomplikowane,
jest nas tak wielu.
Ludzkość już wcześniej mierzyła się z
technologiami, które pozostawione
wyłącznie w rękach złych ludzi, bez regulacji,
globalnej współpracy, zasad, praw, zasad moralnych,
że technologia ta mogłaby, może nie zhackować ludzi,
ale zabić lub zranić ludzi na masową skalę.
Już się to wydarzyło, ale, historycznie patrząc,
nasze społeczeństwo rozwija się w
bardziej cywilizowanym i kontrolowanym kierunku.
Myślę, że musimy na to spojrzeć z perspektywy społeczeństwa
i zaprosić do dialogu również innych ludzi,
żebyśmy nie twierdzili, że jedyną możliwością jest wszechmogąca AI,
która będzie chciała wszystkich zhackować.

Chinese: 
但事实上，我们的人类社会是如此复杂，
我们人数众多，对吧。
我是说，人类在历史上面临着
那么多技术，如果我们把它放在
坏人手中，不加以约束，
不采取多国合作、没有规则，法律，道德准则，
这项技术可能不会侵入人类，
而是在很多方面摧毁或伤害人类。
这已经发生了，但是总体来说，我们的社会，
从历史的角度来看，正向更文明的
和更可控的状态前进。
所以我认为着眼于社会全局，
让不同人参与到这场对话很重要。
所以我们不能说的好像只存在无所不能的人工智能，
下定论说它会把一切都毁掉。

English: 
But in fact, our human
society is so complex,
there's so many of us, right.
I mean, humanity in its history have faced
so many technology, if
we left it in the hands
of a bad player alone
without any regulation,
multinational collaboration,
rules, laws, moral codes,
that technology could
have maybe not hack human,
but destroy human or hurt
human in massive ways.
It has happened, but by
and large, our society,
in a historical view, is
moving to a more civilized
and controlled state.
So I think it's important to
look at that greater society
and bringing other players
and people into this dialogue
so we don't talk like there
is only this omnipotent AI,
you know, deciding it's gonna
hack everything to the end.

Chinese: 
这又回到了你的主题。
除了你谈论的那个层面的侵入，
还有一些非常紧迫的问题。
多样性、隐私、就业、法律变化
和国际地缘政治。
我认为现在应对这些问题至关重要。
—我喜欢与人工智能研究人员交谈，
因为五年前，所有研究人员
都觉得人工智能比你想象的要强大。
而现在他们则认为人工智能并没有你想象的那么强大。
（观众笑声）
好，我想问一下……
—因为五年前你并不知道人工智能是什么。
而现在你过度推演了。
—我没说这不对。我只是在陈述事实。
我想深入讨论你刚才说的话。
但在此之前，
我想挑一个观众的问题。
因为一旦我们进入到下一部分，
就没法再回答这个问题了。
这是提问尤瓦尔的。
问题来自马琳·纳西尼。

English: 
And that brings to your
topic that, in addition
of hacking human at that level
that you're talking about,
there are some very
immediate concerns already.
Diversity, privacy, labor,
legal changes, you know,
international geopolitics.
And I think it's critical
to tackle those now.
- Well, let's, I love
talking to AI researchers,
because five years ago, all
the AI researchers were like,
it's much more powerful than you think,
and now they're all like, it's
not as powerful as you think.
(audience laughing)
All right, so I'll just, let me ask--
- It's because five years go,
you have no idea what AI is,
now you're extrapolating too much.
- I didn't say it was wrong,
I just said it was the thing.
Let's, I wanna go into what you just said,
but before I do that, I
wanna take one question here
from the audience,
because once we move into
the second section, we
won't be able to answer it.
So the question is, it's for you, Yuval.
How do we, this is from Marin Nasini,

Polish: 
Co prowadzi też do wniosku,
że oprócz hackowania ludzi, o którym mówisz,
możemy po drodze napotkać inne, pilne zmartwienia.
Zróżnicowanie, prywatność, praca, prawo,
geopolityka...
Myślę, że musimy się nimi zająć.
- Uwielbiam rozmawiać z naukowcami AI,
ponieważ 5 lat temu wszyscy mówili, że AI
jest znacznie potężniejsza, niż nam się zdaje.
Dziś mówią, że jest mniej potężna niż nam się wydaje.
(śmiech)
W porządku, zapytam tylko...
- To dlatego, że 5 lat temu nikt nie miał bladego pojęcia o AI,
a teraz wszyscy zbyt dużo sobie wyobrażają.
- Nie twierdzę, że to błąd, tylko stwierdziłem fakt.
Ale porozmawiajmy o tym co właśnie powiedziałaś,
ale zanim do tego przejdziemy, jedno pytanie
z widowni, ponieważ jeśli pójdziemy dalej
do drugiej części, nie będziemy w stanie na nie odpowiedzieć.
Pytanie do Yuvala
od Marin Nasini.

Polish: 
Jak możemy zapobiec formowaniu się
dyktatur wspieranych przez AI.
Jak możemy uniknąć dystopii nr 2.
Spójrzmy na to, Fei-Fei,
spójrzmy co możemy zrobić teraz,
nie to co możemy zrobić w przyszłości.
- Głównym problemem jest regulacja własności danych.
Ponieważ nie przestaniemy prowadzić badań biologicznych
ani w dziedzinie informatyki i AI.
Z tych trzech komponentów: wiedzy biologicznej,
mocy obliczeniowej i danych, myślę że dane najłatwiej...
Wciąż trudno, ale i tak najłatwiej to
uregulować lub zaplanować.
Położyć trochę nacisku na ochronę.
Obecnie są robione prace w tym kierunku.
Nie tylko projekty polityczne,
ale również filozoficzne,
żeby wyobrazić sobie co znaczy
posiadać dane i uregulować posiadanie danych.
Ponieważ dość dobrze rozumiemy
co znaczy posiadać ziemię.
Mamy w tym tysiące lat doświadczenia.

Chinese: 
如何避免形成人工智能
主宰的数字独裁政权？
我们如何避免第二种类型的反乌托邦？
我们来探讨下这个问题，然后飞飞
谈谈现在我们可以做什么，
而不是将来可以做什么。
—关键的问题是如何管控数据的所有权。
因为我们不会停止生物学的研究，
我们不会停止计算机科学和人工智能的研究，
生物学知识、计算能力和数据，
这三个组成部分中，我认为数据是最简单的。
同时它也很困难，不过仍然是
最容易管控或保护的。
现在已经有保护措施
和相关举措了。
它们不仅是政治上的努力，
还有哲学上的努力
将数据真正的概念化，
拥有数据和管控数据所有权意味着什么？
因为我们很清楚
拥有土地意味着什么。
我们对此有数千年的经验。

English: 
how can we avoid the formation
of AI powered digital dictatorships?
So how do we avoid dystopia number two,
let's enter that, and
then let's go, Fei-Fei,
into what we can do right now,
not what we can do in the future.
- The key issue is how to
regulate the ownership of data.
Because we won't stop research in biology
and we won't stop research
in computer science and AI,
so from the three components
of biological knowledge,
computing power, and data,
I think data is the easiest,
and it's also very difficult,
but still the easiest kind of
to regulate or to protect.
Place some protections there.
And there are efforts now being made.
And they are not just political efforts,
but you know, also philosophical efforts
to really conceptualize what does it mean
to own data or to regulate
the ownership of data?
Because we have a fairly
good understanding
what it means to own land.
We had thousands of years
of experience with that.

English: 
We have a very poor understanding
of what it actually means to own data
and how to regulate it, but
this is a very important front
that we need to focus
on in order to prevent
the worst dystopian outcomes.
And I agree that AI is
not nearly as powerful
as some people imagine, but this is why,
again, I think we think
to place the bar low.
To reach a critical threshold,
we don't need the AI
to know us perfectly,
which will never happen.
We just need the AI to know us better
than we known ourselves,
which is not so difficult
because most people don't
know themselves very well
and often make huge mistakes
in critical decisions.
So whether it's finance
or career or love life,
to have this shift in authority
from humans to algorithm,

Polish: 
Jednak nie wiemy co to znaczy
posiadać dane
i jak to uregulować, podczas gdy jest to bardzo ważny front,
na którym musimy się skupić, żeby zapobiedz
najgorszym rodzajom dystopii.
Zgadzam się, że AI nie jest nawet w połowie tak potężne
jak niektórzy sobie wyobrażają, ale,
ponownie, musimy myśleć w odpowiedniej perspektywie.
Żeby osiągnąć taki poziom, AI nie musi
znać nas perfekcyjnie. To się nigdy nie wydarzy.
Wystarczy, żeby AI znało nas lepiej
niż my sami. A to nie jest takie trudne,
ponieważ niewielu ludzi poznało siebie
i często popełnia ogromne błędy podczas ważnych decyzji.
Niezależnie czy w kwestii finansów, kariery, miłości czy życia,
możemy przenieść decyzje z ludzi na algorytm.

Chinese: 
但我们对于拥有数据
究竟意味着什么
以及如何管控它知之甚少。但这是非常重要的问题。
以防止最糟糕的反乌托邦结果，
我们需要关注这个问题。
我同意，人工智能并不像有些人
想象的那么强大，这就是为什么
我认为应该把标准降低
为了达到这个重要的门槛，我们不需要人工智能
完全了解我们，这永远不可能实现。
我们只需要一个比我们自己
更了解我们的人工智能，这并不是什么困难的事，
因为大多数人都不太了解自己，
并且经常在关键决策中犯下大错。
无论是金融，事业还是情感生活
这种权威都应该从人类转移到算法。

English: 
they can still be terrible.
But as long as they are a
bit less terrible than us,
the authority will shift to them.
- You, in your book, you tell
a very illuminating story
about your own self and you come to terms
with who you are and how
you could be manipulated.
Will you tell that story here,
about coming to terms with your sexuality
and the story you told about
Coca-Cola in your book?
'Cause I think that will make it clear
what you mean here very well.
- Yeah, so I said that I only realized
that I was gay when I was 21.
And I look back at the time, and I was,
I don't know, 15, 17.
And it should've been so obvious.
How, and it's not like a stranger,
like I'm with myself 24 hours a day
and I just don't notice
any of the screaming signs
that say yeah, you were gay.
And I don't know how, but
the fact is, I missed it.
Now, an AI, even a very stupid
AI today, will not miss it.

Polish: 
Wciąż możliwe, że decyzje będą błędne.
Ale jeśli będą choć odrobinę mniej złe niż nasze decyzje,
chętnie przeniesiemy tę decyzyjność.
- W swojej książce opowiadasz bardzo oświecającą historię
o własnej jaźni i jak zrozumieć
swoją tożsamość i potencjalne zagrożenia manipulacją.
Mógłbyś streścić fragmenty tej historii,
o tym jak zrozumiałeś swoją seksualność
i historię o Coca-Coli?
Myślę, że wyjaśniłoby to
co masz na myśli.
- Ok. Osobiście zorientowałem się, że jestem
gejem w wieku 21 lat.
Zreflektowałem wtedy na temat swojej przyszłości, gdy miałem,
nie pamiętam, 15 czy 17 lat.
To powinno było być dla mnie oczywiste.
Nie jestem sobie obcy.
Spędzam ze sobą 24 godziny na dobę,
a nie zauważyłem oczywistych znaków,
które wskazywały że jestem gejem.
Nie wiem jak, ale nie dostrzegałem.
AI, nawet to głupie dzisiejsze AI nie przeoczyłoby ich.

Chinese: 
这种事仍然很可怕。
但只要它们不如我们可怕，
权威就会转移到它们那里。
—在你的书中，你讲述了一个
非常有启发性的故事——讲述了
你是谁以及你是如何被操纵的。
你愿意在这里重复一下
书中关于你的性取向
还有可口可乐的故事吗？
因为我认为这会让大家
更明白你表达的意思。
—没问题。直到二十一岁，
我才意识到自己是同性恋，
回首往昔，大概在我
十五岁，十七岁的时候，
这种取向就已经非常明显。
对于自己，我不是陌生人，
我每天24小时和自己相处，
却没察觉这令人惊叹的迹象——
“嗨，你是同性恋“。
事实是，我忽视了这些迹象。
当今，哪怕是一个愚蠢的人工智能，都不会忽视这点。

English: 
- I'm not so sure.
- So imagine, this is not like, you know,
like a science fiction
scenario for century from now.
This can happen today, that you can write
all kinds of algorithms that, you know,
they are not perfect, but
they are still better say
than the average teenager,
and what does it mean
to live in a world in
which you learn about,
something so important about
yourself from an algorithm,
what does it mean, what
happens if the algorithm
doesn't share the information with you,
but it shares the
information with advertisers
or with governments?
So if you want to, and I
think we should go down
from the cloudy heights of, you
know, the extreme scenarios,
to the practicalities of day to day life,
this is a good example.
Because this is already happening.
- Yeah, all right, well, let's take
the elevator down to the
more conceptual level
at this particular shopping mall
that we're shopping in today.

Chinese: 
—我可说不准。
—想象一下，这可不像
一个世纪以来的科幻桥段。
现在这可以实现——你可以编写
各种算法，
它们虽不完美，但仍比
普通青少年强。
生活在一个通过算法才能
认知自己的世界意味着什么？
如果算法
并不和你共享信息，
而是和广告商，
或者政府分享信息，那怎么办？
所以，如果你愿意的话，
应该从高不可及的极端情况转移视线。
着眼到日常生活的实际问题。
这是一个很好的例子，
因为它正在发生。
—好吧，让我们把话题
转移到更加概念化的层面。
聚焦到今天活动
主要讨论的话题上。

Polish: 
- Nie jestem taka pewna.
- To nie jest scenariusz
science-fiction, który może wydarzyć się za 100 lat.
To się dzieje teraz, możesz napisać
różne algorytmy, które,
może nie są perfekcyjne, ale wciąż są lepsze
od przeciętnego nastolatka
w rozumieniu świata
i siebie.
Jednak co się stanie, gdy algorytm
przestanie dzielić się z tobą tymi informacjami,
a zacznie z reklamodawcami
lub rządami?
Powinniśmy zejść na ziemię,
przestać myśleć o ekstremalnych scenariuszach
a zacząć o praktycznych, codziennych rzeczach.
Jest to dobry przykład,
ponieważ to już się dzieje.
- Ok, zejdźmy
na bardziej koncepcyjny poziom.
Na przykład, centra handlowe,
w których robimy dziś zakupy.

English: 
And Fei-Fei, let's talk
about what we can do today
as we think about the risks
of AI, the benefits of AI,
and tell us your punch
list of what you think
the most important things
we should be thinking
about with AI are.
- Oh boy, there are so many
things we could do today.
And I cannot agree more with Yuval
that this is such an important topic.
Again, I'm gonna try to
speak about all the efforts
that's been made at
Stanford, because I think
this is a good representation
of what we believed
are so many efforts we can do.
So in human-centered AI in which,
this is the overall theme we believe
that the next chapter of AI
should be is human-centered,
we believe in three major principles.
One principle is to invest
in the next generation
of AI technology that is
more, that reflects more
of the kind of human
intelligence we would like.

Polish: 
Fei-Fei, porozmawiajmy o tym, co możemy zrobić dziś
w kwestii ryzyk i możliwości AI.
Powiedz nam, jakie są twoim zdaniem
najważniejsze rzeczy, które obecnie musimy zrobić
z AI.
- O, mój drogi, jest tyle rzeczy, które możemy zrobić dzisiaj.
I absolutnie zgadzam się z Yuvalem,
że to bardzo ważny temat.
Ponownie, spróbuję opowiedzieć o wszelkich wysiłkach,
które podejmujemy na Stanfordzie, ponieważ, moim zdaniem,
ilość rzeczy które robimy
dobrze oddaje w co wierzymy.
W kwestii AI skoncentrowanego na ludzi,
generalnie wierzymy, że
następnym naszym krokiem powinno być AI skoncentrowane na ludzi.
Wierzymy w 3 główne zasady.
Pierwszą, że powinniśmy inwestować w następną generację
AI, która lepiej odwzorowuje
ten rodzaj ludzkiej inteligencji, który od niej oczekujemy.

Chinese: 
飞飞，我们思索了人工智能的风险和优势，
那我们今天能做些什么呢？
你认为有关人工智能
我们应该思考的
最重要的事情是什么？
—天呀，今天咱们能做的事情太多了，
我特别同意尤瓦尔的观点。
这是如此重要的一个话题。
我想介绍一下斯坦福大学
为此付出的一切努力，因为我认为
这代表了我们所能做的
各种努力。
在人本人工智能研究所，
我们信奉一个宏观的主题，
即人工智能的下一阶段应该是以人为本的。
我们信奉三条主要原则。
第一个原则是投资下一代
人工智能技术，这种技术更能
反映出我们偏好的人类智能。

English: 
I was just thinking about your
comment about AI's dependence
on data and how the policy
and governance of data
should emerge in order to
regulate and govern the AI impact,
while technology is, we should
be developing technology
that can explain AI.
In technical field, we
call it explainable AI
or AI interpretability studies.
We should be focusing
on technology that have
the more nuanced understanding
of human intelligence.
We should be investing in the development
of less data dependent AI technology
that would take into
considerations of intuition,
knowledge, creativity and other
forms of human intelligence.
So that kind of human
intelligence inspired AI
is one of our principles.
The second principle is to, again,

Chinese: 
你提到人工智能对数据的依赖，
以及应该出现对数据的政策和管理
用来管控人工智能的影响，
同时我们应该开发能够解释
人工智能的技术。
在技术领域，我们称之为“可解释人工智能”，
或者“人工智能跨学科研究”。
我们应该聚焦于对人类智能
具备更为细微理解的技术。
我们应该投资开发
不那么依赖数据的人工智能技术，
要将诸如直觉、知识，创造力
和其他形式的人类智能纳入考虑范畴。
因此，这种受人类智慧启发的人工智能
是我们的一条原则。
第二条原则是

Polish: 
Myślałam o twoim komentarzu dotyczącym zależności AI
od danych i tego jak zarządzanie i polityka wobec danych
powinna uregulować i określić wpływ AI,
podczas gdy powinniśmy rozwijać technologię,
która wyjaśniłaby AI.
Z technicznego punktu widzenia, nazywamy to wyjaśnianiem AI
lub badaniem interpretacji AI.
Powinniśmy bardziej skoncentrować się na technologii, która
lepiej zrozumie ludzką inteligencję.
Powinniśmy inwestować w rozwój
AI mniej zależnego od danych,
która brałaby pod uwagę intuicję,
wiedzę, kreatywność i inne obszary ludzkiej inteligencji.
Jedną z naszych zasad
jest inspirowanie się ludzką inteligencją.
Drugą zasadą, ponownie,

Chinese: 
欢迎关于人工智能的多学科研究，
即人工智能与经济、伦理、法律、
哲学、历史和认知科学领域的合作。
因为关于人工智能的
社会、人类、人类学和伦理影响，
我们还有很多有待理解。
作为技术专家，我们不能自己做这些，
我们中的有些人甚至就不该做这些事。
伦理学家，哲学家应该与我们一起
参与到这些议题中来，
这是第二条原则。
第三条原则是——在第二条原则中
我们与政策制订者合作。
我们召集了多国的
利益相关者展开对话，
然后是同等重要的第三条原则。
尼克，你在活动一开始的时候说过

English: 
welcome in the kind of
multidisciplinary study of AI,
cross-pollinating with
economics, with ethics, with law,
with philosophy, with history,
cognitive science and so on,
because there is so much
more we need to understand
in terms of AI's social,
human, anthropological,
ethical impact.
And we cannot possibly do
this alone as technologists,
some of us shouldn't even be doing this,
it's the ethicists,
philosophers should participate
and work with us on these issues.
So that's the second principle.
And the third principle, and within this,
we work with policymakers.
We convene the kind of dialogues
of multilateral stakeholders.
Then the third, last but not the least.
I think Nick, you said
that at the very beginning

Polish: 
są interdyscyplinarne studia nad AI,
przeplatanie jej z ekonomią, etyką, prawem,
filozofią, historią, kognitywistyką i tak dalej,
ponieważ musimy zrozumieć społeczny, humanistyczny,
antropologiczny i etyczny
wpływ AI.
Sami inżynierowie tego nie dokonają.
Niektórzy z nas nawet nie powinni próbować.
Etycy i filozofowie powinni współpracować
z nami w tych kwestiach.
To druga zasada.
W ramach tego,
współpracujemy z politykami.
Prowadzimy różne rodzaje dialogów
i wielostronnych negocjacji.
Trzecia, ale nie mniej ważna...
Myślę, Nick, że wspomniałeś już o niej na początku

Chinese: 
我们需要从
人类提升、合作，
以及强化等方面促进人工智能技术
你的观点是，这也可能被操纵。
但我们应该带着警惕心
和理解力着手，推广那种有助益的应用、
并推进该项技术的设计。
至少这三条原则是斯坦福人本
人工智能研究所的基础。
我引以为傲的是，自研究所诞生的
短短几个月内，
已有超过200名教职工
参与到这场研究对话和学习教育中。
而且这个数字还在不断增长。
— 哇哦。
这三条原则。
让我们深入讨论一下。
第一是可解释性，
因为这是一个关于人工智能

Polish: 
tej rozmowy, musimy promować
rozwój ludzi oraz wspólnotowe
i ulepszające aspekty tej technologii.
Masz rację, nawet to może przerodzić się w manipulację.
Jednak musimy rozpocząć z tym nastawieniem
na ostrożność i zrozumienie, jednak wciąż promować
dobre zastosowania dla tej technologii.
Przynajmniej takie są 3 zasady
Instytutu AI Zorientowanego na Ludzi.
Jestem bardzo dumna, że w przeciągu kilku krótkich miesięcy
od początku tej instytucji, już ponad
200 profesorów zaangażowało się
w ten rodzaj debaty naukowej.
A jest ich coraz więcej.
- Wow.
Przyjrzyjmy się
tym trzem zasadom.
Zacznijmy od pierwszej,
ponieważ prowokuje ona ciekawą debatę

English: 
of this conversation,
that we need to promote
the human enhancing and collaborative
and augmentative aspect
of this technology.
You have a point, even there,
it can become manipulative.
But we need to start with
that sense of alertness,
understanding, but still promote that kind
of benevolent applications
and design of this technology,
at least these are the three principles
that Stanford's Human-Centered
AI Institute is based on.
And I just feel very proud
within the short few months
of the birth of this
institute, there are more
than 200 faculty involved
on this campus in this kind
of research dialogue, you
know, study education.
And their number's still growing.
- Wow.
Let's, of those three principles,
let's start digging into them.
So let's go to number one, explainability,
'cause this is a really interesting debate

Chinese: 
的有趣辩论。
有些从业者说
你应该有算法来解释
它们做了什么以及它们选了什么。
听起来特别明智。
但是，你要怎么才能做到呢？
我会做出各种
我无法完全解释的决定。就像，我为什么雇用这个人，
而不是那个人；
我可以讲我为什么做这事，但我也不确定。
就像我们不够了解自己，
无法深信不疑地、完全地
解释自己的所作所为；
那我们又怎么指望人工智能做得到？
如果我们西方要求“可解释性”，
而世界上其他国家并不要求，
那他们就能更快地行动。
我来问你这个问题的第一部分；
尤瓦尔来回答问题的第二部分。
所以第一部分是，如果我们自身都很难做到“可解释性”，
那人工智能做得到吗？
— 好吧，两位数乘法对我很难，
但计算机可以做得到。
事实上，有些事情对人类来说困难，
但并不意味着我们不该试着让机器做。
尤其是所有这些算法

English: 
in artificial intelligence.
So there are some practitioners who say
you should have algorithms
that can explain
what they did and the choices they made.
Sounds eminently sensible.
But how do you do that?
I make all kinds of decisions that
I can't entirely explain, like
why did I hire this person,
not that person, and I can tell a story
about why I did it, but
I don't know for sure.
Like we don't know ourselves well enough
to always be able to truthfully
and fully explain what
we did, how can we expect a
computer using AI to do that?
And if we demand that here in the West,
then there are other parts of the world
that don't demand that who
may be able to move faster.
So why don't we start, why
don't I ask you the first part
of that question, Yuval the
second part of that question.
So the first part is, can we
actually get explainability
if it's super hard even within ourselves?
- Well, it's pretty hard for
me to multiply two digits,
but you know, computers can do that.
So the fact that something
is hard for humans
doesn't mean we shouldn't try
to get the machines to do,
especially, you know,
after all these algorithms

Polish: 
na temat sztucznej inteligencji.
Niektórzy twierdzą,
że powinniśmy stworzyć algorytmy, które
wyjaśnią same siebie i decyzje które podejmują.
Brzmi bardzo rozsądnie.
Ale jak to zrobić?
Sam podejmuję wiele decyzji, których
nie potrafię w pełni wyjaśnić. Dlaczego zatrudniłem akurat
tę osobę... Potrafię opowiedzieć historię
dlaczego, ale nigdy nie mam pewności.
Skoro nie znamy samych siebie na tyle dobrze,
żeby zawsze w pełni wyjaśnić nasze
działania, jak możemy oczekiwać tego od komputerów?
A jeśli zażądamy tego tutaj, na zachodzie,
być może inne części świata,
które nie postąpią tak samo, będą rozwijać się szybciej.
Zróbmy tak: ty odpowiesz na pierwszą część pytania,
a Yuval na drugą.
Pierwsza część brzmi: czy możemy uzyskać wyjanienia od AI,
skoro nie potrafimy nawet od siebie?
- Cóż, mi czasem ciężko jest pomnożyć 2 liczby,
podczas gdy dla komputera to pestka.
Więc fakt, że coś jest trudne dla ludzi,
nie znaczy że będzie równie trudne dla maszyn,
zwłaszcza gdy wszystkie algorytmy

Polish: 
oparte są na bardzo prostej matematyce.
Prawda, pracujemy obecnie na sieciach neuronowych
opartych na miliardach powiązań,
więc ciężko prześledzić całą decyzję, choć pracujemy nad tym.
Jednak myślę, że to podatny grunt.
Jednocześnie bardzo ważne jest to w decyzjach medycznych,
finansowych i prawnych.
Jest wiele scenariuszy w których ta technologi
może być potencjalnie bardzo użyteczna
w połączeniu z możliwością tłumaczenia decyzji.
Musimy spróbować, ale ja i wiele
innych naukowców, jesteśmy przekonani
że da się to zrobić.
A w najlepszych...
- 200 profesorów nad tym pracuje.
- Racja, nie wszyscy zajmują się algorytmami AI.
Ponadto, myślę, że masz rację, że
mając technologię, która wyjaśni

English: 
are based on very simple
mathematical logic.
Granted, we're dealing with
neural networks these days
of millions of nodes and
billions of connections.
So explainability is actually
tough, it's ongoing research.
But I think this is such a fertile ground
and it so critical when it
comes to healthcare decisions,
financial decisions, legal decisions.
There is so many scenarios
where this technology
can be potentially positively useful,
but with that kind of
explainable capability.
So we've gotta try, and
I'm pretty confident,
with a lot of smart minds out there,
this is a crackable thing.
And on top--
- [Nick] Got 200 professors on it.
- Right, not all of them
doing AI algorithms.
On top of that, I think
you have a point that,
if we have technology that can explain

Chinese: 
都是基于非常简单的数学逻辑。
我们最近在处理神经网络——
它有数百万节点和数十亿连接。
所以“可解释性”并不容易实现。
这是一项仍在进行的研究，
但我认为这是一块肥沃的土壤，
在医疗、财务和法律决策方面，
它非常重要。
在很多场景中，这项技术
如果具有“可解释性”，
那它就可能起到积极作用。
所以我们要尝试，我对此有信心。
咱们有这么多聪明的头脑，
这难题一定可以被攻克。
除此之外……
—有两百个教授忙活这事，
—他们并不是都在研究人工智能算法。
除此之外，我认为你有一个观点，
如果我们有技术可以解释

Polish: 
proces decyzyjny algorytmów,
znacznie trudniej będzie manipulować i oszukiwać.
To techniczne rozwiązanie, nawet jeśli
nie pełne rozwiązanie, które rozjaśni nam
co robi technologia.
- Ale skoro, najpewniej, proces decyzyjny AI
jest drastycznie różny od naszego,
nawet jeśli AI wyjaśni swoje rozumowanie,
możemy nie zrozumieć jej tłumaczeń.
Większość ludzi, jeśli zapytać ich o ich decyzję,
opowiadają historię w formie narracji,
która może odwzorowywać
ich wewnętrzne procesy.
Choć faktycznie rzadko to robi.
To tylko wymyślona racjonalizacja.
AI mogłoby być znacznie lepsze niż ludzie
w wyjaśnianiu... Zawnioskowałem do banku

Chinese: 
算法的决策过程，
那它操纵（人类）和作弊就不太容易了，对吧。
这是个技术性解决方案，但并非解决方案的全部，
它将有助于澄清
这项技术的功用。
但因为……假定人工智能
以一种与人类截然不同的方式做出决定，
那么即使人工智能解释了它的逻辑，
恐怕这解释对人类也说不通。
大多数人，当他们解释决定时，
他们以叙事的形式讲述一个故事，
这个故事不一定
反映实际发生的事。
在许多情况下，它反映不出来。
这只是一种编造出的合理化，并非真事。
现在，人工智能比人类强多了。
比如说，我向银行

English: 
the decision making process of algorithms,
it makes it harder for it to
manipulate and cheat, right.
It's a technical
solution, not the entirety
of the solution, that will contribute
to the clarification of what
this technology is doing.
- But because the, presumably,
the AI makes decision
in a radically different way than humans,
then even if the AI explains
its logic, the fear is,
it will make absolutely
no sense to most humans.
Most humans, when they are
asked to explain a decision,
they tell a story in a narrative form,
which may or may not reflect what
is actually happening within them.
In many cases, it doesn't reflect.
It's just a made up rationalization
and not the real thing.
Now, an AI could be
much better than a human
in telling me like, I applied for a bank,

Polish: 
o pożyczkę, a bank odmówił.
Pytam: dlaczego?
Bank odpowiada: zapytajmy naszego AI.
AI poda ekstremalnie długą analizę statystyczną
opartą nie na jednym lub dwóch faktach z mojego życia,
ale na 2517 różnych fragmentów danych,
z których każdy jest zważony i wzięty pod uwagę.
A dlaczego przydzielił akurat takie wagi?
To już jest kolejna książka z objaśnieniami.
Większość z tych danych, dla wielu ludzi
będzie zupełnie bez znaczenia.
Wystąpiłeś o pożyczkę w poniedziałek, nie w środę.
AI widzi to i myśli, na przykład,
było to po weekendzie, na przykład,
ludzie, którzy wnioskują o pożyczkę w poniedziałek
o 0.075% rzadziej spłacają pożyczki.

English: 
to the bank for a loan,
and the bank says no,
and I ask why not?
And the bank says okay, we'll ask our AI.
And the AI gives this extremely
long statistical analysis
based not on one or two
salient feature of my life,
but on 2517 different data points,
which it took into account
and gave different weights.
And why did you give this, this weight,
and why did you give, oh, there
is another book about that.
And most of the data points would seem
to a human completely irrelevant.
You applied for a loan on
Monday and not on Wednesday.
And the AI discovered
that, for whatever reason,
it's after the weekend, whatever,
people who apply for loans on a Monday
are 0.075% less likely to repay the loan.

Chinese: 
申请贷款，银行拒绝了。
我问为什么不批？
银行说，好吧，我们要问我们的人工智能。
人工智能给出来一份极其冗长的统计分析。
它的依据不是我生活中的一两个突出特点；
而是在2517个不同的数据点上。
人工智能将这些纳入考量，并给予不同权重。
比如为什么这个指标是这个权重，
你为什么给那个指标……关于这点有足足一本书解释。
对人类来说，大多数据点
看起来完全无关。
你在星期一，而不是星期三申请贷款
人工智能发现出于一些原因，
周末过后，
星期一申请贷款的人。
偿贷可能性低0.075%。

English: 
So it goes into the equation.
And I get this book of the
real explanation, finally,
I get a real explanation.
It's not like sitting with a human banker
that just bullshits me.
- So are you rooting for AI?
Are you saying AI is good in this case?
- In many cases, yes, I
mean, I think in many case,
it's two sides of the coin, I think that,
in may ways, the AI in this scenario
will be an improvement
over the human banker.
Because for example, you can really know
what the decision is based on, presumably.
But it's based on something
that I as a human being just
cannot grasp, I just
don't, I know how to deal
with simple narrative stories.
I didn't give you a
loan because you're gay,
that's not good.
Or because you didn't repay
any of your previous loans,
okay, I can understand that.
But I don't, my mind
doesn't know what to do

Chinese: 
于是它将这个变量输入方程。
我拿到了整本书篇幅的真正的解释，最终，
我得到了一个真正的解释。
不像和人类银行家坐在一起时，
对方只会对我胡扯。
—那么你是在力挺人工智能吗？
你是说人工智能在这种情况下是好的吗？
—在很多情况下，我认为是的。
这是硬币的两面，我认为
这种情况下的人工智能
将会是超越人类银行家的进步。
因为，打个比方，你真能知道
这项决定的依据。
但这依据是我作为人类
无法把握的。我知道怎么处理
简单的叙述故事。
因为你是同性恋，所以我不批你的贷款。
那很不好。
或者因为你没有偿还以前的贷款，
好吧，这倒是能理解。
但我的理智不知道该

Polish: 
Bierze to pod uwagę w równaniu.
A ja dostaję całą książkę wyjaśniającą równanie.
Dostaję pełną odpowiedź.
Jest to zupełnie inne niż gdy jakiś ludzki bankier
wciska mi kit.
- Więc kibicujesz AI?
Uważasz, że AI w tym przypadku jest dobra?
- Tak, w wielu przypadkach... W wielu przypadkach
istnieją dwie strony medalu. Myślę, że,
na wiele sposobów, AI byłaby
znacznie lepsza niż ludzki bankier.
Na przykład, dlatego że możesz poznać
na czym, rzekomo, oparła swoją decyzję.
Jest to coś, co ja, jako człowiek, zwyczajnie
nie jestem w stanie ogarnąć
prostymi, narracyjnymi historiami.
Nie dam ci pożyczki, ponieważ jesteś gejem,
to niewłaściwe.
Albo dlatego, że nie spłaciłeś żadnej ze swoich poprzednich pożyczek.
Ok, to jestem w stanie zrozumieć.
Ale mój umysł nie wie co zrobić

English: 
with the real explanation
that the AI will give,
which is just this crazy statistical thing
which says nothing to me.
- Okay, so there are two
layers to your comment.
One is how do you trust
and be able to comprehend
the AI's explanation?
Second is, actually, can AI be used
to make humans more trustable
or be more trustable humans?
On the first point, I agree with you,
if AI gives you 2000 dimensions
of potential features
with probability, it's
not human understandable.
But the entire history of
science in human civilization
is to be able to communicate
the result of science
in better and better ways, right.
Like I just had my annual physical and
a whole bunch of numbers
came to my cell phone.
And well, first of all, my doctors can,
the expert can help me
to explain these numbers.
Now even Wikipedia can help me
to explain some of these numbers.

Polish: 
z prawdziwym wyjaśnieniem, które mogłoby przedstawić AI,
które jest tylko szalenie długą statystyką,
która nic mi nie mówi.
- Ok, więc są dwie warstwy twojej odpowiedzi.
Jedna, jak możemy ufać i zrozumieć
wyjaśnienia AI.
O druga, że AI może sprawić
że będziemy bardziej wiarygodni.
W pierwszej kwestii, zgadzam się.
Jeśli AI da ci 2000 aspektów decyzji
z odpowiadającymi im prawdopodobieństwami, nikt tego nie zrozumie.
Ale cała historia nauki w naszej cywilizacji
polega na coraz lepszym komunikowaniu
wyników.
Zupełnie jak w sytuacji, gdy przed chwilą byłam na badaniach u lekarza
i na mój telefon przyszło mnóstwo liczb.
Po pierwsze, doktorzy
i eksperci mogą pomóc mi zrozumieć te liczby.
Obecnie nawet Wikipedia pomaga mi
zrozumieć niektóre z tych liczb.

Chinese: 
拿人工智能给出的真实原因如何是好。
那可是个疯狂的统计问题
对我来说犹如天书。
— 好吧，所以你的评论有两层含义。
第一：你如何信任和理解
人工智能的解释？
第二：实际上，人工智能是否可以
被用来使人类更可信？
首先，我同意你的观点，
如果人工智能给你包含2000种规格的潜在特征
人类可理解不了。
但整个人类文明的科学史
是以更好的方式
传播科学的结果。
就像我刚做了一次年度体检，
那一大堆数字发到了我的手机上。
首先，我的医生、
专家可以帮我解释这些数字。
现在连维基百科都能帮我
解释其中的一些数字。

Polish: 
Jednak technologia wyjaśniania tego
będzie postępować.
Będzie naszą, specjalistów od AI, porażką
jeśli nasze AI będzie zwyczajnie rzucało w ciebie tysiącami statystyk.
- Jednak to właśnie jest wyjaśnienie.
Myślę, że poruszyłaś bardzo ważny temat.
Jednak ja uważam inaczej. Myślę, że nauka
coraz gorzej radzi sobie z wyjaśnianiem tych teorii
i odkryć. Dlatego odbiorcy wątpią
w rzeczy takie jak globalne ocieplenie i tak dalej.
Nie jest to wina naukowców.
Ponieważ nauka i rzeczywistość
jest coraz bardziej skomplikowana,
a ludzki umysł nie jest przystosowany do rozumienia
dynamiki zmian klimatycznych lub prawdziwych powodów
odrzucenia wniosku o pożyczkę.

English: 
But the technological improvements
of explaining these will improve.
It's our failure as AI technologists if
we just throw 2000 dimensions
of probability numbers at you.
- But this is, I mean,
this is the explanation,
and I think that the point
you raise is very important.
But I see it differently, I think science
is getting worse and worse
in explaining its theories
and findings to general
public, which is the reason
for things like doubting
climate change and so forth,
and it's not really even
the fault of the scientists.
Because the science is just getting more
and more complicated, and
reality is extremely complicated,
and the human mind wasn't
adapted to understanding
the dynamics of climate
change or the real reasons
for refusing to give somebody a loan.

Chinese: 
但解释这些数字的技术
有待改善。
作为人工智能的专家，如果我们把2000种规格
的概率数列砸向你，那说明我们是失败的。
—但这是，我的意思是，这是解释，
我认为你提到的这点非常重要。
但我看法不同。我认为科学
越来越不擅长向公众
解释其理论和研究发现。
这就是人们怀疑气候变化的原因。
这真不是科学家的过错。
因为科学越来越复杂，
现实也极其复杂，
而人类的思想没能适应着去理解
气候变化的动态或者拒绝给某人贷款
的真正原因

Polish: 
To kolejna kwestia, w której...
Odłóżmy na bok całą kwestię manipulacji
i zaufania. Załóżmy, że AI nam sprzyja.
Załóżmy, że nie ma ukrytych uprzedzeń.
Wszystko jest ok.
Jednak wciąż, nie możemy zrozumieć decyzji AI.
- Ludzie tacy jak Nick, opowiadający historie, muszą nam to wyjaśnić.
Masz rację, mówię o bardzo skomplikowanych rzeczach.
Jednak są ludzie tacy jak...
- Mój zawód zostanie zautomatyzowany za tydzień,
ale cieszę się, że we mnie wierzysz.
- Ale wyjaśnianie skomplikowanej nauki
jest zadaniem dla całego społeczeństwa.
Nie twierdzę wcale, że nam się udaje.
Twierdzę, że powinniśmy spróbować.
- Boję się, że zwyczajnie nie damy rady,
ponieważ ludzki umysł nie jest przystosowany
do przetwarzania takich wyjaśnień i technologii.
Tak jest

English: 
That's the point when you have an, again,
let's put aside the whole
question of manipulation
and how can I trust, let's
assume the AI is benign
and let's assume it makes, that
there are no hidden biases,
everything is okay.
But still, I can't understand
the decisions of the AI.
- People like Nick, the
storytellers has to explain.
What I'm saying, you're
right, it's very complex.
But there are people like--
- I'm gonna lose my job to
a computer like next week,
but I'm happy to have
your confidence with me.
- But that's the job of
the society collectively,
to explain the complex science.
I'm not saying we're
doing a great job at all.
But I'm saying there is hope if we try.
- But my fear is that we
just really can't do it
because the human mind
is not built for dealing
with these kinds of
explanations and technologies.
And it's true for, I mean, it's true

Chinese: 
这就是当你有一个观点……
姑且把“利用技术操纵人类”、“我要怎么信任技术”
等问题搁置一边。假设人工智能是良性的，
假设它没有隐藏的偏见，
一切都很好。
但我还是不明白人工智能的决定。
—像尼克这样讲述故事的人会做出解释
我说的是，你说的对，这问题很复杂。
但是存在一些人--
— 下礼拜我就要把工作让给电脑了，
但我很高兴你对我有信心。
—但解释复杂的科学
是整个社会的集体任务。
我不是说我们做得够好了。
但我是说，只要我们努力，就会有希望。
—但我担心的是我们真的做不到。
因为人类的思维不是用来应对
这类解释和技术的。
的确，我是说，

Polish: 
z pojedynczym klientem,
któremu bank odmówił udzielenia pożyczki.
A może być na znacznie większą skalę.
Jak wiele ludzi naprawdę rozumie
nasz system finansowy?
Jak wielu prezydentów i premierów rozumie
system finansowy?
- W tym kraju, ani jeden.
(oklaski)
- Żyjemy w społeczeństwie, w którym ludzie
odpowiedzialni za biznes,
ponownie, nie jest to wina polityków,
tylko tego, że system finansowy stał się tak skomplikowany.
Nie sądzę, że ekonomiści robią to specjalnie,
żeby coś ukryć.
Jest po prostu ekstremalnie skomplikowany.
Najmądrzejsi ludzie świata
idą do branży finansowej i tworzą

English: 
for the individual customer
who goes to the bank
and the bank refuses to give them a loan.
And it can even be on the level, I mean,
how many people today on Earth understand
the financial system?
How many presidents and
prime ministers understand
the financial system?
- In this country, it's zero.
(audience applauding)
- What does it mean to live
in a society where the people
who are supposed to be
running the business,
and again, it's not the fault
of a particular politician.
It's just the financial system
has become so complicated,
I don't think that economists
are trying on purpose
to hide something from general public.
It's just extremely complicated.
You had some of the wisest
people in the world going
to the finance industry and creating

Chinese: 
客户被银行贷款被拒，
这个情况是真的。
同样的道理，我的意思是，
今天地球上有多少人了解
金融系统？
有多少总统和首相明白
金融系统？
—在（美国）这个国家，零。
（观众鼓掌）
— 生活在一个大家都理应做生意
的社会中意味着什么？
再说一遍，这不是某个政治家的错。
只是金融系统变得太复杂了，
我不认为经济学家试图故意
向大众隐瞒什么。
只是这些东西非常复杂。
世界上最聪明的一群人，
投身到金融业，创造出这些

English: 
these enormously complex models
and tools which objectively,
you just can't explain
it to most people unless,
first of all, they study
economics and mathematics
for 10 years or whatever.
So I think this is a real crisis.
And this is, again, this is part
of the philosophical
crisis we started with.
And the undermining of human agency is,
that's part of what's happening,
that we have these
extremely intelligent tools
that are able to make
perhaps better decisions
about our healthcare,
about our financial system.
But we can't understand
what they are doing
and why they are doing it.
And this undermines our
autonomy and our authority.
And we don't know as a
society how to deal with that.
- Well, ideally, Fei-Fei's
institute will help that.

Chinese: 
极其复杂的模型和工具，
客观来说，你就是无法对大多数人解释清楚，
除非他们先学上十年
经济学、数学等学科。
所以我认为这是一场真正的危机。
这也是我们活动开场时提到的，
哲学危机的一部分。
人类能动性的破坏是
正在发生的事。
我们有这些极其智能的工具
也许可以做出更好的
关于医疗和金融体系的决定，
但我们无法理解它们在做什么，
以及它们为什么这么做。
这破坏了我们的能动性和权威。
我们不知道作为社会该如何去应对。
—好吧，理想情况下，飞飞的研究所将对此有所帮助。

Polish: 
niewiarygodnie skomplikowane modele i narzędzia,
których nie da się wyjaśnić większości ludzi,
którzy nie studiowali przez ostatnie 10 lat
ekonomii i matematyki.
Myślę, że to jest prawdziwy kryzys.
To, ponownie, jest część
filozoficznego kryzysu, od którego zaczęliśmy.
Podważanie ludzi-agentów jest częścią
procesów powstawania
ekstremalnie skomplikowanych narzędzi,
które są w stanie, być może, podejmować lepsze decyzje
w kwestii medycyny i finansów.
Jednak nie jesteśmy w stanie zrozumieć co robimy
i dlaczego to robimy.
Podważa to naszą autonomię i władzę.
Nie wiemy, jako społeczeństwo, jak sobie z tym poradzić.
- Docelowo instytut Fei-Fei ma pomóc.

English: 
Before we leave this topic though,
I wanna move to a very
closely related question,
which I think is one of
the most interesting,
which is the question
of bias in algorithms,
which is something you've
spoken eloquently about,
and let's take the financial system.
So you can imagine a loan used by a bank
to determine whether
somebody should get a loan.
And you can imagine training
it on historical data,
and historical data is racist,
and we don't want that.
So let's figure out how to
make sure the data isn't racist
and that it gives loans to
people regardless of race.
I think we probably all,
everybody in this room agrees
that that is a good outcome.
But let's say that analyzing
the historical data suggests
that women are more likely to
repay their loans than men.
Do we strip that out or do
we allow that to stay in?
If you allow it to stay in, you get
a slightly more efficient
financial system.
If you strip it out, you
have a little more equality
between men and women.
How do you make decisions about
what biases you wanna strip
and which ones are okay to keep?
- Yeah, that's an
excellent question, I mean,
I'm not gonna have the answers personally,
but I think you touch on a
really important question,

Chinese: 
在我们结束这个话题之前，
我想到一个非常密切相关的问题，
我认为它挺有趣的，
这个问题关乎算法中的偏见，
这正是你雄辩过的要点。
我们以金融系统为例。
你可以想象一个银行使用贷款，
决定谁该得到贷款。
你可以想象根据历史数据来训练金融系统，
历史数据是种族主义者，我们不想那样。
那么让我们考虑如何确保数据不是种族主义者。
金融系统贷款无关种族。
我想我们可能都……这个在场每个人都同意
这是个好结果。
但是我们假设：通过分析历史数据表明
女人比男人更有可能还贷款。
我们是把这条数据剔除还是保留？
如果你保留这个数据，
你将得到一个略高效的金融系统。
如果你剔除这个数据，
则促进了男女平等。
你如何决定哪些偏见该剔除，
哪些该保留？
—对，这是个好问题，我是说，
我个人不知道答案，
但我认为你触及了一个非常重要的问题，

Polish: 
Jednak zanim zmienimy temat,
chciałbym zadać powiązane pytanie,
które, moim zdaniem, jest bardzo interesujące.
Pytanie o uprzedzenia algorytmów,
czyli coś o czym trochę mówiliście.
Weźmy przykład systemu finansowego.
Wyobraźmy sobie system bankowy,
który określałby kto dostanie pożyczkę.
Być może taki system byłby szkolony na historycznych danych,
a dane historyczne są rasistowskie.
Pomyślmy jak sprawić, żeby dane nie były uprzedzone
i żeby AI udzielało pożyczek niezależnie od rasy.
Myślę, że każdy na tej sali
zgodzi się, że to dobre rozwiązanie.
Jednak powiedzmy, że z historycznych danych wynika,
że kobiety rzadziej spłacają pożyczki niż mężczyźni.
Usuwamy taką daną, czy pozostawiamy ją?
Jeśli zostawimy ją,
otrzymamy odrobinę bardziej efektywny system finansowy.
Jeśli ją odrzucimy, zyskamy trochę więcej
równości między płciami.
Jak podjąć decyzje, które uprzedzenia odrzucamy,
a które zatrzymujemy?
- To bardzo dobre pytanie.
Osobiście nie znam odpowiedzi,
ale porusza to bardzo ważną kwestię.

Chinese: 
首先，机器学习系统的偏见
如你所说，真实存在。
它从数据开始，它可能是从
收集数据的那一刻开始
从我们搜集数据的种类，
一直贯穿整个流程，
然后一直到应用程序。
但偏见的形式非常复杂。
在斯坦福大学，我们有机器学习科学家研究
有关偏见的技术性解决方案，就像你知道的，
将数据“去偏见”，以及将某些决策标准化。
但我们也有人文主义者在争论
什么是偏见；什么是公平，什么时候偏见是好的；
什么时候偏见是坏的？
所以我认为你刚好展开了一个用于研究
辩论以及对话的完美的话题
我还想指出：尤瓦尔，你已经举过

Polish: 
Po pierwsze, czy faktycznie istnieje coś takiego
jak uprzedzenia AI.
Prawdopodobnie zaczyna się to od danych,
od momentu zbierania danych
i rodzaju tych danych,
które później przejdą cały proces
aż do wyniku.
Jednak uprzedzenia działają na bardzo skomplikowane sposoby.
Na Stanfordzie, naukowcy od deeplearningu badają
techniczne rozwiązania na uprzedzenia, na przykład,
neutralizację danych i normalizację procesów decyzyjnych.
Z drugiej strony mamy humanistów, którzy debatują na temat tego
co jest uprzedzeniem, co jest uczciwością i kiedy uprzedzenia są dobre,
a kiedy złe.
Myślę, że otwiera to świetny temat
do badań, debat i rozmów.
Chciałabym też zwrócić uwagę, że Yuval

English: 
this, first of all, machine
learning system bias
is a real thing, you know, like you said.
It starts with data, it probably starts
with the very moment where collecting data
and the type of data we're collecting,
all the way through the whole pipeline
and then all the way to the application.
But biases come in very complex ways.
At Stanford, we have machine
learning scientists studying
the technical solutions
of bias, like you know,
debiasing data and normalizing
certain decision making.
But we also have humanists debating about
what is bias, what is
fairness, when is bias good,
when is bias bad?
So I think you just
opened up a perfect topic
for research and debate and
conversation in this topic.
And I also wanna point out
that Yuval, you already used

English: 
a very closely related example.
Machine learning algorithm has a potential
to actually expose bias, right.
It, you know, like one
of my favorite study
was a paper a couple of years
ago analyzing Hollywood movies
and using machine learning
face recognition algorithm,
which is a very controversial
technology these days,
to recognize Hollywood
systematically gives more screen time
to male actors than female actors.
That's, no human being can sit there
and count all the frames
of faces and gender bias.
And this is a perfect example
of using machine learning
to expose bias.
So in general, there is a rich set
of issues we should study, and again,
bring the humanists, bring the ethicists,
bring the legal scholars,
bring the gender study experts.
- Agreed, though standing up
for humans, I knew Hollywood

Polish: 
już podniósł bardzo zbliżony przykład.
Faktycznie, inteligentne algorytmy potrafią
wykrywać uprzedzenia.
Bardzo lubię badanie
przeprowadzone kilka lat temu na filmach z Hollywood,
podczas których algorytm rozpoznawania twarzy,
obecnie bardzo kontrowersyjna technologia,
rozpoznał, że na mężczyźni pozostają na ekranie
dłużej niż kobiety.
Żaden człowiek nie siedziałby
i liczył klatki z twarzami pod kątem dyskryminacji płciowej.
To świetny przykład jak AI
potrafi wykrywać uprzedzenia.
Jest mnóstwo kwestii,
które powinniśmy zbadać
we współpracy z humanistami, etykami,
prawnikami, ekspertami gender studies.
- Zgadzam się, choć w obronie ludzkości muszę powiedzieć, że

Chinese: 
一个密切相关的例子。
机器学习的算法具备
揭露偏见的潜力，对吧。
我最喜欢的一项研究是
几年前发表的一篇论文。
它运用机器学习和面部识别算法，
当今颇具争议的技术。
发现好莱坞系统性地给了
男演员更多出镜时间。
没人能坐在那里
计算每一帧人脸和性别偏见。
这是个利用机器学习
揭露偏见的好例子。
因此，总的来说，我们有一大堆
应该研究的问题，并且
要请人文主义者、伦理学家、
法律学者、性别研究专家加入到这项研究中来。
—同意，早在那篇论文发表前，

Chinese: 
我就知道好莱坞有性别歧视了。对，同意。
—你是个聪明人。
—尤瓦尔，关于贷款的问题。
你会把种族主义数据剔除吗？
你会把性别数据剔除吗？
你剔除哪些偏见？保留哪些偏见？
—我认为无法一概而论。
这个问题需要
工程师、伦理学家
心理学家和政治科学家们日复一日的合作。
—不算上生物学家吗？
—以及越来越多的生物学家。
回到问题上来，
我们该怎么办？
道德课应该是程序员
课程大纲的一部分。
当今世界上最需要
道德知识背景的，
是那些计算机科学系的人。
所以它应该是总体课程大纲的一部分。

English: 
was sexist even before that
paper, but yes, agreed.
- You're a smart human.
- Yuval, on that question of the loans.
Do you strip out the racist data,
do you strip out the gender data,
what biases do you get rid
of, what biases do you not?
- I don't think there is a
one size fits all, I mean,
it's a question we,
again, we need this day
to day collaboration between
engineers and ethicists
and psychologists and
political scientists.
- [Nick] But not biologists,
right, but not biologists?
- And increasingly also biologists.
And you know, and it goes
back to the question,
what should we do?
So we should teach ethics to coders
as part of their curriculum.
The people today in the
world that most need
a background in ethics is the people
in the computer science departments.
So it should be an integral
part of the curriculum.

Polish: 
już przed tym badaniem wiedziałem, że Hollywood jest seksistowskie.
- Jesteś inteligentnym człowiekiem.
- Yuval, pytanie odnośnie pożyczek.
Jeśli pozbyć się danych odnoszących się do rasy
i płci,
które uprzedzenia wyeliminujemy, a które pozostaną?
- Nie sądzę, żeby było uniwersalne rozwiązanie.
To kwestia... Ponownie, potrzebujemy dziś
współpracy między inżynierami, etykami,
psychologami i politologami.
- Ale nie z biologami?
- Coraz bardziej również z biologami.
Ale wracamy tu do kwestii tego
co powinniśmy zrobić?
Myślę, że powinniśmy uczyć
informatyków etyki.
Świat dzisiaj najbardziej potrzebuje właśnie
etycznego tła
w wydziałach informatyki.
Powinna ona być obowiązkowym elementem dyplomów.

Polish: 
Tak samo jest w wielkich korporacjach,
które projektują te narzędzia,
w zespołach powinni mieszać się ludzie
z zapleczem etycznym, politycznym,
którzy będą myśleć pod kątem uprzedzeń,
które mogą zostać włączone w system oraz tego,
jakie mogą być kulturowe i polityczne konsekwencje
naszych wynalazków.
Musimy o tym myśleć zawczasu,
zanim stworzony przez nas gadżet technologiczny
wyrządzi jakieś zło.
Później będzie plucie sobie w brodę
"jak mogliśmy tego nie dostrzec? Co teraz zrobimy?"
To powinno być częścią
procesu konstrukcji.
- Chciałabym tu wspomnieć o Robie Reichu,
który zapowiedział to wydarzenie.
On i mój znajomy, Mehran Sahami,
oraz kilku innych profesorów Stanforda

English: 
And it's also in the big corporations
which are designing these tools,
there should be embedded
within the teams people
with background in things
like ethics, like politics,
that they always think
in terms of what biases
might we inadvertently be
building into our system,
what could be the cultural
or political implications
of what we are building.
It shouldn't be a kind of afterthought
that you create this
neat technical gadget,
it goes into the world,
something bad happens.
And then you start thinking oh,
we didn't see this one
coming, what do we do now?
From the very beginning,
it should be clear
that this is part of the process.
- I do wanna give a
shout out to Rob Reich,
who just introduced this whole event.
He and my colleagues, Mehran Sahami
and a few other Stanford professors

Chinese: 
设计这些工具的
大公司也是如此，
团队里应该有具备
道德、政治背景知识的人——
始终警觉我们无意中将何种偏见
编入了系统，
编出的程序
会带来什么文化、政治影响。
这不应该是马后炮——
你创造出这个高精尖设备，
它投入使用，引起坏结果。
然后你才开始琢磨，
我们之前没预见它会发生，现在该怎么办？
从最开始，你就应该清楚
这是过程的一部分。
—我想提一下罗布·赖希，
他为今天活动致了开场词。
他和我的同事迈赫兰·沙哈米
以及几位斯坦福大学的教授

Polish: 
stworzyło kurs o nazwie etyka obliczeniowa...
Przepraszam Rob, że przekręcam nazwę,
ale właśnie o takim rodzaju nauczania mówimy.
Wydaje mi się, że w tym semestrze
zapisało się na niego ponad 300 studentów.
- Fantastycznie.
Żałuję, że za moich czasów
nie było tego kursu.
Pozwólcie mi zadać świetne pytanie od publiczności,
które się z tym wiąże. Pochodzi od Eugene Lee.
Jak pogodzić tę wewnętrzną sprzeczność
między umiejętnością tłumaczenia a efektywnością
i precyzją algorytmów?
- Szybkie pytanie, to pytanie zdaje się zakładać,
że jeśli możesz coś wyjaśnić, to jest to gorsze lub mniej precyzyjne.
- Cóż, wydaje mi się, że jeśli będziesz wymagać tłumaczeń,
stracisz odrobinę efektywności.
Dodatkowo komplikujesz algorytmowi pracę.
- Ok, po pierwsze, nie wierzę w to.
Nie ma żadnej matematycznej logiki w tym założeniu.
Po drugie, załóżmy, że faktycznie jest możliwość,

English: 
have opened this course
called ethics, computation,
and sorry, Rob, I'm abusing
the title of your course.
But this is exactly the
kind of classes, it's,
I think this quarter,
the offering has more
than 300 students signed up to that.
- Fantastic.
The course, I wish the course had existed
when I was a student here.
Let me ask an excellent
question from the audience
that ties into this,
this is from Eugene Lee.
How do you reconcile
the inherent trade offs
between explainability and efficacy
and accuracy of algorithms?
- Quick question, this
question seems to be assuming,
if you can explain it, you're
less good or less accurate.
- Well, you can imagine that
if you require explainability,
you lose some level of
efficiency, you're adding
a little bit of complexity
to the algorithm.
- So okay, first of all, I
don't necessarily believe
in that, there's no mathematical
logic to this assumption.
Second, let's assume
there is a possibility

Chinese: 
开设了一门名为《伦理与计算》的课程。
对不起，罗布，课程标题我可能说的不对。
但正是这个课程……
我想这个小学期
有超过300名学生注册了这些课程。
—太棒了。
这门课，我希望我上学的时候
就有这门课。
我要从观众提问中，挑一个与此相关的问题。
这个问题来自尤金·李。
你如何对算法内部的
可解释性、效率和精确度
做出权衡？
—问得好，这个问题似乎在假设，
如果算法可解释的话它就会不够好或不够准确。
—好吧，你可以想象如果你要求“可解释性”，
你就要失去某种程度的效率，
你增加了算法的复杂性。
—好吧，首先，我觉得这也不一定——
这一假设没有数学逻辑。
第二，假设有一种可能

Polish: 
że tłumaczące się algorytmy tracą na efektywności.
Myślę, że decyzję tę musi podjąć społeczeństwo.
Podobnie jest z zapinaniem pasów samochodowych.
Tracimy odrobinę efektywności,
ponieważ musimy wykonać ruch ręką
zamiast od razu włączać silnik,
ale społeczeństwo zadecydowało, że jesteśmy
gotowi na takie poświęcenie, ponieważ bardziej troszczymy się o
ludzkie bezpieczeństwo.
Myślę, że AI jest podobną technologią.
W trakcie jak będziemy podejmować takie decyzje
w naszych rozwiązaniach, naszych produktach,
musimy zrównoważyć korzyści indywidualne
i społeczne z efektywnością.
- Pozwól mi, Yuval, zapytać o
konsekwencje globalne.
Wielu ludzi o to pytało
na różny sposób i poruszyliśmy ten temat,
ale go nie rozwiązaliśmy.
Wyobraź sobie dwa kraje: kraj A
i kraj B.
Kraj A ustanawia, że wszyscy inżynierowie AI
muszą umożliwić wyjaśnienia od AI,
muszą uczęszczać na kursy z etyki,
muszą naprawdę myśleć o konsekwencjach

English: 
that an explainable
algorithm suffers efficiency.
I think this is a societal
decision we have to make,
you know, when we put the
seatbelt in our car, driving,
that's a little bit of an efficiency loss
'cause I have to do that seatbelt movement
instead of just hopping and drive.
But as a society, we decided we can afford
that loss of efficiency
because we care more
about human safety.
So I think AI is the
same kind of technology,
as we make these kind of
decisions going forward
in our solutions, in our products,
we have to balance human well being
and societal well being with efficiency.
- So let me, Yuval, let me ask you
the global consequences, this is something
that a number of people have asked about
in different ways and we've touched on,
but we haven't hit head on.
There are two countries,
imagine you have country A
and you have country B.
Country A says all of you AI engineers,
you have to make it explainable,
you have to take ethics classes,
you have to really think
about the consequences

Chinese: 
可解释的算法不利于效率。
我认为这是我们要做的社会性决定。
比如，要先系安全带再开车，
这有些效率损失。
因为我得系上安全带，
而不是直接轰油门。
但作为一个社会，我们决定承受
效率损失，因为我们
更在乎人身安全。
所以我认为人工智能是一样的技术，
当我们做下一步决定的时候，
在我们的解决方案中，在我们的产品中，
我们必须有效平衡人类的福祉
以及社会福利。
—尤瓦尔，我来问问你
（人工智能的）全球影响，这是
很多人以不同方式问到的
我们已经触及到了这个问题，
但还没正面回答过。
想象一下，有两个国家，
A国和B国。
A国说你们所有人工智能工程师，
都必须做到“可解释性”，
你们必须上道德课，
你们必须考虑清楚

Chinese: 
自己行为带来的后果；你要与生物学家共进晚餐，
你们必须考虑爱情，你们必须喜欢读书，
你知道的，约翰·洛克。
这是A组。
B组国家说，去造点东西吧。
这两组国家在某些时候
会有冲突的。
我猜B国的技术
会比A国领先。
这值得担心吗？
—是的，那是军备竞赛带来的担心，
这是一场最终以效率
和支配力为名头的比赛。
我们现在和人工智能处于一个极其有问题的
或者危险的处境。
越来越多的国家意识到
这可能会成为
21世纪主导的技术。
所以你谈的可不是纺织行业
或者石油行业之间的
经济竞争。
好比一个国家决定全然不顾环境，

Polish: 
swoich wynalazków, muszą chodzić na obiady z biologami,
muszą myśleć o miłości i musza czytać,
na przykład, Johna Locke'a.
To kraj A.
Kraj B również zaczyna coś tworzyć.
W pewnym momencie te kraje
wejdą w konflikt.
Zakładam, że technologia kraju B
może wyprzedzać technologię kraju A.
Czy powinniśmy się tym przejmować?
- Tak, zawsze jest ten problem z wyścigami zbrojeń.
Zaczynają być wyścigiem efektywności i dominacji
bez żadnych skrupułów.
I obecnie jesteśmy... Bardzo problematyczną
i niebezpieczną sytuacją z AI obecnie
jest to, że coraz więcej krajów
dostrzega, że od tej technologii
może zależeć dominacja w XXI wieku.
I nie chodzi tu o jakąkolwiek dominację ekonomiczną
między różnymi przedsiębiorstwami włókienniczymi
czy nawet holdingami paliwowymi.
Tak jak gdy jeden kraj decyduje się

English: 
of what you're doing, you gonna
have dinner with biologists,
you have to think about love
and you have to like read,
you know, John Locke.
That's group A.
Group B country says, just
go build some stuff, right.
These two countries at some point
are gonna come in conflict.
And I'm gonna guess that
country B's technology
might be ahead of country A's.
Is that a concern?
- Yeah, that's always the
concern with arms races,
which become a race to
the bottom in the name
of efficiency and domination.
And we are in a, I mean,
what is extremely problematic
or dangerous about the
situation now with AI
is that more and more
countries are waking up
to the realization that this could be
the technology of domination
in the 21st century.
So you're not talking about
just any economic competition
between the different textile industries
or even between different oil industries.
Like one country decides to, we don't care

Chinese: 
开足马力前进；
而另一个国家则更注重环保。
我们在人工智能上可能更糟，
因为它可能是真正的统治技术
在21世纪，那些落在后面的人，
会被那些勇往直前的人
统治、剥削、征服。
所以没有人甘于人后。
我认为唯一可以防止
灾难性军备竞赛的方法
是围绕人工智能的更广泛的全球合作。
现在，这听起来很乌托邦，因为我们现在正往
完全相反的方向走
越来越多的竞争不断发生。
但我认为这是我们工作的一部分
就像核武竞赛一样，

Polish: 
ignorować kwestie środowiskowe i w pełni eksploatować gaz,
a drugi kraj zachowuje się bardziej odpowiedzialnie.
Sprawa AI może być znacznie gorsza,
ponieważ może decydować o dominacji technologicznej
w XXI wieku, a kraje które nie nadążą
zostaną zdominowane, eksploatowane i podbite
przez liderów technologicznych.
Nikt nie chce zostać z tyłu.
Myślę że jedyną możliwością
na uniknięcie tego wyścigu
jest globalna współpraca wokół AI.
Może zabrzmi to utopijnie, ponieważ obecnie
zmierzamy w dokładnie w drugą stronę,
widzimy coraz więcej rywalizacji.
Jednak naszym zadaniem,
podobnie jak to było podczas zimnej wojny,

English: 
about the environment at all,
we'll just full gas ahead,
and the other country's is much
more environmentally aware.
The situation with AI is
potentially much worse,
because it could be really
the technology of domination
in the 21st century, and those left behind
could be dominated, exploited, conquered
by those who forge ahead.
So nobody wants to stay behind.
And I think the only
way to prevent this kind
of catastrophic arms race to the bottom
is greater global cooperation around AI.
Now, this sounds utopian
because we are now moving
in exactly the opposite direction
of more and more rivalry and competition.
But this is part of, I think, of our job,
like with the nuclear
arms race, to make people

Chinese: 
让不同国家的人认识到
这是一场，无论谁赢，人类都会输的军备竞赛。
人工智能同理，如果人工智能成为军备竞赛，
那么这对全人类是极其糟糕的。
美国人很容易说
说我们是这场军备竞赛中的好人，你们应该为我们欢呼。
你们应该为我们欢呼。
但这正变得越来越难。
如果当下是美国至上的情况，
我是说，如果最终人工智能只服务于
美国的利益、经济和政治支配，
我们如何信任美国
成为人工智能技术的领军人物？
所以，我认为，当大多数人
想到人工智能军备竞赛，
他们认为是美国对抗中国。

Polish: 
jest sprawić, żeby ludzie w różnych krajach
zorientowali się, że w wyścigu zbrojeń nie ma wygranych.
Tak samo jest z AI. Jeśli rozpoczniemy wyścig zbrojeń AI,
skończy się to tragicznie dla ludzkości.
Łatwo jest powiedzieć Amerykanom,
że są tymi dobrymi
i że wszyscy powinni im kibicować.
Jednak zaczyna być coraz trudniej,
gdy coraz więcej ludzi krzyczy "America First".
A czy możemy zaufać USA,
w kwestii AI, gdy ostatecznie
mają zamiar użyć jej wyłącznie dla własnych interesów,
amerykańskiej dominacji ekonomicznej i politycznej?
Większość ludzi
mówiąc o wyścigu AI
ma na myśli USA kontra Chiny.

English: 
in different countries realize that
this is an arms race that,
whoever wins, humanity loses.
And it's the same with AI,
if AI becomes an arms race,
then this is extremely bad
news for all the humans.
And it's easy for say people in the US
to say we are the good guys in this race,
you should be cheering for us.
But this is becoming
more and more difficult
in a situation when the motto
of the day is America first.
I mean, how can we trust
the USA to be the leader
in AI technology if ultimately,
it will serve only American interests
and American economic
and political domination?
So it's really, I think most people,
when they think arms race in AI,
they think USA versus China.

Polish: 
Jednak na świecie istnieje prawie 200 krajów,
z których większość zostanie daleko w tyle.
Mieszkańcy tych krajów widzą co się dzieje
i są przerażeni. Nie bez powodu.
- Ten przykład z historii, który wymieniłeś,
dosyć mnie niepokoi. Jeśli dobrze cię rozumiem,
potrzebujemy globalnej współpracy, bo inaczej
wejdziemy w wyścig zbrojeń
podobny do nuklearnego wyścigu zbrojeń.
Wydaje mi się, że wówczas próbowaliśmy dojść do porozumienia
już od 1945 czy 1950, jednak się poddaliśmy.
Dlaczego Zimna Wojna skończyła
się dopiero wtedy, gdy
USA rozpoczęły nieograniczone zmagania?
Jeden pomysł brzmi,
że to rozwój USA
i nieograniczony rozwój broni nuklearnej
utrzymały pokój do momentu upadku ZSRR.
Jeśli istnieje tutaj analogia, co zdarzy się
jeśli spróbujemy współpracy w 2019, 2020, 2021,
a później rozpoczniemy wyścig?
Po pierwsze, czy to prawdopodobne
i, po drugie, czy w takim razie USA
musi przygotować się na pełne starcie AI
w imię liberalnej demokracji,

English: 
But there are almost 200
other countries in the world.
And most of them are far far behind.
And when they look at what is happening,
they are increasingly terrified,
and for a very good reason.
- The historical example you've made
is a little unsettling, is if
I heard your answer correctly,
it's that we need global
cooperation, and if we don't,
we're gonna lead to an arms race.
In the actual nuclear arms race,
we tried for global
cooperation from, I don't know,
roughly 1945 to 1950, and then we gave up.
And then we said we're going full throttle
in the United States, and then why did
the Cold War end the way it did?
Who knows, but one argument would be
that the United States, you know, build up
and its relentless buildup
of nuclear weapons helped
to keep the peace until
the Soviet Union collapsed.
So if that is the parallel,
then what might happen here
is we'll try for global
cooperation in 2019, 2020, 2021,
and then we'll be off in an arms race.
A, is that likely, and B, if it is,
would you say, well then the US needs
to really move full throttle in AI
because it'd be better for
the liberal democracies

Chinese: 
但是世界上有将近200个国家。
他们中的大多数远远落后。
当他们目睹正在发生的一切，
他们有理由感到越来越害怕。
—你举的历史例子有点让人不安。
如果我没理解错的话，
我们需要全球性的合作，如果我们不合作，
我们就会引发军备竞赛。
在实际的核军备竞赛中，
我们大约在1945到1950年间，
曾尝试过全球合作，然后我们放弃了。
然后我们说
美国要全速前进。
那为什么冷战就那样结束了？
谁知道呢，但有一个论点是：
美国造出
它那无情的核武器，在苏联解体前
维护了和平。
同理，如果我们在2019、2020和2021
尝试全球合作，
我们就不会有军备竞赛。
A，这是否可能？B,如果可能的话，
你是否认为：
因为自由民主国家
比独裁社会更适合拥有人工智能

Chinese: 
所以美国需要大力发展人工智能？
—嗯，恐怕很有可能。
合作将会破裂我们会发现自己
置身于极端版本的军备竞赛中。
在某种程度上，这比核军备竞赛更糟。
因为至少直到今天，各国
发展了核武器，但从未使用过。
但人工智能将一直被使用。
这不是你放在架子上，
准备用于末日大战的武器。而是要被一直
用来创造全面监控政权
或是极权系统的。
所以从这个角度来看
我认为危险远大于此。
你可以说核军备竞赛

Polish: 
żeby odebrać tę technologię państwom totalitarnym?
- Cóż, obawiam się, że bardzo prawdopodobne jest,
że współpraca się załamie i znajdziemy się
w ekstremalnej wersji wyścigu zbrojeń.
W pewien sposób będzie on gorszy od zimnej wojny,
ponieważ bomby atomowe, przynajmniej dotychczas,
były produkowane, ale nie używane.
A AI z całą pewnością zostanie użyte.
Nie będzie leżało na półce
i czekało na wojnę, ale będzie używane cały czas
do totalnej inwigilacji
i tworzenia ekstremalnych systemów totalitarnych.
Myślę, że z tej perspektywy
niebezpieczeństwo jest znacznie większe.
Można powiedzieć że wyścig jądrowy

English: 
to have artificial intelligence
than totalitarian states?
- Well, I'm afraid it is very likely
that cooperation will break
down and we will find ourselves
in an extreme version of an arms race.
And in a way, it's worse
than the nuclear arms race,
because with nukes, at least until today,
countries developed them
but never used them.
AI will be used all the time.
It's not something you have on the shelf
for some doomsday war, it
will be used all the time
to create potentially
total surveillance regimes
and extreme totalitarian
systems in one way or the other.
And so from this perspective,
I think the danger
is far greater.
You could say that the nuclear arms race

Polish: 
uratował demokrację i wolny rynek,
rock and roll, Woodstock i hipisów.
Wszyscy oni zawdzięczają wiele bombie atomowej.
Oczywiście, gdyby nie wynaleziono broni jądrowej,
mielibyśmy do czynienia z tradycyjnym wyścigiem zbrojeń
i tradycyjną rywalizacją militarną
między blokiem wschodnim i zachodnim.
To by oznaczało pełną mobilizację społeczeństwa.
Jeśli Rosjanie zmobilizowaliby całe swoje społeczeństwo,
Amerykanie musieliby zrobić to samo.
W rzeczywistości, była
ogromna mobilizacja społeczna
w bloku wschodnim, jednak dzięki broni jądrowej
mogliśmy tego uniknąć w USA,
RFN czy Francji,
ponieważ oparliście się na bombach, nie potrzebowaliście
milionów rekrutów w armii.

Chinese: 
实际上拯救了民主、自由市场。
摇滚、伍德斯托克然后是嬉皮士，
他们都欠了核武器一笔钱。
因为如果核武器没被发明，
那么就不会有常规军备竞赛；
也不会有苏联阵营和美国阵营之间的
常规军事集结。
那就意味着整个社会的大动员，
如果苏联动员整个社会，
美国人唯一能抗衡的就是做同样的事。
现在，事实上发生的是
在共产主义阵营里的确有
极端极权动员起来的社会但是多亏了核武器，
你不用在美国、
在西德或法国做类似的事，
因为你坐拥核武器，
不需要百万人应征入伍。

English: 
actually saved democracy and
the free market and, you know,
rock and roll and Woodstock
and then the hippies,
and they all owe a huge
debt to nuclear weapons.
Because if nuclear weapons
weren't invented, you needed,
there would've been a
conventional arms race
and conventional military buildup
between the Soviet bloc
and the American bloc.
And that would've meant total
mobilization of society,
if the Soviets are having
total mobilization,
the only way the Americans
can compete is to do the same.
Now, what actually
happened was that you had
an extreme totalitarian mobilized society
in the communist bloc, but
thanks to nuclear weapons,
you didn't have to do
it in the United States
or in Western Germany or in France,
because you relied on nukes,
you don't need millions
of conscripts in the army.

Chinese: 
有了人工智能，情况刚好相反。
技术将不止被开发，
还将被一直使用。
这是一个非常可怕的场景。
—等等，我能插一嘴吗？
我不像你那样了解历史，
但你说人工智能不同于核技术。
我想指出它很不同。
当你谈论骇人情况的同时，
这项技术具有
广泛的国际科学协作基础。
它使交通更便利、
改善医疗保健、提高教育水平。
所以这是一个我们前所未见
非常有趣的新时代，因为
在我们进行竞争的同时，

Polish: 
Z AI będzie dokładnie odwrotnie.
Technologia będzie rozwijana
i używana w tym samym czasie.
To przerażający scenariusz.
- Chwilka, czy mogę coś dodać?
Nie znam historii tak dobrze jak ty,
ale powiedziałeś, że AI różni się od technologii jądrowej.
Chciałbym zwrócić uwagę, że w zasadzi jest drastycznie inna,
ponieważ mówisz o tych
przerażających scenariuszach, podczas gdy AI
w rzeczywistości objęte jest szeroką współpracą międzynarodową,
która stara się używać AI do dobrych celów,
takich jak transport, medycyna czy edukacja.
Więc sytuacja jest różna
niż podczas zimnej wojny, ponieważ
rywalizacja idzie w parze

English: 
And with AI, it's going
to be just the opposite.
That the technology will
not only be developed,
it will be used all the time.
And that's a very scary scenario.
- Wait, can I just add one thing?
I don't know history like you do,
but you said AI is different
from nuclear technology.
I do wanna point out, it
is very different because,
at the same as you're talking about
these more scarier
situations, this technology
has a wide international
scientific collaboration basis
that is being used to make
transportation better,
used to improve healthcare,
to improve education.
And so it's a very interesting new time
that we haven't seen before, because while
we have this kind of competition,

English: 
we also have massive international
scientific community collaboration
on these benevolent users
and democratization of this technology.
I just think it's important
to see both side of this.
- You're absolutely right, yeah.
There are some, as I said,
there are also enormous benefits
to this technology.
- [Fei-Fei] And in a
global collaborative way,
especially between, among the scientists.
- The global aspect is more complicated
because the question is, what happens
if there is a huge gap in abilities
between some countries
and most of the world?
Would we have a rerun
of the 19th century industrial revolution,
when the few industrial powers conquer
and dominate and exploit the entire world,
both economically and politically?
What's to prevent that from repeating?
So even in terms of, you know,
without this scary war scenario,
we might still find ourself

Chinese: 
我们还有大量的国际科学社群
为了这些友善的用户和技术民主化
正在进行合作。
我只是觉得要同时认清两个方面。
—你说得非常对，是的。
有一些，如我所说，这项技术
还有巨大的好处。
—全球合作，
尤其是在科学家之间。
—-全球方面更加复杂
因为问题是，如果一些国家
和大多数国家的能力差距太大，
会发生什么？
难道我们要再度上演
19世纪的工业革命吗？
少数工业大国
在经济和政治上
征服、统治和开发整个世界，
怎样才能避免历史重演？
所以即使是可怕的
战争不存在的情况下，我们可能还会发现

Polish: 
z ogromną międzynarodową
współpracą nastawioną na dobry użytek
i demokrację tej technologii.
Myślę, że musimy wziąć pod uwagę obie strony.
- Masz absolutną rację.
Jest mnóstwo potencjalnych korzyści
tej technologii.
- I jest sterowana przez
współpracujących naukowców.
- Aspekt globalny jest bardziej skomplikowany,
ponieważ pytanie brzmi: co wydarzy się
w przypadku przepaści technologicznej
między kilkoma krajami a większością świata?
Mielibyśmy powtórkę z
rewolucji przemysłowej XIX w.
gdy kilka mocarstw przemysłowych podbiło,
zdominowało i wyeksploatowało ekonomicznie
i politycznie cały świat, prawda?
Jak moglibyśmy to powstrzymać?
Nawet myśląc o
tym strasznym scenariuszu wojennym, możemy znaleźć

Polish: 
się w globalnym reżimie eksploatacji, w którym
większość korzyści spływa do kilku krajów
kosztem wszystkich innych.
- Słyszałeś o archive.org?
- Archive.org?
- Studenci mogą się z tego śmiać,
ale działamy w zupełnie innym klimacie badań naukowych,
mianowicie, globalizacji technologii.
Badania naukowe odbywają się w sposób
zupełnie różny niż w XIX czy XX wieku.
Jakikolwiek referat, jakiekolwiek badanie
dotyczące AI lub jakakolwiek nowa technika rozwijana,
na przykład, w tym tygodniu na Stanfordzie,
jest ogólnodostępna
dzięki stronom takim jak Archive, GitHub repository, czy...
- Te informacje tak.
- Globalizacja technologii naukowej

Chinese: 
在剥削全球政权中，
大众被牺牲，
大多数利益落入少数几个国家囊中。
—你听说过archive.org(一个免费资源在线下载平台)吗？
— archive.org？
— 观众中的同学们笑了。
但我们处在截然不同的科研风气下，
此种技术全球化
和技术的发展是19世纪、
甚至20世纪都从未发生过的。
任何基本的关于人工智能
或者新技术的科学研究文献，
假使这礼拜在斯坦福大学发表，
它很快就能通过Archive或者
GitHub资源库之类的传遍世界。
— 信息就这么外泄了，是的。
—  科技全球化的传播方式

English: 
with a global exploitation
regime in which the benefits,
most of the benefits go to
a small number of countries
at the expense of everybody else.
- Have you heard of archive.org?
- Archive.org?
- So students in the
audience might laugh at this,
but we are in a very different
scientific research climate,
is that the kind of
globalization of technology
and technique happens in the
way that the 19th century
and even 20th century never saw before.
Any paper that is a basic
science research paper
in AI today that is, or
technique that is produced,
let's say this week at Stanford,
it's easily get globally
distributed through
this thing called Archive or
GitHub repository or this--
- The information is out there, yeah.
- The globalization of this
scientific technology travels

English: 
in a very different way from
the 19th and 20th century.
I mean, I don't doubt there are, you know,
confined development of this
technology maybe by regimes.
But we do have to
recognize that this global,
the difference is pretty sharp now,
and we might need to take
that into consideration,
that the scenario you
are describing is harder.
I'm not saying impossible,
but harder to happen.
- I'll just say that it's not
just the scientific papers.
Yes, the scientific papers are there.
But if I live in Yemen or in Nicaragua
or in the Indonesia or in
Gaza, yes, I can connect
to the Internet and download the paper,
what will I do with that?
I don't have the data, I
don't have the infrastructure.
I mean, you look at where
the big corporations
are coming from that hold
all the data of the world,
they are basically coming
from just two places.

Polish: 
odbywa się w inny sposób niż w XIX i XX wieku.
Nie wątpię, że są jakieś
sekretne badania prowadzone nad tą technologią przez reżimy.
Jednak musimy wziąć pod uwagę,
że jest znaczący postęp.
Myślę, że powinniśmy zwrócić uwagę na to,
że scenariusz o którym mówisz jest mniej,
wciąż jest możliwy, ale jest mniej prawdopodobny.
- Chciałbym tylko powiedzieć, że problem nie leży tylko w referatach naukowych.
Tak, badania mają znaczenie,
ale jeśli żyłbym w Jemenie lub Nikaragui
lub Indonezji lub Gazie, to nawet jeśli
ściągnąłbym taki referat z internetu,
co mógłbym z nim zrobić?
Nie mam odpowiednich danych ani infrastruktury.
Zwróć uwagę, że wielkie korporacje
zbierające wszystkie dane na świecie,
koncentrują się w dwóch miejscach.

Chinese: 
已全然不同于19和20世纪。
我的意思是，我不怀疑
技术的局限发展可能由政权驱动。
但我们必须认识到
现在全球差异凸显，
我们可能需要考虑到这一点，
你所描述的情况越来越不容易。
我不是说它不可能，但只是越来越难发生。
—我要说的并不只是科学文献。
是的，科学论文在那里。
但如果我住在也门、尼加拉瓜、
印度尼西亚或者加沙，是的，我可以
上网下载论文，
然后我拿它怎么办？
我没有数据，我没有基础设施。
我是说，你看那些手握世界
全部数据的大公司来自哪里？
他们基本上来自两个地方。

Chinese: 
我的意思是，甚至连欧洲都不算在这场竞争中。
没有欧洲谷歌、欧洲亚马逊、
欧洲百度或者欧洲腾讯。
如果你放眼欧洲以外，
你想想中美洲、
你想的非洲大部分地区、中东、
东南亚大部分地区，是的，
的确有基础科学知识。
但这只是众多要素中的一个——
想要造出匹敌
亚马逊或腾讯的产品；
或者具备抗衡美国
或中国政府的能力。
我同意，对于信息传播
和基本科学知识
让我们处于完全不同于19世纪的情况。
— 我来问问你——因为有三四个人
都问了这个问题。
看似有可能存在一种
人工智能的集中力量，将使任何拥有数据和
最佳计算能力的人更强大，
然后它可以在国家内部和在世界范围内，

English: 
I mean, even Europe is not
really in the competition.
There is no European
Google or a European Amazon
or European Baidu or European Tencent.
And if you look beyond Europe,
you think about Central America,
you think about most of
Africa, the Middle East,
much of Southeast Asia, it's, yes,
the basic scientific
knowledge is out there,
but this is just one of
the components that go
to creating something that can compete
with Amazon or with Tencent
or with the abilities
of governments like the US government
or like the Chinese government.
So I agree that the
dissemination of information
and basic scientific knowledge, we're at
a completely different place
than in the 19th century.
- Let me ask you about that,
'cause it's something three
or four people have asked
in the questions, which is,
it seems like there could
be a centralizing force
of artificial intelligence,
that it will make whoever
has the data and the best
compute more powerful,
and that it could then
accentuate income inequality,

Polish: 
Europa tak naprawdę nie jest konkurentem.
Nie ma europejskiego Google'a ani europejskiego Amazona
ani europejskiego Baidu ani europejskiego Tencenta.
Jeśli spojrzeć poza Europę,
to w Ameryce Centralnej,
większości Afryki, Bliskim Wschodzie,
większości Azji Południowo-wschodniej, to tak,
jest tam podstawowa wiedza naukowa,
ale to tylko jeden z komponentów
tworzenia czegoś, co mogłoby konkurować
z Amazonem czy Tencentem lub z możliwościami
rządów amerykańskiego
i chińskiego.
Zgadzam się, że rozprzestrzenianie informacji
i podstawowej wiedzy naukowej...
Jesteśmy w zupełnie innym miejscu niż w XIX wieku.
- Pozwól mi zapytać, bo już 3
czy 4 ludzi pytało o to.
Wygląda na to, że mogłaby istnieć centralna siła
sztucznej inteligencji, która uczyniłaby potężniejszym
właścicieli danych i mocy obliczeniowej.
Przełożyłoby się to na większe nierówności dochodowe,

Polish: 
zarówno w krajach i na świecie.
Możemy sobie wyobrazić, że kraje o których wspomniałeś,
USA, Chiny, Europa, zostawią w tyle,
po części Kanadę, zdecydowanie Amerykę Środkową.
Przełoży się to na nierówności.
Po pierwsze, czy sądzisz, że to prawdopodobne
i po drugie, czy martwi cię to.
Już cztery osoby zadały podobne pytanie.
- Tak jak powiedziałem, jest to bardzo prawdopodobne.
Już się to dzieje.
Jest to ekstremalnie niebezpieczne, ponieważ
konsekwencje ekonomiczne i polityczne mogą być katastrofalne.
Mówimy tu o potencjalnym załamaniu
całych gospodarek i krajów.
Gospodarki oparte na taniej sile roboczej
zwyczajnie nie mają odpowiedniej edukacji,
żeby konkurować ze światem AI.
Co spotka te kraje?
Jeśli produkcja z Hondurasu czy Bangladeszu
zostanie przeniesiona do USA i Niemiec,
ponieważ firmy nie będą musiały

Chinese: 
加重收入不平等。
你可以想象你刚提到的这些国家，
美国，中国，欧洲落在后面，
加拿大在更后面但是远远领先中美洲。
它会加重全球收入不平等。
A，你认为这有没有可能？
B，你对此担心多少？
有四个人问了类似问题。
— 嗯，就像我说的，非常非常有可能，
这已经在发生。
而且这非常危险，因为经济
以及政治后果可能是灾难性的。
我们在谈论整个经济和国家
潜在的崩溃。
依赖于廉价体力劳动的国家，
没有参与人工智能
世界竞争的教育资本。
这些国家将怎么办呢？
我是说，如果你将生产从
洪都拉斯或孟加拉国转移回美国和德国，
因为人类工资不再是等式的

English: 
both within countries and
within the world, right,
you can imagine the countries
you've just mentioned,
the United States, China,
Europe lagging behind,
Canada somewhere behind, way
ahead of Central America.
It could accentuate
global income inequality.
A, do you think that's likely, and B,
how much does it worry you?
We've got four people who've
asked a variation on that.
- Well, as I said, it's very very likely,
it's already happening.
And it's extremely dangerous,
because the economic
and political consequences
could be catastrophic.
We are talking about
the potential collapse
of entire economies and countries.
Countries that depend say
on cheap manual labor,
and they just don't have
the educational capital
to compete in the world of AI.
So what are these countries going to do?
I mean, if, say, you shift
back most production from,
say, Honduras or Bangladesh
to the US and to Germany,
because the human salaries
are no longer part

English: 
of the equation, and it's cheaper
to produce the shirt in
California than in Honduras,
so what will the people there do?
And you can say okay, but
there will be many more jobs
for software engineers.
But we are not teaching
the kids in Honduras
to be software engineers.
So maybe a few of them could
somehow immigrate to the US.
But most of them won't,
and what will they do?
And we, at present, we don't
have the economic answers
and the political answers
to these questions.
- Fei-Fei, you wanna jump in?
- I think that's fair enough.
I think Yuval definitely has laid out
some of the critical pitfalls enough,
and that's why we need
more people to be studying
and thinking about this?
One of the things we
over and over noticed,
even in this process of
building the community
of human-centered AI and
also talking to people,

Chinese: 
一部分，并且在加州生产衬衫
的成本低于洪都拉斯的，
那里的人该怎么办？
你可以说没问题，软件工程师
会有更多的工作。
但我们在洪都拉斯
没教育孩子当软件工程师。
也许他们中的少数人可以移民到美国。
但他们中的大多数不会，那么他们该怎么办？
而我们目前对于这些问题，
没有经济、政治上的答案。
—飞飞，你想谈谈吗？
—我觉得说得够好了。
尤瓦尔已经把一些关键问题
说的非常明白了。
这就是为何我们需要
更多人研究、思考这一问题。
在建造人本人工智能社区
的过程中；和单位内部、外部
人员交流的过程中，

Polish: 
dawać pracownikom mniejsze wynagrodzenia.
Taniej będzie produkować koszulki w Kalifornii niż Hondurasie.
Co wtedy zrobią ludzie?
Możesz powiedzieć, że ok, będzie więcej pracy
dla informatyków.
Jednak dzieci w Hondurasie
nie uczą się informatyki.
Być może część wyemigruje do USA.
Ale większość nie będzie w stanie. Co zrobić z nimi?
Obecnie nie mamy odpowiedzi ekonomicznej
ani politycznej na to pytanie.
- Fei-Fei chciałabyś coś powiedzieć?
- Myślę, że to prawda.
Myślę, że Yuval przedstawił
kilka największych zagrożeń.
Dlatego potrzebujemy więcej ludzi, którzy
będą się tego uczyć i o tym myśleć.
Jedną z rzeczy, którą ciągle widzimy,
widzieliśmy to nawet podczas tworzenia
Centrum AI Skoncentrowanego na Ludziach,

Chinese: 
我们反复注意到一件事。
世界各地的企业
和世界各国政府有机会
去思考它们的数据和人工智能策略，
对于“大玩家”之外的
公司和国家来说，
这里仍有很多机会，
让他们真正意识到，这对于
他们的国家、地区和业务来说，
是向数码时代转型的重要时刻。
我认为当你谈论潜在危险的时候，
世界上某些缺乏数据的国家，
尚未赶上这一数字化转型，
现在是时候了。我们希望
在那些国家提高这种意识并鼓励
那种信息的发展。

Polish: 
zarówno wewnętrznie jak i zewnętrznie,
na całym świecie są możliwości biznesowe.
Rządy na całym świecie
mają możliwość myślenia o strategii wobec danych i AI
i jest też wiele możliwości
że inni gracze
zrozumieją, że
jest to ważny moment dla ich kraju,
regionu czy biznesu.
Ta transformacja w erę cyfrową.
Myślę, że jeśli będziemy mówić o tych zagrożeniach
brakiem danych w niektórych częściach świata,
które nie nadążają za tą cyfrową transformacją,
jeśli zrobimy to teraz, możliwe
że uświadomimy o tym publikę
i doprowadzimy do jakiejś zmiany.

English: 
both internally and externally, is that
there are opportunities for
business around the world
and governments around the world
to think about their data and AI strategy,
there are still many
opportunities for, you know,
outside of the big players
in terms of companies
and countries to really
come to the realization
it's an important moment
for their country,
for their region, for their business
to transform into this digital age.
And I think when you talk
about these potential dangers,
the lack of data in
parts of the world that
hasn't really caught up with
this digital transformation,
the moment is now, and
we hope to, you know,
raise that kind of
awareness and to encourage
that kind of information.

Chinese: 
—对，我觉得这很紧急，我是说，
我们在此刻看到的
一方面是所谓的数据殖民。
这和我们在19世纪看到的模型一样。
拥有先进技术的帝国中心；
他们在印度或埃及种植棉花；
他们把原材料输送到英国；
他们生产衬衫——
19世纪曼彻斯特的高科技产业——
他们把衬衫卖回印度，
与当地生产商竞争。
在某种程度上，我们可能会开始看到同样的事情。
随着数据经济的发展，他们在巴西和
印度尼西亚等地收集数据，
但他们不在那里处理数据，
而是将其送往加利福尼亚
或者中国东部，在那些地方处理，
他们在那些地方生产出奇妙的新奇技术，
然后将它们以成品的方式

English: 
- Yeah, I think it's very urgent, I mean,
what we are seeing at the
moment is, on the one hand,
what you could call some
kind of data colonization.
That the same model that
we saw in the 19th century
that you have the imperial
hub where they have
the advanced technology, they grow
the cotton in India or Egypt,
they send the raw materials
to Britain, they produce the shirts,
the high tech industry of the
19th century, in Manchester,
and they send the shirts
back to sell them in India
and out compete the local producers.
And we, in a way, might beginning
to see the same thing now
with the data economy,
that they harvest the data
in places also like Brazil and Indonesia,
but they don't process the data there,
the data from Brazil and
Indonesia goes to California
or goes to eastern China,
being processed there,
they there produce the
wonderful new gadgets
and technologies and sell
them back as finished products

Polish: 
- Tak, myślę że to bardzo pilne.
Z jednej strony widzimy teraz coś,
co nazwać można kolonizacją danych.
Analogicznie do tego, co widzieliśmy w XIX wieku,
kiedy centra imperialne
posiadające zaawansowaną technologię,
produkują bawełnę w Indiach lub Egipcie, przesyłają surowce
do Brytanii i tam produkują koszule
w XIX-wieczych centrach technologii w Manchesterze.
Wówczas odsyłają koszule do Indii
i konkurują z lokalnymi rzemieślnikami.
W pewien sposób widzimy już teraz analogiczną sytuację
z ekonomią danych. Centra zbierają dane
z krajów takich jak Brazylia czy Indonezja,
ale przesyłają te dane
do Kalifornii albo
do wschodnich Chin, tam je procesują,
tworzą cudowne nowe gadżety
i technologie, a skończone produkty sprzedają z powrotem

English: 
to the provinces or to the colonies.
Now, it's not a one to
one, it's not the same,
there are differences.
But I think we need to
keep this analogy in mind.
And another thing that maybe
we need to keep in mind
in this respect I think is
the reemergence of stone walls
that I'm kind of, you
know, originally, I was,
my speciality was
medieval military history.
This is how I began my academic career,
with the crusades and castles
and knights and so forth.
And now I'm doing all
these cyborgs and AI stuff.
But suddenly, there is something
that I know from back then,
the walls are coming back.
And I try to kind of,
what's happening here?
I mean, we have future
realities, we have 3G, AI,
and suddenly, the hottest political issue

Polish: 
do Brazylii i Indonezji.
Nie jest to oczywiście dokładnie taka sama sytuacja,
istnieją różnice.
Ale myślę, że powinniśmy myśleć o tej analogii.
Inną rzeczą, o której musimy myśleć
jest powrót murów,
które... Wiecie, że początkowo
specjalizowałem się w militarnej historii średniowiecza.
Tak zaczynałem moją karierę akademicką,
krucjatami, zamkami, rycerzami i tak dalej.
Obecnie zajmuję się cyborgami i AI.
Jednak jedna rzecz powróciła:
mury.
Zastanawiam się, co się dzieje.
Mamy realia przyszłości, technologie 3G, AI
i nagle, najgorętszym tematem w polityce

Chinese: 
卖回海外行省和殖民地。
现在，情况不是完全一样，
存在区别。
但我认为，我们要记住这个类比。
我们还需要记住另一件事——
石墙的重现。
早年我的专长是
中世纪军事史。
我由此开始自己的学术生涯，
十字军东征、城堡、还有骑士等等。
而目前我的重点是电子人和人工智能。
但突然间，我从历史中看到
石墙又卷土重来了。
我试着思考…这怎么回事？
我是说，我们有未来、现实、3G、人工智能，
突然间，最热门的政治问题

Chinese: 
却是修建石墙。
这是你能想到的最没技术含量的。
在一个互联性的世界中
石墙有什么重要性？
让我害怕的是
那些险恶的东西——数据的组合
轻而易举地到处传播，
但是越来越多的国家，包括我的祖国以色列
也是一样的。你知道
“创业的国度”，还有“隔离墙”。
这种组合意味着什么？
—飞飞，你想回答这个问题吗？
（观众笑）
—也许我们可以看看下一个问题。
—让我们看看与之相关的
下一个问题。
下一个问题是，
在斯坦福大学，有人帮助建立这些公司；
或者推动抑或逆转

Polish: 
jest budowa muru.
Najmniej zaawansowana technologia.
Jakie jest znaczenie muru
w zglobalizowanym świecie?
Przeraża mnie to
w połączeniu z wolnym
przepływem danych,
a jednak coraz więcej krajów, w tym moja ojczyzna,
Izrael, robią to samo.
Kraj startupów buduje mur.
Co oznacza to połączenie?
- Fei-Fei, chciałabyś na to odpowiedzieć?
(śmiech)
- Może chciałbyś przeczytać kolejne pytanie.
- Wiecie co, przejdźmy do następnego pytania,
które jest z tym związane.
Następne pytanie brzmi: tu na Stanfordzie
są ludzie, którzy współtworzą te firmy,
którzy albo będą kontynuować ten proces

English: 
is building a stone wall.
Like the most low tech
thing you can imagine.
And what is the
significance of a stone wall
in a world of
interconnectivity and all that?
And it really frightens me that there
is something very sinister
there, the combination of data
is flowing around everywhere so easily,
but more and more countries,
and also my home country
of Israel, it's the same
thing, you have the, you know,
the startup nation, and then the wall.
And what does it mean, this combination?
- Fei-Fei, you wanna answer that?
(audience laughing)
- Maybe you can look at the next question.
- You know what, let's
go to the next question
which is tied to that.
And the next question is,
you have the people here
at Stanford who will help
building these companies,
who will either be furthering a process

Polish: 
kolonizacji danych, albo go odwrócą
i którzy będą budować
wirtualne mury w świecie
opartym na sztucznej inteligencji,
która tworzona jest
przez absolwentów Stanforda.
Ci ludzie są w tym pokoju.
Jak chcielibyście zmienić ich
perspektywę na sztuczną inteligencję
i czego chcielibyście, żeby się nauczyli.
Spędźmy może te ostatnie 10 minut na rozmowie
co powinniśmy robić.
- Jeśli jesteś studentem informatyki albo inżynierii,
idźcie na kurs Roba.
Jeśli jesteście humanistami, chodźcie na moje kursy.
A wszyscy, przeczytajcie książki Yuvala.
- Czy są one omawiane podczas twojego kursu?
- Niestety nie.
Ja uczę ciężkiego deeplearningu.
W jego książkach jest za mało równań.
- Takich jak B+C+D=H.
- A tak na serio, wiesz co chcę powiedzieć.

English: 
of data colonization or reversing it
or who will be building, you know,
the efforts to create a virtual wall
in a world based on
artificial intelligence
that are being created, funded at least,
by a Stanford graduate.
So you have all these
students here in the room.
What do you want them
to, how do you want them
to be thinking about
artificial intelligence
and what do you want them to learn,
let's spend the last 10
minutes of this conversation
talking about what everybody
here should be doing.
- So if you're a computer
science or engineering student,
take Rob's class.
If you're a humanist, take my class.
And all of you, read Yuval's books.
- Are his books on your syllabus?
- Not on my, sorry.
I teach hardcore deep learning.
His book doesn't have equations.
- I don't know, B plus C plus D equals H.
- But seriously, you
know, what I meant to say

Chinese: 
数据殖民的进程；
或者在基于人工智能
的世界中建造
虚拟的墙。
而这种人工智能正在由
斯坦福毕业生创造或资助。
所有这些学生们都在这里。
你想要他们
如何去思考人工智能？
你想让他们学到什么？
让我们用最后十分钟谈一谈这个话题，
谈一谈在座每个人该做什么。
如果你学计算机或者工程学，
去上罗布的课。
如果你是一个人文主义者，上我的课。
你们所有人，都要读尤瓦尔的书。
—他的书在你的教学大纲上吗？
—不在，对不起。
我教硬核的深度学习。
他的书里没有方程式。
—我不知道，B加C加D等于H。
—但说真的，我想说的

English: 
is that Stanford students,
you have a great opportunity,
this is, we have a proud history
of bringing this technology
to life, Stanford was at the
forefront of the birth of AI,
in fact, our very professor
John McCarthy coined
the term artificial intelligence
and came to Stanford in 1963
and started this nation's,
one of the two oldest
AI labs in this country.
And since then, Stanford's AI research
has been at the forefront
of every wave of AI changes.
And this 2019, we're also at the forefront
of starting the human-centered
AI revolution or
the writing of the new AI chapter.
And we did all this for the
past 60 years for you guys,
for the people who come through the door
and who will graduate
and become practitioners,

Polish: 
Studenci Stanforda, macie przed wami stoją niesamowite szanse.
Stanford ma wspaniałe tradycje
stania na czele rozwoju AI.
To właśnie nasz profesor, John McCarthy
stworzył określenie "sztuczna inteligencja"
i, w 1963 roku, stworzył tu
jedno z najstaszych laboratoriów AI w tym kraju.
Od tego czasu, badania Stanforda nad AI
stały na czele każdej z wielkich zmian w tej technologii.
W 2019 roku stoimy na czele
rewolucji AI skoncentrowanego na ludzi.
Piszemy nowy rozdział w historii AI.
Od 60 lat robimy to dla was,
ludzi, którzy przekraczają wrota uniwersytetu
i którzy w przyszłości będą

Chinese: 
是斯坦福的学生们，你们有很好的机会。
我们有引以为豪的历史——创造这项技术。
斯坦福在创造人工智能的最前沿，
事实上，我们的约翰·麦卡锡教授
创造了人工智能这个术语。
1963年他来到斯坦福大学，并创立了我国历史
最悠久的两个人工智能实验室之一。
从那时起，斯坦福大学的人工智能研究
在一波波的人工智能革新中始终处于领先地位。
在2019年，我们率先开启了
“人本”的人工智能革命或者说
率先开始撰写人工智能的新篇章。
我们60年的努力，都是为了你们——
走进斯坦福校园的你们，
毕业后将成为实践者、

Polish: 
liderami, ale też częścią społeczeństwa obywatelskiego.
To właśnie jest najważniejsze.
AI skoncentrowane na ludzi musi być stworzone
przez następne pokolenie naukowców,
którzy brali udział w kursach Roba i myśleli
o etycznych implikacjach i stanie ludzkości.
Będzie tworzone również przez
przyszłych liderów politycznych,
którzy podjęli na Stanfordzie studia humanistyczne,
którzy będąc w tej szkole muszą zrozumieć
szczegóły i implikacje
tej technologii i którzy będą potrzebowali
umiejętności porozumienia się z technologią.
Niezależnie od tego, czy zgadzamy się z tym czy nie,
to właśnie jest najważniejsze. Potrzebujemy
takich interdyscyplinarnych liderów, myślicieli
i praktyków. Właśnie dlatego
powstało Centrum AI Skoncentrowanego na Ludzi.

English: 
leaders, and part of the civil society.
And that's really what
the bottom line is about.
Human-centered AI needs to be written
by the next generation of technologists
who have taken classes like
Rob's class to think about
the ethical implications,
the human wellbeing.
And it's also gonna be written by
those potential future policymakers
who came out of Stanford's
humanities studies
and been in this school who are versed
in the details of the
technology, who understand
the implications of this
technology, and who has
the capability to communicate
with the technologies.
That is, no matter how
we agree and disagree,
that's the bottom line, is that we need
these kind of multilingual
leaders and thinkers
and practitioners, and that is
what Stanford's Human-Centered
AI Institute is about.

Chinese: 
领导，以及公民社会一员的人。
这才是真正的要义。
“人本”对人工智能需要
由上过罗布课程的、
考虑过道德影响和
人类福祉的下一代技术专家书写。
它也将由
那些精通技术细节、
了解技术影响、具备技术沟通能力
的斯坦福大学
人文学科毕业生、
潜在的未来
政策制订者所书写。
也就是说，无论我们是否同意，
这是我们的底线。
我们需要使用多种语言的领导者、思想家
和从业者。这就是
斯坦福大学“人本”人工智能研究所的含义。

Polish: 
Yuval, chciałbyś odpowiedzieć na to pytanie?
- Na poziomie jednostki, myślę, że ważne jest
żeby każdy, nie tylko na Stanfordzie,
nie tylko inżynier, poznał siebie lepiej.
Ponieważ wkraczamy w etap konkurencji.
Najstarszą radą filozodii
zawsze było "poznaj siebie".
Mówił nam to Sokrates, Konfucjusz,
Budda... Poznaj siebie.
Jednak nasza perspektywa jest inna niż ich.
Wkraczamy w fazę konkurencji.
Za czasów Sokratesa czy Buddy,
jeśli nie podjąłeś tego wysiłku, ok,
straciłeś szansę oświecenia.
Ale nie rywalizowałeś z królem.
Wówczas nie było technologii, teraz jest.
Obecnie rywalizujemy z wielkimi korporacjami
i rządami.
Jeśli oni poznają cię lepiej niż ty sam,
przegrywasz.
Potrzebujemy więcej czasu,

English: 
- Yuval, how do you wanna
answer that question?
- On the individual level,
I think it's important
for every individual, whether in Stanford,
whether an engineer or not, to
get to know yourself better.
Because you're now in a competition.
You know, it's the
oldest advice in the book
in philosophy is know yourself.
We're heard it from
Socrates, from Confucius,
from Buddha, get to know yourself.
But there is a difference,
which is that now,
you have competition.
In the day of Socrates or Buddha,
if you didn't make the effort, so okay,
so you missed on enlightenment.
But still, the king
wasn't competing with you.
They didn't have the technology,
now you have competition.
You're competing against
these giant corporations
and governments.
If they get to know you
better than you know yourself,
the game is over.
So you need to buy yourself some time,

Chinese: 
—尤瓦尔，你想怎么回答这一问题？
—从个人层面上，无论是否在斯坦福，
无论是否身为工程师，每个人都要更好地了解自己。
我认为这很重要。
因为你现在处于竞争中。
哲学书中最古老的建议
就是认清你自己。
我们从苏格拉底、孔子、
佛陀那里，都听到“认清你自己”。
但有一点不同，那就是现在，
你有竞争。
在苏格拉底或佛陀时代，
如果你没有努力，那么好吧，
你错过了启蒙运动。
但是，国王并没有和你竞争。
他们那时候没有技术，现在你有了竞争。
你与这些大企业
以及政府竞争。
如果他们比你更了解你自己，
那你输定了。
所以你需要给自己争取一些时间，

Chinese: 
第一种为你自己争取时间的方法是
更好地了解自己，
然后对手就有更多要操心的。
对于工程师和学生来说，
或者说只针对工程师，
我希望从实验室和工程学系
看到两样东西：
其一是：更适合在分散管理系统，
而非极权系统中运转的工具。
我不知道怎么做，但我希望
存在工程师可以合作的工具。
我听说区块链在此领域
具有很大前景，我不知道。
但不管是什么，当你开始设计
一个工具时，这个工具的属性
应该是，
更适合在分散管理系统而非极权系统中运转。

English: 
and the first way to
buy yourself some time
is to get to know yourself better,
and then they have more ground to cover.
For engineers and students, I would say,
I'll focus on engineers, maybe.
The two things that I would
like to see coming out
from the laboratories and
the engineering departments
is first, tools that
inherently work better
in a decentralized system
than in a centralized system.
I don't know how to do it, but if you,
I hope there is something
that engineers can work with.
I heard that blockchain
is like the big promise
in that area, I don't know.
But whatever it is, part
of, when you start designing
a tool, part of the
specification of what this tool
should be like, I would say
this tool should work better
in a decentralized system
than in a centralized system.

Polish: 
a najlepszym sposobem, żeby zyskać ten czas
jest poznać siebie lepiej.
Wówczas muszą oni postarać się bardziej.
Dla inżynierów i studentów...
Skoncentrujmy się na inżynierach...
Bardzo chciałbym ujrzeć dwie rzeczy
w laboratoriach i wydziałach inżynierii.
Po pierwsze, narzędzia, które będą działać lepiej
w systemie zdecentralizowanym niż scentralizowanym.
Nie wiem jak tego dokonać,
ale mam nadzieję, że coś wymyślicie.
Podobno blockchain może być taką technologią.
Nie wiem.
Ale cokolwiek by to było, gdy zaczynacie tworzyć narzędzie,
powinniście postarać się,
żeby to narzędzie działało lepiej
w systemie zdecentralizowanym niż scentralizowanym.

Chinese: 
这是对民主最好的防护。
我想要见到的第二件事——
—我不想打断你因为我想听你
来说说第二件事。但你是怎么让工具
更好地为民主——
—我不是工程师，我不知道。
（观众笑）
—好吧。
好吧，我们听听第二件事。
记住这问题，在座的某位将会找出答案。
因为这很重要--
—我可以考虑一下，然后
给你们举一些历史上工具的例子——
在不同情况下如何发挥更好的作用。
但我不知道如何把它引入到今天的情境中。
—我们说第二件事吧，因为我
还有几个观众的问题
—好吧，另外一件我想见到的事情是，
一个人工智能伙伴
为我、而非公司或政府服务。
我的意思是，我们不能停下
这类技术的进步。
但我希望它为我服务。
对，它可以侵入我，但它是以

English: 
That's the best defense of democracy.
The second thing that I would
like to see coming out--
- I don't wanna cut you
off 'cause I want you
to get to this second
thing, how do you make
a tool work better in a democracy than--
- I'm not an engineer, I don't know.
(audience laughing)
- [Nick] Okay.
All right, we'll go to part two.
Take that, someone in this
room, figure that out,
'cause it's very important--
- I can think about it and then,
I can give you historical
examples of tools
that work better in
this way or in that way.
But I don't know how to
translate it into present day--
- Go to part two, 'cause I got
a few more questions
asked from the audience.
- Okay, so the other thing though
I would like to see
coming is an AI sidekick
that serves me and not some
corporation or government,
so to take all, I mean, we can't stop
the progress of this kind of technology.
But I would like to see it serving me.
So yes, it can hack me, but it hacks me

Polish: 
To będzie najlepszy stróż demokracji.
Drugą rzeczą, którą chciałbym zobaczyć...
- Nie chcę przerywać, bo chętnie usłyszę
o drugiej rzeczy, ale jak stworzyć
narzędzie, które będzie działało lepiej w demokracji niż...
- Nie jestem inżynierem, nie wiem.
(śmiech)
- Ok.
W porządku, druga rzecz.
Niech ktoś z tego pokoju to wymyśli,
bo to bardzo ważne.
- Mogę o tym pomyśleć
i dać wam jakieś przykłady z historii
narzędzi, które działały lepiej w ten sposób.
Ale nie wiem jak to przełożyć na dzisiejsze realia...
- Druga rzecz, bo mam jeszcze
kilka pytań od publiczności.
- Ok, drugą rzeczą
o której marzę jest pomocnik AI,
który służyłby mi, a nie korporacjom albo rządom.
Nie możemy powstrzymać
rozwoju AI.
Ale chciałbym, żeby służyła ona mi.
Może mnie zhackować, ale nich hackuje mnie

Chinese: 
保护我为目的侵入我。
好比我的电脑有反病毒程序，但我的大脑没有。
它具有对抗流感之类的生物抗病毒素，
但不是针对黑客的。
所以要做的一个项目是创造出人工智能伙伴，
我可以为此花很多钱，它是专属于我的。
它跟着我，监视着我
的行为和互动。
但它所学的一切都是为了保护我
免受其他人工智能
或者外部力量的操控。
所以这是我认为
利用当今的技术，
我想看到更多这个方向的努力。
—我不想提太多专业术语，
我想你会觉得欣慰——
这方面的研究已经开始，

English: 
in order to protect me.
Like my computer has an
antivirus, but my brain hasn't.
It has a biological antivirus
against the flu or whatever,
but not against hackers
and trolls and so forth.
So one project to work on
is to create an AI sidekick,
which I paid for maybe a lot
of money and it belongs to me.
And it follows me and it monitors me
and what I do and my interactions.
But everything it learns, it
learns in order to protect me
from manipulation by other AIs,
by other outside influencers.
So this is something that I think,
with the present day technology,
I would like to see more
effort in the direction.
- Not to get into too technical terms,
I think you would feel
comforted to know that
the budding efforts in this
kind of research is happening,

Polish: 
żeby mnie chronić.
Mój mózg, w odróżnieniu od komputera, nie ma antywirusa.
Ma biologicznego antywirusa przeciwko grypie i innym,
ale nie przeciwko hackerom, trollom i tak dalej.
Zatem moim pomysłem co można stworzyć jest pomocnik AI,
za którego byłbym skłonny zapłacić dużo pieniędzy i który należałby do mnie.
Podążałby za mną i monitorował mnie,
moje czyny i interakcje.
Jednak uczy się tego wszystkiego, żeby chronić mnie
przed manipulacją ze strony innych AI
lub innych zewnętrznych wpływów.
Myślę, że bardzo bym się ucieszył
widząc więcej prac
w tym kierunku.
- Nie chcę wchodzić w przesadny techniczny żargon,
ale myślę że może cię pocieszyć
myśl, że już nad tym pracujemy.

Chinese: 
你知道，可信的人工智能，可解释的人工智能，
安全、有动机或意识的人工智能。
所以我不是说已经有了解决办法，
但是全世界很多技术专家
正按此思路，努力实现这一点。
—我不希望隶属于谷歌的人工智能
或者隶属于我可以信任的政府的人工智能，
我想要一个独属于我自己的人工智能为我服务。
—它很强大，比我的人工智能更强大，
要不然的话，我的人工智能会操纵你的人工智能。
（观众笑）
—它将具有固有优势——
他很了解我。
所以它可能无法侵入你，
但因为它一直跟着我，
具备权限了解我的所作所为，
对我的了解是它的优势。
所以这是一种对于人们
潜在危险的抵消——
—-但即使那样，在我们的社会中
也会有很多挑战，谁来负责，

English: 
you know, trustworthy AI, explainable AI,
security, you know, motivated or aware AI.
So I'm not saying we have the solution,
but a lot of technologists
around the world
are thinking along that line
and trying to make that happen.
- And it's not that I want
an AI that belongs to Google
or to the government that I can trust,
I want an AI that I'm its
master, it's serving me.
- And it's powerful, it's
more powerful than my AI,
'cause otherwise, my AI
could manipulate your AI.
(audience laughing)
- It will have the inherent advantage
of knowing me very well.
So it might not be able to hack you,
but because it follows me
around and it has access
to everything I do and so
forth, it gives it an edge
in the specific realm of just me.
So this is a kind of counterbalance
to the danger that the people with--
- But even that would
have a lot of challenges
in our society, who is accountable for,

Polish: 
Nad AI godnym zaufania, zdolnym do tłumaczeń,
bezpiecznym, zmotywowanym i świadomym AI.
Nie twierdzę, że już mamy rozwiązanie,
ale wielu technologów na całym świecie
myśli w ten sposób i pracuje nad tym.
- Nie chcę AI, które należy do Google'a
lub do rządów, któremu mogę zaufać.
Chcę AI, które służyłoby tylko mi.
- Jest potężne, potężniejsze od mojego AI,
ponieważ inaczej moje AI może zmanipulować twoje AI.
(śmiech)
- Będzie miało wrodzoną przewagę
znania mnie bardzo dobrze.
Może nie będzie w stanie zhackować ciebie,
ponieważ podążając za mną i mając dostęp
do wszystkiego co robię i tak dalej, da mu to przewagę
tylko w kwestii mnie.
Będzie to jakiś balans
wobec niebezpieczeństwa, że ludzie...
- Ale nawet to wiązałoby się z wieloma wyzwaniami
społecznymi, jak kto jest za nie odpowiedzialny,

Chinese: 
你要为你的行为或是你的伙伴负责吗？
—这是我们必须处理的一个
更为困难的问题。
—针对伙伴的防御措施
好的。
飞飞，我们快速看几个问题。
这个问题来自里根·波拉克，
我们经常谈论自上而下的，大公司的人工智能，
我们该如何设计个人的人工智能
让它帮我们促进生活和事业呢？
我这么理解这个问题，
太多人工智能都是大公司做的。
如果想要小公司或个人的人工智能
你能做到吗？
—首先，一个解决方案
正如尤瓦尔刚才提到的。
—可能那些东西将由Facebook造出来。
—所以首先，的确，大公司有很多投资
努力和资源
用于人工智能的研发。但是
并非所有人工智能都产生在公司。
我想说学术界

English: 
are you accountable for your
action or your sidekick?
- This is going to be a more
and more difficult question
that we will have to deal with.
- The sidekick defense.
All right.
Fei-Fei, let's go through
a couple questions quickly.
We often talk, this is
from Reagan Pollack,
we often talk about top
down AI from big companies,
how should we design personal AI
to help accelerate our lives and careers?
The way I interpret that question is,
so much of AI is being
done at the big companies.
If you wanna have AI at a
small company or personally,
can you do that?
- Well, first of all, one solution
is what Yuval just said.
- Probably those things
will be built by Facebook.
- So first of all, it's true,
there is a lot of investment
and efforts putting, and
resource putting big companies
in AI research and
development, but it's not
that all the AI is happening there,
I wanna say the academia
continue to play a huge role

Polish: 
Czy ty jesteś odpowiedzialny za czyny twoje lub twojego AI?
- To pytanie będzie coraz trudniejsze,
a będziemy musieli sobie z nim radzić.
- Podręczny antywirus.
Ok.
Fei-Fei, kilka krótkich pytań.
Pytanie od Reagana Pollacka.
Często mówimy o kompleksowym AI wielkich korporacji.
Jak powinniśmy zaprojektować osobiste AI,
żeby pomogło nam w życiu i karierze?
Rozumiem to pytanie tak,
że większość AI tworzone jest przez wielkie korporacje.
Czy możemy mieć AI dla małych korporacji
albo do użytku osobistego?
- Jednym rozwiązaniem
jest to co powiedział Yuval.
- Prawdopodobnie te rzeczy stworzy Facebook.
- Po pierwsze, to prawda, że duże firmy
wkładają dużo wysiłku, zasobów i inwestycji
w rozwój AI, ale nie znaczy to
że one tworzą całe AI.
Akademicy wciąż grają ważną rolę

Chinese: 
在人工智能的研发中，继续发挥着巨大作用，
尤其是对人工智能的长期探索上。
学术界是什么？
学术界是一个全球性的个人网络，
学生和教授独立思考
并创造性地提出不同想法。
所以从这个角度来看，这是一种持续的、
非常草根的用于人工智能研究的努力。
小企业和独立研究机构
也有一个角色要扮演。
有很多公开的可用数据库，
这是一个全球性的非常开放的社区。
大家在社区里分享和传播知识和技术。
所以是的，拜托，无论如何，
我们希望全球参与进来。
—好吧，这是我最喜欢的问题，
这是个匿名问题。
如果我现在八年级，我还需要学习吗？

English: 
in AI's research and development,
especially in the long
term exploration of AI.
And what is academia?
Academia is a worldwide
network of individuals,
students, and professors
thinking very independently
and creatively about different ideas.
So from that point of view,
it's a very grassroot kind
of effort in AI research
that continues to happen.
And small businesses and
independent research institutes
also have a role to play, right.
There are a lot of publicly
available datasets,
we, it's a global
community that is very open
about sharing and disseminating
knowledge and technology.
So yes, please, by all means,
we want global participation in this.
- All right, here's my favorite question,
this is from anonymous, unfortunately.
If I am in eight grade,
do I still need to study?

Polish: 
w rozwoju i nauce o AI,
zwłaszcza w długoterminowym rozumieniu AI.
Kim dokładnie są ci akademicy?
Globalna sieć osobistości,
studentów, profesorów myślących niezależnie
i kreatywnie o różnych pomysłach.
W tym rozumieniu, to podstawowy
wysiłek w badaniu AI, który ciągle jest prowadzony.
Małe biznesy i niezależne instytucje badawcze
wciąż mają w tym rolę.
Jest wiele ogólnodostępnych baz danych.
Wykorzystuje ją społeczność bardzo chętna
dzieleniu się i propagowaniu wiedzy i technologii.
Więc tak, z całą pewnością
uczestniczy w tym cały świat.
- Ok, teraz moje ulubione pytanie.
Niestety jest anonimowe.
Mam 14 lat. Muszę iść na studia?

Polish: 
(śmiech)
- Jako matka, mówię: tak.
Wracaj do pracy domowej.
- W porządku, Fei-Fei, o czym chciałabyś poczytać
w nowej książce Yuvala?
- Oj, nie wiem. Muszę pomyśleć.
- Ok, w czasie gdy o tym myślisz,
Yuval, którym obszarem deeplearningu
powinna się zająć Fei-Fei?
- Projektem pomocnika.
- Jak już powiedziałem,
czy możemy stworzyć AI, które będzie służyło poszczególnym ludziom,
a nie należało do sieci?
Czy jest to możliwe, czy
w naturze AI leży coś, co nieuchronnie nas zawsze sprowadzi
do sieci,
w której zwycięzca bierze wszystko?
- W porządku, wróćmy do Fei-Fei...
- Jego następna książka powinna być science-fiction
o nim samym i pomocniku AI.

Chinese: 
（观众笑）
—作为一个母亲，我会告诉你需要。
回去做作业。
—飞飞，你希望尤瓦尔的下一本书
是关于什么的？
— 哇，我不知道，我得想想。
—好吧，你先想想看，
尤瓦尔，接下来你想让飞飞
研究机器学习的哪个领域？
—人工智能伙伴项目。
—对，我的意思是，正如我所说，一个人工智能，
我们能创造一种为个人服务，而不是为大网络服务的
人工智能吗？
我是说，这可能吗？或者有什么关于
人工智能的本质会不可避免地带来
某种网络效应
并且让赢家夺走了所有的东西？
—好吧，我们和飞飞收个尾。
—他的下一本书将会是关于你和你的
人工智能伙伴的科幻小说。

English: 
(audience laughing)
- As a mom, I will tell you yes.
Go back to your homework.
- All right, Fei-Fei, what
do you want Yuval's next book
to be about?
- Wow, I didn't know this,
I need to think about that.
- All right, well, while
you think about that,
Yuval, what area of machine learning
do you want Fei-Fei to pursue next?
- The sidekick project.
- Yeah, I mean, just what I said, an AI,
can we create a kind of AI which
can serve individual people
and not some kind of big network?
I mean, is that even possible
or is there something about
the nature of AI which
inevitably will always lead back
to some kind of networked effect
and winner takes all and so forth?
- [Nick] All right, we're
gonna wrap with Fei-Fei--
- His next book is gonna
be a science fiction book
between you and your sidekick.

Chinese: 
（观众笑）
—好吧，最后一个问题问尤瓦尔，
因为我们有两个投票得出的问题是关于这个。
没有了对自由意志的信仰，
是什么支撑你早上起床？
—没有对自由意志的信仰？
我不认为这个问题……我是说
这非常有趣或核心，
它一直处于西方文明的中心，
因为几千年前产生的某种
基本上是神学上的错误。
但这真的是个
对于人类状况的误会。
真正的问题是你要如何
把自己从苦难中解脱出来？
最重要的一个步骤是
你要更好地了解你自己。
为此，你需要抛开一切。我是说，对我来说，
自由意志的信仰存在的最大问题
是它让人们对自己以及

Polish: 
(śmiech)
- W porządku, ostatnie pytanie do Yuvala,
ponieważ dwa najpopularniejsze pytania sprowadzają się do tego.
Bez wiary w wolną wolę,
co sprawia że wstajesz rano z łóżka?
- Bez wiary w wolną wolę?
Nie sądzę, żeby to pytanie...
było bardzo interesujące albo ważne.
Było ważne dla zachodniej cywilizacji,
ponieważ popełniła ona podstawowy błąd teologiczny
tysiące lat temu.
A to poważne nieporozumienie w kwestii
ludzkiej kondycji.
Prawdziwe pytanie brzmi: jak uwolnić się
od cierpienia?
Jednym z kluczowych elementów tego
jest poznanie lepiej samego siebie,
a żeby to zrobić, musisz się uwolnić... Dla mnie osobiście,
wiara w wolną wolę jest o tyle problematyczna,
że sprawia, że ludzie przestają myśleć o samych sobie,

English: 
(audience laughing)
- All right, one last question for Yuval,
'cause we've got two of the
voted questions are this.
Without the belief in free will,
what gets you up in the morning?
- Without the belief in free will?
I don't think that the
question of, I mean,
is very interesting or very central,
it has been central in
Western civilization
because of some kind of
basically theological mistake
made thousands of years ago.
But it's a really, it's a misunderstanding
of the human condition.
The real question is how
do you liberate yourself
from suffering?
And one of the most important
steps in that direction
is to get to know yourself
better, and for that,
you need to just push aside
this whole, I mean, for me,
the biggest problem with
the belief in free will
is that it makes people
incurious about themselves

Polish: 
o tym, co dzieje się wewnątrz nich.
Twierdzą, że wiedzą już wszystko.
Wiem dlaczego podjąłem taką decyzję. To kwestia wolnej woli.
Uważają, że jakakolwiek myśl czy emocja pojawia się w nich
jest ich nierozłączną częścią, ponieważ, hej, to moja wolna wola.
To sprawia, że nie zastanawiają się
co naprawdę dzieje się wewnątrz nich i co
jest źródłem cierpienia w ich życiu.
To sprawia, że budzę się codziennie rano.
Chęć poznania samego siebie lepiej.
Chęć poznania lepiej stanu ludzkości.
Wolna wola jest do tego zbędna.
- A jeśli stracisz te chęci, twoje przyboczne AI
może sprawić, że wstaniesz rano.
Fei-Fei, tak jak powiedziałaś, 75 minut.
Nie mieliśmy zamiaru robić konkluzji,
ale myślisz, że coś tu dziś osiągnęliśmy?
- Otwarliśmy debatę między humanistami
i technologami. Mam nadzieję, że będzie jej więcej.
- Cudownie, w porządku, dziękuję wam bardzo. Dziękuję, Fei-Fei.
Dziękuję, Yuvalu Noahu Harari. To zaszczyt dla mnie być tutaj.

English: 
and about what is really
happening inside themselves.
Because they basically
say, I know everything.
I know why I make decisions,
this is my free will.
And they identify with whatever
thought or emotion pops up
in their mind because
hey, this is my free will.
And this makes them very incurious about
what is really happening
inside and what is also
the deep sources of the
misery in their lives.
And so this is what makes
me wake up in the morning,
to try and understand myself better,
to try and understand the
human condition better.
And free will is just irrelevant for that.
- And if we lose it, your sidekick
can get you up in the morning.
Fei-Fei, 75 minutes ago, you said
we weren't gonna reach any conclusions,
do you think we got somewhere?
- Well, we opened a dialogue
between the humanist
and the technologist, and
I wanna see more of that.
- Great, all right, thank you
so much, thank you, Fei-Fei,
thank you, Yuval Noah Harari,
it was wonderful to be here,

Chinese: 
自己的本真不再好奇。
因为他们基本上都说我什么都知道。
我知道为什么要做决定，这是我的自由意志。
他们认同脑海中冒出的
思想或情感，这是我的自由意志。
这让他们对自己的本真
以及生活中不幸的本源
缺乏好奇。
这就是驱使我早上起床的动力——
试着更好地理解自己；
试着更好地理解人类的状况。
自由意志与此无关。
—如果我们没了这动力，你的人工智能伙伴
会在早上叫你起床的。
飞飞，75分钟前，你说
我们不能得出任何结论，
你觉得我们得出任何结论了吗？
—嗯，我们开启了一场人文主义者和技术专家的对话。
我想看到更多类似的对话。
—太好了，谢谢，非常感谢，飞飞，
谢谢你，尤瓦尔·诺亚·赫拉利教授，非常精彩，

Polish: 
Dziękuję publiczności.
(oklaski)

Chinese: 
感谢各位观众。
（观众鼓掌）

English: 
thank you to the audience.
(audience applauding)
