
Russian: 
Переводчик: Effy May
Редактор: Alexander Treshin
Я хочу поговорить
о неспособности к интуиции,
от которой страдают многие из нас.
Фактически, это неспособность
распознавать определённую опасность.
Я опишу сценарий,
который назвал бы
одновременно пугающим
и вполне вероятным,
и это не хорошее сочетание,
как выясняется.
Всё же вместо того, чтобы пугаться,
многие подумают,
что то, о чём я говорю, здóрово.
Я расскажу, как наши достижения
в развитии искусственного интеллекта
могут в итоге нас уничтожить.
По-моему, вообще трудно понять,
как они могут нас не уничтожить
или не побудить к самоуничтожению.
Всё же, если вы в чём-то схожи со мной,
то вам нравится думать о таких вещах.
И эта реакция — часть проблемы.
Эта реакция должна вас беспокоить.

Korean: 
번역: Jihyeon J. Kim
검토: JY Kang
직감이 틀리는 경우에 
대해서 얘기할까 합니다.
우리가 흔히 겪는 일이죠.
이것은 실제로 어떤 종류의 
위험을 감지하지 못하는 겁니다.
가능한 시나리오를 말씀드리겠습니다.
아주 무섭기도 하고
일어날 가능성도 높죠.
이 둘의 조합은 별로 
반길 상황은 아닐 겁니다.
하지만 여러분 대부분은 
제가 말씀드릴 내용에 대해서
무서워하기 보다는 
멋지다고 생각할 겁니다.
제가 말씀드리고 싶은 것은
인공지능을 만들어서 얻게 될 이점이
결국 우리를 파멸시킬 수도 
있다는 사실입니다.
사실 인공지능이 우리를
파멸시키지 않을지
우리 스스로 자멸하도록 
만들지는 전혀 알 수 없죠.
하지만 여러분이 저와 같다면
이 문제를 생각해 보는 것도
재미있다고 느끼실 겁니다.
그런 반응도 문제입니다.
걱정스런 반응이어야죠.

Persian: 
Translator: Leila Ataei
Reviewer: Bidel Akbari
میخواهم درباره فقدانِ بصیرتی صحبت کنم
که بسیاری از ما از آن زیان می‌بینیم.
این، در واقع ناکامی در 
پیدا کردنِ نوع خاصی ازخطر است.
میخواهم سناریویی را شرح دهم
که فکر می‌کنم هم ترسناک است
و هم وقوع آن محتمل،
و آنطوری که معلوم می‌شود ترکیب
خوبی نیست.
و بجای این که وحشت کنید،
اغلب شما احساس خواهید کرد
که موضوع مورد صحبت 
یکجورهایی باحال است.
می‌خواهم شرح دهم که چطور یافته‌های ما
در هوش مصنوعی می‌تواند
درنهایت به نابودی ما بیانجامد.
و در واقع، فکر می‌کنم خیلی سخت است
که ببینیم چطور نابودمان نخواهند کرد
یا ما را به نابود کردن خودمان سوق ندهند.
و در عین حال اگر مثل من باشید
خواهید دید فکر کردن 
به این چیزها جالب است.
و آن واکنش بخشی از مشکل است.
درسته؟ آن واکنش باید نگرانتان کند.

Catalan: 
Translator: Marcos Morales Pallares
Reviewer: Elena Pérez Gómez
Tot seguit parlaré
sobre una manca d'intuïció
que molts de nosaltres patim.
És una dificultat per detectar
un tipus de perill específic.
Imagineu-vos el següent escenari,
que jo crec que és esgarrifós
i alhora ben probable.
Això no és pas una bona combinació
pel que sembla.
I enlloc d'espantar-vos,
molts creureu
que allò del que parlo
és divertit.
M'agradaria explicar
que els avenços que fem
en intel·ligència artificial
poden acabar destruint-nos.
I de fet, crec que és ben difícil
no veure com no ens poden destruir
o fer que ens autodestruïm.
Tot i així, si penseu com jo,
veureu que és distret
pensar en aquestes coses.
I aquesta és la resposta
que és part del problema.
És la que hauria d'amoïnar-vos.

Spanish: 
Traductor: Máximo Hdez
Revisor: Denise RQ
Voy a hablar de un fallo intuitivo
que muchos sufrimos.
En realidad es la capacidad
de detectar cierto tipo de peligro.
Describiré una situación que creo
que es tan aterradora como posible
y veremos que eso no es
una buena combinación.
Y sin embargo, en lugar de sentir miedo,
la mayoría pensará que es
algo bastante interesante.
Describiré cómo los avances
en el campo de la inteligencia artificial,
en última instancia, podrían destruirnos.
Y, de hecho, me resulta muy difícil ver
que no nos destruirían
o nos ayudaran a destruirnos.
Y sin embargo, si son como yo,
encontrarán que es divertido
pensar en estas cosas.
Y esta manera de ver las cosas
es parte del problema.
Esa reacción debería preocuparles.

Dutch: 
Vertaald door: Rik Delaet
Nagekeken door: Marleen Laschet
Ik kom praten over een gebrek aan intuïtie
waar velen van ons aan lijden.
Het is eigenlijk een gebrek om 
een bepaald soort gevaar aan te voelen.
Ik ga een scenario beschrijven
dat volgens mij zowel angstaanjagend
als waarschijnlijk is,
en dat is geen goede combinatie,
zoals zal blijken.
Toch, in plaats van bang te zijn,
vinden de meesten van jullie
dat eerder cool.
Ik ga uitleggen waarom 
de vooruitgang die we boeken
in artificiële intelligentie, AI,
ons uiteindelijk zou kunnen vernietigen.
Ik vind het erg moeilijk 
om te zien hoe AI ons niet zal vernietigen
of ons inspireren 
om onszelf te vernietigen.
Als je een beetje als ik bent,
vind je het toch leuk
om over deze dingen na te denken.
Dat antwoord is een deel van het probleem.
Dat antwoord zou je moeten verontrusten.

Vietnamese: 
Translator: Huong Nguyen
Reviewer: Uyên Võ
Tôi chuẩn bị nói về
sự thất bại của trực giác
mà nhiều người trong chúng ta
thường gặp phải.
Nó thật ra là sự thất bại trong việc
phát hiện một mối nguy hiểm nhất định.
Tôi sẽ mô tả một viễn cảnh
mà tôi nghĩ vừa kinh khủng
vừa có thể sẽ xảy ra,
và đây không phải sự kết hợp tốt
khi nó xảy ra.
Thế nhưng thay vì sợ,
hầu hết các bạn sẽ cảm thấy
rằng điều tôi đang nói thật ra rất tuyệt
Tôi sẽ mô tả cách mà
những thứ ta gặt hái được
từ trí thông minh nhân tạo (AI)
có thể hủy diệt chúng ta.
Thực ra, tôi nghĩ rất khó để xem làm sao
chúng có thể không tiêu diệt chúng ta
hoặc làm cho chúng ta tự hủy diệt mình.
Nhưng nếu các bạn giống tôi,
bạn sẽ thấy rằng nó rất vui
khi nghĩ về những điều này.
Và phản ứng đó là một phần của vấn đề.
OK? Phản ứng đó sẽ làm bạn lo lắng.

Romanian: 
Traducător: Lorena Ciutacu
Corector: Mirel-Gabriel Alexa
Voi vorbi despre o greșeală de intuiție
de care mulți dintre noi suferim.
E greșeala de a detecta
un anumit tip de pericol.
Voi descrie un scenariu
care cred că e înfricoșător
și probabil să se întâmple,
iar asta nu e o combinație bună
după cum se pare.
Totuși, în loc să fiți speriați,
majoritatea dintre voi
vor considera că e interesant.
Voi descrie cum progresele
pe care le facem
în inteligența artificială (IA)
ne-ar putea distruge în final.
De fapt, cred că e foarte greu
să vedem cum nu ne vor distruge
sau să ne inspire să ne distrugem.
Dar dacă sunteți ca mine,
veți crede că e amuzant
să te gândești la astfel de lucruri.
Acest răspuns e parte din problemă.
Această reacție
ar trebui să vă îngrijoreze.

Portuguese: 
Tradutor: Laura Amaral
Revisor: Cristiano Garcia
Vou falar sobre uma falha intuitiva
que afeta muitos de nós.
É a falha de reconhecer certo perigo.
Eu vou descrever uma situação
que considero aterrorizante
e provável de acontecer,
e não é uma boa combinação,
ao que parece.
Mesmo assim, em vez de sentir medo,
a maioria vai achar legal o que vou falar.
Vou descrever como nossas conquistas
na área da inteligência artificial
poderão nos destruir.
Na verdade, acho muito difícil ver
como elas não vão nos destruir,
ou nos inspirar a nos destruirmos.
E se você é como eu,
vai descobrir que é divertido
pensar sobre essas coisas.
E essa resposta é parte do problema.
OK? Essa resposta deve te preocupar.

Portuguese: 
Tradutor: Carla Berjano
Revisora: Margarida Ferreira
Eu vou falar de uma falha de intuição
de que muitos de nós sofremos.
É uma falha em detetar
um certo tipo de perigo.
Vou descrever um cenário
que considero tão aterrador
como provável de acontecer.
Acontece que isto
não é uma boa combinação.
No entanto, em vez de assustados,
a maioria de vocês acha
que aquilo de que estou a falar é fixe.
Eu vou descrever
como as vantagens obtidas
com a inteligência artificial
podem acabar por nos destruir.
Penso que é muito difícil
ver como não nos vão destruir
ou inspirar a destruirmo-nos a nós mesmos.
Mas se vocês forem
minimamente como eu,
vão descobrir que é divertido
pensar nestas coisas.
Essa resposta faz parte do problema.
Essa resposta devia preocupar-vos.

Italian: 
Traduttore: Giulia Claudi
Vi parlerò della mancanza d'intuito
di cui molti di noi soffrono
è davvero un insuccesso non notare un certo tipo di pericolo
Vi descriverò uno scenario
che penso sia terrificante
e allo stesso tempo molto probabile che accada,
una combinazione poco felice,
a quanto pare.
Ma invece di essere spaventati,
molti di voi penseranno
che quello di cui sto parlando
è piuttosto figo.
Vi mostrerò che i progressi
che stiamo facendo
nell'intelligenza artificiale
potrebbero distruggerci.
Penso sia difficile immaginare
come non possano distruggerci
o indurci a distruggerci tra noi.
E tuttavia, se siete come me,
penserete che sia divertente
pensare a queste cose.
Questa reazione è parte del problema.
Ok? Questa reazione dovrebbe preoccuparvi.

English: 
I'm going to talk
about a failure of intuition
that many of us suffer from.
It's really a failure
to detect a certain kind of danger.
I'm going to describe a scenario
that I think is both terrifying
and likely to occur,
and that's not a good combination,
as it turns out.
And yet rather than be scared,
most of you will feel
that what I'm talking about
is kind of cool.
I'm going to describe
how the gains we make
in artificial intelligence
could ultimately destroy us.
And in fact, I think it's very difficult
to see how they won't destroy us
or inspire us to destroy ourselves.
And yet if you're anything like me,
you'll find that it's fun
to think about these things.
And that response is part of the problem.
OK? That response should worry you.

Chinese: 
Translator: 潘 可儿
Reviewer: Alan Watson
我想講下
一個好多人都經歷過嘅感官錯覺
當呢個錯覺嚟嗰陣
我哋會唔識得留意危險
我亦都想講下一個我認為駭人聽聞
同時又好有可能會發生嘅情景
呢個情景發生嘅話，唔係一件好事嚟
你哋可能唔覺得我依家講緊嘅嘢恐怖
反而覺得好型
所以我想講下
我哋人類喺人工智能方面取得嘅成就
最终會點樣摧毀我哋
而事實上，我認為好難會見到
佢哋唔會摧毀我哋
或者導致我哋自我毀滅
依家你哋或者同我一樣
覺得諗呢啲嘢好得意
正因為覺得得意
亦都成為咗問題嘅一部份
你哋應該擔心你哋嘅反應至真！

Thai: 
Translator: yamela areesamarn
Reviewer: Kelwalin Dhanasarnsombut
ผมจะพูดถึงความล้มเหลว
ของการหยั่งรู้โดยสัญชาตญาณ
ซึ่งพวกเราหลายคนประสบอยู่
แท้จริงแล้ว มันเป็นความล้มเหลว
ของการสัมผัสได้ถึงอันตรายบางอย่าง
ผมกำลังจะอธิบายสถานการณ์หนึ่ง
ที่ผมคิดว่ามันทั้งน่าสะพรึงกลัว
และก็น่าจะเกิดขึ้นได้
และนั่นไม่ใช่ส่วนผสมที่ดีเลย
ดังที่ปรากฎออกมา
แต่แทนที่จะกลัว 
ท่านทั้งหลายส่วนใหญ่จะรู้สึกว่า
สิ่งที่ผมกำลังจะพูดถึงนั้น 
เป็นอะไรที่ดูเจ๋ง
ผมกำลังจะอธิบายให้ฟังว่า
ผลประโยชน์ที่เราได้รับ
จากปัญญาประดิษฐ์
ในที่สุดแล้วอาจทำลายเราได้อย่างไร
และที่จริง ผมว่ามันยากมาก
ที่จะเข้าใจว่าพวกมันจะไม่ทำลายเรา
หรือไม่ดลใจให้เรา
ทำลายตัวเองได้อย่างไร
ถ้าหากว่าคุณเป็นอย่างผม
คุณจะพบว่ามันสนุกดี
ที่จะคิดถึงเรื่องเหล่านี้
และการตอบสนองนั้น
ก็เป็นส่วนหนึ่งของปัญหา
ใช่ไหมครับ การตอบรับนั้น
น่าจะทำให้คุณกังวลใจ

Chinese: 
譯者: Hans Chiang
審譯者: Qiyun Xing
我要談一種我們很多人
遭受的、直覺上的失誤。
那其實是一種使你無法察覺到
特定種類危險的失誤。
我會描述一個情境
是我認為很可怕
而且很有機會發生的，
這不是很好的組合，
一如預期。
然而比起感到害怕，
大部分的人會覺得
我正在說的東西有點酷。
我將會描述我們在
人工智能領域的進展
如何能最終消滅我們。
事實上，我認為很難看不出
他們為何不會消滅我們，
或者驅使我們消滅自己。
如果你是和我類似的人，
你會發現思考這類事情很有趣。
那種反應也是問題的一部分。
對嗎？那種反應應該讓你感到擔心。

Croatian: 
Prevoditelj: Stjepan Mateljan
Recezent: Ivan Stamenković
Pričat ću vam
o neuspjehu intuicije
koji pogađa brojne među nama.
To je zapravo neuspjeh
uočavanja određene vrste opasnosti.
Opisat ću scenarij
za koji smatram kako je jednako zastrašujuć
koliko i vjerojatan da se dogodi,
a to nije dobra kombinacija,
kako se ispostavlja.
A ipak umjesto da budete prestrašeni,
većina će vas osjećati
kako je ono o čemu govorim
nekako fora.
Opisat ću kako bi nas
dobici koje stvaramo
u umjetnoj inteligenciji (dalje: AI)
na kraju mogli uništiti.
I zapravo, mislim ako je jako teško
vidjeti kako nas oni neće uništiti
ili nas nadahnuti da se sami uništimo.
Pa ipak ako ste imalo poput mene,
naći ćete kako je zabavno
razmišljati o ovim stvarima.
A taj je odgovor dio problema.
Ok? Taj bi vas odgovor trebao brinuti.

Georgian: 
Translator: Levan Lashauri
Reviewer: Tamta Makharadze
ვაპირებ იმ ინტუიციურ სისუსტეზე ვისაუბრო,
რომელიც ბევრ ჩვენგანს ახასიათებს.
ეს გარკვეული საფრთხის ამოცნობის უუნარობაა.
ვაპირებ აღვწერო სცენარი,
რომელიც ერთდროულად შემაძრწუნებელიცაა
და მოსალოდნელიც.
რაც, როგორც ირკვევა
არაა კარგი კომბინაცია.
მიუხედავად ამისა,
საშიშის ნაცვლად უმეტესობა
სახალისოდ აღიქვამს იმას,
რაზეც ვაპირებ ვისაუბრო.
ვაპირებ აღვწერო, თუ როგორ შეიძლება
ხელოვნური ინტელექტის სფეროში წინსვლამ
საბოლოოდ გაგვანადგუროს.
პრინციპში, ვფიქრობ,
ძნელი წარმოსადგენიც კია,
როგორ შეიძლება არ გაგვანადგუროს,
ან არ გვიბიძგოს თვითგანადგურებისკენ.
თუმცა, თუ თქვენც ჩემნაირი ხართ,
გეგონებათ, რომ ასეთ რამეებზე
ფიქრი სახალისოა.
თავად ასეთი რეაქციაც პრობლემის ნაწილია.
ამ რეაქციამ უნდა შეგაწუხოთ.

Swedish: 
Översättare: Anette Smedberg
Granskare: Lisbeth Pekkari
Jag ska prata om en intuitionsbrist
som många av oss lider av.
Det är ett misslyckande att
upptäcka en viss typ av fara.
Jag ska beskriva ett scenario
som jag tycker är både skrämmande
och förmodligen kommer att ske,
och det är en dålig kombination,
som det visar sig.
Istället för att bli rädda,
kommer många tycka
att det jag pratar om är ganska häftigt.
Jag ska beskriva hur de framsteg vi gör
inom artificiell intelligens
till slut kan förgöra oss.
Faktum är, jag tror det är svårt 
att se att de inte gör det
eller får oss att förgöra oss själva.
Och om du tänker det minsta likt mig,
tycker du att det här är
spännande att tänka på.
Den inställningen är en del av problemet.
OK? Den inställningen borde oroa dig.

Serbian: 
Prevodilac: Vesna Radovic
Lektor: Mile Živković
Pričaću vam o porazu intuicije
od koga mnogi patimo.
Zista je porazno opaziti
određenu vrstu opasnosti.
Opisaću vam jedan scenario
za koji mislim da je i zastrašujuć
i koji se realno može dogoditi,
a to, kako se čini,
nije dobra kombinacija.
A opet umesto da se uplaše,
mnogi od vas će misliti
da je ono o čemu pričam nešto kul.
Opisaću vam kako bi
napredak koji pravimo
u veštačkoj inteligenciji
mogao na kraju da nas uništi.
Zapravo, mislim da je jako teško
zamisliti kako nas neće uništiti,
ili navesti da se samouništimo.
A opet ako ste imalo kao ja,
shvatićete da je zabavno
razmišljati o ovim stvarima.
I taj odgovor je deo ovog problema.
OK? Taj odgovor treba da vas brine.

Ukrainian: 
Перекладач: Olga Murphy
Утверджено: Hanna Leliv
Сьогодні я розповім 
про нездатність до інтуїції,
від якої страждають багато з нас.
Це дійсно нездатність визначати
певний вид небезпеки.
Я опишу сценарій,
що, на мою думку, є водночас жахливий
та дуже ймовірний
і не є гарною комбінацією,
як виявляється.
Та все одно, замість того, щоб злякатися,
більшість з вас відчують,
що те, про що я веду мову,
скоріше прикольне.
Я розповім, як прибутки,
що ми отримуємо від штучного інтелекту,
можуть, врешті-решт, знищити нас.
Насправді, я думаю, дуже важко
зрозуміти, як вони НЕ знищать нас
або не надихнуть нас знищити самих себе.
Та якщо ви такий як я,
вам здасться, що думати 
про такі речі - весело,
І така реакція є частиною проблеми.
Ця реакція має хвилювати вас.

Chinese: 
翻译人员: Junyi Sha
校对人员: Cindy Ma
我想谈论一种我们
很多人都经历过的
来自于直觉上的失误。
它让人们无法察觉到
一种特定危险的存在。
我要向大家描述一个情景，
一个我觉得既令人害怕，
却又很可能发生的情景。
这样一个组合的出现，
显然不是一个好的征兆。
不过，在座的大部分人都会觉得，
我要谈论的这件事其实挺酷的。
我将描述我们从人工智能中
获得的好处，
将怎样彻底地毁灭我们。
事实上，想看到人工智能
最终不摧毁我们是很难的，
或者说它必将驱使我们自我毁灭。
如果你和我有共同点，
你会发现思考这些问题
是相当有趣的。
而这种反应就是问题的一部分。
因为这种想法应该使你感到担忧。

iw: 
מתרגם: Yuri Dulkin
מבקר: Sigal Tifferet
אני אדבר על כשל באינטואיציה
שרבים מאיתנו סובלים ממנו.
זהו למעשה כשל בזיהוי
סכנה מסוג מסויים.
אני אתאר תרחיש
שאני חושב שהוא גם מבעית
וגם סביר שיתרחש,
וזה לא שילוב טוב,
כפי שמסתבר.
ולמרות זאת, במקום לפחד, רובכם תרגישו
שמה שאני מדבר עליו הוא די מגניב.
אני אתאר איך ההתקדמויות שלנו
בתחום הבינה המלאכותית
עלולות לבסוף להשמיד אותנו.
ולמעשה, אני חושב שקשה מאוד
לראות איך הם לא ישמידו אותנו,
או ימריצו אותנו להשמיד את עצמנו.
ובכל זאת, אם אתם כמוני,
אתם תגלו שכיף לחשוב על דברים כאלה.
והתגובה הזו היא חלק מהבעיה.
התגובה הזו צריכה להדאיג אתכם.

Arabic: 
المترجم: Hani Eldalees
المدقّق: Hussain Laghabi
سأقوم بالتحدث عن فشل الحدس
الذي يعاني معظمنا منه.
هو في الواقع الفشل في تحرِّي نوع محدد
من الخطر.
سوف أقوم بوصف سيناريو
أظنه مخيفاً
ومن المرجح أن يحدث،
وهذا ليس مزيجاً جيداً،
كما سيبدو.
ومع ذلك، بدلاً من الخوف، سيشعر معظمكم
بأن ما أتحدُّث عنه مثير نوعاً ما.
سأقوم بوصف كيف أن المكاسب التي نحصل عليها
من الذكاء الاصطناعي
يمكن في النهاية أن تدمرنا.
وفي الواقع، أظنه من الصعب جداً أن نرى
كيف أنها لن تدمرنا
أو تلهمنا أن ندمر أنفسنا.
ومع ذلك إذا كنتم تشبهونني في شيء
فستجدون أنه من الممتع التفكير
بهذه الأشياء.
وتلك الإجابة هي جزء من المشكلة.
حسناً؟ تلك الإجابة يجب أن تُقلقكم.

Turkish: 
Çeviri: pinar sadi
Gözden geçirme: Yunus ASIK
Birçoğumuzun muzdarip olduğu
bir önsezi yetersizliğinden bahsedeceğim.
Belirli tür bir tehlikeyi
sezmek gerçekten bir yetersizliktir.
Bir senaryo anlatacağım,
korkunç olduğunu düşündüğüm
ve gerçekleşmesi muhtemel olan
ve görünen o ki
iyi bir kombinasyon da değil.
Yine de korkmak yerine
çoğunuz, bahsettiklerimin
havalı olduğunu düşüneceksiniz.
Yapay zekâdaki kazanımlarımızın
nihayetinde bizi nasıl 
mahvedeceğinden bahsedeceğim.
Hatta bence, bizi mahvetmeyeceğini
veya kendimizi mahvetmeyi bize
aşılamayacağını düşünmek çok güç.
Fakat sizler de benim gibiyseniz,
bunları düşünmenin zevkli
olacağını keşfedeceksiniz.
Ve bu yanıtta sorunun bir parçası.
Bu yanıt sizi endişelendirmeli.

Hungarian: 
Fordító: Rita Hajnal
Lektor: Reka Lorinczy
A hibás előérzetekről fogok beszélni,
amitől oly sokan szenvedünk.
Valóban hibás egy bizonyos fajta 
veszély felismerése.
Felvázolok egy forgatókönyvet,
amelyről úgy gondolom egyszerre ijesztő,
és bekövetkezése egyben valószínűsíthető,
és ez a kettő együtt nem jó kombináció,
ahogy az bebizonyosodik majd.
Ennek ellenére a többségetek
az ijedtség helyett úgy érzi majd,
hogy amiről beszélek, egy menő dolog.
El fogom magyarázni,
hogy a mesterséges intelligencia fejlődése
miként semmisíthet meg bennünket.
Úgy vélem, nehezebb felismerni,
hogyan nem pusztítanak el minket,
vagy buzdítanak minket 
önmagunk elpusztítására.
De ha kicsit is hasonlítasz rám,
rájössz majd, mennyire vicces dolog 
ezeken elmélkedni.
És ez a fajta reakció 
szintén a probléma része.
Értitek ugye? A reakció miatt 
aggódnotok kellene.

French: 
Traducteur: MACQUERON CORENTIN
Relecteur: Morgane Quilfen
Je vais vous parler
d'une erreur de jugement
que beaucoup d'entre nous font.
Il s'agit de l'incapacité à détecter 
un certain type de danger.
Je vais décrire un scénario
que je pense à la fois terrifiant
et pourtant susceptible d'arriver,
et ce genre de combinaison
n'est pas une bonne chose.
Pourtant, au lieu d'avoir peur,
la plupart d'entre vous penseront
que c'est plutôt cool.
Je vais décrire comment 
les avancées que nous faisons
dans l'intelligence artificielle
pourraient finir par nous détruire.
Il semble difficile de voir comment
cela pourrait ne pas nous détruire
ou nous aider à nous détruire.
Pourtant, si vous me ressemblez un peu,
vous allez trouver amusant
de réfléchir à ces choses-là.
Et cette façon de voir les choses 
est une partie du problème.
Ce sentiment devrait vous inquiéter.

Modern Greek (1453-): 
Μετάφραση: Lucas Kaimaras
Επιμέλεια: Nikolaos Benias
Θα σας μιλήσω για ένα σφάλμα στη λογική
που έχουν πολλοί από εμάς.
Στην ουσία είναι αδυναμία να δούμε
ένα ορισμένο είδος κινδύνου.
Θα περιγράψω ένα σενάριο
που θεωρώ ταυτόχρονα τρομακτικό,
αλλά και πιθανό να συμβεί,
και δεν είναι καλός συνδυασμός,
όπως τελικά αποδεικνύεται.
Αλλά αντί να τρομοκρατείστε,
οι περισσότεροι πιστεύετε
ότι αυτό που σας λέω είναι μάλλον ωραίο.
Θα σας περιγράψω
πώς τα οφέλη που θα δρέψουμε
από την τεχνητή νοημοσύνη
μπορούν εν τέλει να μας καταστρέψουν.
Και μάλιστα το θεωρώ απίθανο
είτε να μην μας καταστρέψουν
ή να μας εμπνεύσουν
να καταστραφούμε μόνοι μας.
Αν όμως σκέφτεστε όπως εγώ,
θα το απολαμβάνετε
να σκέφτεστε αυτά τα πράγματα.
Κι αυτή η αντίδραση
είναι μέρος του προβλήματος.
Εντάξει; Αυτή η αντίδραση
θα πρέπει να σας ανησυχεί.

Czech: 
Překladatel: Martin Bureš
Korektor: Vladimír Harašta
Budu mluvit o selhání intuice,
kterým trpí mnozí z nás.
Vlastně jde o neschopnost 
odhalit určitý typ nebezpečí.
Popíšu vám situaci,
kterou považuji za děsivou
a zároveň pravděpodobnou.
A jak se ukazuje,
tohle není dobrá kombinace.
Ovšem i přesto si bude
většina z vás myslet,
že mluvím spíš o zajímavých
než o děsivých věcech.
Popíšu vám, jak nás pokroky
v umělé inteligenci
mohou nakonec úplně vyhubit.
Vlastně myslím, že lze jen
stěží nevidět, že nás vyhubí
nebo že nás k sebezničení navedou.
A pokud jste na tom podobně jako já,
bude vám připadat zábavné 
o těchto věcech přemýšlet.
Naše reakce je součástí toho problému.
Tahle reakce by nás měla znepokojovat.

Slovak: 
Translator: Marek Bednárik
Reviewer: Linda Magáthová
Budem hovoriť o zlyhaní intuície,
ktorým trpí mnoho z nás.
Vlastne ide o zlyhanie odhalenia
určitého druhu nebezpečia.
Popíšem vám situáciu,
o ktorej si myslím, že je desivá
a zároveň pravdepodobná,
čo, ako vieme,
nie je dobrá kombinácia.
A aj tak, mnohí z vás nebudú
vystrašení, ale budú
si myslieť, že to,
o čom hovorím, je cool.
Budem hovoriť o tom, ako nás pokrok,
ktorý dosahujeme
v umelej inteligencii,
môže nakoniec úplne zničiť.
A vskutku si myslím, že je ťažké
nevidieť, že nás zničí, alebo nás
inšpiruje, aby sme sa zničili sami.
A pokiaľ ste ako ja,
je pre vás zábavou zamýšľať sa nad tým.
Naše reakcie sú súčasťou toho problému.
Tieto reakcie by vás mali trápiť.

Japanese: 
翻訳: Yasushi Aoki
校正: Kaori Nozaki
我々の多くが抱えている―
直感の誤りについて
お話しします
正確には ある種の危険を
察知し損なうということです
これから説明するシナリオは
私の考えでは
恐ろしいと同時に
起こりそうなこと
でもあります
ありがたくない
組み合わせですね
考えてみたら
しかも 多くの人が
それを恐れるよりは
素敵なことのように
感じています
人工知能によって
我々がどのように利益を得
そして最終的には
破滅を招きかねないか お話しします
人工知能が
人類を破滅させたり
自滅に追い込んだりしない
シナリオは
実際 考えにくい気がします
それでも皆さんが
私と同じなら
そういったことについて考えるのは
楽しいことでしょう
その反応自体が問題なのです
そういう反応は
懸念すべきです

Vietnamese: 
Và nếu tôi thuyết phục được các bạn
trong buổi nói chuyện này
rằng chúng ta có thể sẽ phải
hứng chịu một nạn đói toàn cầu,
hoặc do biến đổi khí hậu hoặc
do một số thiên tai khác,
và rằng cháu chắt của các bạn hay của họ,
rất có thể sẽ phải sống như thế này,
thì bạn sẽ không nghĩ,
"Tuyệt vời.
Tôi thích buổi nói chuyện này."
Nạn đói không vui vẻ gì đâu.
Tuy nhiên cái chết do khoa học
viễn tưởng lại rất hài hước.
mà một trong số những thứ làm tôi
lo lắng nhất về việc phát triển AI
là chúng ta dường như không thể sắp xếp
một phản ứng cảm xúc thích hợp nào
cho những mối nguy hiểm trước mắt.
Tôi không thể sắp xếp thứ phản ứng này,
nên tôi mới đưa ra buổi nói chuyện này.
Nó như thể chúng ta
đứng trước hai cánh cửa.
Sau cánh cửa thứ nhất,
chúng ta ngưng quá trình xây dựng
các loại máy móc thông minh.
Phần cứng và phần mềm máy tính
không cải tiến tốt hơn nữa vì vài lí do.
Giờ hãy dành thời gian suy nghĩ
tại sao điều này có thể xảy ra.

Portuguese: 
Se eu vos convencesse nesta palestra
que vamos, provavelmente,
sofrer uma fome mundial,
devido à mudança climática
ou devido a alguma outra catástrofe,
e que os vossos netos,
ou os netos deles,
têm a probabilidade de viver assim,
não pensariam:
"Que interessante.
"Gosto desta palestra TED."
A fome não tem graça.
Mas a morte pela ficção científica
é divertida.
Uma das coisas que mais me preocupa
no desenvolvimento da IA, neste ponto,
é que parecemos incapazes de mobilizar
uma resposta emocional apropriada
para os perigos que nos esperam.
Sou incapaz de conseguir esta resposta,
e estou a fazer esta palestra.
É como se estivéssemos diante
de duas portas.
Atrás da porta número um,
deixamos de fazer progressos
na construção de máquinas inteligentes.
O hardware e o software dos computadores
deixam de melhorar, por alguma razão.
Agora, pensem um momento
na razão de isto poder acontecer.

Russian: 
И если бы мне надо было убедить вас,
что нам грозит всемирный голод
из-за изменения климата
или некой другой катастрофы
и что ваши внуки или их внуки,
вероятно, будут жить вот так,
вы бы не подумали:
«Интересно.
Хорошее выступление».
В голоде нет ничего забавного.
Смерть от научной фантастики,
с другой стороны, — это круто,
и меня очень сильно беспокоит
на данном этапе развития ИИ
наша неспособность к выстраиванию
подобающей эмоциональной реакции
на ожидающие нас опасности.
Я сам не могу выстроить эту реакцию,
потому и говорю об этом.
Как будто мы стои́м перед двумя дверьми.
За первой дверью
у нас останавливается прогресс
в создании интеллектуальных устройств.
Аппаратное и программное обеспечение
почему-то больше не становится лучше.
Теперь на секунду задумайтесь,
почему это может произойти.

Turkish: 
Bu konuşmada sizi, olası bir
küresel bir kıtlığa,
iklim değişikliği veya 
başka bir afetten dolayı,
torunlarınız veya 
onların torunlarının muhtemelen
bu şekilde yaşama durumuna
yakın olduğuna ikna ediyor olsaydım,
"İlginç.
Bu TED konuşmasını beğendim."
diye düşünmezdiniz.
Kıtlık eğlenceli değildir.
Diğer taraftan bilim 
kurgudaki ölüm ise eğlencelidir
ve bu noktada beni yapay zekâdaki
en çok endişelendiren gelişmelerden biri,
önümüzde uzanan tehlikelere,
uygun duyarlı bir yanıtı
sıralayamıyor gibi görünüyoruz.
Bu yanıtı sıralayamıyorum ve 
bu konuşmayı yapıyorum.
İki kapının önünde duruyoruz gibi.
1 numaralı kapının ardında
zeki makine üretmedeki
gelişmeleri durduruyoruz.
Her nedense bilgisayarlarımızın donanım
ve yazılımı daha iyi olmayı durduruyor.
Şimdi bir dakikanızı ayırın ve bunun
neden olabileceğini değerlendirin.
Yani, zekâ ve otomasyonun ne kadar

Ukrainian: 
І якщо б я хотів запевнити 
вас у цій промові,
що нам, скоріше за все, доведеться 
страждати від глобального голоду
через кліматичні зміни
або якусь іншу катастрофу,
та що ваші онуки та їхні онуки
будуть ймовірно жити саме так,
ви б не подумали:
"Цікаво.
Мені подобається цей виступ на ТED".
Голод - це не весело.
А от смерть у науковій фантастиці,
з іншого боку - це весело,
та одна з речей, що мене найбільше турбує
щодо розвитку штучного інтелекту -
це наша нездатність мати відповідну 
емоційну реакцію
щодо небезпек, що чигають на нас попереду.
Я не здатний осягнути цю реакцію
і саме тому виступаю на цій сцені.
Це так, наче ми стоїмо 
навпроти двох дверей.
За дверима номер 1
ми припиняємо прогрес
у створенні розумних машин.
Технічне та програмне забезпечення
перестає покращуватись через якісь обставини.
А тепер поміркуймо,
чому б це могло трапитися.

Persian: 
و اگر قرار بود در این سخنرانی متقاعدتان کنم
که احتمالا از یک قحطی جهانی بخاطر
تغییرات جوی یا هر فاجعه دیگری رنج ببریم
و این که نوه‌های ما یا نوه‌های آنها
هم احتمال زندگی این 
شکلی را دشته باشند،
با خودتان فکر نمی‌کردید،
«جالبه.
از این سخنرانی TED 
خوشم می‌آید.»
قحطی جالب نیست.
از سوی دیگر مرگ ناشی از 
ژانر علمی تخیلی جالب است،
و یکی از چیزهایی که بیش از همه نسبت به 
توسعه هوش صنوعی در این مرحله نگرانم می‌کند
این است که به نظر می‌رسد ما قادر به ایجاد 
واکنش عاطفی مناسبی
به خطرات در پیشِ روی خود نبوده‌ایم.
حتی من که این سخنرانی را انجام می‌دهم،
قادر نیستم این واکنش را ایجاد کنم.
مثل ایستادن در برابر دو در میماند.
پشت درب شماره یک
ما دست از پیشرفت در ساخت 
ماشینهای هوشمند می‌کشیم.
سخت افزار و نرم افزار کامپیوترمان 
به دلیلی دست از بهتر شدن بر می‌دارد.
چند لحظه در مورد چرایی این اتفاق تامل کنید.

English: 
And if I were to convince you in this talk
that we were likely
to suffer a global famine,
either because of climate change
or some other catastrophe,
and that your grandchildren,
or their grandchildren,
are very likely to live like this,
you wouldn't think,
"Interesting.
I like this TED Talk."
Famine isn't fun.
Death by science fiction,
on the other hand, is fun,
and one of the things that worries me most
about the development of AI at this point
is that we seem unable to marshal
an appropriate emotional response
to the dangers that lie ahead.
I am unable to marshal this response,
and I'm giving this talk.
It's as though we stand before two doors.
Behind door number one,
we stop making progress
in building intelligent machines.
Our computer hardware and software
just stops getting better for some reason.
Now take a moment
to consider why this might happen.

Thai: 
ถ้าในการบรรยายนี้
ผมต้องการโน้มน้าวคุณให้เชื่อว่า
เราน่าจะต้องประสบกับความทุกข์ยาก
จากความอดอยากไปทั่วโลก
ไม่ว่าจะเป็นเพราะการเปลี่ยนแปลง
สภาวะอากาศ หรือหายนะอย่างอื่น
และลูกหลานของพวกคุณ
หรือของลูกหลานของพวกเขา
อาจจะต้องมีความเป็นอยู่แบบนี้
คุณคงจะไม่คิดหรอกว่า
"น่าสนใจนะ
ฉันชอบ TED Talk เรื่องนี้"
ความอดอยากนั้นไม่น่าสนุก
ในขณะที่ ความตาย
ในนวนิยายวิทยาศาสตร์เป็นเรื่องสนุก
สิ่งหนึ่งที่ทำให้ผมกังวลที่สุดเกี่ยวกับ
การพัฒนาปัญญาประดิษฐ์ขึ้นมา ณ ตอนนี้
ก็คือ ดูเหมือนว่าเราไม่สามารถสร้าง
การตอบสนองทางอารมณ์ที่เหมาะสม
ต่ออันตรายที่อยู่เบื้องหน้าได้
ผมเองก็ไม่สามารถที่จะปลุกการตอบสนองนี้ได้
ผมจึงต้องมาพูดเรื่องนี้
มันเหมือนกับว่า 
เรายืนอยู่ข้างหน้าประตูสองบาน
ด้านหลังประตูหมายเลขหนึ่ง
เราหยุดที่จะก้าวหน้าต่อไป
ในการสร้างจักรกลที่ชาญฉลาด
คอมพิวเตอร์ฮาร์ดแวร์และซอฟแวร์
ต่างหยุดพัฒนา ด้วยเหตุผลบางอย่าง
ลองใช้เวลาสักครู่เพื่อพิจารณานะครับ
ว่าทำไมเรื่องแบบนี้อาจจะเกิดขึ้นได้

French: 
Et si je devais vous convaincre,
avec cette présentation,
que nous allons probablement 
souffrir d'une famine généralisée,
soit à cause du climat
ou de toute autre catastrophe,
et que vos petits-enfants,
ou leurs petits-enfants,
ont de grandes chances de vivre ainsi,
vous ne penseriez pas :
« Intéressant.
Cool, ce TED. »
La famine, ce n'est pas amusant.
La mort en science-fiction,
en revanche, est un concept amusant
et ce qui m'inquiète le plus à propos
du développement de l'IA en ce moment
est le fait que nous semblons 
incapables de nous faire une idée
des dangers qui nous attendent.
Je n'ai pas de réponse,
alors que je suis ici, à vous en parler.
C'est comme si nous étions
face à deux portes.
Derrière la porte n°1,
nous arrêtons nos progrès
dans le développement de nos machines.
Hardware et software stagnent, 
pour une raison ou pour une autre.
Essayez d'imaginer 
ce qui pourrait arrêter ce développement.
Étant donnée l'importance 
de l'intelligence

Japanese: 
仮にこの講演で
私の訴えていることが
地球温暖化や
何かの大異変のため
世界的な飢饉がやってくる
ということだったとしましょう
私たちの孫や
その孫の世代は
この写真のような
有様になるんだと
その場合
こうは思わないでしょう
「やあ 面白いな
このTEDトーク気に入ったよ」
飢饉は楽しいもの
ではありません
一方で SFの中の破滅は
楽しいものなのです
今の時点で AIの発展について
私が最も懸念するのは
将来に待ち受けている
危険に対して
我々が感情的に適切な反応を
できずにいることです
こう話している私自身
そういう反応をできずにいます
我々は２つの扉を前に
立っているようなものです
１つ目の扉の先には
知的な機械の開発をやめるという
道があります
ハードウェアやソフトウェアの進歩が
何らかの理由で止まるのです
そういうことが起きうる要因を
ちょっと考えてみましょう

Modern Greek (1453-): 
Κι αν επρόκειτο να σας πείσω
με αυτή την ομιλία
ότι είναι πιθανόν
να αντιμετωπίσουμε παγκόσμιο λιμό,
είτε λόγω κλιματικής αλλαγής
ή κάποιας άλλης καταστροφής,
και ότι τα εγγόνια σας,
ή τα δικά τους εγγόνια,
είναι πολύ πιθανόν να ζήσουν κάπως έτσι,
δεν θα σκεφτόσασταν,
«Ενδιαφέρον.
Μου αρέσει αυτή η ομιλία TED».
Ο λιμός δεν είναι κάτι διασκεδαστικό.
Από την άλλη, ο θάνατος μέσω επιστημονικής
φαντασίας είναι διασκεδαστικός,
και κάτι που με ανησυχεί σε αυτό το στάδιο
της εξέλιξης της τεχνητής νοημοσύνης
είναι ότι αδυνατούμε να επιδείξουμε
μια κατάλληλη συναισθηματική αντίδραση
στους επικείμενους κινδύνους.
Ούτε εγώ μπορώ να έχω αυτή την αντίδραση
και κάνω αυτή την ομιλία.
Είναι σαν να στεκόμαστε
μπροστά σε δύο πόρτες.
Πίσω από την πρώτη πόρτα,
παύουμε να κάνουμε πρόοδο
στην παραγωγή ευφυών μηχανών.
Για κάποιον λόγο παύουμε να βελτιώνουμε
υλισμικό και λογισμικό στους υπολογιστές.
Τώρα σκεφτείτε για λίγο
γιατί μπορεί να συμβεί αυτό.

Georgian: 
ახლა, ამ საუბარში, თუ დაგაწრმუნებთ,
რომ კლიმატის ცვლილებით,
ან სხვა რამე კატასტროფით გამოწვეული
გლობალური შიმშილობაა მოსალონდელი
და რომ თქვენმა შვილიშვილებმა,
ან მათმა შვილიშვილებმა
დიდი შანსია ამ პირობებში იცხოვრონ,
თქვენ არ იფიქრებთ:
"საინტერესოა,
მომწონს ეს TED talk-ი"
შიმშილობა არაა სახალისო.
სამეცნიერო ფანტასტიკის ხელით სიკვდილი
კი სახალისოა.
ერთ-ერთი, რაც ხელოვნური ინტელექტის
შექმნასთან დაკავშირებით მაწუხებს ისაა,
რომ ჩვენ თითქოს არ შეგვწევს უნარი
გვქონდეს ადექვატური ემოციური რეაქცია
მოსალოდნელ საფრთხეებზე.
არც მე ძალმიძს ამ რეაქიის გამომუშავება,
თუმცა ამ თემაზე გამოვდივარ.
თითქოს ორი კარის წინ ვდგავართ.
პირველ კარს მიღმა,
ხელოვნური ინტელექტის განვითარების
პროგრესი ჩერდება.
ჩვენი კოპიუტერების აპარატული და პროგრამული
საშუალებები რატომღაც აღარ უმჯობესდება.
ერთი წამით დაფიქრდით,
რატომ შეიძლება ეს მოხდეს.

Catalan: 
I si us hagués de convèncer
amb aquesta xerrada
de que és ben possible
que arribem a patir una fam mundial,
ja sigui pel canvi climàtic
o per qualsevol altra catàstrofe,
i que els vostres néts,
o els seus néts,
probablement viuran així,
no pensaríeu:
"Interessant.
M'agrada aquesta xerrada TED."
La fam no és divertida.
La mort en la ciència ficció,
en canvi, sí que ho és,
i el que més em preocupa
sobre el progrés de la IA ara mateix
és que no sembla que siguem capaços
de respondre com cal a nivell emocional
als perills que ens esperen.
No sóc capaç de respondre-hi
i ara em trobo donant aquesta xerrada.
És com si ens trobéssim
davant dues portes.
Rera la porta número u,
deixem de progressar
i de construir màquines intel·ligents.
El nostre maquinari i programari
deixa de millorar per alguna raó.
Penseu durant uns instants
per què podria passar això.

Swedish: 
Om jag i det här föredraget
skulle övertyga dig om
att vi kan drabbas av en
global svältkatastrof,
på grund av klimatförändringar
eller någon annan katastrof,
och att dina barnbarn,
eller deras barnbarn,
sannolikt skulle leva så här,
då skulle du inte tänka,
"Intressant.
Jag gillar föredraget."
Svält är inte roligt.
Död i science fiction,
å andra sidan, är roligt,
och en av de saker som för närvarande
oroar mig mest i utvecklingen av AI
är att vi tycks oförmögna att förespråka
ett passande emotionellt gensvar
inför de risker som ligger framför oss.
Jag kan inte förespråka ett gensvar,
och jag håller det här talet.
Det är som att vi står framför två dörrar.
Väljer vi dörr ett,
slutar vi göra framsteg i utvecklandet
av intelligenta maskiner.
Av någon anledning blir vår
hård- och mjukvara inte bättre.
Fundera lite på varför
det skulle kunna hända.

Spanish: 
Si tuviera que convencerles
con esta charla
de que estamos al borde de sufrir
una hambruna a nivel mundial,
debido al calentamiento global
o cualquier otra catástrofe,
y que sus nietos o sus bisnietos,
vivirán muy probablemente así,
no pensarían:
"Interesante.
Me gusta esta charla TED".
El hambre no es divertida
La muerte en la ciencia ficción,
por el contrario, es algo divertido,
y lo más preocupante
en el desarrollo de la IA hoy en día
es que parecemos incapaces de ofrecer
una respuesta emocional adecuada
frente a los peligros que se avecinan.
Yo mismo soy incapaz de ello
y estoy dando esta charla.
Es como si nos encontráramos
ante dos puertas.
Detrás de la puerta número uno
detenemos el progreso
de máquinas inteligentes.
Nuestro hardware y software
se estancan simplemente, por alguna razón.
Traten de reflexionar por un momento
por qué podría suceder esto.

Croatian: 
A ako bih vas uvjeravao
ovim govorom
kako ćemo vjerojatno
doživjeti globalnu glad,
bilo zbog klimatskih promjena
ili neke druge katastrofe,
te kako će vaši unuci,
ili njihovi unuci,
vrlo vjerojatno živjeti ovako,
ne biste mislili:
"Zanimljivo.
Sviđa mi se ovaj TED govor."
Glad nije zabavna.
Smrt znanstvenom fantastikom,
s druge strane, jest zabavna,
a jedna od stvari koje me najviše brinu
oko razvoja AI u ovom trenutku
je kako se činimo nesposobnim
stvoriti prikladan emotivni odgovor
na opasnosti pred kojima se nalazimo.
Ja sam nesposoban stvorti taj odgovor,
a držim ovaj govor.
Ovo je kao da stojimo
pred dvama vratima.
Iza vrata broj jedan,
prestanemo stvarati napredak
u izgradnji inteligentnih strojeva.
Hardver se i softver naših računala
samo iz nekog razloga prestane poboljšavati.
Sad uzmite trenutak,
razmislite zašto bi se to moglo dogoditi.

Arabic: 
وإذا كان عليَّ أن أقنعكم في هذه المحادثة
أنه من المرجح أننا سوف نعاني من
مجاعة عالمية
إما بسبب تغيُّر المناخ، أو بسبب
كارثة أخرى،
وأن أحفادكم، أو أحفادهم،
من المرجح جداً أن يعيشوا، هكذا
فلن يخطر ببالكم.
"مثير للاهتمام".
تعجبني محادثة TED هذه.
المجاعة ليست مسلية.
الموت عن طريق الخيال العلمي، من ناحية
أخرى، مسلٍّ،
وأحد الأشياء التي تقلقني للغاية بسبب تطور
الذكاء الاصطناعي عند هذه النقطة
هي أننا نبدو وكأننا غير قادرين على إبداء
استجابة عاطفية ملائمة
للأخطار التي تنتظرنا.
أنا غير قادر على إبداء هذه الاستجابة،
وأنا أقوم بهذه المحادثة.
يبدو الأمر وكأننا نقف أمام بابين.
خلف الباب رقم واحد،
نتوقف عن تحقيق التقدُّم في بناء الآليات
الذكية.
معدات حاسوبنا وبرمجياته تتوقف عن التحسن
لسببٍ ما وحسب.
خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك.

Portuguese: 
Se eu quisesse te convencer nessa palestra
de que a fome mundial é provável,
por causa do aquecimento global
ou qualquer outra catástrofe,
e de que seus netos
e os netos dos seus netos
provavelmente viverão assim,
você não pensaria:
"Interessante.
Gostei dessa Palestra TED."
Fome não é divertido.
Morte por ficção científica, 
por outro lado, é divertida,
e uma das coisas que mais me preocupa
no desenvolvimento de IA nesse ponto
é que somos incapazes de organizar
uma resposta emocional apropriada
para os perigos que estão à frente.
Eu sou incapaz de ordenar essa resposta,
e estou dando esta palestra.
É como se estivéssemos 
diante de duas portas.
Na porta de número 1,
paramos de progredir na área de IA.
Nossos softwares e hardwares param
de melhorar por algum motivo.
Pare um pouco para refletir
por que isso pode acontecer.

Italian: 
Se in questa conferenza
vi dovessi convincere
che è molto probabile che si verifichi
una carestia globale,
o per i cambiamenti climatici
o per altre catastrofi,
e che i vostri nipoti, o i loro nipoti,
vivranno in queste condizioni,
non pensereste:
"Interessante.
Bello questo TED Talk."
La carestia non è divertente.
Una morte fantascientifica,
d'altro canto, è divertente,
e una delle cose che mi preoccupano di più
dello sviluppo dell'AI
è che non sembriamo in grado
di organizzare la giusta risposta emotiva
rispetto al pericolo che corriamo.
Nemmeno io ne sono in grado,
e sto facendo questo intervento.
È come se ci trovassimo
davanti a due porte.
Dietro la prima c'è questo:
smettiamo di fare progressi
nel costruire macchine intelligenti.
Per qualche motivo gli hardware e software
dei nostri computer non migliorano più.
Pensate un attimo per quale motivo
potrebbe succedere.

Slovak: 
Ak by som vás teraz presvedčoval,
že ľudstvo pravdepodobne 
zasiahne globálny hladomor,
buď kvôli klimatickým zmenám,
alebo z dôvodu inej katastrofy,
a že vaše vnúčatá a ich vnúčatá
budú pravdepodobne žiť takto,
určite si nepomyslíte,
"Zaujímavé.
To je pekná prednáška."
Hladomor nie je zábava.
Na druhú stranu, smrť v sci-fi zábavná je,
jedna z vecí, ktorá ma na vývoji umelej 
inteligencie trápi najviac, je, že nie sme
schopní primerane emocionálne reagovať
na nebezpečie, ktoré leží pred nami.
Ja sám nie som toho schopný 
a sám o tom teraz prednášam.
Pomyslite si, že stojíme
pred dvoma dvermi.
Za dvermi číslo jedna
zastavíme vývoj a budovanie 
inteligentných strojov.
Počítačový software a hardware sa prosto
z nejakého dôvodu prestane vylepšovať.
Zastavme sa na chvíľu a premýšľajme,
prečo by toto mohlo nastať.

Chinese: 
假如我想在这个演讲中让你们相信，
我们因为气候变化或者其他灾难，
很可能会遭受全球性的饥荒，
同时，你们的子孙后辈
都可能在这样的饥荒中挣扎求生，
你们就不会觉得
“真有趣，
我喜欢这个TED演讲。”
因为饥荒一点都不有趣。
不过，科幻小说中的死亡
往往却引人入胜。
所以我现在最担心的一个问题是，
人们对人工智能的发展将带来的危险，
似乎还没有形成一个正确的认识。
我也同样如此，所以我想
在这个演讲中和大家一起探讨。
我们就像站在了两扇门前。
在第一扇门后面，
我们停下打造智能机器的脚步。
某些原因也使我们停止了
对电脑软件和硬件的升级。
现在让我们想一下为什么会这样。

Dutch: 
Als ik er jullie in deze talk 
van zou overtuigen
dat we wellicht op een wereldwijde 
hongersnood afstevenen,
door klimaatverandering 
of een andere ramp,
en dat jullie kleinkinderen
of hun kleinkinderen,
zeer waarschijnlijk 
zo'n leven zouden leiden,
zou je niet denken,
"Interessant.
Leuke TED Talk."
Hongersnood is niet leuk.
Daarentegen is doodgaan 
door sciencefiction wel leuk.
Eén van de dingen 
die me het meest zorgen baren
over de huidige ontwikkeling van AI
is dat we niet in staat lijken om 
de juiste emotionele reactie op te wekken
op de gevaren die op ons afkomen.
Ik voel deze reactie ook niet, 
en ik geef nog wel deze talk.
Het is alsof we ​​voor twee deuren staan.
Achter deur nummer één
houden we op met het maken 
van steeds intelligentere machines.
Onze computerhardware en -software
stopt gewoon met beter worden,
om wat voor reden dan ook.
Denk er even over na 
waarom dit zou kunnen gebeuren.

iw: 
אם הייתי צריך לשכנע אתכם בשיחה הזו
שאנחנו צפויים לסבול מרעב עולמי,
בגלל שינויי אקלים או קטסטרופה אחרת,
ושסביר מאוד שהנכדים שלכם, 
או הנכדים שלהם, יחיו כך
לא הייתם חושבים,
"מעניין.
"אני אוהב את ההרצאה הזו."
רעב זה לא כיף.
מוות באמצעות מדע בדיוני,
לעומת זאת, הוא כיף.
ואחד הדברים שהכי מדאיגים אותי
בנוגע להתפתחות של בינה מלאכותית כיום,
הוא שאנחנו לא מסוגלים לגייס
את התגובה הרגשית המתאימה
לסכנות שצפויות לנו.
אני לא מסוגל לגייס את התגובה הזו,
ואני מעביר את ההרצאה הזו.
זה כאילו שאנחנו ניצבים בפני שתי דלתות.
מאחורי דלת מספר אחת,
אנחנו מפסיקים להתקדם
בבניית מכונות אינטליגנטיות.
חומרות ותוכנות המחשב שלנו
מפסיקות להשתפר מסיבה כלשהי.
עכשיו קחו לעצמכם רגע
לשקול מדוע זה יכול לקרות.

Chinese: 
如果我喺呢場演講度話畀你哋聽
因為氣候變化或者大災難嘅原因
我哋會遭遇一場饑荒
而你嘅孫，或者佢哋嘅孫
會好似咁樣生活
你就唔會覺得
「好有趣，我鍾意呢場 TED 演講。」
饑荒一啲都唔有趣
但科幻小說描繪嘅死亡就好有趣
呢一刻，人工智能發展
最令我最困擾嘅係
我哋面對近在眼前嘅危險似乎無動於衷
雖然我喺你哋面前演講
但我同你哋一樣都係冇反應
成件事就好似我哋企喺兩道門前面
喺一號門後面，我哋唔再發展智能機器
因為某啲原因
我哋電腦嘅硬件同軟件都停滯不前
依家嚟諗一下點解呢種情況會發生

Serbian: 
Kad bih vas u ovom govoru ubedio
da ćemo vrlo verovatno
globalno gladovati,
bilo zbog klimatskih promena
ili neke druge katastrofe,
i da će vaši unuci, ili njihovi unuci,
vrlo verovatno živeti ovako,
ne biste mislili:
"Zanimljivo.
Dobar ovaj TED Talk."
Glad nije zabavna.
Smrt u naučnoj fantastici, 
sa druge strane, jeste zabavna,
i nešto što me najviše brine
u ovom trenutku u vezi sa razvojem VI
je što izgleda da ne možemo da pružimo
odgovarajući emocionalni odgovor
na opasnosti koje dolaze.
Ni ja ne mogu da pružim ovaj odgovor,
a držim ovaj govor.
To je kao da stojimo ispred dvoja vrata.
Iza vrata broj jedan,
zaustavljamo napredak
u pravljenju inteligentnih mašina.
Kompjuterski hardver i softver prosto
prestaju da budu bolji iz nekog razloga.
Sada na trenutak razmislite
zašto bi se ovo moglo desiti.

Chinese: 
如果我是打算在這個裡演講說服你，
我們很可能會遭受全球性的飢荒，
無論是因為氣候變遷或某種大災難，
而你的孫子們或者孫子的孫子們
非常可能要這樣生活，
你不會覺得：
「有意思，
我喜歡這個 TED 演講。」
飢荒並不有趣。
另一方面來說，
科幻式的死亡，是有趣的。
而現階段人工智能的發展
最讓我擔心的是，
我們似乎無法組織出
一個適當的情緒反應，
針對眼前的威脅。
我無法組織出這個回應，
可是我在這裡講這個。
就像我們站在兩扇門前面。
一號門後面，
我們停止發展製造有智能的機器。
我們的電腦硬體和軟體
就因故停止變得更好。
現在花一點時間想想
為什麼這會發生。

Korean: 
이 강연에서 여러분들에게
기후변화나 다른 재앙으로 인해
세계적 기근으로 고통받을 거라든지
여러분의 손자나 그들의 손자들이
이렇게 살게 될 거라고 설명하면
이런 생각은 안드시겠죠.
"재미있군.
이 강연 맘에 들어"라고요.
기근은 재미있는 일이 아닙니다.
그러나 공상과학에서 
벌어지는 죽음은 재미있죠.
지금 이 시점에서 인공지능
개발에 대해 가장 걱정되는 것은
앞으로 있을 위험에 대한 
적절한 감정적 반응을
못하는 것 같다는 겁니다.
저도 잘 못하면서 
이 강연을 하고 있습니다.
마치 두 개의 문 앞에 
서 있는 것과 같습니다.
1번 문으로 들어서면
인공지능 기계의 구축은
더이상 진보하지 않습니다.
컴퓨터 하드웨어와 소프트웨어가 
더 이상 발전하지 않습니다.
왜 그런 일이 일어날지 
한번 생각해보죠.

Romanian: 
Dacă v-aș convinge cu discursul meu
că ar fi probabil
să suferim o foamete globală,
fie din cauza schimbării climatice
ori a altei catastrofe,
și că nepoții voștri sau nepoții lor
foarte probabil vor trăi așa,
nu v-ați gândi:
„Interesant.
Îmi place discursul ăsta.”
Foametea nu e amuzantă.
Moartea cauzată de science-fiction,
pe de altă parte, e amuzantă,
iar ce mă îngrijorează cel mai mult
despre dezvoltarea IA în prezent
e că părem incapabili să avem
o reacție emoțională adecvată
pentru pericolului din fața noastră.
Eu nu pot avea un răspuns adecvat,
și țin acest discurs.
E ca și cum am avea două uși în față.
În spatele primei uși
încetăm să progresăm
în construirea mașinăriilor inteligente.
Software-ul și hardware-ul
nu se mai îmbunătățesc.
Acum gândiți-vă de ce s-ar întâmpla asta.

Czech: 
Kdybych vás teď přesvědčoval,
že lidstvo pravděpodobně
zasáhne globální hladomor,
buď kvůli klimatickým změnám
nebo kvůli jiné katastrofě,
a že vaše vnoučata
či jejich vnoučata
budou nejspíš žít takhle,
určitě si neřeknete:
„Zajímavé! To je ale hezká přednáška.“
Hladomor není legrace.
Na druhou stranu,
smrt ve sci-fi zábavná je.
Jednou z věcí, které se teď na vývoji
umělé inteligence nejvíc obávám,
je to, že zřejmě nejsme schopní
přiměřeně emocionálně reagovat
na nebezpečí ležící před námi.
Já sám toho nejsem schopný,
i když o tom právě přednáším.
Je to jako volit cestu na rozcestí.
Vstoupit prvními dveřmi znamená
zastavit rozvoj inteligentních strojů.
Počítačový software a hardware se prostě
z nějakého důvodu přestane rozvíjet.
Zastavme se chvilku nad tím,
kdy by taková situace mohla nastat.

Hungarian: 
Ha az előadással meg tudlak 
győzni benneteket,
hogy a globális éhínség várhatóan 
bekövetkezik majd,
klímaváltozás vagy 
más katasztrófa hatására,
és hogy az unokátokra, vagy az ő unokáikra
nagy valószínűséggel hasonló élet vár,
magatokban nem gondolnátok:
"Érdekes.
Tetszik ez a TED előadás."
Az éhínség nem vicc.
A tudományos-fantasztikum általi halál
ezzel ellentétben vicces,
de ami engem aggaszt leginkább,
a MI jelenlegi állapotát illetően,
hogy képtelenek vagyunk 
az előttünk álló veszélyekhez
megfelelő érzelmi reakciót párosítani.
Képtelen vagyok irányítani a reakciót,
pedig én tartom az előadást.
Olyan, mintha két ajtó előtt állnánk.
Az egyes számú ajtó mögött
leállunk az intelligens gépek 
fejlesztésével.
Valamilyen okból a hardverek és 
szoftverek fejlesztése leáll.
Egy percre kérlek, gondoljatok bele,
miért történne ilyesmi.

Chinese: 
我的意思是，人工智能
和自動化如此有價值，
我們會持續改善我們的科技，
只要我們有能力做。
有什麼東西能阻止我們這麼做呢？
一場全面性的核子戰爭？
一場全球性的流行病？
一次小行星撞擊地球？
小賈斯汀成為美國總統？
（笑聲）
重點是：必須有什麼東西
會毀滅我們所知的文明。
你必須想像到底能有多糟
才能阻止我們持續改善我們的科技，
永久地，
一代又一代人。
幾乎從定義上，這就是
人類歷史上發生過的最糟的事。
所以唯一的替代選項，
這是在二號門之後的東西，
是我們繼續改善我們的智能機器，
年復一年，年復一年。
到某個時間點，我們會造出
比我們還聰明的機器，

Portuguese: 
Ou seja, sendo a inteligência
e a automação tão valiosas,
vamos continuar a melhorar
a tecnologia, se formos capazes disso.
O que é que nos pode impedir de o fazer?
Uma guerra nuclear a larga escala?
Uma pandemia mundial?
O impacto de um asteroide?
Justin Bieber tornar-se
presidente dos EUA?
(Risos)
A questão é, algo teria de destruir
a civilização, tal como a conhecemos
Temos que imaginar
quão mau teria que ser
para nos impedir de fazer
melhoramentos na tecnologia
de forma permanente,
geração após geração.
Quase por definição,
isto é a pior coisa
que já aconteceu na história
da Humanidade.
Por isso, a única alternativa,
— e é o que está detrás da porta dois —
é que continuemos a melhorar
as nossas máquinas inteligentes
ano após ano após ano.
A certa altura, iremos construir
máquinas mais inteligentes que nós,

Czech: 
S ohledem na to, jakým jsou pro nás
inteligence a automatizace přínosem,
budeme technologie stále zlepšovat,
pokud toho vůbec budeme schopni.
Co by nás mohlo zastavit?
Celosvětová nukleární válka?
Globální pandemie?
Dopad asteroidu?
Justin Bieber prezidentem USA?
(smích)
Jde o to, že by naši současnou
civilizaci muselo něco zničit.
Představte si, 
co hrozného by se muselo stát,
abychom nebyli schopni dále
zdokonalovat naše technologie,
neustále, generaci za generací.
V podstatě je to ta nejhorší věc,
jaká by v dějinách mohla nastat.
Čili jedinou alternativou, tou,
která nás čeká za druhými dveřmi,
je postupně každým rokem
pokračovat ve zdokonalování
inteligentních strojů.
V určitém okamžiku vytvoříme stroje,
které budou chytřejší než my,

iw: 
בהתחשב בערך הרב של
אינטלגינציה ואוטומציה עבורנו,
אנחנו נמשיך לשפר את הטכנולוגיה,
אם נהיה מסוגלים לכך.
מה יכול לעצור אותנו מלעשות זאת?
מלחמה גרעינית כוללת?
מגיפה כלל-עולמית?
פגיעת אסטרואיד?
ג'סטין ביבר ממונה לנשיא ארה"ב?
(צחוק)
הנקודה היא, משהו יצטרך להשמיד
את הציוויליזציה המוכרת לנו.
אתם חייבים לדמיין כמה נורא זה צריך להיות
בכדי למנוע מאיתנו לבצע
שיפורים בטכנולוגיה שלנו
לתמיד.
דור אחרי דור.
כמעט בהגדרה, זהו הדבר הגרוע ביותר
שאי-פעם קרה בהיסטוריה האנושית.
אז האלטרנטיבה היחידה,
וזה מה שנמצא מאחורי דלת מספר שתיים,
היא שנמשיך לשפר
את המכונות האינטליגנטיות שלנו
שנה אחר שנה אחר שנה.
ובנקודה מסוימת, נבנה מכונות 
שהן חכמות יותר מאיתנו,

Persian: 
منظورم این است که با فرض به دانستن این که
هوش و ماشینی شدن چقدر با ارزشند،
ما به بهبود فناوری خود ادمه خواهیم داد اگر
امکانش باشد.
چه چیزی قادر است سد راهمان شود؟
یک جنگ هسته‌ای تمام عیار؟
یک بیماری فراگیر جهانی؟
اصابت یک اخترواره؟
جاستین بیبر رییس جمهور آمریکا شود؟
(خنده)
نکته این است که باید چیزی باشد که 
تمدن را نابود کند.
باید تصور کنید چقدر بد باید باشد
تا برای همیشه مانع ما در انجام اصلاحات 
در این فناوری
گردد،
در همه نسلها.
تقریبا طبق تعریف
این بدترین چیزی است
که تابحال در تاریخ بشر اتفاق افتاده.
بنابراین تنها جایگزین
که خب پشت درب شماره دو خوابیده
این است که به بهسازی ماشینهای 
هوشمند هر سالی که بگذرد
ادامه دهیم.
در یک نقطه خاص، ماشینهایی را خواهیم است 
که از ما باهوش‌تر هستند،

French: 
et de l'automatisation
nous allons continuer à améliorer 
notre technologie si nous le pouvons.
Qu'est-ce qui nous en empêcherait ?
Une guerre nucléaire mondiale ?
Une pandémie globale ?
Un impact d'astéroïde ?
Justin Bieber président des États-Unis ?
(Rires)
Il faudrait que la civilisation 
telle que nous la connaissons
soit détruite.
Il faudrait vraiment imaginer 
quelque chose de terrible
pour que nous arrêtions 
de développer notre technologie
totalement,
génération après génération.
Par définition, 
ce serait la pire chose
qui serait jamais arrivée à l'humanité.
Donc la seule alternative,
et c'est ce qui se trouve 
derrière la porte n°2,
est que nous continuions
d'améliorer l'intelligence de nos machines
année après année.
À un moment, nous allons construire
des machines plus intelligentes que nous,

Catalan: 
Vull dir, ja que la intel·ligència
i la automatització són tan valuoses,
seguirem millorant la tecnologia
sempre que siguem sent capaços.
Què podria impedir-nos-ho?
Potser una guerra nuclear mundial?
O una gran epidèmia?
L'impacte d'un asteroide?
Justin Bieber com
president dels Estats Units?
(Riures)
Alguna cosa hauria de destruir
la civilització tal i com la coneixem.
Imagineu-vos com de greu hauria de ser
per impedir-nos seguir
millorant la tecnologia
de forma permanent,
generació rera generació.
Quasi per definició,
es tracta del pitjor
que podria arribar a patir la humanitat.
Però l'única alternativa,
que es troba darrera la porta número dos,
és seguir millorant
la intel·ligència de les màquines
any rere any.
En algun moment, construirem màquines
més intel·ligents que nosaltres,

Dutch: 
Omdat intelligentie en automatisering 
zo waardevol zijn,
zullen we doorgaan met onze technologie 
te verbeteren als we enigszins kunnen.
Wat kan ons tegenhouden?
Een mondiale nucleaire oorlog?
Een wereldwijde pandemie?
Een asteroïde-inslag?
Justin Bieber president 
van de Verenigde Staten?
(Gelach)
Het gaat om iets dat onze huidige 
beschaving zou moeten vernietigen.
Je moet je voorstellen 
hoe erg het zou moeten zijn
om ons tegen te houden
onze technologie te verbeteren,
blijvend,
generatie na generatie.
Bijna per definitie is dit het ergste
dat ooit gebeurd is
in de menselijke geschiedenis.
Het enige alternatief
is wat er achter deur nummer twee ligt,
namelijk dat we doorgaan 
met onze intelligente machines
jaar na jaar na jaar te verbeteren.
Op een bepaald moment zullen we 
machines bouwen die slimmer zijn dan wij,

Japanese: 
自動化やインテリジェント化によって
得られる価値を考えれば
人間は可能な限り
テクノロジーを進歩させ続けるはずです
それが止まるとしたら
理由は何でしょう？
全面核戦争とか
世界的な疫病の大流行とか
小惑星の衝突とか
ジャスティン・ビーバーの
大統領就任とか
(笑)
要は 何かで現在の文明が
崩壊する必要があるということです
それがどんなに ひどい事態であるはずか
考えてみてください
技術の進歩を
幾世代にもわたり
半永久的に妨げるようなことです
ほぼ間違いなく
人類史上
最悪の出来事でしょう
もう１つの選択肢
２番目の扉の
向こうにあるのは
知的な機械の進歩が
ずっと続いていく未来です
するとどこかの時点で 人間よりも
知的な機械を作ることになるでしょう

Serbian: 
Mislim, s obzirom koliku vrednost
imaju inteligencija i automatizacija,
nastavićemo da unapređujemo tehnologiju
ako smo uopšte kadri za to.
Šta bi nas moglo sprečiti u tome?
Svetski nuklearni rat?
Globalna pandemija?
Pad asteroida?
Ako Džastin Biber postane
predsednik Amerike?
(Smeh)
Poenta je u tome, da bi nešto moralo
da uništi civilizaciju ovakvu kakva je.
Morate zamisliti kako
bi zaista loše moralo biti to
što bi nas trajno sprečilo
da unapređujemo,
tehnologiju,
generaciju za generacijom.
Skoro po definiciji, ovo je najgora stvar
koja se ikada desila u ljudskoj istoriji.
Pa je jedina alternativa,
a ovo se nalazi iza vrata broj dva,
da nastavimo da unapređujemo
naše inteligentne mašine
bez prestanka.
U jednom trenutku, napravićemo
mašine koje su pametnije od nas,

Russian: 
Ведь учитывая, насколько ценны
интеллект и автоматизация,
мы продолжим совершенствовать
технологии, пока способны на это.
Что может нас остановить?
Полномасштабная ядерная война?
Глобальная пандемия?
Падение астероида?
Избрание Джастина Бибера президентом США?
(Смех)
Суть в том, что что-то должно будет
уничтожить цивилизацию в нашем понимании.
Только представьте себе,
насколько всё должно быть плохо,
чтобы мы перестали
совершенствовать технологии
навсегда,
на все грядущие поколения.
Практически по определению
это худшее,
что может случиться с человечеством.
Единственная альтернатива,
которая и находится за второй дверью, —
продолжение совершенствования
интеллектуальных устройств
из года в год.
В какой-то момент мы создадим
устройства, которые будут умнее нас,

Modern Greek (1453-): 
Εννοώ ότι, δεδομένης της μεγάλης αξίας
της ευφυίας και των αυτοματισμών,
εφόσον μπορούμε, θα συνεχίσουμε
να βελτιώνουμε την τεχνολογία μας.
Τι μπορεί να μας αποτρέψει;
Ένας πυρηνικός πόλεμος πλήρους κλίμακας;
Μια παγκόσμια πανδημία;
Μια σύγκρουση με αστεροειδή;
Να γίνει ο Τζάστιν Μπίμπερ
πρόεδρος των ΗΠΑ;
(Γέλια)
Το θέμα είναι ότι κάτι θα πρέπει
να καταστρέψει τον σύγχρονο πολιτισμό.
Θα πρέπει να φανταστείτε
πόσο οδυνηρό πρέπει να είναι
για να μας αποτρέψει
από το να βελτιώσουμε την τεχνολογία μας
σε μόνιμη βάση,
στις επόμενες γενεές.
Αυτό είναι σχεδόν εξ ορισμού
ό,τι χειρότερο έχει ποτέ συμβεί
στην ανθρώπινη ιστορία.
Έτσι η μόνη εναλλακτική
-κι αυτή βρίσκεται
πίσω από τη δεύτερη πόρτα-
είναι να συνεχίσουμε να βελτιώνουμε
τις έξυπνες μηχανές μας
χρόνο με τον χρόνο.
Σε κάποιο σημείο, θα φτιάξουμε μηχανές
που θα είναι πιο έξυπνες από εμάς,

Ukrainian: 
Знаючи, якими цінними є
інтелект та автоматизація,
ми продовжимо удосконалювати
наші технології, якщо матимемо можливість.
Що нас може зупинити від цього?
Широкомасштабна ядерна війна?
Глобальна пандемія?
Падіння астероїду?
Джастін Бібер, що став 
президентом Сполучених Штатів?
(Сміх)
Суть у тому, що щось має знищити 
цивілізацію у знайомому нас вигляді.
Уявіть собі, яке страхіття має статися,
щоб завадити нам удосконалювати
наші технології
постійно,
покоління за поколінням.
Майже за визначенням,
це найгірше,
що траплялося в історії людства.
Тому єдиною альтернативою,
а саме вона знаходиться
за дверима номер два,
є подальше удосконалення 
розумних машин
рік за роком, рік за роком.
Та в певний момент ми збудуємо
машини, розумніші за нас,

Croatian: 
MIslim, uzevši kako su vrijedne
inteligencija i automatizacija,
nastavit ćemo unaprijeđivati tehnologiju
ako smo to ikako sposobni.
Što bi nas moglo zaustaviti u tome?
Potpuni nuklearni rat?
Globalna pandemija?
Udar asteroida?
Da Justin Bieber postane
predsjednik Sjedinjenih država?
(Smijeh)
Poanta je, nešto bi moralo
uništiti civilizaciju kakvu znamo.
Morate zamisliti
kako bi loše to moralo biti
da nas spriječi od pravljenja
poboljšanja u našoj tehnologiji
trajno,
generaciju za generacijom.
Skoro po definiciji,
to je najgora stvar
koja se ikad dogodila u ljudskoj povijesti.
Dakle jedina alternativa,
a to je ono što leži
iza vrata broj dva,
je da nastavimo poboljšavati
naše inteligentne strojeve
godinu za godinom za godinom.
U nekom trenutku, sagradit ćemo
strojeve koji su pametniji od nas,

Turkish: 
değerli olduğu göz önüne alındığında,
yapabilirsek, teknolojimizi geliştirmeye
devam edeceğiz.
Bunu yapmamızı ne engelleyebilir?
Büyük çaplı bir nükleer savaş mı?
Küresel bir salgın mı?
Asteroit çarpması mı?
Justin Bieber'in Amerika Başkanı 
olması mı?
(Kahkahalar)
Mesele şu ki, bildiğimiz üzere
bir şeyler medeniyeti yok etmeli.
Ne kadar kötü
olabileceğini hayal etmelisiniz,
teknolojimizde iyileştirme 
yapmamızı engellemenin,
daimi olarak,
nesilden nesile.
Neredeyse, doğası gereği
bu, insan tarihinde gerçekleşen
en kötü şey.
Bu yüzden tek alternatif,
ikinci kapının ardındaki,
akıllı makinelerimizi yıllar geçtikçe
geliştirmeye devam etmemiz.
Bir noktada da bizden daha 
akıllı makineler inşa edeceğiz

Swedish: 
Jag menar, givet värdet av
intelligens och automation,
kommer vi fortsätta utveckla
tekniken, om vi kan.
Vad skulle kunna stoppa oss?
Ett fullskaligt kärnvapenkrig?
En global pandemi?
Ett asteroidnedslag?
Justin Bieber blir USAs president?
(Skratt)
Poängen är att, något måste förgöra
civilisationen så som vi känner den.
Ni måste föreställa er
hur illa det måste vara
för att hindra oss att göra
framsteg inom tekniken
permanent,
generation efter generation.
Nästan per definition, är detta det värsta
som någonsin inträffat genom historien.
Så det enda alternativet,
är det som finns bakom den andra dörren,
att vi fortsätter att utveckla
våra intelligenta maskiner
år efter år efter år.
Vid en viss punkt, kommer vi att bygga
maskiner som är smartare än vi,

Hungarian: 
Tudván, mekkora érték rejlik
az intelligenciában és automatizálásban,
ha mód van rá, folytatni fogjuk 
a technológiai fejlesztéseket.
Mi állhatna az utunkba?
Egy mindent elsöprő nukleáris háború?
Egy globális járvány?
Egy aszteroida becsapódása?
Justin Biebert megválasztják elnöknek?
(Nevetés)
Bármi legyen is, az általunk ismert 
civilizációt kellene megsemmisítse.
Képzeld el, mennyire borzasztónak
kellene lennie ahhoz,
hogy leálljunk a technológiai 
fejlesztésekkel,
egyik nemzedék a másik után,
mindörökre.
Fogalmazhatnánk úgy is, 
hogy ez a legrosszabb,
ami valaha történhet
az emberiség történelmében.
Így az egyetlen alternatíva,
és ez rejlik a kettes számú ajtó mögött,
hogy folytatjuk 
az intelligens gépek fejlesztését,
egyik évről a másikra.
És elérkezünk a ponthoz, amikor nálunk 
okosabb gépeket hozunk létre.

Spanish: 
Dada la valía de la inteligencia
y la automatización,
seguiremos mejorando
nuestra tecnología si es posible.
¿Qué podría impedirnos hacer eso?
¿Una guerra nuclear a gran escala?
¿Una pandemia mundial?
¿El impacto de un asteroide?
¿El hecho que Justin Bieber
podría ser el presidente de los EE.UU.?
(Risas)
El caso es que algo tendría que destruir
la civilización tal como la conocemos.
Realmente deberíamos
imaginar algo terrible
para dejar de
desarrollar nuestra tecnología
para siempre,
generación tras generación.
Casi por definición, sería lo peor
en la historia humana.
La única alternativa,
y esto es lo que hay detrás
de la puerta número dos,
es seguir mejorando
nuestras máquinas inteligentes
año tras año tras año.
En algún momento construiremos
máquinas más inteligentes que nosotros,

Chinese: 
即係話，因為智能同自動化好重要
所以我哋會喺許可嘅情況之下
繼續改善科技
咁究竟係乜嘢會阻止我哋？
一個全面嘅核戰爭？
一個全球流行病？
一個小行星撞擊？
Justin Bieber 做咗美國總統？
（笑聲）
之但係，如我哋所知
有一啲嘢會摧毀文明
你必須要想像
如果我哋一代又一代人
永遠改善唔到科技
情況會有幾嚴重
幾乎可以確定嘅係
呢個係人類史上最壞嘅事
所以唯一嘅選擇
就係二號門後嘅做法
我哋繼續年復一年升級改造智能機器
到咗某個地步
我哋就會整出比我哋仲要聰明嘅機器

Arabic: 
أعني، بافتراض مدى نفع الذكاء والأتمتة،
فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا
إذا كان بإمكاننا أصلاً.
ما الذي قد يمنعنا من فعل هذا؟
حربٌ نووية على جميع المقاييس؟
وباء عالمي؟
اصطدام كويكب؟
أن يصبح جاستن بيبر رئيساً
للولايات المتحدة؟
(ضحك)
الخلاصة هي، شيءٌ ما عليه تدمير
الحضارة كما نعرفها.
عليكم تخيُّل كم عليه أن يكون سيئاً
لكي يمنعنا من تحقيق تحسينات في
التكنولوجيا الخاصة بنا
بشكل دائم،
جيلاً بعد جيل.
تقريباً بالتعريف، هذا أسوأ شيء
يمكن أن يحصل في تاريخ البشرية.
لذا البديل الوحيد،
وهو الذي يوجد خلف الباب رقم اثنين،
هو أن نستمر بتحسين آلاتنا الذكية
سنة بعد سنة بعد سنة.
وعند نقطة معينة، سنبني آلياتٍ أذكى
مما نحن عليه،

Vietnamese: 
Ý tôi là, dựa vào giá trị của
trí thông minh và sự tự động hóa,
chúng ta vẫn sẽ tiếp tục cải tiến
công nghệ nếu ta hoàn toàn có thể.
Điều gì có thể khiến chúng ta
dừng làm việc này?
Một cuộc chiến hạt nhân quy mô lớn?
Một đại dịch toàn cầu?
Va chạm thiên thạch?
Hay Justin Bieber trở thành tổng thống Mỹ?
(Cười)
Vấn đề là, thứ gì đó sẽ phải hủy diệt
nền văn minh như chúng ta đã biết.
Bạn phải tưởng tượng nó
sẽ phải tồi tệ như thế nào
để ngăn chúng ta tiếp tục
cải tiến công nghệ
vĩnh viễn,
thế hệ này qua thế hệ khác.
Gần như theo định nghĩa,
đây là thứ tồi tệ nhất
xảy ra trong lịch sử nhân loại.
Vậy nên lựa chọn duy nhất,
và nó nằm sau cánh cửa số hai,
đó là chúng ta tiếp tục cải tiến
các máy móc thông minh
năm này qua năm khác.
Tới một thời điểm nhất định, chúng ta sẽ
tạo ra những cỗ máy thông minh hơn mình,

Romanian: 
Știind cât de importante sunt
inteligența și automatizarea,
vom continua să îmbunătățim
tehnologia cât putem.
Ce ne-ar opri să facem asta?
Un război nuclear la scară mare?
O pandemie globală?
Un impact cu un asteroid?
Justin Bieber devenind președintele SUA?
(Râsete)
Ideea e că ceva ar trebui să distrugă
civilizația pe care o știm noi.
Imaginați-vă cât de rău ar trebui să fie
încât să ne împiedice să mai facem
îmbunătățiri în tehnologie
permanent,
generație după generație.
Aproape prin definiție,
ăsta e cel mai rău lucru
care s-a întâmplat în istoria umană.
Deci singura alternativă,
și asta e după a doua ușă,
e să îmbunătățim în continuare
mașinăriile inteligente
an după an după an.
La un moment dat, vom construi
mașinării mai inteligente decât noi

English: 
I mean, given how valuable
intelligence and automation are,
we will continue to improve our technology
if we are at all able to.
What could stop us from doing this?
A full-scale nuclear war?
A global pandemic?
An asteroid impact?
Justin Bieber becoming
president of the United States?
(Laughter)
The point is, something would have to
destroy civilization as we know it.
You have to imagine
how bad it would have to be
to prevent us from making
improvements in our technology
permanently,
generation after generation.
Almost by definition,
this is the worst thing
that's ever happened in human history.
So the only alternative,
and this is what lies
behind door number two,
is that we continue
to improve our intelligent machines
year after year after year.
At a certain point, we will build
machines that are smarter than we are,

Slovak: 
S ohľadom nato, akým prínosom 
inteligencia a automatizácia pre nás je,
budeme technológie stále zlepšovať,
pokiaľ toho budeme vôbec schopní.
Čo by nás mohlo v tomto zastaviť?
Celosvetová nukleárna vojna?
Globálna pandémia?
Dopad asteroidu?
Justin Bieber prezidentom USA?
(smiech)
Ide o to, že by našu súčasnú civilizáciu,
tak ako ju poznáme, muselo niečo zničiť.
Predstavte si, ako zlé
by to muselo byť,
aby sme neboli schopní ďalej
vylepšovať naše technológie,
neustále,
generáciu za generáciou.
V zásade je to tá najhoršia vec,
aká by mohla v ľudských dejinách nastať.
Takže jedinou alternatívou,
ktorá je za dvermi číslo dva,
je pokračovať v zdokonaľovaní
našich inteligentných strojov,
postupne rok za rokom.
A v určitom okamžiku postavíme stroje,
ktoré budú chytrejšie než my sami,

Chinese: 
我的意思是，当我们认识到
智能和自动化不可估量的价值时，
我们总会竭尽所能的改善这些科技。
那么，什么会使我们停下脚步呢？
一场大规模的核战争？
一次全球性的瘟疫？
一个小行星撞击了地球？
或者是贾斯汀·比伯成为了美国总统？
（笑声）
重点是，总有一个事物
会摧毁人类现有的文明。
你需要思考这个灾难究竟有多恐怖，
才会永久性地阻止我们
发展科技，
永久性的。
光想想它，
就觉得这将是人类历史上
能发生的最惨绝人寰的事了。
那么，我们唯一剩下的选择，
就藏在第二扇门的后面，
那就是我们持续
改进我们的智能机器，
永不停歇。
在将来的某一天，我们会
造出比我们更聪明的机器，

Georgian: 
იმის გათვალისწინებით, თუ რა ფასეულია
მანქანური ინტელექტი და ავტომატიზაცია,
ჩვენ აუცილებლად განვაგრძობთ
ტექნოლოგიურ წინსვლას, თუ შეგვეძლება.
რამ შეიძლება ეს შეაჩეროს?
სრულმასშტაბიანმა ბირთვულმა ომმა?
გლობალურმა პანდემიამ?
ასტეროიდის დაჯახებამ?
ჯასტინ ბიბერის პრეზიდენტობამ?
(სიცილი)
მოკლედ, რაღაც ისეთი უნდა იყოს,
რაც არსებულ ცივილიზაციას დაანგრევს.
წარმოიდგინეთ, რა ცუდი რამ უნდა იყოს,
რომ ტექნოლოგიური პროგრესი შეაჩეროს
სამუდამოდ,
თაობიდან თაობამდე.
განმარტებიდან გამომდინარე,
ეს ყველაზე უარესი რამეა,
რაც კი ოდესმე მომხდარა
კაცობრიობის ისტორიაში.
ამის ერთადერთი ალტერნატივა,
რომელიც მეორე კარს მიღმაა,
არის რეალობა,
რომლის მიხედვით ჩვენ ვაგძელებთ
გონიერი მანქანების გაუმჯობესებას
წლიდან წლამდე.
რაღაც მომენტში, ჩვენ შევქმნით მანქანებს,
რომლებიც ჩვენზე ჭკვიანები იქნებიან

Portuguese: 
Dado que automação
e inteligência são valiosos,
continuaremos a melhorar
nossa tecnologia, se isso for possível.
O que poderia nos impedir de fazer isso?
Uma guerra nuclear em grande escala?
Uma pandemia global?
A colisão de um asteroide?
Justin Bieber como presidente
dos Estado Unidos?
(Risadas)
A questão é que algo teria que destruir
a civilização que nós conhecemos.
Você precisa imaginar 
o quão ruim teria que ser
para impedir os avanços
da nossa tecnologia
permanentemente,
geração após geração.
Quase que por definição,
essa é a pior coisa
que já aconteceu na história humana.
A única alternativa,
e é o que está atrás
da porta de número 2,
é que continuemos a aprimorar
nossas máquinas inteligentes,
ano após ano.
Em algum ponto, construiremos máquinas
mais inteligentes que nós,

Thai: 
ผมหมายความว่า ด้วยคุณค่าของ
ความฉลาดและความเป็นอัตโนมัตินั้น
เราจะยังคงพัฒนาเทคโนโลยีของเราต่อไป
หากเรายังสามารถทำได้
อะไรล่ะจะหยุดเราไม่ไห้ทำสิ่งนี้
สงครามนิวเคลียร์เต็มรูปแบบหรือ
โรคที่ระบาดไปทั่วโลกหรือ
ดาวเคราะห์น้อยมาชนโลกหรือ
จัสติน บีเบอร์ 
มาเป็นประธานาธิบดีของสหรัฐหรือ
(เสียงหัวเราะ)
ประเด็นก็คือ บางสิ่งบางอย่างจะต้อง
มาทำลายอารยธรรมที่เรารู้จัก
คุณจะต้องจินตนาการเองว่า
มันจะแย่ขนาดไหน
ที่จะมากีดกันเราจากการ
ปรับปรุงเทคโนโลยีของเราให้ดีขึ้น
อย่างถาวร
ที่เกิดขึ้นยุคแล้วยุคเล่า
เกือบจะเรียกได้ว่า
นี่คือสิ่งเลวร้ายที่สุด
ที่ได้เคยเกิดขึ้น
ในประวัติศาสตร์มนุษยชาติ
ฉะนั้นตัวเลือกเดียวที่เหลือ
และนั่นคือสิ่งที่อยู่ด้านหลัง
ประตูหมายเลขสอง
ก็คือ เรายังคงปรับปรุงจักรกลที่ฉลาด
ของเรานี้ให้ดีขึ้นต่อไป
ปีแล้วปีเล่า
จนเมื่อถึงจุดหนึ่ง
เราก็จะสร้างจักรกลที่ฉลาดกว่าเรา

Italian: 
Insomma, visto quanto sono importanti
l'intelligenza e l'automazione,
continueremo a migliorare
la nostra tecnologia, se possiamo.
Cosa potrebbe impedircelo?
Una guerra atomica su scala mondiale?
Una pandemia globale?
L'impatto di un asteroide?
Justin Bieber che diventa
il primo presidente degli USA?
(Risate)
Qualcosa dovrebbe distruggere
la nostra civiltà, per come la conosciamo.
Dovete immaginare quanto
dovrebbe essere catastrofico
per farci smettere di sviluppare
la nostra tecnologia,
per sempre,
generazione dopo generazione.
Sarebbe per definizione la cosa peggiore
mai successa nella storia dell'uomo.
Perciò l'unica alternativa,
ovvero ciò che c'è
dietro la seconda porta,
è che continueremo a sviluppare
l'intelligenza artificiale,
anno dopo anno.
Arriverà un momento in cui costruiremo
macchine più intelligenti di noi,

Korean: 
인공지능과 자동화가 
얼마나 가치있는지 안다면
할 수 있는 한 계속해서 
기술을 향상시키려 하겠죠.
그걸 멈춘다면 이유가 뭘까요?
전면적 핵 전쟁일까요?
세계적 전염병 재앙일까요?
소행성 충돌일까요?
저스틴 비버가 미국 대통령이
된다면 이유가 될까요?
(웃음)
핵심은 뭔가가 우리가 아는 
문명을 파괴한다는 겁니다.
이게 얼마나 나쁠지 
생각해 봐야 합니다.
우리의 기술향상을 막을 정도로 말이죠.
영원히
앞으로 계속이요.
말 그대로 그것은 
인류 사상 최악의 일입니다.
그래서 유일한 대안은
2번 문 뒤에 있는데
인공지능을 계속 발전시키는 겁니다.
앞으로 수년 동안 계속이요.
언젠가는 우리보다 
똑똑한 기계를 만들겠죠.

Spanish: 
y una vez que las tengamos
empezarán a mejorarse a sí mismas.
Y entonces corremos el riesgo
teorizado por el matemático IJ Good
llamado "explosión de inteligencia"
donde el proceso podría
salirse de control.
Esto es a menudo caricaturizado,
como lo he hecho aquí,
como el miedo a que nos ataquen
ejércitos de robots maliciosos.
Pero ese no es
el escenario más probable.
No es que nuestras máquinas
se volverán malignas espontáneamente.
La preocupación verdadera
al construir máquinas mucho
más competentes que nosotros
es que la menor diferencia
entre sus objetivos y los nuestros
nos podría destruir.
Basta con pensar en nuestra
relación con las hormigas.
No las odiamos.
No vamos por la vida lastimándolas.
De hecho, a veces nos tomamos
la molestia de no hacerles daño.
Evitamos pisarlas en la acera.
Pero cada vez que su presencia
entra seriamente en conflicto
con alguno de nuestros objetivos,
digamos, en la construcción
de un edificio como este,
las aniquilamos sin escrúpulos.
La preocupación es que algún día
construyamos máquinas

Chinese: 
一旦我哋有咗比我哋自己
仲聰明嘅機器
佢哋就會自我改良
到時我哋就會面臨數學家 IJ Good 
講嘅「智能爆炸」危機
即係話，改良過程唔再需要人類
依家，經常會有人學呢張諷刺漫畫咁
描繪叛變嘅機器人會攻擊我哋
但係呢個唔係最有可能發生嘅情景
我哋嘅機器唔會自動變惡
所以問題在於我哋製造出
比我哋更加做到嘢嘅機器嘅時候
佢哋目標上同我哋嘅細微分歧
會置我哋於死地
就諗下我哋同螞蟻之間嘅關係︰
我哋唔討厭佢哋
我哋唔會傷害佢哋
甚至我哋為咗唔傷害佢哋
而會受一啲苦
例如我哋會為咗唔踩到佢哋
而跨過佢哋
但係一旦佢哋嘅存在
同我哋嘅其中一個目標有嚴重衝突
譬如話要起一棟咁樣嘅樓
我哋諗都唔諗就殺死佢哋
問題係，我哋終有一日整出嘅機器——

Czech: 
a až budeme mít stroje,
které budou chytřejší,
začnou se zdokonalovat samy.
A potom nám hrozí situace,
kterou matematik I. J. Good nazval
„inteligenční explozí“,
tedy, že by se nám to
mohlo vymknout z rukou.
Jak vidíte třeba tady,
toto téma se často zpodobňuje
jako obava z armád zlovolných robotů,
kteří na nás zaútočí.
Ale to není moc pravděpodobný scénář.
Není to tak, že by stroje
najednou začaly být zlé.
Problém je v tom, že vytvoříme stroje,
které budou o tolik schopnější než my,
že i ta nejjemnější odchylka mezi
jejich a našimi cíli by nás mohla zničit.
Vezměte si, jak se chováme k mravencům.
Nic proti nim nemáme.
Nechceme jim cíleně ubližovat.
Necháme se i poštípat,
abychom jim neublížili.
Na chodníku je překračujeme.
Ale kdykoliv jejich přítomnost
vážně narušuje naše zájmy,
například při stavbě budov, jako je tahle,
bez mrknutí oka je zlikvidujeme.
Panuje obava, že jednou vytvoříme stroje,

Slovak: 
a keď budeme mať stroje, ktoré
budú chytrejšie od nás,
tak sa začnú zdokonaľovať samy.
A v tom okamihu hrozí situácia,
ktorú matematik I.J.Good
nazval "inteligenčná explózia,"
a vtedy by sa to mohlo vymknúť z rúk.
Ako vidíte napríklad tu,
táto téma sa často karikuje,
ako obava z armád zlých robotov,
ktoré na nás zaútočia.
Ale toto nie je 
najpravdepodobnejší scenár.
Nie je to tak,
že by stroje zrazu začali byť zlé.
Problém je v tom, že vytvoríme stroje,
ktoré budú oveľa schopnejšie než sme my,
takže aj tá najjemnejšia odchýlka
medzi ich a našimi cieľmi,
by nás mohla zničiť.
Zamyslite sa, ako sa 
chováme k mravcom.
Nemáme nič proti nim.
Neubližujeme im cielene.
Dokonca občas znesieme bolesť
a neubližujeme im.
Prekračujeme ich na chodníku.
Ale kedykoľvek je ich prítomnosť
vo vážnom konflikte s našimi cieľmi,
povedzme, keď staviame budovu ako táto,
tak ich bez mihnutia oka zničíme.
Obávam sa, že jedného dňa
vytvoríme stroje,

Vietnamese: 
và một khi chúng ta sở hữu
các cỗ máy thông minh hơn mình,
chúng sẽ bắt đầu tự cải tiến.
Sau đó, chúng ta mạo hiểm với thứ
mà nhà toán học Ij Good gọi là
sự "bùng nổ trí tuệ"
và quá trình đó có thể sẽ
tiến xa ra khỏi chúng ta.
Và giờ, điều này thường hay bị biếm họa,
như tôi có ở đây,
nỗi sợ trước một đội quân robot độc ác
sẽ tấn công chúng ta.
Nhưng đó chưa phải là viễn cảnh
dễ xảy ra nhất.
Không phải những cỗ máy của chúng ta 
tự nhiên trở nên ác độc
Mối lo thật sự là khi 
chúng ta tạo ra những cỗ máy
tài giỏi hơn chúng ta quá nhiều
để rồi, dù chỉ một khác biệt nhỏ nhất
giữa mục tiêu của chúng và ta thôi
cũng có thể hủy diệt chúng ta.
Hãy nghĩ đến mối quan hệ
giữa chúng ta loài kiến.
Chúng ta không ghét chúng.
Chúng ta không cố tình làm hại chúng.
Thực tế đôi khi chúng ta cố gắng
không làm hại chúng.
Chúng ta bước qua chúng trên vỉa hè.
Nhưng mỗi khi sự xuất hiện của chúng
xung đột cực kì với một
trong các mục đích của chúng ta,
Ví dụ như khi xây dựng
một tòa nhà như thế này,
chúng ta tiêu diệt chúng không lo lắng.
Có nghĩa là một ngày nào đó
khi chúng ta tạo ra các cỗ máy

Arabic: 
وحالما يصبح لدينا آليات أذكى مننا،
سوف تبدأ بتحسين نفسها.
وعندها سنواجه ما دعاه عالم 
الرياضيات IJ Good
"انفجاراً ذكائياً"
وأن العملية يمكن أن تفلت من بين أيدينا.
الآن، هذا يتم عمله كرسم كاريكاتيري، 
كما أفعل هنا
كخوفٍ من جيوش ميليشيا من الرجال الآليين
التي ستهاجمنا.
ولكن هذا ليس السيناريو الأكثر احتمالاً.
الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي
المقلق حقاً هو أننا نبني آليات
أكثر كفاءة مما نحن عليه
وأن أقل اختلاف بين أهدافها وأهدافنا
يمكن أن يدمرنا.
فقط فكروا بكيفية علاقتنا بالنمل
نحن لا نكرههم.
ولا نخرج عن طريقنا لنؤذيهم.
في الواقع، أحياناً نتحمل آلاماً لكي
لا نؤذيهم.
نحن نمشي من فوقهم على الرصيف.
ولكن عندما يكون لوجودهم
تعارض جدِّي مع أحد أهدافنا،
لنقل مثلاً عند إنشاء بناء كهذا،
نقوم بإبادتهم بدون أي تأنيب ضمير.
والقلق من أننا يوماً ما سوف نبني آليات

Catalan: 
i un cop les màquines ens superin,
es milloraran a elles mateixes.
I el que el matemàtic
IJ Good anomenava com
"l'explosió de la intel·ligència",
pot succeir fent que les màquines
ens superin amb escreix.
Aquest fet sovint es representa
com jo ho he fet aquí,
imaginant que exèrcits de robots malèvols
ens ataquen.
Però aquest no és l'escenari més probable.
No crec que les màquines
de cop i volta es tornin malèfiques.
Em preocupa més que arribem
a construir màquines
que són molt més
competents que nosaltres
i que la més subtil de les divergències
entre els seus objectius i els nostres
puguin arribar a destruir-nos.
Penseu només en com
tractem a les formigues.
No les odiem pas.
No sortim del camí per fer-les-hi mal.
Fins i tot patim mals de cap
per no esclafar-les
i les saltem quan caminem per la vorera.
Però quan la seva presència
entra en conflicte
amb els nostres objectius,
per exemple si volem construir un edifici,
les exterminem sense cap prejudici.
El que em preocupa és que un dia
construirem màquines

Chinese: 
而我們一旦造出比我們聰明的機器，
它們就會開始改善自己。
然後我們承擔數學家 IJ Good 稱為
「人工智能爆發」的風險，
那個過程會脫離我們的掌握。
這時常被漫畫化，如我的這張圖，
一種恐懼：充滿惡意的機械人軍團
會攻擊我們。
但這不是最可能發生的情境。
並不是說我們的機器會變得
自然地帶有敵意。
問題在於我們將會造出
遠比我們更有競爭力的機器，
只要我們和他們的目標
有些微的歧異，
就會讓我們被毀滅。
就想想我們和螞蟻的關係。
我們不討厭牠們。
我們不會特別去傷害牠們。
甚至有時我們為了
不傷害牠們而承受痛苦。
我們在人行道跨越他們。
但當牠們的存在
和我們的目標嚴重衝突，
譬如當我們要建造一棟
和這裡一樣的建築物，
我們會毫無不安地除滅牠們。
問題在於有一天我們會造出機器，

Croatian: 
a jednom kad imamo strojeve
koji su pametniji od nas,
oni će početi poboljšavati sami sebe.
A tada risikiramo što je
matematičar I.J. Good nazvao
"eksplozijom inteligencije,"
da bi nam se proces mogao izmaknuti.
Sad, to je često karikirano,
kako imam ovdje,
kao strah da će
vojske zloćudnih robota
udariti na nas.
Ali to nije najvjerojatniji scenarij.
Nije da će naši strojevi
spontano postati zloćudnim.
Zapravo je briga
kako ćemo izraditi strojeve
koji su toliko
sposobniji od nas
da bi nas najmanje razmimoilaženje
između njihovih i naših ciljeva
moglo uništiti.
Samo pomislite kako se odnosimo prema mravima.
Ne mrzimo ih.
Ne silazimo sa svog puta
kako bismo im naudili.
Zapravo, ponekad
se baš i trudimo kako im ne bismo naudili.
Prekoračimo ih na pločniku.
Ali kad god sje njihova prisutnost
ozbiljno sukobi s nekim od naših ciljeva,
recimo kad dižemo
građevinu poput ove,
uništavamo ih bez pol muke.
Briga je kako ćemo
jednog dana sagraditi strojeve

English: 
and once we have machines
that are smarter than we are,
they will begin to improve themselves.
And then we risk what
the mathematician IJ Good called
an "intelligence explosion,"
that the process could get away from us.
Now, this is often caricatured,
as I have here,
as a fear that armies of malicious robots
will attack us.
But that isn't the most likely scenario.
It's not that our machines
will become spontaneously malevolent.
The concern is really
that we will build machines
that are so much
more competent than we are
that the slightest divergence
between their goals and our own
could destroy us.
Just think about how we relate to ants.
We don't hate them.
We don't go out of our way to harm them.
In fact, sometimes
we take pains not to harm them.
We step over them on the sidewalk.
But whenever their presence
seriously conflicts with one of our goals,
let's say when constructing
a building like this one,
we annihilate them without a qualm.
The concern is that we will
one day build machines

Romanian: 
și odată ce avem mașinării
mai inteligente decât noi,
ele vor începe să se îmbunătățească.
Apoi există riscul
numit de matematicianul IJ Good
o „explozie de inteligență”,
procesul ne-ar putea scăpa de sub control.
Scenariul ăsta e caricaturizat adesea
ca o frică față de o armată
de roboți răzbunători
care ne vor ataca.
Dar nu ăsta e scenariul cel mai probabil.
Mașinăriile noastre
nu vor deveni brusc răzbunătoare.
Îngrijorarea e că vom construi mașinării
care sunt mult mai competente decât noi
astfel că cea mai mică divergență
între scopurile lor și ale noastre
ne-ar putea distruge.
Gândiți-vă cum ne purtăm cu furnicile.
Nu le urâm.
Nu ne străduim să le rănim.
De fapt, uneori ne străduim
să nu le rănim.
Le ocolim pe trotuar.
Dar oricând prezența lor
intră în conflict cu un scop de-al nostru,
să zicem să construim o clădire ca asta,
le anihilăm fără remușcări.
Îngrijorarea e că într-o zi
vom construi mașinării

Thai: 
และเมื่อเรามีจักรกล
ที่ฉลาดกว่าเราแล้ว
มันก็จะเริ่มต้นปรับปรุงตัวมันเองให้ดีขึ้น
แล้วเราก็จะเสี่ยงกับ
สิ่งที่นักคณิตศาสตร์ ไอเจ กูด เรียกว่า
"การระเบิดของความชาญฉลาด"
กระบวนการที่ซึ่งมนุษย์
ไม่สามารถควบคุมมันได้
เรื่องนี้มักจะถูกทำเป็นการ์ตูนล้อเลียน
อย่างที่แสดงให้ดูตรงนี้
เป็นความกลัวที่ทหารหุ่นยนต์ที่มุ่งร้าย
จะเข้ามาโจมตีทำร้ายเรา
แต่นั่นไม่ใช่สถานการณ์
ที่น่าจะเป็นไปได้มากที่สุด
ไม่ใช่ว่าจักรกลของเรา
จะกลายเป็นภัยอันตรายขึ้นมาเอง
ความกังวลจริง ๆ ก็คือ 
เราจะสร้างจักรกล
ที่มีความสามารถที่สูงกว่าเรามาก ๆ
ที่ความแตกต่างเพียงเล็กน้อยระหว่าง
เป้าหมายของมันกับของเราเอง
ก็อาจจะทำลายเราได้
ลองแค่คิดดูว่า 
เรามีสัมพันธ์กับมดอย่างไร
เราไม่ได้เกลียดพวกมัน
เราไม่ได้ยอมลำบาก
ใช้ความพยายามไปทำร้ายมัน
อันที่จริง บางครั้งเราต้องอดกลั้น
ที่จะไม่ทำร้ายมัน
เราก้าวข้ามพวกมันไปบนทางเดิน
แต่เมื่อใดก็ตามที่การปรากฏอยู่ของมัน
ขัดแย้งอย่างรุนแรง
กับเป้าหมายอย่างหนึ่งของเรา
ยกตัวอย่าง เมื่อก่อสร้างอาคาร 
เช่น อาคารนี้
เราทำลายล้างพวกมันได้อย่างสบายใจ
ความวิตกกังวลก็คือสักวันหนึ่ง
เราจะสร้างจักรกล

Russian: 
и когда такие устройства появятся,
они начнут улучшать себя сами.
И тогда появится риск того,
что математик И. Д. Гуд называл
«взрывом интеллекта» —
риск утраты нами контроля над процессом.
Это часто изображают
в виде подобных картинок,
пугающих армиями злых роботов,
которые нападут на нас.
Но это не самый вероятный сценарий.
Проблема не в том, что наша техника
внезапно рассвирепеет.
Беспокоит на самом деле то,
что мы создаём устройства,
которые настолько нас превосходят,
что малейшее расхождение
между их целями и нашими
может нас уничтожить.
Подумайте о том, как мы
относимся к муравьям.
Мы не ненавидим их.
Мы не лезем из кожи вон,
чтобы навредить им.
На самом деле, иногда мы
стараемся не навредить им.
Мы перешагиваем их на тротуаре.
Но если вдруг их присутствие
серьёзно мешает нашим целям,
например, если мы
строим здание вроде этого,
мы без колебаний их истребляем.
Беспокоит то, что однажды
мы создадим устройства,

Korean: 
더 똑똑한 기계가 생기면
기계 스스로 발전할 겁니다.
그러면 수학자 아이 제이 굿의 말대로
"지능 폭발"이라는 
위험성을 안게 되는데
우리 통제권을 벗어나는 
일이 생기는 거죠.
여기 보시는 것처럼 
이런 풍자만화도 있는데요.
위험한 로봇 군대가 우리를 
공격하리라는 두려움이죠.
하지만 그건 있을만한 일은 아닙니다.
기계가 스스로 악해질 리가 없거든요.
문제는 우리가 기계를 만드는데
우리보다 너무 능력이 뛰어나서
기계와 우리의 목표가 살짝만 어긋나도
우리를 파멸시킬 수 있는 겁니다.
개미와 관련지어 생각해 보세요.
우리는 개미를 싫어하진 않아요.
개미를 해치지도 않죠.
사실 때로는 해치지 않으려고 노력하죠.
길에서 개미들을 넘어서 
걸음을 딛잖아요.
하지만 개미의 존재가
우리의 목표와 심각하게 부딪힐 때
가령, 이런 건물을 지을 때
거리낌없이 전멸시킵니다.
문제는 우리가 언젠가 기계를 만들텐데

French: 
et ces machines 
plus intelligentes que nous
vont commencer 
à s'améliorer elles-mêmes.
Il y a le risque, théorisé
par le mathématicien I.J. Good,
d'une « explosion d'intelligence »,
un processus qui pourrait nous échapper.
Ce phénomène
est souvent caricaturé, comme ici,
avec des armées de robots malveillants
qui nous attaqueraient.
Mais ce n'est pas 
le scénario le plus probable.
Nos machines ne vont probablement pas
devenir spontanément malveillantes.
Le risque est 
que nous construisions des machines
tellement plus compétentes que nous
que la moindre divergence 
d'intérêt entre elles et nous
pourrait nous détruire.
Pensez aux fourmis.
Nous ne les haïssons pas.
Nous ne cherchons pas à les écraser.
Nous faisons même parfois 
l'effort de les éviter.
Nous les enjambons.
Mais dès que leur présence
nous gêne vraiment,
par exemple si nous voulons 
construire un bâtiment,
nous les exterminons sans scrupule.
Le risque est que nous construisions 
un jour des machines

Serbian: 
i tad kad budemo imali mašine
koje su pametnije od nas,
one će same početi da se razvijaju.
I onda rizikujemo ono
što je matematičar I.Dž. Gud nazvao
"eksplozija inteligencije",
da proces može da nam pobegne.
E, sad, ovo se često karikira,
kao što ću i ja uraditi,
kao strah od napada armije
zlih robota.
Ali to nije najverovatniji scenario.
Nije kao da će naše mašine
spontano postati zle.
Brine nas, zapravo,
da ćemo mi napraviti mašine
koje su mnogo, mnogo
kompetentnije od nas,
brinemo da će nas uništiti
i najmanja razlika između
naših i njihovih ciljeva.
Zamislite kakvi smo mi prema mravima.
Ne mrzimo ih.
Ne povređujemo ih namerno.
Zapravo, ponekad se
trudimo se da ih ne povredimo.
Preskačemo ih na trotoaru.
Ali kada god njihovo prisustvo
ozbiljno ugrozi neke naše ciljeve,
recimo kada konstruišemo
neku zgradu poput ove,
bez po muke ih istrebimo.
Brine nas da ćemo
jednog dana napraviti mašine

Modern Greek (1453-): 
κι όταν θα έχουμε μηχανές
εξυπνότερες από εμάς,
θα αρχίσουν να βελτιώνονται μόνες τους.
Τότε διακινδυνεύουμε να έχουμε κάτι
που ο μαθηματικός Ι. Τζ. Γκουντ
αποκάλεσε «έκρηξη ευφυίας»,
όπου η διαδικασία μπορεί
να φύγει από τον έλεγχό μας.
Αυτό συχνά απεικονίζεται,
όπως σας δείχνω εδώ,
ως ένας φόβος ότι στρατιές
από κακόβουλα ρομπότ
θα μας επιτεθούν.
Αλλά αυτό δεν είναι το πιο πιθανό σενάριο.
Δεν είναι ότι οι μηχανές μας
θα γίνουν αυθόρμητα κακόβουλες.
Η πραγματική ανησυχία είναι
ότι θα φτιάξουμε μηχανές
που θα είναι τόσο πιο ικανές από εμάς
που η ελάχιστη απόκλιση μεταξύ
των δικών τους στόχων και των δικών μας
θα μπορούσε να μας καταστρέψει.
Σκεφτείτε τη σχέση μας με τα μυρμήγκια.
Δεν τα μισούμε.
Δεν τα βλάπτουμε εκουσίως.
Συχνά μάλιστα κάνουμε προσπάθεια
να μην τα βλάψουμε.
Αποφεύγουμε να τα πατήσουμε
στο πεζοδρόμιο.
Αλλά όταν η παρουσία τους
αντιτίθεται σοβαρά με τους στόχους μας,
ας πούμε, όταν φτιάχνουμε
ένα τέτοιο κτήριο,
τα εκμηδενίζουμε χωρίς δεύτερη σκέψη.
Η ανησυχία είναι ότι μια μέρα
θα φτιάξουμε μηχανές που,

iw: 
וברגע שיהיו לנו מכונות חכמות מאיתנו,
הן יתחילו לשפר את עצמן.
ואז אנחנו מסתכנים במה
שהמתמטיקאי איי. ג'יי. גוד קרא לו
"התפוצצות אינטליגנציה",
שהתהליך יכול לצאת משליטתנו.
לרוב זה מתואר כפי שנראה פה,
כפחד מצבאות של רובוטים זדוניים
שיתקפו אותנו.
אבל זה לא התרחיש הסביר ביותר.
זה לא שהמכונות שלנו
יהפכו באופן ספונטני למרושעות.
החשש האמיתי הוא שנבנה מכונות
שמוכשרות כל כך הרבה יותר מאיתנו,
שהסטייה הקטנה ביותר 
בין המטרות שלנו לשלהן
עלולה להשמיד אותנו.
רק תחשבו על היחס שלנו לנמלים.
אנחנו לא שונאים אותן.
אנחנו לא עושים מאמץ מיוחד לפגוע בהן.
למעשה, לפעמים אנחנו מתאמצים
כדי שלא לפגוע בהן.
אנחנו צועדים מעליהן במדרכות.
אבל ברגע שהנוכחות שלהן
נמצאת בקונפליקט רציני עם אחת המטרות שלנו,
למשל כשאנחנו בונים בנין כמו זה,
אנחנו משמידים אותן ללא יסורי מצפון.
החשש הוא שיום אחד אנחנו נבנה מכונות

Italian: 
e quando le macchine saranno
più intelligenti di noi
inizieranno a migliorarsi da sole.
Allora rischieremo quello che
il matematico IJ Good chiama
"esplosione dell'intelligenza",
ovvero che potremmo perdere il controllo.
Come vedete, spesso questo viene reso
con una caricatura,
ovvero la paura che un esercito
di robot malvagi
ci attacchi.
Ma questo non è lo scenario più probabile.
Le nostre macchine non diventeranno
malvagie spontaneamente.
Il problema è che costruiremo macchine
che saranno tanto più capaci di noi
che la più piccola divergenza
tra i loro obiettivi e i nostri
ci potrebbe distruggere.
Pensate a come ci comportiamo
con le formiche.
Non le odiamo.
Non facciamo loro del male apposta.
Alle volte facciamo attenzione
a non danneggiarle.
Le saltiamo, quando sono sul marciapiede.
Ma se la loro presenza
ci intralcia,
ad esempio se dobbiamo costruire
un edificio come questo,
le distruggiamo senza battere ciglio.
La mia preoccupazione è che un giorno
costruiremo delle macchine

Turkish: 
ve bizden akıllı makinelerimiz
olduğunda onlar,
kendilerini geliştirmeye başlayacaklar.
Ve sonra, matematikçi IJ Good'un
"zekâ patlaması" olarak
adlandırdığı bu süreçle,
bizden kurtulabilecekler.
Sıklıkla karikatürize edilir,
benim de burada yaptığım gibi,
korku kötücül robot ordularının
bize saldırmaları.
Ama bu çok da olası bir senaryo değil.
Kendiliğinden makinelerimiz
kötücül olacak değil.
Asıl kaygılandıran ise;
bizden o kadar çok daha yetkin
makineler üreteceğiz ki bizim ve onların
amaçları arasındaki 
en küçük bir fark, bizi
ortadan kaldırabilecek.
Nasıl da karıncalar gibi
olacağımızı bir düşünün.
Onlardan nefret etmiyoruz.
Onlara zarar vermek için
yolumuzu değiştirmiyoruz.
Üstelik bazen onlara zarar
vermemeye çalışıyoruz.
Kaldırımlarda üzerlerinden geçiyoruz.
Ancak ne zaman onların varlıkları
bizim hedeflerimizle çakışsa,
diyelim ki bu gibi bir bina inşa ederken,
tereddütsüz imha edebiliyoruz onları.
Endişe uyandıran ise bir gün,
bilinçli olsun veya olmasın

Portuguese: 
e assim que tivermos máquinas
mais inteligentes que nós,
elas vão começar
a melhorar-se a si mesmas.
Então arriscamo-nos ao que
o matemático I.J. Good chamou
uma "explosão de inteligência,"
que o processo poderá
sair das nossas mãos.
Isto é normalmente caricaturado,
como vemos aqui,
como o medo de que tropas
de robôs malignos nos vão atacar.
Mas este não é o cenário
mais provável.
As nossas máquinas não se tornarão
espontaneamente maléficas.
O problema é se
construímos máquinas
que são muito mais
competentes que nós
que à mínima divergência
entre os seus objetivos e os nossos
podem destruir-nos.
Basta pensar na nossa 
ligação às formigas.
Não as odiamos.
Não saímos do nosso caminho
para as magoar.
Até fazemos o necessário
para não as magoar.
Passamos por cima delas
no passeio.
Mas quando a sua presença
representa um conflito
com um dos nossos objetivos,
digamos, quando construindo
um edifício como este,
eliminamo-las sem hesitação.
O problema é que iremos
um dia construir máquinas

Portuguese: 
e uma vez que isso acontecer,
elas aperfeiçoarão a si mesmas.
E nós arriscamos o que o matemático
I. J. Good chamou
de "explosão de inteligência",
que o processo poderia fugir do controle.
Isso é frequentemente
caricaturado, desse jeito aqui,
como medo de que exércitos
de robôs malignos
nos ataquem.
Mas essa não é a situação mais provável.
Não é que nossas máquinas
se tornarão espontaneamente más.
A preocupação é que
construiremos máquinas
que são muito mais competentes do que nós,
e que a menor das divergências
entre nosso propósito e o delas
possa nos destruir.
Pense na nossa relação com as formigas.
Nós não as odiamos.
Nós não as machucamos de propósito.
Na verdade, nós tentamos
não machucar elas.
Evitamos pisá-las na calçada.
Mas sempre que a presença delas
colide com um dos nossos objetivos,
digamos que ao construirmos
um prédio como este,
nós exterminamos elas
sem a menor cerimônia.
A preocupação é que um dia
vamos construir máquinas

Georgian: 
და რა დროსაც ეს მოხდება,
ისინი საკუთარი თავების
გაუმჯობესებას შეუდგებიან
და დავდგებით, როგორც ამას
ი. დ. გუდმა უწოდა,
"ინტელექტის აფეთქების" საფრთხის წინაშე,
რითიც შეიძლება
პროცესები ხელიდან გაგვექცეს.
ხშირად ეს მსგავსი კარიკატურების
სახითაა გამოსახული.
როგორც ბოროტი რობოტების არმიები,
რომლებიც თავს გვესხმიან,
მაგრამ ეს არაა ყველაზე სავარაუდო სცენარი.
ჩვენი მანქანები,
მყისიერად კი არ გაბოროტდებიან.
სინამდვილეში წუხილი იმაზეა,
რომ ჩვენ ისეთ მანქანებს შევქმნით,
რომლებიც ჩვენზე იმდენად უფრო
კომპეტენტურები იქნებიან,
რომ ჩვენსა და მათ მიზნებს შორის
მცირედმა უთანხმოებამაც კი
შეიძლება გაგვანადგუროს.
დაფიქრდით, რა აზრის ვართ ჭიანჭველებზე.
ჩვენ ისინი არ გვძულს.
ჩვენ მიზანი არაა მათ ვავნოთ.
პრინციპში ზოგჯერ ვცდილობთ კიდეც არ ვავნოთ.
ფეხს არ ვადგამთ ტროტუარზე.
მაგრამ როცა კი მათი არსებობა,
ჩვენს მიზნებს სერიოზულად ეწინააღმდეგება,
მაგალითად ამნაირი შენობის აგებისას,
ჩვენ ყოყმანის გარეშე ვანადგურებთ მათ.
მე ის მაწუხებს,
რომ ერთ დღესაც ჩვენ შევქმნით მანქანებს,

Ukrainian: 
та щойно з'являться машини,
що розумніші за нас,
вони почнуть самі себе удосконалювати.
А тоді ми ризикуємо тим, 
що математик І.Дж. Ґуд назвав
"інтелектуальним вибухом",
тим, що цей процес може вийти 
з-під нашого контролю.
Тепер це часто висміюють,
як ось на цьому зображенні,
як страх, що армії злісних роботів
нас атакують.
Та це не найімовірніший сценарій.
Йдеться не про те, що наші машини
зненацька зробляться злими.
Викликає тривогу те,
що ми збудуємо машини,
які будуть настільки компетентніші
за нас,
що найменші відхилення 
між нашими та їхніми цілями
зможуть нас знищити.
Лише поміркуйте, як ми поводимося
з мурахами.
Ми не ненавидимо їх.
Ми не звертаємо зі шляху,
щоб нашкодити їм.
Насправді іноді ми намагаємося 
не нашкодити їм.
Ми переступаємо через них на стежці.
Та коли їхня присутність
відчутно конфліктує 
з будь-якою нашою метою,
скажімо, коли ми будуємо
таку споруду, як на зображенні,
ми знищуємо їх без сумнівів.
Тривога полягає в тому,
що одного дня ми збудуємо машини,

Swedish: 
och när vi väl har dessa smarta maskiner,
kommer de att förbättra sig själva.
Då riskerar vi
det matematikern IJ Good kallade,
en "intelligensexplosion",
dvs att processen går oss ur händerna.
Detta skojas ofta bort, som här,
som en rädsla för att en
armé av ondsinta robotar
kommer att attackera oss.
Men det är inte det troligaste scenariot.
Våra maskiner kommer inte
att bli spontant illvilliga.
Bekymret är att vi kommer
att bygga maskiner
som är så mycket mer kompetenta än vi
att den minsta lilla skillnad
mellan deras mål och våra
skulle kunna förgöra oss.
Tänk bara på vår inställning till myror.
Vi hatar inte dem.
Vi skadar inte dem medvetet.
Ibland anstränger vi oss
för att inte skada dem.
Vi kliver över dem på trottoaren.
Men så fort deras närvaro
kommer i allvarlig konflikt med våra mål,
som till exempel vid husbyggnationer,
förintar vi dem utan pardon.
Bekymret är att vi en dag
kommer att bygga maskiner

Hungarian: 
És amint létrehoztuk 
a minket meghaladó okos gépeket,
megkezdik majd önmaguk fejlesztését.
És ezzel megkockáztatjuk azt,
amit IJ Good matematikus
úgy hívott: "intelligencia-robbanás".
Amikor a fejlődésük 
kicsúszik a kezünk közül.
Sokszor kifigurázzák, mint én is itt,
miként rettegünk a rosszindulatú robotok
támadásától.
De nem ez a legvalószínűbb forgatókönyv.
A gépek nem fognak egyik pillanatról 
a másikra gonosszá válni.
A valós aggály abban rejlik, 
hogy olyan gépeket hozunk létre,
melyek meghaladják a mi képességeinket,
és a legapróbb összeférhetetlenség
az ő és saját céljaink között
a végünket jelentheti.
Csak gondoljatok bele, mi hogyan 
viszonyulunk a hangyákhoz.
Nem utáljuk őket.
Nem akarjuk szándékosan bántalmazni őket.
Sőt, néha megóvásukra 
áldozatokat is hozunk értük.
Kikerüljük őket a járdán.
De amint összeütközik a jelenlétük
a céljaink megvalósításával,
mint például egy ilyen
épület felhúzásakor,
szemrebbenés nélkül kiírtjuk valamennyit.
A gond az, hogy egy napon 
olyan gépeket hozunk létre,

Dutch: 
en zodra we machines 
hebben die slimmer zijn dan wij,
gaan ze zichzelf verder verbeteren.
Dan lopen we het risico 
op wat de wiskundige IJ Good
een 'intelligentie-explosie' noemde:
dat het proces niet meer 
te beheersen valt.
Daarvan werd vaak, zoals hier, 
een karikatuur gemaakt:
de angst dat legers 
van kwaadaardige robots
ons zouden aanvallen.
Maar dat is niet 
het meest waarschijnlijke scenario.
Het is niet zo dat onze machines 
spontaan boosaardig zullen worden.
Het probleem is eigenlijk 
dat we machines gaan bouwen
die zo veel competenter zijn dan wij
dat het geringste verschil 
tussen hun doelen en de onze
ons einde kan betekenen.
Denk maar aan hoe we 
ons verhouden tot mieren.
We haten ze niet.
We zijn er niet op uit 
om ze kwaad te doen.
We nemen soms zelfs de moeite 
om ze niet te schaden.
We stappen over hen op de stoep.
Maar wanneer hun aanwezigheid
serieus in strijd is 
met één van onze doeleinden,
laten we zeggen 
bij de bouw van een gebouw als dit,
vernietigen we ze 
zonder er bij stil te staan.
Het probleem is dat we op een dag 
machines gaan bouwen

Persian: 
و وقتی ماشینهایی بسازیم
که از ما باهوش‌تر باشند،
آنها شروع به اصلاح خود می کنند.
و بعد خطر چیزی را خواهیم داشت 
که ای جی گود ریاضیدان
«انفجار هوش» نامید،
این که این پروسه از کنترل ما خارج شود.
این مساله بیشتر به شکلی که 
من اینجا نشان می‌دهم
مثل ترس از این که ارتش‌هایی 
از رباتهای بدطینت
به ما حمله کنند، ترسیم شده.
اما این، سناریوی چندان محتملی نیست.
اینطور نیست که ماشینهای ساخت دست ما به یکباره هیولا شوند.
نگرانی اینجاست که ماشین‌هایی خواهیم ساخت
که بسیار توانمندتر از ما هستند
جوریکه کمترین انحراف در بین 
اهداف ما و آنها
می تواند ما را نابود کند.
فقط به نحوه ارتباط ما با مورچه‌ فکر کنید.
از آنها متنفر نیستیم.
راه مان را برای کشتنشان کج نمی‌کنیم.
در واقع،‌ گاهی برای آسیب نرساندن 
به آنها خود را به زحمت می‌اندازیم.
در پیاده رو از رویشان می‌پریم.
اما هر وقت در جایی حضورشان
بطور جدی با یکی از اهداف 
ما منافعات داشته باشد،
برای مثال وقتی ساختمانی مثل این را بسازیم،
آنها را بی‌درنگ قلع و قمع می‌کنیم.
نگرانی این است که یک روز
ماشین‌هایی را خواهیم ساخت

Chinese: 
一旦我们有了
比我们更聪明的机器，
它们将进行自我改进。
然后我们就会承担着
数学家IJ Good 所说的
“智能爆炸”的风险，
（科技进步的）
进程将不再受我们的控制。
现在我们时常会看到
这样一些讽刺漫画，
我们总会担心受到一些不怀好意的
机器人军队的攻击。
但这不是最可能出现的事情。
我们的机器不会自动变得邪恶。
所以，我们唯一的顾虑就是
我们将会打造
比我们人类更有竞争力的机器。
而一旦我们和它们的目标不一致，
我们将会被摧毁。
想想我们与蚂蚁的关系吧。
我们不讨厌它们，
我们不会去主动去伤害它们。
实际上，我们经常会尽量
避免伤害蚂蚁。
我们会选择从它们身边走过。
但只要它们的存在
妨碍到了我们达成目标，
比如说当我们在建造这样一个建筑，
我们会毫不手软地杀掉它们。
所以我们的顾虑是，终将有一天
我们打造的机器，

Japanese: 
そしてひとたび
人間より知的な機械が生まれたなら
機械は自分で
進化していくでしょう
そうなると我々は 数学者
I・J・グッドが言うところの
「知能爆発」の
リスクに直面します
進歩のプロセスが
人間の手を離れてしまうのです
それはこの絵のような
悪意を持つロボットの大群に
襲われる恐怖として
よく戯画化されています
でもそれは ごくありそうな
シナリオではないでしょう
別に機械が悪意に目覚めるという
わけではありません
本当に 心配すべきなのは
人間よりもはるかに優れた
機械を作ってしまうと
人間と機械の目的の
ほんのわずかなズレによって
人類が破滅しかねないと
いうことです
人類がアリのような存在になると
考えるといいです
我々は アリが
嫌いなわけではなく
わざわざ 潰しに
行きはしません
潰してしまわないように
気を遣いさえして
アリを避けて歩きます
でもアリの存在が
我々の目的と衝突した時—
たとえばこんな建造物を
作るという場合には
良心の呵責なしに
アリを全滅させてしまいます
私が懸念するのは

Ukrainian: 
які, свідомі чи ні,
можуть поставитися до нас
так само байдуже.
Гадаю, що це здається
багатьом з вас малоймовірним.
Я впевнений, серед вас є ті, хто сумнівається,
що надрозумні машини можливі,
що й казати про неминучість.
Тоді ви засумніваєтеся у правильності
одного з таких припущень.
А їх лише три.
Інтелект - це обробка інформації
у фізичних системах.
Насправді, це трохи більше,
ніж припущення.
Ми вже вбудували певний інтелект
в наші машини,
і багато з цих машин видають результати
на рівні надлюдського інтелекту 
вже сьогодні.
Та ми знаємо, що найменший привід
може призвести до так званого
"інтелектуального вибуху",
спроможності гнучко мислити
у багатьох сферах,
адже наш мозок вже зміг це зробити.
Чи не так?
Я маю на увазі, що тут є лише атоми,

Serbian: 
koje će, bilo da su svesne ili ne,
nas tretirati na isti način.
E, sad, cenim da većini vas
ovo zvuči kao daleka budućnost.
Kladim se da ima onih koji ne veruju
da je superinteligentna VI moguća,
a kamoli neizbežna.
Ali onda morate naći neku grešku
u sledećim pretpostavkama.
A samo ih je tri.
Inteligencija je stvar obrade
informacija u fizičkim sistemima.
U stvari, ovo je malo više
od neke pretpostavke.
Već smo ugradili specifičnu
inteligenciju u naše mašine,
i mnoge od ovih mašina već
imaju performanse na nivou
superljudske inteligencije.
I znamo da sama materija
može da omogući takozvanu
"uopštenu inteligenciju",
sposobnost da se fleksibilno
razmišlja u različitim domenima,
jer to može i naš mozak. Je l' tako?
Mislim, ovde postoje samo atomi,

Thai: 
ที่ไม่ว่าพวกมันจะมีความคิด
อย่างมีสติหรือไม่ก็ตาม
จะทำกับเราได้อย่างเฉยเมย
ในแบบเดียวกัน
ครับ ผมเข้าใจว่า สิ่งนี้ดูจะไกลจากความจริง
สำหรับหลาย ๆ ท่าน
ผมมั่นใจว่ายังมีคนไม่เชื่อว่า
ปัญญาประดิษฐ์ยอดอัจฉริยะจะเกิดขึ้นได้จริง
หรือไม่เชื่อว่ามันหลีกเลี่ยงไม่ได้
แต่คุณจะพบว่ามีบางอย่างที่ไม่ถูกต้อง
ในสมมติฐานเบื้องต้นต่อไปนี้
ซึ่งก็มีเพียงสามอย่างเท่านั้น
หนึ่งคือ ความฉลาดเป็นเรื่องของการ
ประมวลข้อมูลในระบบทางกายภาพ
แต่จริง ๆ แล้ว ข้อนี้มัน
มากกว่าสมมติฐานเบื้องต้นสักหน่อย
เราใส่ความฉลาดในขอบเขตแคบ ๆ 
ไว้ในจักรกลของเราเรียบร้อยแล้ว
และจักรกลมากมายเหล่านี้ก็ทำงาน
ด้วยความฉลาดระดับเหนือมนุษย์อยู่แล้ว
และเราก็รู้ว่า แค่มีความฉลาดระดับนั้น
ก็ทำให้เกิดสิ่งที่เรียกว่า
"ความฉลาดทั่วไป"
ซึ่งเป็นความสามารถที่จะคิด
ได้อย่างยืดหยุ่นในหลาย ๆ ด้าน
ก็เพราะว่าสมองของเรานั้น 
ก็สามารถทำได้ ใช่ไหมล่ะครับ
ผมหมายความว่า 
มันก็แค่อะตอมในนี้

Georgian: 
რომელებიც, ცნობიერები იქნებიან თუ არა,
შეიძლება მსგავსი გულგრილობით მოგვეკიდონ.
ეჭვი მაქვს ბევრ თქვენგანს,
ეს ზედმეტ გაზვიადებად ეჩვენება.
დარმწუნებული ვარ ზოგი თქვენგანი,
ზეგონიერი ხელოვნური ინტელექტის შექმნის
არათუ გარდაუვალობას, არამედ
შესაძლებლობასაც კი ეჭვქვეშ აყენებს,
მაგრამ მაშინ თქვენ პრობლემა უნდა იპოვოთ
შემდეგი დაშვებებიდან ერთ-ერთში.
სულ სამია ასეთი.
ინტელექტი ფიზიკურ სისტემებში
ინფორმაციის დამუშავებას წარმოადგენს.
პრინციპში, ეს დაშვებაზე ცოტა უფრო მეტიცაა.
ჩვენ უკვე შევქმენით მანქანები
ვიწრო ინტელექტით
და ბევრი მათქგანი მუშაობს კიდეც
ზეადამიანის შესაბამისი ინტელექტის დონეზე.
ასევე ვიცით, რომ მატერიას
შეუძლია წამოქმნას ე.წ. "ზოგადი ინტელექტი",
სხვადასხვა სფეროებაში
მოქნილად აზროვნების უნარი,
რადგან ჩვენი ტვინები ახერხებენ ამას.
აქ ხომ მხოლოდ ატომებია

Slovak: 
ktoré, vedome alebo nevedome,
budú s nami
zachádzať s podobnou ľahostajnosťou.
Mnohím z vás to príde 
pritiahnuté za vlasy.
Vsadím sa, že mnohí z vás pochybujú,
že super inteligentné stroje sú možné,
tobôž, že by to nevyhnutne nastalo.
Potom však musíte nájsť niečo nesprávne
v nasledujúcich predpokladoch.
A v podstate sú len tri.
Inteligencia je výsledkom spracovania
informácie v hmotných systémoch.
Vlastne, toto je trochu viac
než len predpoklad.
Do strojov sme už obmedzenú 
inteligenciu zabudovali
a veľa z týchto strojov už pracuje
na úrovni super inteligentných ľudí.
A vieme, že bežná hmota
môže byť vznikom takzvanej
"všeobecnej inteligencie",
teda schopnosti flexibilne myslieť
naprieč rôznymi oblasťami,
pretože naše mozgy to už dokázali, však?
Mám na mysli, že naše mozgy
sa skladajú len z atómov,

English: 
that, whether they're conscious or not,
could treat us with similar disregard.
Now, I suspect this seems
far-fetched to many of you.
I bet there are those of you who doubt
that superintelligent AI is possible,
much less inevitable.
But then you must find something wrong
with one of the following assumptions.
And there are only three of them.
Intelligence is a matter of information
processing in physical systems.
Actually, this is a little bit more
than an assumption.
We have already built
narrow intelligence into our machines,
and many of these machines perform
at a level of superhuman
intelligence already.
And we know that mere matter
can give rise to what is called
"general intelligence,"
an ability to think flexibly
across multiple domains,
because our brains have managed it. Right?
I mean, there's just atoms in here,

Dutch: 
die, bewust of niet,
ons met gelijkaardige 
onverschilligheid gaan behandelen.
Ik vermoed dat dit voor velen 
van jullie wat vergezocht lijkt.
Ik wed dat er zijn die er aan twijfelen
of superintelligente AI 
überhaupt mogelijk is,
laat staan onvermijdelijk.
Maar dan moet je de fout vinden 
in één van de volgende veronderstellingen.
Er zijn er slechts drie.
Intelligentie is een kwestie van 
informatieverwerking in fysische systemen.
Eigenlijk is dit iets meer 
dan een veronderstelling.
We hebben al beperkte intelligentie 
ingebouwd in onze machines
en veel van die machines werken al
op een bovenmenselijk 
niveau van intelligentie.
We weten dat loutere materie
aanleiding kan geven tot wat 
'algemene intelligentie' wordt genoemd,
het vermogen om flexibel te denken 
op meerdere domeinen,
omdat onze hersenen dat kunnen.
Ik bedoel, er zijn hier alleen maar atomen

Romanian: 
care, conștiente sau nu,
ne-ar putea trata 
cu o nepăsare asemănătoare.
Cred că asta vi se pare exagerat,
pariez că unii dintre voi se îndoiesc
că IA superinteligentă e posibilă,
cu atât mai puțin inevitabilă.
Dar atunci trebuie să găsiți ceva greșit
în una din următoarele presupuneri.
Sunt doar trei.
Inteligența e o problemă de procesare
a informației în sisteme fizice.
De fapt, asta e mai mult
decât o presupunere.
Deja am construit inteligență îngustă
în mașinăriile noastre
și multe dintre ele funcționează deja
la un nivel de inteligență suprauman.
Știm că simpla materie
poate da naștere așa-numitei
„inteligență generală”,
o abilitate de a gândi flexibil
în diverse domenii
deoarece creierele noastre
sunt capabile de asta. Corect?
Sunt doar atomi aici

Czech: 
které by s námi mohly, vědomě či nevědomě,
zacházet podobně lhostejně.
Mnohým z vás to nejspíš
přijde přitažené za vlasy.
Vsadím se, že někteří
z vás určitě pochybují,
že je možné superinteligentní AI vytvořit,
natož, že to nevyhnutelně nastane.
Pak ale musíte v následujících
předpokladech najít nějaký omyl.
Ty předpoklady jsou jen tři.
Inteligence je výsledkem zpracování
informací ve hmotných systémech.
Toto je vlastně víc než předpoklad.
Do našich strojů jsme už
omezenou inteligenci zabudovali
a mnohé z nich už operují
na úrovni superinteligentních lidí.
A víme, že pouhá hmota
může dát vzniknout
takzvané „všeobecné inteligenci“,
tedy schopnosti flexibilně
se orientovat v různých oblastech.
Protože náš mozek už to zvládl, že?
Mozek se skládá jenom z atomů,

Russian: 
которые независимо
от наличия у них сознания
могут так же пренебречь нами.
Я подозреваю, многим из вас
это кажется надуманным.
Уверен, среди вас есть сомневающиеся
в возможности сверхразумного ИИ,
не говоря уж о его неизбежности.
Значит, вы не согласны
с одним из следующих допущений.
Их всего три.
Интеллект — это результат обработки
информации в физической системе.
На самом деле это немного больше,
чем допущение.
Мы заложили ограниченный интеллект
в свои технологии,
и многие из них уже работают
на уровне сверхчеловеческого интеллекта.
И мы знаем, что из одной лишь материи
возможно развитие так называемого
«общего интеллекта» —
способности к гибкому мышлению
в разных сферах,
потому что на это способен наш мозг.
Так?
Я имею в виду: здесь всего лишь атомы,

Modern Greek (1453-): 
είτε ενσυνείδητα ή όχι,
θα μας μεταχειριστούν
με παρόμοια αδιαφορία.
Υποψιάζομαι ότι οι περισσότεροι
το θεωρείτε παρατραβηγμένο.
Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν
αν η υπερευφυής τεχνητή νοημοσύνη
είναι εφικτή,
πολύ δε λιγότερο αναπόφευκτη.
Τότε όμως πρέπει να βρείτε κάποιο λάθος
στις ακόλουθες υποθέσεις.
Και είναι μόνο τρεις υποθέσεις.
Η ευφυΐα είναι θέμα επεξεργασίας
της πληροφορίας σε υλικά συστήματα.
Βασικά, αυτό είναι
κάτι παραπάνω από μια υπόθεση.
Έχουμε ήδη ενσωματώσει
περιορισμένη ευφυΐα στις μηχανές μας,
και πολλές από αυτές ήδη αποδίδουν
σε επίπεδο υπεράνθρωπης ευφυΐας.
Και ξέρουμε πως η απλή ύλη
μπορεί να δημιουργήσει
αυτό που λέγεται «γενική ευφυΐα»,
μια ικανότητα να σκεφτούμε ευέλικτα
σε πολλαπλά επίπεδα,
επειδή τα μυαλά μας
τα έχουν καταφέρει, σωστά;
Εξάλλου μόνο άτομα υπάρχουν εκεί,

Chinese: 
無論他們是有意識或者沒有意識，
會對我們如螞蟻般的不予理會。
現在，我懷疑這種說法
對這裡大部分的人來說不著邊際。
我確信你們有些人懷疑
超級人工智能出現的可能，
更別說它必然出現。
但接著你一點會發現
接下來其中一個假設有點問題。
以下只有三個假設。
智能是關於資訊
在物質系統裡處理的過程。
其實這個陳述已經不只是一個假設，
我們已經在我們的機器裡
安裝了有限的智能，
而很多這樣的機器已經表現出
某種程度的超人類智能。
而我們知道這個現象
可能導致被稱為「通用智能」的東西，
一種能跨多個領域靈活思考的能力，
因為我們的腦
已經掌握了這個，對吧？
我的意思是，裡面都只是原子，

Chinese: 
無論佢哋自己有冇意識都好
同樣會冷漠咁對待我哋
依家，我估對於你哋大部份人嚟講
呢件情景都係遙不可及嘅
我賭你哋當中有人質疑
超級智能嘅可能性
更加唔好講
人類要避免超級智能
但係你哋肯定會喺下面嘅假設當中
搵到一啲謬誤
呢度一共有三個假設
喺物理系統裏面，智能等如訊息處理
但係，呢個超過咗假設
因為我哋已經喺我哋嘅機器裏面
植入咗弱人工智能
而且呢啲機器好多
已經處於一個超人類智能水平
同時我哋知道僅僅係物質
就可以產生所謂嘅「一般智能」
一種可以喺唔同領域之間
靈活思考嘅能力
咁係因為我哋嘅大腦
已經可以做到，係唔係？
我嘅意思係，大腦凈係得原子

Turkish: 
bize de benzer bir umursamazlıkla
muamele edebilecek
makineler üreteceğiz.
Zannederim ki bir çoğunuza ihtimal
dışı görünüyor bu durum.
Eminim ki bazılarınız süper zeki
Yapay Zekâ'nın kaçınılmaz olması
şöyle dursun,
mümkünlüğünden dahi şüphe duyuyor.
Ancak sonra ileriki varsayımlardan
bazılarında bir tuhaflık bulmalısınız.
Ve sadece üç tanesi var.
Zekâ, fiziksel sistemlerde
bilgi işleme ile ilgilidir.
Aslında bu bir varsayımdan biraz fazla.
Zaten makinelerimizde kısıtlı
zekâyı kurduk ve
bu makinelerin çoğu çoktan
üstün insan seviyesinde bir
performansta.
Ve biliyoruz ki bu mutlak mesele,
"genel zekâ" denilen birçok
alanda esneklikle
düşünebilme yeteneğine sebep olabilir,
çünkü beyinlerimiz bunu başardı değil mi?
Yani sadece atomlar var burada

Portuguese: 
que, conscientes ou não,
poderão nos tratar com o mesmo desprezo.
Eu suspeito que isso pareça difícil
de acreditar para vocês.
Aposto que alguns de vocês duvidam
que uma IA superinteligente seja possível,
muito menos inevitável.
Mas então você precisar achar algo
de errado com as seguintes suposições.
E existem apenas três.
Inteligência é uma questão
de processamento de informação
em sistemas físicos.
Na verdade, isso é mais
do que uma suposição.
Nós já construímos inteligência limitada
em nossas máquinas,
e muitas delas já trabalham num nível
de inteligência sobre-humano.
E sabemos que matéria comum
pode dar origem ao que é chamado
de "inteligência geral",
a habilidade de pensar de forma flexível
em vários domínios,
porque nossos cérebros
conseguiram isso. Certo?
Existem apenas átomos aqui,

iw: 
אשר במודע או שלא,
יוכלו להתייחס אלינו בזלזול דומה.
עכשיו, אני חושד שכל זה
נשמע מופרך עבור רבים מכם.
אני בטוח שיש בכם כאלה הספקנים לגבי האפשרות
להגיע לבינה מלאכותית סופר-אינטליגנטית כזו,
ובוודאי לחשוב שהיא בלתי נמנעת.
אבל אז אתם צריכים למצוא פגם
באחת מהנחות היסוד הבאות.
ויש רק שלוש מהן.
אינטליגנציה היא ענין של עיבוד מידע 
במערכות פיזיות.
למעשה, זו קצת יותר מסתם הנחה.
אנחנו כבר בנינו אינטליגנציה צרה
לתוך המכונות שלנו,
ורבות מהמכונות האלה מתפקדות
ברמות של אינטליגנציה על-אנושית כבר כיום.
ואנחנו יודעים שחומר בלבד
יכול לייצר מה שנקרא "אינטליגנציה כללית",
היכולת לחשוב בצורה גמישה
מעבר לתחומים רבים,
כי המוח שלנו מצליח לעשות זאת. נכון?
הרי יש כאן רק אטומים,

Swedish: 
som, oavsett om de är medvetna eller ej,
skulle kunna behandla oss
med samma förakt.
Jag misstänker att det verkar
långsökt för många av er.
Jag slår vad om att en del av er tvivlar
på att superintelligent AI är möjlig,
än mindre nödvändig.
Men då måste ni finna felen med
några av följande antaganden.
Det finns bara tre.
Intelligens handlar om processandet
av information i fysiska system.
Det är egentligen mer
än bara ett antagande.
Vi använder redan maskininlärning
i många maskiner,
och många av dessa maskiner presterar
redan på nivåer långt över
mänsklig intelligens.
Och vi vet att materia
kan skapa det som
kallas "generell intelligens"
en förmåga att tänka flexibelt
över flera dimensioner,
eftersom våra hjärnor
har klarat det. Eller hur?
Jag menar, det är ju bara atomer här inne,

French: 
qui, conscientes ou non,
nous traiteraient
avec la même indifférence.
Cela peut vous sembler capillotracté.
Je parie que certains d'entre vous 
doutent qu'une super IA soit possible,
et encore moins inévitable.
Mais dans ce cas vous devez réfuter 
une des hypothèses suivantes.
Et il n'y en a que trois.
L'intelligence est le traitement 
de l'information dans un système physique.
En fait, c'est un peu plus 
qu'une simple hypothèse.
Nous avons déjà construit 
des machines vaguement intelligentes,
et nombre d'entre elles font déjà preuve
d'une intelligence surhumaine.
Et nous savons que la matière
peut produire « l'intelligence générale »,
la capacité de réfléchir 
de manière croisée,
parce que nos cerveaux
y sont parvenus, n'est-ce pas ?
Après tout, il n'y a que
des atomes là-dedans,

Arabic: 
والتي، سواءٌ كانت مدركة أم لا،
قد تعاملنا بمثل هذا الاستخفاف.
والآن، أنا أشك أن هذا أبعد ما يكون
عن العديد منكم.
وأراهن على أن هنالك منكم من يشك أن الذكاء
الاصطناعي الخارق الذكاء ممكن،
أو حتى محتوم.
ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما 
خاطئاً في أحد الافتراضات التالية.
وهنالك ثلاثة منهم.
الذكاء هو مسألة معالجة للمعلومات في
الأنظمة الفيزيائية.
في الواقع، هذا أكثر بقليل من مجرد افتراض.
نحن قمنا مسبقاً ببناء ذكاء محدود
في آلياتنا،
والعديد من هذه الآليات تقوم بالأداء
في مستوى الذكاء البشري الخارق أصلاً.
ونعلم أن المادة المجردة
بإمكانها أن تعطي زيادة لما يدعى
"بالذكاء العام"،
القدرة على التفكير بمرونة في عدة مجالات،
لأن دماغنا قام بتدبر الأمر. صحيح؟
أنا أعني، هناك ذرات فقط هنا،

Hungarian: 
amelyek, akár tudatosak akár nem,
hasonlóképpen viszonyulnak majd hozzánk.
Gondolom, ez sokatok számára, 
elképzelhetetlennek tűnik.
Fogadni mernék, hogy egyesek a MI 
lehetőségét is megkérdőjelezik,
mintsem elkerülhetetlennek véljék.
De akkor valami mégsem stimmel 
a következő feltevésekkel.
Amiből mindössze csak három van.
Az intelligencia a fizikai rendszerekben
feldolgozott információból származik.
Tulajdonképpen, ez kicsivel 
több puszta feltevésnél.
A közvetlen intelligenciát 
már beépítettük a gépeinkbe,
mely gépek többsége már most
emberfeletti teljesítményekre képes.
Azt is tudjuk, hogy az anyag önmagában
életre tudja hívni az úgynevezett
"alap intelligenciát,"
a különböző tartományokon belüli 
rugalmas gondolkodás képességét,
hiszen saját agyunk is 
képes volt rá, nem igaz?
Mivel itt legbelül csak atomok vannak,

Vietnamese: 
cho dù chúng có ý thức hay không,
cũng sẽ đối xử với chúng ta 
theo sự bất chấp tương tự như thế.
Bây giờ, tôi nghi ngờ rằng điều này có vẻ
quá xa với nhiều người
Tôi cá là có một số người đang nghi ngờ
rằng AI siêu thông minh có thể xảy ra,
ít nhiều không thể tránh khỏi.
Nhưng sau đó bạn phải tìm ra điều sai
với một trong các giả định sau.
Và chỉ có 3 giả định.
Trí thông minh là một vấn đề của quá trình
xử lí thông tin trong các hệ thống vật lí.
Thực ra, điều này hơn một chút
so với giả định.
Chúng ta đã tạo ra trí thông minh hạn hẹp
trong các cỗ máy của mình rồi,
Và rất nhiều máy móc cũng đã hoạt động
ở mức độ của trí thông minh siêu việt rồi.
Và chúng ta biết rằng chỉ có vật chất
mới có thể tạo cơ hội cho
"trí thông minh không giới hạn,"
một khả năng suy nghĩ linh hoạt
trên nhiều lĩnh vực,
bởi vì bộ não chúng ta quản lí nó.
Đúng chứ?
Ý tôi là, chỉ có các hạt nhân trong đây,

Portuguese: 
que, conscientes ou não,
podem tratar-nos com
o mesmo desprezo.
Suspeito que isto pareça
exagerado para a maioria.
Aposto que são os mesmos que duvidam 
da possibilidade duma IA superinteligente,
e, mais ainda, inevitável.
Então, devem encontrar algo de errado
nas seguintes premissas.
Só existem três.
A inteligência é uma questão
de processamento de informação
em sistemas físicos.
Na verdade, isto é mais
que uma premissa.
Já construímos inteligência
limitada nas nossas máquinas,
e muitas dessas máquinas já funcionam
a um nível de inteligência super-humana.
Sabemos que mera matéria
pode dar origem ao que chamamos
"inteligência geral,"
a capacidade de pensar flexivelmente
em múltiplos domínios,
porque o nosso cérebros conseguiu isso.
Quero dizer, aqui só há átomos.

Persian: 
که چه آگاه باشند یا نباشند
می‌توانند این چنین بی‌ملاحظه
با ما رفتار کنند.
البته خیلی از شما آن را خطری
در دراز مدت می‌ببینید.
شرط می‌بندم کسانی در بین شما هستند 
که به احتمال این ماشین ابرهوشمند شک داشته
و آن را کمابیش بعید می‌دانند.
اما بعد باید به غلط بودن
یکی از فرضیه‌های زیر برسید.
و آنها سه تا بیشتر نیستند.
هوشمندی موضوع پردازش اطلاعات
در سیستمهای فیزیکی است.
راستش کمی بیشتر از یک فرض است.
درحال حاضر میزان اندکی از هوشمندی
را در داخل ماشینهایمان بکار بردیم،
و خیلی از این ماشینها همین الان نیز
عملکردی در سطح هوش
یک انسان فوق العاده باهوش دارند.
و می‌دانیم که خود این مسله صرفا می‌تواند
منجر به پیداش به اصطلاح
« هوشمندی عمومی» شود،
توانایی اندیشیدنِ منعطف
در سرتاسر حوزه‌های مختلف،
چون که مغزهایمان در انجامش موفق بودند، 
اینطور نیست؟
منظورم این است که در اینجا فقط اتم است،

Croatian: 
koji, bili oni svjesni ili ne,
bi se mogli odnositi spram nas
sa sličnim nehajem.
Sad, pretpostavljam kako
vam se ovo doima nategnutim.
Kladim se kako vas ima koji sumnjate
kako je superinteligentan AI moguć,
a još manje neizbježan.
Ali onda morate naći nešto krivo
s nekom od slijedeći pretpostavki.
A samo ih je tri.
Inteligencija je stvar obrade
informacija u fizičkim sustavima.
Zapravo, ovo je 
malo više od pretpostavke.
Već smo ugradili
usku inteligenciju u naše strojeve,
i puno tih strojeva imaju izvedbu
na razini nadljudske 
inteligencije već sada.
I znamo kako puka materija
može omogućiti nastanak 
onog što nazivamo "opća inteligencija,"
sposobnost razmišljanja
rastezljivog na višestruka područja,
jer to mogu naši mozgovi. U redu?
Mislim, ovdje su samo atomi,

Japanese: 
意識的にせよ無意識にせよ
人類をそのように軽く扱う機械を
我々がいつか作ってしまうことです
考えすぎだと 多くの方は
思っていることでしょう
超知的AIの実現可能性を
疑問視し
ましてや不可避などとは
思わない人もいるでしょう
でも それなら これから挙げる仮定に
間違いを見つけてほしいものです
仮定は３つだけです
知性とは物質的なシステムにおける
情報処理である
実際これは
仮定以上のものです
狭い意味での知性なら
もう機械で作り出されており
そのような機械はすでに
人間を超える水準に
達しています
そして様々な分野にわたって
柔軟に思考できる能力である
「汎用知能」は
物質で構成可能なことを
我々は知っています
なぜなら人間の脳が
そうだからです
ここにあるのは
ただの原子の塊です

Chinese: 
不管它们是否有意识，
它们终将会以
我们对待蚂蚁的方式
来对待我们。
我想很多人会说这很遥远。
我打赌你们中有些人还会
怀疑超级人工智能是否可能实现，
认为我是在小题大做。
但是你很快会发现以下这些
假设中的某一个是有问题的。
下面是仅有的三种假设：
第一，智慧可以被看做
物理系统中的信息处理过程。
事实上，这不仅仅是一个假设。
我们已经在有些机器中
嵌入了智能系统，
这些机器中很多已经
有着超越普通人的智慧了。
而且，我们也知道任何一点小事
都可以引发所谓的“普遍智慧”，
这是一种可以在不同领域间
灵活思考的能力，
因为我们的大脑已经
成功做到了这些。对吧？
我的意思是，
大脑里其实都是原子，

Spanish: 
que, ya sea conscientemente o no,
nos puedan tratar con
una indiferencia similar.
Sospecho que esto pueda
parece inverosímil para muchos.
Apuesto a que hay quienes dudan
de que la superinteligente IA sea posible
y mucho menos inevitable.
Pero en este caso hay que refutar
uno de los siguientes supuestos.
Y hay solo tres.
La inteligencia es el procesamiento
de información en un sistema físico.
En realidad, esto es poco
más que una suposición.
Ya hemos incorporado inteligencia
limitada en nuestras máquinas,
y aún así, muchas de estas máquinas actúan
a un nivel de inteligencia sobrehumana.
Y sabemos que la mera materia da lugar
a lo que se llama "inteligencia general",
la capacidad de pensar con
flexibilidad en múltiples campos
porque nuestros cerebro
humano ya lo ha conseguido.
Es decir, solo hay átomos aquí,

Catalan: 
que tant si són conscients
com si no ho són,
podrien arribar a menysprear-nos així.
Crec que això queda molt lluny
per molts de vosaltres.
Inclús crec que molts de vosaltres dubteu
que la superintel·ligència sigui possible,
i menys encara inevitable.
Però en aquest cas heu de trobar quelcom
erroni en una d'aquestes suposicions:
I només n'hi ha tres:
La intel·ligència consisteix en processar
informació en sistemes físics.
De fet, això és quelcom
més que una suposició.
Ja hem incorporat petites intel·ligències
en les nostres màquines,
i moltes d'elles tenen
un rendiment superior
a un nivell d'intel·ligència suprahumana.
I ja sabem que la mera matèria
pot donar lloc
a la "intel·ligència general",
és a dir l'habilitat de pensar
amb flexibilitat en diversos camps.
Al cap i a la fi els nostres cervells
ho han aconseguit, cert?
És a dir, només hi ha àtoms aquí,

Korean: 
그 기계가 의식이 있든 없든
비슷하게 무시하는 태도로 
우리를 대할 수 있다는 거죠.
지나친 억측이라고 
생각하는 분이 대다수겠지만
초지능 AI가 가능하기나 한지 
의심스러운 분도 분명 계시겠죠.
물론 필연적이라고 보지도 않고요.
그럼 다음 가정에서 잘못된
점을 찾으셔야 할 겁니다.
단 세 가지입니다.
지능이란 물리적 시스템에서 
정보를 처리하는 것입니다.
사실 이것은 약간은 
가정 그 이상입니다.
우린 이미 기계에 
제한된 지능을 구축했고
이 기계들은 이미
인간을 뛰어넘는 지능
수준으로 구동합니다.
우리가 알기로 단순한 문제가
"일반 지능"이란 것을 
만들어 낼 수도 있죠.
다양한 분야에서 융통성 있게 
사고하는 능력인데
우리 뇌는 그렇게 해왔잖아요. 그렇죠?
여기 원자들이 있고

Italian: 
che, consapevolmente o meno,
possano trattarci
con la stessa noncuranza.
Penserete che tutto questo
sia inverosimile
Scommetto che alcuni di voi dubitano
che una IA del genere sia possibile,
e ancor meno, che sia inevitabile.
Ma per credere questo dovete trovare
qualcosa di sbagliato in questi assunti.
Sono solo tre.
L'intelligenza dipende dalle informazioni
elaborate in un sistema fisico.
In realtà questo è più di un assunto.
Abbiamo già inserito delle "IA deboli"
nelle nostre macchine,
e molte di queste hanno già dato risultati
a livelli di una super intelligenza.
Sappiamo che la sola materia
può dar vita alla "intelligenza generale",
l'abilità di pensare in modo flessibile
attraverso settori diversi,
perché il nostro cervello
lo sa fare. Giusto?
Alla fine, ci sono solo atomi qua dentro,

English: 
and as long as we continue
to build systems of atoms
that display more and more
intelligent behavior,
we will eventually,
unless we are interrupted,
we will eventually
build general intelligence
into our machines.
It's crucial to realize
that the rate of progress doesn't matter,
because any progress
is enough to get us into the end zone.
We don't need Moore's law to continue.
We don't need exponential progress.
We just need to keep going.
The second assumption
is that we will keep going.
We will continue to improve
our intelligent machines.
And given the value of intelligence --
I mean, intelligence is either
the source of everything we value
or we need it to safeguard
everything we value.
It is our most valuable resource.
So we want to do this.
We have problems
that we desperately need to solve.
We want to cure diseases
like Alzheimer's and cancer.
We want to understand economic systems.
We want to improve our climate science.

Thai: 
และตราบใดที่เรายังคงสร้าง
ระบบของอะตอม
ที่แสดงพฤติกรรมชาญฉลาด
มากขึ้นและมากขึ้น
ในที่สุดถ้าเราไม่ถูกขัดขวาง
เราก็จะสร้างความฉลาดทั่วไป
เอาไว้ในจักรกลของเรา
มันจำเป็นมากที่ต้องตระหนักว่า
อัตราความก้าวหน้านั้นไม่สำคัญ
เพราะความก้าวหน้าใด ๆ ก็ตาม
ก็เพียงพอที่จะพาเราเข้าสู่ช่วงสุดท้าย
ไม่จำเป็นต้องดำเนินไปตามกฎของมอร์ 
ไม่จำเป็นต้องก้าวหน้าไปแบบยกกำลัง
เราแค่ต้องก้าวหน้าต่อไปเรื่อย ๆ
เท่านั้นเอง
สมมติฐานเบื้องต้นข้อที่สอง 
คือเราจะก้าวหน้าต่อไปเรื่อย ๆ
เราจะยังคงปรับปรุงจักรกล
ที่ชาญฉลาดของเราต่อไป
และด้วยคุณค่าของความฉลาด --
ผมหมายถึงว่า ไม่ว่าความฉลาด
จะเป็นทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
หรือเราต้องใช้มันเพื่อปกป้อง
ทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
มันก็เป็นสิ่งที่มีคุณค่าที่สุดของเรา
ฉะนั้น เราจึงต้องการทำสิ่งนี้
เรามีปัญหา
ที่เราจำเป็นต้องแก้ไขอย่างเร่งด่วน
เราต้องการรักษาโรค 
อย่างเช่น อัลไซเมอร์และมะเร็ง
เราต้องการเข้าใจระบบเศรษฐกิจ
เราต้องการปรับปรุงศาสตร์ภูมิอากาศวิทยา

Chinese: 
只要我哋繼續加設原子系統
機器就可以有更加多智能行為
除非進度有咩停頓
否則我哋最終會喺機器裏面
建構出一般智能
明白進度嘅快慢並唔影響係好重要
因為任何過程都足以令我哋返唔到轉頭
我哋唔需要按照摩爾定律進行
我哋唔需要指數式增長
我哋只需要繼續做
第二個假設就係我哋會繼續做
我哋會繼續改造我哋嘅智能機器
而考慮到智能嘅價值…
我係話，因為有智能
我哋至會珍重事物
或者我哋需要智能
去保護我哋珍重嘅一切
智能係我哋最有寶貴嘅資源
所以我哋想繼續發展智能
我哋有極需解決嘅問題
例如我哋想治療類似阿茲海默症
同癌症嘅疾病
我哋想認識經濟系統
我哋想改善我哋嘅氣候科學

Chinese: 
只要我们继续建造这些原子体系，
我们就能实现越来越多的智慧行为，
我们最终将会，
当然除非我们被干扰，
我们最终将会给我们的机器赋予
广泛意义上的智能。
我们要知道这个进程的速度并不重要，
因为任何进程都足够
让我们走进死胡同。
甚至不需要考虑摩尔定律，
也不需要用指数函数来衡量，
这一切顺其自然都会发生。
第二个假设是，我们会一直创新。
去继续改进我们的智能机器。
由于智慧的价值就是——
提供我们所珍爱的事物，
或是用于保护我们所珍视的一切。
智慧就是我们最有价值的资源。
所以我们想继续革新它。
因为我们有很多需要
迫切解决的问题。
我们想要治愈像阿兹海默症
和癌症这样的疾病，
我们想要了解经济系统，
想要改善我们的气候科学，

Japanese: 
より知的な振る舞いをする
原子でできたシステムの構築を
続けていくなら
何かで中断させられない限りは
いつか汎用知能を
機械で作り出すことに
なるでしょう
重要なのは ここで進歩のスピードは
問題ではないことです
どんな進歩であれ
そこに至るのに十分だからです
ムーアの法則の持続も
指数爆発的な進歩も必要ありません
ただ続けていくだけで
いいのです
第２の仮定は 
人間が進み続けていくこと
我々が知的な機械の
改良を続けていくことです
知性の価値を考えてください
知性は 我々が価値を置くもの
すべての源泉
価値を置くものを守るために
必要なものです
我々が持つ
最も貴重なリソースです
我々は それを必要としています
我々は解決すべき問題を
抱えています
アルツハイマーやガンのような病気を
治したいと思っています
経済の仕組みを理解したい
気象科学をもっと良くしたいと思っています

Spanish: 
y mientras continuemos
construyendo sistemas de átomos
que exhiban un comportamiento
más y más inteligente,
terminaremos implementando, a menos
que lo interrumpamos, inteligencia general
en nuestras máquinas.
Es crucial comprender que
la velocidad no es el problema
porque cualquier velocidad
es suficiente para llegar al fin.
No necesitamos la ley de Moore para
continuar ni un aumento exponencial.
Solo tenemos que seguir adelante.
El segundo supuesto es
que vamos a seguir adelante.
Vamos a seguir mejorando
nuestras máquinas inteligentes.
Y teniendo en cuenta
el valor de la inteligencia,
es decir, la inteligencia es o bien
la fuente de todo lo que valoramos
o la necesidad por preservar
todo lo que valoramos.
Es nuestro recurso más valioso.
Por eso lo queremos hacer.
Tenemos problemas que necesitamos
desesperadamente resolver.
Queremos curar enfermedades
como el Alzheimer y el cáncer.
Queremos entender
los sistemas económicos.
Queremos mejorar el clima.

Dutch: 
en zolang we systemen 
van atomen blijven bouwen
die steeds intelligenter
gedrag gaan vertonen,
zullen we uiteindelijk, 
tenzij iets ons tegenhoudt,
algemene intelligentie creëren
in onze machines.
Het maakt niet uit 
hoe snel we vooruitgaan,
want elke vooruitgang 
brengt ons dichter bij het eindpunt.
Vergeet de wet van Moore,
exponentiële vooruitgang is niet nodig.
We hoeven alleen maar door te gaan.
De tweede veronderstelling
is dat we zullen blijven doorgaan.
We zullen onze intelligente 
machines blijven verbeteren.
En gezien de waarde van intelligentie --
ik bedoel, intelligentie is ofwel de bron 
van alles wat we waarderen
of ze moet alles beschermen
wat we waarderen.
Het is ons waardevolste hulpmiddel.
Dus we willen dit doen.
We hebben problemen 
die we nodig moeten oplossen.
We willen ziektes 
als Alzheimer en kanker genezen.
We willen economische systemen begrijpen 
en onze klimaatwetenschap verbeteren.

Catalan: 
i sempre i quan seguim construint
sistemes a base d'àtoms
que es comporten de forma
cada cop més intel·ligent,
en algun moment, si res no ho impedeix,
en algun moment construirem
intel·ligència artificial
en les nostres màquines.
És de vital importància adonar-se'n
que el ritme de progrés no importa,
perquè qualsevol progrés ens acabarà
portant a l'altre extrem.
No ens cal la llei de Moore per continuar.
No ens cal un progrés exponencial.
Només ens cal seguir avançant.
La segona suposició
és que seguirem avançant.
Seguirem millorant
les màquines intel·ligents.
I donat el valor que té la intel·ligència,
és a dir, ja que la intel·ligència
és la font de tot el que valorem
i la necessitem per salvaguardar
tot el que ens importa.
És el recurs més valuós de que disposem.
Així doncs, volem que avanci.
Tenim problemes que
hem de solucionar desesperadament.
Volem guarir malalties
com l'Alzheimer i el càncer.
Volem entendre sistemes econòmics.
Volem millorar la ciència del clima.

iw: 
וכל עוד נמשיך לבנות מערכות של אטומים
שמפגינות התנהגות יותר ויותר אינטליגנטית,
בסוף, אלא אם כן יפריעו לנו,
בסוף, נבנה אינטליגנציה כללית
בתוך המכונות שלנו.
זה חיוני להבין שקצב ההתקדמות אינו משנה,
כיוון שכל התקדמות מספיקה
בכדי להביא אותנו לקו הסיום.
אנחנו לא צריכים את חוק מור בשביל להמשיך.
אנחנו לא צריכים התקדמות אקספוננציאלית.
אנחנו רק צריכים להמשיך.
ההנחה השניה היא שאנחנו נמשיך.
אנחנו נמשיך לשפר 
את המכונות האינטליגנטיות שלנו.
ובהתחשב בחשיבות האינטליגנציה –
אינטליגנציה היא המקור של כל מה שיקר לנו
או שאנחנו זקוקים לה בשביל
לשמור על כל מה שיקר לנו.
זהו המשאב הכי יקר שלנו.
אז אנחנו רוצים לעשות את זה.
יש לנו בעיות שאנחנו צריכים לפתור נואשות.
אנחנו רוצים לרפא מחלות כמו אלצהיימר וסרטן.
אנחנו רוצים להבין מערכות כלכליות.
אנחנו רוצים לשפר את מדעי האקלים.

Georgian: 
და თუ ატომებისგან შემდგარი
ისეთი სისტემების შექმნას განვაგრძობთ,
რომლებიც სულ უფრო მეტ
გონიერ საქციელს გამოავლენენ,
რაღაცამ თუ არ შეგვაჩერა,
საბოლოოდ ზოგადი ინტელექტის მქონე
მანქანებს შევქმნით.
მნიშვნელოვანია გავიაზროთ,
რომ პროგრესის ტემპს არ აქვს მნიშვნელობა,
რადგან ნებისმიერი ტემპი საკმარისია,
რომ ბოლოში გავიდეთ.
ჩვენ არ გვჭირდება მურის კანონი ამისთვის.
არ გვჭირდება ექსპონენციალური პროგრესი.
ჩვენ მხოლოდ წინსვლა გვჭირდება.
მეორე დაშვება ისაა,
რომ ჩვენ განვაგრძობთ პროგრესს.
განვაგრძობთ გონიერი მანქანების შექმნას.
თუ ინტელექტის ფასს გავითვალისწინებთ...
ინტელექტი, ან ყველაფერ იმის წყაროა
რასაც ვაფასებთ,
ან გვჭირდება იმისთვის, რომ დავიცვათ
ყველაფერი ის რასაც ვაფასებთ.
ის ჩვენი ყველაზე ფასეული რესურსია.
ამიტომ გვინდა ამის კეთება.
ჩვენ გვაქვს პრობლემები,
რომელთა გადაწყვეტა აუცილებელია.
ჩვენ გვინდა ალცჰაიმერის და კიბოს მაგვარი
დაავადებების განკურნება.
გვინდა ეკონომიკური სისტემებში გარკვევა.
და კლიმატური მეცნიერების გაუმჯობესება.

Persian: 
و تا مادامی که سیستمی اتمی را می‌سازیم
که رفتار هوشمندانه بیشتر و بیشتری نشان می‌دهند،
مگر این که دچار وقفه شویم، وگرنه
ما نهایتا هومندیش عمومی را در ماشینهایمان
بکار خواهیم برد.
مهم است که تشخیص دهیم میزان 
پیشرفت اهمیت ندارد،
زیرا هر پیشرفتی برای رساندن ما به 
منطقه نهایی کافی است.
برای ادامه نیاز به قانون مورفی نداریم.
نیاز به پیشرفت تصاعدی نداریم.
فقط باید ادامه دهیم.
فرض دوم این است که 
ادامه خواهیم داد.
به بهسازی ماشینهای هوشمند
خود ادامه می‌دهیم.
و با فرض ارزش هوشمندی--
منظورم این است که خواه هوشمندی منبع 
همه چیزهایی است که برایمان ارزش دارد
یا که برای محافظت از چیزهای باارزشمان
به آن نیاز داریم.
مهمترین منبع باارزش ما است.
بنابراین می‌خواهیم
این را انجام دهیم.
مشکلاتی که مایوسانه نیاز به حل شان داریم.
میخواهیم امراضی چون آلزایمر 
و سرطان را درمان کنیم.
می‌خواهیم سیستمهای اقتصادی را بفهمیم.
می‌خواهیم دانش اقلیمی خویش را بهبود ببخشیم.

Czech: 
a pokud budeme pokračovat
v budování systémů z atomů,
které budou vykazovat čím dál
inteligentnější chování, tak nakonec,
pokud nás něco nezastaví,
zabudujeme do našich strojů
všeobecnou inteligenci.
Klíčové je uvědomit si,
že na rychlosti pokroku nezáleží,
protože k dosažení cílové pásky
stačí jakékoli tempo.
Nepotřebujeme Mooreův zákon,
není zapotřebí exponenciální vývoj.
Prostě stačí pokračovat.
Druhým předpokladem je,
že budeme pokračovat.
Budeme naše inteligentní stroje
nadále zdokonalovat.
Protože inteligence je důležitá –
myslím tím to, že inteligence je buď
zdrojem všeho, čeho si ceníme,
nebo že ji potřebujeme
k zabezpečení všeho, čeho si ceníme.
Je to náš nejcennější zdroj.
Takže v tom chceme pokračovat.
Máme problémy, které zoufale
potřebujeme vyřešit.
Chceme například vyléčit
Alzheimerovu chorobu nebo rakovinu.
Chceme rozumět ekonomickým systémům.
Chceme zlepšit výzkum klimatu.

Portuguese: 
e desde que continuemos a construir
sistemas de átomos
que mostrem mais e mais
comportamento inteligente,
a não ser que nos interrompam,
vamos acabar construindo 
inteligência geral
dentro de nossas máquinas.
É crucial perceber que a taxa
de progresso não importa,
porque qualquer progresso é suficiente
para nos levar até a zona final.
Não precisamos da Lei de Moore
para continuar,
Não precisamos de progresso exponencial,
só precisamos continuar.
A segunda suposição é 
que vamos continuar.
Continuaremos a melhorar
nossas máquinas inteligentes.
E dado o valor da inteligência...
Inteligência ou é a fonte de tudo
aquilo que valorizamos
ou precisamos dela para que proteja
aquilo que valorizamos.
É a nossa fonte mais valiosa.
Então nós queremos fazer isso.
Temos problemas que precisamos
resolver urgentemente.
Queremos curar doenças
como Alzheimer e câncer.
Queremos entender sistemas econômicos.
Queremos aprimorar a ciência climática.

Italian: 
e finché continuiamo a costruire
dei sistemi fatti di atomi
che manifestano comportamenti
sempre più intelligenti,
a meno che qualcosa non ce lo impedisca,
arriveremo a immettere
l'intelligenza generale
nelle nostre macchine.
È fondamentale capire
che il tasso di progresso non conta,
perché ogni progresso basta
ad avvicinarci al suo compimento.
Non c'è bisogno della legge di Moore,
o della crescita esponenziale.
Basta proseguire.
Il secondo assunto è che proseguiremo.
Continueremo a migliorare
le nostre macchine intelligenti.
E data l'importanza dell'intelligenza...
O l'intelligenza è la fonte di tutto ciò
che per noi ha valore,
o ne abbiamo bisogno per preservare
tutto ciò che ha valore.
È la nostra risorsa più importante.
Per questo lo facciamo.
Ci sono problemi che dobbiamo
risolvere disperatamente.
Vogliamo curare malattie
come l'Alzheimer e il cancro.
Vogliamo comprendere i sistemi economici,
migliorare le scienze del clima.

Chinese: 
只要我們繼續製造基於原子的系統，
越來越能表現智能的行為，
我們終究會，除非我們被打斷，
我們終究會造出通用智能
裝進我們的機器裡。
關鍵是理解到發展的速率無關緊要，
因為任何進展都足以
帶我們到終結之境。
我們不需要摩爾定律才能繼續。
我們不需要指數型的發展。
我們只需要繼續前進。
第二個假設是我們會繼續前進。
我們會持續改善我們的智能機器。
而因為智能的價值──
我的意思是，智能是所有
我們珍視的事物的源頭，
或者我們需要智能
來保護我們珍視的事物。
智能是我們最珍貴的資源。
所以我們想要這麼做。
我們有許多亟需解決的問題。
我們想要治癒疾病
如阿茲海默症和癌症。
我們想要了解經濟系統。
我們想要改進我們的氣候科學。

Arabic: 
وطالما نستمر ببناء أنظمة من الذرات
والتي تُبدي سلوكاً متزايداً أكثر
وأكثر من الذكاء
فإننا في النهاية، إلا إذا تمَّت مقاطعتنا،
في النهاية سوف نبني ذكاءً عاماً
في آلياتنا.
من المصيري أن ندرك أن معدل التطور لا يهم،
لأن أي تطور هو كافٍ لإيصالنا إلى 
منطقة النهاية.
لا نحتاج قانون Moore للاستمرار.
لا نحتاج التطور الأسي.
نحتاج فقط لأن نستمر بالمضي قدماً
الافتراض الثاني هو أننا سنستمر
بالمضي قدماً.
سنستمر بتحسين آلياتنا الذكية.
وبافتراض أهمية الذكاء --
أنا أعني، أن الذكاء هو إما مصدر 
لكل شيءٍ نقدِّره
أو أننا نحتاجه لحماية كل شيءٍ نقدُّره.
إنه المنبع الأكثر أهمية لدينا.
لذلك نحتاج لفعل التالي.
لدينا مشاكل نحن بحاجة ماسِّة لحلها.
نريد شفاء الأمراض كالزهايمر والسرطان.
نريد أن نفهم الأنظمة الاقتصادية.
نريد تحسين علم المناخ الخاص بنا.

Hungarian: 
és amíg atomokból álló 
rendszereket építünk,
melyek egyre intelligensebb 
viselkedést mutatnak,
akkor egyszer, hacsak nem lépünk közbe,
akkor egyszer megépítjük 
az alap intelligenciával
rendelkező gépeket.
Mindennél fontosabb azonban felismerni, 
hogy a fejlődés üteme lényegtelen,
mert a fejlődés önmagában 
elegendő ahhoz, hogy célba érjünk.
Nincs szükségünk Moore-törvényre, 
sem exponenciális növekedésre.
Csak haladnunk kell tovább.
A második feltevés, hogy haladunk tovább.
Egyre intelligensebb gépeket hozunk létre.
És ami az intelligencia értékét illeti --
az intelligencia, vagy a forrása
a számunkra értékesnek,
vagy megóvja számunkra mindazt,
amit értékesnek tartunk.
Az egyik legértékesebb erőforrásunk.
Szóval megakarjuk alkotni.
Vannak problémák, melyeket 
haladéktalanul meg kell oldanunk.
Meg akarjuk gyógyítani az Alzheimert,
a rákot és hasonló betegségeket.
Érteni akarjuk a gazdasági rendszereket.
Javítani akarjuk a klímaismereteinket.

Ukrainian: 
та допоки ми продовжуємо
будувати системи з атомів,
що демонструють все більш
інтелектуальну поведінку,
ми поступово,
якщо нас не зупинять,
поступово вбудуємо
загальний інтелект
в наші машини.
Важливо зрозуміти,
що рівень прогресу не має значення,
тому що будь-який прогрес здатний
призвести нас до фінального пункту.
Нам не треба закону Мура, щоб продовжувати.
Нам не потрібний експоненційний прогрес.
Нам лише треба не зупинятися.
Друге припущення полягає в тому,
що ми не зупинимося.
Будемо далі удосконалювати
наші розумні машини.
Та враховуючи цінність інтелекту--
Я маю на увазі, інтелект є або
джерелом всього, що ми цінуємо,
або він нам потрібен, щоб зберегти
все, що ми цінуємо.
Це наш найцінніший ресурс.
Тому ми хочемо це робити.
В нас є проблеми,
що їх нам вкрай необхідно залагодити.
Ми хочемо лікувати такі захворювання,
як Альцгеймер та рак.
Ми хочемо зрозуміти економічні системи.
Ми хочемо покращити нашу кліматичну науку.

Modern Greek (1453-): 
και όσο συνεχίζουμε να φτιάχνουμε
συστήματα από άτομα
που επιδεικνύουν όλο και
περισσότερο ευφυή συμπεριφορά,
αν δεν μας σταματήσει κάποιος,
τελικά θα βάλουμε τη γενική ευφυΐα
μέσα στις μηχανές μας.
Είναι σημαντικό να καταλάβουμε
ότι δεν έχει σημασία ο ρυθμός της προόδου,
γιατί κάθε πρόοδος είναι αρκετή
για να οδηγήσει σε αυτή την κατάληξη.
Δεν χρειάζεται ο Νόμος του Μουρ,
ούτε κάποια εκθετική πρόοδος.
Χρειάζεται απλώς να συνεχίσουμε.
Η δεύτερη υπόθεση είναι
ότι θα συνεχίσουμε.
Θα συνεχίσουμε να βελτιώνουμε
τις έξυπνες μηχανές μας.
Και σύμφωνα με την αξία της ευφυΐας -
εννοώ ότι είτε η ευφυΐα
είναι η πηγή για ό,τι θεωρούμε άξιο,
ή χρειάζεται να περιφρουρήσουμε
οτιδήποτε θεωρούμε άξιο.
Είναι ο πιο πολύτιμος πόρος που έχουμε.
Έτσι, θέλουμε να το κάνουμε.
Έχουμε προβλήματα και πρέπει
να τα λύσουμε επειγόντως.
Θέλουμε να θεραπεύσουμε νόσους
όπως τον καρκίνο και την Αλτσχάιμερ,
να καταλάβουμε οικονομικά συστήματα,
να βελτιώσουμε τη γνώση μας για το κλίμα.

Serbian: 
i sve dok mi nastavljamo
da gradimo sisteme atoma
koji su sve inteligentniji
i inteligentniji,
mi ćemo na kraju, osim ako nas prekinu,
mi ćemo na kraju
ugraditi uopštenu inteligenciju
u naše mašine.
Od suštinske je važnosti da shvatimo
da stopa napretka nije važna,
jer bilo kakav napredak
je dovoljan da nas dovede do cilja.
Ne treba nam Murov zakon.
Ne treba nam eksponencijalni napredak.
Samo treba da nastavimo dalje.
Druga pretpostavka je
da ćemo nastaviti dalje.
Nastavićemo da poboljšavamo
naše inteligentne mašine.
I uz postojeću vrednost inteligencije -
mislim, inteligencija je
ili izvor svega što je vredno
ili nam treba da sačuvamo
sve ono što nam je vredno.
To je naš najvredniji resurs.
I zato želimo da uradimo ovo.
Imamo probleme koje
očajnički moramo da rešimo.
Želimo da izlečimo bolesti poput
Alchajmera i raka.
Želimo da shvatimo ekonomske sisteme.
Želimo da poboljšamo nauku o klimi.

Turkish: 
ve biz gitgide daha zeki 
davranışlar sergileyen atomlar
sistemi kurmaya devam ettikçe,
nihayetinde makinelerimize
genel zekâyı kurabileceğiz,
engellenmedikçe.
İlerlemenin seviyesinin önemli
olmadığının farkına varmak çok mühim,
çünkü herhangi bir gelişme
bizi sayı çizgisine getirmeye yetebilir.
Devam etmek için Moore
kanununa gerek yok.
Üstel bir gelişime ihtiyacımız yok.
Sadece devam etmeliyiz.
İkinci varsayım ise devam etmemiz.
Akıllı makinelerimizi geliştirmeye
devam edeceğiz.
Ve zekânın değeri göz önüne alınırsa,
yani zekâ ya bütün değer
verdiklerimizin kaynağıdır ya da
değer verdiğimiz her şeyi
korumak için ona ihtiyacımız vardır.
Bizim en değerli kaynağımızdır.
O yüzden bunu yapmak isteriz.
Umutsuzca çözmek istediğimiz
problemlerimiz vardır.
Alzheimer ve kanser gibi
hastalıkları tedavi etmek isteriz.
Ekonomi sistemlerini anlamak isteriz.
İklim bilimini ilerletmek isteriz.

Korean: 
원자 시스템을 계속 구축해서
점점 더 지능적인 행동을 하게 하면
중간에 멈추지만 않는다면
우린 마침내 일반지능을
기계에 구축할 겁니다.
진보의 속도가 문제되지 
않음을 아는게 중요합니다.
어떻게든 발전하면 끝까지
갈 수 있기 때문이죠.
계속 하기 위해 무어의 법칙이나
기하급수적인 진보가 필요없습니다.
그냥 계속 하면 되죠.
두 번째 가정은 우리가 
계속 할 것이라는 겁니다.
우리는 지능적인 기계를 
계속 향상시킬 겁니다.
지능의 가치를 생각해 볼 때
지능이란 우리가 가치있게
여기는 모든 것의 원천이거나
가치있는 것을 지키기 위해 필요하죠.
우리의 가장 귀한 자원입니다.
그래서 개발을 하고 싶은 겁니다.
우리는 간절히 해결하고 
싶은 문제들이 있죠.
알츠하이머 병이나 암같은 
질병을 치료하고 싶어 합니다.
경제 체계를 이해하고 기후 과학을
발전시키고 싶어하죠.

Swedish: 
och så länge vi fortsätter att
bygga system av atomer
som uppvisar mer och mer intelligens,
kommer vi till slut,
om vi inte blir avbrutna,
ha byggt in generell intelligens
i våra maskiner.
Det är viktigt att inse att
utvecklingstakten inte spelar någon roll,
eftersom minsta framsteg
räcker för att nå slutstationen.
Vi behöver inte Moores lag. Utvecklingen
behöver inte vara exponentiell.
Vi behöver bara fortsätta framåt.
Det andra antagandet är
att vi kommer fortsätta.
Vi fortsätter utvecklingen
av de intelligenta maskinerna.
Och givet värdet på intelligens -
jag menar, intelligens är antingen
summan av allt vi sätter värde på
eller som vi behöver för att
skydda det vi värdesätter.
Det är vår värdefullaste resurs.
Så vi vill göra det här.
Vi har problem som vi desperat måste lösa.
Vi vill bota sjukdomar som
Alzheimers och cancer.
Vi vill förstå de ekonomiska systemen.
Vi vill utveckla klimatforskningen.

French: 
et tant que nous continuerons 
à construire des systèmes d'atomes
qui feront montre de plus 
en plus d'intelligence,
nous parviendrons,
à moins d'être interrompus,
nous parviendrons à implanter
une « intelligence générale »
au cœur de nos machines.
Il est crucial de comprendre 
que la vitesse n'est pas le problème,
car n'importe quelle vitesse 
est suffisante pour aller au bout.
Nous n'avons pas besoin 
de la loi de Moore
ni d'un progrès exponentiel.
Il suffit de continuer à avancer.
La deuxième hypothèse 
est que nous allons continuer.
Nous continuerons d'améliorer
nos machines intelligentes.
Et, vue la valeur de l'intelligence --
l'intelligence est la source 
de tout ce qui compte
ou alors elle doit protéger 
tout ce qui compte.
C'est notre plus importante ressource.
Donc nous allons continuer.
Nous avons des problèmes 
que nous devons absolument résoudre.
Nous voulons vaincre les maladies 
comme Alzheimer ou le cancer.
Nous voulons comprendre l'économie.
Nous voulons améliorer le climat.

Romanian: 
și atâta vreme cât continuăm
să construim sisteme de atomi
care prezintă comportament
din ce în ce mai inteligent,
într-un final, dacă nu suntem întrerupți,
vom construi inteligență generală
în mașinăriile noastre.
E crucial să realizăm
că rata progresului nu contează
deoarece orice progres e îndeajuns
să ne aducă la capăt de drum.
Nu ne trebuie legea lui Moore
să continuăm, nici progres exponențial.
Trebuie doar să continuăm.
A doua presupunere e că vom continua.
Vom continua să îmbunătățim
mașinăriile inteligente.
Dată fiind valoarea inteligenței --
inteligența fie e sursa
a tot ce valorăm,
fie ne trebuie
ca să protejăm tot ce prețuim.
E resursa noastră cea mai prețioasă.
Deci asta vrem să facem.
Avem probleme pe care trebuie
să le rezolvăm urgent.
Vrem să vindecăm boli
ca Alzheimer și cancer.
Vrem să înțelegem sisteme economice.
Vrem să îmbunătățim știința climatică.

Slovak: 
a pokiaľ budeme pokračovať 
v budovaní systémov z atómov,
ktoré vykazujú čoraz
inteligentnejšie správanie,
tak nakoniec, pokiaľ nás niečo nezastaví,
zabudujeme všeobecnú inteligenciu
do našich strojov.
Kľúčové je si uvedomiť,
že na rýchlosti pokroku nezáleží,
pretože k dosiahnutiu cieľa
stačí akékoľvek tempo.
Nepotrebujeme Mooreov zákon,
nie je nutný exponenciálny vývoj.
Jednoducho stačí pokračovať.
Druhým predpokladom je,
že budeme pokračovať.
Budeme naďalej zlepšovať naše
inteligentné stroje.
A keďže inteligencia je pre nás dôležitá -
mám na mysli, že inteligencia je 
buď zdrojom všetkého, čo si ceníme,
alebo ju potrebujeme 
na ochranu všetkého, čo si ceníme.
Je to náš najhodnotnejší zdroj.
Takže v tom chceme pokračovať.
Máme problémy,
ktoré zúfalo musíme vyriešiť.
Chceme liečiť choroby 
ako Alzheimer a rakovina.
Chceme porozumieť ekonomickým systémom.
Chceme zlepšiť náš klimatický výskum.

Russian: 
и покуда мы продолжаем
создавать системы из атомов,
проявляющие всё более разумное поведение,
в итоге мы — если ничто не помешает —
в итоге мы наделим общим интеллектом
свои устройства.
Очень важно осознавать,
что темп прогресса не важен,
потому что любой прогресс
может привести нас к конечному итогу.
Нам не нужно, чтобы закон Мура работал.
Нам не нужен экспоненциальный прогресс.
Нам просто нужно не останавливаться.
Второе предположение —
что мы не остановимся.
Мы продолжим улучшать
свои интеллектуальные устройства.
И, учитывая ценность интеллекта —
ведь интеллект либо порождает всё,
что мы ценим,
либо нужен нам для защиты всего,
что мы ценим, —
это наш ценнейший ресурс.
Поэтому мы хотим этим заниматься.
У нас есть проблемы,
которые непременно нужно решить.
Мы хотим излечить болезни
вроде Альцгеймера и рака.
Мы хотим понимать экономические системы.
Мы хотим больше знать о климате.

Vietnamese: 
và miễn là chúng ta tiếp tục xây dựng
hệ thống các nguyên tử
để biểu lộ những hành động
thông minh nhiều hơn nữa,
cuối cùng chúng ta sẽ,
trừ khi chúng ta bị gián đoạn,
cuối cùng chúng ta sẽ xây dựng được
trí tuệ không giới hạn
cho máy móc của mình.
Cần phải nhận ra rằng
tiến độ không quan trọng.
bởi vì bất kì quá trình nào cũng đủ
để đưa chúng ta vào khu vực kết thúc.
Ta không cần định luật Moore để tiếp tục.
Ta không cần phát triển theo cấp số nhân.
Chúng ta chỉ cần tiếp tục bước đi.
Giả định thứ hai là
chúng ta sẽ tiếp tục đi.
Chúng ta tiếp tục cải tiến
những cỗ máy thông minh của mình.
Và dựa vào giá trị của trí thông minh --
Ý tôi là, trí thông minh hoặc là nguồn gốc
của tất cả mọi thứ chúng ta đánh giá
hoặc chúng ta cần nó để bảo vệ
tất cả mọi thứ chúng ta coi trọng.
Nó là tài nguyên quý giá nhất
của chúng ta.
Vì thế chúng ta muốn làm điều này.
Chúng ta có những vần đề nhất định
phải liều mạng giải quyết.
Chúng ta muốn chữa khỏi các căn bệnh
như Alzheimer hay ung thư.
Chúng ta muốn nắm vững hệ thống kinh tế.
Chúng ta muốn cải thiện khoa học khí hậu.

Portuguese: 
Enquanto continuamos a construir
sistemas de átomos
que demonstram cada vez mais
um comportamento inteligente,
acabaremos — a não ser
que sejamos interrompidos —
acabaremos por construir
inteligência geral
nas nossas máquinas.
É crucial entender que a velocidade
do progresso não importa,
pois qualquer progresso
é suficiente para nos levar ao final.
Não precisamos da Lei de Moore
nem de progresso exponencial
para continuar.
Só precisamos de continuar.
A segunda premissa
é que iremos continuar.
Continuaremos a melhorar
as nossas máquinas inteligentes.
E devido ao valor da inteligência
— quer dizer, inteligência ou é
a fonte de tudo que valorizamos
ou precisamos dela para
salvaguardar tudo o que valorizamos.
É o nosso recurso mais valioso.
Por isso, queremos fazer isto.
Temos problemas que queremos
desesperadamente resolver.
Queremos curar doenças
como Alzheimer ou cancro.
Queremos entender sistemas económicos
e melhorar a nossa ciência climatérica.

Croatian: 
i sve dok nastavimo
graditi sustave atoma
koji pokazuju sve više
inteligentnog ponašanja
s vremenom ćemo,
osim ako ne budemo ometeni,
s vremenom ćemo
ugraditi opću inteligenciju
u naše strojeve.
Ključno je shvatiti
kako stopa napretka nije bitna,
jer će nas bilo kakav
napredak dovesti u krajnju zonu.
Ne trebamo nastavak Mooreovog zakona.
Ne trebamo eksponencijalni rast.
Samo trebamo nastaviti napredovati.
Druga je pretpostavka
kako ćemo nastaviti napredovati.
Nastavit ćemo unapređivati
naše inteligentne strojeve.
A uzevši vrijednost inteligencije --
Mislim, inteligencija je ili
izvor svega što držimo vrijednim
ili je trebamo kako bi zaštitili
sve što smatramo vrijednim.
Ona je naš najvredniji resurs.
Pa želimo to raditi.
Imamo probleme
koje očajnički trebamo riješiti.
Želimo liječiti bolesti
poput Alzheimera ili raka.
Želimo razumjeti ekonomske sustave.
Želimo unaprijediti naše klimatske znanosti.

iw: 
אז אנחנו נעשה זאת, אם נוכל.
הרכבת כבר יצאה מהתחנה,
ואין לה מעצור שנוכל למשוך בו.
לבסוף, אנחנו לא עומדים
בפסגת האינטליגנציה,
או אפילו קרוב אליה, ככל הנראה.
וזו באמת התובנה הקריטית ביותר.
זה מה שהופך את המצב שלנו לכל כך מסוכן,
וזה מה שהופך את האינטואיציות שלנו
לגבי הסיכון לכל כך לא אמינות.
עכשיו, תחשבו על האדם
החכם ביותר שחי אי פעם.
כמעט כולם כאן ישימו את
ג'ון פון נוימן איפשהו בראש הרשימה.
הרושם שפון נוימן עשה על האנשים סביבו,
וזה כולל כמה מהמתמטיקאים
והפיזיקאים הגדולים של זמנו,
מתועד בצורה טובה למדי.
אילו חצי מהסיפורים עליו היו חצי נכונים,
אין ספק בכלל
שהוא אחד האנשים החכמים שחיו עלי אדמות.
אז חשבו על רצף האינטליגנציה.
כאן נמצא ג'ון פון נוימן.
וכאן נמצאים אתם ואני.
ופה יש לנו תרנגולת.
(צחוק)

French: 
Donc nous allons continuer, 
si nous le pouvons.
Le train a déjà quitté la gare
et il n'y a pas de frein.
Et enfin, l'humain ne se trouve pas
au sommet de l'intelligence,
nous en sommes même très loin.
Et c'est vraiment le point crucial.
C'est ce qui rend
notre situation si précaire
et ce qui fait que notre compréhension 
des risques n'est pas fiable.
Prenons l'humain le plus intelligent
qui ait jamais vécu.
Beaucoup de gens penseraient 
à John von Neumann.
L'impression que von Neumann 
laissait aux gens,
y compris les plus brillants 
mathématiciens et physiciens de son temps,
est plutôt bien documentée.
Si ne serait-ce que la moitié 
de ce que l'on dit sur lui
est à moitié vraie,
il n'y a aucun doute qu'il soit
l'un des plus brillants esprits
qui aient existé.
Considérons le spectre de l'intelligence.
Voici John von Neumann.
Et nous, nous sommes ici.
Et là nous avons un poulet.
(Rires)

Czech: 
Takže budeme pokračovat,
pokud to půjde.
Je to rozjetý vlak, který nejde zastavit.
Posledním předpokladem je,
že lidé nestojí na vrcholu inteligence
a pravděpodobně nejsou ani pod vrcholem.
To je opravdu zásadní pohled.
Kvůli tomu jsme v tak prekérní situaci.
Kvůli tomu je naše intuice
při posuzování rizik tak nespolehlivá.
Vezměte si třeba
nejchytřejší lidi v dějinách.
Do užšího výběru by téměř každý
zařadil Johna von Neumanna.
To, jakým dojmem von Neumann
působil na lidi kolem sebe,
mezi něž patřili nejlepší
matematici a fyzici té doby,
je celkem dobře zdokumentováno.
Kdyby jen polovina historek o něm
byla aspoň z poloviny pravdivá,
tak není pochyb,
že patřil mezi nejchytřejší lidi historie.
Pojďme se teď zamyslet
nad rozsahem inteligence.
Tady je John von Neumann.
Tady jsou lidé jako vy a já.
A tady máme kuře.
(smích)

Ukrainian: 
Тому ми будемо це робити,
якщо зможемо.
Потяг вже поїхав зі станції,
і немає гальма, щоб його зупинити.
Нарешті, ми не стоїмо
на вершині інтелекту,
і навряд чи десь поблизу.
І це насправді ключовий факт.
Це те, що робить нашу ситуацію
такою небезпечною,
і це те, що робить нашу інтуїцію 
щодо ризику настільки ненадійною.
Тепер подумайте про найрозумнішу людину,
яка будь-коли існувала.
Майже у всіх у списку є Джон фон Нейман.
Я гадаю, що враження, яке фон Нейман
справляв на людей довкола,
до яких входили найвидатніші математики
та фізики його часу,
достатньо добре задокументоване.
Якщо лише половина історій про нього 
бодай наполовину правдива,
немає сумнівів, що
він один із найрозумніших людей,
які коли-небудь існували.
Тож обміркуємо спектр інтелекту.
Ось тут у нас Джон фон Нейман.
А ось тут ми з вами.
А ось тут курка.
(Сміх)

Arabic: 
لذلك سنفعل ذلك، إذا استطعنا.
القطار غادر المحطة بالفعل، ولا
يوجد مكابح لشدها.
وأخيراً، نحن لا نقف عند قمة الذكاء،
أو في أي مكان قريب منها، على ما يبدو،
وهذا حقاً هو البصيرة المصيرية.
هذا ما يجعل موقفنا متزعزعاً للغاية،
وهذا ما يجعل حدسنا بما يخص
الخطورة لا يُعتمد عليه أبداً.
والآن، فكروا فقط بأذكى شخص
عاش في أي وقتٍ مضى.
تقريباً على قائمة الجميع القصيرة 
يوجد John von Neumann.
أعني، الانطباع الذي تركه von Neumann 
على الناس المحيطين به،
وهذا يشمل أعظم علماء الرياضيات 
والفيزياء في عصره،
بالكاد تم توثيقه بشكل جيد.
إذا كانت نصف القصص فقط عنه نصف صحيحة،
فلا يوجد شك
أنه أحد أذكى الأشخاص الذين عاشوا
في أي وقتٍ مضى.
لذلك باعتبار طيف الذكاء.
هنا لدينا John von Neumann.
وهنا لدينا أنتم وأنا.
وثم هنا لدينا دجاجة.
(ضحك)

Chinese: 
所以如果可以做到嘅話
我哋會繼續發展智能
件事亦都可以比喻為︰
列車已經開出，但冇刹車掣可以踩
最終，我哋唔會去到
智能嘅頂峰或者高智能水平
而呢個就係非常重要嘅觀察結果
就係呢個結果
將我哋置於岌岌可危嘅境地
亦令到我哋對於危險嘅觸覺唔可靠
依家，就諗下史上最聰明嘅人
幾乎喺每個人嘅名單上面
都會有 John von Neumann
我嘅意思係 John von Neumann 
畀佢周圍嘅人嘅印象
包括佢畀嗰個時代最犀利嘅數學家
同物理學家嘅印象
都係有紀錄低嘅
如果一半關於佢嘅故事有一半係真嘅
咁毫無疑問
佢係有史以來其中一個最聰明嘅人
所以當我哋畫一幅比較智力嘅圖
喺右邊高分嘅位置
我哋有 John von Neumann
喺中間有你同我
去到最左邊，我哋有雞仔
（笑聲）

Serbian: 
Tako da, ako možemo, to ćemo i uraditi.
Voz je već napustio stanicu,
i nema kočnice.
Konačno, mi ne stojimo
na vrhuncu inteligencije,
a verovatno ni blizu toga.
I ovo je zaista suštinski uvid.
Zbog ovoga je naša
situacija tako nepouzdana,
i zbog toga je naša intuicija
o riziku tako nepouzdana.
E, sad, samo razmislite
o najpametnijoj osobi ikada.
Na skoro svačijem užem spisku ovde
je Džon fon Nojman.
Mislim, utisak koji je Nojman
ostavio na ljude oko sebe,
uključujući tu najveće
matematičare i fizičare tog vremena,
je prilično dobro dokumentovan.
I ako je samo pola onih
priča o njemu polutačna,
nema dileme da je on
jedan od najpametnijih ljudi
koji su ikada živeli.
Samo zamislite opseg inteligencije.
Ovde imamo Džona fon Nojmana.
Onda smo tu vi i ja.
I onda imamo neko pile.
(Smeh)

Persian: 
پس اگر بتوانیم این کار را می‌کنیم.
قطار دیگر از ایستگاه خارج شده،
و ترمزی برای کشیدن نیست.
سرآخر این که احتمالا ما در راس هوش 
یا جایی نزدیک آن
نخواهیم ایستاد.
و این یک بینش واقعا ضروری است.
این چیزی است که شرایط 
ما را پرمخاطره می‌کند،
و این چیزی است که درک ما از
ریسک را شدیدا غیرقابل اتکا می‌کند.
الان باهوش‌ترین فردی که تا به امروز زیسته
را در نظر بگیرید.
اینجا تقریبا در فهرست کوتاه همه 
جان فان نیومن وجود دارد.
منظورم تاثیری است
که فان نیومن بر اطرافیانش داشته
و این دربرگیرنده بزرگترین ریاضیدانها 
و فیزیکدانهای هم دوره‌اش می‌شود،
که نسبتا بخوبی ثبت شده است.
اگر فقط بخشی از نیمی از داستانهای
درباره او درست باشد
شکی نیست
که او از باهوشترین آدمهایی است 
که تابحال زیسته.
بنابراین گستره هوش را در نظر بگیرید.
در اینجا جان فان نیومن را داریم.
و بعد نیز امثال من و شما.
و البته مرغ را هم داریم.
(خنده)

Dutch: 
Dus zullen we dit doen, als we kunnen.
De trein is al vertrokken 
en er is geen houden aan.
Tot slot staan we waarschijnlijk niet 
op een piek van intelligentie,
of ook maar ergens in de buurt ervan.
En dit is echt het cruciale inzicht.
Dit maakt onze situatie zo precair
en dit maakt onze intuïties 
over de risico's zo onbetrouwbaar.
Beschouw de slimste mens 
die ooit heeft geleefd.
Op bijna ieders lijstje 
staat hier John von Neumann.
Ik bedoel, de indruk die von Neumann 
maakte op de mensen om hem heen,
inclusief de grootste wiskundigen 
en fysici van zijn tijd,
is redelijk goed gedocumenteerd.
Als slechts de helft van de verhalen 
over hem half waar zijn,
dan kan het niet anders
dan dat hij één 
van de slimste mensen ooit was.
Bekijk dit spectrum 
van intelligentie eens.
Hier hebben we John von Neumann.
En dan hebben we jou en mij.
En dan hebben we een kip.
(Gelach)

Turkish: 
Yani yapabilirsek bunu yapacağız.
Tren çoktan istasyondan çıktı ve
basılabilecek bir fren yok.
Velhasıl, zekânın zirvesinde duramayız
ya da yakınında herhangi bir yerde.
Ve bu gerçekten mühim bir öngörüdür.
Durumumuzu istikrarsız yapan ve
risk hakkındaki sezgilerimizi güvenilmez
kılan bu durum.
Şimdi yaşamış en zeki insanı düşünün.
Buradaki hemen hemen herkesin
son listesinde John von Neumann vardır.
Yani, John von Neumann' nın çevresindeki
insanlardaki etkisi,
zamanının en iyi matematikçileri
ve fizikçileri de dâhil olmak üzere,
oldukça detaylı olarak hazırlanmış.
Hakkında anlatılanların yarısı
yarı gerçek ise
şimdiye dek yaşamış
en zeki insan olduğuna şüphe yok.
Öyleyse zekâ spektrumunu bir düşünün.
Bir tarafta John von Neumann
ve diğer tarafta siz ve ben.
Ve bir de tavuk.
(Gülüşmeler)

Russian: 
Так что мы это сделаем, если сможем.
Поезд уже тронулся, и тóрмоза нет.
Наконец, мы не на пике интеллекта
и даже не близко к нему, вероятно.
И это действительно важно понимать.
Именно из-за этого
наша система так уязвима,
а наши интуитивные оценки риска
так ненадёжны.
Теперь представьте умнейшего
из когда-либо живших людей.
Почти все среди прочих называют
Джона фон Неймана.
Ведь впечатление, которое фон Нейман
производил на окружающих,
в том числе величайших математиков
и физиков своего времени,
очень хорошо задокументировано.
Если половина историй о нём
хотя бы наполовину правдивы,
сомнений нет:
он один из умнейших людей,
когда-либо живших.
Подумайте о диапазоне
интеллектуальных способностей.
Здесь у нас Джон фон Нейман.
Здесь мы с вами.
А здесь курица.
(Смех)

Chinese: 
所以我們會這麼做，只要我們可以。
火車已經出站，而沒有煞車可以拉。
最後一點，我們不站在智能的巔峰，
或者根本不在那附近。
而這真的是一種重要的洞察。
正是這個讓我們的處境如此危險可疑，
這也讓我們對風險的直覺
變得很不可靠。
現在，想想這世界上最聰明的人。
每個人的清單上幾乎都會有
約翰·馮·諾伊曼。
我是指， 馮·諾伊曼
對他周圍的人造成的印象，
而這包括和他同時代
最棒的數學家和物理學家，
被好好地記錄了。
只要有一半關於他的故事一半是真的，
那毫無疑問
他是世界上活過最聰明的人之一。
所以考慮智能的頻譜。
約翰·馮·諾伊曼在這裡。
然後你和我在這裡。
然後雞在這裡。
（笑聲）

Chinese: 
所以只要可能，
我们就会将革新继续下去。
而且革新的列车早已驶出， 
车上却没有刹车。
第三种假设是：
人类没有登上智慧的巅峰，
甚至连接近可能都谈不上。
这个想法十分关键。
这就是为什么
我们所处的环境是很危险的，
这也是为什么我们对风险的
直觉是不可靠的。
现在，请大家想一下
谁是世界上最聪明的人。
几乎每个人的候选名单里都会
有约翰·冯·诺伊曼。
冯·诺伊曼留给周围人的印象
就是他是那个时代当中最杰出的
数学家和物理学家，
这些都是完好的记录在案的。
即使他的故事里有一半是假的，
都没有人会质疑
他仍然是世界上最聪明的人之一。
那么，让我们来看看智慧谱线吧。
现在我们有了约翰·冯·诺伊曼，
还有我们大家。
另外还有一只鸡。
（笑声）

Vietnamese: 
Cho nên chúng ta sẽ làm nó nếu có thể.
Tàu đã rời khỏi trạm,
và không thể kéo phanh nữa.
Và điều cuối: chúng ta không đứng trên
đỉnh cao của trí thông minh,
hay có thể là chỗ nào đó gần nó.
Và điều này thực sự là
cái nhìn sâu sắc quan trọng.
Đây là thứ làm tình trạng của
chúng ta bất ổn,
và nó cũng làm trực giác của chúng ta
về rủi ro trở nên không đáng tin.
Bây giờ hãy xem xét một người
thông minh nhất trên đời.
Hầu như trong danh sách của các bạn
đều sẽ có tên John von Neumann.
Ý tôi là, ấn tượng mà von Neumann tạo ra
đối với mọi người xung quanh,
và nó cũng bao gồm những nhà toán học
và vật lí vĩ đại ở thời của ông ta,
được lưu truyền khá tốt.
Nếu một nửa câu chuyện về ông
chỉ đúng 50%,
không cần bàn cãi
ông là người thông minh nhất
từng sống trên đời.
Vậy hãy xét về chuỗi phân bố
của trí thông minh.
Ở đây là John von Neumann.
Tiếp theo là các bạn và tôi.
Và tiếp là con gà.
(Cười)

Slovak: 
Takže, pokiaľ to pôjde, budeme pokračovať.
Tento vlak je už rozbehnutý
a nejde ho zastaviť.
A, nakoniec, my nestojíme na vrchole
inteligencie a pravdepodobne
ani niekde blízko vrcholu.
Toto je skutočne kľúčový pohľad.
To je dôvod, prečo je naša situácia
taká prekérna,
a dôvod, prečo je naša intuícia 
taká nespoľahlivá pri posudzovaní rizík.
Vezmite si trebárs najmúdrejšiu osobu,
ktorá kedy žila.
Takmer každý by do najužšieho výberu
zaradil Johna von Neumanna.
To, akým dojmom pôsobil van Neumann
na ľudí okolo seba,
medzi ktorých patrili najlepší matematici
a fyzici tej doby,
je veľmi dobre zdokumentované.
Ak by len polovica historiek o ňom
bola aspoň z polovice pravdivá,
tak nie je pochýb,
že patril medzi najmúdrejších ľudí
v histórii.
Takže zvážme spektrum inteligencie.
Tu máme John von Neumanna.
A tu ste vy a ja.
A tu máme kura.
(smiech)

Croatian: 
Pa ćemo to učiniti, ako možemo.
Vlak je već napustio postaju
a nema kočnice za povući.
Konačno, ne stojimo
na vrhuncu inteligencije,
ili igdje blizu njega, vjerojatno.
A to je zbilja ključan uvid.
To je ono što čini
našu situaciju tako neizvjesnom,
i to je ono što čini
naše intuicije o riziku tako nepouzdanim.
Sad, samo razmotrite najpametniju osobu
koja je ikad živjela.
U gotovo svačijem užem izboru
ovdje je John von Neumann.
Mislim, utisak koji je von Neumann
ostavljao na ljude oko sebe,
a ti uključuju najveće matematičare
i fizičare njegovog doba,
je dobro dokumentirana.
Ako je samo pola priča
o njemu na pola istinito,
nema pitanja
on je jedna od najpametnijih
osoba koje su ikad živjele.
Pa razmotrite spektar inteligencije.
Ovdje imamo John von Neumanna.
A onda imamo vas i mene.
A onda imamo piceka.
(Smijeh)

Japanese: 
だから 可能であれば
やるはずです
列車はすでに駅を出発していて
ブレーキはありません
３番目は 人間は知性の
頂点にはおらず
その近くにすら
いないということ
これは重要な洞察であり
我々の状況を
危うくするものです
これはまた リスクについての我々の勘が
当てにならない理由でもあります
史上最も頭の良い人間について
考えてみましょう
ほぼ必ず上がってくる名前に
フォン・ノイマンがあります
ノイマンの周囲には
当時の 最も優れた数学者や
物理学者がいたわけですが
人々がノイマンから受けた印象については
いろいろ記述されています
ノイマンにまつわる話で 半分でも
正しいものが 半分だけだったとしても
疑いなく彼は
これまでに生きた最も頭の良い
人間の１人です
知能の分布を考えてみましょう
ここにフォン・ノイマンがいて
この辺に私や皆さんがいて
この辺にニワトリがいます
(笑)

Hungarian: 
Amint mód van rá, megtesszük ezeket.
A vonat már elhagyta az állomást,
és nincs fék, amit behúzhatnánk.
Végül is nem vagyunk
az intelligencia tetőfokán,
de még csak a közelében sem járunk.
És ez itt a lényeges momentum.
Ez teszi a helyzetünket
különösen bizonytalanná,
és pont ezért megbízhatatlanok 
a veszélyhez fűződő előérzeteink.
Képzeljük el a valaha élt 
legokosabb embert.
Minden bizonnyal Neumann János
szerepel mindenki listáján.
Ahogy Neumann hatni tudott 
a körülötte lévő emberekre,
többek között minden idők legjobb 
matematikusaira és fizikusaira,
annak bárki utánajárhat.
Ha a róla szóló történeteknek
csak a fele is igaz,
akkor kétségkívül
ő a világon valaha élt legokosabb ember.
Képzeljük el az intelligencia tartományát.
Itt van Neumann János.
És itt vagytok ti és én.
Itt pedig egy csirke.
(Nevetés)

Thai: 
เราจึงต้องทำสิ่งนี้ 
หากเราสามารถทำได้
รถไฟได้ออกจากสถานีไปแล้ว
และไม่มีเบรคที่จะดึงมันไว้ได้
ข้อสุดท้าย เราไม่ได้ยืนอยู่
บนจุดสูงสุดของความฉลาด
ไม่แม้แต่จะใกล้เคียง
นี่เป็นความเข้าใจที่สำคัญยิ่ง
นี่แหละที่ทำให้สถานการณ์ของเรา
ล่อแหลมต่ออันตรายยิ่ง
และนี่แหละที่ทำให้สัญชาตญาณของเรา
ที่มีต่อความเสี่ยงนั้นเชื่อถือไม่ได้
ครับ แค่ลองพิจารณา
ถึงคนฉลาดที่สุดที่เคยมีชีวิตอยู่
สำหรับทุกคนแล้ว หนึ่งในรายชื่อนั้น
ก็คืออ จอห์น วอน นอยแมน
ผมหมายถึง ความประทับใจของผู้คน
ที่มีต่อ วอน นอยแมน
และนั่นก็รวมถึงนักคณิตศาสตร์
และนักฟิสิกส์ที่ยิ่งใหญ่ในยุคนั้น
ได้ถูกบันทีกไว้เป็นอย่างดี
ถ้าเรื่องราวของเขาสักครึ่งหนึ่งนั้น
จะมีมูลความจริงอยู่ถึงสักครึ่ง
ก็ไม่ต้องกังขาเลยว่า
เขาเป็นคนฉลาดที่สุดในโลกคนหนึ่ง
เมื่อพิจารณาระดับช่วงของความฉลาด
ตรงนี้เรามี จอห์น วอน นอยแมน
แล้วเราก็มี คุณและผม
แล้วต่อมาก็มีไก่
(เสียงหัวเราะ)

Romanian: 
Vom face asta dacă putem.
Trenul a plecat deja din stație
și nu are frâne.
În final, nu stăm în vârful inteligenței
sau oriunde lângă el.
Asta e o informație crucială.
Asta ne face situația atât de precară
și de aceea nu ne putem baza
pe intuițiile noastre despre risc.
Acum gândiți-vă la persoana
cea mai deșteaptă.
În topul tuturor e John von Neumann.
Impresia pe care a lăsat-o
von Neumann celor din jurul său,
inclusiv celor mai mari
matematicieni și fizicieni,
e bine documentată.
Dacă doar jumătate din poveștile
despre el sunt pe jumătate adevărate,
nu încape îndoială
că e unul din cei mai deștepți
oameni vreodată.
Gândiți-vă la spectrul inteligenței.
Îl avem pe John von Neumann,
apoi suntem eu și voi,
apoi o găină.
(Râsete)

Spanish: 
Vamos a hacer esto, si podemos.
El tren ya salió de la estación
y no hay frenos.
Por último, no estamos en
la cima de la inteligencia,
ni siquiera cerca, probablemente.
Y esto realmente es crucial.
Esto es lo que hace nuestra
situación tan precaria,
y esto es lo que hace
que nuestras intuiciones
sobre los riesgos sean poco fiables.
Piensen en la persona más inteligente
que jamás haya vivido.
En la lista de casi todos
está John Von Neumann.
La impresión que hacía Von Neumann
en las personas a su alrededor,
incluyendo los más grandes
matemáticos y físicos de su época,
está bastante bien documentada.
Si solo la mitad de las historias
sobre él fueran una verdad a medias,
no hay duda
de que es una de las personas
más inteligentes que ha vivido.
Así que consideren
el espectro de la inteligencia.
Aquí tenemos a John Von Neumann.
Y aquí estamos tú y yo.
Y luego tenemos un pollo.

Portuguese: 
Nós faremos isso, se pudermos.
O trem já saiu da estação,
e não há freio para puxar.
Finalmente, não estamos
em um pico de inteligência,
não estamos nem perto disso.
E essa é a percepção crucial.
Isso é o que faz a nossa situação
ser tão precária
e a nossa intuição sobre riscos
não ser confiável.
Pense na pessoa mais
inteligente que já existiu.
Na lista de quase todos aqui
está John von Neumann.
A impressão que ele causou
nas pessoas ao seu redor,
e isso inclui os melhores matemáticos
e físicos de seu tempo,
está muito bem documentada.
Se apenas metade das histórias
sobre ele forem meio verdadeiras,
não há dúvida de que ele foi uma das
pessoas mais inteligentes que já existiu.
Considere o espectro da inteligência.
Aqui temos John von Neumann.
E aqui temos eu e você.
E aqui temos uma galinha.
(Risadas)

Swedish: 
Så vi kommer att göra det, om vi kan.
Tåget har redan lämnat stationen,
och det finns ingen broms.
Slutligen, vi har inte
nått intelligensens topp,
vi är troligen inte ens i närheten.
Det är den riktigt kritiska insikten.
Det är det här som gör
vår situation så vansklig,
och det gör också våra
riskantaganden så opålitliga.
Fundera på den smartaste person
som någonsin levt.
En som finns på nästan allas lista
är John von Neumann.
Jag menar, de intryck som Neumann
gjorde på folk runt honom,
inkluderat de främsta matematikerna
och fysikerna under hans levnad,
är ganska väldokumenterade.
Om bara hälften av berättelserna
om honom är halvsanna,
råder det ingen tvekan om
att han är en av de smartaste någonsin.
Så fundera på vidden av intelligens.
Här har vi John von Neumann.
Så har vi dig och mig.
Så har vi kycklingar.
(Skratt)

Korean: 
그래서 할 수만 있다면 할 겁니다.
기차는 이미 출발했고 
멈출 브레이크가 없습니다.
마지막 가정으로 우리는 지능의 
정점에 서있지 않다는 겁니다.
그 근처에 가지도 못했을 거예요.
사실 이게 중요한 생각입니다.
바로 그래서 우리 상황이 
매우 위험한 겁니다.
그래서 우리 위험을 인지하는 
우리 직감을 믿을 수가 없는 것이죠.
이제 지구상에서 가장 
똑똑한 사람이 있다고 하죠.
거의 모든 사람들을 추려내면
존 폰 노이만이 나옵니다.
주변 사람들이 폰 노이만을 
어떻게 생각했는지와
그가 당대의 위대한 수학자이자 
물리학자에 포함된다는 사실은
잘 알려져 있죠.
그에 대한 일화의 절반 중에서
반만 사실이라 하더라도
의심의 여지 없이
그는 역사상 가장 똑똑한 사람입니다.
지능의 범위를 생각해 보세요.
폰 노이만은 여기 있습니다.
그리고 여기 여러분과 제가 있죠.
그리고 닭은 여기 있습니다.
(웃음)

English: 
So we will do this, if we can.
The train is already out of the station,
and there's no brake to pull.
Finally, we don't stand
on a peak of intelligence,
or anywhere near it, likely.
And this really is the crucial insight.
This is what makes
our situation so precarious,
and this is what makes our intuitions
about risk so unreliable.
Now, just consider the smartest person
who has ever lived.
On almost everyone's shortlist here
is John von Neumann.
I mean, the impression that von Neumann
made on the people around him,
and this included the greatest
mathematicians and physicists of his time,
is fairly well-documented.
If only half the stories
about him are half true,
there's no question
he's one of the smartest people
who has ever lived.
So consider the spectrum of intelligence.
Here we have John von Neumann.
And then we have you and me.
And then we have a chicken.
(Laughter)

Modern Greek (1453-): 
Γι' αυτό θα το κάνουμε, αν μπορούμε.
Το τρένο έχει ήδη ξεκινήσει
και δεν έχει φρένο.
Τέλος, δεν έχουμε φτάσει
στην αποκορύφωση της ευφυΐας,
μάλλον ούτε που την πλησιάσαμε.
Και αυτή είναι η σημαντική διαπίστωση.
Αυτό κάνει τόσο επισφαλή
την κατάστασή μας,
και τόσο αναξιόπιστα
τα προαίσθήματά μας σχετικά με το ρίσκο.
Απλώς σκεφτείτε το πιο έξυπνο
άτομο που έχει ποτέ ζήσει.
Κάποιον που όλοι σας θα έχετε κατά νου
είναι ο Τζον φον Νόιμαν.
Η εντύπωση που έκανε
στους τριγύρω του ο φον Νόιμαν,
συμπεριλαμβανομένων των πιο λαμπρών
μαθηματικών και φυσικών της εποχής του,
έχει καταγραφεί επαρκώς.
Και μόνο οι μισές ιστορίες
γι' αυτόν να αληθεύουν,
χωρίς αμφιβολία
είναι από τους πιο έξυπνους
ανθρώπους που έχουν ζήσει.
Σκεφτείτε λοιπόν το φάσμα της ευφυΐας.
Εδώ είναι ο Τζον φον Νόιμαν.
Κι εδώ είμαστε εσείς κι εγώ.
Μετά είναι οι κότες.
(Γέλια)

Italian: 
Perciò lo faremo, se possiamo.
Il treno ha già lasciato la stazione
e non c'è nessun freno da tirare.
Infine, non abbiamo ancora raggiunto
il culmine della nostra intelligenza,
nemmeno lontanamente.
Questa è l'intuizione fondamentale,
ciò che rende la nostra situazione
così precaria
e la nostra percezione del rischio
così inaffidabile.
Pensate alla persona più intelligente
che sia mai vissuta.
Quasi tutti inserirebbero
John von Neumann tra i primi posti.
L'ottima impressione che von Neumann
fece sulle persone intorno a lui,
tra cui c'erano i più grandi fisici
e matematici del suo tempo,
è ben documentata.
Se solo metà delle storie su di lui
sono vere a metà,
non ci sono dubbi
che sia una delle persone
più intelligenti mai vissute.
Considerate una gamma di intelligenze.
Qui abbiamo John von Neumann.
Qui ci siamo io e voi.
E qui una gallina.
(Risate)

Portuguese: 
Por isso iremos fazê-lo,
se conseguirmos,
O comboio já saiu da estação,
e não há travão para acionar.
Finalmente, não estamos
num pico da inteligência,
provavelmente, nem perto dela.
E isto é a visão crucial.
Isto é o que torna
a nossa situação tão precária.
Isto é o que torna tão incertas
as nossas intuições de risco.
Agora, pensem na pessoa
mais inteligente de sempre.
Na lista de quase toda a gente
está John von Neumann.
A impressão que von Neumann
deixou nas pessoas ao seu redor,
incluindo os melhores
matemáticos e físicos do seu tempo,
está bem documentada.
Se metade das histórias sobre ele 
são meio verdadeiras,
não há dúvida
que ele foi uma das pessoas
mais inteligentes que existiu.
Considerem o espetro da inteligência.
Aqui temos John von Neumann.
E aqui estamos nós.
E aqui temos uma galinha.
(Risos)

Georgian: 
ამიტომ თუ შევძელით,
ამას აუცილებლად ვიზამთ.
მატარებელი უკვე დაიძრა
და მას მუხრუჭი არ აქვს.
ბოლოს, ჩვენ არ წარმოვადგენთ
ინტელექტის პიკს.
მასთან ახლოსაც კი არ ვართ.
ეს მართლაც საკვანძო აზრია.
ეს არის ის, რაც ჩვენს მდგომარეობას
ასე არასაიმედოს
და რისკების მიმართ
ჩვენს ინტუიციას, ასე არასანდოს ხდის.
განვიხილოთ ყველა დროის
უჭკვიანესი ადამიანი.
ერთ-ერთ ასეთად თითქმის ყველა
ჯონ ვან ნოიმანს დაასახელებს.
შთაბეჭდილება, რომელიც ვან ნოიმანმა
მის გარშემომყოფებზე მოახდინა,
მისი თანამედროვე უდედესი მათემატიკოსების
და ფიზიკოსების ჩათვლით,
კარგადაა დოკუმენტირებული.
ამ ისტორიების მხოლოდ ნახევარიც
რომ იყოს ნახევრად მართალი,
ეჭვგარეშეა,
რომ ის ყველა დროის ერთ-ერთი
უჭკვიანესი ადამიანი იყო.
განვიხილოთ ინტელექტის სპექტრი.
აქ არის ჯონ ვან ნოიმანი.
აქ კი, ვართ მე და თქვენ
და აქ კი - ქათამია.
(სიცილი)

Catalan: 
Així doncs ho farem si podem.
El tren ja ha sortit de l'estació
i no hi ha manera de que pari.
I per últim, no ens trobem
al cim de la nostra intel·ligència,
o en qualsevol punt que s'hi acosti.
I això és la clau de la qüestió.
És el que fa que la nostra
situació sigui tan precària,
i és el que fa que les nostres intuïcions
sobre aquest risc siguin tan poc fiables.
Penseu en la persona
més intel·ligent que mai ha viscut.
Molts de vosaltres haureu considerat
a en John von Neumann.
La impressió que va causar
en von Neumann al seu voltant,
i això inclou als més grans matemàtics
i físics de la seva època,
està ben documentada.
Si només la meitat de
les històries sobre ell són certes,
no hi ha cap dubte
que és una de les persones més brillants.
Considerem l'espectre d'intel·ligència.
Tenim en John von Neumann.
I aquí estem nosaltres.
I aquí un pollastre.
(Riures)

Turkish: 
Pardon, bir tavuk.
(Gülüşmeler)
Bu konuşmayı gereğinden daha
depresif yapmama gerek yok.
(Gülüşmeler)
Ezici bir üstünlükle olası görünüyor
ancak zekâ spektrumu
şu anda tasarlayabileceğimizden
daha da ileriye uzanıyor
ve kendimizden daha zeki
makineler üretirsek
büyük ihtimalle bu spektrumu
hayal edemeyeceğimiz
ölçüde keşfedecekler
ve o ölçüde bizi aşacaklar.
Ve hızın fazileti gereği bunun
doğru olduğunu anlamak önemli.
Değil mi? Stanford veya MIT'deki
ortalama araştırmacı takımınızdan
daha zeki olmayan süper zeki 
Yapay Zekâ
geliştirdiğimizi düşünün.
Elektronik devreler, 
biyokimyasallardan milyon kez
daha hızlı çalışır, yani
bu makine onu yapan beyinlerden
milyon kez daha
hızlı çalışmalıdır.
Bir haftalığına çalışmaya ayarlasanız
ve insan seviyesinde 20.000 yıl 
sürecek zihinsel

Slovak: 
Pardon, kura.
(smiech)
Nie je dôvod, aby bola táto prednáška
depresívnejšia, než je nutné.
(smiech)
Zdá sa nanajvýš pravdepodobné,
že rozsah inteligencie
je oveľa širší, než ako ho 
v súčasnosti vnímame,
a keď postavíme stroje,
ktoré budú inteligentnejšie než sme my,
tak budú veľmi pravdepodobne
skúmať to spektrum
spôsobom, ktorý si nevieme predstaviť,
a presiahnu nás spôsobom,
ktorý si nevieme predstaviť.
A je dôležité rozoznať, že je tomu tak
už vďaka samotnej rýchlosti.
Predstavte si, že sme vytvorili super
inteligentnú umelú inteligenciu (AI),
ktorá je rovnako chytrá ako
priemerný tím vedcov
na Stanforde alebo MIT.
Lenže elektronické obvody fungujú asi
miliónkrát rýchlejšie
než biochemické,
takže, takýto stroj by mohol myslieť
asi miliónkrát rýchlejšie
ako myseľ, ktorá ho zostrojila.
Takže, keď ho spustíte na týždeň,
tak vykoná rovnakú intelektuálnu prácu,
ktorá by ľuďom trvala 20 000 rokov,

Korean: 
닭아 미안하다.
(웃음)
이 강연을 꼭 우울하게 
할 필요는 없죠.
(웃음)
하지만 놀랍게도 지능의 범위는
우리가 현재 가질 수 있는 
것보다 훨씬 넓게 확장되고
우리보다 지능적인 기계를 구축한다면
이 범위를 아우를 
가능성이 매우 높습니다.
상상할 수 없을 정도로요.
또한 상상할 수 없을 정도로 
우리를 능가할 겁니다.
속도 하나만 봐도 
그렇다는 걸 알아야 합니다.
그렇죠? 초지능 AI를 
구축한다고 해봅시다.
스탠포드 대학이나 MIT의 연구팀의 
평균 지능 그 이상은 아닌 정도로요.
생화학적인 회로보다 전자 회로가 
백만 배는 빠르게 작동합니다.
그러니 이 기계는 그걸 구축한 사람보다 
백만 배의 속도로 빠르게 생각하겠죠.
일주일 동안 돌리면
인간 수준 지능의 2만 년 
분량을 해치울 겁니다.

Modern Greek (1453-): 
Συγνώμη, μια κότα.
(Γέλια)
Δεν υπάρχει λόγος να κάνω την ομιλία
πιο θλιβερή απ' όσο χρειάζεται.
(Γέλια)
Ωστόσο, φαίνεται εκπληκτικά πιθανόν
ότι το φάσμα της ευφυΐας
εκτείνεται πολύ πιο πέρα
από όσο τώρα αντιλαμβανόμαστε,
και αν φτιάξουμε μηχανές
πιο έξυπνες από εμάς,
είναι πολύ πιθανόν
να εξερευνήσουν αυτό το φάσμα
με τρόπους που δεν μπορούμε να φανταστούμε
και να μας ξεπεράσουν σε αφάνταστο βαθμό.
Και είναι σημαντικό να αναγνωρίσουμε
ότι αυτό αληθεύει και μόνο λόγω ταχύτητας.
Σωστά; Φανταστείτε να φτιάχναμε
μια υπερευφυή τεχνητή νοημοσύνη,
που δεν θα ήταν εξυπνότερη
από μια μέση ομάδα ερευνητών
των πανεπιστημίων Στάνφορντ ή ΜΙΤ.
Τα ηλεκτρονικά κυκλώματα λειτουργούν
ένα εκατομμύριο φορές ταχύτερα
από τα βιοχημικά,
έτσι αυτή η μηχανή θα σκεφτόταν
ένα εκατομμύριο φορές πιο γρήγορα
από τους εγκεφάλους που την έφτιαξαν.
Με λειτουργία μίας εβδομάδας
θα παράξει έργο 20.000 ετών
σε επίπεδο ανθρώπινης διάνοιας,

Chinese: 
抱歉，雞應該在那裡。
（笑聲）
我實在無意把這個演講
弄得比它本身更讓人感到沮喪。
（笑聲）
智能的頻譜似乎勢不可擋地
往比我們能理解的更遠的地方延伸，
如果我們造出
比我們更有智能的機器，
他們很可能會探索這個頻譜，
以我們無法想像的方式，
然後以我們無法想像的方式超越我們。
重要的是認識到這說法
僅因速度的優勢即為真。
對吧？請想像如果我們造出了
一個超級人工智能，
它不比你一般在史丹佛或麻省理工
遇到的研究團隊聰明。
電子電路作用的速率
比起生化作用快一百萬倍，
所以這個機器思考應該
比製造它的心智快一百萬倍。
如果你設定讓它運行一星期，
他會執行人類兩萬年的智能工作，

Czech: 
Pardon, kuře.
(smích)
Není důvod, aby tahle přednáška
byla víc depresivní, než je potřeba.
(smích)
Ovšem zdá se navýsost pravděpodobné,
že rozsah inteligence je mnohem širší,
než jak ho v současnosti vnímáme.
A pokud vytvoříme stroje
inteligentnější než jsme my,
tak budou velmi pravděpodobně
zkoumat toto spektrum způsobem,
který si neumíme představit,
a předčí nás způsobem,
který si neumíme představit.
A je důležité připustit,
že je tomu tak už díky samotné rychlosti.
Představte si, že jsme
vytvořili superinteligentní AI,
která je stejně chytrá jako průměrný
tým vědců na Stanfordu nebo MIT.
Víme, že elektronické obvody pracují
asi milionkrát rychleji než biochemické,
takže takový stroj
by přemýšlel milionkrát rychleji
než lidé, kteří ho postavili.
Takže ho na týden pustíte
a on vykoná stejnou intelektuální práci,
jaká by lidem trvala 20 000 let.

Romanian: 
Scuze, o găină.
(Râsete)
Nu e nevoie să fac discursul
mai deprimant decât e deja.
(Râsete)
E copleșitor de probabil
că spectrul inteligenței
se extinde mult după cât putem noi percepe
și dacă construim mașinării
mai inteligente decât noi,
probabil vor explora acest spectru
în moduri pe care nu le putem imagina
și ne depășesc în moduri inimaginabile.
E important să recunoaștem
că e adevărat în virtutea vitezei.
Imaginați-vă dacă am construi
o IA superinteligentă
care n-ar fi mai inteligentă
decât echipa medie de cercetători
de la Stanford sau MIT.
Circuitele electronice funcționează
de un milion de ori mai rapid
decât cele biochimice,
deci mașinăria ar trebui să gândească
de un milion de ori mai rapid
decât mințile care au construit-o.
Dacă o pornești pentru o săptămână
va face 20.000 de ani
de muncă intelectuală la nivel uman,

Portuguese: 
Desculpem, uma galinha.
(Risos)
Não preciso de tornar esta palestra
ainda mais deprimente.
(Risos)
Mas parece muito provável
que o espetro da inteligência
se alargue muito mais além
do que imaginamos.
Se construirmos máquinas
mais inteligentes que nós,
iremos muito provavelmente
explorar este espetro
de formas inimagináveis,
e superar-nos em formas,
que não imaginávamos.
É importante reconhecer que isto é verdade
só por virtude da velocidade.
Imaginem que construímos
uma IA superinteligente
que não é mais inteligente que
uma equipa normal de investigadores
de Stanford ou do MIT.
Os circuitos eletrónicos funcionam
um milhão de vezes mais depressa
do que os circuitos bioquímicos,
por isso essa máquina iria 
pensar um milhão de vezes mais rápido
do que as mentes que a construíram.
Pomo-la a funcionar
durante uma semana,
e ela irá realizar 20 000 anos
de trabalho intelectual humano,

Chinese: 
係吖，就係一隻雞仔
（笑聲）
我冇理由將呢個演講搞到咁灰㗎
（笑聲）
但好有可能智力分佈
遠比我哋目前認知嘅廣
如果我哋建造出
比我哋擁有更高智慧嘅機器
佢哋嘅智力好有可能會
超越我哋認知嘅最高智力
同埋以無法想像嘅方式超越我哋
同樣重要嘅係
單憑運算速度就可以超越我哋
啱唔啱？諗下如果我哋整咗一個
冇哈佛或者麻省理工研究人員
咁聰明嘅超級人工智能
但電路運行速度大概
比生化電路快一百萬倍
所以呢個機器嘅思考速度應該會
比佢嘅創造者快大概一百萬倍
所以如果佢運行一個星期

Croatian: 
Pardon, piceka.
(Smijeh)
Nema razloga da učinim ovaj govor
depresivnijem nego što mora biti.
(Smijeh)
Izgleda premoćno vjerojatno,
međutim, kako se spektar inteligencije
proteže puno dalje
nego što trenutno poimamo,
i ako sagradimo strojeve
koji su inteligentniji od nas,
oni će vrlo vjerojatno
istražiti ovaj spektar
na načine koje ne možemo zamisliti,
te nas nadmašiti na načine
koje ne možemo zamisliti.
A bitno je prepoznati kako je
to istinito već po samom svojstvu brzine.
U redu? Zamislite kako smo
upravo sagradili superinteligentan AI
koji nije pametniji od
vašeg prosječnog tima istraživača
na Stanfordu ili MIT-u.
Dobro, elektronički krugovi
rade oko milijun puta brže
od onih biokemijskih,
pa bi ovaj stroj trebao
razmišljati oko milijun puta brže
od umova koji su ga sagradili.
Pa ga pustite raditi tjedan dana,
a on će izvesti 20.000 godina
intelektualnog rada ljudske razine,

Thai: 
ขอโทษครับ ไก่
(เสียงหัวเราะ)
ไม่มีเหตุผลอะไร ที่ผมจะทำให้
การบรรยายนี้หดหู่ใจมากเกินจำเป็น
(เสียงหัวเราะ)
อย่างไรก็ตาม ดูจะเป็นไปได้มาก
ที่ระดับช่วงของความฉลาดนั้น
ขยายออกไปได้ไกล
มากกว่าที่เราตระหนักในปัจจุบัน
และถ้าเราสร้างจักรกลที่ฉลาดกว่าเรา
พวกมันก็น่าจะสำรวจตรวจค้น
ความชาญฉลาดเหล่านี้
ในแบบที่เราคิดไม่ถึง
และเหนือกว่าเราในแบบที่เราคิดไม่ถึง
มันจำเป็นที่เราต้องยอมรับว่า 
สิ่งนี้เป็นจริงไปแล้ว ในเรื่องความเร็ว
ใช่ไหมครับ ลองคิดดูว่า ถ้าเราแค่สร้าง
ปัญญาประดิษฐ์อัจฉริยะขึ้นมาสักเครื่อง
ที่ไม่ได้ฉลาดกว่ากลุ่มนักวิจัยทั่ว ๆ ไป
ที่แสตนฟอร์ดหรือเอ็มไอที
วงจรไฟฟ้านั้นทำงานได้เร็วกว่าวงจรชีวเคมี
ประมาณหนึ่งล้านเท่า
ดังนั้น จักรกลนี้ควรจะคิดได้เร็วกว่า
ปัญญาของมนุษย์ผู้สร้างมันขึ้นมา
ประมาณหนึ่งล้านเท่า
เมื่อคุณเดินเครื่องนานหนึ่งสัปดาห์
มันจะทำงานได้เท่ากับการทำงานโดยใช้
สติปัญญาในระดับของมนุษย์นาน 20,000 ปี

Catalan: 
Perdó, un pollastre.
(Riures)
No hi ha cap necessitat de fer aquesta
xerrada més depriment del que pot ser.
(Riures)
Sembla que està ben clar
que l'espectre de la intel·ligència
s'estén molt més enllà
del que considerem actualment,
i si construïm màquines que
són més intel·ligents que nosaltres,
molt probablement exploraran
aquest espectre
de maneres que no podem imaginar,
i ens superaran de maneres
que tampoc podem imaginar.
I hem de reconèixer que això és així
només en base a la velocitat.
D'acord? Doncs imagineu que
hem construit una IA superintel·ligent
que no és més brillant que
la majoria d'equips de recerca
de Stanford o del MIT.
Els circuits electrònics són
un milió de vegades més ràpids
que les ones bioquímiques,
així, aquesta màquina pensaria
un milió de cops més depressa
que les ments que l'han dissenyat.
Si la deixem encesa una setmana
haurà complert 20.000 anys de
feina intel·lectual a nivell humà,

English: 
Sorry, a chicken.
(Laughter)
There's no reason for me to make this talk
more depressing than it needs to be.
(Laughter)
It seems overwhelmingly likely, however,
that the spectrum of intelligence
extends much further
than we currently conceive,
and if we build machines
that are more intelligent than we are,
they will very likely
explore this spectrum
in ways that we can't imagine,
and exceed us in ways
that we can't imagine.
And it's important to recognize that
this is true by virtue of speed alone.
Right? So imagine if we just built
a superintelligent AI
that was no smarter
than your average team of researchers
at Stanford or MIT.
Well, electronic circuits
function about a million times faster
than biochemical ones,
so this machine should think
about a million times faster
than the minds that built it.
So you set it running for a week,
and it will perform 20,000 years
of human-level intellectual work,

Vietnamese: 
Xin lỗi, một con gà.
(Cười)
Không lí do gì tôi phải làm buổi
nói chuyện này tệ hại hơn cần thiết.
(Cười)
Tuy nhiên, có vẻ có khả năng rất lớn là
chuỗi phân bố trí thông minh
mở rộng ra xa hơn nhiều so với
những gì chúng ta tưởng tượng,
và nếu chúng ta tạo ra
những cỗ máy thông minh hơn mình,
chúng có thể sẽ khai phá dải phân bố này
theo cách ta không thể tưởng tượng,
và vượt xa chúng ta theo cách
ta không thể tưởng tượng.
Và quan trọng là nhận ra rằng điều này
đúng với tính hấp dẫn của sự mau lẹ.
Đúng chứ? Hãy cứ tưởng tượng nếu ta
tạo ra một AI siêu thông minh
mà không tài giỏi hơn
nhóm các nhà nghiên cứu trung bình
ở Stanford hay MIT.
Vâng, các mạch điện tử hoạt động
nhanh hơn khoảng một triệu lần
so với các mạch sinh hóa,
nên cỗ máy này có thể suy nghĩ
nhanh hơn khoảng một triệu lần
so với trí não đã tạo ra nó.
Rồi bạn cài đặt nó chạy một tuần,
và nó sẽ thực hiện 20.000 năm làm việc
ở trình độ trí tuệ của con người,

Serbian: 
Pardon, neko pile.
(Smeh)
Nema potrebe da idem dalje u dubiozu
u ovom govoru nego što treba.
(Smeh)
Međutim, čini se da je više nego verovatno
da se spektar inteligencije
proteže mnogo više
nego što trenutno možemo da shvatimo,
i ako napravimo mašine
koje su mnogo inteligentnije od nas,
one će skoro sigurno
istražiti ovaj spektar
onako kako to ne možemo ni zamisliti,
i preteći nas na načine
koje ne možemo ni zamisliti.
I važno je shvatiti da je ovo
moguće samo putem brzine.
U redu? Zamislite samo da napravimo
jednu superinteligentnu VI
koja nije ništa pametnija
od vašeg prosečnog tima istraživača
na Stanfordu ili MIT-u.
Pa, električna kola
funkcionišu oko milion puta brže
od biohemijskih,
tako da bi ove mašine razmišljale
oko milion puta brže
od umova koje su ih sastavile.
Pustite ih da rade nedelju dana,
i izvešće 20.000 godina
ljudskog intelektualnog rada,

Dutch: 
Sorry, een kip.
(Gelach)
Ik moet dit gesprek niet 
deprimerender maken dan nodig.
(Gelach)
Het lijkt echter uiterst waarschijnlijk 
dat het spectrum van intelligentie
veel verder reikt 
dan we op dit moment beseffen.
Als we machines bouwen 
die intelligenter zijn dan wij,
gaan ze hoogstwaarschijnlijk 
dit spectrum verkennen
op een onvoorstelbare manier
en ons onvoorstelbaar overtreffen.
Het is belangrijk te beseffen dat 
dit al waar is voor de snelheid alleen.
Stel dat we zojuist
een superintelligente AI hadden gemaakt
die niet slimmer was 
dan een gemiddeld team van onderzoekers
aan Stanford en MIT.
Elektronische schakelingen werken 
ongeveer een miljoen keer sneller
dan biochemische.
Dus zou deze machine ongeveer 
een miljoen keer sneller moeten denken
dan de geesten die ze ontwierpen.
Laat ze één week lopen
en ze zal voor 20 000 jaar intellectuele 
arbeid op menselijk niveau uitvoeren,

Chinese: 
抱歉，母鸡的位置应该在这。
（笑声）
这个演讲已经够严肃了，
开个玩笑轻松一下。
（笑声）
然而，很可能的情况是，
智慧谱线上的内容
已远远超出了我们的认知，
如果我们建造了比
自身更聪明的机器，
它们将非常可能
以超乎寻常的方式
延展这个谱线，
最终超越人类。
仅仅从速度方面考虑，
我们就能够意识到这一点。
那么，现在让我们来想象一下
我们刚建好一个超级人工智能机器，
大概和斯坦福
或是麻省理工学院的研究员的
平均水平差不多吧。
但是，电路板要比生物系统
运行速度快一百万倍，
所以这个机器思考起来
会比那些打造它的大脑
快一百万倍。
当你让它运行一周后，
它将能呈现出相当于人类智慧在
20000年间发展出的水平，

Italian: 
Scusate, una gallina.
(Risate)
Non rendiamo questo incontro
più deprimente di quanto non sia già.
(Risate)
È molto probabile, però,
che la gamma delle intelligenze
sia molto più estesa di quando si pensi,
e se costruiamo delle macchine
molto più intelligenti di noi,
finiranno con l'esplorare questa gamma
in modi che non possiamo prevedere,
e ci supereranno in modi
che non possiamo immaginare.
È importante riconoscere che questo
sia vero anche in virtù della velocità.
Giusto? Immaginate che sia stata inventata
una IA super intelligente,
che non sia più brillante
di un normale gruppo di ricerca
a Stanford o al MIT.
I circuiti elettronici funzionano
un milione di volte più veloci
di quelli biochimici,
perciò questa macchina funzionerà
un milione di volte più velocemente
delle menti che l'hanno costruita.
In una settimana
avrà fatto il lavoro di 20 mila anni
di lavoro intellettuale umano,

Georgian: 
უკაცრავად, ქათამი.
(სიცილი)
საჭირო არაა ეს საუბარი,
კიდევ უფრო დეპრესიული გავხადოთ.
(სიცილი)
დიდად სავარაუდოა,
რომ ინტელექტის სპექტრი,
ბევრად უფრო შორს მიდის,
ვიდრე ჩვენ ამჟამად წარმოგვიდგენია
და თუ ჩვენ შევქმნით მანქანებს,
რომლებსაც ჩვენზე დიდი ინტელექტი აქვთ,
დიდი ალბათობით ისინი ამ სპექტრის
ჩვენთვის წარმოუდგენელ სივრცეებს აითვისებენ
და ისე გვაჯობებენ,
რომ ვერც კი წარმოვიდგენთ.
მნიშვნელოვანია ვხვდებოდეთ, რომ ეს ასეა
მხოლოდ სისწრაფის შემთხვევაშიც კი.
წარმოიდგინეთ, რომ შევქმენით
ზეგონიერი ხელოვნური ინტელექტი,
რომელიც სტენფორდის, ან MIT-ის
საშუალო დონის მკვლევართა ჯგუფზე
ჭკვიანი არაა.
ელექტრონული სქემები დაახლოებით
მილიონჯერ უფრო სწრაფად ფუნქციონირებენ,
ვიდრე ბიოქიმიური.
ამიტომ ეს მანქანა იაზროვნებს
დაახლოებით მილიონჯერ სწრაფად,
ვიდრე ტვინები რომლებმაც ის შექმნეს.
თუ მას ერთი კვირა ვამუშვებთ,
ის შეასრულებს ადამიანის დონის
20 000 წლის ინტელეტქუალურ სამუშაოს

iw: 
מצטער – תרנגולת.
(צחוק)
אין סיבה שההרצאה הזו 
תהיה מדכאת יותר מהנדרש.
(צחוק)
אבל סביר מאוד שרצף האינטליגנציה
ממשיך הרבה מעבר למה שאנחנו מכירים כיום,
ושאם נבנה מכונות
שהן יותר אינטליגנטיות מאיתנו,
סביר מאוד שהן יחקרו את הרצף הזה
בדרכים שאיננו יכולים לדמיין,
ולעלות עלינו בדרכים שאיננו יכולים לדמיין.
וחשוב להבין שזה נכון ולו רק בזכות המהירות.
נכון? דמיינו שנבנה בינה מלאכותית 
סופר-אינטליגנטית
שאינה חכמה יותר מצוות ממוצע של חוקרים
בסטנפורד או ב-MIT.
ובכן, מעגלים אלקטרוניים פועלים 
בערך פי מיליון מהר יותר ממעגלים ביוכימיים,
אז המכונה הזו תוכל לחשוב
בערך פי מיליון מהר יותר
מהמוחות שבנו אותה.
אז אתם נותנים לה לרוץ שבוע,
והיא תבצע 20,000 שנות אדם
של עבודה אינטלקטואלית,

Persian: 
متاسفم، یک مرغ.
(خنده)
دلیلی ندارم که این سخنرانی
را نامیدکننده‌تر از حد نیاز کنم.
(خنده)
بحد قابل توجهی همینطور است،‌هر چند 
گستره هوش
خیلی وسیعتر از برداشت کنونی ما است،
و اگر ماشینهایی را بسازیم
که از ما هوشمندترند،
آنها احتمالا این گستره را بررسی
خواهند کرد
به ترتیبی که ما قادر به تصورش نیستیم،
و طوری از ما پیشی خواهند گرفت
که تصورش را هم نمی‌کنیم.
و تشخیص این نکته مهم است که این مساله
بواسطه خصیصه سرعت معتبر است.
درسته؟ پس ساخت یک هوش مصنوعی
ابرهوشمندی را تصور کنید
که باهوشتر از یک 
تیم معمولی تحقیقاتی شما
در استانفورد یا MIT نباشد.
خب، مدارهای الکترونیکی کارکردی
حدود یک میلیون بار سریعتر
از انواع زیست شیمی دارند
بنابراین این ماشین شاید یک میلیون بار
سریعتر از ذهنهایی
که آن را ساختند فکر کند.
پس یک هفته‌ای که از 
راه‌اندازیش بگذرد،
هر هفته‌ای که سپری بگذرد
عملکردی برابر ۲۰٫۰۰۰ سال 

Russian: 
Прошу прощения.
Курица.
(Смех)
Ни к чему делать эту лекцию
более депрессивной, чем надо.
(Смех)
Однако кажется чрезвычайно вероятным,
что интеллект варьируется
в куда бóльших масштабах,
чем мы себе сейчас представляем,
и если мы создадим устройства,
которые будут умнее нас,
они, очень вероятно,
будут осваивать эти масштабы
невообразимыми для нас способами
и превзойдут нас невообразимыми способами.
И важно признавать, что это верно
в силу одной только скорости.
Так? Представьте, что мы построили
сверхразумный ИИ,
который не умнее
среднестатистической группы учёных
из Стэнфорда или МТИ.
Электронные схемы примерно
в миллион раз быстрее
биохимических,
поэтому машина будет думать
в миллион раз быстрее,
чем создавший её разум.
Вы запускаете её на неделю,
и она выполняет 20 000-летнюю
работу интеллекта человеческого уровня

Ukrainian: 
Вибачте, курка.
(Сміх)
Мені нема чого робити цю промову
гнітючішою, аніж вона має бути.
(Сміх)
Здається надзвичайно ймовірним,
що спектр інтелекту
простягається набагато далі,
ніж ми сьогодні уявляємо,
і якщо ми збудуємо машини,
що розумніші за нас,
вони, дуже ймовірно,
розвідають цей спектр
шляхами, які ми не можемо уявити,
та перевершать нас так,
як ми не можемо уявити.
Та важливо визнати, що
це правда вже з огляду на саму силу швидкості.
Правильно? Тож уявіть, що ми збудували
надрозумний штучний інтелект,
такий же розумний, як ваша
середньостатистична команда дослідників
у Стенфорді чи МТІ.
Електронні ланцюги
функціюють у мільйон разів швидше
за біохемічні,
тож ці машини мають думати
в мільйон разів швидше,
ніж розуми, що їх сконструювали.
Тож ви запускаєте її на тиждень,
і вона демонструє 20 000 років
інтелектуальної роботи людського рівня,

Arabic: 
آسف، دجاجة.
(ضحك)
لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر
إحباطاً مما يحتاجه الأمر.
(ضحك)
يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد
طيف الذكاء
أبعد بكثير مما نتصور حالياً،
وإذا قمنا ببناء آلات أذكى مما نحن عليه،
فهي على الأرجح ستستكشف الطيف
بطرقٍ لا نستطيع تخيلها،
وسف تتعدانا بطرقٍ لا يمكننا تخيلها.
ومن المهم أن ندرك أن هذا صحيح بخصوص 
تأثير السرعة وحدها.
صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً 
خارق الذكاء
ولم يكن أذكى من فريق الباحثين العادي
الخاص بكم
في ستانفورد أو معهد ماساتشوستس
للتكنولوجيا.
حسناً، الدارات الالكترونية تعمل بشكل أسرع 
بحوالي ملايين المرات
من تلك الكيميائية الحيوية،
لذا هذه الآلة يجب أن تفكر أسرع بملايين
المرات
من العقول التي قامت ببنائها.
لذا إذا تركتها تعمل لمدة أسبوع،
فسوف تؤدي ما يعادل 20,000 سنة من
العمل بمستوى الذكاء البشري،

Hungarian: 
Elnézést, egy kiscsirke.
(Nevetés)
Nem akarom ezt a beszédet 
még lesújtóbbá tenni.
(Nevetés)
Valószínűsíthető, 
hogy az intelligencia tartománya
sokkalta tágabb, 
mint ahogy azt gondolnánk,
és ha magunknál intelligensebb 
gépeket építünk,
akkor azok valószínűleg olyan 
területeket tárnak fel,
melyeket elképzelni sem tudunk,
és ott múlnak felül minket, 
ahol nem is sejtjük.
Fontos belátni, hogy ez pusztán
a sebességet tekintve már igaz.
Ugye? Mi lenne, ha olyan 
szuperintelligens MI-t hoznánk létre,
ami semmivel sem okosabb 
egy hétköznapi kutatócsoportnál
az MIT-n vagy a Stanford Egyetemen.
Az elektronikus áramkörök 
milliószor gyorsabban működnek,
mint a biokémiaiak,
ezért ez a gép milliószor gyorsabb 
gondolkodásra lesz képes,
mind azok az elmék, akik ezt létrehozták.
Szóval életre kelted, 
és alig egy hét alatt
20 000 évnyi emberi 
szellemi munkát végez el.

Spanish: 
Lo sentimos, una gallina.
No hay por qué hacer esta charla
más deprimente de lo que ya es.
(Risas)
Sin embargo, parece muy probable
que el espectro de la inteligencia
se extienda mucho más allá
de lo que actualmente concebimos,
y si construimos máquinas
más inteligentes que nosotros,
muy probablemente
explorarán este espectro
de maneras que no podemos imaginar,
y nos superarán de maneras inimaginables.
Y es importante saber que esto
es cierto solo debido a la velocidad.
Así que imaginen que acabamos
de construir una IA superinteligente
que no fuera más inteligente
que el promedio del equipo de
investigadores en Stanford o el MIT.
Los circuitos electrónicos funcionan
aproximadamente un millón de veces
más rápido que los bioquímicos,
así que esta máquina debe pensar
un millón de veces más rápido
que las mentes que la construyeron.
Con una semana funcionando
llevará a cabo 20 000 años
de trabajo intelectual a nivel humano,

Japanese: 
失敬 ニワトリはこの辺です
(笑)
元々滅入る話をさらに滅入るものに
することもないでしょう
(笑)
知能の分布には
今の我々に想像できるよりも
はるかに大きな広がりが
あることでしょう
そして我々が
人間よりも知的な機械を作ったなら
それはこの知能の地平を
我々の想像が
及ばないくらい遠くまで
進んでいくことでしょう
重要なのは スピードの点だけを取っても
それは確かだということです
スタンフォードやMITの
平均的な研究者並みの
知能を持つ
超知的AIができたとしましょう
電子回路は
生化学的回路より
100万倍も高速に稼働します
その機械は
それを作り出した頭脳よりも
100万倍速く
働くということです
だから１週間稼働させておくと
人間並みの知的作業を
２万年分こなすことになります

Swedish: 
Ursäkta, en kyckling.
(Skratt)
Det finns inga skäl att göra föredraget
mer deprimerande än det redan är.
(Skratt)
Det verkar dock mycket troligt, 
att spektrat av intelligens,
sträcker sig mycket längre
än vi kan föreställa oss idag,
och om vi bygger maskiner
som är intelligentare än vi,
kommer de troligtvis
utforska detta spektrum
på sätt som vi inte kan föreställa oss,
och överträffa oss på
sätt som vi inte kan förstå.
Det är viktigt att se att det här är sant
genom hastigheten det sker med.
Ok? Föreställ er att vi
byggt en superintelligent AI
som inte är smartare än din
genomsnittliga forskargrupp
på Stanford eller MIT.
Elektroniska kretsar är ungefär
en miljon gånger snabbare
än biokemiska,
så maskinen skulle tänka ungefär
en miljon gånger snabbare
än hjärnorna som byggt den.
Ni låter den köra i en vecka,
och den kommer att processa
20 000 år av mänskligt tänkande,

French: 
Pardon, un poulet.
(Rires)
Pas besoin de rendre cette présentation 
plus déprimante qu'elle ne l'est déjà.
(Rires)
Il semble néanmoins plus que probable
que le spectre de l'intelligence
s'étende beaucoup plus loin 
que nous ne pouvons le concevoir,
Si nous construisons
des machines plus intelligentes que nous,
elles vont très probablement 
explorer ce spectre,
plus que nous ne pouvons l'imaginer,
et elles nous surpasseront,
plus que nous ne pouvons l'imaginer.
Il est important de noter que c'est vrai 
par la seule vertu de la vitesse.
Imaginez que nous construisions
une IA super intelligente
qui ne soit pas plus intelligente 
qu'une équipe moyenne de chercheurs
de Stanford ou du MIT.
L'électronique va environ 
un million de fois plus vite
que la biochimie,
de sorte que cette machine 
penserait un million de fois plus vite
que les humains qui l'auraient créée.
En une semaine,
cette machine réaliserait le même travail 
qu'une équipe d'humains en 20 000 ans,

Portuguese: 
Perdão, uma galinha.
(Risadas)
Não existe razão pra que eu torne isso
mais depressivo do que precisa ser.
(Risadas)
Parece extremamente provável, no entanto,
que esse espectro da inteligência
se estenda muito além do que pensamos,
e se construirmos máquinas
mais inteligentes do que nós,
elas provavelmente
vão explorar esse espectro
de maneiras que não podemos imaginar,
e vão nos ultrapassar
de formas inimagináveis.
E é importante reconhecer que isso é
verdade apenas pela velocidade.
Imagine se construíssemos
uma IA superinteligente
que não fosse mais inteligente do que
seu time mediano de pesquisadores
em Stanford ou no MIT.
Circuitos eletrônicos funcionam quase
1 milhão de vezes mais rápido
do que os biológicos,
então essa máquina deve pensar
1 milhão de vezes mais rápido
do que a mente que a criou.
Você deixa ela funcionando
por uma semana,
e ela vai realizar 20 mil anos humanos
de trabalho intelectual,

Czech: 
Týden za týdnem, pořád dokola.
Jak bychom vůbec mohli pochopit,
tím spíš nějak omezovat,
inteligenci schopnou takového pokroku?
Je tu i další znepokojivá věc –
představte si optimální situaci.
Představte si, že se nám podaří
navrhnout superinteligentní AI,
která nebude dbát na bezpečnost.
Hned napoprvé budeme mít dokonalou verzi.
Jako kdyby se naplnila nějaká věštba,
která by fungovala tak, jak bylo určeno.
Takový stroj by lidem
dokonale usnadňoval práci.
Dokázal by navrhnout stroj,
který by uměl stavět stroje
schopné jakékoli manuální práce,
napájené sluneční energií,
víceméně za cenu surovin.
Takže mluvíme o konci lidské dřiny.
Mluvíme také o konci
většiny intelektuální práce.
Ale co by takové opice jako my
v téhle situaci dělaly?
No, měli bychom čas hrát frisbee
a vzájemně se masírovat.

Arabic: 
أسبوع بعد أسبوع بعد أسبوع.
كيف بإمكاننا حتى أن نفهم،
أو حتى أن نُقيّد،
عقلاً يصنع هذا النوع من التطور؟
والأمر الآخر المقلق، بصراحة،
هو أن، تخيل أفضل سيناريو.
إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء
الصنعي فائق الذكاء
وليس لديه مخاوف سلامة.
لدينا التصميم المثالي للمرة الأولى.
وكأنه تم تسليمنا نبوءة
تتصرَّف تماماً كما ينبغي عليها.
هذه الآلة ستكون المثلى لتوفير العمالة.
بإمكانها تصميم آلية ستقوم ببناء الآلة
التي بإمكانها القيام بأي عمل فيزيائي،
تعمل بضوء الشمس،
ومهما يكن من أجل كلفة المواد الخام.
إذاً نحن نتكلم عن نهاية الكدح البشري.
نحن أيضا نتكلم عن نهاية العمل الذكائي.
فماذا قد تفعل القرود أمثالنا في هذا الظرف؟
حسناً، سنكون متفرغين للعب بالصحن الطائر 
وتبادل الرسائل مع بعضنا.

Slovak: 
týždeň za týždňom.
Ako by sme vôbec mohli pochopiť,
či snáď nejako obmedziť
myseľ schopnú takéhoto pokroku?
Úprimne, je tu ďalšia znepokojivá vec -
predstavte si najlepší možný scenár.
Predstavte si, že sa nám podarí navrhnúť
super inteligentnú AI, ktorá nebude mať
žiadne bezpečnostné hrozby.
Budeme mať perfektnú verziu
hneď na prvý pokus.
Ako keby sa naplnila veštba a všetko
by fungovalo, tak ako bolo zamýšľané.
Takýto stroj by ľuďom perfektne 
uľahčoval prácu.
Dokázal by navrhnúť stroj,
ktorý by zostrojil stroje,
čo vykonajú akúkoľvek fyzickú prácu,
napájané slnečným žiarením,
viac-menej za cenu vstupných materiálov.
Takže, hovoríme o konci ľudskej driny.
Hovoríme taktiež o konci väčšiny
intelektuálnej práce.
Ale čo by také opice ako sme my 
robili za takýchto okolností?
No, mali by sme čas hrať Frisbee a 
vzájomne sa masírovať.

Thai: 
นานสัปดาห์แล้วสัปดาห์เล่า
เราจะไปเข้าใจ หรือแม้แต่จำกัดขอบเขต
ของปัญญาประดิษฐ์
ที่สร้างความก้าวหน้าแบบนี้ได้อย่างไร
อีกเรื่องหนึ่งที่น่าวิตกกังวล
คือ ลองจินตนาการถึงสถานการณ์ที่ดีที่สุด
จินตนาการว่า เราค้นพบการออกแบบ
ปัญญาประดิษฐ์อันชาญฉลาด
ที่ไม่มีปัญหาเรื่องความปลอดภัย
เรามีแบบที่สมบูรณ์เป็นครั้งแรก
ราวกับว่าเราได้รับคำพยากรณ์
ที่เป็นไปดังใจคิดเป๊ะ
ครับ จักรกลนี้ก็น่าจะเป็นเครื่องมือ
ที่ประหยัดแรงงานได้อย่างสมบูรณ์แบบ
มันสามารถออกแบบจักรกล
ที่สามารถสร้างจักรกล
ซึ่งสามารถทำงานเชิงกายภาพอะไรก็ได้
ใช้พลังจากแสงอาทิตย์
โดยมีต้นทุนแค่ค่าวัตถุดิบ
ดังนั้น เรากำลังพูดกันถึงการสิ้นสุด
ของงานหนักที่น่าเบื่อของมนุษย์
เรากำลังพูดถึงการจบสิ้นของงาน
ที่ใช้สติปัญญามากที่สุดด้วยเช่นกัน
แล้วลิงจ๋ออย่างพวกเรานั้น
จะทำอย่างไรในสถานการณ์แบบนี้
ครับ เราก็ว่างที่จะไปเล่นจานร่อน 
แล้วก็ทำการนวดเฟ้นให้กันและกัน

Catalan: 
setmana rere setmana rere setmana.
Com podem arribar a comprendre,
i menys encara limitar,
una ment que progressa així?
L'altra cosa que em preocupa,
sent honestos,
es que... imagineu-vos
el millor escenari possible.
Imagineu que tombem amb un disseny
de IA superintel·ligent
sense problemes de seguretat.
És el primer cop que
aconseguim el disseny perfecte.
És com si ens hagués arribat un oracle
que es comporta tal i com preteníem.
Doncs bé, aquesta màquina seria
l'eina perfecta per reduir-nos feina.
Podria dissenyar màquines
que podrien construir màquines
per fer qualsevol feina física,
alimentades per energia solar,
i més o menys pel que
costa la matèria prima.
Estem parlant de la fi
de les feines feixugues.
També seria la fi de la majoria
de feines intel·lectuals.
Què farien uns simis com nosaltres
en aquestes circumstàncies?
Tindríem temps per jugar al disc volador
i de fer-nos massatges els uns als altres.

Ukrainian: 
тиждень за тижнем, тиждень за тижнем.
Як ми можемо зрозуміти,
тим паче стримати
інтелект, що так прогресує?
Тривогу викликає ще одна річ:
це, уявіть собі, найкращий сценарій.
А тепер уявіть, ми створюємо надрозумний
штучний інтелект,
не зважаючи на жодні
міркування безпеки.
В нас уперше з'являється 
бездоганний проект.
Так наче ми отримали оракула,
що поводиться саме так, як планувалося.
Тож така машина була б
ідеальним пристроєм з економії праці.
Вона може проектувати машини,
що можуть будувати машини,
що можуть робити будь-яку фізичну роботу,
працюватимуть на сонячній енергії,
більш-менш за ціною сировини.
Тож ми говоримо про кінець
важкої людської праці.
Ми також говоримо про кінець
найбільш інтелектуальної праці.
То що ж такі мавпи, як ми, 
будуть робити за цих обставин?
Ми зможемо вільно грати в Фрізбі
та робити одне одному масаж.

English: 
week after week after week.
How could we even understand,
much less constrain,
a mind making this sort of progress?
The other thing that's worrying, frankly,
is that, imagine the best case scenario.
So imagine we hit upon a design
of superintelligent AI
that has no safety concerns.
We have the perfect design
the first time around.
It's as though we've been handed an oracle
that behaves exactly as intended.
Well, this machine would be
the perfect labor-saving device.
It can design the machine
that can build the machine
that can do any physical work,
powered by sunlight,
more or less for the cost
of raw materials.
So we're talking about
the end of human drudgery.
We're also talking about the end
of most intellectual work.
So what would apes like ourselves
do in this circumstance?
Well, we'd be free to play Frisbee
and give each other massages.

Spanish: 
semana tras semana tras semana.
¿Cómo podríamos siquiera comprender,
mucho menos restringir,
una mente que progresa de esta manera?
Algo más que es francamente preocupante
es imaginar el mejor de los casos.
Imaginemos que diseñamos
una IA superinteligente
que no tiene problemas de seguridad.
Tenemos el diseño perfecto a la primera.
Es como si nos dieran un oráculo
que se comporta exactamente
como se espera.
Esta máquina sería el dispositivo
de ahorro de mano de obra perfecta.
Puede diseñar la máquina
que puede construir la máquina
que pueda hacer cualquier trabajo físico,
impulsada por la luz solar,
más o menos por el costo
de las materias primas.
Estamos hablando del fin
del trabajo pesado humano.
También estamos hablando del fin
de la mayoría del trabajo intelectual.
Entonces, ¿qué harían simios como
nosotros en estas circunstancias?
Pues, podríamos jugar
al Frisbee y darnos masajes.

Italian: 
settimana, dopo settimana.
Come possiamo comprendere,
e figuriamoci contenere,
una mente che progredisce
così velocemente?
C'è un altro aspetto preoccupante,
anche immaginando lo scenario
più ottimista.
Mettiamo che abbiamo realizzato
una IA super intelligente
senza problemi di sicurezza.
Abbiamo trovato alla prima
il design perfetto.
Come se ci avessero dato un oracolo
che si comporta proprio come dovrebbe.
Sarebbe lo strumento perfetto
per risparmiare fatica.
Può progettare la macchina
che ne costruisce un'altra
che faccia qualsiasi lavoro fisico,
azionata dalla luce solare,
più o meno al costo della materia prima.
Per l'uomo, sarebbe la fine
del lavoro duro,
ma anche della maggior parte
dei lavori intellettuali.
Cosa farebbero degli scimmioni come siamo
in queste circostanze?
Saremmo liberi di giocare a frisbee
e farci i massaggi a vicenda.

Georgian: 
კვირიდან კვირამდე.
ამის შემდეგ, არათუ როგორ შევზღუდავთ,
არამედ როგორ გავუგებთ ტვინს,
რომელიც ასე პროგრესირებს?
კიდევ ერთი რამ,
რაც გულწრფელად მაწუხებს ისაა
რომ საუკეთესო ვარიანტში,
წარმოიდგინეთ დავაპროექტეთ ისეთი
ზეგონიერი ხელოვნური ინტელექტი,
რომელსაც უსაფრთხოების პრობლემა არ აქვს.
ჩვენ პირველივე ჯერზე
გვაქვს იდეალური პროექტი.
თითქოს ზეციდან გვებოძა პროექტი,
რომელიც ისე მუშაობს როგორც ჩავიფიქრეთ.
ასეთი მანქანა იდეალური იქნებოდა
შრომის შესამსუბუქებლად.
მან შეიძლება დააპროექტოს მანქანა,
რომელიც შექმნის მანქანას,
რომელსაც შეუძლია
ნებისმიერი ფიზიკური სამუშაოს შესრულება
მზის ენერგიით,
მეტ-ნაკლებად ნედლეულის ფასად.
ანუ ლაპარაკია ადამიანის დამქანცველი შრომის
დასასრულზე.
ლაპარაკია ასევე უმეტესი
ინტელექტულაური შრომის დასასრულზე.
მაშ, რას გააკეთებენ
ჩვენნაირი პრიმატები ამ სიტუაციაში?
თავისუფლად შევძლებთ ვითამაშოთ
ფრისბი და მასაჟი ვუკეთოთ ერთმანეთს.

Persian: 
کار اندیشمدانه در سطح بشر خواهد داشت.
ما چطور قادر به درک ذهنی باشیم که چنین 
نوعی از پیشرفت را ایجاد می‌کند
چه برسد به محدود کردن آن؟
صادقانه بگویم، یک از چیزهای دیگری 
که نگران کننده است،
این است که - 
بهترین سناریوی ممکن را تصور کنید.
تصور کنید به طراحی از یک هوش مصنوعی
ابرهوشمند رسیده‌ایم
که هیچ مشکل امنیتی ندارد.
برای اولین بار بهترین طراحی را داریم.
مثل این میماند که ما به دانشمندی
دست پیدا کرده‌ایم
که عینا طبق خواسته رفتار می‌کند.
خب این ماشین می‌تواند بهترین 
وسیله در صرفه‌جویی نیروی کار باشد.
می‌تواند ماشینی را طراحی کند
که خود ماشینی را بسازد
که توان انجام هر کار فیزیکی را دارد،
با استفاده از نور خورشید،
کمابیش بخاطر هزینه مصالح خام.
پس درباره به پایان رسیدن 
جان کندن بشر صحبت می‌کنیم.
و همچنین به پایان رسیدن اغلب کارهایی 
که با عقل و خِرَد سروکار دارند.
پس در شرایط این چنینی چه 
بر سر میمون‌هایی مثل ما می‌آید؟
خب، ما در فریزبی بازی کردن 
و ماساژ دادن یکدیگر آزاد خواهیم بود.

Dutch: 
week na week na week.
Hoe kunnen we een verstand 
dat dit soort vooruitgang maakt
nog begrijpen, laat staan ​​beheersen?
Wat, eerlijk gezegd, 
ook nog verontrustend is:
stel je even het beste scenario voor.
Veronderstel dat we 
een superintelligente AI ontwerpen
die absoluut veilig is.
We vinden gelijk het perfecte ontwerp.
Het is alsof we 
een orakel hebben gekregen
dat ​​zich precies zoals bedoeld gedraagt.
Deze machine zou het perfecte 
arbeidsbesparende apparaat zijn.
Het kan de machine ontwerpen 
die de machine kan bouwen
die elk fysiek werk aankan,
aangedreven door zonlicht,
min of meer voor de kosten 
van de grondstoffen.
Gedaan met alle menselijk geploeter!
Maar ook het einde 
van de meeste intellectuele arbeid.
Wat gaan apen zoals wij 
in deze omstandigheden doen?
Nou ja, we zouden vrij zijn om frisbee 
te spelen en elkaar massages te geven.

Vietnamese: 
tuần này qua tuần khác.
Thậm chí làm sao ta hiểu được,
dù ít nhiều hạn chế,
một bộ óc thực hiện
kiểu quá trình như vậy?
Một điều khác thật sự đáng lo lắng,
đó là, tưởng tượng ra
một viễn cảnh tốt nhất.
Nào hãy tưởng tượng chúng ta tìm ra
một thiết kế cho AI siêu thông minh
mà không có các vấn đề an toàn.
Lần đầu tiên chúng ta có được
một bản thiết kế hoàn hảo.
Nó như thể chúng ta nhận được
một lời tiên tri
xảy ra chính xác như trong dự định.
Vâng, cỗ máy này sẽ là một thiết bị
tuyệt vời giúp tiết kiệm nhân lực.
Nó có thể thiết kế một cỗ máy
có khả năng tạo ra cỗ máy khác
thực hiện các công việc thể chất,
chạy bằng ánh sáng mặt trời,
nhiều hơn hoặc ít hơn cho
các chi phí nguyên liệu.
Vậy chúng ta đang nói tới sự kết thúc
cho nỗi cực nhọc của con người.
Chúng ta cũng nói về sự chấm dứt
cho các công việc trí óc.
Vậy loài khỉ giống chúng ta sẽ làm gì
trong tình huống này?
Vâng, chúng ta được tự do chơi Frisbee
và nhắn tin với từng người.

Hungarian: 
És ezt hétről hétre megismétli.
Képtelenség felfogni, 
nemhogy kordában tartani
egy elmét, ami ilyen mértékű 
fejlődésre képes.
A másik, ami aggodalomra ad okot, 
őszintén szólva,
ez a legjobb, ami megtörténhet velünk.
Képzeljük el, hogy olyan 
szuperintelligens MI-t alkotunk,
ami nem rejt biztonsági kockázatokat.
Rögtön, elsőre létrehozzuk
a legtökéletesebb változatát.
Mintha kezünkbe kapnánk a mindentudást,
ami pont úgy működik, ahogy kell.
Ez a gép lenne a leghatékonyabb 
munkaerő-helyettesítő berendezés.
Létrehozná a gépet, 
amely létrehozná azt a gépet,
amely bármilyen fizikai munkát elvégez,
napenergia hajtja,
és költségét csak az anyagköltség okozza.
Az emberi robotolás végéről beszélünk.
De ez egyben a szellemi 
munka végét is jelenti.
Vajon ilyen esetben mit tennének
a hozzánk hasonló emberszabásúak?
Nos, bármikor frizbizhetnénk, 
vagy masszírozhatnánk egymást.

Chinese: 
一週接著一週接著一週。
我們如何可能理解，較不嚴格地說，
一個達成如此進展的心智？
另一個另人擔心的事，老實說，
是想像最好的情況。
想像我們想到一個沒有安全顧慮的
超級人工智能的設計，
我們第一次就做出了完美的設計。
如同我們被給予了一個神諭，
完全照我們的預期地動作。
這個機器會是完美的人力節約裝置。
它能設計一個機器，
那機器能製造出能做任何人工的機器，
以太陽能驅動，
幾乎只需要原料的成本。
所以我們是在談人類苦役的終結。
我們也是在談大部分
智力工作的終結。
像我們一樣的猩猩
在這種情況下會做什麼？
我們可能可以自由地
玩飛盤和互相按摩。

Croatian: 
tjedan za tjednom za tjednom.
Kako bi uopće mogli razumjeti,
puno manje ograničiti,
um koji stvara ovu vrst napretka?
Druga stvar koja je
zabrinjavajuća, iskreno,
je kako, zamislite najbolji scenarij.
dakle zamislite kako pogodimo
dizajn superinteligentne AI
koji nema sigurnosnih problema.
Imamo savršen dizajn
iz prve.
Kao da nam je dano proročanstvo
koje se ponaša posve kako bi i trebalo.
Dobro, taj bi stroj bio
savršena naprava za uštedu rada.
Može dizajnirati stroj
koji može izraditi stroj
koji može obavljati
svaki fizički rad,
pogonjen sunčanom svjetlošću,
manje ili više po cijeni
sirovog materijala.
Dakle pričamo o
kraju ljudske tlake.
Također pričamo o kraju
većine intelektualnog rada.
Pa što bi majmuni poput nas
činili u takvim okolnostima?
Ok, bili bi slobodni
igrati frizbi i masirati se međusobno.

French: 
semaine après semaine.
Comment pourrions-nous comprendre, 
et encore moins limiter,
un esprit qui irait à une telle vitesse ?
L'autre chose inquiétante, franchement,
est la suivante :
imaginez le meilleur des cas.
Imaginez que nous concevions
une IA super intelligente
qui ne soit pas dangereuse.
Nous trouvons la parfaite solution 
du premier coup.
Comme si nous avions 
un oracle à disposition
se comportant
exactement comme prévu.
Cette machine nous éviterait 
toute forme de travail.
Elle concevrait la machine
qui ferait la machine
qui pourrait faire n'importe quoi,
alimentée par le soleil,
plus ou moins pour le seul coût
des matières premières.
On parle là de la fin
de la pénibilité humaine.
Nous parlons aussi 
de la fin du travail intellectuel.
Que feraient des singes comme nous 
dans une pareille situation ?
Nous serions libres de jouer au frisbee
et de nous faire des massages.

Modern Greek (1453-): 
και το ίδιο θα κάνει
κάθε επόμενη εβδομάδα.
Πώς μπορούμε να καταλάβουμε,
πολύ δε περισσότερο να περιορίσουμε,
έναν εγκέφαλο που κάνει τέτοια πρόοδο;
Για να πω την αλήθεια,
είναι επίσης ανησυχητικό
να φανταστούμε το καλύτερο δυνατό σενάριο.
Φανταστείτε να βρούμε ένα σχέδιο
υπερεφυούς τεχνητής νοημοσύνης
που δεν έχει θέματα ασφάλειας.
Θα έχουμε βρει το τέλειο σχέδιο
για πρώτη φορά.
Θα είναι σαν να μας έχει δοθεί ένα μαντείο
που λειτουργεί ακριβώς όπως πρέπει.
Αυτή θα ήταν η τέλεια μηχανή
εξοικονόμησης έργου.
Θα σχεδιάσει τη μηχανή
που θα κατασκευάσει τη μηχανή
που θα κάνει κάθε σωματική εργασία,
τροφοδοτούμενη από τον ήλιο,
με μόνο κόστος αυτό των πρώτων υλών.
Έτσι μιλάμε για το τέλος
της ανθρώπινης αγγαρείας.
Επίσης μιλάμε για το τέλος
της περισσότερης διανοητικής εργασίας.
Τι θα κάνουν οι πίθηκοι όπως εμείς
σε αυτή την περίπτωση;
Θα έχουμε χρόνο να παίζουμε φρίσμπι
και να κάνουμε μασάζ ο ένας στον άλλον.

Russian: 
неделю за неделей.
Как мы только можем понять,
не говоря о том, чтобы сдержать,
ум, работающий с подобной скоростью?
Ещё беспокоит, если честно,
вот что: представьте себе
наилучший сценарий.
Представьте, что у нас в распоряжении
проект сверхразумного ИИ,
не угрожающего безопасности.
У нас сразу оказывается
идеальная разработка.
Как будто она дана нам свыше
и работает точно так, как задумано.
Это устройство было бы идеально
для снижения трудозатрат.
Оно может придумать машину,
которая построит машину,
которая сможет делать физическую работу,
питаясь энергией солнца
приблизительно по цене сырья.
Это означает конец
изматывающей работы для людей.
Это также означает конец
большей части умственной работы.
А что такие приматы, как мы,
делают в такой ситуации?
Ну, мы сможем играть во фрисби
и делать друг другу массаж.

Serbian: 
nedelju za nedeljom.
Kako čak možemo i razumeti,
a kamoli ograničiti
um koji bi mogao ovo da uradi?
Iskreno, ono drugo što je zabrinjavajuće
je da, zamislite najbolji mogući scenario.
Zamislite da nabasamo na neki dizajn
superinteligentne VI
čija nas sigurnost ne brine.
Po prvi put imamo savršeni dizajn.
To je kao da nam je dato proročanstvo
koje se odvija baš kako je zapisano.
Ta mašina bi bila savršeni
uređaj za uštedu radne snage.
Dizajnirala bi mašinu
koja može napraviti mašine
za bilo kakav fizički posao,
a koje bi napajalo sunce,
manje-više po ceni sirovina.
Pričamo o kraju teškog ljudskog rada.
Takođe pričamo o kraju
većeg dela intelektualnog rada.
Pa šta će onda majmuni poput nas
da rade u takvim okolnostima?
Pa, imali bismo vremena za frizbi
i da masiramo jedni druga.

Chinese: 
而这个过程将周而复始。
那么，我们又怎么能理解，
更不用说去制约
一个以如此速度运行的机器呢？
坦白讲，另一件令人担心的事就是，
我们考虑一下最理想的情景。
想象我们正好做出了
一个没有任何安全隐患的
超级人工智能。
我们有了一个前所未有的完美设计。
就好像我们被赐予了一件神物，
它能够准确的执行目标动作。
这个机器将完美的节省人力工作。
它设计出的机器
能够再生产其他机器，
去完成所有的人力工作。
由太阳能供电，
而成本的多少仅取决于原材料。
那么，我们正在谈论的
就是人力劳动的终结。
也关乎脑力劳动的终结。
那在这种情况下，
像我们这样的"大猩猩"还能有什么用呢？
我们可以悠闲地玩飞盘，
给彼此做按摩。

Romanian: 
săptămână după săptămână.
Cum am putea să înțelegem,
darămite să constrângem
o minte care face astfel de progrese?
Celălalt lucru îngrijorător e următorul:
imaginați-vă cel mai bun scenariu posibil.
Imaginați-vă că dăm peste un design
de IA superinteligentă
care nu are probleme de siguranță.
Avem designul perfect din prima încercare.
E ca și cum ne-ar fi dat un oracol
care se comportă așa cum vrem.
Această mașinărie ar fi aparatul perfect
de economisire a forței de muncă.
Poate crea mașinăria
care poate construi mașinăria
care poate face orice muncă fizică,
folosind energie solară,
aproape la costul materiilor prime.
Vorbim despre sfârșitul corvoadei umane.
E și despre sfârșitul
majorității muncii intelectuale.
Ce ar face maimuțe ca noi
în aceste circumstanțe?
Am fi liberi să jucăm frisbee
și să ne facem masaje.

Japanese: 
毎週毎週です
そのような進歩をする頭脳は
抑えるどころか理解することすら
おぼつかないでしょう
正直言って 心配なことが
他にもあります
それなら最良のシナリオは
どんなものでしょう？
安全性について心配のない
超知的AIのデザインを
思い付いたとします
完璧なデザインを
最初に手にすることができた
神のお告げで
与えられたかのように
まったく意図したとおりに
振る舞います
その機械は人間の労働を不要にする
完璧な装置になります
どんな肉体労働もこなす
機械を作るための
機械をデザインでき
太陽光で稼働し
原材料費くらいしか
かかりません
人間は苦役から
解放されます
知的な仕事の多くすら
不要になります
そのような状況で 我々のようなサルは
何をするのでしょう？
気ままにフリスビーしたり
マッサージし合ったりでしょうか

Turkish: 
işleri yapacak, haftalarca.
Engellemek şöyle dursun,
bu tarz bir zihinsel
ilerlemeyi nasıl durdurabiliriz ki?
Endişe uyandıran diğer bir şey ise,
açıkcası, olabilecek en iyi
senaryoyu düşünün.
Hiçbir kaygı barındırmayan
bir süper zeki Yapay Zekâ
tasarımı keşfettiğimizi düşünün.
İlk seferde en iyi tasarımı bulduk.
Tam da istenilen şekilde davranan bir
kâhin bize verilmiş gibi.
Bu makine müthiş bir işten
tasarruf ettiren bir aygıt olurdu.
Güneş ışığıyla çalışan, herhangi
bir fiziksel işi yapabilen,
aşağı yukarı ham maddeleri
maliyetinde olan makineyi
yapabilecek makineyi tasarlayabilir.
Yani insanların yaptığı angarya 
işlerin sonundan bahsediyoruz.
Aynı zamanda çoğu zihinsel işlerin de
sonundan bahsediyoruz.
Böyle bir durumda biz
maymunlar ne yapardık?
Birbirimize masaj yapabilir ve
frizbi oynayabiliriz.

Chinese: 
佢就可以完成人類要兩萬年
先至完成得到嘅工作
而我哋又點會明白
人工智能係點樣完成咁龐大嘅運算呢？
另一個令人擔憂嘅事，老實講
就係…不如想像一下最好嘅情形
想像一下我哋設計咗一個
冇安全問題嘅超級人工智能
我哋第一次擁有完美嘅設計
就好似我哋摞住
一個按照預期發展嘅神諭
呢個機器仲會變成完美嘅慳力設備
事關機器可以生產另一款機器出嚟
做任何體力勞動
兼由太陽能驅動
成本仲同買原材料差唔多
所以，我哋唔單止講緊咕哩勞力嘅終結
我哋同時講緊大部份用腦工作嘅終結
咁我哋人類面對工作削減
應該何去何從？
我哋會好自由咁去掟飛盤 、同人按摩

Portuguese: 
semana após semana.
Como poderíamos entender,
muito menos restringir,
uma mente progredindo dessa maneira?
Outra coisa que é
preocupante, francamente,
é... imagine o melhor cenário possível.
Imagine que nos deparamos
com o design de uma IA superinteligente
que não tem problemas de segurança.
Temos o design perfeito pela primeira vez.
É como se tivéssemos recebido um oráculo
que se comporta como deve.
Essa máquina seria o perfeito
dispositivo de economia de trabalho.
Pode desenvolver a máquina
que pode construir a máquina
que pode executar
qualquer trabalho físico,
movido à luz solar,
por mais ou menos
o custo da matéria-prima.
Estamos falando do fim
do esforço físico humano.
Também estamos falando do fim
da maior parte do trabalho intelectual.
O que símios como nós fariam
nessas circunstâncias?
Estaríamos livres para jogar Frisbee
e massagear uns aos outros.

iw: 
שבוע אחרי שבוע אחרי שבוע.
איך נוכל להבין, לא כל שכן להגביל,
מוח שיכול להתקדם כך?
בכנות, הדבר הנוסף שמדאיג,
הוא שאם תדמיינו את התרחיש הטוב ביותר,
דמיינו שפתאום נתקלנו בתכן
של בינה מלאכותית סופר-אינטליגנטית
שאין בו שום דאגות בטיחותיות.
יש לנו את התכן המושלם על הפעם הראשונה.
כאילו שקיבלנו אוֹרַקְל
שמתנהג בדיוק כפי שאנו מצפים.
אז המכונה הזו תהיה 
המכשיר המושלם לחיסכון בעבודה.
היא תוכל לתכנן את המכונה
שתוכל לבנות את המכונה
שתעשה כל עבודה פיזית,
תופעל בכוח השמש,
פחות או יותר במחיר של חומרי הגלם.
אז אנחנו מדברים על סופה
של עבודת הפרך האנושית.
אנחנו מדברים גם על סופה
של רוב העבודה האינטלקטואלית.
אז מה קופים כמונו יעשו בנסיבות שכאלו?
טוב, נהיה חופשיים לשחק פריסבי
ולהעניק אחד לשני עיסויים.

Portuguese: 
semana após semana.
Como podemos entender,
e muito menos restringir,
uma mente que faz tal progresso?
A outra coisa preocupante, honestamente...
Imaginem o melhor cenário possível.
Imaginem que chegamos ao "design"
de uma IA superinteligente
sem problemas de segurança.
Temos o "design" perfeito
na primeira tentativa.
Seria como se nos tivessem dado um oráculo
cujo comportamento seria o esperado.
Esta máquina poderia ser
a máquina perfeita para poupar trabalho.
Poderia conceber a máquina
para construir a máquina
que pode fazer qualquer
trabalho físico,
usando energia solar,
mais ou menos ao custo
das matérias-primas.
Estamos a falar do fim
do trabalho duro humano
Estamos também a falar do fim
de maior parte do trabalho intelectual.
O que fariam macacos como nós
nestas circunstâncias?
Teríamos tempo para jogar ao disco,
e dar massagens uns aos outros.

Swedish: 
vecka ut och vecka in.
Hur kan vi ens förstå, än mindre begränsa
en kraft som gör sådana framsteg?
Det andra som är uppriktigt oroande,
är, föreställ dig ett bästa scenario.
Föreställ dig att vi designar
en superintelligent AI
utan säkerhetsproblem.
Vi har den perfekta designen från början.
Det är som att vi skulle få ett orakel
som beter sig exakt som vi avsett.
Den här maskinen skulle vara
den perfekta "jobbspararen".
Den kan designa maskinen
som kan bygga maskinen
som kan utföra allt fysiskt arbete,
och drivs av solenergi,
mer eller mindre till
kostnaden för råmaterialet.
Då pratar vi om slutet
av mänsklighetens slit.
Och även om slutet för mycket
av intellektuellt arbete.
Så vad ska apor som vi göra
under sådana omständigheter?
Ja, vi får tid över att kasta frisbee
och ge varandra massage.

Korean: 
몇 주 동안 계속 말이죠.
별 제한 없이
이런 진보를 이루어내는 인공지능을
어떻게 받아들여야 할까요?
솔직히 걱정되는 다른 것은
최고의 시나리오를 생각해 보는 겁니다.
안전성에 대해 고려하지 않고
초지능 AI를 설계한다고 상상해 보세요.
처음에는 설계가 완벽하죠.
의도한 대로 정확히 행동하는 
조력자를 얻은 것 같습니다.
노동력을 절감해주는
완벽한 기계가 될 겁니다.
이걸로 물리적인 작업을 할
기계를 만들어 내는
또 다른 기계를 고안할 수 있습니다.
태양에너지로 돌아가고
원자재 정도의 비용만 들어가죠.
인간의 고된 노동이 끝나게 
된다는 걸 의미하는 거예요.
그건 대부분의 지적 노동도 
끝나게 된다는 말이기도 합니다.
우리 같은 유인원은 
이런 상황에서 뭘 할까요?
한가로이 원반 던지기 놀이하면서 
서로 마사지나 해주겠죠.

Dutch: 
Gooi er nog wat LSD 
en rare kleren tegenaan
en de hele wereld wordt 
één groot Burning Man-festival.
(Gelach)
Nu klinkt dat misschien best goed,
maar vraag jezelf eens af
wat er zou gebeuren
onder onze huidige economische 
en politieke orde.
Het lijkt waarschijnlijk 
dat we getuige zouden zijn
van een niveau van ongelijke verdeling 
van rijkdom en werkloosheid
die we nooit eerder hebben gezien.
Zonder bereidheid om 
deze nieuwe rijkdom
onmiddellijk met iedereen te delen,
zullen enkele biljonairs de covers 
van onze zakenmagazines sieren
terwijl de rest van de wereld 
vrij zou zijn om te verhongeren.
Wat zouden de Russen of de Chinezen doen
als ze hoorden 
dat een bedrijf in Silicon Valley
op het punt stond 
een superintelligente AI te maken?
Deze machine zou in staat zijn 
tot het voeren van oorlog,
hetzij op aarde of in cyberspace,
met ongekende kracht.
Dit is een winnaar-pakt-alles-scenario.
Zes maanden voorsprong op de concurrentie
komt overeen met 500 000 jaar voorsprong,
op z'n minst.

Korean: 
환각제 조금과 이상한 옷만 더하면
전 세계가 마치 버닝맨 
축제 같을 겁니다.
(웃음)
참 괜찮을 것 같지만
현재의 정치 경제 상황에서 
무슨 일이 생길지 자문해 보세요.
다분히 우리들은
이전에 없던 부의 불평등과 
실업문제를 직면하게 될 겁니다.
새로운 부를 즉시 모든 
인류와 나누려 하지 않고
소수의 백만장자들만이
경제지 표지를 장식하겠죠.
세계의 나머지 인류는 
굶어 죽는 동안에요.
러시아나 중국인은 뭘 할까요?
실리콘 밸리의 어떤 회사들이
초지능 AI를 곧 사용하려고 
한다는 걸 들으면요.
이 기계는 전쟁도 
일으킬 수 있을 겁니다.
지역분쟁이건 사이버 전쟁이건
전례없는 힘을 가지고 말입니다.
이건 승자독식의 시나리오입니다.
이 경쟁에서 6개월 앞선다는 것은
최소한 50만 년 앞서는 것입니다.

Portuguese: 
Adicionem LSD e algumas
escolhas duvidosas de roupa,
e seria como o festival Burning Man
por todo o mundo.
(Risos)
Isto até pode soar bem,
mas questionem-se o que poderia aconteceu
na nossa ordem atual
económica e política?
Parece que poderíamos testemunhar
um nível de desigualdade de riqueza
e desemprego como nunca vimos antes.
Se não existir a vontade
de colocar essa riqueza
imediatamente ao serviço
de toda a humanidade,
alguns multimilionários poderiam figurar
nas capas das nossas revistas de negócios
enquanto o resto do mundo
estaria à fome.
E o que fariam os russos
ou os chineses
se soubessem que alguma companhia
em Silicon Valley
estaria prestes a implementar
uma IA superinteligente?
Essa máquina seria capaz 
de fazer a guerra,
terrestre ou cibernética,
com um poder inédito.
Isto é um cenário de
"o vencedor leva tudo".
Estar seis meses adiantado
nesta competição
é como estar 500 000 anos adiantado,
no mínimo.

Chinese: 
服用一些迷药，
穿一些奇装异服，
整个世界都沉浸在狂欢节之中。
（笑声）
那可能听起来挺棒的，
不过让我们扪心自问，
在现有的经济和政治体制下，
这意味着什么？
我们很可能会目睹
前所未有的贫富差距
和失业率。
有钱人不愿意马上把这笔新的财富
贡献出来服务社会，
这时一些千万富翁能够优雅地
登上商业杂志的封面，
而剩下的人可能都在挨饿。
如果听说硅谷里的公司
即将造出超级人工智能，
俄国人和中国人
会采取怎样的行动呢？
那个机器将能够
以一种前所未有的能力
去开展由领土问题和
网络问题引发的战争。
这是一个胜者为王的世界。
机器世界中的半年，
在现实世界至少会相当于
50万年。

Slovak: 
Pridali by sme nejaké to LSD
a pochybné oblečenie
a celý svet by mohol byť 
ako "Burning Man".
(smiech)
Teraz, aj keď to znie lákavo,
ale spýtajte sa sami seba,
čo by mohlo nastať,
keby ekonomika a politika fungovali
tak ako dnes?
Zdá sa pravdepodobné, 
že by sme boli svedkami
takej sociálnej nerovnosti 
a nezamestnanosti,
ako nikdy predtým.
Absencia ochoty poskytnúť
toto nové bohatstvo
do služieb celého ľudstva.
Niekoľko miliardárov by zdobilo 
titulky obchodných magazínov,
zatiaľčo zbytok sveta by pokojne hladoval.
A čo by urobili Rusi a Číňania, ak by sa
dozvedeli, že nejaká spoločnosť
v Silicon Valley
sa chystá nasadiť super inteligentnú AI?
Takýto stroj by bol schopný viesť vojnu,
či už pozemnú alebo kybernetickú
s nebývalou silou.
To je scenár, kde víťaz berie všetko.
Šesťmesačný náskok pred konkurenciou
by znamenal minimálne náskok
500 000 rokov.

Modern Greek (1453-): 
Προσθέστε λίγο LSD και κάποιες
αμφίβολες επιλογές ένδυσης,
κι όλος ο κόσμος θα μοιάζει
με φεστιβάλ Burning Man.
(Γέλια)
Μπορεί βέβαια να ακούγεται αρκετά καλό,
αλλά αναρωτηθείτε τι θα συνέβαινε
με την τωρινή οικονομική
και πολιτική κατάσταση;
Μοιάζει πιθανό ότι θα βιώσουμε
ένα επίπεδο ανισότητας
πλούτου και ανεργίας
που δεν έχουμε ξαναδεί.
Αν απουσιάσει η θέληση
να βάλουμε άμεσα αυτόν τον πλούτο
στην υπηρεσία όλης της ανθρωπότητας,
ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν
τα εξώφυλλα των οικονομικών περιοδικών,
ενώ ο υπόλοιπος κόσμος
θα είναι ελεύθερος να λιμοκτονήσει.
Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι
αν μάθουν ότι μια εταιρεία
στη Σίλικον Βάλεϊ
πρόκειται να κυκλοφορήσει
μια υπερευφυή τεχνητή νοημοσύνη;
Αυτή η μηχανή θα μπορούσε
να κηρύξει πόλεμο,
είτε συμβατικό
είτε σε επίπεδο υπολογιστών,
με ισχύ άνευ προηγουμένου.
Είναι ένα σενάριο όπου κερδίζει μόνο ένας.
Όταν προηγείσαι εδώ
έξι μήνες από τον ανταγωνισμό,
είναι σαν να είσαι 500.000 χρόνια μπροστά
κατά το ελάχιστο.

Chinese: 
服食一啲 LSD 精神藥
同埋著上怪異服飾
於是成個世界都會變成火人節嘅人咁
（笑聲）
頭先講到嘅嘢聽起上嚟好似好好咁
但係撫心自問
面對目前嘅經濟政治秩序
乜嘢會發生呢？
似乎我哋會目睹
我哋從未見過咁嚴重嘅
貧富懸殊同失業率
如果呢筆新財富唔即時用嚟服務全人類
就算一啲億萬富翁使好多錢
㨘靚商業雜誌嘅封面
世界上其他人都要挨餓
咁如果俄羅斯人或者中國人
聽到矽谷嘅一啲公司
打算使用一個超級人工智能
佢哋會點諗？
呢個機器有能力用未見過嘅力度
發動地面或者網絡戰爭
呢個係「勝者全取」嘅情況
喺呢場人工智能較量中有六個月嘅優勢
就係至少要做多人類五十萬年做到嘅嘢

Serbian: 
Dodajmo malo LSD-a i neke
diskutabilne garderobe,
i ceo svet bi mogao
biti poput festivala Burning Man.
(Smeh)
E, sad, to možda zvuči kao dobra ideja,
ali zapitajte se šta bi se desilo
pod našim trenutnim ekonomskim
i političkim poretkom?
Čini se verovatnim da bismo bili svedoci
određenog nivoa novčane nejednakosti
i nezaposlenosti
koji ranije nismo viđali.
Uz odsustvo volje da
se odmah ovo novo bogatstvo stavi
na raspolaganje čovečanstvu,
nekoliko bilionera bi poziralo
na omotima biznis magazina
dok bi ostatak sveta slobodno
mogao umreti od gladi.
I šta bi radili Rusi ili Kinezi
kada bi čuli da tamo neka firma
iz Silicijumske doline
treba da izbaci superinteligentnu VI?
Ova mašina bi bila sposobna da vodi rat,
bilo klasični, bilo sajber rat,
nadmoćna bez presedana.
Ovo je scenario pobednik nosi sve.
Biti šest meseci ispred konkurencije ovde
je isto biti 500 000 godina ispred,
u najmanju ruku.

French: 
Avec un peu de LSD 
et quelques fringues douteuses,
le monde entier serait 
comme le Burning Man.
(Rires)
Bon, tout ça peut sembler plutôt sympa,
mais demandez-vous ce qui arriverait
avec notre système politique 
et économique actuel ?
Nous serions les témoins
d'une inégalité des richesses
et d'un taux de chômage
encore jamais vus.
Sans la volonté de mettre 
ces nouvelles richesses
au service de toute l'humanité,
quelques milliardaires feraient 
les couvertures des revues commerciales
alors que le reste du monde 
mourrait de faim.
Et que feraient les Russes ou les Chinois
s'ils apprenaient 
qu'une société de la Silicon Valley
était sur le point de créer
une IA super intelligente ?
Cette machine serait capable 
de faire la guerre,
qu'elle soit physique ou numérique,
avec une puissance jamais vue.
Le vainqueur emporterait toute la mise.
Avoir six mois d'avance 
dans une telle compétition
revient à avoir 500 000 ans d'avance,
au minimum.

Hungarian: 
Jöhet egy kis LSD, 
pár extravagáns ruhadarab,
és az egész világ 
Burning Manné változhatna.
(Nevetés)
Ez tényleg jó mókának hangzik,
de tegyétek fel magatoknak a kérdést,
hogy mi történne a jelenlegi 
gazdasági és politika rendszerekkel.
Azt hiszem, szemtanúi lehetnénk
egy soha nem látott mértékű
jóléti aránytalanságnak 
és munkanélküliségnek.
Hacsak nem állítanánk 
ezt az újfajta jólétet
az emberiség szolgálatába,
akkor pár milliárdos villogna 
az üzleti magazinok címlapján,
miközben a világ többi 
része éhen pusztulna.
Vajon mit tennének 
az oroszok vagy a kínaiak,
ha megtudnák, hogy az egyik 
Szilícium-völgyben lévő cég
bevetni készül a szuperintelligens MI-t?
Ez a gép a hadviselésre is képes lenne,
akár földön, akár a kibertérben,
soha nem tapasztalt erőfölénnyel.
Ez a győztes-mindent-visz forgatókönyv.
Ezt a versenyt hat hónappal beelőzni,
minimum
500 000 év szükséges.

Persian: 
و همینطور یکسری داروهای روانگردان و 
انتخابهای سوال‌برانگیز توی کمد لباس،
و کل دنیا چیزی شبیه به جشنواره 
مرد سوزان می‌شود.
(خنده)
الان شاید خوشایند به گوش برسد
اما از خود سوال کنید چه اتفاقی برای
نظام سیاسی و اقتصادی کنونی ما خواهد افتاد؟
محتمل است که ما شاهد سطحی از نابرابری
ثروت و بیکاری باشیم
که بی‌سابقه است.
فقدان اراده در بکارگیری فوری این ثروت تازه
در خدمت کل بشریت.
اندک تریلیونرها قادر به عرض اندام
در روی جلد مجلات تجاری هستند
در حالیکه بقیه دنیا
از گرسنگی رنج خواهد بردد.
روسها یا چینی‌ها 
چه کار می‌کنند
اگر بشنوند که یک کمپانی 
در سیلیکون ولی
در آستانه بکارگیری هوش مصنوعی
اَبَرهوشمند است؟
ماشینی که قادر به ادامه جنگ است،
خواه زمینی یا سایبری،
با قدرتی بی‌سابقه.
این یک سناریویی‌ست که در آن
برنده همه چیز را بدست می‌آورد.
در این رقابت شش ماه پیش بودن
یعنی حداقل ۵۰۰٫۰۰۰ سال
جلوتر بودن.

Italian: 
Aggiungete un po' di LSD, dei vestiti
di dubbio gusto,
e il mondo sarebbe come il Burning Man.
(Risate)
Tutto questo non suona male,
ma pensate a come sarebbe se accadesse
in un ordine economico
e politico come il nostro.
Assisteremmo
ad una disparità delle ricchezze
e ad una disoccupazione
senza precedenti.
Non ci sarebbe la volontà 
di mettere questo nuovo benessere
al servizio di tutti,
Pochi miliardari adornerebbero
le copertine di riviste di business,
mentre il resto del mondo
morirebbe di fame.
Cosa farebbero, allora,
la Russia e la Cina
se sapessero che nella Silicon Valley
delle compagnie
fossero sul punto di rilasciare una IA
super intelligente?
Questa macchina
potrebbe scatenare una guerra,
terrestre o cibernetica,
disponendo di un potere senza pari.
Uno scenario di vittoria assoluta.
Essere in vantaggio sulla competizione
anche solo di sei mesi
è come essere avanti di 500 mila,
almeno.

Chinese: 
加上一點迷幻藥和可議的服裝選擇，
整個世界都可以像在過火人祭典。
（笑聲）
那聽起來也許很不錯，
但請問，在我們目前的經濟和政治
秩序下，會發生什麼事情？
我們很可能會見證
一種我們從未見過的
財富不均和失業程度。
缺乏一種意願來把這份新財富馬上
放在服務全人類，
少數幾個萬億富翁
能登上我們的財經雜誌，
而其他人可以自由地選擇挨餓。
而俄國和中國會怎麼做？
當他們聽說矽谷的某個公司
即將部署一個超級人工智能，
這個機器能夠發動戰爭，
無論是領土侵略或者網路電子戰，
以前所未見的威力。
這是個贏者全拿的劇本。
在這個競爭領先六個月
等於領先五十萬年，
最少。

iw: 
תוסיפו קצת אל.אס.די
ובחירת לבוש מפוקפקת,
וכל העולם יראה כמו אירוע של ברנינג מאן.
(צחוק)
עכשיו, זה אולי נשמע די טוב,
אבל תשאלו את עצמכם מה יקרה
תחת הסדר הכלכלי והפוליטי שלנו היום?
נראה סביר שאנחנו נחזה
ברמות של אי-שויון כלכלי ואבטלה
שלא נצפו קודם לכן מעולם.
ללא רצון להשקיע מיד את כל העושר הזה
לרווחת המין האנושי כולו,
מספר טריליונרים יוכלו לקשט
את השערים של כתבי העת העסקיים
בזמן ששאר העולם יהיה חופשי לרעוב.
ומה הרוסים והסינים יעשו
אם הם ישמעו שחברה כלשהי בעמק הסיליקון
עומדת להשיק בינה מלאכותית 
סופר-אינטליגנטית?
המכונה הזו תוכל לנהל מלחמה,
בין אם ארצית או במרחב הסייבר,
בעוצמה ללא תקדים.
זה תרחיש שבו המנצח לוקח הכל.
להקדים את התחרות הזו בשישה חודשים
משמעו להקדים את העולם ב-500,000 שנה לפחות.

Swedish: 
Lägg till lite LSD och några
underliga klädesplagg,
och hela världen kan bli som Burning Man.
(Skratt)
Ok, det kan låta ganska trevligt,
men ställ dig frågan vad som skulle ske
under våra nuvarande
ekonomiska och politiska system?
Det verkar troligt att vi skulle bevittna
enorma skillnader i välfärd
och tillgång till arbete
som vi aldrig tidigare upplevt.
Saknas en vilja att
låta detta nya välstånd
tjäna hela mänskligheten,
kommer några triljonärer att pryda
omslagen på våra affärstidningar
medan resten av världen kan få svälta.
Vad skulle ryssarna eller kineserna göra
om de hörde att ett
företag i Silicon Valley
höll på att sjösätta en
superintelligent AI?
Den maskinen skulle vara
kapabel att föra krig,
antingen på land eller i cyberrymden,
med aldrig tidigare skådad kraft.
Det är ett vinnaren-tar-allt scenario.
Att ligga sex månader före i den tävlingen
är att vara 500 000 år före,
minst.

Japanese: 
それにLSDと
奇抜な服を加えるなら
世界中がバーニングマンの
お祭りのようになるかもしれません
(笑)
それも結構かもしれませんが
現在の政治経済状況の元で
どんなことが起きるだろうか
考えてみてください
経済格差や失業が
かつてない規模で生じる
可能性が高いでしょう
この新しい富を即座に
全人類に進んで
提供する気がなければ
一握りの兆万長者が
ビジネス誌の表紙を飾る一方で
残りの人々は
飢えることになるでしょう
シリコンバレーの会社が
超知的AIを展開しようと
していると聞いたら
ロシアや中国は
どうするでしょう？
その機械は 地上戦であれ
サイバー戦であれ
かつてない力でもって
戦争を遂行する
能力があります
勝者がすべてを
手にするシナリオです
競争で半年
先んじることで
少なくとも50万年分
先を行くことが
できるのです

Turkish: 
Biraz LSD ve tartışmaya açık
giysi seçimlerini de ekleyin
ve bütün dünya Burning
Man (festival) gibi olabilir.
(Gülüşmeler)
Şimdi kulağa hoş gelebilir ama
kendinize şu anki ekonomik
ve siyasi düzenimizde
ne olabileceğini sorun.
Daha önce görmediğimiz düzeyde
eşitsiz bir zenginlik ve işsizliğe
tanık olurduk gibi görünüyor.
Bu yeni zenginliği derhal tüm 
insanlığın hizmetine
sunmadaki isteksizlikle,
dünyanın geri kalanı açlıktan
ölürken birkaç trilyoner
ekonomi dergilerimizin
kapaklarını süslüyor olabilir.
Peki ya Ruslar ya da Çinliler,
Silikon Vadisi'ndeki
bazı şirketlerin üstün zeki 
Yapay Zekâ'yı dağıtmak
üzere olduğunu duysa ne yaparlardı?
Karasal ya da siber, bu makine
tahmin edilemez bir güçle savaş
çıkarabilecek potansiyelde olurdu.
Bu kazananın her şeyi
aldığı bir senaryo.
Buradaki rekabetten 6 ay
ilerde olmak
minimum 500.000 yıl
ileride olmaktır.

Romanian: 
Adăugați niște LSD și niște haine ciudate
și toată lumea ar putea fi
ca la Burning Man.
(Râsete)
Asta sună destul de bine,
dar întrebați-vă ce s-ar întâmpla
în ordinea economică și politică actuală?
Pare probabil că vom fi martorii
unui nivel de inegalitate de avere
și șomaj nemaivăzut.
Fără voința de a pune această nouă avere
în serviciul umanității,
câțiva miliardari ar zâmbi
pe copertele revistelor de afaceri
în timp ce restul lumii ar muri de foame.
Și ce ar face rușii sau chinezii
dacă ar auzi
că o companie din Silicon Valley
ar fi pe cale să lanseze
o IA superinteligentă?
Această mașinărie ar fi capabilă
să ducă un război,
terestru sau cibernetic,
cu o putere nemaivăzută.
E un scenariu
în care câștigătorul ia tot.
Să fii cu șase luni înaintea competiției
înseamnă să fii cu 500.000 de ani înainte,
cel puțin.

Thai: 
เพิ่มการเสพสารแอลเอสดี 
และเสื้อผ้าที่ดูไม่ออกว่าเป็นแนวไหน
และโลกทั้งใบก็คงกลายเป็น
งานเทศกาล Burning Man
(เสียงหัวเราะ)
ครับ นั่นอาจจะฟังดูค่อนข้างจะดี
แต่ลองถามตัวเองดูว่าจะเกิดอะไรขึ้น
ภายใต้ระเบียบการเมืองและเศรษฐกิจ
ในปัจจุบันของเรานี้
ดูเหมือนว่าเราน่าจะได้เห็น
ความไม่เท่าเทียมของความมั่งคั่ง
และอัตราการว่างงานที่สูง
อย่างที่เราไม่เคยได้เห็นมาก่อน
การขาดความเต็มใจ
ที่จะรีบนำความมั่งคั่งที่เกิดขึ้นใหม่นี้
มารับใช้มนุษยชาติทั้งมวลในทันที
ทำให้เศรษฐีระดับพันล้านบางราย
อาจเฉิดฉายบนปกนิตยสารธุรกิจ
ในขณะที่ส่วนอื่น ๆ ของโลก
กำลังอดอยากปากแห้งกัน
แล้วคนรัสเซียหรือคนจีนจะทำอย่างไร
หากพวกเขารู้ว่าบางบริษัทในซิลิคอนแวลลีย์
กำลังจะนำปัญญาประดิษฐ์ที่ชาญฉลาดมาใช้
จักรกลที่ว่านี้อาจสามารถนำไปใช้
ในการศึกสงครามได้
ไม่ว่าจะเป็นทางภาคพื้นโลก 
หรือทางอินเทอร์เน็ต
ด้วยพละกำลังที่ไม่อาจประเมินได้
นี่คือสถานการณ์แบบผู้ชนะได้ทุกอย่าง
เพื่อที่จะนำหน้าไปหกเดือน
ในการแข่งขันนี้
คือการที่เราต้องนำหน้าอยู่ 500,000 ปี
เป็นอย่างน้อย

Croatian: 
Dodajte nešto LSD i nešto
upitnih odluka oko odjeće,
i cijeli bi svijet mogao
biti poput Burning Mana.
(Smijeh)
Sad, to može zvučati prilično dobro,
ali pitajte se što bi se dogodilo
pod našim trenutnim
ekonomskim i političkim poretkom?
Čini se vjerojatnim
kako bismo svjedočili
razini nejednakosti u bogatstvu
te nezaposlenosti
kakvu nismo vidjeli nikad prije.
Bez volje za trenutnim
stavljanjem tog novog bogatstva
u službu svog čovječanstva,
nekoliko bi trilijunaša moglo
resiti naslovnice naših poslovni časopisa
dok bi ostatak svijeta
bio slobodan gladovati.
A što bi Rusi
ili Kinezi učinili
ako bi čuli kako se
neka kompanija u Silicijskoj dolini
upravo sprema izbaciti
superinteligentnu AI?
Taj bi stroj bio
sposoban voditi rat,
bilo zemaljski ili cyber,
sa neviđenom moći.
Ovo je scenarij gdje pobjednik dobija sve.
Biti šest mjeseci ispred
konkurencije ovdje
je biti 500.000 godina ispred,
minimalno.

Georgian: 
დავამატოთ ცოტა LSD,
ცოტა უცნაური ტანსაცმელი
და მთელი მსოფლიო "Burning Man"-ის
ფესტივალს დაემსგავსება.
(სიცილი)
ეს შეიძლება მშვენივრად ჟღერდეს,
მაგრამ ჰკითხეთ საკუთარ თავებს,
რა მოხდება არსებულ ეკონომიკურ
და პოლიტიკურ წყობაში?
სავარაუდოა, რომ მივიღოთ
უთანასწორობის და უმუშევრობის ისეთი დონე,
როგორიც არასდროს გვინახავს.
ამ ახალი სიმდიდრის
მთელი კაცობირობის სასარგებლოდ
გაღების სურვილის არ ქონის პირობებში,
მილიარდელების მცირე ჯგუფი,
დაამშვენებს ბიზნესჟურნალების გარეკანებს,
მაშინ როცა დანარჩენები იშიმშილებენ.
რას იზამენ რუსები, ან ჩინელები,
თუ გაიგებენ, რომ სილიკონის ველზე
რომელიღაც კომპანია,
აპირებს ზეგონიერი
ხელოვნური ინტელექტი აამუშაოს?
ამ მანქანას არნახული ძალით შეეძლება
აწარმოოს ომი,
როგორც სახმელეთო, ისე კიბერომი.
ეს ის სცენარია,
რომელშიც გამარჯვებული იღებს ყველაფერს.
ამ შეჯიბრში 6 თვით წინ ყოფნა,
მინიმუმ 500 000 წლით წინ ყოფნას ნიშნავს.

Russian: 
Добавьте немного ЛСД
и немного смелых нарядов,
и мир будет похож
на фестиваль «Burning Man».
(Смех)
Возможно, звучит неплохо,
но спроси́те себя, что бы случилось
при нынешнем
экономико-политическом устройстве?
Кажется вероятным,
что мы станем свидетелями
такого уровня имущественного неравенства
и безработицы,
какого не наблюдали раньше.
В отсутствие желания
сразу поставить новые блага
на службу человечеству
несколько магнатов смогут
украшать обложки деловых журналов,
пока остальные будут голодать.
Что бы сделали русские или китайцы,
узнав, что некая компания
в Силиконовой долине
на грани внедрения сверхразумного ИИ?
Такое устройство могло бы
спровоцировать войну,
наземную или кибер-войну
беспрецедентного размаха.
Это сценарий, в котором
победитель получает всё.
Полугодовое преимущество
в такой конкуренции —
всё равно что преимущество в 500 000 лет
как минимум.

Catalan: 
Afegiu una mica de LSD
i un vestuari de gust qüestionable
i el món sencer podria
ser com el Burning Man.
(Riures)
Tot això pot sonar força atractiu,
però penseu que passaria
si succeís sota
l'ordre econòmic i polític actual?
És ben probable que experimentéssim
una desigualtat econòmica
i un nivell d'atur
que mai havíem experimentat.
I si no hi ha la voluntat
de posar tota aquesta riquesa
al servei de la humanitat,
uns quants bilionaris arribarien
a les portades de les revistes
mentre la resta
ens moriríem de gana.
I què farien els russos o els xinesos
si sapiguessin que
una empresa de Silicon Valley
estigués a punt d'aconseguir
una IA superintel·ligent?
Aquesta màquina estaria
preparada per entrar en guerra,
ja sigui per terra o cibernètica,
amb un poder sense precedents.
I aquí el guanyador s'ho emporta tot.
Aquí, trobar-se sis mesos
al capdavant de la competició
vol dir trobar-se
500.000 anys al davant
com a mínim.

Czech: 
Přidali bychom nějaké to LSD
a kontroverzní oblečení
a svět by mohl vypadat jako „Burning Man“.
(smích)
Asi to zní krásně.
Ale zeptejte se sami sebe, co by se stalo,
kdyby ekonomika a politika
fungovaly tak jako dnes.
Pravděpodobně bychom zažili
takovou sociální nerovnost
a nezaměstnanost
jako nikdy předtím.
Zavládla by neochota dát okamžitě
toto bohatství do služeb lidstvu.
Několik bilionářů by zdobilo
obálky obchodních časopisů,
zatímco zbytek světa
by mohl v klidu hladovět.
A co by udělali Rusové nebo Číňani,
kdyby se doslechli, že se v Silicon Valley
někdo chystá zapojit superinteligentní AI?
Takový stroj by byl schopný vést válku,
ať už pozemní nebo kybernetickou,
s nebývalou silou.
V této situaci by „vítěz bral vše“.
Šestiměsíční náskok před konkurencí
by znamenal náskok minimálně 500 000 let,

Arabic: 
أضف بعض الـLSD
مع اختيارات اللباس المشكوك بأمرها،
وبإمكان العالم كله أن يصبح
كفيلم Burning Man.
(ضحك)
حسناً، هذا قد يبدو جيداً جداً،
ولكن اسألوا أنفسكم ماذا قد يسبب هذا
لاقتصادنا الحالي ووضعنا السياسي؟
يبدو أننا سنشهد على الأرجح
مستوى من تفاوت الثروات والبطالة
الذي لم نشهده أبداً من قبل
غياب الرغبة لوضع هذه الثروة الجديدة فوراً
في خدمة جميع البشرية،
بعض أصحاب التريليونات سوف يُشرِّفون
أغلفة مجلات أعمالنا
بينما يكون باقي العالم متفرغاً لكي 
يتضور جوعاً.
وماذا سيفعل الروس أو الصينيون
إذا سمعوا أن شركةً ما في Silicon Valley
كانت على وشك نشر الذكاء الا 
فائق الذكاء؟
هذه الآلة ستكون قادرة على شن حرب،
سواء كانت على الأرض أو على الإنترنت،
بقوة غير مسبوقة.
هذا السيناريو هو الذي يربح كل شيء
أن تكون متقدماً بستة أشهر على
المنافسة في هذه الحالة
تعني أن تكون متقدماً بـ500,000 سنة،
بأقل حد.

Spanish: 
Tomar un poco de LSD
e inventar modas ridículas
y todo el mundo podríamos
parecernos a un festival de rock.
(Risas)
Puede parecer muy bueno,
pero hay que preguntarse
qué pasaría con nuestro orden
económico y político actual.
Podríamos presenciar
un nivel de desigualdad
de la riqueza y el desempleo
nunca antes visto
sin la voluntad de poner esta
nueva riqueza inmediatamente
al servicio de toda la humanidad,
y unos poco trillonarios estarían en
las portadas de las revistas de negocios
mientras que el resto del mundo
tendría la libertad de morirse de hambre.
Y ¿qué pasaría si los rusos
o los chinos se enteraran
de que alguna empresa en Silicon Valley
está a punto de crear
una IA superinteligente?
Esta máquina podría ser
capaz de hacer la guerra,
ya sea terrestre o cibernética,
con un poder sin precedentes.
En este escenario
el ganador se lleva todo.
Seis meses adelante en la competencia
sería una ventaja de 500 000 años,
como mínimo.

Vietnamese: 
Thêm vài LSD và vài lựa chọn cho
bộ quần áo đáng ngờ,
và cả thế giới sẽ như ở Burning Man.
(Cười)
Bây giờ, điều đó có lẽ nghe rất tốt,
nhưng thử hỏi bản thân xem
điều gì sẽ xảy ra
dưới trật tự kinh tế và chính trị
của chúng ta bây giờ?
Có vẻ là chúng ta sẽ chứng kiến
một mức độ phân biệt giàu nghèo
và nạn thất nghiệp
chưa từng thấy trước đây.
Sự thiếu tự nguyện trong việc lập tức
đưa sự giàu có mới này
vào phục vụ cho toàn nhân loại,
một vài "tỷ tỷ phú" đươc vinh danh 
trên trang bìa của các tờ tạp chí kinh tế
trong khi phần còn lại của thế giới
thì chịu cảnh chết đói
Người Nga và Trung Quốc sẽ làm gì
khi họ nghe được tin một số công ty
trong Thung lũng Silicon
chuẩn bị triển khai
một AI siêu thông minh?
Cỗ máy này có khả năng sẽ
tiến hành chiến tranh
dù cho trên mặt đất hay trên mạng,
với sức mạnh chưa từng có.
Đây là viễn cảnh "thắng làm vua".
Dẫn trước sáu tháng trong cuộc đua này
tương đương với
bị dẫn trước 500.000 năm,
ít nhất là vậy.

Portuguese: 
Adicione LSD e escolhas
de roupas questionáveis,
e o mundo inteiro seria
como o Festival Burning Man.
(Risadas)
Pode até parecer muito bom,
mas se pergunte: o que aconteceria
sob a atual economia e ordem política?
Possivelmente, iríamos presenciar
um nível de desigualdade
de riqueza e desemprego
nunca visto antes.
Sem a vontade de colocar
imediatamente essa riqueza
a serviço da humanidade,
alguns poucos trilionários apareceriam
nas capas das revistas de negócios,
enquanto o resto do mundo passaria fome.
E o que os russos e os chineses fariam
se soubessem que uma empresa
no Vale do Silício
estivesse pronta para implantar
uma IA superinteligente?
Essa máquina seria capaz
de travar uma guerra,
terrestre ou cibernética,
com poder sem precedente.
É um cenário onde o vencedor leva tudo.
Estar seis meses à frente da competição
é como estar 500 mil anos adiantado,
no mínimo.

Ukrainian: 
Додайте трохи ЛСД та трохи
сумнівного гардеробу,
і весь світ буде
як фестиваль Burning Man.
(Сміх)
Непогано звучить,
але запитайте себе, що станеться
з нашим теперішнім економічним
та політичним ладом?
Ймовірно, ми станемо свідками
такої нерівності розподілу багатства
та безробіття,
яких ми ніколи не бачили.
Не бажаючи одразу
використовувати це нове багатство
на користь всього людства,
декілька мільярдерів прикрасять 
обкладинки наших бізнес-журналів,
тоді як решта світу
голодуватиме.
А що робитимуть росіяни та китайці,
якщо вони почують, що якась компанія
у Кремнієвій долині
збирається ввести в дію 
надрозумний штучний інтелект?
Ця машина зможе вести війну,
наземну або кібер,
з безпрецедентною могутністю.
Це сценарій, де переможець отримує все.
Бути на шість місяців попереду
у цьому змаганні,
це бути на 500 000 років попереду,
як мінімум.

English: 
Add some LSD and some
questionable wardrobe choices,
and the whole world
could be like Burning Man.
(Laughter)
Now, that might sound pretty good,
but ask yourself what would happen
under our current economic
and political order?
It seems likely that we would witness
a level of wealth inequality
and unemployment
that we have never seen before.
Absent a willingness
to immediately put this new wealth
to the service of all humanity,
a few trillionaires could grace
the covers of our business magazines
while the rest of the world
would be free to starve.
And what would the Russians
or the Chinese do
if they heard that some company
in Silicon Valley
was about to deploy a superintelligent AI?
This machine would be capable
of waging war,
whether terrestrial or cyber,
with unprecedented power.
This is a winner-take-all scenario.
To be six months ahead
of the competition here
is to be 500,000 years ahead,
at a minimum.

Romanian: 
Se pare că doar zvonurile
despre acest fel de descoperire
ar putea să înnebunească specia noastră.
Unul din cele mai înfricoșătoare lucruri
în acest moment, după părerea mea,
sunt lucrurile
pe care le spun cercetătorii IA
când vor să ne liniștească.
Cel mai comun motiv
să nu ne îngrijorăm e timpul.
Se va întâmpla peste mult timp.
Probabil peste 50 sau 100 de ani.
Un cercetător a spus:
„Să vă îngrijorați din cauza IA
e ca și cum v-ați îngrijora
de suprapopulare pe Marte.”
Asta e versiunea de Silicon Valley
de „nu-ți bate căpșorul cu asta”.
(Râsete)
Nimeni nu pare să observe
că referința la acea perioadă de timp
nu e logică.
Dacă inteligența e doar o problemă
de procesare a informației
și noi continuăm
să îmbunătățim mașinăriile,
vom produce o formă de superinteligență.

Ukrainian: 
Тож здається, що навіть незначні чутки
про такі досягнення
можуть спричинити 
люту ненависть між людьми.
Але одна з найжахливіших речей,
на мою думку, на цей час -
це те, що кажуть розробники
штучного інтелекту,
коли хочуть заспокоїти нас.
Найпоширенішою підставою
не турбуватися, кажуть вони, є час.
Це ще так далеко, 
хіба ви не знаєте.
Це ще може тривати 50 або 100 років.
Один із дослідників сказав:
"Хвилюватися через безпеку 
штучного інтелекту -
те ж саме, що перейматися
перенаселенням на Марсі".
Це така версія Кремнієвої долини
фрази: "Не забивай цим
свою гарненьку голівку".
(Сміх)
Здається, ніхто не помічає,
що посилатися на часову віддаленість -
хибно.
Якщо інтелект - це питання
обробки інформації,
і ми далі удосконалюватимемо наші машини,
то ми створимо
якусь форму супер-інтелекту.
І ми не уявляємо,
скільки часу нам потрібно,

Turkish: 
Demek ki bu tür bir atılımın
sadece söylentisi bile
türümüzün çıldırmasına yol açabiliyor.
Şimdi en korkutucu şeylerden bir tanesi
bana göre, şu anda,
Yapay Zekâ araştırmacılarının
güven verici olmak istediklerinde
söyledikleri şeyler.
Ve en sık bize endişe etmememiz
için söylenen neden ise zaman.
Çok çok uzakta, haberin yok mu?
Muhtemelen 50 ya da 100 yıl kadar uzakta.
Bir araştırmacı dedi ki;
"Yapay Zekâ güvenliği için endişelenmek
Mars'ta aşırı nüfus artışına
endişelenmek gibi."
Bu Silikon Vadisi'nin
"Sıkmayın tatlı canınızı" versiyonu.
(Gülüşmeler)
Zamana referanslamanın
tamamen yersiz bir deyim
olduğunu kimse fark etmiyor.
Zekâ eğer bilgi işlemeden ibaretse
ve biz makinelerimizi geliştirmeye
devam edersek
bir tür süper zekâ üreteceğiz.
Ve güvenli bir biçimde yapmak için
gerekli şartları yaratmanın

Georgian: 
ამიტომ, ასეთი გარღვევის შესახებ
ჭირებმაც კი,
შეიძლება გადარიოს ჩვენი სახეობა.
ერთ-ერთი ყველაზე საშიში რამ,
ამჟამად, ჩემი აზრით
არის ის რასაც ხელოვნური ინტელექტის
მკვლევარები ამბობენ,
როცა უნდათ, რომ იმედი მოგვცენ.
ყველაზე ხშირად ნათქვამი მიზეზი იმისა,
რომ არ ვიღელვოთ, არის დრო.
ხომ იცით, იქამდე ჯერ კიდევ შორია.
სავარაუდოდ სადღაც 50 -100 წელია იქამდე.
ერთმა მკვლევარმა თქვა:
"ხელოვნურ ინტელექტზე ნერვიულობა,
იგივეა რაც ინერვიულოთ
მარსის გადამეტდასახლებულობაზე"
ეს, "ამაზე ფიქრით ტვინს ნუ დაიღლით "-ის
სილიკონის ველისეული ვერსიაა
(სიცილი)
თითქოს ვერავინ ამჩნევს,
რომ დროითი ფაქტორის მოყვანა
სრულიად უადგილოა.
თუ ინტელექტი მხოლოდ
ინფორმაციის დამუშავების ამბავია
და ჩვენ განვაგრძობთ
მანქანების გაუმჯობესებას,
მაშინ მივიღებთ რაღაც ტიპის
სუპერინტელექტს
და ჩვენ წარმოდგენა არ გვაქვს,
რა დრო დაგვჭირდება იმისთვის,

Catalan: 
Només que hi hagi un rumor
sobre algun descobriment d'aquest tipus
pot fer que la nostra espècie embogeixi.
Ara bé, una de les coses més paoroses,
segons el meu punt de vista, ara per ara,
són el tipus de coses
que els investigadors en IA diuen
quan volen tranquil·litzar-nos.
I la principal raó que ens donen
per no preocupar-no és el temps.
"Això encara està lluny,
no ho sabíeu?"
"Probablement encara queden
uns 50 o 100 anys."
Un investigador va dir:
"Preocuparse per una IA insegura
és com preocupar-se per la
sobre-població a Mart."
Això és la versió
de Silicon Valley
de "no et preocupis, nena!"
(Riures)
Ningú sembla adonar-se'n
que basar-se en un horitzó cronològic
és un 'non sequitur' absolut.
Si la intel·ligència consisteix
simplement en processar informació,
i seguim perfeccionant les màquines,
acabarem per generar alguna
forma de superintel·ligència.
I no tenim ni idea de quant
de temps ens portarà

Chinese: 
所以即使僅僅是這種突破的謠言
都能使我們這個種族走向狂暴。
現在，最讓人驚恐的事情，
在我的看法，在這個時刻，
是人工智慧研究者在試著表現得
讓人安心時說的那類話。
而最常用來告訴我們
現在不要擔心的理由是時間。
這還有很長的路要走，你不知道嗎，
起碼還要 50 到 100 年。
一個研究人員曾說，
「憂心人工智慧安全
如同憂心火星人口爆炸。」
這是矽谷版本的
「別杞人憂天。」
（笑聲）
似乎沒人注意到
以時間當參考
是一個不合理的推論。
如果智能只是關於資訊的處理，
而我們持續改善我們的機器，
我們會製作出某種形式的超級智能。
而且我們不知道要花我們多長的時間

Italian: 
Perciò anche solo la voce
di una svolta simile
potrebbe far impazzire la nostra specie.
Tra gli aspetti più inquietanti,
a mio parere, che ci sono al momento,
sono le risposte che danno
i ricercatori di IA
quando vogliono rassicurarci.
Una delle rassicurazioni più comuni
è che abbiamo tempo.
Siamo ancora molto lontani, sapete.
Ci vorranno ancora 50 o 100 anni.
Un ricercatore ha detto:
"Preoccuparsi della sicurezza dell'IA
è come preoccuparsi
della sovrappopolazione su Marte."
La versione della Silicon Valley di:
"non turbare la tua bella testolina
con questi problemi".
(Risate)
Nessuno sembra notare
che far riferimento
all'orizzonte temporale
è del tutto illogico.
Se l'intelligenza è questione
di processare le informazioni
e continueremo a migliorare
le nostre macchine,
arriveremo a produrre una forma
di intelligenza superiore.
E non abbiamo idea di quanto ci voglia

Chinese: 
甚至只係關於人工智能突破嘅謠言
就可以令到人類亂起上嚟
依家最驚人嘅一件事，我覺得
就係人工智能研究人員
安定人心時講嘅說話
佢哋成日話，因為我哋有時間
所以我哋唔需要擔心
「乜你唔知有排咩？
仲有五十年或者一百年先到。」
一位研究人員曾經咁講︰
「擔心人工智能嘅安全就好似
擔心火星人口爆棚一樣。」
呢句嘢等如矽谷同你講︰
「你十八廿二就杞人憂天！」
（笑聲）
冇人意識到
攞時間嚟到講完全係無稽之談
如果智能凈係同處理訊息有關
同埋我哋繼續改良我哋嘅機器嘅話
我哋最終會生產到超級智能
但我哋唔知道要用幾長時間

French: 
Il est donc possible 
que la moindre rumeur de ce type de percée
pourrait tous nous rendre
totalement dingues.
L'une des choses les plus effrayantes,
de mon point de vue,
sont les choses 
que les chercheurs en IA disent
quand ils veulent nous rassurer.
On nous dit généralement 
que nous avons encore le temps.
C'est pour plus tard, 
vous pensez bien.
C'est probablement 
pour dans 50 ou 100 ans.
Un chercheur a dit :
« S'inquiéter de l'IA,
c'est comme s'inquiéter
de la surpopulation sur Mars. »
La Silicon Valley sait parfois
se montrer condescendante.
(Rires)
Personne ne semble se rendre compte
que dire qu'on a le temps
est totalement fallacieux 
dans ce contexte.
Si l'intelligence n'est 
que le traitement de l'information
et si l'on continue 
d'améliorer nos machines,
alors nous produirons 
une forme de super intelligence.
Et nous n'avons pas la moindre idée
du temps qu'il nous faudra

Portuguese: 
Parece que mesmo os meros
rumores desse tipo de avanço
poderiam causar fúria em nossa espécie.
Uma das coisas mais assustadoras,
na minha opinião, nesse momento,
são os tipos de coisas
que os pesquisadores de IA dizem
quando querem nos tranquilizar.
E eles nos dizem para não
nos preocuparmos com o tempo.
Esse é um caminho longo,
se você não sabe.
Provavelmente está
a 50, 100 anos de distância.
Um pesquisador disse:
"Se preocupar com a segurança de IA
é como se preocupar
com a superpopulação em Marte."
Essa é a versão do Vale do Silício
para que você "não esquente
sua cabecinha linda."
(Risadas)
Ninguém parece perceber
que fazer referência ao tempo
é um argumento inválido.
Se inteligência é questão
de processamento de informação,
e se continuarmos a aperfeiçoar
nossas máquinas,
produziremos alguma forma
de superinteligência.
E não temos ideia de quanto
tempo vai demorar

Serbian: 
Tako se čini da bi čak i samo glasina
o proboju ovog tipa
izazvala ludnicu među ljudima.
I, sad, jedna od najstarašnijih stvari,
prema mom mišljenju, trenutno,
su one stvari koje istraživači VI kažu
kada žele da vas ohrabre.
I najuobičajeniji razlog zbog koga
nam kažu da ne brinemo jeste vreme.
Sve je to daleko, znate.
To je verovatno 50 ili 100 godina daleko.
Jedan istraživač je rekao:
"Briga o bezbednosti VI
je kao briga o prenaseljenosti Marsa."
Ovo je kao kada vam
iz Silicijumske doline kažu:
"Nemojte vi zamarati vaše glavice time."
(Smeh)
Izgleda da niko ne primećuje
da je odnos prema vremenu
potpuni non sequitur.
Ako je inteligencija samo stvar
procesuiranja informacija,
i mi nastavimo da poboljšavamo mašine,
proizvešćemo neki
oblik superinteligencije.
I nemamo pojma
koliko će nam trebati vremena

Russian: 
Поэтому представляется,
что даже слухи о такого рода прорыве
могут привести человечество в неистовство.
Одна из самых пугающих вещей,
как мне кажется, на данный момент —
это те слова, которые твердят
все исследователи ИИ,
когда хотят звучать обнадёживающе.
И чаще всего нас просят
не беспокоиться по причине времени.
До этого ещё далеко, если вы не знали.
До этого, вероятно, ещё лет 50 или 100.
Один исследователь сказал:
«Волноваться о безопасности ИИ —
всё равно что волноваться
о перенаселении Марса».
В Силиконовой долине это означает:
«не морочь этим свою милую головку».
(Смех)
Кажется, что никто не замечает,
что ссылаться на отдалённость во времени —
нарушение всякой логики.
Если интеллект — лишь результат
обработки информации
и мы продолжим совершенствовать технику,
мы создадим некую форму сверхинтеллекта.
И мы не имеем понятия,
сколько времени займёт

Persian: 
پس به نظر می‌رسد که حتی شایعات بیشتر از 
این پیشرفتها
می‌تواند منجر به از خود بیخود شدن 
نوع بشر شود.
الان یکی از وحشتناکترین چیزها از دیدگاه من
در این لحظه همه آن چیزهایی هست
که محققان هوش مصنوعی
به ما می‌گویند، وقتی که 
می‌خواهند اطمینان بخش باشند.
و شایع‌ترین دلیلی که برای
نگران نبودن به ما می‌گویند زمان است.
کلی زمان‌بر است،‌ مگر خبر ندارید.
شاید ۵۰ یا ۱۰۰ سال بعد.
یک محققی می‌گفت،
«نگران بودن درباره امنیت هوش مصنوعی
مثل نگران بودن درباره
رشد بیحد جمعیت در مریخ است.»
در واقع آنها می‌گویند:
« فکرهای کوچک تان را در این مورد نگران نکنید.»
(خنده)
به نظر نمیاید کسی متوجه باشد
که ارجاع دادن به افق زمانی
کلا نامربوط است.
اگر هوش صرفا مساله پردازش اطلاعات باشد
و ما به اصلاح ماشینهای خود ادامه دهیم،
شکلی از هوش ماورایی را تولید خواهیم کرد.
و ایده‌ای نداریم که چقدر زمان می‌برد

Slovak: 
Zdá sa, že číre fámy o prelome
v tejto oblasti
by nás mohli priviesť k nepríčetnosti.
Jedna z najdesivejších vecí
v tejto chvíli z môjho pohľadu
je to, čo hovoria vedci, ktorí vyvíjajú
umelú inteligenciu,
keď nás chcú upokojiť.
Najčastejším dôvodom, prečo sa vraj nemáme
obávať, je čas.
Toto všetko je ešte ďaleko, všakže.
Ešte to potrvá pravdepodobne
50 alebo 100 rokov.
Jeden výskumník povedal:
"Obávať sa bezpečnosti AI
je ako báť sa preľudnenia Marsu."
Toto je je verzia Silicon Valley:
"Nechaj to koňovi, ten má väčšiu hlavu."
(smiech)
Zdá sa, že nikto nezaznamenal,
že odvolávať sa na časový horizont
je totálne nelogické.
Ak je inteligencia len spôsob 
spracovania informácií
a my budeme pokračovať v zlepšovaní
našich strojov,
tak vytvoríme nejakú formu
super inteligencie.
A nemáme poňatia,
ako dlho nám bude trvať,

Japanese: 
そのような技術革新の
噂だけでも
世界中が大騒ぎに
なるでしょう
今の時点で私が
いちばんゾッとするのは
AI研究者が
安心させようとして
言うたぐいのことです
心配すべきでない理由として
よく言われるのは 時間です
そんなのは ずっと先の話で
50年とか100年も先の話だと
ある研究者は
「AIの安全性を懸念するのは
火星の人口過剰を心配するようなものだ」と
言っています
これは「あなたの小さな頭を
そんなことで悩ませないで」というやつの
シリコンバレー版です
(笑)
誰も気付いていない
ように見えるのは
時間的スケールは
この際 無関係だと
いうことです
知性の実体が
情報処理にすぎず
人類が 機械の改良を
続けていくなら
いずれ何らかの形の
超知性を生み出すことになるでしょう
それを安全に行える
条件を作り出すのに

Swedish: 
Det ser ut som att blott rykten
kring denna typ av genombrott
kan leda till att vår art går bärsärk.
En av de mest skrämmande sakerna,
enligt min mening, i dag,
är det som forskare inom AI säger
när de vill lugna oss.
Det vanligaste argumentet för att
vi inte ska oroa oss handlar om tid.
Det här ligger långt fram, vet du väl.
Det här är säkert 50 eller 100 år bort.
En forskare har sagt,
"Att oroa sig för AI-säkerhet är
som att oroa sig för
ett överbefolkat Mars."
Det är Silicon Valley-versionen av
"oroa inte ditt söta lilla huvud."
(Skratt)
Ingen verkar uppmärksamma att,
att referera till tidsaspekten
är ett "Goddag yxskaft"-svar.
Om intelligens bara handlar
om att processa information,
och vi fortsätter att
utveckla våra maskiner,
kommer vi till slut skapa
någon form av superintelligens.
Vi har ingen aning om
hur lång tid det kommer att ta

Korean: 
그래서 이런 혁신적인 일이
우리 인류를 미쳐 날뛰게 만들 
거라는 소문이 더욱 떠도는 거죠.
이제 가장 두려운 것은
지금 현재, 제 생각에는
AI연구자가 이런 말을 하는 겁니다.
안심시키려고 말이죠.
걱정하지 않아도 되는 
이유는 시기 때문이라고 하죠.
이것은 완전히 빗나간 말입니다.
아마도 50에서 100년 뒤겠죠.
한 연구원이 말했습니다.
"AI의 안전성에 대한 우려는
마치 화성의 과잉 인구를 
걱정하는 것과 같다."
실리콘 밸리 식으로
표현하면 이런 뜻이죠.
"그 쬐그만 머리로 걱정하지 마세요."
(웃음)
아무도 모르는 것 같습니다.
시간의 축을 말하는 게
완전히 잘못된 결론인 것을
지능이 그저 정보처리하는 문제라면
우리는 기계를 계속 향상시킬 것이고
초지능의 형태를 만들게 될 겁니다.

Arabic: 
وبالتالي يبدو أنه حتى الإشاعات المحضة 
بما يخص النوع من الاكتشافات
يمكن أن تجعل فصائلنا تهتاج.
والآن، أكثر الأشياء إخافة،
من وجهة نظري، في هذه اللحظة،
هي النوع من الأشياء التي يقولها باحثو
الذكاء الاصطناعي عندما
يريدون أن يكونوا مُطمئِنين.
والسبب الأكثر شيوعاً الذي يُقال لنا
ألا نقلق بسببه هو الوقت
هذا كله سيمر، ألا تعلم.
هذا من المحتمل بعد 50 أو 100 سنة.
قال أحد الباحثين،
"القلق بشأن سلامة
الذكاء الاصطناعي
هو كالقلق بشأن زيادة
التعداد السكاني على المريخ"
هذه نسخة Silicon Valley
من "لا تُقلق رأسك الجميل الصغير بهذا".
(ضحك)
لا يبدو أن أحداً يلاحظ
أن الإشارة للحد الزمني
ليس له عواقب بتاتاً.
إذا كان الذكاء هو مجرد مسألة معالجة
معلومات،
ونحن نستمر بتحسين آلياتنا،
فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق.
وليس لدينا فكرة كم سيستغرق هذا مننا

English: 
So it seems that even mere rumors
of this kind of breakthrough
could cause our species to go berserk.
Now, one of the most frightening things,
in my view, at this moment,
are the kinds of things
that AI researchers say
when they want to be reassuring.
And the most common reason
we're told not to worry is time.
This is all a long way off,
don't you know.
This is probably 50 or 100 years away.
One researcher has said,
"Worrying about AI safety
is like worrying
about overpopulation on Mars."
This is the Silicon Valley version
of "don't worry your
pretty little head about it."
(Laughter)
No one seems to notice
that referencing the time horizon
is a total non sequitur.
If intelligence is just a matter
of information processing,
and we continue to improve our machines,
we will produce
some form of superintelligence.
And we have no idea
how long it will take us

Modern Greek (1453-): 
Άρα φαίνεται ότι ακόμη και απλές φήμες
για κάτι τόσο επαναστατικό
θα έκανε το είδος μας να τρελαθεί.
Ένα από τα πιο τρομακτικά πράγματα,
κατά την άποψή μου, αυτή τη στιγμή,
είναι αυτά που λένε οι ερευνητές
της τεχνητής νοημοσύνης
όταν θέλουν να μας καθησυχάσουν.
Κι ο πιο κοινός λόγος που προβάλλουν
για να μην ανησυχούμε είναι ο χρόνος.
Αυτό είναι πολύ μακριά, δεν το βλέπετε;
Είναι περίπου 50 ή 100 χρόνια μετά.
Ένας ερευνητής έχει πει,
«Ανησυχώντας για ασφάλεια
στην τεχνητή νοημοσύνη
είναι σαν να ανησυχούμε
για υπερπληθυσμό στον Άρη».
Αυτό είναι η έκδοση της Σίλικον Βάλεϊ
του «μην ζαλίζεις το όμορφο κεφαλάκι σου».
(Γέλια)
Κανείς δεν φαίνεται να βλέπει
ότι η αναφορά στον χρονικό ορίζοντα
είναι τελείως ανακόλουθη.
Αν η ευφυΐα είναι απλώς θέμα
επεξεργασίας της πληροφορίας,
και συνεχίζουμε
να βελτιώνουμε τις μηχανές μας,
σίγουρα θα δημιουργήσουμε
κάποια μορφή υπερευφυΐας.
Και δεν ξέρουμε πόσο χρόνο θα μας πάρει

Chinese: 
所以仅仅是关于这种科技突破的传闻，
就可以让我们的种族丧失理智。
在我的观念里，
当前最可怕的东西
正是人工智能的研究人员
安慰我们的那些话。
最常见的理由就是关于时间。
他们会说，现在开始担心还为时尚早。
这很可能是50年或者
100年之后才需要担心的事。
一个研究人员曾说过，
“担心人工智能的安全性
就好比担心火星上人口过多一样。”
这就是硅谷版本的
“不要杞人忧天。”
（笑声）
似乎没有人注意到
以时间作为参考系
是得不出合理的结论的。
如果说智慧只包括信息处理，
然后我们继续改善这些机器，
那么我们终将生产出超级智能。
但是，我们无法预估将花费多长时间

Vietnamese: 
Vì vậy, thậm chí nó có vẻ chỉ là
những tin đồn cho kiểu đột phá như thế
nhưng cũng đủ khiến loài người cáu tiết.
Và giờ, một trong những điều đáng sợ nhất,
theo tôi nghĩ ngay tại thời điểm này,
chính là những thứ mà
các nhà nghiên cứu về AI nói
khi họ muốn được yên tâm.
Và thời gian là lí do thường nhất cho việc
chúng ta không cần phải lo lắng.
Các bạn biết không,
đây là một con đường dài.
Có thể là 50 hay 100 năm nữa.
Một nhà nghiên cứu đã nói,
"lo lắng về độ an toàn của AI
cũng như lo lắng về
bùng nổ dân số trên sao Hỏa."
Đây là phiên bản của Thung lũng Silicon
về việc "đừng làm cái đầu nhỏ
của bạn lo lắng về nó."
(Cười)
Có vẻ chả ai chú ý
rằng xem xét trên phạm vi thời gian
là hoàn toàn vô căn cứ.
Nếu trí thông minh chỉ là một vấn đề
về xử lí thông tin,
và chúng ta tiếp tục cải tiến các cỗ máy,
chúng ta sẽ tạo ra được
vài dạng của siêu trí tuệ.
Và chúng ta không biết
sẽ tốn bao nhiêu thời gian

Portuguese: 
Parece que os meros rumores
deste tipo de inovação
poderiam descontrolar a nossa espécie.
Uma das coisas mais assustadoras,
na minha perspetiva, neste momento,
são o tipo de coisas
que os investigadores da IA dizem
quando querem tranquilizar-nos.
O motivo mais comum que invocam
para não nos preocuparmos é o tempo.
"Não sabem que isto ainda vem longe?
"Só daqui a 50 ou 100 anos".
Um investigador disse:
"Preocupar-se com a segurança da IA
"é como preocupar-se com
o excesso de população em Marte."
Esta é a versão de Silicon Valley
de "não preocupem a vossa 
cabeça com isto."
(Risos)
Ninguém parece notar
que mencionar o horizonte do tempo
é um total "não se segue".
Se a inteligência é apenas uma questão
de processamento de informação,
e continuarmos a melhorar
as nossas máquinas,
iremos produzir
alguma forma de superinteligência.
Não fazemos ideia
quanto tempo iremos demorar

Croatian: 
Pa se čini kako bi čak i puke glasine
o ovakvoj vrsti probitka
mogle prouzročiti našu vrstu da poludi.
Sad, jedna od najviše
zastrašujućih stvari,
kako ja to vidim, u ovom trenutku,
su stvari koje istraživači AI govore
kada žele biti ohrabrujući.
A najčešći razlog za bezbrižnost
koji navode je vrijeme.
To je sve daleko,
ne znaš li?
To je vjerojatno 50 ili 100 godina od nas.
Jedan je istraživač rekao:
"Brinuti se oko sigurnosti AI
je poput brige
o prekomjernoj populaciji na Marsu."
To je verzija iz Silicijske doline
one: "nemoj brinuti
svoju lijepu malu glavu sa time."
(Smijeh)
Izgleda kako nitko ne primjećuje
kako je oslanjanje na vremenski horizont
potpuni non sequitur.
Ako je inteligencija samo pitanje
procesiranja informacija,
te ako nastavimo
unapređivati naše strojeve,
stvorit ćemo
neki oblik superinteligencije.
A nemamo pojma
koliko će nam dugo trebati

Hungarian: 
Ezért már az ilyen áttörésről 
szóló leghalványabb pletyka is
fajunk totális megvadulásába torkollhat.
A legijesztőbb dolog azonban
- az én meglátásom szerint -
jelen pillanatban az,
amit az MI-kutatók mondogatnak,
amikor meg akarnak nyugtatni minket.
Az aggodalmakra adott 
leggyakoribb válaszuk az idő.
Annyira messze van még,
hát nem tudjátok.
50 vagy 100 év is eltelik addig.
Az egyik kutató szerint:
"A MI biztonsága miatt aggódni olyan,
mintha a túlnépesedés
miatt aggódnánk a Marson."
Ez a szilícium-völgyi változata annak,
hogy "ne törd ezen a szép kis buksidat".
(Nevetés)
Senkinek nem tűnik fel,
hogy az időhorizontra való hivatkozás,
totál nem passzol a képbe.
Ha az intelligencia csupán 
az információ feldolgozásából áll,
és mi folytatjuk a gépek fejlesztését,
akkor létre fogunk hozni 
valamiféle szuperintelligenciát.
És fogalmunk sincs mennyi 
időbe telik majd megteremteni

iw: 
אז נראה שאפילו שמועות על פריצת דרך שכזו
יכולות לגרום למין שלנו להשתגע.
עכשיו, אחד הדברים המפחידים ביותר,
לראות עיני, ברגע הזה,
אלה הדברים שחוקרי בינה מלאכותית אומרים
כשהם רוצים להרגיע אותנו.
והסיבה הנפוצה ביותר שאומרים
לנו שאין סיבה לדאגה היא זמן.
זה עוד רחוק מאוד, אתם יודעים.
זה כנראה רחוק מאיתנו ב-50 או 100 שנים.
חוקר אחד אמר,
"לדאוג מהבטיחות של בינה מלאכותית
"זה כמו לדאוג מצפיפות אוכלוסין על המאדים."
זו הגרסה של עמק הסיליקון
ל"אל תטרידו את עצמכם בזה."
(צחוק)
נראה שאף אחד לא שם לב
שההתייחסות לאופק הזמן
מהווה נון סקוויטר מוחלט.
אם אינטליגנציה היא רק ענין של עיבוד מידע,
ואנחנו ממשיכים לשפר את המכונות שלנו,
אנחנו נייצר סוג כלשהו של סופר-אינטליגנציה.
ואין לנו מושג כמה זמן ייקח לנו

Czech: 
Zdá se, že i pouhé fámy
o průlomu v této oblasti
by mohly náš druh dovést k nepříčetnosti.
Myslím si, že jednou z nejděsivějších věcí
je momentálně to,
co vědci zabývající se
vývojem umělé inteligence říkají,
když nás chtějí uklidnit.
Nejčastěji uváděným důvodem,
proč se prý nemáme obávat, je čas.
Všechno je to ještě daleko, nemyslíte?
Přijde to až tak za 50 nebo 100 let.
Jeden vědec řekl:
„Bát se o bezpečnost umělé inteligence
je stejné, jako bát se přelidnění Marsu.“
Pro Silicon Valley je to jen jiná verze:
„Nech to koňovi, ten má větší hlavu.“
(smích)
Nikdo si nejspíš nevšímá toho,
že odvolávat se na časový horizont
je naprosto nelogické.
Pokud inteligence spočívá
pouze ve zpracování informací
a pokud budeme dál zlepšovat své stroje,
tak nějakou formu
superinteligence vytvoříme.
Ale nemáme ani ponětí,
jak dlouho nám bude trvat,

Thai: 
ฉะนั้น จึงเหมือนกับว่า แม้เพียงข่าวลือ
ในเรื่องการค้นพบที่ยิ่งใหญ่แบบนี้
ก็อาจเป็นเหตุให้ชาติพันธุ์ของเรา
บ้าระห่ำกันขึ้นมาได้
ครับ สิ่งหนึ่งที่น่าหวาดกลัวที่สุด
ในความเห็นของผม ในขณะนี้
คือ สิ่งที่พวกนักวิจัยปัญญาประดิษฐ์พูดกัน
เมื่อพวกเขาต้องการจะปลอบใจเรา
และเหตุผลที่ธรรมดาที่สุดที่เขาบอกพวกเรา
ให้ไม่ต้องกังวลก็คือเรื่องเวลา
เรื่องนี้มันอีกนานนัก ไม่รู้หรอกหรือ
มันน่าจะเป็นอีก 50 หรือ 100 ปี ข้างหน้า
นักวิจัยคนหนึ่งเคยพูดว่า
"กังวลเรื่องความปลอดภัยของปัญญาประดิษฐ์
ก็จะเหมือนกับกังวล
เรื่องประชากรจะล้นดาวอังคาร"
นี่เป็นเรื่องราวในรูปแบบของซิลิคอนแวลลีย์
ในการบอกว่า "ไม่ต้องเอาสมองน้อยๆ 
มากังวลเรื่องนี้หรอก"
(เสียงหัวเราะ)
ดูเหมือนจะไม่มีใครสังเกตเห็นว่า
การอ้างถึงขอบเขตของเวลา
เป็นคำพูดที่ไม่มีเหตุผลอย่างสิ้นเชิง
ถ้าหากว่าความชาญฉลาดเป็นเพียง
เรื่องของการประมวลผลข้อมูล
และเรายังคงปรับปรุงจักรกลของเรา
ให้ดียิ่งขึ้นต่อไป
เราก็จะผลิตอะไรบางอย่างในรูปแบบ
สุดยอดความชาญฉลาดออกมา
และเราก็ไม่รู้เลยว่า
เราจะใช้เวลานานแค่ไหน

Spanish: 
Parecería que incluso meros
rumores de este tipo de avance
podría causar que nuestra
especie se vuelva loca.
Una de las cosas más aterradoras,
en mi opinión, en este momento,
son el tipo de cosas que dicen
los investigadores de IA
cuando quieren tranquilizarnos.
Y el motivo invocado más frecuentemente
de que no nos preocupemos es el tiempo.
Falta mucho para eso, no se preocupen.
Eso será probablemente
dentro de 50 o 100 años.
Un investigador dijo,
"Preocuparse por la seguridad
y todo lo relacionado con la IA
es como preocuparse por la
superpoblación en Marte".
Esta es la manera de Silicon Valley
de mostrarse condescendiente.
(Risas)
Nadie parece darse cuenta
que tomar el tiempo con referencia
es una incongruencia total.
Si la inteligencia es solo una cuestión
de procesamiento de la información
y seguimos mejorando nuestras máquinas,
produciremos algún tipo
de superinteligencia.

Dutch: 
Dus het lijkt erop dat zelfs louter 
geruchten van dit soort doorbraak
ertoe kunnen leiden 
dat het mensdom wild zal worden.
Eén van de meest angstaanjagende dingen,
naar mijn mening,
zijn het soort dingen 
die AI-onderzoekers zeggen
wanneer ze ons gerust willen stellen.
Waar we ons vooral 
geen zorgen over moeten maken, is tijd.
Dit is nog allemaal ver weg, weet je.
Waarschijnlijk nog 50 of 100 jaar weg.
Eén onderzoeker heeft gezegd:
"Piekeren over AI-veiligheid
is net als je zorgen maken 
over overbevolking op Mars."
Dit is de Silicon Valley-versie
van 'breek er je mooie hoofdje niet over'.
(Gelach)
Niemand lijkt te merken
dat verwijzen naar de tijdshorizon
een totale 'non sequitur' is,
een onjuist gevolg.
Als intelligentie alleen maar 
een kwestie van informatieverwerking is,
en we onze machines 
maar blijven verbeteren,
zullen we een bepaalde vorm 
van superintelligentie produceren.
We hebben geen idee 
hoe lang het zal duren

Arabic: 
لخلق الشروط للقيام بذلك بأمان.
دعوني أقل ذلك مرة أخرى.
ليس لدينا فكرة كم سيستغرق الأمر مننا
لخلق الشروط للقيام بذلك بأمان.
وإذا لم تلاحظوا،
لم تعد الخمسون سنة كما كانت عليه.
هذه 50 سنة في أشهر.
هذه المدة التي امتلكنا فيها الـiPhone
هذه المدة التي انعرض فيها
The Simpsons على التلفاز
خمسون سنة هي ليست بالوقت الكثير
لمواجهة أحد أكبر التحديات الذي سيواجه
لفصيلتنا.
مرة أخرى، يبدو أننا نفشل في امتلاك
الاستجابة العاطفية الملائمة
لما يوجد لدينا أكثر من سبب للإيمكان
بأنه قادم
عالم الحاسوب Stuart Russell
لديه تحليل لطيف هنا.
هو يقول، تخيلوا أننا استلمنا رسالة من
حضارة الفضائيين،
والتي كانت:
"سكان الأرض،
سوف نصل إلى كوكبكم خلال 50 سنة.
استعدوا."
والآن نقوم بالعد التنازلي للأشهر حتى تهبط
السفينة الأم؟

Chinese: 
來創造安全地這麼做的條件。
讓我再說一次，
我們不知道要花我們多長的時間
來創造安全地這麼做的條件。
而且如果你還沒注意到， 
50 年已經不像以前的概念。
這是 50 年以月來表示。
這是我們有了 iPhone 的時間。
這是《辛普森家庭》
在電視上播映的時間。
50 年不是那麼長的時間
來面對對我們這個種族來說
最巨大的挑戰之一。
再一次說，我們似乎
無法產生適當的情緒反應，
對應我們有所有的理由
相信將發生的事。
資訊科學家斯圖亞特·羅素
有個很好的比喻。
他說，想像我們收到一則
外星文明的訊息，
寫道：
「地球的人們，
我們 50 年內會到達你們的星球。
作好準備。」
而現在我們只是在倒數
外星母艦還剩幾個月登陸？

Russian: 
создание для этого безопасных условий.
Позвольте повторить.
Мы не имеем понятия,
сколько времени займёт
создание для этого безопасных условий.
И если вы не заметили,
50 лет — не те 50 лет, что раньше.
Вот 50 лет по месяцам.
Вот так давно у нас есть iPhone.
Так долго «Симпсонов» показывают по ТВ.
Пятьдесят лет — не так много
для решения одной из важнейших
для нашего вида задач.
Опять же, нам не удаётся выстроить
подобающую эмоциональную реакцию
на то, что по всем признакам
нам предстоит.
Специалист в области информатики
Стюарт Рассел провёл хорошую аналогию.
Он предложил представить, что мы получили
послание от внеземной цивилизации,
в котором говорится:
«Земляне,
мы прибудем на вашу планету через 50 лет.
Готовьтесь».
И теперь мы просто считаем месяцы
до посадки их корабля-носителя?

Vietnamese: 
để tạo ra những điều kiện
thực hiện việc này một cách an toàn.
Tôi xin nhắc lại.
Chúng ta không biết
sẽ tốn bao nhiêu thời gian
để tạo ra những điều kiện
thực hiện việc này một cách an toàn.
Và nếu bạn chưa nhận ra,
50 năm không còn như xưa
Đây là 50 năm tính theo nhiều tháng.
Đây là thời gian chúng ta tạo ra iPhone.
Đây là thời gian "Gia đình Simpson"
được chiếu trên TV.
50 năm không quá nhiều
để thực hiện một trong số những thử thách
lớn nhất mà loài người từng đối mặt.
Một lần nữa, chúng ta có vẻ không thế
đưa ra một phản ứng cảm xúc phù hợp
cho thứ mà chúng ta có đủ lí do
để tin rằng nó sẽ xảy ra.
Nhà khoa học máy tính Stuart Russell
có một phép loại suy rất hay ở đây.
Ông nói, tưởng tượng chúng ta nhận được
tin nhắn từ nền văn minh ngoài hành tinh,
ghi rằng:
"Loài người trên Trái Đất,
Chúng ta sẽ đáp xuống
hành tinh các người trong 50 năm nữa.
Chuẩn bị đi."
Và giờ chúng ta chỉ đếm ngược từng tháng
đến khi phi thuyền mẹ đáp xuống?

Chinese: 
先可以生產安全嘅超級智能
等我再講多一次
我哋唔知道要用幾長時間
先可以生產安全嘅超級智能
如果你仲未意識到
五十年嘅概念已經唔同咗喇
呢幅圖顯示咗以月份計嘅五十年
先係 iPhone 面世至今嘅時間
再係阿森一族出現係電視上嘅時間
五十年不足以畀人類應對最大挑戰
再一次，我哋對於有理由發生嘅事
未有採取適當嘅情緒反應
對此，電腦科學家 Stuart Russell 
有一個好嘅比喻
佢話︰想像一下我哋收到
一個來自外星文明嘅信息
上面寫住：
「地球上嘅人類，
我哋五十年之後會到達你哋嘅星球。
請準備好。」
咁我哋依家凈係會倒數外星人來臨？

English: 
to create the conditions
to do that safely.
Let me say that again.
We have no idea how long it will take us
to create the conditions
to do that safely.
And if you haven't noticed,
50 years is not what it used to be.
This is 50 years in months.
This is how long we've had the iPhone.
This is how long "The Simpsons"
has been on television.
Fifty years is not that much time
to meet one of the greatest challenges
our species will ever face.
Once again, we seem to be failing
to have an appropriate emotional response
to what we have every reason
to believe is coming.
The computer scientist Stuart Russell
has a nice analogy here.
He said, imagine that we received
a message from an alien civilization,
which read:
"People of Earth,
we will arrive on your planet in 50 years.
Get ready."
And now we're just counting down
the months until the mothership lands?

Czech: 
abychom ji vytvořili
za bezpečných podmínek.
Řeknu to ještě jednou.
Nemáme ani ponětí,
jak dlouho nám bude trvat,
abychom ji vytvořili
za bezpečných podmínek.
A možná jste si nevšimli,
že 50 let už není, co bývalo.
Tohle je 50 let v měsících.
Takhle dlouho máme iPhone.
A takhle dlouho se vysílají Simpsonovi.
Padesát let není moc času na to,
aby se náš druh vypořádal s jedním
z nejtěžších úkolů všech dob.
Ještě jednou – zdá se, že nejsme schopni
adekvátní emocionální reakce na to,
co podle všeho nepochybně nastane.
Odborník na počítače, Stuart Russell,
má pro tuto situaci hezké přirovnání.
Máme si představit, že dostaneme
zprávu od mimozemské civilizace,
ve které stojí:
„Pozemšťané,
za 50 let dorazíme na vaši planetu.
Připravte se.“
To bychom jen počítali, kolik měsíců
zbývá do přistání vlajkové lodi?

Spanish: 
Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones
para hacerlo de forma segura.
Voy a decirlo de nuevo.
Y no tenemos idea de cuánto tiempo
nos llevará crear las condiciones
para hacerlo de forma segura.
Y si no lo han notado, 50 años
ya no son lo que solían ser.
Estos son 50 años en meses.
Este es el tiempo que
hemos tenido el iPhone.
Este es el tiempo que "Los Simpson"
ha estado en la televisión.
Cincuenta años no es tanto tiempo
para lograr uno de los mayores desafíos
al que nuestra especie se ha enfrentado.
Una vez más, parece que no tenemos
una respuesta emocional adecuada
para lo que, con toda
probabilidad, va a pasar.
El científico de la computación
Stuart Russell ofrece una gran analogía:
"Imaginen que recibimos un mensaje de
una civilización extraterrestre que diga:
'Gente de la Tierra,
llegaremos en su planeta en 50 años.
Prepárense'".
¿Estaremos contando los meses
hasta que llegue la nave nodriza?

Catalan: 
crear les condicions
per fer-ho de forma segura.
Deixeu-me que ho repeteixi.
No tenim ni idea de quant
de temps ens portarà
crear les condicions per
fer-ho de forma segura.
I per si no us n'heu adonat,
50 anys no són el que eren abans.
Això són 50 anys en mesos.
Això són els mesos
que hem tingut l'iPhone.
Això són els mesos que 
"Els Simpsons" han estat en pantalla.
Cinquanta anys no és gaire temps
per assolir un dels grans reptes
de la nostra espècie.
Torno a dir, sembla que no estem
reaccionant com cal a nivell emocional
envers allò que cada cop n'estem
més segurs que arribarà.
El científic informàtic Stuart Russell
fa una bonica analogia.
Va dir que imaginéssim que havíem rebut
un missatge d'una civilització alienígena,
que deia:
"Gent de la Terra,
arribarem al vostre planeta
d'aquí 50 anys.
Prepareu-vos."
I llavors comencem a comptar
els mesos que queden abans que arribin.

Japanese: 
どれくらい時間がかかるのか
我々には 見当も付きません
もう一度言いましょう
それを安全に行える
条件を作り出すのに
どれくらい時間がかかるのか
我々には 見当も付きません
今の50年というのは
かつての50年とは違っています
これは 50年を月の数で
表したものです
これはiPhoneが
登場してからの時間
これは『シンプソンズ』の放送が
始まってからの時間
人類最大の難問に
取り組む時間としては
50年というのは
そんなに 長いものではありません
繰り返しになりますが
必ずやってくると思われるものに対して
我々は感情的に適切な反応を
できずにいるようです
コンピューター科学者のスチュワート・
ラッセルが うまい例えをしています
異星の文明から
こんなメッセージを受け取ったと
想像してください
「地球の諸君
あと50年で
我々はそちらに着く
準備されたし」
我々は 彼らの母船が着陸する時を
ただ指折り数えて待つのでしょうか？

Slovak: 
než ju vytvoríme za bezpečných podmienok.
Poviem to ešte raz.
Nemáme poňatia,
ako dlho nám bude trvať,
než ju vytvoríme za bezpečných podmienok.
A možno ste si nevšimli,
že 50 rokov už nie je to, čo bývalo.
Toto je 50 rokov v mesiacoch.
Takto dlho máme iPhone.
Takto dlho sa vysielajú Simpsonovci.
50 rokov nie je tak veľa času,
aby si náš druh poradil s najväčšou
výzvou, pred ktorou kedy stál.
Ešte raz - zdá sa, že nemáme primeranú
emocionálnu odpoveď
na niečo, čo podľa všetkého nastane.
Počítačový vedec Stuart Russell má nato
peknú analógiu.
Povedal, predstavte si, že dostaneme 
správu od mimozemskej civilizácie,
v ktorej bude:
"Pozemšťania,
za 50 rokov dorazíme na vašu planétu.
Pripravte sa."
A teraz budeme len počítať mesiace
do pristátia mimozemskej lode?

Dutch: 
om de voorwaarden te creëren 
om dat veilig te doen.
Ik zeg het nog eens.
We hebben geen idee 
hoe lang het zal duren
om de voorwaarden te creëren 
om dat veilig te doen.
Mocht het je nog niet zijn opgevallen: 
50 jaar is niet meer wat ooit was.
Dit is 50 jaar in maanden.
Zo lang hebben we de iPhone al.
Dit is hoe lang 'The Simpsons' 
al op televisie zijn.
Vijftig jaar is niet zo heel veel tijd
om één van de grootste 
uitdagingen aan te pakken
waarmee het mensdom 
ooit zal worden geconfronteerd.
We lijken er niet in te slagen om 
de juiste emotionele reactie te hebben
op iets waarvan we alle reden hebben 
te geloven dat het komt.
De computerwetenschapper Stuart Russell 
heeft hier een mooie analogie.
Hij zei, stel je voor dat we een bericht 
van een buitenaardse beschaving ontvangen,
dat luidt:
"Mensen van de Aarde,
binnen 50 jaar komen 
we naar jullie planeet.
Hou je gereed."
En dan gewoon de maanden aftellen 
tot aan de landing van het moederschip?

Thai: 
เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
ได้อย่างปลอดภัย
ขอผมยํ้าอีกครั้ง
เราไม่รู้เลยว่าเราจะใช้เวลานานแค่ไหน
เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
ได้อย่างปลอดภัย
และถ้าคุณยังไม่ทันสังเกตอีกล่ะก็
50 ปีนั้นไม่เป็นอย่างที่มันเคยเป็น
นี่คือ 50 ปีในอีกไม่กี่เดือน
เรามีไอโฟนมานานเท่านี้
"เดอะ ซิมพ์สันส์" ออกอากาศทางทีวี
มานานแค่นี้
ห้าสิบปีไม่ใช่เวลาที่นานมาก
ที่จะพบกับสิ่งท้าทายที่ยิ่งใหญ่ที่สุด
ที่ชาติพันธ์ุของเราจะเผชิญ
ยํ้าอีกครั้งนะครับ ดูเหมือนเรากำลังล้มเหลว
ที่จะมีการตอบสนองทางอารมณ์ที่เหมาะสม
ต่อสิ่งที่เราเชื่อได้ด้วยเหตุผล
ในทุก ๆ ด้าน ว่ามันกำลังมาถึง
นักวิทยาศาสตร์คอมพิวเตอร์ สจวร์ต รัสเซลล์
เปรียบเทียบไว้เป็นอย่างดีในเรื่องนี้
เขาพูดว่า ลองจินตนาการดูว่า
เราได้รับข้อความจากอารยธรรมต่างดาว
ความว่า
"มนุษย์โลก
เราจะไปถึงดาวเคราะห์ของท่านในอีก 50 ปี
เตรียมตัวให้พร้อมนะ"
แล้วตอนนี้เราจะแค่นับเดือนถอยหลัง
จนยานแม่มาลงจอดบนพื้นโลกอย่างนั้นหรือ

Korean: 
그것을 안전하게 할 조건을 만들려면
얼마나 걸릴지 우린 모릅니다.
다시 말씀드리죠.
그걸 안전하게 할 조건을 만드는 게
얼마나 걸릴지 우리는 모른다고요.
잘 모르신다면, 지금의 50년은 
과거와 같은 시간이 아닙니다.
몇 개월이 50년과 마찬가지죠.
아이폰을 갖기까지 그만큼 걸렸습니다.
심슨가족이 TV로 
방영되는 데 걸린 시간입니다.
50년이란 그리 많은 시간이 아닙니다.
우리 인류가 당면한 
최고의 난제를 만나는데요.
다시, 우리는 제대로 된 감정적 반응을 
못하고 있는 것 같습니다.
앞으로 벌어질 거라고 
생각하는 것들에 대해서요.
컴퓨터공학자 스튜어트 러셀이 
멋진 비유를 들었습니다.
외계문명이 보낸 메세지를 
받았다고 상상해 보는 겁니다.
이런 내용의 메세지죠.
"지구인들이여
우리는 50년 후에 
지구에 도착할 것이다.
이에 준비하라."
그럼 외계 우주선이 도착할 
때까지 날짜만 세는 겁니까?

Portuguese: 
a criar as condições
para o fazer em segurança.
Vou repetir.
Não sabemos quanto tempo vamos demorar
para criar as condições
para fazê-lo em segurança.
Se ainda não repararam,
50 anos não é o que era dantes.
Isto são 50 anos em meses.
Isto é o tempo desde que temos o iPhone.
Isto é o tempo em que "Os Simpsons"
têm estado na TV.
50 anos não é assim tanto tempo
para ir de encontro aos maiores desafios
que a nossa espécie irá enfrentar.
Mais uma vez, parecemos estar a falhar
em ter uma resposta emocional apropriada
para o que acreditamos
que está para vir.
O cientista informático Stuart Russell
tem uma boa analogia para isto.
Disse: "Imaginem que recebemos
uma mensagem de uma civilização alienígena,
"que diz:
" 'Habitantes da Terra,
" vamos chegar ao vosso planeta
dentro de 50 anos.
" 'Preparem-se'."
Vamos contar os meses
até a nave-mãe aterrar?

Chinese: 
来创造实现这一切的安全环境。
我再重复一遍。
我们无法预估将花费多长时间
来创造实现这一切的安全环境。
你们可能没有注意过，
50年的概念已今非昔比。
这是用月来衡量50年的样子。
（每个点表示一个月）
红色的点是代表苹果手机出现的时间。
这是《辛普森一家》（动画片）
在电视上播出以来的时间。
要做好准备面对
人类历史上前所未有的挑战，
50年时间并不是很长。
就像我刚才说的，
我们对确定会来临的事情
做出了不合理的回应。
计算机科学家斯图尔特·罗素
给出了一个极好的类比。
他说，想象我们从
外太空接收到一条讯息，
上面写着：
“地球上的人类，
我们将在五十年后到达你们的星球，
做好准备吧。”
于是我们就开始倒计时，
直到它们的“母舰”着陆吗？

Portuguese: 
para fazer isso de forma segura.
Vou dizer novamente.
Não temos ideia de quanto tempo vai levar
para fazer isso de forma segura.
E se você não percebeu, 50 anos não
são mais o que costumavam ser.
Isso são 50 anos em meses.
Esta é a idade que tem o iPhone.
Este é o tempo que Os Simpsons
está na televisão.
Cinquenta anos não é muito tempo
para conhecer um dos maiores desafios
que nossa espécie enfrentará.
Novamente, parece que estamos falhando
em uma reação emocional adequada
a algo que, com certeza, está vindo.
O cientista de computação Stuart Russell
possui uma bela analogia:
imagine que recebamos uma mensagem
de uma civilização alienígena,
que diz:
"Pessoas da Terra,
chegaremos ao seu planeta em 50 anos.
Se preparem."
E agora estamos contando os meses
até a chegada da nave-mãe?

French: 
pour trouver comment
le faire sans risques.
Je vais me répéter.
Nous n'avons pas la moindre idée 
du temps qu'il nous faudra
pour trouver comment
le faire sans risques.
Au cas où vous n'auriez pas remarqué,
50 ans, ce n'est pas grand chose.
Voici 50 ans, en mois.
Voici l'existence de l'iPhone.
Voici la durée couverte 
par « Les Simpsons ».
Cinquante ans, 
cela ne laisse guère de temps
pour se préparer à l'un 
des plus grands défis de tous les temps.
Une fois encore, nous semblons 
incapables de nous préparer
à ce qui, selon toute probabilité,
va arriver.
L'informaticien Stuart Russel 
propose une belle analogie à ce sujet.
Il dit : « Imaginez que nous recevions 
un message des aliens
qui dirait :
' Habitants de la Terre,
nous arriverons chez vous dans 50 ans.
Soyez prêts. '
Et on ne ferait que regarder 
le compte à rebours ?

Persian: 
تا شرایط انجام این کار
را به شکل ایمن فراهم کنیم.
بگذارید باز هم بگویم.
ایده‌ای نداریم که چقدر زمان می‌برد
تا شرایط انجام این کار
را به شکل ایمن فراهم کنیم.
و اگر متوجه نشده باشید
۵۰ سال، دیگر مثل سابق نیست.
این، ماه‌های تشکیل دهنده‌ی ۵۰ سال است.
این، مدتی‌ست که ما 
صاحب آیفون هستیم.
در این مدت سریال 
خانواده سیمپسون پخش شده.
پنجاه سال زمان چندان زیادی
برای روبرو شدن با یکی از بزرگترین 
چالشهایی که نوع بشر با آن روبروست، نیست.
یکبار دیگر به نظر میاید که ما در 
داشتن جواب عاطفی مناسب نسبت به آنچه
که دلایل کافی برای ظهورش را داریم 
ناموفق عمل کرده‌ایم.
دانشمند علوم رایانه‌ استورات راسل 
قیاس جالبی دارد.
او گفت، تصور کنید
پیغامی را از یک تمدن فضایی دریافت کنیم
که می‌گوید،
«مردم زمین،
ما ۵۰ سال دیگر به سیاره شما می‌رسیم.
آماده باشید.»
و اکنون ما فقط به شمارش معکوس 
ماه‌ها مشغولیم تا ناوِ فضایی فرود بیاید؟

Ukrainian: 
щоб створити умови,
де це буде безпечно.
Повторюю ще раз.
Ми не уявляємо, 
скільки часу нам потрібно,
щоб створити умови,
де це буде безпечно.
І якщо ви не помітили,
50 років - вже не ті, що раніше.
Це 50 років у місяцях.
Стільки часу в нас уже є iPhone.
Стільки часу "Сімпсони" вже
існують на телебаченні.
П'ятдесят років -
це не так вже й багато часу,
щоб прийняти найбільший виклик,
з яким зіткнеться людський рід.
Повторюю: ми, здається, не маємо
відповідної емоційної реакції
на те, що точно до нас наближається.
Комп'ютерний експерт Стюарт Рассел
наводить гарну аналогію.
Він сказав: "Уявіть, що ми отримали
повідомлення від інопланетної цивілізації,
в якому йдеться:
"Земляни,
ми прибудемо на вашу планету через 50 років.
Готуйтеся".
І тепер ми лише рахуємо місяці, що
лишилися до прибуття космічного корабля?

Serbian: 
da stvorimo uslove da to uradimo bezbedno.
Dozvolite mi da ponovim.
Nemamo pojma koliko vremena će nam trebati
da stvorimo uslove da to uradimo bezbedno.
Ako niste primetili,
50 godina nije kao što je bilo ranije.
Ovo je 50 godina u mesecima.
Ovoliko dugo već imamo iPhone.
Ovoliko se već prikazuju "Simpsonovi".
Pedeset godina nije mnogo vremena
da se ostvari jedan od najvećih
izazova naše vrste.
Još jedanput, izgleda da nam nedostaje
odgovarajući emocionalni odgovor
na ono na šta imamo svako pravo
da verujemo da dolazi.
Kompjuterski naučnik Stjuart Rasel
ima lepu analogiju za ovo.
On kaže, zamislite da smo primili
neku poruku od vanzemaljaca,
u kojoj stoji:
"Zemljani,
stižemo na vašu planetu za 50 godina.
Spremite se."
I mi ćemo samo da odbrojavamo mesece
dok se njihov brod ne spusti?

Turkish: 
ne kadar süreceği hakkında 
hiçbir fikrimiz yok.
Bir daha söyleyeyim.
Güvenli bir biçimde yapmak için
gerekli şartları yaratmanın
ne kadar süreceği hakkında 
hiçbir fikrimiz yok.
Ve eğer fark etmediyseniz,
50 yıl eskisi gibi değil artık.
Bu ay olarak 50 yıl.
Bu kadar zamandır iPhone var.
Bu kadar zamandır "The Simpsons" 
(Simpsonlar) televizyonda.
50 yıl, türümüzün karşılaşabileceği
en büyük zorluklar için
fazla bir zaman değil.
Bir defa daha uygun duygusal karşılık
vermede başarısız gibiyiz,
yaklaştığına inanmamız için 
tüm gerekçelere sahipken.
Bilgisayar bilimcisi Stuart Russell'ın 
güzel bir benzetimi var.
Diyor ki; uzaylı bir medeniyetten
bir mektup aldığımızı düşünün,
şöyle diyor:
"Dünya Halkı,
50 yıl içinde gezegeninize ulaşacağız.
Hazırlanın."
Ve şimdi, ana gemi varana kadar 
ay ay geri mi sayacağız?

Italian: 
per crearla in condizioni di sicurezza.
Lo ripeto.
Non abbiamo idea di quanto ci voglia
per crearla in condizioni di sicurezza.
E 50 di progresso, oggi,
non sono più come una volta.
Questi sono 50 anni riportati in mesi.
Questo è da quanto abbiamo l'iPhone.
Questo è da quanto "I Simpson" sono in tv.
50 anni non sono poi così tanti
per affrontare una delle sfide maggiori
che l'uomo abbia affrontato.
Ancora una volta, sembra che ci manchi
la giusta risposta emotiva
a quello che, per vari motivi,
sappiamo che accadrà.
L'informatico Stuart Russel
ha fatto una giusta analogia.
Ha detto di immaginare di ricevere
un messaggio dagli alieni
che dice:
"Popolo della Terra,
arriveremo sul vostro pianeta fra 50 anni.
Preparatevi".
Staremmo qui a fare il conto alla rovescia
finché non atterri la nave ammiraglia?

Modern Greek (1453-): 
να δημιουργήσουμε τις συνθήκες
ώστε να το κάνουμε με ασφάλεια.
Να το πω πάλι.
Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει
να δημιουργήσουμε τις συνθήκες
ώστε να το κάνουμε με ασφάλεια.
Κι αν δεν το έχετε προσέξει,
τα 50 χρόνια δεν είναι αυτό που ήταν.
Αυτό είναι 50 χρόνια σε μήνες.
Τόσον καιρό έχουμε το iPhone.
Τόσον καιρό παίζονται 
οι Σίμπσονς στην τηλεόραση.
Τα 50 χρόνια δεν είναι τόσο πολλά
για μια από τις μεγαλύτερες προκλήσεις
που θα αντιμετωπίσει το είδος μας.
Και πάλι - αδυνατούμε να επιδείξουμε
κατάλληλη συναισθηματική απόκριση
σε κάτι που έχουμε κάθε λόγο
να πιστεύουμε ότι θα έρθει.
Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ
έχει μια ωραία αναλογία γι' αυτό.
Είπε, φανταστείτε ότι λάβαμε μήνυμα
από εξωγήινο πολιτισμό,
που έλεγε:
«Άνθρωποι της Γης,
θα φτάσουμε στον πλανήτη σας σε 50 χρόνια.
Ετοιμαστείτε».
Και τώρα απλώς μετράμε αντίστροφα
τον χρόνο μέχρι να έρθει το διαστημόπλοιο.

Georgian: 
რომ მივიღოთ შესაბამისი
უსაფრთხოების ზომები.
ნება მომეცით, კიდევ გავიმეორო.
ჩვენ წარმოდგენა არ გვაქვს,
რა დრო დაგვჭირდება იმისთვის,
რომ მივიღოთ შესაბამისი
უსაფრთხოების ზომები.
თუ ვერ შეამჩნიეთ, გეტყვით,
რომ ეს ის 50 წელი არ არის, რაც უწინ იყო.
ეს არის 50 წელი თვეებში.
ამდენი ხანია რაც აიფონები გვაქვს.
ამდენი ხანია რაც "სიმფსონები" გადის.
50 წელი არც ისე დიდი დროა იმისთვის,
რომ ჩვენი სახეობისთვის
ერთ-ერთ უდიდეს გამოწვევას შევეგებოთ.
კიდევ ერთხელ, თითქოს არ შეგვწევს უნარი
გვქონდეს ადექვატური ემოციური რეაქცია,
იმის მიმართ, რაც აშკარად მოსალოდნელია.
კომპიუტერულმა მეცნიერმა სტიურატ რასელმა
კარგი ანალოგია გააკეთა.
მან თქვა, წარმოიდგინეთ, რომ უცხოპლანეტელი
ცივილიზაციისგან მივიღეთ გზავნილი,
რომელიც ამბობს:
"დედამიწის მოსახლეობავ,
ჩვენ გეწვევით თქვენ პლანეტაზე
50 წელიწადში.
მოემზადეთ"
და ამის შემდეგ თვეების თვლას დავიწყებთ,
სანამ ხომალდი არ ჩამოვა?

Swedish: 
att skapa villkoren för
att göra det riskfritt.
Jag tar det en gång till.
Vi vet inte hur lång tid det kommer att ta
för att skapa de säkra villkoren.
Du har kanske inte noterat det,
men 50 år är inte vad det brukade vara.
Det här är 50 år i månader.
Så här länge har vi haft iPhone.
Så här länge har "Simpsons" visats på TV.
50 år är inte så lång tid
att möta den största utmaningen
mänskligheten någonsin skådat.
Än en gång, vi verkar inte kunna uppbåda
ett passande emetionellt gensvar
för den framtid vi har all
anledning att tro kommer.
Datorforskaren Stuart Russell
drar en intressant parallell.
Han sade, föreställ er att vi fick ett
meddelande från en främmande civilisation,
som sade:
"Människor på Jorden,
vi kommer att landa
på er planet om 50 år.
Gör er redo."
Och nu räknar vi bara ner månaderna
tills moderskeppet landar?

Croatian: 
stvoriti uvjete
kako bismo to učinili sigurno.
Dajte da to kažem ponovo.
Nemamo pojma
koliko će nam dugo trebati
stvoriti uvjete
kako bismo to učinili sigurno.
A ako niste primijetili,
50 godina nije što je nekad bilo.
Ovo je 50 godina u mjesecima.
Ovo je koliko dugo imamo iPhone.
Ovo je koliko dugo su
"Simpsoni" na televiziji.
Pedeset godina nije tako puno vremena
za sučeliti se sa jednim od
najvećih izazova koje će naša vrsta ikad imati.
Još jednom, izgleda da ne uspijevamo
imati prikladan emotivni odgovor
za što imamo
svaki razlog vjerovati kako dolazi.
Računalni znanstvenik Stuart Russell
ovdje pravi zgodnu analogiju.
On kaže, zamislite kako smo primili
poruku od vanzemaljske civilizacije,
koja piše:
"Ljudi Zemlje,
stići ćemo na vaš planet za 50 godina.
Pripremite se."
I sad mi samo brojimo
mjesece dok matični brod ne sleti?

Romanian: 
Nu avem idee cât ne va lua
să creăm condițiile de siguranță
pentru asta.
Lăsați-mă să repet.
Nu avem idee cât ne va lua
să creăm condițiile de siguranță
pentru asta.
Dacă nu ați observat,
50 de ani nu mai sunt ce-au fost.
Iată 50 de ani în luni.
De atâta timp avem iPhone.
De atâta timp The Simpsons
rulează la televizor.
50 de ani nu e un timp lung
pentru a rezolva una din cele mai mari
provocări ale speciei noastre.
Încă o dată, se pare că eșuăm
să avem o reacție emoțională adecvată
la ce va veni, foarte probabil.
Informaticianul Stuart Russell
are o analogie bună.
A spus: să ne imaginăm că am primit
un mesaj de la o civilizație extraterestră
care zice:
„Oameni de pe Pământ,
vom veni pe planeta voastră în 50 de ani.
Pregătiți-vă.”
Acum rămânem să numărăm lunile
până aterizează nava?

Hungarian: 
a biztonságos kivitelezés feltételeit.
Hadd ismételjem meg:
Fogalmunk sincs mennyi 
időbe telik majd megteremteni
a biztonságos kivitelezés feltételeit.
Ha nem tűnt volna fel, az elmúlt 
50 év sem olyan, mint az előzőek.
Ez az 50 év hónapokra bontva.
Ilyen régóta létezik az iPhone.
Ilyen régóta megy a tévében a 
"Simpson család".
50 év nem egy hosszú idő,
hogy elérkezzünk fajunk egyik
legnagyobb kihívásához.
Ismétlem: képtelenek vagyunk 
megfelelő érzelmi reakcióval kezelni,
ami minden kétséget kizáróan előttünk áll.
Stuart Russell számítógéptudósnak 
van egy szép analógiája.
Azt mondta: Képzeljük el, hogy kapunk 
egy üzenetet egy idegen civilizációtól,
amiben ez áll:
"Földi népség,
50 év múlva érkezünk.
Készüljetek fel!"
Elkezdenénk visszaszámlálni, 
amíg meg nem érkezik az anyahajó?

iw: 
לייצר את התנאים כדי
לעשות זאת באופן בטיחותי.
תרשו לי להגיד את זה שוב.
אין לנו מושג כמה זמן ייקח לנו
לייצר את התנאים כדי
לעשות זאת באופן בטיחותי.
ואם לא שמתם לב,
50 שנה זה לא מה שזה היה פעם.
אלה 50 שנים מחולקים לחודשים.
זו כמות הזמן שיש לנו אייפונים.
זו כמות הזמן ש"הסימפסונים"
משודרים בטלויזיה.
חמישים שנים זה לא הרבה זמן
כדי להתמודד עם אחד האתגרים
הגדולים ביותר שהמין שלנו יתקל בהם.
שוב, נראה שאנחנו לא מצליחים
לייצר את התגובה הרגשית המתאימה
למשהו שאין לנו ספק שהוא מגיע.
למדען המחשבים סטיוארט ראסל
יש אנלוגיה נחמדה בנושא זה.
הוא אמר, דמיינו שקיבלנו מסר
מתרבות חוצנית כלשהי,
שאומר:
"תושבי כדור הארץ,
"אנחנו נגיע לכוכב שלכם בעוד 50 שנים.
תתכוננו."
ועכשיו אנחנו רק סופרים את החודשים
עד שספינת האם תנחת?

Ukrainian: 
Ми б відчули тоді трохи більше терміновості,
ніж ми відчуваємо тепер.
Інша причина, чому нам кажуть
не хвилюватися, полягає в тому,
що ці машини
муситимуть поділяти наші цінності,
адже вони будуть фактично
продовженням нас самих.
Їх трансплантують у наші мізки,
і ми, по суті,
станемо їхньою лімбічною системою.
Але задумаймось:
найбезпечніший
та єдиний розважливий шлях уперед,
що його нам рекомендують -
це імплантація цієї технології
прямо у мозок.
Так, це може бути найбезпечнішим
та єдиним розважливим шляхом уперед,
але зазвичай усі проблеми з безпекою
мають бути розв'язані до того,
як технологію вставлять у вашу голову.
(Сміх)
Глибшою проблемою є те, що створення
лише надрозумного штучного інтелекту
здається легшим,
ніж створення надрозумного
штучного інтелекту
та володіння повноцінною неврологією,
яка б дала нам змогу ефективно
інтегрувати наш розум із ним.
І, знаючи це, компанії та 
уряди, що займаються цією розробкою,
сприймають себе наче у перегонах
проти всіх інших,

Italian: 
O forse sentiremmo
un pochino più di urgenza?
In più, ci dicono di non preoccuparci
perché queste macchine
avrebbero i nostri stessi valori,
essendo una vera e propria
estensione di noi stessi.
Ce le impianteremo nel cervello,
e diventeremo il loro sistema limbico.
Pensate un attimo
che la via più sicura e prudente,
quella raccomandata,
è di impiantarci questa tecnologia
direttamente nel cervello.
Ora, questa potrebbe essere
l'unica via più sicura e prudente,
ma di solito uno dovrebbe
aver chiarito tutti i dubbi
su una tecnologia prima
di infilarsela in testa.
(Risate)
Il problema principale è che costruire
una IA super intelligente, a parte,
sembra molto più semplice
di costruirla
ed avere le conoscenze neuroscientifiche
che consentano di integrarla
completamente alla nostra mente.
Dato che le aziende e i governi
che ci lavorano
sono in competizione
gli uni con gli altri,

Japanese: 
もう少し 切迫感を抱くのでは
ないかと思います
心配無用だとされる
別の理由は
そういった機械は
人間の延長であり
人間と同じ価値観を
持つはずだというものです
我々の脳に接続され
人間はその辺縁系のような
存在になるのだと
ちょっと考えてほしいんですが
最も安全で
唯一分別のあるやり方として
勧められているのは
その技術を直接自分の脳に
埋め込むことだと言うのです
それは実際に 最も安全で
唯一分別のあるやり方なのかもしれませんが
テクノロジーに対する安全性の懸念は 
ふつうであれば—
頭に埋め込む前に解消されている
べきではないでしょうか
(笑)
より根深い問題点は
超知的AIを作ること自体は
超知的AIを作り
かつ それを人間の脳に
統合するための
神経科学を
完成させることよりは
簡単だろうことです
これに取り組む国や企業は
他の国や企業と競争を
していると認識しており

Chinese: 
在这种情况下我们会感到更紧迫。
另外一个试图安慰我们的理由是，
那些机器必须
拥有和我们一样的价值观，
因为它们将会是我们自身的延伸。
它们将会被嫁接到我们的大脑上，
我们将会成它们的边缘系统。
现在我们再思考一下
最安全的，也是唯一经慎重考虑后
推荐的发展方向，
是将这项技术直接植入我们大脑。
这也许确实是最安全的，
也是唯一慎重的发展方向，
但通常在我们把它塞进脑袋之前，
会充分考虑这项技术的安全性。
（笑声）
更深一层的问题是：
仅仅制造出超级人工智能机器
可能要比
既制造超级人工智能，
又让其拥有能让
我们的思想和超级人工智能
无缝对接的完整的
神经科学系统要简单很多。
而做这些研究的公司或政府，
很可能将彼此视作竞争对手，

Georgian: 
ალბათ, ამაზე ცოტა უფრო მეტ
გადაუდებლობას ვიგრძნობდით.
კიდევ ერთი მიზეზი,
რასაც დასამშვიდებლად ამბობენ,
არის რომ ამ მანქანებს ჩვენი ფასეულობების
გაზიარების გარდა სხვა გზა არ ექნებათ,
რადგან ისინი ჩვენი გაგრძელებები იქნებიან.
ისინი ჩვენს ტვინს მიუერთდებიან,
ჩვენ კი მათი ლიმბური სისტემა გავხდებით.
ერთი წამით დავფიქრდეთ,
რომ ყველაზე უსაფრთხო
და ერთადერთი წინდახედული,
რეკომენდებული გზა,
არის ამ ტექნოლოგიების პირდაპირ
ჩვენ ტვინში ჩანერგვა.
ეს შეიძლება მართლაც ყველაზე უსაფრთხო
და ერთადერთი წინდახედული გზა იყოს,
მაგრამ როგორც წესი,
ტექნოლოგიის უსაფრთხოებაზე ზრუნვა,
მანამ უნდა იყოს დამთავრებული,
სანამ მას თავში შევიტენით.
(სიცილი)
უფრო სიღრმისეული პრობლემა ისაა,
რომ ზეგონიერი ხელოვნური ინტელექტის შექმნა,
თავისთავად უფრო მარტივი ჩანს,
ვიდრე მისი შექმნა
და შემდეგ ნეირომეცნიერების სრული შესწავლა,
რაც საშუალებას მოგვცემს 
მოვახდინოთ ჩვენ ტვინში მისი ინტეგრაცია.
იმის გათვალისწინებით,
რომ კომპანიები და მთავრობები,
რომლებიც ამას აკეთებენ,
თავს ყველა დანარჩენთან შეჯიბრში აღიქვამენ

Swedish: 
Vi borde förstå att det
brådskar mer än vad vi gör.
Vi hör att vi inte behöver oroa oss
för maskinerna kommer
att dela våra värderingar
eftersom de kommer att
vara en förlängning av oss.
De kommer att ympas in i våra hjärnor,
och vi kommer att vara
deras limbiska system.
Reflektera nu över
att den tryggaste och
förståndigaste vägen framåt,
som förespråkas,
är att operera in tekniken
direkt i våra hjärnor.
Det kanske är den tryggaste
och smartaste vägen att ta,
men vanligtvis måste
säkerhetsriskerna med en teknik
vara ordentligt utredda innan
man stoppar in den i hjärnan.
(Skratt)
Det djupare problemet är att
utveckla en fristående superintelligent AI
förmodligen är enklare
än att utveckla superintelligent AI
och ha koll på neurovetenskapen
som låter oss sömlöst
integrera våra sinnen med den.
Givet att företag och
stater som står för vetenskapen
sannolikt kommer att uppfatta sig
vara i kamp med alla andra,

Arabic: 
سنشعر بالعجلة أكثر مما نفعل الآن بقليل.
يُقال لنا ألا نقلق لسببٍ آخر
هو أن هذه الآليات ليس بوسعها
إلا مشاركتنا منافعها
لأنها ستكون حرفياً امتداداً لأنفسنا.
ستكون مُطعَّمة مع أدمغتنا،
ونحن سنصبح جوهرياً أنظمتها الحوفية.
الآن خذوا لحظة للتفكير
أن الطريق الوحيد الآمن والحكيم للأمام،
الذي يُنصح به،
هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا.
قد يكون الطريق الوحيد
الآمن والحكيم للأمام،
ولكن عادةً يكون للمرء مخاوف
عن كون التكنولوجيا
مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك.
(ضحك)
المشكلة الأعمق أن بناء ذكاء اصطناعي فائق
الذكاء بمفرده
يبدو على الأرجح أنه أسهل
من بناء ذكاء اصطناعي فائق
الذكاء
وامتلاك علم الأعصاب الكامل
الذي يسمح لنا بمكاملة عقولنا معه بسلاسة.
وبافتراض أن الشركات والحكومات
التي تقوم بهذا العمل
على الأرجح ستعي كونها في سباق ضد 
الآخرين جميعاً،

Romanian: 
Am simți nevoia să facem ceva mai urgent.
Alt motiv pentru care
ni se spune să nu ne îngrijorăm
e că aceste mașinării pot să aibă
doar aceleași valori ca noi
deoarece vor fi practic 
extensiile noastre.
Vor fi în creierele noastre
și noi vom deveni practic
sistemele lor limbice.
Să ne gândim un moment
la calea de viitor
cea mai sigură și prudentă,
recomandată,
e să implantăm tehnologia
direct în creierele noastre.
Asta ar fi calea de viitor
cea mai sigură și prudentă,
dar de obicei măsurile de siguranță
ale unei tehnologii
trebuie să fie clarificate
înainte de a ți-o pune în creier.
(Râsete)
Problema mai delicată e că
construcția unei IA superinteligente
pare mai ușoară
decât a unei IA superinteligente
și neuroștiința completă
care ne ajută să ne integrăm
mintea cu aceasta.
Dat fiind că guvernele și companiile
care lucrează la asta
probabil se cred într-o cursă
împotriva tuturor,

French: 
Non, nous nous sentirions 
un peu plus concernés que ça. »
Une autre raison de ne pas s'inquiéter
serait que ces machines 
partageraient notre sens des valeurs
parce qu'elles seraient 
des extensions de nous-mêmes.
Elles seraient greffées sur nos cerveaux,
nous serions leur système limbique.
Réfléchissez un peu
que le moyen le plus sûr,
recommandé,
serait de brancher cette technologie
directement sur nos cerveaux.
Cela peut sembler 
être la meilleure option,
mais généralement, on essaie
d'être sûr de son coup
avant de s'enfoncer 
quelque chose dans le cerveau.
(Rires)
Le vrai problème est
que simplement concevoir
une IA super intelligente
semble plus facile
que de concevoir
une IA super intelligente
tout en maîtrisant les neurosciences
pour connecter cette IA à nos cerveaux.
Si l'on tient compte du fait 
que les entreprises et gouvernements
se sentent probablement en concurrence,

Croatian: 
Osjećali bismo malo veću
hitnost nego što osjećamo.
Još jedan razlog
što nam govore da ne brinemo
je kako si ti strojevi
ne mogu pomoći da ne dijele naše vrijednosti
jer će doslovno biti
produžeci nas samih.
Bit će usađeni u naše mozgove,
a mi ćemo u biti
postati njihov limbički sustav.
sad uzmite trenutak pa razmislite
kako je najsigurniji
i jedini razborit put naprijed,
preporučeno,
ugraditi tu tehnologiju
izravno u naše mozgove.
Sad, to može zapravo biti najsigurniji
i jedini razborit put nparijed,
ali obično sigurnosni problemi
oko tehnologije
moraju biti manje više izglađeni
prije nego ju zabijete u vlastitu glavu.
(Smijeh)
Dublji je problem što se
izgradnja superinteligentne AI
čini vjerojatno lakšim
nego izgradnja superinteligentne AI
i imanje zaokružene neuroznanosti
koja nam omogućuje da ju glatko
integriramo s našim umovima.
A uzevši kako će kompanije
i vlade koje se bave ovim poslom
vjerojatno percipirati
kako su u utrci protiv svih ostalih,

English: 
We would feel a little
more urgency than we do.
Another reason we're told not to worry
is that these machines
can't help but share our values
because they will be literally
extensions of ourselves.
They'll be grafted onto our brains,
and we'll essentially
become their limbic systems.
Now take a moment to consider
that the safest
and only prudent path forward,
recommended,
is to implant this technology
directly into our brains.
Now, this may in fact be the safest
and only prudent path forward,
but usually one's safety concerns
about a technology
have to be pretty much worked out
before you stick it inside your head.
(Laughter)
The deeper problem is that
building superintelligent AI on its own
seems likely to be easier
than building superintelligent AI
and having the completed neuroscience
that allows us to seamlessly
integrate our minds with it.
And given that the companies
and governments doing this work
are likely to perceive themselves
as being in a race against all others,

Modern Greek (1453-): 
Θα το νιώθαμε ως κάτι λίγο
πιο επιτακτικό από ό,τι τώρα.
Μας λένε επίσης να μην ανησυχούμε,
γιατί οι μηχανές δεν μπορούν
παρά να έχουν τις δικές μας αξίες,
καθώς κυριολεκτικά
είναι προέκταση των εαυτών μας.
Θα συνδεθούν στον εγκέφαλό μας
και βασικά θα γίνουμε
το μεταιχμιακό τους σύστημα.
Σκεφτείτε για ένα λεπτό
ότι ο ασφαλέστερος και ο μόνος
συνετός δρόμος προς τα εμπρός
που προτείνεται,
είναι να εμφυτεύσουμε αυτή την τεχνολογία
απευθείας στον εγκέφαλό μας.
Βέβαια, μπορεί να είναι ο ασφαλέστερος
και ο μόνος συνετός δρόμος,
αλλά συνήθως οι ανησυχίες
για την ασφάλεια μιας τεχνολογίας
πρέπει να έχουν επιλυθεί
πριν την εμφυτεύσουμε στο κεφάλι μας.
(Γέλια)
Το βαθύτερο πρόβλημα είναι
ότι φαίνεται ευκολότερο
να φτάξεις ένα μεμονωμένο
σύστημα τεχνητής νοημοσύνης,
από το να φτιάξεις ένα σύστημα
και να έχεις και επαρκή νευροεπιστήμη
που να επιτρέπει την εύκολη
ενσωμάτωσή του στον εγκέφαλό μας.
Και δεδομένου ότι οι κυβερνήσεις
και εταιρείες που θα το κάνουν
είναι πιθανόν θα θεωρούν
ότι ανταγωνίζονται όλους τους άλλους,

Slovak: 
Asi by sme cítili trochu viac
naliehavosti ako teraz.
Ďalší dôvod, prečo sa 
nemáme obávať, je,
že týmto strojom nezostane nič iné,
len zdieľať naše hodnoty,
pretože budú doslovne naším
vlastným rozšírením.
Budú zabudované do našich mozgov
a my budeme v podstate ich 
limbickým systémom.
Zamyslite sa a zvážte,
že tou najbezpečnejšou a
jedinou rozvážnou cestou,
ktorá sa odporúča,
je nasadiť tieto technológie
priamo do našich mozgov.
Fakticky, ona to môže byť najbezpečnejšia
a jediná rozvážna cesta vpred,
ale zvyčajne je dobré obávať sa
bezpečnosti technológií,
pretože by to malo byť celkom dobre
vyladené, než si to vložíte do hlavy.
(smiech)
Hlbším problémom je, že budovanie
samotnej super inteligentnej AI sa zdá byť
pravdepodobne jednoduchšie,
než budovanie super inteligentnej AI
a mať vyriešenú neurovedu, ktorá nám
dovolí bezproblémovú integráciu
našich myslí s ňou.
A keďže firmy a vlády,
ktoré sa na tom podieľajú,
to pravdepodobne vnímajú
ako závod so všetkými ostatnými,

Portuguese: 
Nós teríamos mais urgência
do que temos agora.
Outro motivo dito
para não nos preocuparmos
é que essas máquinas não podem evitar
compartilhar nossos valores
porque eles serão literalmente
extensões de nós mesmos.
Eles serão transplantados
em nossos cérebros
e nos tornaremos parte
de seus sistemas límbicos.
Reserve um momento para considerar
que o único caminho prudente
e seguro recomendado,
é implantar essa tecnologia
diretamente em nossos cérebros.
Esse pode ser o caminho
mais seguro e prudente,
mas, normalmente, os problemas
de segurança da tecnologia
precisam ser resolvidos antes de ser
implantado dentro da sua cabeça.
(Risadas)
O maior problema é que construir
uma IA superinteligente por si só
parece ser mais fácil
do que construir IA superinteligente
e ter a neurociência completa
que nos permita integrar
perfeitamente nossas mentes.
E dado que empresas e governos
que estão trabalhando nisso
se encontram numa corrida
uns contra os outros,

Hungarian: 
Sokkal sürgetőbbnek éreznénk, mint most.
Az aggodalmakra adott másik válasz,
hogy ezek a gépek 
osztják a mi nézeteinket,
mivel ők a mi saját kiterjesztéseink.
Az agyunkba lesznek ültetve,
aminek folytán limbikus 
rendszerükké válunk.
Egyetlen pillanatra gondoljunk csak bele,
azt javasolják,
hogy az egyetlen biztonságos 
és megbízható módszer az,
ha ezt a technológiát közvetlenül 
az agyunkba ültetjük be.
Nos, lehet, hogy az egyetlen 
biztonságos és megbízható módszer,
de a technológiák biztonsági kockázatait
alaposan tesztelni kéne, 
mielőtt bármit bárki fejébe ültetnék.
(Nevetés)
A mélyebb probléma az, hogy egy
szuperintelligens MI létrehozása,
már önmagában is egyszerűbbnek bizonyul,
mint létrehozni a szuperintelligens MI-t,
és megalkotni hozzá 
a szükséges idegtudományt,
amely lehetővé teszi a saját elménkkel 
való gond nélküli összekapcsolását.
És mivel az ezen dolgozó
vállalatok és kormányok
vetélytársként tekintenek egymásra,

Czech: 
Cítili bychom o něco
naléhavější potřebu než teď.
Dalším důvodem, proč se prý nemáme bát,
je, že těmto strojům nezbude než
se držet našich hodnot,
protože se stanou doslova naší nadstavbou.
Budou implantované do našich mozků
a my se v podstatě staneme
jejich limbickým systémem.
Chvilku se zamyslete nad tím,
že tou nejbezpečnější
a nejuváženější cestou,
která se doporučuje,
by měla být implantace této
technologie do našich mozků.
Ona to vskutku může být
nejbezpečnější a nejuváženější cesta,
ale obvykle se všichni obávají
o bezpečnost technologií,
protože když máte nosit něco natrvalo,
musí to být dost dobře vyladěné.
(smích)
Hlubším problémem je to,
že vytvořit samotnou superinteligentní AI
je pravděpodobně snazší,
než vytvářet takovou inteligenci
společně s kompletní neurobiologií,
která umožní bezproblémovou
integraci do naší mysli.
A jelikož firmy a vlády budou tuto práci
nejspíše vnímat jako
závod se všem ostatními,

Korean: 
그것보다는 좀더 위급함을 느껴야죠.
우리에게 걱정말라는 다른 이유는
이런 기계들은 우리의 가치를 
공유할 수밖에 없다는 겁니다.
말 그대로 우리의 연장선이니까요.
기계들은 우리 뇌에 이식될테고
우리는 본질적으로 그들의 
감정 표현 시스템으로 전락하겠죠.
한 번 생각해 보세요.
가장 안전하고 현명한 방법을 추천하자면
이 기술을 우리 뇌에 
직접 이식하는 겁니다.
앞으로 할 수 있는 가장 
안전하고 현명한 방법이겠지만
기술의 안전성에 대한 우려는 보통
머릿속에서 꽂아 보기 
전에 해야 할 일이죠.
(웃음)
좀 더 심오한 문제는 
초지능의 AI를 만드는 것 자체가
오히려 더 쉽다는 거에요.
초지능 AI를 만들고
완전한 신경과학이 있어서
우리의 정신을 AI와 매끄럽게 
접목시키는 것에 비해서 말이죠.
기업과 정부가 이 일을 하고 있음을 보면
다른 종에 대항하는 존재임을 
스스로 인지할 가능성이 있습니다.

Serbian: 
Osetili bismo malo
više straha nego obično.
Drugo zbog čega kažu da ne brinemo
je da ove mašine ne mogu drugačije
nego da dele naše vrednosti
zato što će one bukvalno biti
produžeci nas samih.
One će biti nakalamljene na naš mozak
i mi ćemo suštinski postati
limbički sistem.
Sad na trenutak razmislite
da je najbezbednija i jedina
razborita i preporučena,
putanja napred,
da ovu tehnologiju implementiramo
direktno u naš mozak.
Sad, ovo može biti najbezbednija i jedina
razborita putanja napred,
ali obično se bezbednost neke tehnologije
mora baš dobro razmotriti
pre nego što vam se zabode u mozak.
(Smeh)
Veći problem je što pravljenje
superinteligentne VI same od sebe
izgleda lakše
od pravljenja superinteligentne VI
i kompletiranja neuronauke
koja nam omogućava da
integrišemo naše umove sa njom.
I ako imamo to da kompanije
i vlade rade ovaj posao,
one će verovatno to shvatiti
kao da se takmiče protiv svih drugih,

Vietnamese: 
Chúng ta sẽ cảm thấy nhiều cấp bách hơn.
Một lí do khác bảo
chúng ta không nên lo lắng
là các cỗ máy này không làm gì khác
ngoài chia sẻ giá trị với chúng ta
bởi vì chúng thật sự sẽ là
những phần mở rộng của chúng ta.
Chúng sẽ được cấy vào não chúng ta,
và chúng ta về cơ bản trở thành
hệ thống cảm xúc của chúng.
Giờ hãy xem xét
rằng con đường an toàn và
đầy thận trọng duy nhất phía trước,
được đề xuất,
chính là cấy trực tiếp công nghệ này
vào não chúng ta.
Hiện giờ nó có lẽ thật sự là con đường
an toàn, thận trọng duy nhất,
nhưng thường thì mối lo lắng an toàn
của một người về công nghệ
phải được tính toán khá kĩ càng
trước khi bạn đính nó vào đầu mình.
(Cười)
Vấn đề sâu hơn là xây dựng
một AI siêu thông minh riêng lẻ
có vẻ dễ dàng hơn
là tạo ra một AI siêu thông minh
và có được ngành
khoa học thần kinh hoàn chỉnh
mà cho phép chúng ta chúng ta
tích hợp trí óc của mình và nó.
Và giả sử các công ty và
các chính phủ làm việc này
có thể sẽ nhận ra bản thân đang trong
cuộc đua chống lại loài người,

iw: 
אנחנו נרגיש קצת יותר דחיפות
ממה שאנחנו מרגישים היום.
סיבה נוספת שאומרים לנו לא לדאוג
היא שהמכונות הללו
בהכרח יחלֵקו את הערכים שלנו
כי הן יהיו, הלכה למעשה, שלוחות של עצמנו.
הן יושתלו למוחות שלנו,
ואנחנו נהפוך למעשה למערכת הלימבית שלהן.
קחו רגע נוסף בכדי לשקול
אם ההתקדמות הבטוחה והשקולה היחידה המומלצת,
היא להשתיל את הטכנולוגיה הזו
ישירות לתוך המוח שלנו.
עכשיו, זו אולי באמת הדרך
השקולה והבטוחה להתקדם,
אבל מומלץ לטפל היטב בבטיחות טכנולוגיה
לפני שתוקעים אותה לתוך הראש שלכם.
(צחוק)
הבעיה העמוקה יותר היא שבניית 
בינה מלאכותית סופר-אינטליגנטית לבדה
נראית קלה יותר
מבניית בינה מלאכותית סופר-אינטליגנטית
וגם הבנה מלאה במדעי המוח
שתאפשר לנו לשלב באופן מושלם 
אותה עם מוחנו.
ובהתחשב בכך שחברות וממשלות
שעושות את העבודה הזו
כנראה יראו את עצמן במרוץ כנגד כל האחרות,

Thai: 
เราน่าจะรู้สึกต้องรีบเร่งขึ้น
กว่าที่เราเป็นอยู่บ้าง
อีกเหตุผลหนึ่ง ที่เขาบอกเราไม่ให้กังวล
คือจักรกลพวกนี้
ยังไงก็จะมีค่านิยมเหมือนกับเรา
เพราะแท้จริงแล้วมันจะเป็น
ส่วนต่อขยายออกไปของตัวเราเอง
พวกมันจะถูกเชื่อมต่อกับสมองของเรา
หรือที่จริงคือ เรากลายเป็นสมองระบบลิมบิก
(ทำหน้าที่รับรู้อารมณ์) ของพวกมัน
ครับ มาพิจารณาสักครู่
ว่าวิถีทางเดียวที่ปลอดภัยและรอบคอบ
ที่จะใช้ต่อไปข้างหน้า
ที่ได้รับการเสนอแนะมานั้น
คือการปลูกถ่ายเทคโนโลยีนี้
เข้าสู่สมองของเราโดยตรง
ครับ จริง ๆ แล้วนี่อาจเป็นวิถีทางเดียว
ที่ปลอดภัยและรอบคอบที่จะใช้ต่อไป
แต่โดยปกติ ความกังวลเรื่อง
ความปลอดภัยของเทคโนโลยี
จะต้องได้รับการคลี่คลายให้ได้ไม่มากก็น้อย
ก่อนที่จะเอามันไปติดเข้าไปในหัวของเรา
(เสียงหัวเราะ)
ปัญหาที่ลึกลํ้ากว่าก็คือการสร้าง
ปัญญาประดิษฐ์อัจฉริยะขึ้นมา โดยตัวมันเอง
ดูน่าจะง่ายกว่า
การสร้างปัญญาประดิษฐ์อัจฉริยะ
โดยมีประสาทวิทยาศาสตร์ที่สมบูรณ์แบบ
ที่ทำให้เราหลอมรวมปัญญาความคิดของเรา 
เข้ากับมันได้อย่างแนบเนียน
และถ้าคิดถึงว่า บริษัทและรัฐบาลทั้งหลาย
ที่กำลังทำงานนี้อยู่
น่าจะรู้ดีว่าพวกเขานั้นกำลังแข่งขันกันอยู่

Chinese: 
我們會比我們現在稍微感到緊迫。
另一個我們被告知不用擔心的原因
是這些機器不得不和我們
有一樣的價值觀，
因為他們實際上只是我們的延伸。
它們會被植入我們的大腦裡，
而我們基本上變成
他們大腦的邊緣系統。
現在用一點時間想想
這最安全而且唯一謹慎的往前的路，
被推薦的，
是將這個科技植入我們的腦內。
這也許的確是最安全
而且唯一謹慎的往前的路，
但通常科技的安全性問題
應該在把東西插到你腦袋裡之前
就該大部分解決了。
（笑聲）
更深層的問題是，
打造超級人工智能本身，
似乎相對容易於
打造超級人工智慧
並擁有完整的神經科學，
讓我們可以把我們的心智
無縫與之整合。
而假設正在從事人工智能
研發的許多公司和政府，
很可能察覺他們
正在和所有其他人競爭，

Dutch: 
We zouden een beetje 
meer urgentie voelen dan we nu doen.
Waarom we ons ook
geen zorgen zouden hoeven maken,
is dat deze machines sowieso 
onze waarden delen,
omdat ze letterlijk uitbreidingen 
van onszelf zullen zijn.
Ze zullen worden geënt op onze hersenen,
en wij zullen in wezen 
hun limbisch systeem worden.
Overweeg even
dat de veiligste 
en enige verstandige weg vooruit,
de aanbevolen weg,
is om deze technologie 
direct in onze hersenen te implanteren.
Dit kan in feite de veiligste 
en enige voorzichtige weg vooruit zijn,
maar meestal moet iemand zich toch
volkomen veilig voelen bij een technologie
voordat hij ze in zijn hoofd steekt.
(Gelach)
Het dieperliggende probleem is dat 
superintelligente AI op zich bouwen
waarschijnlijk gemakkelijker lijkt
dan superintelligente AI bouwen
én de neurowetenschappen voltooien
die ons toelaten onze geest 
er naadloos mee te integreren.
Gezien het feit dat de bedrijven 
en overheden die dit werk doen
waarschijnlijk denken 
met een race bezig te zijn,

Portuguese: 
Sentiríamos mais urgência
do que o habitual.
Outro motivo que nos dão
para não nos preocuparmos
é que estas máquinas 
vão partilhar os nossos valores
pois serão literalmente
extensões de nós próprios.
Serão implantadas no nosso cérebro,
e seremos os seus sistemas límbicos.
Parem um momento para considerar
que o caminho mais prudente e seguro,
o caminho recomendado,
é implantar esta tecnologia
diretamente no nosso cérebro.
Isso poderá de facto ser
o caminho mais prudente e seguro,
mas normalmente as questões
de segurança de uma tecnologia
devem estar bem trabalhadas
antes de serem enfiadas na nossa cabeça.
(Risos)
O maior problema é que
construir IA superinteligente, por si só,
parece ser mais fácil
do que construir IA superinteligente
e ter a neurociência completa
que nos permita integrar facilmente
as nossas mentes com isso.
Sabendo que as companhias
e os governos que fazem este trabalho
provavelmente se consideram 
numa corrida contra todos os outros,

Persian: 
لازم است که کمی بیشتر در این باره 
احساس ضرورت کنیم.
دلیل دیگری که به ما می‌گویند نگران نباشید
این است که این ماشین‌ها راهی جز 
سهیم شدن در ارزشهای ما ندارند
چون که آنها به معنای واقعی کلمه، 
ما را بسط می‌دهند.
آنها به مغزهای ما پیوند زده می‌شوند
و ما در اصل دستگاه‌های کناره‌ای
(Limbic system) آنها خواهیم شد.
الان لحظه‌ای به این فکر کنید
که ایمن‌ترین و تنها مسیر محتاط رو به جلوی
توصیه شده
تعبیه مستقیم این فناوری در مغزهای ما باشد.
اکنون، شاید این ایمن‌ترین و 
تنها مسیر محتاط رو به جلوست،
اما معمولا دغدغه‌های ایمنی 
یک نفر درباره فناوری
باید حسابی مورد بررسی قرار گرفته باشد 
پیش از این بخواهید که آن را تو کله‌ خود فرو کنید.
(خنده)
مشکل عمیق‌تر این است 
که ساختن هوش مصنوعی ابرهوشمند مستقل
به نظر آسانتر از ساختن
هوش مصنوعی ابرهوشمند
و داشتن علم عصب شناسی کاملی میاید
که به ما اجازه یکپارچه کردن بی‌درز
ذهن‌های خویش با آن را می‌دهد.
و با فرض این که کمپانی‌ها 
و دولت‌هایی این کار را می‌کنند
محتمل به پی بردن به موجودیت خود 
در این مسابقه علیه دیگران هستند،

Turkish: 
Normalden biraz daha fazla
aciliyet hissederdik.
Endişelenmememiz söylenen
bir diğer gerekçe ise
bu makinelerin istemeden bizim
değerlerimizi paylaşacak
olmaları, çünkü
bizim devamımız gibi olacaklar.
Beyinlerimize aşılanacaklar
ve temelde onların limbik
sistemi olacağız.
Şimdi bir dakikanızı ayırın ve
önümüzdeki en sağlam ve ihtiyatlı yolun,
önerilenin, bu teknolojiyi
direkt olarak beyinlerimize
yerleştirmek olduğunu değerlendirin.
Belki de bu, önümüzdeki en güvenli
ve özenli yol olabilir
ama genelde kişinin teknoloji hakkındaki 
güvenlik endişelerinin
kafasının içine bir şey yerleştirmeden
çözülmesi gerekir.
(Kahkahalar)
Daha derindeki problem ise süper zeki
YZ geliştirmek başlı başına
daha kolay gibi görünüyor,
sorunsuzca zihinlerimizle entegre
olabilen tamamlanmış sinirbilimli
bir yapay zekâ geliştirmektense.
Ve farz edelim ki devletlerin ve 
şirketlerin bunu yapıyorken
birbirleriyle yarış
içerisindeymişçe algılamaları

Catalan: 
Segurament sentiríem
una mica més de pressió que ara.
Una altra raó que donen
per no preocupar-nos
és que les màquines només podran
compartir els nostres valors
perquè seran literalment
extensions de nosaltres.
Seran uns empelts
en els nostres cervells,
i esdevindrem els seus sistemes límbics.
Considereu per un moment
que la forma més segura
i més prudent de seguir avançant,
la forma més recomanada,
és implantar-los en els nostres
cervells directament.
És possible que sigui l'única manera
segura i prudent de continuar,
tot i que normalment si una tecnologia
ens preocupa una micona
primer cal que estigui lliure d'errors
si després ens la volem enganxar al cap.
(Riures)
El problema de fons és que desenvolupar
una IA superintel·ligent per si mateixa
sembla ser més fàcil
que construir una IA superintel·ligent
i tenir alhora la neurociència llesta
per permetre'ns connectar-hi
la ment sense interrupcions.
I donat que les empreses i els governs
que estan fent aquesta feina
és probable que es considerin
en una cursa contra la resta,

Russian: 
Мы бы немножко больше суетились.
Ещё мы якобы не должны
волноваться потому,
что эти машины
не могут не разделять наши ценности,
так как будут буквально
дополнениями к нам самим.
Они будут присоединены к нашему мозгу,
и мы по сути станем
их лимбической системой.
Теперь на миг задумайтесь,
что самый безопасный и единственно
благоразумный путь,
по рекомендациям, —
имплантация этой технологии прямо в мозг.
Это действительно может быть самым
безопасным и благоразумным путём,
но обычно озабоченность
безопасностью технологии
нужно развеивать до того,
как запихивать её себе в голову.
(Смех)
Более глубокая проблема в том, что
создание сверхразумного ИИ как такового
кажется намного легче,
чем создание сверхразумного ИИ
и всех нейротехнологий,
необходимых для их бесшовной
интеграции с нашим разумом.
Учитывая, что компании и правительства,
ведущие эту работу,
могут представлять себя участниками
гонки против всех остальных

Chinese: 
我哋應該更加緊張至係
另一個我哋被告知唔使擔心嘅原因係
呢啲機器只會識得
將我哋嘅價值觀傳開
因為佢哋係我哋人類嘅附屬嘅一部分
但同時佢哋會被植入我哋嘅大腦
所以我哋會成為佢哋嘅邊緣系統
依家使啲時間諗下
最安全同唯一審慎嘅做法
而推薦嘅做法就係
直接將呢種科技植入我哋嘅大腦
呢種做法可能係最安全同唯一審慎嘅
但係喺你將佢植入你個腦之前
科技嘅安全問題需要解決
（笑聲）
更深一層嘅問題係
人工智能自己整超級人工智能
似乎比整一個可以喺神經科學上
同我哋腦部無縫接合嘅
超級人工智能簡單
考慮到從事研發人工智能嘅公司
同政府好可能會互相競爭

Spanish: 
¿No estaríamos un poco más preocupados?
Otra razón que se nos da
para no preocuparnos
es que estas máquinas no podrán
no compartir nuestros valores
porque van a ser literalmente
extensiones de nosotros mismos.
Se injertarán en nuestro cerebro,
y prácticamente seremos
su sistema límbico.
Consideren por un momento
que el camino más seguro
y prudente hacia adelante,
el recomendado,
es la implantación de esta tecnología
directamente en nuestro cerebro.
Ahora bien, esto puede ser de hecho,
la manera más segura
y prudente de avanzar,
pero por lo general, los problemas
de seguridad de una nueva tecnología
hay que resolverlos antes
de implementarla en una cabeza.
(Risas)
El mayor problema es
que construir una IA superinteligente
y autónoma parece más fácil
que diseñar una IA superinteligente
mientras se controla la neurociencia
para integrar la máquina
y la mente sin problemas.
Y dado que las empresas y
los gobiernos que trabajan sobre ello
probablemente se vean a sí mismos en
una carrera contra todos los demás,

Turkish: 
ve bu yarışı kazanmalarının da
dünyayı kazanmak sanmaları,
peşi sıra mahvetmemek şartıyla,
sonrasında hangisi en kolaysa
ilk o yapılacakmış gibi görünüyor.
Şu an ne yazık ki bu soruna bir
çözümüm yok,
çoğumuza bunu düşünmeyi önermek dışında.
Yapay Zekâ konusunda Manhattan 
Projesi gibi
bir şeye ihtiyacımız var.
Geliştirmek için değil, çünkü
kaçınılamaz bir şekilde
yapacağız bana göre,
ama silahlanma yarışından
nasıl kaçıncağımızı anlamak
ve menfaatlerimiz doğrultusunda 
inşa etmek için.
Süper zeki YZ 'nın kendi
başına değişiklikler
yapabileceğinden bahsederken,
ana koşulları doğru anlamada tek
şansımız varmış gibi görünüyor
ve o zaman dahi bunları doğru anlamanın
siyasi ve ekonomik sonuçlarını
özümsememiz gerekecektir.
Bilgi işlemenin yapay zekânın
kaynağı olduğunu kabul ettiğimiz an,
bu bazı uygun hesaplama sistemlerinin
zekânın temeli olduğunu

Ukrainian: 
тому що виграти ці перегони - 
це виграти світ,
якщо звісно його не буде знищено
наступної хвилини,
отже, здається, що те, 
що зробити найлегше,
зроблять у першу чергу.
На жаль, у мене немає 
розв'язку цієї проблеми,
окрім як порадити,
щоб більшість із нас думала про це.
Гадаю, нам потрібно, щось
на кшталт "Проекту Мангеттен"
на тему штучного інтелекту.
Не для того, щоб створити його, адже
я думаю, ми неминуче це зробимо,
а щоб зрозуміти,
як уникнути збройних перегонів
та створити його так, щоб він
відповідав нашим інтересам.
Коли ми розмовляємо про
надрозумний штучний інтелект,
що може самозмінюватися,
здається, в нас є лише один шанс
отримати правильні початкові умови,
і навіть тоді нам доведеться пережити
економічні та політичні наслідки
отримання правильних умов.
Та в той момент. коли ми визнаємо,
що оброблення інформації
є джерелом інтелекту,
що деякі відповідні обчислювальні системи
є базою інтелекту,

Modern Greek (1453-): 
εφόσον όποιος το κάνει πρώτος
θα κυριαρχήσει στον κόσμο,
με την προϋπόθεση
ότι δεν θα τον καταστρέψει αμέσως μετά,
τότε μοιάζει πιθανό
ότι θα γίνει πρώτο
οτιδήποτε γίνεται πιο εύκολα.
Δυστυχώς δεν έχω κάποια λύση
γι' αυτό το πρόβλημα,
εκτός από το να συστήσω
να το ξανασκεφτούμε οι περισσότεροι.
Νομίζω ότι χρειαζόμαστε
κάτι σαν το Πρόγραμμα Μανχάταν
προσαρμοσμένο για την τεχνητή νοημοσύνη.
Όχι για να την φτιάξουμε,
γιατί μάλλον είναι αναπόφευκτο,
αλλά να καταλάβουμε πώς να αποφύγουμε
έναν αγώνα εξοπλισμών
και να την φτιάξουμε έτσι που
να συμβαδίζει με τα συμφέροντά μας.
Όταν μιλάτε
για υπερευφυή τεχνητή νοημοσύνη
που μπορεί να τροποποιήσει τον εαυτό της,
φαίνεται ότι έχουμε μόνο μία πιθανότητα
να ορίσουμε τις σωστές προϋποθέσεις,
και ακόμη και τότε
θα χρειαστεί να απορροφήσουμε
τις οικονομικές και πολιτικές συνέπειες
της σωστής εφαρμογής.
Αλλά μόλις παραδεχθούμε
ότι η επεξεργασία πληροφοριών
είναι η πηγή της ευφυΐας,
ότι η βάση της ευφυΐας είναι
κάποιο κατάλληλο υπολογιστικό σύστημα,

iw: 
ובהתחשב שנצחון במרוץ הזה 
משמעותו לזכות בעולם,
בתנאי שלא תהרסו אותו ברגע שאחרי,
אז נראה סביר שמה שקל יותר לעשות
ייעשה קודם.
למרבה הצער, אין לי פתרון לבעיה הזו,
מלבד להמליץ שיותר מאיתנו יחשבו עליה.
אני חושב שאנחנו צריכים משהו
כמו פרויקט מנהטן
לנושא של בינה מלאכותית.
לא כדי לבנות אותה, כי לדעתי 
זה בלתי נמנע שנעשה זאת,
אלא כדי להבין איך נמנעים ממרוץ חימוש
וכדי לבנות אותה באופן שעולה 
בקנה אחד עם האינטרסים שלנו.
כשמדברים על בינה מלאכותית סופר-אינטליגנטית
שיכולה לשנות את עצמה,
נראה שיש לנו רק הזדמנות אחת
ליצור תנאי פתיחה נכונים,
ואפילו אז נצטרך לספוג
את ההשלכות הפוליטיות והכלכליות
שקשורות בכך.
אבל ברגע שנודה בכך
שעיבוד מידע הוא המקור לאינטליגנציה,
שמערכת חישובית מתאימה 
היא הבסיס לאינטליגנציה,

English: 
given that to win this race
is to win the world,
provided you don't destroy it
in the next moment,
then it seems likely
that whatever is easier to do
will get done first.
Now, unfortunately,
I don't have a solution to this problem,
apart from recommending
that more of us think about it.
I think we need something
like a Manhattan Project
on the topic of artificial intelligence.
Not to build it, because I think
we'll inevitably do that,
but to understand
how to avoid an arms race
and to build it in a way
that is aligned with our interests.
When you're talking
about superintelligent AI
that can make changes to itself,
it seems that we only have one chance
to get the initial conditions right,
and even then we will need to absorb
the economic and political
consequences of getting them right.
But the moment we admit
that information processing
is the source of intelligence,
that some appropriate computational system
is what the basis of intelligence is,

Catalan: 
i donat que guanyar la cursa
és guanyar el món,
sempre i quan no
se'l destrueixi tot seguit,
aleshores és probable que allò
que sembli més fàcil de fer
sigui el que primer es faci.
Malauradament, no tinc cap
solució a aquest problema,
apart de recomanar que
tots hauríem de pensar-hi més.
Crec que necessitem
una mena de projecte Manhattan
però per la intel·ligència artificial.
No per desenvolupar-la,
ja que és inevitable,
sinó per comprendre com podem
evitar una cursa armementística
i per desenvolupar-la de manera
que vagi de la mà dels nostres interessos.
Quan parlem d'una IA superintel·ligent
que es pot canviar a si mateixa,
sembla que només tenim una oportunitat
per crear les bones condicions inicials,
però inclús així haurem d'absorbir
les conseqüències econòmiques i polítiques
d'haver-les establert correctament.
Però en el moment que admetem
que el processat d'informació
és l'origen de la intel·ligència,
que un sistema de computació apropiat
és la base de tota intel·ligència,

Thai: 
เพราะว่าการเอาชนะการแข่งขันนี้ได้
คือการที่จะได้ครองโลก
ถ้าคุณไม่ทำลายมันในวินาทีต่อมาไปซะก่อน
มันก็ดูน่าจะเป็นไปได้ว่า
อะไรก็ตามที่ทำได้ง่ายกว่า
ก็จะถูกทำเป็นอันดับแรก
ครับ โชคไม่ดี ผมไม่มีวิธีแก้ปัญหานี้
นอกเหนือจากการแนะนำ
ให้พวกเรานี้คิดถึงมันมากขึ้นกว่านี้
ผมว่าเราต้องการอะไร
คล้ายๆ โครงการแมนฮัตตัน
ในหัวเรื่องปัญญาประดิษฐ์นี้
ไม่ใช่เพื่อจะสร้างมัน เพราะผมว่า
มันต้องเกิดแน่ เลี่ยงไม่ได้อยู่แล้ว
แต่เพื่อให้เข้าใจถึงวิธีที่จะหลีกเลี่ยง
การแข่งขันกันสะสมอาวุธ
และสร้างมันขึ้นมา ในแบบที่
สอดคล้องกับผลประโยชน์ของเรา
เมื่อเราพูดกันถึงปัญญาประดิษฐ์อัจฉริยะ
ที่สามารถเปลี่ยนแปลงตัวมันได้เอง
ก็ดูเหมือนว่า เรามีเพียงโอกาสเดียว
ที่จะทำให้สภาพการณ์เริ่มแรกนั้นถูกต้อง
และถึงกระนั้น เราก็จำเป็นจะต้องซึมซับ
ผลสืบเนื่องทางการเมืองและเศรษฐกิจ
ของการที่ต้องทำให้มันถูกต้อง
แต่ ณ วินาทีที่เรายอมรับ
ว่าการประมวลข้อมูล
เป็นแหล่งที่มาของความชาญฉลาด
ว่าระบบคอมพิวเตอร์ที่เหมาะสมบางอย่างนั้น
คือสิ่งที่เป็นพื้นฐานของความชาญฉลาด

Portuguese: 
dado que vencer essa corrida é
conquistar o mundo,
supondo que você não o destrua
no momento seguinte,
então parece que o que for
mais fácil de se fazer
será feito primeiro.
Infelizmente, eu não tenho
a solução para esse problema,
a não ser recomendar
que outros pensem sobre isso.
Acho que precisamos de algo
como o Projeto Manhattan
na área de inteligência artificial.
Não para construir uma IA,
porque vamos inevitavelmente fazer isso,
mas para entender como evitar
uma corrida armamentista
e construir uma IA que esteja
alinhada aos nossos interesses.
Quando se fala de uma IA superinteligente
que pode modificar a si mesma,
parece que temos apenas uma chance
para acertar as condições primárias
e, mesmo assim, teremos que assimilar
as consequências econômicas
e políticas desse acerto.
Mas no momento em que admitirmos
que o processamento de informação
é a fonte da inteligência,
que um sistema computacional apropriado
é a base do que é a inteligência,

Chinese: 
考慮到要贏呢場比賽就要贏成個世界
同埋先假設如果你下一刻
唔會糟塌人工智能嘅成果
咁樣，似乎更加簡單嘅事會完成咗先
但唔好彩嘅係
我除咗叫大家反思呢個問題
我就再冇辦法解決呢個問題
我覺得我哋喺人工智能方面
需要好似「曼哈頓計劃」咁嘅計劃
唔係講點樣整人工智能
因為我認為人工智能終有一日會整到
而係搞清楚點樣避免一場軍備競賽
同埋往符合我哋利益嘅方向
發展人工智能
當你講緊可以自我改造嘅超級人工智能
我哋似乎只有一個機會
令到人工智能發展得安全
就算發展得安全
我哋都要接受
人工智能對經濟同政治產生嘅結果
但係當我哋同意
訊息處理係智能嘅起步點
同意一啲適當嘅計算系統係智能嘅基礎

Japanese: 
勝者が全世界を
手に入れられるのだとすれば—
次の瞬間に破滅させて
いたら別ですが—
そのような状況においては
何にせよ簡単な方が
先に成し遂げられることでしょう
あいにく 私はこの問題への答えを
持ち合わせてはおらず
ただもっと考えてみるように
お勧めするだけです
人工知能のための
「マンハッタン計画」のようなものが
必要なのでは
ないかと思います
作るためではありません
それは不可避でしょうから
軍拡競争のようになるのを
いかに避けられるか探り
人類の利益にかなうように
それが作られるようにするためです
超知的AIが
自身を変えていけることを
考えると
それを正しく作れるチャンスは
１度しかないでしょう
しかもその上で
それを正しくやるための
政治的・経済的な帰結を
受け入れる必要があります
知性の源は情報処理だと—
知性の基礎をなしているのは
ある種の計算システムである
ということを認め

Croatian: 
uzevši kako je osvojiti ovu utrku
isto što i osvojiti svijet,
pod pretpostavkom kako ga
nećete uništiti u slijedećem trenutku,
onda se čini vjerojatnim
kako će što god je lakše učiniti
biti učinjeno prvo.
Sad, na nesreću,
nemam rješenje za ovaj problem,
osim preporučiti kako bi više nas
trebalo razmišljati o njemu.
Mislim kako trebamo nešto
poput Manhattan Projecta
po pitanju umjetne inteligencije.
Ne kako bismo je stvorili, jer
ćemo to neizbježno napraviti,
već kako bismo razumjeli
kako izbjeći utrku u naoružanju
te kako ju sagraditi na način
koji se podudara s našim interesima.
Kad pričate o 
superinteligentnoj AI
koja može raditi preinake sebi samoj,
čini se kako imamo samo jednu priliku
za posložiti ispravne početne uvjete,
a čak i tada ćemo trebati upiti
ekonomske i političke 
posljedice slaganja takvih uvjeta.
Ali trenutak u kojem priznamo
kako je obrada informacija
izvor inteligencije,
kako je neki prikladan račualni sustav
ono na čemu se inteligencija temelji,

Arabic: 
وبافتراض أن الفوز في هذا السباق
هو الفوز بالعالم،
بفرض أنك لن تدمره في الشهر التالي،
فبالتالي يبدو على الأرجح أنه مهما يكن
الأسهل فعله
سيتم الانتهاء منه أولاً.
الآن، لسوء الحظ، لا أمتلك حلاً لهذه
المشكلة،
بمعزل عن توصية أن يفكِّر المزيد مننا به.
أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن"
لموضوع الذكاء الاصطناعي.
ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً،
ولكن لفهم كيفية تجنب سباق الأذرع
ولبنائه بطريقة منحازة مع اهتماماتنا.
عندما تتحدث عن ذكاء اصطناعي فائق
الذكاء
يمكنه إحداث تغيير لنفسه،
يبدو أن لدينا فرصة واحدة للقيام بالشروط 
الابتدائية بشكل صحيح،
وحتى حينها سنكون بحاجة امتصاص
العواقب الاقتصادية والسياسية من القيام
بها بشكل صحيح.
ولكن في اللحظة التي نعترف فيها
أن معالجة المعلومات هي مصدر الذكاء،
وأن بعض أنظمة الحاسوب الملائمة
تُعبِّر عن أساس الذكاء،

Russian: 
и для них выиграть гонку
значит выиграть весь мир,
учитывая, что вы не уничтожите его
через секунду,
тогда вероятным кажется,
что самое простое
будет сделано в первую очередь.
К сожалению, у меня нет решения
этой проблемы,
кроме рекомендации, чтобы больше людей
задумывались о ней.
Я думаю, нам нужно что-то вроде
проекта «Манхэттен»
в области искусственного интеллекта.
Не чтобы его создать —
я думаю, это неизбежно случится, —
а чтобы понять, как избежать
гонки вооружений
и создать его так,
чтобы это совпало с нашими интересами.
Когда говоришь о сверхразумном ИИ,
который может менять себя сам,
кажется, что есть только одна попытка
для создания правильных начальных условий,
и даже тогда нам нужно совладать
с экономико-политическими 
последствиями их правильного создания.
Но как только мы признаем,
что источник интеллекта —
обработка информации,
что интеллект основан на некой
подходящей вычислительной системе,

Portuguese: 
sendo que ganhar esta corrida,
é ganhar o mundo,
desde que não o destruam
logo a seguir,
então é evidente que
o que for mais fácil
será o primeiro a ser feito.
Infelizmente, não tenho
a solução para este problema,
apenas posso recomendar
que pensemos mais nisto.
Acho que precisamos de algo
como o Projeto Manhattan
no tópico da inteligência artificial.
Não para a construir —acho
que o faremos inevitavelmente —
mas para compreender
como evitar uma corrida ao armamento
e para a construir de forma
a estar alinhada com os nossos interesses.
Quando falamos na IA superinteligente
que pode alterar-se a si mesma,
parece que só temos uma hipótese
para conseguir
as condições iniciais corretas,
e mesmo assim precisaremos de absorver
as consequências económicas e politicas
para conseguir tal.
Mas a partir do momento em que admitirmos
que o processamento de informação
é a fonte de inteligência,
que algum sistema informático apropriado
é a base de inteligência,

Chinese: 
假設贏了這個競爭就是贏得世界，
假設你在下一刻不會毀了世界，
那麼很可能比較容易做的事
就會先被做完。
現在，很不幸地，
我沒有這個問題的解決方法，
除了建議我們更多人思考這個問題。
我想我們需要類似曼哈頓計畫的東西，
針對人工智能這個課題。
不是因為我們不可避免地
要這麼做而做，
而是試著理解如何避免軍備競賽，
而且用一種符合
我們利益的方式打造之。
當你在談論能夠對其本身
造成改變的超級人工智能，
這似乎說明我們只有一次機會
把初始條件做對，
而且我們會必須承受
為了將它們做對的經濟和政治後果。
但一旦我們承認
資訊處理是智能的源頭，
某些適當的電腦系統是智能的基礎，

Hungarian: 
mondván, hogy a verseny győzelme 
egyben a világ feletti győzelem is,
hacsak nem rombolják le 
a következő pillanatban,
akkor valószínűleg a könnyebb megoldás
fog előbb megvalósulni.
Nos, sajnos a problémára 
nem tudom a megoldást.
Csak javasolni tudom, hogy minél 
többen gondolkodjunk el ezen.
Úgy vélem, szükségünk lenne
a mesterséges intelligencia
Manhattan-projektjére.
Nem a megépítéséhez, mert azt hiszem,
ez elkerülhetetlen,
hanem hogy megértsük, hogyan kerüljük el 
a fegyverkezési versenyt,
és hozzuk létre úgy, hogy összhangban
legyen az érdekeinkkel.
Ha szuperintelligens MI-ról beszélünk,
amely önmaga megváltoztatására is képes,
akkor egyetlen esélyünk van a kezdeti 
feltételek helyes meghatározására,
és még akkor is szükség lesz az ezzel járó
gazdasági és politikai 
következmények elfogadására.
És amint elfogadjuk,
hogy az intelligencia forrása az
információ feldolgozásában rejlik,
és hogy az intelligencia alapja
egy megfelelő számítógépes rendszer,

Swedish: 
givet att genom att vinna kapplöpningen
vinner man världen,
förutsatt att de inte
förstör den i nästa steg,
då verkar det troligt att
allt som är enklare att göra
kommer att göras först.
Tyvärr har jag ingen lösning
på det här problemet,
mer än att fler av oss
måste fundera på det.
Jag tror vi behöver ett Manhattan-projekt
på temat artificiell intelligens.
Inte för att bygga den,
det tror jag oundvikligen vi gör,
men för att förstå hur vi ska
undvika en kapprustning
och för att utveckla den i linje
med våra egna intressen.
När man pratar om superintelligent AI
som kan förändra sig själv,
verkar det som att vi bara har
en chans att få det rätt från början,
och även då måste vi sätta oss in i
och lösa de ekonomiska och
politiska konsekvenserna.
Men i den stund vi tillstår
att informationsbearbetning
är källan till intelligens,
att något datorstyrt beräkningsprogram
är basen för intelligens,

Dutch: 
en omdat deze race winnen 
neerkomt op de wereld winnen,
gesteld dat je hem niet direct vernietigt,
dan lijkt het waarschijnlijk 
dat alles wat gemakkelijker is,
voorrang zal krijgen.
Ik heb helaas geen andere oplossing 
voor dit probleem
dan de aanbeveling dat we er 
over moeten gaan nadenken.
Ik denk aan iets als een Manhattan Project
over kunstmatige intelligentie.
Niet om het te bouwen, 
want dat gaan we sowieso doen,
maar om te begrijpen 
hoe een wapenwedloop te voorkomen
en het zo te bouwen 
dat het onze belangen dient.
Als je over superintelligente AI praat
die zichzelf kan aanpassen,
lijkt het erop dat we 
maar één kans hebben
om de beginvoorwaarden goed te krijgen
en zelfs dan zullen we moeten leren omgaan
met de economische en politieke 
gevolgen van die goede beginvoorwaarden.
Maar zodra we toegeven
dat informatieverwerking 
de bron van intelligentie is,
dat een geschikt computersysteem 
aan de basis van intelligentie ligt,

Georgian: 
და რომ ამ შეჯიბრის მოგება,
მსოფლიოს მოგებას ნიშნავს,
თუ მეორე წამს ამ მსოფლიოს
არ გაანადგურებენ,
მაშინ სავარაუდოა,
რომ პირველ რიგში იმას გააკეთებენ,
რისი გაკეთებაც ყველაზე მარტივია.
სამწუხაროდ მე არ მაქვს
ამ პრობლემაზე პასუხი,
გარდა რჩევისა, რომ უფრო მეტმა ჩვენგანმა
იფიქროს ამაზე.
ვფიქრობ, რაღაც "მანჰეტენის პროექტის"
მაგვარი გვჭირდება
ხელოვნური ინტელექტის მიმართულებით.
არა იმისთვის, რომ ის შევქმნათ,
რადგან ვფიქრობ ეს გარდაუვლად მოხდება,
არამედ, რომ გავარკვიოთ, 
თუ როგორ ავიცილოთ თავიდან სამხედრო შეჯიბრი
და შევქმნათ ეს მანქანა ისე,
რომ ის თანხვედრაში იყოს, ჩვენ ინტერესთან.
როცა ვლაპარაკობთ ზეგონიერ
ხელოვნურ ინტელექტზე,
რომელსაც საკუთარი თავის შეცვლა შეუძლია,
მგონია, რომ ერთი შანსი გვაქვს,
სწორ საწყის პირობებს მივაგნით
და ამ შემთხვევაშიც დაგვჭირდება,
რომ ამის პოლიტიკური და ეკონომიკური
შედეგები გადავხარშოთ.
თუმცა, როგორც კი ვაღიარებთ,
რომ ინტელექტის წყარო
ინფორმაციის დამუშავებაა,
რომ რაღაც შესაბამისი გამოთვლითი სისტემა
წარმოდაგენს ინტელექტის ბაზისს,

Italian: 
e dato che vincere questa gara
equivale a dominare il mondo,
sempre che non venga distrutto
subito dopo,
è probabile che verrà intrapresa
la strada più facile.
Purtroppo non ho soluzione
a questo problema,
a parte raccomandare
che più persone ci pensino.
Credo che ci servirebbe una specie
di Progetto Manhattan
sull'intelligenza artificiale.
Non per costruirla, perché penso
che ci arriveremo comunque,
ma per capire come evitare
una corsa alle armi
e per svilupparla in modo che sia in linea
con i nostri interessi.
Quando si parla di una IA
super intelligente
che possa migliorarsi da sola,
la nostra unica opzione è quella
di darle le giuste impostazioni iniziali,
e anche allora dovremo comprendere
quali saranno le conseguenze
economiche e politiche.
Ma se ammettiamo che
l'elaborazione delle informazioni
è la fonte dell'intelligenza,
che un sistema computazionale idoneo
è alla base dell'intelligenza,

Spanish: 
y tomando en cuenta que ganar
esta carrera es ganar el mundo,
siempre y cuando no lo destruyan
en el momento siguiente,
entonces parece probable
que lo más fácil de hacer
se hará primero.
Ahora, por desgracia, no tengo
una solución a este problema,
además de recomendarles
que piensen más sobre ello.
Creo que necesitamos
un Proyecto Manhattan
sobre el tema de la
inteligencia artificial.
No para construirlo, porque
creo que eso es inevitable,
sino para entender cómo evitar
una carrera armamentística
y construirla de manera que
concuerde con nuestros intereses.
Cuando hablamos de IA superinteligente
que puede modificarse a sí misma,
solo tenemos una oportunidad de fijar
las condiciones iniciales correctas,
e incluso entonces necesitaremos gestionar
las consecuencias económicas
y políticas de dicho diseño.
Pero en el momento en que admitamos
que el procesamiento de la información
es la fuente de la inteligencia,
que algún sistema computacional
adecuado es la base de la inteligencia,

Slovak: 
pretože vyhrať tento závod
znamená dobyť svet,
za predpokladu, že ho hneď
vzápätí nezničíte,
tak potom je pravdepodobné,
že to, čo bude jednoduchšie,
sa urobí ako prvé.
Bohužiaľ, teraz nemám riešenie
tohto problému,
okrem odporúčania, že by sme o tom
mali viac premýšľať.
Myslím, že je nutné niečo ako
"Manhattan Projekt"
na tému umelej inteligencie.
Nie ako ju vytvoriť, pretože si
myslím, že to nevyhnutne
nastane, ale v pochopení ako sa
vyhnúť závodom v zbrojení
a ako ju vytvoriť spôsobom, ktorý je
v súlade s našimi záujmami.
Keď hovoríme o super inteligentnej AI,
ktorá dokáže meniť samu seba,
tak sa zdá, že máme len jednu šancu, ako
nastaviť východiskové podmienky správne,
a aj vtedy budeme musieť tlmiť
ekonomické a politické následky.
Ale vo chvíli, keď pripustíme,
že spracovanie informácií
je zdrojom inteligencie,
že nejaký vhodný počítačový systém
je to, čo môže byť základom inteligencie,

Korean: 
이 경쟁에서 이기는 것이 세상을 
이기는 것이라고 한다면요.
그것을 바로 파괴하지 않는다면
가장 쉬운 일을 가장 먼저 
할 가능성이 있을 겁니다.
안타깝게도 저는 이 문제에 
대한 해법은 없습니다.
좀 더 생각해 보자고 
하는 것 빼고는요.
맨하탄 프로젝트 같은 것이 있어서
AI에 대한 연구를 해야
되지 않을까 싶습니다.
만들기 위해서가 아니라, 
필연적으로 하게 될테니까
군비경쟁을 피할 방법을 알고
우리의 관심과 맞출 수 
있는 방법을 찾기 위해서죠.
스스로 변할 수 있는 
초지능 AI를 말할 때는
첫 출발을 제대로 할 수 있는 
기회는 단 한 번뿐인 것 같습니다.
그때도 우리는
제대로 하기 위한 정치 경제적 
결과를 감내해야 할 겁니다.
하지만 우리가 인정하는 순간
정보처리가 지능의 원천이고
적정 연산 체계가 지능의 
기본이라고 하는 순간

Romanian: 
și câștigarea cursei
înseamnă câștigarea lumii,
dacă nu o distrugem în clipa următoare,
pare probabil că ce e mai ușor de făcut
va fi făcut mai întâi.
Din păcate, nu am o soluție
la această problemă,
alta decât să vă recomand
să vă gândiți la asta.
Cred că ne trebuie
un fel de Manhattan Project
pe subiectul IA.
Nu s-o construim, deoarece
cred că inevitabil o vom face,
ci să înțelegem
cum să evităm cursa înarmărilor
și să o construim într-un fel
corespunzător valorilor noastre.
Când vorbiți despre IA superinteligentă,
care se poate schimba pe sine,
se pare că avem doar o șansă
să alegem condițiile inițiale corecte
și chiar și atunci va trebui să absorbim
consecințele economice și politice
ale alegerii corecte.
Dar momentul în care admitem
că procesarea informației
e sursa inteligenței,
că un sistem computațional adecvat
e baza inteligenței,

Czech: 
protože vyhrát tenhle závod
znamená dobýt svět ‒
tedy za předpokladu,
že ho hned nato nezničíte ‒
tak se dá čekat, že jako první se
udělá to, co bude nejjednodušší.
Já bohužel nevidím
pro tento problém žádné řešení,
kromě doporučení,
abychom o tom více přemýšleli.
Myslím, že potřebujeme
něco jako projekt Manhattan
na téma umělé inteligence.
Ne kvůli jejímu vytvoření,
protože to nevyhnutelně nastane,
ale abychom přišli na to,
jak se vyhnout závodům ve zbrojení
a jak ji vytvořit způsobem,
který vyhoví našim zájmům.
Když se bavíme o superinteligentní AI,
která se dokáže sama měnit,
vypadá to, že máme jen jednu šanci,
jak správně nastavit výchozí podmínky,
i když budeme muset tlumit
ekonomické a politické důsledky
takto nastavených podmínek.
Nicméně ve chvíli, kdy si přiznáme,
že inteligence pramení
ze zpracování informací,
že vhodně navržený počítačový systém
je podstatou inteligence,

Chinese: 
因为赢得了比赛就意味着称霸了世界，
前提是不在刚成功后就将其销毁，
所以结论是：简单的选项
一定会被先实现。
但很遗憾，
除了建议更多人去思考这个问题，
我对此并无解决方案。
我觉得在人工智能问题上，
我们需要一个“曼哈顿计划”
（二战核武器研究计划），
不是用于讨论如何制造人工智能，
因为我们一定会这么做，
而是去避免军备竞赛，
最终以一种有利于
我们的方式去打造它。
当你在谈论一个可以自我改造的
超级人工智能时，
我们似乎只有
一次正确搭建初始系统的机会，
而这个正确的初始系统
需要我们在经济以及政治上
做出很大的努力。
但是当我们承认
信息处理是智慧的源头，
承认一些电脑系统是智能的基础，

Persian: 
با این فرض که بردن این مسابقه
به معنی بردن جهان است،
به شرطی که در لحظه بعدی آن را نابود نکنید،
که احتمال وقوع هر چیزی که آسانتر باشد
اول از همه می‌رود.
شوربختانه الان راه‌حلی
برای این مشکل ندارم
بجز توصیه‌ام برای بیشتر فکردن کردن 
درباره آن.
فکر می‌کنم بیشتر به چیزی مثل 
پروژه منهتن در موضوع
هوش مصنوعی نیاز داریم.
نه درباره ساختن آن، چون به نظرم 
بالاخره این کار را خواهیم کرد،
بلکه درک نحوه اجتناب
از یک مسابقه تسلیحاتی
و ساخت آن به نحوی که 
هم راستا با منافع ما باشد.
زمانی که راجع به هوش مصنوعی
ابرهوشمند صحبت می‌کنید
که قادر به انجام تغییرات در خویش است،
به نظر میاید که ما تنها از یک شانس برای
رسیدن به شرایط آغازین صحیح برخورداریم
و حتی بعد لازم است به جذب
پیامدهای سیاسی و اقتصادی
درست بودن آنها بپردازیم.
اما لحظه‌ای که می‌پذیریم
پردازش اطلاعات منبع هوشمندی است،
که یک نظام محاسباتی مناسب
مبنای هوشمندی است،

Serbian: 
jer pobediti u ovoj trci
znači osvojiti svet,
uz uslov da ga sledećeg 
trenutka ne uništite,
a onda će verovatno prvo biti urađeno
ono što je najlakše.
E, sad, nažalost,
ja nemam rešenje za ovaj problem,
osim toga da preporučim
da više nas promisli o tome.
Smatram da nam je potrebno
nešto poput Projekta Menhetn
na temu veštačke inteligencije.
Ne da bismo je izgradili, jer mislim
da je to neizbežno,
već da razumemo
kako da izbegnemo trku naoružanja
i da je napravimo na način
koji je u skladu sa našim interesima.
Kada se razgovara o superinteligentnoj VI
koja sama sebe može da menja,
čini se da imamo samo jednu šansu
da početne uslove postavimo kako treba,
a čak i onda ćemo morati da prihvatimo
ekonomske i političke
posledice pravilne upotrebe.
Ali trenutak kada priznamo
da je obrada informacija
izvor inteligencije,
da je neki odgovarajući računarski sistem
osnova onoga što je inteligencija,

Vietnamese: 
giả sử rằng thắng cuộc đua này
là có cả thế giới,
miễn là bạn không hủy diệt nó
vào thời điểm kế tiếp,
thì nó có vẻ như là bất kể cái gì dễ hơn
sẽ được hoàn thành trước.
Bây giờ, đáng tiếc là tôi không có
giải pháp cho vấn đề này,
ngoại trừ đề nghị chúng ta
cần nghĩ về nó nhiều hơn.
Tôi nghĩ chúng ta cần thứ gì đó
như Manhattan Project
trong chủ đề về trí thông minh nhân tạo.
Không vì để tạo ra nó, bởi tôi nghĩ
chúng ta chắc chắn sẽ làm được,
mà để hiểu cách ngăn ngừa
cuộc chạy đua vũ trang
và xây dựng nó theo cách phù hợp
với lợi ích của chúng ta.
Khi chúng ta nói về AI siêu thông minh
có thể tự thay đổi,
có vẻ như chúng ta chỉ có một cơ hội
để làm những điều kiện ban đầu đúng đắn,
và thậm chí sau đó chúng ta
sẽ cần phải ta hứng chịu
những hậu quả kinh tế chính trị
khi làm nó đúng đắn.
Nhưng khoảnh khác ta thừa nhận
rằng xử lí thông tin là
nguồn gốc của trí thông minh,
rằng một số hệ thống tính toán phù hợp
là nền tảng cho trí thông minh

French: 
et, puisque remporter cette course 
revient à conquérir le monde,
pourvu que vous
ne le détruisiez pas juste après,
il semble probable que l'on commence
par le plus facile.
Malheureusement,
je n'ai pas la solution de ce problème,
à part recommander que
nous soyons plus nombreux à y réfléchir.
Il nous faudrait une sorte 
de Projet Manhattan
à propos de l'intelligence artificielle.
Pas pour la concevoir, 
car nous y parviendrons,
mais pour réfléchir à comment 
éviter une course aux armements
et pour la concevoir d'une façon 
en accord avec nos intérêts.
Quand vous parlez
d'une IA super intelligente
qui pourrait se modifier elle-même,
il semblerait que nous n'ayons qu'une
seule chance de faire les choses bien
et encore, il nous faudra gérer
les conséquences 
politiques et économiques.
Mais à partir du moment où nous admettons
que le traitement de l'information 
est la source de l'intelligence,
qu'un système de calcul
est la base de l'intelligence,

Spanish: 
y admitamos que los vamos
a mejorar de forma continua,
y admitamos que el horizonte
del conocimiento supera por mucho
lo que actualmente conocemos,
entonces tenemos que admitir
que estamos en el proceso de
construir una especie de dios.
Ahora sería un buen momento
para asegurarse de que sea
un dios con el que podamos vivir.
Muchas gracias.
(Aplausos)

Portuguese: 
e admitirmos que continuaremos
a aprimorar esse sistema,
e que o horizonte do conhecimento
provavelmente ultrapassa
tudo o que sabemos agora,
então teremos que admitir
que estamos no processo de criação
de algum tipo de deus.
Agora seria um ótimo momento
de ter a certeza
de que é um deus
com o qual podemos viver.
Muito obrigado.
(Aplausos)

Czech: 
a až přistoupíme na to, že budeme
tyto systémy neustále vylepšovat
a že horizont poznání nejspíš daleko
přesahuje vše, co v současnosti známe,
pak si musíme přiznat, že jsme uprostřed
procesu vytváření jakéhosi boha.
Teď by bylo dobré se ujistit,
že s tímto bohem budeme moci žít.
Díky moc.
(potlesk)

French: 
et que nous admettons que nous allons 
continuer d'améliorer ce type de système
et que nous admettons que l'horizon
de l'intelligence dépasse totalement
ce que nous savons aujourd'hui,
nous devons admettre
que nous sommes engagés 
dans la conception d'un pseudo-dieu.
Il nous faut donc vérifier
que c'est un dieu compatible 
avec notre survie.
Merci beaucoup.
(Applaudissements)

Swedish: 
och att vi kommer att förbättra
dessa system kontinuerligt,
och vi erkänner att
kognitionshorisonten vida överstiger
vad vi vet idag,
då måste vi också erkänna
att vi är i färd med att
skapa någon form av gud.
Nu borde vara ett bra tillfälle att
se till att det är en gud vi vill ha.
Tack så mycket.
(Applåder)

Dutch: 
en we toegeven dat we deze systemen 
onafgebroken zullen blijven verbeteren,
en dat de kennishorizon 
waarschijnlijk veel verder reikt
dan we nu weten,
dan moeten we toegeven
dat we bezig zijn een soort god te maken.
Daarom moeten we er nu voor zorgen
dat het een god is 
waarmee we kunnen leven.
Dankjewel.
(Applaus)

Turkish: 
ve bu sistemleri aralıksız
geliştireceğimizi kabul ettiğimizde
ve bilişin ufkunun bildiğimizden 
daha uzaklara uzandığını
kabul ettiğimizde,
bir çeşit yaratıcı
geliştirme sürecinde olduğumuzu
kabul etmek durumunda olacağız.
Şu an ise bu yaratıcıyla
yaşayabilme durumumuza
karar vermek için doğru zaman olabilir.
Çok teşekkürler.
(Alkışlar)

Catalan: 
i que seguirem millorant
aquests sistemes indefinidament,
i admetem que l'horitzó de la cognició
molt probablement excedeix
el que sabem fins ara,
aleshores podrem admetre
que estem en un procés
de crear una mena de déu.
Ara és el moment
d'assegurar-nos que és un déu
amb qui podem viure.
Moltes gràcies.
(Aplaudiments)
Traduït per Marcos Morales Pallarés

English: 
and we admit that we will improve
these systems continuously,
and we admit that the horizon
of cognition very likely far exceeds
what we currently know,
then we have to admit
that we are in the process
of building some sort of god.
Now would be a good time
to make sure it's a god we can live with.
Thank you very much.
(Applause)

Arabic: 
ونعترف أننا سوف نحسِّن هذه الأنظمة 
باستمرار،
ونعترف أن أفق الإدراك على الأرجح يتجاوز
الذي نعرفه حالياً بكثير،
وبالتالي علينا الاعتراف
أننا في مرحلة بناء نوع ما من الآلهة.
الآن سيكون وقتاً جيداً
للتأكد من أنه إله نستطيع العيش معه.
شكراً جزيلاً لكم.
(تصفيق)

iw: 
ונקבל שאנחנו נמשיך לשפר
את המערכות האלו ללא הפסקה,
ונקבל שככל הנראה אופק הקוגניציה רחוק בהרבה
מזה שאנו מכירים כיום,
אז עלינו לקבל
שאנחנו בתהליך של בניית אל כלשהו.
ועכשיו יהיה זמן טוב
לוודא שזה אל שנוכל לחיות איתו.
תודה רבה לכם.
(מחיאות כפיים)

Portuguese: 
e admitirmos que iremos melhorar
estes sistemas de forma contínua,
e admitirmos que o horizonte da cognição
provavelmente ultrapassa
o que conhecemos agora,
então temos de admitir
que estamos no processo
de construir uma espécie de deus.
Agora seria uma boa altura
de certificarmo-nos
que seja um deus
com quem queremos viver.
Muito obrigado.
(Aplausos)

Slovak: 
a keď pripustíme, že budeme tieto
systémy neustále zdokonaľovať,
a keď pripustíme, že horizont poznania
veľmi pravdepodobne prekročí to,
čo v súčasnosti vieme,
tak si musíme pripustiť,
že sme v procese budovania
istého druhu boha.
Teraz by bolo dobré sa uistiť,
že to bude boh, s ktorým budeme môcť žiť.
Ďakujem veľmi pekne.
(potlesk)

Italian: 
se ammettiamo che svilupperemo
continuamente tali sistemi,
e che l'orizzonte cognitivo
è di gran lunga maggiore
di ciò che sappiamo ora,
allora dobbiamo ammettere
che stiamo costruendo una sorta di dio.
Ora sarebbe il momento giusto
per assicurarci che sia un dio
con cui possiamo vivere.
Grazie mille.
(Applausi)

Thai: 
และเราก็ยอมรับว่า เราจะปรับปรุง
ระบบเหล่านี้อย่างต่อเนื่อง
และเรายอมรับว่า มันเป็นไปได้มากว่า
ขอบเขตของปัญญารู้คิดจะไกลเกินกว่า
สิ่งที่เรารู้ในปัจจุบัน
แล้วเราก็ต้องยอมรับ
ว่าเราอยู่ในกระบวนการ
ของการสร้างเทพเจ้าบางอย่างขึ้นมา
ขณะนี้ จึงน่าจะเป็นช่วงเวลาที่ดี
ที่เราจะทำให้แน่ใจว่าเทพเจ้าองค์นั้น
จะเป็นเทพที่อยู่ร่วมกับเราได้
ขอบคุณมากครับ
(เสียงปรบมือ)

Ukrainian: 
і визнаємо, що ми будемо удосконалювати
ці системи беззупинно,
а також те, що горизонт пізнання,
скоріш за все, простягається набагато далі,
ніж ми на цей час розуміємо,
тоді нам доведеться визнати,
що ми в процесі створення
своєрідного бога.
І настав час переконатися,
що з цим богом ми зможемо жити.
Дуже вам дякую.
(Оплески)

Chinese: 
同意我哋會不斷完善人工智能
同意將來有好多嘢超越我哋認知嘅
咁我哋就必須要承認
我哋正喺度創造緊某種神明
依家會係一個好時機
確保佢係可以同我哋共存嘅神明
好多謝你哋
（掌聲）

Chinese: 
而且我們承認我們會
持續改進這些系統，
而且我們承認認知的極限
有可能遠遠超越
我們目前所知，
我們就會承認
我們正在打造某種神明的過程裡。
現在是個好時機
來確保那是個我們能夠
與之共存的神明。
謝謝大家。

Persian: 
و بپذیریم که این نظامها
را در ادامه اصلاح خواهیم کرد،
و بپذیریم که افق فرایند یادگیری و شناخت
به احتمال زیاد فراتر
از دانش فعلی ما می‌رود
در ادامه باید بپذیریم
که ما در فرایند ساخت نوعی از خدا هستیم.
الان زمان خوبی است
مطمئن شویم خدایی است
که می‌توان با آن زندگی کرد.
از شما خیلی ممنونم.
(تشویق)

Croatian: 
te priznamo kako ćemo
trajno unaprijeđivati te sustave,
te priznamo kako horizont
spoznaje vrlo vjerojatno daleko premašuje
što trenutno znamo,
onda moramo priznati
kako smo u postupku
izgradnje neke vrste boga.
Sad bi bilo dobro vrijeme
osigurati da to bude bog
s kakvim možemo živjeti.
Hvala Vam puno.
(Pljesak)

Serbian: 
i prihvatimo da ćemo stalno
unapređivati ove sisteme,
i prihvatimo da će horizont
shvatanja vrlo verovatno daleko nadmašiti
ono što trenutno znamo,
onda moramo da prihvatimo
da smo u procesu
pravljenja neke vrste božanstva.
Sada bi bilo dobro vreme
da se postaramo da je to božanstvo
sa kojim bismo mogli živeti.
Hvala vam mnogo.
(Aplauz)

Chinese: 
承认我们会不断改善这些系统，
承认我们现存的认知远没有达到极限，
将很可能被超越，
我们又必须同时承认
我们在某种意义上
正在创造一个新的“上帝”。
现在正是思考人类是否
能与这个“上帝”和睦相处的最佳时机。
非常感谢！
（掌声）

Romanian: 
și admitem că vom îmbunătăți
continuu aceste sisteme
și admitem că orizontul cogniției
foarte probabil depășește
ce știm noi acum,
atunci trebuie să admitem
că suntem în procesul
de creare a unui fel de zeu.
Acum ar fi momentul potrivit
să ne asigurăm că e un zeu
cu care putem trăi.
Vă mulțumesc mult.
(Aplauze)

Modern Greek (1453-): 
και αποδεχθούμε να βελτιώνουμε
αυτά τα συστήματα συνεχώς,
και παραδεχθούμε ότι ο γνωστικός ορίζοντας
μάλλον ξεπερνά κατά πολύ
όσα ήδη γνωρίζουμε,
τότε πρέπει να παραδεχθούμε
ότι βρισκόμαστε σε διαδικασία κατασκευής
κάποιου είδους θεού.
Τώρα είναι η σωστή ώρα
να εξασφαλίσουμε ότι είναι ένας θεός
με τον οποίον μπορούμε να ζήσουμε.
Σας ευχαριστώ πολύ.
(Χειροκρότημα)

Vietnamese: 
và chúng ta thừa nhận rằng chúng ta
tiếp tục cải tiến những hệ thống này,
và chúng ta thừa nhận rằng
chân trời của nhận thức có thể rất xa
so với những gì chúng ta đang biết,
thì chúng ta phải công nhận
rằng chúng ta đang trong quá trình
tạo ra một loại thánh thần.
Bây giờ sẽ là thời điểm tốt
để chắc chắn rằng nó là thánh thần
mà chúng ta có thể sống chung
Cảm ơn các bạn rất nhiều.
(Vỗ tay)

Georgian: 
ვაღიარებთ, რომ ჩვენ უწყვეტად
გავაუმჯობესებთ ამ სისტემებს
და ვაღიარებთ, რომ გონებრივი შესაძლებლობის
ჰორიზონტი იმაზე ბევრად უფრო შორს მიდის,
ვიდრე ჩვენ დღეს წარმოგვიდგენია,
მაშინ უნდა ვაღიაროთ,
რომ ჩვენ ვართ რაღაც ტიპის
ღმერთის შექმნის პროცესში.
ახლა ის დროა, ვიზრუნოთ იმაზე,
რომ ეს ისეთი ღმერთი იყოს,
რომელთანაც შევძლებთ თანაცხოვრებას.
დიდი მადლობა.
(აპლოდისმენტები)

Korean: 
이 체계를 계속 발전시켜 
나갈 것임을 인정하는 것이며
우리가 현재 아는 인지의 한계를 훨씬 
뛰어넘게 될 것임을 인정하는 겁니다.
그럼 우리는
어떤 신적 존재를 구축하고 
있음을 인정해야 합니다.
지금이야말로 신이 우리와 함께 할 수 
있음을 확신하기 좋은 때이겠네요.
대단히 감사합니다.
(박수)

Japanese: 
人類がそういうシステムを継続的に
改良していくだろうことを認め
そして認知の地平は
我々に今分かっているよりも
はるか遠くまで
続いているであろうことを認めるとき
我々はある種の神を
作ろうとしていることを
認めないわけには
いかないでしょう
その神が一緒にやっていける相手か
確認したいなら
今がその時です
ありがとうございました
(拍手)

Russian: 
и признаем, что будем совершенствовать
эти системы непрерывно
и что предел сознания, весьма вероятно,
намного дальше,
чем мы сейчас представляем,
тогда мы должны признать,
что мы в процессе создания
своего рода бога.
Теперь самое время
убедиться, что мы сможем с ним ужиться.
Большое спасибо.
(Аплодисменты)

Hungarian: 
és elfogadjuk, hogy ezeket a rendszereket 
folyamatosan fejleszteni fogjuk,
és hogy a megismerés horizontja 
messze meghaladja
jelenlegi tudásunkat,
akkor be kell majd látnunk,
hogy valamiféle isten 
megalkotása felé haladunk.
Most van itt a pillanat,
hogy olyan istent alkossunk, 
amellyel együtt is tudunk élni.
Nagyon köszönöm.
(Taps)
