
Hungarian: 
Fordító: Csaba Lóki
Lektor: Tímea Hegyessy
Az egyik legfőbb ok, amiért a mesterséges 
intelligenciával [MI] foglalkozom,
hogy szerintem eredendően
képes megváltoztatni a világot.
Mi, tudósok, rengeteg problémát
nem tudunk magunk megoldani,
mivel egyszerűen nincs
elég agykapacitásunk
megbirkózni a komplexitásukkal.
Például a rákgyógyítás, 
az agyműködés megértése,
az energiafogyasztás csökkentése,
lelki betegségek kezelése.
Mind-mind igen összetett problémák.
Csak egy példa:
Ezen az ábrán egy Alzheimer-es
beteg agyának egy parányi részén
szerepet játszó gének láthatók.
Ez egy hihetetlenül bonyolult hálózat,
és mi, emberek, nem értjük,
hogyan függnek össze 
ezek a dolgok egymással.
Ezért segítségül hívjuk a számítógépeket.

Swedish: 
Översättare: Annika Bidner
Granskare: Lisbeth Pekkari
En av de största anledningarna till
att jag jobbar inom AI
är för att jag faktiskt tror
att det skulle kunna förändra världen.
Jag tror att det finns många problem
vi forskare inte kan lösa på egen hand,
som våra hjärnor inte är byggda för
att klara av.
Så att bota cancer,
förstå hur hjärnan fungerar,
minska energikonsumtionen,
bota psykisk sjukdom.
Allihop är komplexa problem.
För att ta ett exempel,
det här är ett diagram över alla gener
som påverkas i en liten del av hjärnan
när man har Alzheimers.
Det är ett otroligt komplext nätverk
och vi förstår inte som individer
hur alla de här sakerna
relaterar till varandra.
Vi vill att datorer ska kunna hjälpa oss.

Japanese: 
翻訳: Moe Shoji
校正: Eriko T
私が人工知能の研究をしている
最大の理由のひとつは
人工知能は真の意味で
世界を変えうると思うからです
私たち科学者が
自分では解決できない多くの問題―
とても人間の脳では
容量が足りないような
複雑な問題があります
がんの治療法を見つけたり
脳の働きを解明したり
エネルギー消費を減らしたり
精神疾患を治療したり
こうした問題は
大変複雑です
ひとつ例を挙げると
この図はアルツハイマー病を
患っている脳のごく一部に含まれる
全遺伝子の図です
これは非常に複雑なネットワークで
個人ではこれらが互いに
どう関わりあっているか
把握できません
コンピューターの助けが必要です

Italian: 
Traduttore: Patrizia C Romeo Tomasini
Revisore: Michele Gianella
Uno dei motivi principali per cui lavoro
all'Intelligenza Artificiale
è perché penso che possa
veramente cambiare il mondo.
Ci sono molti problemi che noi scienziati
non possiamo risolvere da soli,
problemi la cui complessità va molto oltre
le nostre capacità intellettive:
curare il cancro; capire
il funzionamento del cervello;
ridurre i consumi energetici;
curare le malattie mentali.
Tutti problemi, questi,
veramente complessi.
Solo per fare un esempio,
questa è la mappatura dei geni
di una piccola parte del cervello
coinvolta nella malattia di Alzheimer.
Si tratta di una rete incredibilmente
complessa, e da soli non capiamo
come tutte queste cose
siano in relazione tra loro.
Sarebbe bello se i computer
potessero aiutarci.

Chinese: 
翻译人员: Tianshu Wang
校对人员: Yolanda Zhang
我在人工智能（AI）领域工作
最重要的原因之一，
是因为我相信
它真的有改变世界的潜力。
有很多问题都不是
我们科学家能自己解决的，
因为我们的大脑不够大，
不能处理太复杂的情况。
因此，治疗癌症、
理解大脑的运作方式、
降低能耗、治疗心理疾病……
这些都是相当复杂的问题。
就看一个例子吧，
这张图上是阿茨海默症（老年痴呆）患者
大脑中一个极小的区域
所需要的全部基因。
这是一个无比复杂的的网络，
而且作为个体，我们无法理解
这些东西是怎么互相联系起来的。
如果电脑能帮忙就太好了。

Spanish: 
Traductor: Javi Garriz
Revisor: Sebastian Betti
Una de mis mayores razones
para trabajar en inteligencia artificial
es que realmente creo que tiene
el potencial de cambiar el mundo.
Hay muchos problemas que los científicos
no podemos resolver solos,
nuestros cerebros 
no tienen suficiente tamaño
para asumir su complejidad.
Curar el cáncer, entender 
el funcionamiento del cerebro,
reducir el consumo de energía,
curar las enfermedades mentales,
son todos problemas muy complejos.
Por mostrar solo un ejemplo,
este diagrama son los genes implicados
en una minúscula parte de un cerebro
con Alzheimer.
Es una red increíblemente compleja
y no entendemos, como individuos,
cómo todas estas cosas
se relacionan entre sí.
Queremos que las computadoras
sean capaces de ayudarnos.

French: 
Traducteur: eric vautier
Relecteur: Aurélie Goldblatt
La raison principale
pour laquelle je travaille dans l'IA
est que je crois qu'elle a franchement
le potentiel de changer le monde.
Il y a des problèmes que les scientifiques
ne pouvent pas résoudre seuls,
nos cerveaux n'étant pas assez gros
pour en gérer la complexité.
Soigner le cancer, comprendre le cerveau,
diminuer la consommation d'énergie,
soigner les maladies mentales.
Ce sont vraiment des problèmes complexes.
Pour prendre un seul exemple,
voici un diagramme montrant
tous les gènes impliqués
dans une petite partie du cerveau
atteint d'Alzheimer.
C'est un réseau incroyablement complexe ;
en tant qu'individu, on ne comprend pas
comment tout cela est en interaction.
Nous aimerions que les ordinateurs
puissent nous aider.

English: 
Transcriber: Ellen Maloney
Reviewer: Helene Batt
One of the biggest reasons
I work in artificial intelligence
is because I think it genuinely
has the potential to change the world.
I think there are a lot of problems
that we scientists can't solve on our own,
that our brains basically
aren't big enough
to handle the complexity of.
So curing cancer, understanding
how the brain works,
reducing energy consumption,
curing mental illness.
These are all really complex problems.
To take just one example,
this is a diagram of all the genes
involved in one tiny part of the brain
in Alzheimer's.
It's an incredibly complex network
and we don't understand, as individuals,
how all of these things
relate to one another.
We would like computers
to be able to help.

Dutch: 
Vertaald door: Rik Delaet
Nagekeken door: Christel Foncke
Een van de voornaamste redenen waarom 
ik in de kunstmatige intelligentie werk,
is omdat ze de wereld echt kan veranderen.
Een hoop problemen kunnen wetenschappers 
niet zelf oplossen,
omdat onze hersenen niet groot genoeg zijn
om de complexiteit ervan aan te kunnen.
Kanker genezen, 
begrijpen hoe de hersenen werken,
energieverbruik verminderen, 
psychische aandoeningen genezen
zijn allemaal erg complexe problemen.
Een voorbeeld:
een diagram van alle genen 
in een klein deel van de hersenen
bij Alzheimer.
Het is een ongelooflijk complex netwerk 
en wij begrijpen niet
hoe al deze dingen op elkaar inwerken.
Wij willen ons 
door computers laten helpen.

Ukrainian: 
Перекладач: Dina Bezsmertna
Утверджено: Khrystyna Romashko
Одна з причин мого вибору професії 
у сфері штучного інтелекту —
це моє переконання у тому, 
що вона має потенціал змінити світ.
Я вважаю, що існує безліч проблем, 
які нам, вченим, не під силу,
бо наш мозок недостатньо великий,
щоб осягнути їх складність.
А саме - вилікування раку, 
психічних захворювань,
розуміння роботи мозку,
зниження споживання енергії.
Це насправді складні проблеми.
Наведу один приклад,
це діаграма усіх генів, що знаходяться 
в одній крихітній частині мозку,
при хворобі Альцгеймера.
Це неймовірно складна мережа,
і ми самі не розуміємо,
як усі ті часточки взаємодіють між собою.
Було б добре, 
якби комп'ютери нам допомагали.

German: 
Übersetzung: Angelika Lueckert Leon
Lektorat: Marcel Stirner
Einer der Hauptgründe für das Arbeiten
an künstlicher Intelligenz ist,
dass ich wirklich denke, sie hat
das Potenzial, die Welt zu ändern.
Wir Wissenschaftler können
viele Probleme nicht allein lösen,
da unsere Gehirne nicht groß genug sind,
um mit deren Komplexität umzugehen.
Krebs heilen, verstehen,
wie das Gehirn arbeitet,
Energieverbrauch verringern,
psychische Krankheiten heilen;
all das sind sehr komplexe Probleme.
Um nur ein Beispiel zu nennen:
Dieses Diagramm zeigt alle Gene,
die in einem winzigen Teil des Gehirns
an Alzheimer beteiligt sind.
Es ist ein unglaublich komplexes Geflecht,
und alleine verstehen wir nicht,
wie all diese Dinge zusammenhängen.
Wir möchten, dass Computer
uns dabei helfen.

Arabic: 
المترجم: Lalla Khadija Tigha
المدقّق: Riyad Almubarak
أحد الأسباب المهمة في اشتغالي 
في مجال الذكاء الاصطناعي،
هو امتلاكه لقدرة حقيقية
على تغيير العالم.
أعتقد أن هناك العديد من المشاكل
التي لا يمكن للعلماء حلّها بأنفسهم،
وأن عقولنا ليست بالحجم الكافي
للتعامل مع تعقيداتها.
إذن فعلاج السرطان، فهم كيفية 
عمل الدماغ،
تقليل استهلاك الطاقة، علاج 
الأمراض النفسيّة.
هذه كلها مشاكل معقّدة فعلاً.
لنأخذ مثالاً واحداً،
هذا رسم بياني لكل الجينات المتداخلة
في جزء صغير جداً من الدماغ
لمصاب بمرض الزهايمر.
هذه شبكة معقدةً للغاية،
ونحن كأفراد لا نفهم
كيف ترتبط كل هذه الأشياء ببعضها البعض.
نريد أن تساعدنا الحواسيب.

Japanese: 
問題は 世界が考えているほど
人工知能の研究が
進歩してはいないことです
最近の見出しは
「深層学習」で持ちきりです
「科学者らが深層学習プログラムに
期待している」
「深層学習によって
超知的ロボットの誕生も近い」
多くの人はそう考えていますが
私にはそうも思えません
（笑）
覚えておくべきことは
知性は一様ではないということです
知性には様々な事柄が
関わっています
知覚、常識、計画性、
類推、言語、推論など
これらや他にも多くの事柄が
「知性」と呼ばれるものに含まれます
ハワード・ガーナーの
「多重知能」という概念をご存知なら
私はそれを基本的に
正しいと考えています
「知性」には実に
多くの側面があるのです
人工知能に大きな進歩が
あったものの
それはほんの一部の
「知覚」についてのみです
知覚についてさえも
全体を把握できてはいません
機械が非常に得意とするのは
次のようなこと－
つまり人間の顔認識です
機械にセレブリティのデータを
学習させれば
これがタイガー・ウッズだと
認識できるでしょう

German: 
Nur kommen wir im Feld
der künstlichen Intelligenz
nicht so gut voran, wie die Welt meint.
In den Schlagzeiten geht es
zurzeit immer um "Deep Learning":
"Forscher finden Deep-Learning-
Programme vielversprechend."
"'Deep Learning' liefert uns bald
extrem intelligente Roboter."
Die meisten glauben das;
ich bin da nicht so sicher.
(Gelächter)
Wir müssen bedenken,
dass Intelligenz nicht homogen ist.
Viele Dinge fließen
in die Intelligenz mit ein:
Wahrnehmung, Verstand,
Planung, Analogie, Sprache, Logik.
All das und noch viel mehr ist Teil
dessen, was wir "Intelligenz" nennen.
Kennt man Howard Gardeners
Konzept multipler Intelligenzen,
erscheint mir das grundlegend richtig.
Vieles macht Intelligenz aus.
Wir sind in KI enorm vorangeschritten,
aber nur in einem Bereich:
der Wahrnehmung.
Und selbst da haben wir
noch zu wenig herausgefunden.
Eines können Maschinen sehr gut:
Personen identifizieren.
Man schult sie mit vielen
Daten von Prominenten,
und sie erkennen hier
tatsächlich Tiger Woods.

Swedish: 
Problemet är att vi inte gör
så stora framsteg, tycker jag,
inom artificiell intelligens
som världen verkar tro.
Man läser rubriker och de
handlar ofta om "deep learning."
"Forskare ser möjligheter
i deep learning-program,"
"Deep learning kommer snart
att ge oss supersmarta robotar."
Det är vad de flesta tror.
Jag är faktiskt inte så säker.
(Skratt)
Det är viktigt att komma ihåg
att intelligens inte är homogent.
Intelligens består av många saker.
Det handlar om perception, sunt förnuft,
planering, analogier, språk,
slutledningsförmåga.
De är delar av vad vi kallar intelligens,
tillsammans med många andra saker.
Känner du till Howard Gardners modell
för multipla intelligenser?
Jag tycker den stämmer bra.
Det finns många saker
som ryms i ordet intelligens.
Vi har gjort enorma framsteg inom AI,
men bara en liten del
som handlar om perception.
Och även inom perception
har vi mycket kvar att ta reda på.
Här är några saker som maskiner
är väldigt bra på:
De kan identifiera en person.
Man tränar dem med en massa data
om några kändisar,
och den kan identifiera
det här som Tiger Woods.

English: 
The trouble is we're not making
as much progress
in artificial intelligence, I think,
as the world seems to think.
You read headlines today
and they're all about "deep learning."
"Scientists See Promise
In Deep-Learning Programs,"
"'Deep Learning' Will Soon
Give Us Super Smart Robots."
That's what most people think.
I'm actually not so sure.
(Laughter)
Intelligence, it's important
to remember, is not homogeneous.
There are lots of things
that go into intelligence.
There's perception, common sense,
planning, analogy, language, reasoning.
These are all part of what we'd call
"intelligence," and many more things.
If you know Howard Gardner's notion
of multiple intelligences,
I think it's fundamentally right.
There are lots of things
that go into intelligence.
We've made enormous progress in AI,
but really just in one piece of that
which is in perception.
And even in perception,
we haven't got it all figured out yet.
Here's something machines
can do very well:
they can identify a person.
You train them on a lot of data
about some celebrities,
and sure enough, it identifies
that this is Tiger Woods.

Spanish: 
El problema es
que no estamos progresando tanto
en inteligencia artificial,
como el mundo parece creer.
Ahora los titulares son sobre 
aprendizaje profundo
"Los científicos ven prometedores
los programas de aprendizaje profundo",
"El aprendizaje profundo pronto
producirá robots súper inteligentes".
Eso piensa la mayoría.
Yo, de hecho, no estoy seguro.
(Risas)
La inteligencia, es importante
recordarlo, no es homogénea.
Hay muchísimas cosas que
componen la inteligencia.
Percepción, sentido común, planificación,
analogía, lenguaje, razonamiento.
Todas son parte de lo que llamamos 
"inteligencia", y muchas otras cosas.
La idea de inteligencias múltiples
de Howard Gardner,
creo que es esencialmente correcta.
Son muchas las cosas que
componen la inteligencia.
Hemos hecho enormes progresos en IA,
pero solo en una de sus partes,
la percepción.
E incluso en percepción,
no hemos resuelto todo aún.
Hay una cosa que las máquinas
pueden hacer muy bien,
pueden identificar a una persona.
Las entrenas con
montañas de datos sobre famosos
y, sin duda, identificará
que este es Tiger Woods.

Ukrainian: 
Проблема у тому, 
що ми не робимо значних досягнень
у сфері ШІ, як, 
мені здається, вважає світ.
ЗМІ майорять заголовками 
про "технологію глибинного навчання":
"Учені вбачають надію
в програмах глибинного навчання",
"Глибинне навчання скоро
забезпечить нас надрозумними роботами".
Так гадає більшість людей.
Особисто я не певен.
(Сміх)
Важливо пам'ятати, 
що інтелект — не однорідний.
Існує багато процесів, 
які відбуваються у ньому.
Це сприйняття, здоровий глузд, 
планування, аналогія, мова, міркування.
Все це та багато іншого утворюють те, 
що ми називаємо інтелектом.
Якщо вам відоме поняття 
множинного інтелекту Говарда Гарднера,
я вважаю усе назване
чистою правдою.
Існує багато складових, 
що утворюють інтелект.
Ми зробили величезний крок уперед
у сфері ШІ, але насправді
лише в одній складовій — сприйнятті.
Та навіть там ми ще не все з'ясували.
Певні завдання машини виконують
на високому рівні,
наприклад, встановлення особи.
Якщо надати машині 
багато інформації про знаменитостей,
то вона з впевненістю встановить, 
що це Тайґер Вудс.

Arabic: 
المشكل هنا أنّنا لا نحرز تقدماً كبيراً
في مجال الذكاء الاصطناعي، حسب اعتقادي،
على النحو الذي يتوقعه العالم.
تقرأ العناوين البارزة اليوم، 
وكلها تتحدث عن" التعلّم العميق."
"يرى العلماء وعوداً كبيرة
في أنظمة التعلّم العميق،
" التعلّم العميق سيمنحنا قريباً 
رجالاً آليين في غاية الذكاء."
هذا ما يعتقده معظم الناس،
لكنّني لست متأكداً من هذا.
(ضحك)
من المهم التذكير بأن الذكاء غير متجانس.
هناك العديد من الأشياء 
التي تدخل ضمن الذكاء.
هناك، التصوّر، والحسّ السليم، والتخطيط
والقياس، واللّغة، والمنطق.
كلّ هذه تدخل ضمن ما نطلق عليه "الذكاء" 
وأشياء أخرى عديدة.
إن كنتم تعرفون تعريف (هاوارد جاردنر) 
عن الذكاءات المتعددة،
أعتقد أنّ هذا صحيحٌ بالأساس.
هناك العديد من الأشياء 
التي تدخل ضمن الذكاء
تقدّمنا جداً في الذكاء الاصطناعي،
لكن فقط في جزء وحيد فيه
وهو التصور.
وحتى التصور نفسه، لم نتمكن 
من فهمه كلياً بعد.
إليكم بعض ما يمكن للآلات 
أن تقوم به بشكل جيّد:
يمكنها أن تتعرف على الشخص.
تقوم بتدريبها على الكثير من البيانات
عن بعض المشاهير،
وبكل تأكيد، ستتعرف 
على أن هذا هو (تايجر وودز).

Hungarian: 
A probléma az, hogy egyáltalán 
nem értünk el olyan előrehaladást
a mesterséges intelligencia területén,
ahogy azt a világ hiszi.
Manapság minden újság címlapján
a "mélytanulás" áll:
"A tudósok ígéretesnek tartják
a mélytanulási programokat",
"A mélytanulás hamarosan
szuperokos robotokat eredményez".
A többség így gondolja.
Nekem azért vannak kétségeim.
(Nevetés)
Ne feledjük ugyanis, hogy az intelligencia
nem egy homogén dolog.
Rengeteg minden alkotja.
Például észlelés, józan ész,
tervezés, analógia, nyelv, érvelés.
Ezek, és még sok egyéb dolog együttese az,
amit úgy hívunk: "intelligencia".
Azt hiszem, Howard Gardener mondása
a többszörös intelligenciákról -
talán ismerik - helytálló lehet.
Számtalan dologból áll az intelligencia.
Óriási a fejlődés el a MI terén,
de valójában csak egyetlen
szűk területen, az észlelésben.
És még messze nem tudunk ott sem mindent.
Például ez az, amiben már jók a gépek:
képesek egy személyt felismerni.
Megtaníthatunk nekik
adatokat hírességekről,
így nagy bizonyossággal felismerik,
hogy ő itt Tiger Woods.

French: 
Le problème est qu'on ne fait pas
autant de progrès en IA
que tout le monde a l'air de le croire.
On lit partout dans les journaux le terme
d' « apprentissage profond ».
« Les scientifiques
en attendent beaucoup. »
« Ça nous donnera
bientôt des robots super-intelligents. »
La plupart des gens croient ça.
Je n'en suis pas si sûr.
(Rires)
Il est important de se rappeler
que l'intelligence n'est pas homogène.
Ça englobe beaucoup de choses :
perception, bon sens, anticipation,
analogie, langage, raisonnement.
Tout ça, parmi d'autres, fait partie
de ce qu'on appelle « l'intelligence ».
Howard Gardener a inventé
la notion d'intelligences multiples,
il a fondamentalement raison.
Beaucoup d'éléments
contribuent à l'intelligence.
On a fait énormément
de progrès en IA,
mais uniquement
dans le domaine de la perception.
Et même là, nous n'avons pas
encore tout compris.
Voici ce que les machines
savent très bien faire :
identifier une personne.
On les entraîne avec beaucoup
de données sur des célébrités,
et assez facilement, elles reconnaissent
ici Tiger Woods.

Chinese: 
但问题是，我们在AI研究中取得的进步
似乎没有大家认为的那么显著。
翻开今天的头版头条，
都是《深度学习》，
《科学家看到深度学习程序的希望》，
《深度学习很快将会
带给我们超级聪明的机器人》……
这就是大部分人的想法。
其实我也不确定（这种想法靠不靠谱）。
（笑声）
智能，请注意，
并不是单一的概念。
它包括了很多东西，
比如知觉、常识、规划、
类推、语言、论证。
这些，还有很多其他东西，
都属于我们所说的”智能“。
听过哈沃德·加德纳的
多元智能理论吗，
我觉得他基本上是对的。
智能包括了很多东西。
我们已在AI领域取得了巨大进步，
但其实全都是在感知这一小块。
而且即使只是感知，
我们都还没有完全弄清楚。
有些任务机器能完成得很好，
比如识别一个人。
你可以用几个名人的
大量数据训练它们，
老虎·伍兹显然会被认出来。

Dutch: 
Het probleem is dat 
we niet zo veel vooruitgang maken
in kunstmatige intelligentie, 
als de wereld lijkt te denken.
Veel krantenkoppen van vandaag 
gaan over 'diep leren'.
"Wetenschappers Zien Beloften 
In Deep-learning Programma's",
''Deep Learning Zal Ons 
Binnenkort Superslimme Robots geven."
Dat is wat de meeste mensen denken. 
Ik ben er niet zo zeker van.
(Gelach)
Het is belangrijk om te onthouden 
dat intelligentie niet homogeen is.
Er zijn aan intelligentie 
veel meer aspecten.
Zoals perceptie, gezond verstand, 
planning, analogie, taal, redeneren.
Dit maakt allemaal deel uit 
van wat wij 'intelligentie' noemen,
en nog veel meer.
Howard Gardner spreekt 
van meervoudige intelligenties,
Ik denk dat dat fundamenteel juist is.
Er zijn veel aspecten aan intelligentie.
We hebben in KI 
enorme vooruitgang geboekt,
maar perceptie is daar 
maar één onderdeel van.
En zelfs met perceptie 
zijn we nog niet helemaal klaar.
Hier is iets dat machines 
heel goed kunnen:
iemand identificeren.
Je traint ze met veel gegevens 
over een aantal beroemdheden,
en, ja hoor, ze identificeert Tiger Woods.

Italian: 
Peccato però che i progressi,
nel ramo dell'Intelligenza Artificiale,
siano inferiori a quanto
normalmente si ritiene.
Oggi non si parla che di Deep Learning
[apprendimento approfondito]:
"Gli algoritmi di deep learning
incoraggiano gli scienziati";
"Presto robot super intelligenti,
grazie al deep learning";
Sono in molti a pensarla così.
Ma non ne sarei tanto sicuro.
(Risate)
L'intelligenza, è importante
ricordarlo, non è omogenea.
L'intelligenza è composta
da molti elementi:
percezione, senso comune, progettualità,
analogia, linguaggio, ragionamento
e molte altre cose fanno parte
di ciò che si chiama "intelligenza".
Il concetto di intelligenza multipla
di Howard Gardener, ad esempio,
trovo sia essenzialmente giusto:
l'intelligenza ha molte sfaccettature.
Abbiamo fatto sì enormi progressi nell'IA,
ma in un solo aspetto, la percezione.
E nemmeno la percezione
è stata completamente compresa.
Una cosa che le macchine
riescono a fare molto bene
è identificare una persona.
Dando alla macchina molti dati
su una serie di celebrità,
lei riconoscerà, come previsto,
Tiger Woods in questa foto.

German: 
Mitunter kommen sie durcheinander
und halten ihn für einen Golfball,
aber wahrscheinlich nie
für Angelina Jolie.
(Gelächter)
Heutzutage machen wir das mit Big Data.
Wir leiten statistische Näherungswerte
über die Welt aus Big Data ab.
Die gängigste Methode dafür lautet
derzeit "Convolutional Neural Network",
erfunden von meinem
NYU-Kollegen Yann LeCun.
Der Plan ist, dem System eine Reihe
gekennzeichneter Inputs zu geben.
Man sagt, das hier sei ein Roboter.
Das System versteht das
richtig oder falsch;
liegt es falsch, passt man
das Zeug dazwischen an.
Das Zeug dazwischen besteht aus Knoten,
die sehr grob Neuronen nachempfunden sind,
und man sieht Ebenen,
die von links nach rechts gehen.
Man erkennt also zuerst
die groben Elemente der Abbildung,
wie den Unterschied
zwischen Hell und Dunkel.
Dann geht man in der Hierarchie hoch,
zu Dingen wie Linien, Kreisen und Kurven,
bis man an der Spitze der Hierarchie
Dinge wie Tiger Woods,
Oprah Winfrey oder so findet.

Italian: 
A volte, potrebbe confonderlo
con una pallina da golf;
probabilmente non vi dirà mai
che si tratta di Angelina Jolie.
(Risate)
Attualmente facciamo questo tipo
di cose con i big data.
Dai big data ricaviamo 
approssimazioni statistiche del mondo.
La tecnica più comunemente usata
è la rete neurale convoluzionale,
inventata dal mio collega
della NYU, Yann LeCun.
L'idea è quella di un sistema
con una serie di input "etichettati".
Questo è un robot;
vi dicono che è un robot;
Il sistema può identificarlo
correttamente oppure no.
Se sbaglia, bisogna cambiare
gli elementi intermedi,
ossia una serie di nodi
strutturati sul modello dei neuroni,
anche se in modo piuttosto vago.
I livelli procedono da sinistra a destra,
e si inizia rilevando nell'immagine
elementi di basso livello,
come le differenze tra luce e ombra,
spostandosi progressivamente verso cose
come linee, cerchi e parti curve,
fino alla cima della gerarchia,
dove si processano cose come Tiger Woods,
Oprah Winfrey e così via.

Chinese: 
有时候，它也会犯糊涂，
认为这是一个高尔夫球，
不过它也许永远不会（错误地）
告诉你，这是安吉莉娜·朱莉。
（笑声）
今天，我们用大数据来实现这些。
我们通过大数据
推算世界的统计模型。
现在，这个方面最常用的技术
叫做卷积神经网络，
由我在纽约大学的同事
扬·勒丘恩发明。
大概的意思是，给系统一系列
带标签的输入。
那么，这有一个机器人，
你告诉它这是机器人。
系统要么理解对了，要么错了。
如果错了，你就要调整中间的环节。
这些东西是一堆结点，
模拟了神经元，
很粗略的模拟，
另外，从左到右还有这些夹层。
基本原理是从检测图像的
下层信息开始，
比如亮和暗的差距，
逐渐爬到图像的上层，
比如线段、圆圈和曲线部分，
直到层级顶端，
不管是老虎·伍兹、奥普拉·温弗瑞，
还是其他什么人。

Swedish: 
Någon gång kan den bli förvirrad
och tro att det är en golfboll,
men den kommer förmodligen
aldrig säga att det är Angelina Jolie.
(Skratt)
Sättet vi jobbar på idag är big data.
Big data gör att vi närmar oss
den verkliga världen rent statistiskt.
Den vanligaste tekniken för det
kallas konvolutionella neurala nätverk,
vilket uppfanns av min kollega
på NYU, Yann LeCun.
Tanken är att man har ett antal
indataflöden till systemet med etiketter.
Det här är en robot,
och man får veta att det är en robot.
Antingen förstår systemet det eller inte.
Om den inte förstår det
ändrar man sakerna i mitten.
Sakerna i mitten är ett antal noder
som är gjorda för att likna neuroner,
en väldigt ungefärlig avbild av neuroner,
ni kan se lagren där
som går från vänster till höger.
Tanken är att man börjar med att upptäcka
grundläggande saker med bilden,
som skillnaden mellan ljust och mörkt,
och man rör sig upp i hierarkin
till saker som linjer, cirklar, kurvor,
tills man överst i hierarkin
har saker som Tiger Woods
och Oprah Winfrey, eller något sånt.

French: 
Parfois, elles se trompent
et pensent que c'est une balle de golf,
mais elles ne diront sans doute jamais
que c'est Angelina Jolie.
(Rires)
Aujourd'hui, tout est fait
par le « big data ».
On infère des approximations statistiques
à partir de beaucoup de données.
La technique la plus répandue est
le réseau neuronal convolutif,
inventé par mon collègue de NYU,
Yann LeCun.
L'idée est de mettre des étiquettes
sur des séries de données.
Voici un robot. 
On vous dit que c'est un robot.
Le système a raison ou a tort,
s'il a tort, vous ajustez
le truc au milieu.
Ce truc est un ensemble de nœuds,
comme des neurones,
très librement inspiré des neurones.
De gauche à droite,
vous voyez des couches,
vous commencez par détecter des
éléments basiques dans l'image,
comme des différences de luminosité,
et vous montez en complexité et détectez
des lignes, des cercles, des courbes,
jusqu'au sommet de la hiérarchie,
pour arriver à Tiger Woods,
Oprah Winfrey, ou je ne sais qui.

Ukrainian: 
Інколи вона може заплутатись 
і видати, що це м'яч для гольфу,
та навряд, чи вона скаже, 
що це Анджеліна Джолі.
(Сміх)
Зараз ми працюємо 
з великими обсягами даних,
з яких ми отримуємо 
статистичні тотожності зі світом.
Найпоширеніший метод для цього 
називається штучною нейронною мережею,
яку винайшов мій колега 
з Нью-Йоркського університету Ян Лекун.
Ідея полягає у тому, 
що вхідні сигнали знаходяться у системі
зі своїми мітками.
Тож це робот, вам так повідомили.
Система розпізнає правда це, чи ні,
якщо вона помиляється — 
треба внести зміни у прошарки,
що являють собою набір вузлів, 
які збудовані на зразок нейронів,
віддалено нагадують нейрони,
і можна побачити, 
що пласти йдуть зліва направо,
а ідея полягає у визначенні 
низькорівневих ознак зображення,
таких як різниця між світлом та тінню,
потім по ієрархії таких речей 
як лінії, кола та округлості,
поки на її вершині не з'явиться
щось на кшталт зображення Тайґера Вудса, 
Опри Вінфрі або когось іншого.

Spanish: 
De vez en cuando, se confundirá
y pensará que es una bola de golf,
probablemente nunca te dirá
que esta es Angelina Jolie.
(Risas)
Hoy en día hacemos esto 
mediante "big data".
Obtenemos aproximaciones estadísticas
del mundo a través de ese "big data".
La técnica más habitual para hacerlo
es una red neuronal convolucional,
inventada por mi colega
de la NYU, Yann LeCun.
La idea es que tienes una serie
de entradas en el sistema
con etiquetas en ellas.
Así que si aparece un robot,
te dice que es un robot.
El sistema puede entenderlo
bien o mal,
y si lo entiende mal,
ajustas lo que hay en medio.
Lo que hay en medio es un conjunto
de nodos a modo de neuronas,
muy lejanamente parecidos a neuronas,
y verán capas ahí que van
de izquierda a derecha,
y la idea es detectar primero
cosas de bajo nivel de la imagen,
como diferencias entre luz y oscuridad,
y van aumentando en jerarquía a cosas
como líneas, círculos, partes curvas,
hasta que en la cima de la jerarquía
hay cosas como Tiger Woods
u Oprah Winfrey, lo que sea.

Dutch: 
Af en toe raakt ze in de war 
en denkt dat het een golfbal is,
waarschijnlijk zal ze je nooit vertellen 
dat dit Angelina Jolie is.
(Gelach)
Vandaag doen we dat met big data.
We leiden statistische benaderingen af 
over de wereld vanuit big data.
De meest gebruikte techniek heet 
een convolutioneel neuraal netwerk.
Het werd uitgevonden 
door mijn NYU collega, Yann LeCun.
Het idee is dat je een reeks 
van inputs in het systeem brengt
met labels eraan.
Dit is een robot, ze vertellen je 
dat het een robot is.
Het systeem doet dat goed of fout.
Als het fout is, 
verbeter je de tussenstappen.
Die tussenstappen zijn knooppunten 
gemodelleerd op neuronen,
-- zeer losjes gemodelleerd --
en van links naar rechts 
zie je die verschillende lagen.
Dat begint met eenvoudige dingen 
over het beeld te zoeken,
zoals verschillen tussen licht en donker,
dan klim je op in de hiërarchie 
naar lijnen, cirkels en krommen,
tot aan de top van de hiërarchie,
waar je Tiger Woods, Oprah Winfrey 
of wat dan ook tegenkomt.

English: 
Once in a while, it might get confused
and think it's a golf ball,
probably it will never tell you
that this is Angelina Jolie.
(Laughter)
The way that we do this nowadays,
is with big data.
We derive statistical approximations
to the world from that big data.
The most common technique for this now
is called a convolutional neural network,
which was invented
by my NYU colleague, Yann LeCun.
The idea is you have a series
of inputs into the system
with labels on them.
So this is a robot,
you get told it's a robot.
The system either
gets that correct or wrong,
if it gets it wrong,
you adjust the stuff in-between.
The stuff in-between is a set of nodes
which are modeled on neurons,
very loosely modeled on neurons,
and you'll see layers there
going from left to right,
and the idea is you start by detecting
low-level things about the image,
like differences between light and dark,
and you move up some hierarchy to things
like lines, circles, and curvy parts,
until at the top of the hierarchy,
you have things like Tiger Woods
or Oprah Winfrey, or what have you.

Arabic: 
أحياناً، قد تصاب بالارتباك
وستعتقد أن هذه كرة غولف،
وقد لا تخبرك أبداً أنّ هذه
(أنجلينا جولي).
(ضحك)
الطريقة التي نستخدمها لفعل لذلك 
هي عن طريق البيانات الضخمة.
نشتقّ مقاربات إحصائية للعالم
من تلك البيانات الضخمة.
تسمّى التقنية الأكثر استعمالاً لذلك الآن 
بالشبكة العصبيّة التلفيفية،
والتي اخترعها زميلي
في جامعة نيويورك، (يان ليكون).
الفكرة هنا أنك تمتلك سلسلات 
من المداخيل في النظام
وتضع لها أسماء.
إذنْ هذا رجل آلي، سيتم إخبارك 
بأنّ هذا رجل آلي.
قد يفهم النظام هذا نحو جيدٍ أو خاطئ،
إن فهمه خطأً، فعليك تعديل 
الأشياء العالقة.
الأشياء العالقة هي مجموعة 
من العقد المركّبة على الخلايا العصبيّة.
مركبة بارتياح على الخلايا العصبية،
وسترى طبقات هناك
تتحرك من اليسار إلى اليمين،
الفكرة هنا أنك ستبتدأ بالتعرف
على الأشياء ذات الأهمية الدنيا في الصورة،
مثل الفروق بين الضوء والظلام،
ثم تتحرك نحو بعض الأشياء العليا 
كالخطوط، والدوائر، والأجزاء ذات المنحنيات،
حتى تصل لأعلى الهرم،
فتحصل على (تايجر وودس) أو (أوبرا وينفري)
أو أي من هؤلاء.

Hungarian: 
Néha viszont összezavarodnak, 
és golflabdának nézik,
de valószínűleg sohasem mondják, 
hogy Angelina Jolie.
(Nevetés)
Jelenleg ehhez a "big data"-t használjuk.
Statisztikai közelítésekkel 
jutunk el a "big data"-tól a valóságig.
A legelterjedtebb technika
az ún. konvolúciós neurális háló,
amit munkatársam, Yann LeCun
fejlesztett ki a New York Egyetemen.
Az alapötlet az, hogy egy rendszernek
adunk egy sor felcímkézett
bemeneti adatot.
Ez itt egy robot akar lenni.
A rendszer talán jól értelmezi, talán nem.
Ha nem, akkor módosítjuk
a köztes dolgokat.
A "köztes dolgok" pedig 
csomópontokat jelentenek,
melyeket lazán modelleznek a neuronok.
Itt láthatók a balról jobbra
haladó rétegek.
Az alapgondolat az, hogy elemi
jellemzőket keressünk a képen,
mint például sötét és világos 
közti különbségeket,
majd felfelé haladunk a hierarchián
a vonalak, körök és görbék felé,
egészen a hierarchia csúcsáig,
ahol ott vannak a Tiger Woods-ok,
Oprah Winfrey-k, vagy mások.

Japanese: 
時々 混乱して
ゴルフボールだと思ったり
アンジェリーナ・ジョリーだと
思うこともごく稀にあります
（笑）
これが可能なのは
ビッグデータによるものです
ビッグデータを使って
現実世界の統計的近似を導くのです
これに用いられる最も一般的な技術は
畳み込みニューラル・ネットワークで
これはニューヨーク大学の同僚である
ヤン・ルクンによる発明です
これはシステムに対し
一連のインプットを
ラベルをつけて行うものです
これはロボットですが
その答えをシステムに尋ねます
システムは正誤
どちらかの答えを導くので
誤った答えであれば
その過程を調整します
過程というのはノードの連続で
これはニューロンを
ごく大まかに模したものです
左から右へと層をなしているのが
わかりますね
まず画像の基本的なことから
検出し始めて―
例えば明るいか暗いかなど―
それから線、円、曲線など
高次の層へと移行し
最終的に頂点では
タイガー・ウッズか
オプラ・ウィンフリーかを見分けます

German: 
Mit einfachen Klassifizierungen
funktioniert das perfekt.
Aber bei etwas schwierigeren
Problemen klappt es nicht.
Angenommen, Sie sehen so ein Bild.
Vielleicht schaffen Sie es,
dass Ihr neurales Netzwerk --
so heißt es -- die Hantel erkennt.
Das dürfte nicht schwer sein.
Mit etwas Glück erkennt es den Hund.
Vielleicht aber nicht,
da die Ohren so positioniert sind,
wie Hundeohren fast nie aussehen --
irgendwie gerade, nicht?
Das könnte die Maschine verwirren.
Aber ob es sie verwirrt oder nicht,
Ihr neuronales Netz
kann Ihnen bestimmt nicht sagen,
dass die Szene ungewöhnlich ist;
dass man nicht täglich Hunde
beim Bankdrücken sieht,
und dass das etwas Ungewöhnliches ist.
Hier ein weiteres Beispiel:
Das war in der New York Times.
Dieser Artikel besagte: "Hey, wow!
Diese Deep-Learning-Systeme
können jetzt Bilder erfassen!"
Wenn sie das wirklich könnten,
wäre ich echt beeindruckt.
Aber das funktioniert
derzeit in einigen Fällen sehr gut
und in anderen nicht.
Hier funktioniert es sehr gut:
Ein Motorradfahrer
auf einer Schotterpiste.
Zeigt man dem Computer dieses Bild,
erhält man die richtige Antwort.

Dutch: 
Het werkt prima 
voor eenvoudige categorisering.
Maar niet als het wat moeilijker wordt.
Stel, je ziet een beeld als dit.
Je neuraal netwerk
zou die halter kunnen herkennen.
Dat zou niet zo moeilijk zijn.
Als je geluk hebt, 
zou het de hond herkennen.
Maar de oren misschien niet
omdat hondenoren 
bijna nooit zo te zien zijn.
Eigenlijk simpel, toch?
Maar dat zou de machine 
misschien niet aankunnen.
Maar of ze het nu aankan of niet,
bijna zeker zal je neuraal netwerk
niet in staat zijn je te vertellen 
dat dit een ongebruikelijk tafereel is.
Je ziet niet elke dag 
een hond bankdrukken,
dit is niet alledaags.
Hier een ander voorbeeld:
dit stond in de New York Times.
Een paper zei: "Wauw!
Deze diepe leersystemen 
kunnen nu beelden ondertitelen!"
Als ze dat perfect konden doen, 
zou ik echt onder de indruk zijn.
Tot nu toe lukt dat 
in een aantal gevallen,
maar bij andere niet zo goed.
Hier is een geval dat echt goed werkt:
een motorfiets op een onverharde weg.
Je toont de computer dit beeld 
en hij geeft je het juiste antwoord.

French: 
Comme je le disais, ça marche
très bien pour des catégories simples.
Mais ça ne marche plus
quand ça devient un peu plus compliqué.
Prenez cette image.
Normalement, le réseau neuronal
- c'est comme ça que ça s'appelle -
reconnaîtra l'haltère.
Ça n'est pas trop dur.
Avec un peu de chance, le chien.
Mais peut-être pas,
car les oreilles sont dans une
configuration plutôt rare pour un chien,
complètement étalées.
Cela pourrait faire douter la machine.
Mais que ça l'ait trompée ou non,
je suis sûr que ce réseau neuronal
ne serait pas capable de dire
que c'est une scène inhabituelle.
On ne voit pas tous les jours
un chien faire de la muscu,
ça sort de l'ordinaire.
Voici un autre exemple.
Ça a été publié par
le New York Times à l'époque.
C'est un article qui dit : « Hé !
Ces systèmes d'IA peuvent
légender des images ! »
Je serais vraiment impressionné
s'ils y arrivaient.
Aujourd'hui, dans certains cas,
ça marche vraiment bien,
mais pas dans d'autres.
Voici un exemple qui marche bien :
quelqu'un faisant
de la moto sur une piste.
Vous montrez l'image à un ordinateur
et il donne la bonne réponse.

Arabic: 
كما قلت، فإن هذا يعمل بامتياز
على المجموعات البسيطة.
لكنّه لا يعمل حالما يصبح
المشكل معقداً قليلاً.
لنفترض أنك ترى صورة كهذه.
سيكون بإمكانك أن تجعل شبكتك العصبية-
كما يطلق عليها-
ستجعلها تتعرف على الحديد.
لن يكون هذا صعباً.
إن كنت محظوظاً، ستتعرف على الكلب.
وقد لا تفعل، لأن الأذنين
أذنا ذلك الكلب لا تظهران على نحوٍ كاف.
قد يبدو هذا بديهياً، أليس كذلك؟
لكن هذا قد يربك الآلة.
لكن حتى إن أربك هذا الآلة أو لم يربكها،
فأنا متأكد أن شبكتك العصبيّة
لن تتمكن من إخبارك
أن هذا المشهد غير مألوف،
أنك لا ترى كلباً يقوم بتمرين 
الضغط كل يوم،
وأن هذا أمر خارج عن المألوف.
إليكم مثالاً آخر:
وقد ظهر هذا في نيويورك تايمز،
كان ذلك بحثاً يقول: "رائع!
هذه الأنظمة يمكنها التعليق 
على الصور الآن"
إن استطاعوا القيام بهذا على نحو مثالي،
لكنت اندهشت فعلاً.
لكن ما لدينا الآن، هي نماذج 
تعمل جيداً فعلاً،
وأخرى لاتعمل جيداً.
إليكم نموذجاً يعمل جيداً جداً:
شخص يقود دراجة نارية
على طريق بها تراب.
تري هذه الصورة للحاسوب،
وسيعطيك الجواب الصحيح

Hungarian: 
Ahogy mondtam, ezt tökéletesen
működik egyszerű kategorizálásra.
Kudarcot vall azonban,
ha a feladat kicsit nehezebbé válik.
Tegyük fel, hogy egy ilyen képet látunk.
Neurális hálónk segítségével
képesek lehetünk ezt a tárgyat -
egy súlyzót - felismerni.
Ez nem egy bonyolult dolog.
Ha szerencsénk van,
még a kutyát is felismeri.
De lehet, hogy nem,
mert a fülek úgy helyezkednek el,
ahogy a normális kutyafülek
szinte sohasem.
Egyenesen kifelé, ugye?
Ez talán megzavarná a gépet.
De akár megzavarta, akár nem,
abban biztos vagyok,
hogy a neurális háló
nem tudná megmondani, 
hogy ez szokatlan jelenet;
hogy nem mindennapi látvány 
egy súlyzózó kutya,
tehát ez egy kissé rendellenes.
Nézzünk egy másik példát.
Még a New YorkTimes is írt erről, 
amikor megjelent.
Egy újságban ez állt:
"Hűha, ezek a mélytanuló rendszerek
már képeket tudnak felismerni!"
Hát ha valóban így volna,
én le lennék nyűgözve.
De jelenleg csak azt mondhatjuk,
hogy néha jól működnek,
máskor viszont nem annyira.
Itt például jól működik:
Valaki egy földúton motorozik.
Megmutatjuk a képet számítógépnek,
az pedig megmondja a helyes választ.

Swedish: 
Som jag sa går det väldigt bra
för enkel kategorisering.
Men det fungerar inte
när problemet blir lite svårare.
Anta att du ser en sån här bild.
Du kanske kan få
ditt neurala nätverk -
som de här sakerna kallas -
att känna igen skivstången.
Det är inte så svårt.
Om du har tur
skulle den känna igen hunden.
Kanske gör det inte det
eftersom den har öron
som ser mycket ovanliga ut.
De står rakt ut?
Det kan mycket väl förvirra maskinen.
Men oavsett om det förvirrade maskinen
tror jag inte att ditt neurala nät
skulle kunna säga
om det här är en ovanlig situation;
att det inte är varje dag
man ser en hund
som håller på med bänkpress,
och att det är något ovanligt.
Det här är ett annat exempel:
Den här fanns med
i New York Times när den kom ut.
I tidningen stod det "Wow!
De här deep learning-systemen
kan tolka bilder nu!"
Om de verkligen kunde göra det perfekt
skulle jag vara imponerad.
Men vad vi har är vissa fall
där det funkar väldigt bra
och i andra, inte så bra.
Här är ett fall
som funkar riktigt bra:
En person som åker motorcykel
på en lerig väg.
Man visar bilden för en dator
och den ger dig rätt svar.

English: 
As I say, it works perfectly fine
for simple categorization.
But it doesn't work the minute
the problem gets a little bit harder.
Suppose you see an image like this.
You might be able
to get your neural network -
as these things are called -
to recognize the barbell.
That wouldn't be that hard.
If you're lucky,
it would recognize the dog.
It might not because the ears
are in a configuration
that dog ears almost never appear.
Sort of straight out, right?
That might actually stump the machine.
But whether or not
that stumped the machine,
I'm pretty sure that your neural net
would not be able to tell you
that this is an unusual scene;
that you don't see a dog
doing a bench-press everyday,
and this is something out of the ordinary.
Here's another example:
This ran in the New York Times
when this came out.
This was a paper that said, "Hey, wow!
These deep learning systems,
they can caption images now!"
If they really could do that perfectly,
I would be really impressed.
But what we've got now
is certain cases that work really well,
and others, not so well.
Here's a case that works really well:
A person riding a motorcycle
on a dirt road.
You show the computer this image
and it gives you the right answer.

Italian: 
Questo sistema funziona alla perfezione
per categorie semplici,
ma lascia a desiderare se il problema
diventa un po' più complesso.
Immaginate di vedere
un'immagine come questa.
Dovreste riuscire ad usare
la vostra rete neurale
- come si dice in gergo -
per riconoscere il bilanciere.
Non dovrebbe essere difficile.
Dovreste riconoscere il cane, pure.
Ma forse no, perché le orecchie del cane
sono tese verso l'esterno,
in una configurazione molto atipica.
e questo potrebbe
confondere la macchina.
Ma che la macchina
sia confusa o meno,
sono certo che la vostra rete neurale
non sarebbe in grado di dirvi
che si tratta di una scena inusuale:
non è comune vedere un cane
allenarsi alla panca piana!
Si tratta di una cosa
fuori dall'ordinario.
Ma facciamo un altro esempio:
c'è stato uno studio,
pubblicato sul New York Times.
Questo studio diceva: "Ehi, wow!
Ora i sistemi di deep learning
aggiungono perfino le
didascalie alle immagini!"
Se lo facessero alla perfezione,
ne sarei molto colpito.
Ma per il momento funzionano
molto bene in alcuni casi
e non tanto in altri.
Questo è un caso
in cui funzionano bene:
un motociclista
su una strada fangosa.
Se mostrate al computer questa immagine,
vi darà la risposta giusta.

Japanese: 
申し上げた通り
簡単な分類なら全く問題ありません
ただ問題が少し難しくなっただけで
すぐ上手くいかなくなります
こんな画像を見たとしましょう
皆さんは
ニューラル・ネットワークと呼ばれるものに
バーベルを認識させられるでしょう
それはそんなに難しくありません
運が良ければ
犬も認識させられるかもしれません
犬の耳があまり見られないような形で
示されているため
認識しないかも知れません
耳がまっすぐ寝ているでしょう？
それが機械を
混乱させるかもしれません
そこで引っかからないにしても
ニューラル・ネットワークには
これが珍しい光景だと
認識はできないのは確かです
犬がベンチプレスをするのは
あまり見ない光景であって
普通ではないとは
認識できないでしょう
もうひとつ例を挙げましょう
これは『ニューヨーク・タイムズ』紙に
載った事例なのですが
「すごい！
深層学習で画像認識ができる！」
と報じられました
画像認識が完璧にできるなら
私も心底感心するところです
しかし 現段階では
非常に上手くいく場合もあるものの
そうでない場合もあります
これは上手くいく場合です
バイクに乗った人が
土の上を走っています
これをコンピューターに見せれば
正しい答えが返ってきます

Chinese: 
就像我说的，在简单分类
方面它能做得很好。
但只要增加一点点难度，
它就束手无策了。
比如这样一张照片。
你也许能让你的神经网络
——这些东西都叫这个名字——认出杠铃。
似乎并不难。
如果足够幸运，
它还能认出狗狗。
但它也许不能，因为狗的耳朵
通常不会是图里这样。
挺直截了当，不是吗？
这真的可能会难住机器。
但不管到底难不难得住，
我都很确定，你的神经网络
不能告诉你这个场景不同寻常；
就是说，你不会天天看到举重的狗，
这里有点不同寻常的东西。
再看一个例子：
《纽约时报》报道过这件事。
有篇文章是这么说的：“嘿，哇！
深度学习系统能给图片加标题了！“
如果它们真能完美地做到这点，
我会印象深刻的。
但我们现在能应付的
只是一些好应付的特例，
还不能以偏概全。
这是个机器能完美完成的任务：
一个在土路骑摩托的人。
只要给电脑看，它就能正确回答。

Spanish: 
Como decía, funciona perfectamente
para una categorización simple.
Pero no funciona en cuanto
el problema se complica un poco.
Supongan que ven una imagen como esta.
Quizá consigan que la red neuronal
-- así se llaman estas cosas --
reconozca la pesa.
Eso no sería tan difícil.
Si tienen suerte, reconocerá al perro.
Quizá no, porque las orejas
tienen una configuración
que casi nunca tienen
las orejas de perro.
Sencillo, ¿verdad?
Esto podría dejar
a la máquina sin respuesta.
Pero la deje o no sin respuesta,
estoy bastante seguro
de que la red neuronal
no podría decirles que esta
es una escena poco habitual,
que no se ve un perro haciendo
press de banca cada día
y que es algo extraordinario.
Aquí tenemos otro ejemplo:
Esto se publicó en The New York Times.
Era una publicación que decía:
"¡Guau, los sistemas de aprendizaje
profundo ahora pueden leer imágenes!"
Si realmente lo hicieran a la perfección,
estaría muy impresionado.
Pero lo que tenemos es que
en ciertos casos funcionan muy bien
y, en otros, no tan bien.
En este caso funciona muy bien:
Una persona en motocicleta
en una pista de barro.
Le enseñan la imagen a una computadora
y da la respuesta correcta.

Ukrainian: 
Як я вже зазначив, це відмінно працює 
з простою категоризацією.
Однак перестає працювати зовсім, 
коли проблема трохи ускладнюється.
Припустимо, ви бачите таке зображення.
Ви могли б визначити 
завдяки нейронній мережі -
саме так це називається - що це штанга.
Це не складе труднощів.
Якщо вам пощастить, 
то вона розпізнає собаку.
А може й ні, тому що його вуха
мають незвичайне розташування.
Розкинулися в боки, чи не так?
Це дійсно можна спантеличити машину.
Та все одно, збита з пантелику
машина чи ні,
я досить впевнений, 
що ваша нейронна мережа не скаже вам,
що це видовище незвичайне.
Не щодня можна застати собаку
за виконанням жиму лежачи,
це вкрай нетипово.
Ось наступний приклад.
Про це йшлося у газеті "Нью-Йорк Таймс".
У газеті писали: "Ого, нічого собі!
Ці системи глибинного навчання
здатні описувати зображення!"
Якби вони робити це безпомилково, 
я би був дійсно вражений.
Але на даний момент у нас є випадки, 
коли машині все вдається,
а є випадки, коли ні.
Ось приклад того, коли це спрацьовує:
Людина їде на мотоциклі грунтовою дорогою.
Ви показуєте це зображення комп'ютеру
і той видає правильну відповідь.

Swedish: 
Här till höger
får den också till det rätt:
En grupp unga människor
som kastar frisbee.
Om du bara ser på de här exemplen
skulle du säga "Vi har löst problemet.
Maskinen förstår vad som händer.
Sen visar du datorn den här.
Det rätta svaret är kanske
en parkeringsskylt med klistermärken på,
men man kan beskriva den på olika sätt.
Inga av dessa svar
skulle bli vad maskinen ger dig,
(Skratt)
vilket är ett kylskåp
fyllt av mat och dryck.
Det får mig att tänka på Oliver Sacks bok,
"Mannen som förväxlade
sin hustru med en hatt".
Om mitt barn gjorde det här
skulle jag misstänka
neurologiska problem.
Jag skulle skynda till en läkare.
Systemet förstår inte riktigt
vad en parkeringsskylt är,
vad ett klistermärke är,
vad ett kylskåp är, vad drycker är,
så den letar efter det
som ligger närmast i databasen,
som har den här blandningen av färger,
men det handlar inte om att förstå.
Jag kommer nu att visa en video
som IEEE spectrum satte ihop
året efter DARPA-tävlingen.
DARPA ville att folk
skulle bygga hjälprobotar,
och folk jobbade i sina labb
för att bygga robotar

French: 
A droite, la bonne réponse aussi :
un groupe de jeunes gens
jouant au Frisbee.
Quand on regarde ces exemples,
on se dit : « Ils ont réussi,
la machine comprend de quoi il retourne. »
Puis vous montrez cette image.
Je dirais qu'il s'agit peut-être
d'un panneau avec des autocollants,
mais on pourrait le décrire autrement.
Mais rien ne correspond
à ce que la machine trouve :
(Rires)
un frigo rempli de boissons
et de nourriture.
Comme le livre d'Oliver Sacks, « L'homme
qui prenait sa femme pour un chapeau ».
Si mon enfant répondait ça, je penserais
qu'il a des problèmes neurologiques.
Je l'emmènerais en urgence
chez un médecin.
Le système ne comprend pas vraiment ce
qu'est un panneau ou un autocollant,
ce qu'est un frigo,
ce que sont des boissons,
il cherche ce qui est le plus proche
dans sa base de données,
de ce mélange de couleurs,
mais il ne comprend pas vraiment.
Je vais vous montrer une vidéo
que l'IEEE Spectrum a montée
l'an dernier après le concours DARPA.
DARPA encourage à inventer
des « robots sauveteurs » ;
les gens ont travaillé à créer
des robots qui peuvent

Spanish: 
Aquí a la derecha, también acierta:
Grupo de jóvenes jugando al "frisbee".
Si solo miran estos ejemplos, dirán:
hemos resuelto el problema,
la máquina entiende lo que pasa.
Luego le enseñan esto:
La respuesta correcta quizá es
"señal de parking con pegatinas"
pero pueden describirla de otro modo.
Ninguno diría lo que dijo la máquina:
(Risas)
"Frigorífico lleno de comida y bebida".
Me recuerda a "El hombre que confundió a
su mujer con un sombrero" de Oliver Sacks.
Si mi hijo hiciera esto, pensaría
que tiene problemas neurológicos.
Le llevaría corriendo al médico.
El sistema no entiende realmente qué es
una señal de parking, una pegatina,
un frigorífico, una bebida,
así que está buscando
lo más parecido en su base de datos,
que es este batiburrillo de colores,
pero eso no es entender de verdad.
Voy a enseñarles un vídeo
editado por IEEE Spectrum
el año pasado tras la competición DARPA.
DARPA buscaba gente que
construyese "robots de emergencias",
y los laboratorios hicieron de todo
para crear robots

Chinese: 
右边这幅，它也答对了：
一群玩飞盘的年轻人。
如果只看这几个例子，
你确实能说：“我们已经解决了问题。
机器明白发生了什么。“
那现在这幅呢。
我觉得正确答案也许是
一个带贴画的停车标识，
但你的答案也许会不一样。
而机器的答案和它们都不一样，
（笑声）
它说，这是一个装满
食物和饮料的冰箱。
这让我想到了奥利佛·萨克斯的书
《错把太太当帽子的人》。
如果我的孩子这么做，
我会觉得他们的神经可能出了问题。
得赶快带他们去看医生。
系统并不真的知道
什么是停车标识，什么是贴画，
什么是冰箱，什么是饮料，
所以它会在数据库中
寻找最接近的东西，
即色彩的组合，
但它没有真的理解。
我要展示一段去年
IEEE（电气电子工程师学会）
DARPA机器人大赛后剪辑的视频。
DARPA想让大家设计“应急机器人”，
人们在实验室做了各种努力，

Japanese: 
右側の例も
正しく認識されるでしょう
若者のグループが
フリスビーをしています
こうした例だけを見れば
「問題は解決された
機械は状況を把握できるのだ」
と思うかもしれません
それから これを機械に見せます
私なら「ステッカーの貼られた
駐車禁止マーク」と答えますが
違う表現もできるでしょう
でも どの答えも
機械の答えとは違うはずです
（笑）
「食べ物と飲み物が
たくさん入った冷蔵庫」
オリバー・サックスの著書
『妻を帽子と間違えた男』を思い出します
我が子がこんな答えを言ったら
何か問題があると疑い
急いで子供を
病院に連れて行くでしょう
システムは実際には
駐車禁止マークやステッカー
冷蔵庫や飲み物の意味を
理解していません
データベースにある
最も近いものを探すだけのことです
それは様々な色の混在ですが
本当に理解している訳ではありません
今からお見せするビデオは
『IEEE Spectrum』が昨年
国防高等研究計画局の公募後に
まとめたものです
「緊急支援ロボット」の開発を
進めようとしており
様々な人々が それぞれ研究所で

German: 
Das hier rechts schafft er auch:
eine Gruppe junger Menschen,
die Frisbee spielen.
Hätte man nur die guten Beispiele,
könnte man sagen: "Problem gelöst.
Der Rechner hat den Dreh raus."
Dann zeigt man ihm dieses.
Ich denke, die richtige Antwort
ist wohl ein Parkschild mit Aufklebern,
aber man könnte es anders beschreiben.
Aber der Rechner spuckt nichts davon aus,
(Gelächter)
sondern: Kühlschrank
voller Essen und Getränke.
Wie in Oliver Sacks Buch: "Der Mann, der
seine Frau mit einem Hut verwechselte".
Täte mein Kind das, würde ich
neurologische Probleme vermuten.
Ich würde mit ihm zum Arzt rasen.
Das System versteht eigentlich nicht,
was ein Parkschild, ein Aufkleber,
ein Kühlschrank oder Drinks sind.
Also sucht es in der Datenbank
nach der ähnlichsten Sache,
nämlich diese Mischung an Farben,
aber es versteht es eigentlich nicht.
Ich zeige Ihnen gleich ein Video,
das "IEEE Spectrum" letztes Jahr
nach dem DARPA-Wettbwerb erstellte.
DARPA wollte, dass Menschen ihren
eigenen "Notfall-Roboter" bauen,
und die Leute versuchten alles,
um Roboter zu bauen,

Arabic: 
هنا على اليمين، سيصيب أيضاً:
مجموعة من الشباب يلعبون لعبة فرايسبي.
إذا نظرت لهذه الأمثلة فقط،
فستقول، " لقد حللنا المشكل.
تفهم الآلة ما يجري."
بعد ذلك، تريها هذه.
سأقول أن الجواب الصحيح ربما
هو علامة مرآب عليها بعض الملصقات،
لكن يمكنك وصفه بشكل مختلف.
لن تكون تلك أي من الأجوبة 
التي ستعطيكها الآلة،
(ضحك)
وهي ثلاجة مليئة بالكثير
من الطعام و الشراب.
وهذا ذكّرني بكتاب (أوليفر ساك)
" الرجل الذي حسب زوجته قبعة"
إنْ قام طفلي بهذا، فسأعتقد 
أن هذه مشاكل عصبية.
وسأحمله بسرعة للطبيب.
لا يفهم النظام جيداً ما هي علامة المرآب،
ما هي الملصقات،
ماهي الثلاجة، ماهي المشروبات،
لذا فهو ينظر لأقرب شيء 
في قاعدة بياناته،
والتي هي ذلك المزيج من الألوان،
لكن هذا ليس فهماً بالتحديد.
أنا بصدد أن أريكم شريطاً أعده معهد 
المهندسين الكهربائيين والأجهزة الكهربائية
السنة الماضية بعد مسابقة DARPA.
والتي كانت تحاول جعل الناس يخترعون
"رجالاً آليين للطوارئ،"
فقام الناس بكل أنواع الأعمال
في مختبراتهم لبناء رجال آليين

Ukrainian: 
Картинку справа 
він теж описує правильно:
група молодих людей грає у фрізбі.
Розглянувши ці приклади, ви могли б 
сказати: "Ну все, проблему вирішено.
Машина розуміє, що відбувається".
А потім ви показуєте
наступну картинку.
Я б сказав, що правильною відповіддю є,
можливо, дорожній знак з наліпками,
але у кожного відповідь своя.
Однак, жодна з них не збігається
з відповіддю машини.
(Сміх)
Тобто: "Холодильник, забитий 
продуктами та напоями".
Тут слід пригадати книгу Олівера Сакса
"Чоловік, який сплутав дружину з капелюхом".
Якби так сказала моя дитина, я б подумав,
що у неї неврологічний розлад.
Я б кинувся бігом до лікаря.
Система, насправді, не розуміє, 
що таке дорожній знак, що таке наліпка,
холодильник, напої,
тому машина шукає 
найбільш схожу річ у базі даних,
що в цьому випадку є поєднанням кольорів, 
та це не можна назвати розумінням.
Зараз я покажу вам відео про
минулорічне змагання автомобілів-роботів,
яке змонтував журнал "IEEE spectrum".
Організатори поставили завдання
збудувати "роботів для надзвичайних ситуацій",
і учасники цілодобово працювали 
над створенням роботів,

Hungarian: 
Ezt a jobb oldalon szintén felismeri:
Fiatalok csoportja frizbivel játszik.
Ha csak ezeket látjuk, azt mondhatjuk:
"A feladat megoldva. 
A gép érti, hogy mi történik."
Aztán megmutatjuk neki ezt.
Szerintem a pontos válasz talán:
egy közlekedési tábla matricákkal,
de lehet, hogy önök mást mondanának.
De senki közülünk nem mondaná,
amit a gép válaszol:
(Nevetés)
"Egy hűtőszekrény, 
tele étellel és itallal".
Oliver Sack könyve jut eszembe:
"Az ember, aki kalapnak nézte a feleségét"
Ha a gyermekem ezt felelné,
neurológiai problémára gyanakodnék,
és sürgősen orvoshoz vinném.
A rendszernek fogalma sincs,
mi a közlekedési tábla, a matrica,
a hűtőszekrény, vagy az ital.
Csupán megkeresi a leghasonlóbb
dolgot az adatbázisában,
ami ilyen színekből áll,
de amúgy fogalma sincs az egészről.
Mutatok egy videót, 
amit az IEEE Spectrum rakott össze
a tavalyi DARPA-versenyt követően.
A DARPA versenyt hirdetett
"vészhelyzeti robotok" építésére.
A pályázók laboratóriumaikban
különféle robotokat építettek,

Italian: 
E farà lo stesso
con l'immagine a destra:
un gruppo di giovani
che giocano a Frisbee.
Tenendo presenti questi esempi,
si potrebbe dire:
"Problema risolto, ora le macchine
capiscono ciò che vedono."
Poi provate con questo.
La risposta corretta sarebbe
Segnale di parcheggio
con adesivi sopra,
ma si potrebbe descrivere
diversamente.
Ma la macchina vi darebbe
una risposta diversa,
(Risate)
tipo frigorifero pieno 
di cibi e bevande.
Mi ricorda il libro di Oliver Sacks:
"L'uomo che scambiò
sua moglie per un cappello."
Se l'avesse fatto mio figlio,
penserei a dei problemi neurologici,
e lo porterei di corsa dal medico.
Il sistema non capisce veramente
cosa sia un segnale stradale o un adesivo,
non sa cosa sia un frigorifero,
cosa siano le bevande,
perciò cerca la cosa più simile
nel suo database,
che somiglia a un miscuglio di colori
ma non è comprensione vera e propria.
Vi mostrerò ora un video
preparato dalla IEEE Spectrum,
l'anno scorso,
dopo il concorso della DARPA.
La DARPA cercava di far costruire
dei "robot di emergenza,"
quindi nei laboratori si cercava
di costruire dei robot

Dutch: 
Hier rechts lukt het ook:
een groep jongeren speelt frisbee.
Voor deze voorbeelden zou je zeggen: 
"We hebben het probleem opgelost.
De machine begrijpt wat er gaande is.
Dan toon je dit.
Het juiste antwoord is misschien 
een parkeerbord met stickers erop,
maar je kon het anders beschrijven.
Maar de machine geeft je wat anders:
(Gelach)
een koelkast met veel eten en drinken.
Doet me denken 
aan het boek van Oliver Sacks:
'De man die zijn vrouw voor een hoed hield'
Als mijn kind dit deed, zou ik denken 
dat het neurologische problemen had,
gelijk ermee naar de dokter.
Het systeem begrijpt niet echt wat 
een parkingteken is, wat een sticker is,
wat een koelkast, wat drankjes zijn,
dus zoekt het naar het meest 
gelijkende ding in zijn databank,
een kleurenmengsel, 
maar dat is geen echt begrijpen.
Ik toon een video van IEEE spectrum
van de DARPA-competitie van vorig jaar.
DARPA wilde 'emergency robots' 
laten bouwen.
In hun lab werd geprobeerd 
om robots te bouwen

English: 
Here on the right, it gets it right too:
Group of young people
playing a game of Frisbee.
If you just look at these examples,
you'd say, "We've solved the problem.
The machine understands what's going on."
Then you show it this one.
I would say the correct answer is maybe
a parking sign with stickers on it,
but you could describe it differently.
None of those would be
what the machine gives you,
(Laughter)
which is refrigerator filled
with lots of food and drinks.
Makes me think of the Oliver Sack's book,
"The Man Who Mistook His Wife for a Hat."
If my child did this, I would think
there was neurological problems.
I would rush them to the doctor.
The system doesn't really understand
what a parking sign is, what a sticker is,
what a refrigerator is, what drinks are,
so it's looking for the nearest thing
in its database,
which is this melange of colors,
but that's not really understanding.
I'm about to show you a video
that the IEEE spectrum put together
last year after the DARPA competition.
DARPA was trying to have people
build "emergency robots,"
and people did all kinds of work
in their lab to build robots

Arabic: 
يمكنهم القيام بأشياء مثل فتح 
الأبواب في حال الطوارئ.
كان الناس يفكرون في ما حدث 
في فوكوشيما،
حيث يمكنك إرسال رجال آليين
إلى حيث لا يمكن إرسال الإنسان.
كل الأشياء التي سأريكموها
تدربت عليها جيداً المختبرات
التي شاركت في هذه المسابقة،
لكن كما سترون، فالنتائج
لم تكن بالمستوى المنشود.
(موسيقى)
هناك المزيد الذي تستطيعون رؤيته
على اليوتيوب.
لكن أعتقد أنه كفانا سخرية 
من أولئك الرجال الآليين بالذات.
النقطة الكبيرة التي أود أن أوصلها
هي أن الأشياء التي نجيدها الآن
في مجال الذكاء الاصطناعي،
هي الأشياء على اليسار:
الأشياء الروتينية التي نمتلك
بياناتها الضخمة.
إذن إن كنت تمتلك الكثير من البيانات
حول فتح الأبواب
في بيئة معينة، فأنت عظيم.
لكن ماذا لو تغيرت البيئة؟
إذن فأنت أمام بيانات قليلة فقط،
الأشياء غير العادية لكن المهمة.

Italian: 
che fossero capaci, ad esempio,
di aprire porte in caso di emergenza.
Si pensava a un evento come Fukushima,
a robot da inviare in posti
inaccessibili per le persone.
Tutto ciò che vi mostrerò
è stato messo a punto nei laboratori
che partecipavano al concorso,
ma come vedrete i risultati
hanno lasciato un po' a desiderare.
(Musica)
Ci sono altri video su YouTube,
ma forse ci siamo già presi gioco
abbastanza di quei robot.
Più in generale,
quello che volevo dire
è che per ora, nel campo
dell'intelligenza artificiale,
siamo a buon punto
con le cose a sinistra del grafico,
i compiti ripetitivi per cui
disponiamo di big data.
Se ci sono molti dati
sull'apertura delle porte
in un ambiente particolare,
va benissimo.
Ma se l'ambiente cambia?
In quel caso ci sono solo pochi dati,
di cose insolite ma importanti.

Japanese: 
緊急時にドアを開けたりできる
様々なロボットを開発しました
福島の事例があったため
人間の代わりに活躍するロボットを
開発したかったのです
これからお見せするのは
この公募に参加した研究所が
真剣に取り組んだものですが
その結果はあまり
芳しくありませんでした
（音楽）
YouTubeで
もっとご覧になれますが
このロボットたちを笑うのは
これ位にしておきましょう
大まかに申し上げたかったのは
つまり 人工知能の分野で
現在 私たちが得意な事柄は
左にあるものなのです
ビッグデータがあるような
決まった事柄です
ある特定の環境で
ドアを開けることについて
たくさんデータがあれば
上手くいくことでしょう
でも環境が変わったら？
データがほとんどないような
頻繁には起こらないが重要な事柄です

Swedish: 
som till exempel kunde öppna dörrar
när en olycka inträffat.
Man tänkte på olyckan i Fukushima,
där man kunde skickat in robotar
dit man inte kan skicka människor.
Allt jag kommer visa er
hade övats in väl av de labb
som deltog i tävlingen,
men som ni kommer få se
var resultaten något bristfälliga.
(Musik)
Det finns mer att se på YouTube senare,
men nu har vi nog förnedrat
de där robotarna tillräckligt.
Poängen jag vill komma till är
att vad vi är bra på just nu
inom artificiell intelligens
är sakerna på vänster sida:
rutinsakerna som vi har big data om.
Så om du har massor av data
om att öppna dörrar
i en speciell miljö
så funkar det jättebra.
Men om miljön förändras?
Då har man bara lite data,
de ovanliga men viktiga sakerna.

English: 
that could do things like open doors
in case of emergency.
People were thinking
of the Fukushima event,
so you want to send robots in
where you can't send people.
All the things I'll show you
were well practiced by the labs
that participated in this competition,
but as you'll see, the results
left something to be desired.
(Music)
There's more you can see on YouTube later,
but that's probably enough mocking
those particular sets of robots.
The broader point that I want to make
is that what we're good at right now
as a field, in artificial intelligence,
is the stuff on the left:
the routine things
for which we have big data.
So if you have a lot of data
about opening doors
in a particular environment, you're great.
But what if the environment changes?
Then you have only little data,
the unusual but important things.

Ukrainian: 
які б у разі надзвичайної ситуації
могли відкривати двері і т.ін.
Люди орієнтувалися на такі події
як трагедія у Фукусімі,
куди краще відправити робота,
бо людині там буде небезпечно.
Все, що я покажу зараз, було розроблено
і перевірено на практиці
лабораторіями-учасниками змагання.
Зараз переконаєтесь, що результат 
залишає бажати кращого.
(Музика)
Більше зможете подивитись 
пізніше на YouTube,
ми достатньо поглузували з цих роботів.
Моя думка полягає в тому,
що ми, учені в сфері ШІ, 
добре розбираємося в тому,
що зображено зліва:
звичайні речі,
для яких ми маємо великі обсяги даних.
Тож якщо маєте багато даних
про відкриття дверей
у певному середовищі, так тримати!
А якщо середовище зміниться?
Тоді ви маєте невеликий обсяг даних,
ви оперуватимете нетиповою, але

Chinese: 
让设计的机器人能完成
在紧急情况下开门之类的任务。
人们想起到了福岛核电站事故，
所以人类去不了的地方
想让机器人代劳。
我要展示的东西都是参赛前
在实验室反复练习过的，
但就像你们要看到的一样，
结果并不尽如人意。
（音乐）
你能在Youtube上看到更多，
但这些也足够
用来嘲笑这些机器人了。
把视角放宽一点，
我们现在深入研究的AI领域
是左边这些：
我们有大数据可以参考的常规事物。
如果你有大量数据描述
在某个环境下开门，那很好。
但如果环境变了呢？
关于不寻常却重要的事
你只有一点点数据。

Hungarian: 
melyek vészhelyzetben képesek
például ajtókat kinyitni.
A pályázók a fukushimai
eseményre gondolva
olyan helyekre akartak robotot küldeni,
ahova embereket nem lehet.
Amiket mutatok, kiválóan működtek
a versenyben részt vevő laboroknál,
de ahogy látják majd, hagytak némi
kívánnivalót maguk után.
(Zene)
A YouTube-on még több ilyet találunk,
de ennyi talán elég, hogy el tudjuk
képzelni az effajta robotokat.
Amiről tágabb értelemben beszélni akarok,
az a terület, amiben már most is jók
vagyunk a mesterséges intelligenciában,
az a bal oldali dolog:
a rutinszerű dolgok,
melyekhez rengeteg adatunk van.
Ha például van sok-sok adatunk
ajtók kinyitásáról
egy adott környezetben, 
akkor szerencsénk van.
De mi van, ha a környezet változik?
Akkor már csak kevés adatunk van
a ritka, ám fontos dolgokról.

German: 
die im Notfall Türen öffnen können.
Die Leute dachten an
den Fukushima-Vorfall;
man will Roboter einsetzen,
wo Menschen nicht einsetzbar sind.
Alles, was ich Ihnen nun zeige,
wurde von den Labors gut eingeübt,
die am Wettbewerb teilnahmen,
aber Sie werden sehen,
die Ergebnisse lassen zu wünschen übrig.
(Musik)
Auf YouTube gibt es noch viel mehr davon,
aber das ist wohl genug Hohn
über diese bestimmte Art Roboter.
Vielmehr will ich sagen:
Was wir gerade im Feld der KI gut können,
sind die Dinge links --
für Routinesachen haben wir
große Datenmengen.
Hat man also viele Daten zum Öffnen
von Türen in einem bestimmten Umfeld,
läuft es super.
Aber wenn sich das Umfeld ändert?
Dann gibt es nur wenig Daten;
ungewöhnliche, aber wichtige.

French: 
par exemple ouvrir une porte
en cas d'urgence.
Par exemple, dans le cas de Fukushima,
envoyer des robots là où on ne peut pas
envoyer des hommes.
Ce que je vous montre
a été bien répété par les laboratoires
qui ont participé à la compétition,
mais, comme vous le voyez,
ça laissait encore à désirer.
(Musique)
Vous pourrez en voir d'autres sur YouTube,
mais ça suffira pour ces robots-là.
Plus largement, ce que je veux dire,
c'est qu'aujourd'hui, nous sommes
bons dans un domaine de l'IA,
celui à gauche :
les sujets répandus où on a
beaucoup de données.
Avec beaucoup de données sur
comment ouvrir une porte
dans un environnement précis, c'est bon.
Mais si l'environnement change ?
Vous aurez alors peu de données,
des données rares mais importantes.

Dutch: 
die deuren konden openen 
in geval van nood.
Mensen dachten aan Fukushima.
Je wil robots sturen 
waar geen mensen mogen komen.
Dit werd allemaal 
goed uitgeprobeerd in de labs
die deelnamen aan de wedstrijd.
Zoals jullie kunnen zien, 
vielen de resultaten toch wat tegen.
(Muziek)
Op YouTube vind je nog meer,
maar genoeg gelachen met dit soort robots.
Wat ik eigenlijk wil zeggen,
is dat we qua kunstmatige 
intelligentie op dit moment
goed zijn in die dingen 
aan de linkerzijde:
de routinedingen 
waarvoor we big data hebben.
Als je veel data hebt 
over het openen van deuren
in een bepaalde omgeving, 
dan lukt dat geweldig.
Maar wat als de omgeving verandert?
Dan heb je maar weinig data, 
de ongewone maar belangrijke dingen.

Spanish: 
que pudieran hacer cosas como
abrir puertas en caso de emergencia.
Pensaban en el accidente de Fukushima,
para mandar robots allí
donde no puedes mandar a personas.
Todo lo que verán fue probado
previamente por los laboratorios
que participaron en la competición,
pero como verán, los resultados
dejaban algo que desear.
(Música)
Hay más si quieren verlo luego en YouTube,
pero quizá ya nos hemos burlado 
suficiente de estos robots en particular.
El argumento general que propongo
es que en lo que somos buenos hoy
en el campo de la inteligencia artificial
son las cosas de la izquierda:
lo más habitual,
de lo que tenemos "big data".
Así que si tienes muchos datos
sobre apertura de puertas
en un contexto particular, genial.
¿Pero y si el contexto cambia?
Entonces tienes poca información,
lo menos habitual pero importante.

French: 
Ou, de manière ironique,
du « small data ».
Les humains sont vraiment doués avec le
small data, les machines toujours pas.
Elles n'ont pas une grande profondeur
de raisonnement, pas de bon sens.
J'ai récemment écrit cet article
avec Ernie Davis
sur « le bon sens en IA »,
et les gens qui ont fait la couverture
ont très subtilement illustré le point :
un robot sciant la branche
sur laquelle il est assis.
Une manière de déterminer
sur quel côté s'asseoir,
avec sa tronçonneuse,
serait de collecter beaucoup de données.
Mais, vous savez, ce n'est ni bon
pour les gens sous la tronçonneuse,
ni pour le robot lui-même.
Vous n'avez pas besoin de big data
pour comprendre,
il vous faut des principes abstraits.
Ça empire quand on s'essaie
au raisonnement scientifique.
Voilà un QCM,
tiré de questions pour des élèves de 4e,
conçu par l'Institut
pour l'IA de Paul Allen.
Que nous disent les tremblements
de Terre sur l'histoire de la Terre ?
Une seule réponse possible :
A : le climat de la Terre
évolue constamment.
B : Les continents bougent
continuellement.

Dutch: 
Of wat ik voor de grap 'kleine data' noem.
Mensen zijn goed in kleine data, 
maar machines nog altijd niet.
Deels omdat er weinig inzicht is, 
zelfs geen gezond verstand.
Onlangs schreef ik 
een artikel met Ernie Davis
over 'Gezond verstand-denken in KI' 
en de mensen die de cover ontwierpen,
maakten er een die 
dat zeer mooi illustreert:
een robot die een tak afzaagt.
Eén manier om te weten 
waar je moet gaan zitten
met je kettingzaag zou zijn 
door veel gegevens te verzamelen.
Maar dat komt niet zo goed uit 
voor wie onder de kettingzaag staat,
noch voor de robot.
Dat wil je niet leren 
aan de hand van big data,
je hebt meer abstracte principes nodig.
Nog erger is het 
bij wetenschappelijk redeneren.
Hier is een meerkeuze-examen,
oorspronkelijk bedoeld voor 16-jarigen,
gemaakt door Paul Allens' 
'Allen KI Instituut'.
[Wat vertellen aardbevingen 
over de geschiedenis van de planeet?]
Hier de mogelijke antwoorden:
A: Het klimaat verandert constant.
B: De continenten 
zijn constant in beweging.

English: 
Or, what I jokingly call, "small data."
Humans are really good at small data,
but machines still aren't very good at it.
Part of it is because there's little depth
of understanding, not even common sense.
I recently wrote this article
with Ernie Davis
on "Common Sense Reasoning in AI,"
and the people who put together the cover
made this great cover
that makes the point very nicely
that you have the robot here
that is sawing a tree limb.
One way you could learn
about which side of the limb to sit on,
when you were sitting with your chainsaw,
would be to collect a lot of data.
But, you know, this is not good
for people sitting below the chainsaw,
and not good for the robot.
You don't want to learn this
on the basis of big data,
you want to have more abstract principles.
Things get worse when you get
to scientific reasoning.
Here's a multiple choice exam,
originally drawn
from eighth grader questions,
made by Paul Allen's Allen AI Institute.
What do earthquakes tell scientists
about the history of the planet?
One possibility - multiple choice -
is, A: Earth's climate
is constantly changing.
B: The continents of Earth
are continually moving.

Swedish: 
Eller vad jag skämtsamt kallar "små data".
Människor är bra på små data,
men maskiner är fortfarande inte det.
Det beror delvis på att det inte finns
någon djup förståelse,
inte ens sunt förnuft.
Jag skrev nyligen en artikel
med Ernie Davies
om "Sunt förnuft inom AI",
och de som gjorde omslaget
gjorde det på ett sätt
som visar vad det handlar om,
med en robot som sågar av en trädgren.
Ett sätt som man skulle kunna veta
vilken sida man ska sitta på
när man sitter där med sin motorsåg
är att samla in mycket data.
Men det är inte bra för människor
under motorsågen,
och inte så bra för roboten.
Det här vill man inte ta reda på
genom big data,
utan genom abstrakta principer.
Saker blir värre när man kommer
till vetenskaplig slutledning.
Här är ett flervalsprov
som är baserat på frågor
som getts till elever i åttan,
gjort av Paul Allen's AI Institute.
Vad kan jordbävningar säga forskare
om planetens historia?
Ett val - av flera val -
är A: Jordens klimat ändras konstant.
B: Jordens kontinenter rör sig konstant.

Ukrainian: 
важливою інформацією.
Тим, що я іронічно називаю "малі дані".
Люди добре розуміються на малих даних, 
а машини — досі ні.
Почасти це пояснюється відсутністю 
розуміння та здорового глузду.
Нещодавно я написав статтю
з Ерні Девіс на тему:
"Міркування на рівні "здорового глузду" у ШІ".
Редактори створили
чудову обкладинку, 
яка влучно відображає цю думку:
на ній зображено робота, 
який пиляє гілку дерева.
Єдиним способом дізнатися, 
з якого боку гілки сидіти,
коли у вас у руках бензопилка, 
був би збір великих обсягів даних.
Але це не дуже підходить для тих, 
хто сидить нижче,
та й самого робота.
Треба не робити аналіз
на основі великих обсягів даних,
а володіти більш абстрактними принципами.
Ситуація виглядає ще гіршою,
якщо зануритись у наукові міркування.
Ось екзамен тестового типу,
сформований з питань для восьмикласників,
що був розроблений 
Інститутом ШІ ім. Пола Аллена.
Що землетруси говорять вченим 
про історію нашої планети?
Одна можливість - множинний вибір -
А: Клімат Землі постійно змінюється.
Б: Континенти Землі 
перебувають у постійному русі.

Arabic: 
أو ما أسميه دعابة، "البيانات الصغيرة."
البشر بارعون جداً في ما يتعلق بالبيانات 
الصغيرة، لكن الآلات ليست كذلك بعد.
جزء من ذلك راجع لوجود فهم أقل عمقاً،
ولا نتحدث هنا عن الحس السليم حتى.
كتبت مؤخراً مقالا مع (إرني ديفيس)
حول"منطق الحس السليم في الذكاء الاصطناعي"
وقد وضع الفريق الذي عمل على الغلاف
هذا الغلاف الرائع، الذي يوضح المعنى
على نحو جميل
حيث لديك رجل آلي هنا يقطع فرع شجرة.
بطريقة يمكنك أن تعرف على أي ناحية 
من الفرع يمكنك أن تجلس،
عندماً كنت جالساً بمنشارك، 
سيكون من أجل جمع الكثير من البيانات.
لكن، أتعلمون، ليس هذا جيداً بالنسبة 
للجالسين تحت المنشار،
ولا حتى للرجل الآلي.
لا تريد أن تتعلم هذا على أساس 
البيانات الضخمة،
ستريد أن تحصل على مبادئ مجرّدة أكثر.
تزداد الأمور سوءاً حين تصل 
للتفكير العلمي
هنا أسئلة متعددة الخيارات،
مصمم بالأساس من أسئلة
من الصف الثامن،
قام بها (بول ألن) من معهد 
الذكاء الاصطناعي
ما الذي تكشف عنه الزلازل للعلماء
عن تاريج الكوكب؟
إمكانية واحدة - خيارات عدة -
أ- مناخ الأرض متغير باستمرار.
ب- القارات على الأرض تتحرك باستمرار

Hungarian: 
Ez, viccesen szólva, 
a "small data" [kis adat].
Az emberek "small data"-ban nagyon jók,
a gépek viszont még egyáltalán nem.
Részben azért, mert kicsi a megértés
szintje, még a józan ésszel sem ér fel.
Nemrégiben írtuk Ernie Davis-szel
ezt a tanulmányt, melynek címe:
"A józan ész 
és a mesterséges intelligencia".
A borító tervezői remekül 
megragadták a lényeget
a maga alatt fát vágó robottal.
Egyik módja annak, hogy megtanuljuk,
az ág melyik oldalára kell ülni
a láncfűrész beindítása előtt, 
hogy jó sok adatot gyűjtünk.
Ez azonban nem az igazi
a fűrész alatt ülő embereknek,
és nem az igazi a robotnak sem.
Ezt a dolgot nem a "big data"-ból
szeretnénk megtanulni,
ehhez elvontabb elvekre van szükségünk.
Még rosszabb a helyzet 
a tudományos érveléssel.
Ez itt egy több választásos kérdés,
amely eredetileg egy nyolcadikos
vizsgasorban szerepelt,
és Paul Allen AI Intézete állította össze.
Mit mesélnek a földrengések 
a tudósoknak a bolygó történetéről?
A választási lehetőségek:
A: A Föld éghajlata folyamatosan változik.
B: A Föld kontinensei állandóan mozognak.

Spanish: 
O, como lo llamo en broma, "small data".
Los humanos somos buenos con "small data"
pero a las máquinas se les da mal
porque comprenden superficialmente,
no alcanzan ni el sentido común.
Hace poco escribí este artículo
junto a Ernie Davis sobre
"Razonamiento de sentido común en IA",
y los diseñadores
hicieron esta estupenda portada
que resume muy bien la idea
con este robot que está serrando 
la rama de un árbol.
Una manera de aprender 
en qué lado de la rama sentarte,
cuando estás ahí con tu motosierra,
sería recopilar mucha información.
Pero eso no valdría para
la gente sentada bajo la motosierra,
y no valdría para el robot.
No quieres aprender esto
basándote en "big data",
sino usando principios más abstractos.
Y funciona incluso peor
con el razonamiento científico.
Esto es un examen de elección múltiple
hecho con preguntas para 8º grado,
13a 14 años,
por el Instituto Allen de IA 
de Paul Allen.
¿Qué saben los científicos de la historia
del planeta gracias a los terremotos?
Una posibilidad, elección múltiple:
A) El clima terráqueo
cambia continuamente.
B) Los continentes
se mueven continuamente.

German: 
Oder, was ich scherzhaft
"Small Data" nenne.
Menschen können damit prima umgehen,
aber Maschinen immer noch nicht richtig,
zum Teil, weil das Tiefenverständnis
und vor allem der Alltagsverstand fehlt.
Ich schrieb kürzlich
mit Ernie Davis einen Artikel
über "Vernünftiges Denken in der KI",
und die Leute, die das Cover machten,
schufen dieses großartige Cover,
das den Punkt verdeutlicht:
Hier sägt der Roboter den Ast ab.
Daten zu sammeln, wäre
eine Möglichkeit zu erlernen,
auf welchem Ende des Astes
man mit der Motorsäge sitzen sollte.
Aber das ist nicht gut
für die Leute, die darunter sitzen,
und für den Roboter auch nicht.
Man will das nicht anhand
enormer Datenmengen herausfinden,
sondern anhand abstrakter Prinzipien.
Bei wissenschaftlicher Argumentation
stehen die Dinge noch schlechter.
Hier ein Multiple-Choice-Test.
Ursprünglich bestand er
aus Fragen für Achtklässler,
er wurde von Paul Allens
KI-Institut erstellt.
Was verraten Erdbeben Forschern
über die Geschichte des Planeten?
Die Auswahl -- Multiple Choice:
A: Das Klima der Erde
ändert sich konstant.
B: Die Kontinente
bewegen sich ständig.

Japanese: 
私はちょっと冗談も込めて
「スモールデータ」と呼んでいます
人間はスモールデータの扱いが得意ですが
機械はまだ得意ではありません
その理由の一部は理解の浅さです
常識というものさえありません
最近アーニー・デイヴィスと
共著で出した論文は
「人口知能における常識的推論」と言い
表紙を作ってくれた人たちが
実に核心を突いた
素晴らしい表紙を作ってくれました
ロボットが木の枝を切っています
自分がチェーンソーで切っている
木の枝のどちら側に座ればいいかを
学習するには多くのデータを
集めることもできるでしょう
チェーンソーの下に
座っている人間にもよくないし
ロボットにもよくありません
これはビッグデータに基づいて
学習するのではなく
より抽象的な原則を
必要とするでしょう
科学的推論になると
状況は悪化します
この選択式問題は
元は中学１年生レベルの
問題から取ったもので
アレン人工知能研究所の
ポール・アレンが作ったものです
「地震から科学者たちが
地球の歴史についてわかることは？」
複数の選択肢は
A 「地球の気候は
常に変動している」
B 「地球上の大陸は
常に移動を続けている」

Italian: 
Quelle che io chiamo "small data."
E gli esseri umani sono bravissimi
a gestire gli small data,
mentre le macchine
sono ancora molto indietro.
In parte perché non c'è comprensione
profonda e neanche buon senso.
Di recente ho scritto un articolo
insieme a Ernie Davis
su "Buon senso e ragionamento in AI,"
e chi ha curato la copertina
ha pensato a questa immagine
che rende efficacemente l'idea:
si vede un robot
che sega il ramo di un albero.
Uno dei modi per imparare
su quale parte del ramo sedersi,
quando s'impugna una motosega,
sarebbe raccogliere dati in quantità.
Ma forse non sarebbe l'ideale
per chi siede al di sotto della motosega,
e neanche per il robot.
Più che imparare questa cosa
basandosi sui big data,
sarebbe meglio avere
principi più astratti.
Le cose peggiorano quando si parla
di ragionamento scientifico.
Questo è un esame
a risposta multipla
tratto da domande
per studenti delle medie,
messo a punto da Paul Allen
all'Istituto Allen per IA.
Quali informazioni sulla storia terrestre
danno i terremoti agli scienziati?
Scelta multipla, a risposta unica:
A: Il clima della Terra
è in continuo cambiamento;
B: I continenti terrestri
sono in continuo movimento;

Chinese: 
我给它起了个昵称：“小数据”。
人类擅长处理小数据，
但机器还不太在行。
部分原因在于理解的深度
还远远不够，甚至包括常识。
我最近和厄尼·戴维斯
合著了这篇文章
《人工智能中的常识推理》，
而设计这个封面的人
用这个精彩的封面，
优雅地阐释了文章的论点，
说这个机器人在砍树。
决定拿着链锯时
坐在树干哪边的一个方法
就是收集很多数据。
但你也知道，坐在链锯底下
对人和机器都不好。
你不需要用很多数据来学习这一点，
你需要更抽象的原则。
在科学推理方面，情况就更糟了。
这是一场选择题测试，
来源是八年级题库，
由保罗·艾伦的
艾伦人工智能研究所设计。
关于地球的历史，
地震告诉了科学家什么？
请看选项：
A：地球的气候在持续变化
B：地球的大洲在不断漂移

French: 
C : Les dinosaures ont disparu
il y a 65 millions d'années.
D : Les océans sont plus
profonds qu'il y a des millions d'années.
Apparemment, les machines,
du moins celles en compétition,
répondent :
« C : Les dinosaures ont disparu
il y a 65 millions d'années. »
Pourquoi ? Probablement parce qu'elles
font l'équivalent d'une recherche Google,
par mots-clés.
« Histoire de la planète »,
« 65 millions d'années »,
« dinosaures » et « extinction »
sortent tous ensemble.
Il ne s'agit pas de comprendre
ce qu'est un tremblement de Terre
ou l'histoire de la planète.
Heureusement, beaucoup de vous,
ici au CERN, savez que la réponse est B,
mais pas beaucoup de machines.
Comme Wired l'a titré, « La meilleure
IA foire des tests de 4e ».
Je vous ai déjà donné mon opinion : une IA
pouvant mener un raisonnement
scientifique n'est pas encore là.
Voici ce que j'ai écrit il y a quelques
années. Je ne retire aucun mot.
Je l'ai écrit pour le New Yorker quand
l'apprentissage profond
est devenu populaire
et faisait la une du New York Times.
« L'apprentissage profond
n'est qu'une partie du défi
des machines intelligentes.
Ces techniques n'arrivent pas
à représenter les relations causales,
qui a fait quoi à qui,

Japanese: 
C 「恐竜はおよそ6500万年前に
絶滅した」
あるいは D 「何百万年も前
海はずっと深かった」
実は 機械が答えるとなると
このテストを受けた機械の多くは
こう答えました
C 「恐竜はおよそ6500万年前に
絶滅した」と
その理由は ここで行われたのは
Google検索のようなもの―
つまりキーワード検索です
「地球の歴史」
「6500万年前」
「恐竜」「絶滅」といった語が
同時にヒットしたのです
ここには地震が何であり
地球の歴史が何かという
本当の理解はありません
CERNにいる皆さんの多くは
答えがBだとおわかりでしょうが
機械の多くはわかりませんでした
『Wired』誌は 「最高の人工知能 
中１の問題解けず」と報じました
お話しした通り
私が目指す人工知能は
独力で科学的推論ができるもので
そこにはまだ到達していません
これは数年前に書いたもので
今もそう考えています
深層学習が知られ始めた時に
『ニューヨーカー』誌に書いたもので
『ニューヨーク・タイムズ』紙の
一面を飾りました
「現実的には 深層学習は
人工知能を構築する上での
挑戦のほんの一部に過ぎません
「何が誰に何をしたか」といった
因果関係を表現する方法が
この技術には欠けており

Swedish: 
C: Dinosaurierna utrotades
för ungefär 65 miljoner år sen.
Eller D: Haven är mycket djupare
än de var för flera miljoner år sen.
Tydligen, om man är en maskin,
sa de flesta modeller
som var med i tävlingen:
"C: Dinosaurierna utrotades
för ungefär 65 miljoner år sen."
Varför det? Kanske för att de
gör motsvarigheten till en Google-sökning,
en sökning på nyckelord.
Och "jordens historia",
"65 miljoner år sen",
"dinosaurier" och "utrotad" 
brukar dyka upp tillsammans.
Det finns ingen riktig förståelse
av vad en jordbävning är,
eller vad jordens historia är.
Förhoppningsvis vet många av er
här på CERN att svaret är B,
men det gjorde inte många av maskinerna.
Som tidningen Wired skrev, "Vår bästa AI
klarar fortfarande inte 8:an NO-kurs."
Jag har redan berättat
att min vision är AI-system
som kan dra vetenskapliga slutledningar
på egen hand, och vi är inte där än.
Här är något som jag skrev
för några år sen,
och jag står fortfarande för varje ord.
Jag skrev den här för New Yorker
när deep learning blev populärt
och den var med på framsidan
av New York Times.
Realistiskt sett är deep learning
bara en del av utmaningen
att bygga intelligenta maskiner.
Såna tekniker saknar sätt
att representera kausala samband -
vad gjorde vad mot vem -

Spanish: 
C) Los dinosaurios se extinguieron
hace 65 millones de años.
D) Los océanos son mucho más profundos
que hace millones de años.
Al parecer, si eres una máquina,
la mayoría de prototipos respondieron
"C) Los dinosaurios se extinguieron
hace 65 millones de años".
¿Por qué? Probablemente porque hicieron
el equivalente a buscar en Google,
una búsqueda por palabras clave.
"Historia del planeta",
"hace 65 millones de años"
"dinosaurios" y "extinguieron",
todos aparecen a la vez.
No existe comprensión real;
de lo que es un terremoto
o de la historia del planeta.
Ojalá muchos de Uds. aquí en el CERN
supieran que la respuesta era B,
pero no muchas máquinas lo supieron.
La revista Wired resumió: "la mejor IA
todavía falla en ciencia de 8º Grado".
Ya les he contado mi visión
de sistemas de IA
que pueden hacer su propio razonamiento
científico, y aún no lo logramos.
Esto lo escribí hace unos años
y aún mantengo cada palabra,
salió en The New Yorker cuando el
aprendizaje profundo se hizo popular
y llegó a noticia de portada
de The New York Times.
"Siendo realistas, el aprendizaje
profundo es solo parte del desafío
de construir máquinas inteligentes.
Estas técnicas no tienen manera
de representar relaciones causales
-- qué hizo qué a quién --

English: 
C: Dinosaurs became extinct
about 65 million years ago.
Or, D: The oceans are much deeper
than millions of years ago.
Well, apparently if you're a machine,
most models that entered
the competition said:
"C: Dinosaurs became extinct
about 65 million years ago."
Why is that? Probably because they're
doing the equivalent of Google search,
they're doing keyword search.
And "history of the planet,"
"65 million years ago,"
"dinosaurs," and "extinct,"
all kind of pop up at once.
There's no real understanding here
of what an earthquake is,
or what the history of the planet is.
Hopefully many of you sitting in CERN
realize that the answer is B,
but not many of the machines did.
As Wired magazine put it, "The Best AI
Still Flunks 8th Grade Science."
I've already told you
my vision is AI systems
that could do scientific reasoning
on their own, and we're not there yet.
Here's something I wrote a few years ago
and that I stand by every word of.
I wrote this for the New Yorker
when deep learning became popular,
and was front page news
in the New York Times.
"Realistically, deep learning
is only part of the challenge
of building intelligent machines.
Such techniques lack ways
of representing causal relationships -
what did what to whom -

Italian: 
C: I dinosauri si estinsero
circa 65 milioni di anni fa;
D: Gli oceani sono molto più profondi
rispetto a milioni di anni fa.
A quanto pare,
la maggior parte delle macchine
partecipanti al concorso ha risposto:
C: I dinosauri si estinsero
circa 65 milioni di anni fa.
Perché? Forse perché le macchine
fanno quello che fa Google Search:
ricercano per parola chiave.
"Storia del pianeta",
"65 milioni di anni fa,"
"dinosauri" ed "estinti," 
saltano fuori tutti insieme.
Non c'è vera comprensione
di cosa sia un terremoto,
o la storia del pianeta.
Molti di voi qui al CERN dedurranno,
si spera, che la risposta è B.
Ma molte macchine
non sono state in grado di farlo.
Per la rivista Wired: 
"L'IA, al suo meglio,
non passa l'esame
di scienze delle medie."
Come ho già detto,
io immagino un sistema di IA
capace di ragionamento scientifico
autonomo, ma non ci siamo ancora.
Ho qui un libro che scrissi anni fa
e che confermo parola per parola.
Era per il New Yorker, all'epoca
in cui il deep learning acquistava fama
e guadagnava la prima pagina
nel New York Times.
"Per essere realistici, il deep learning
è solo una parte della sfida,
nella costruzione
di macchine intelligenti.
Queste tecniche non dispongono
di modalità di rappresentazione

Hungarian: 
C: A dinoszauruszok kb. 65 millió
évvel ezelőtt haltak ki.
D: Az óceánok sokkal mélyebbek,
mint több millió évvel ezelőtt.
Nos, ha ön egy gép,
akkor a versenyben részt vett 
legtöbb modell szerint:
"C: A dinoszauruszok kb. 65 millió
évvel ezelőtt haltak ki."
Miért pont az? Valószínűleg azért,
mert a Google-höz hasonlóan,
kulcsszavas kereséssel dolgoznak.
És a "bolygó története",
a "65 évvel ezelőtt",
a "dinoszauruszok", a "kihal"
együtt fordulnak elő.
Fogalmuk sincs arról,
mi az a "földrengés",
vagy a "bolygó története".
Remélhetőleg önök közül itt a CERN-ben
sokan tudják, hogy a B válasz a helyes,
a legtöbb gép azonban nem.
A Wired magazint idézve:
"A legjobb MI is megbukna nyolcadikban".
Ahogy említettem, az álmom,
hogy a MI-rendszerek
képesek legyenek tudományos érvelésre,
azonban ma még távol vagyunk ettől.
Ezt itt pár évvel ezelőtt írtam,
de ma is kitartok minden szava mellett.
A New Yorkernek írtam, amikor 
a mélytanulás kezdett népszerűvé válni,
és a New York Times 
címlapjára is felkerült.
"Valójában a mélytanulás csak egy
az intelligens gépek építésével 
járó nehézségek közül.
E módszerek nélkülözik
az okozati összefüggések ismeretét -
ki, mivel, mit csinált -

German: 
C: Die Dinosaurier starben vor
65 Millionen Jahren aus.
Oder D: Die Ozeane sind viel tiefer
als vor Millionen von Jahren.
Wenn man eine Maschine ist,
antworten die meisten
Modelle offensichtlich:
"C: Die Dinosaurier starben vor
65 Millionen Jahren aus."
Warum?
Vielleicht, weil sie das Gleiche tun
wie Google Search:
eine Schlagwortsuche.
Und "Geschichte des Planeten",
"vor 65 Millionen Jahren",
"Dinosaurier" und "ausgestorben"
erscheinen zusammen.
Es gibt kein echtes Verständnis,
was ein Erdbeben oder
die Geschichte des Planeten ist.
Hoffentlich erkennen viele von Ihnen
hier bei CERN, dass die Antwort B ist,
was nicht viele der Maschinen taten.
Laut dem Magazin Wired
"versagt die beste KI
bei Naturwissenschaft Klasse 8".
Sie wissen, meine Vision sind KI-Systeme,
die von selbst wissenschaftlich denken,
und da sind wir noch nicht.
Das hier schrieb ich vor einigen Jahren
und ich stehe immer noch dazu.
Ich schrieb es für den New Yorker,
als Deep Learning populär wurde,
und es war auf der Titelseite
der New York Times.
"Deep Learning ist nur ein Teil
der Herausforderung,
intelligente Maschinen zu bauen.
Solchen Techniken fehlen Darstellungen
kausaler Zusammenhänge
-- was hat wem was getan --

Arabic: 
ج- انقرضت الديناصورات منذ حوالي 
65 مليون سنة.
أو د- المحيطات أعمق الآن 
مما كانت عليه قبل ملايين السنين.
حسناً، على ما يبدو إن كنت آلة،
معظم النماذج التي دخلت المسابقة قالت:
ج- انقرضت الديناصورات 
منذ حوالي 65 ملبون سنة""
لماذا؟ ربما لأنها تقوم بما يعادل 
البحث على جوجل،
عن طريق الكلمة المفتاحية.
و"تاريخ الكوكب،" "منذ 65 مليون سنة،
"الديناصورات،" و الإنقراض
كلمات صعدت دفعة واحدة.
لا يوجد فهم حقيقي هنا
لما يعنيه زلزال،
أو ما يعنيه تاريخ الكوكب.
آمل أن العديد منكم هنا في (سيرن)
يدرك أن الجواب هو ب،
لكن لم تتمكن معظم الآلات من معرفة ذلك.
كما قالت مجلة وايرد، "ما يزال أفضل 
ذكاء اصطناعي يفشل في علوم الصف الثامن.
سبق وأن أخبرتكم أن رؤيتي أن أرى 
أنظمة ذكاء اصطناعي
يمكنها أن تقوم بفهم علمي بمفردها، 
لكننا لم نصل لذلك بعد.
إليكم ما كتبت منذ بضع سنوات
وما زلت ملتزماً بكل كلمة قلتها.
كتبت هذا لصحيفة نيو يوركر،
حينما أصبح التعلّم العميق شائعاً،
و كان يتصدر الصفحة الأولى لنيويورك تايمز.
"في الواقع، التعلّم العميق
هو جزء واحد فقط من تحدي
بناء آلات ذكية.
تقنيات كهذه تفتقر لطرق تمثيل
العلاقات السببية -
من فعل ذلك لمن -

Dutch: 
C: De dinosauriërs stierven 
ongeveer 65 miljoen jaar geleden uit.
D: De oceanen zijn nu veel dieper 
dan miljoenen jaren geleden.
De meeste modellen computers
in de competitie gaven dit antwoord:
C: De dinosauriërs stierven 
ongeveer 65 miljoen jaar geleden uit.
Waarom? Waarschijnlijk omdat 
ze zochten op de manier van Google,
ze zoeken op sleutelwoorden.
En 'geschiedenis van de planeet', 
'65 miljoen jaar geleden,'
'dinosauriërs' en 'uitgestorven' 
duiken samen op.
Er is hier geen echt begrijpen
van wat een aardbeving of
de geschiedenis van de planeet is.
Hopelijk beseffen de meesten 
hier in CERN dat het antwoord B is,
maar niet veel machines vonden dat.
Wired Magazine schreef:
"De beste KI slaagt niet 
voor wetenschap van de 8ste graad."
Ik heb jullie mijn idee 
al verteld over hoe KI-systemen
wetenschappelijk kunnen redeneren 
en we zijn er nog niet.
Hier is iets van een paar jaar 
geleden en ik blijf erbij.
Ik schreef dit voor de New Yorker 
toen diep leren populair werd.
Het was voorpaginanieuws 
in de New York Times.
"In feite is diep leren 
slechts een deel van de uitdaging
van het bouwen van intelligente machines.
Die technieken kunnen 
causale relaties niet voorstellen --
wat deed wat aan wie? --

Chinese: 
C：恐龙大约在6千5百万年前灭绝
D：几百万年前的海洋要深得多
看起来，如果是机器，
大部分参加考试的模型
会选C：恐龙大约在6千5百万年前灭绝。
为什么呢？也许是因为
它们像谷歌一样，
进行了关键词检索。
“地球的历史”、“6千5百万年前”、
“恐龙”和"灭绝“就一起出现了。
这不是真正的理解，
而是呆板地将地震
等同于地球的历史。
幸好在座的各位，大部分会选B，
但机器很少会选对。
正如《连线》杂志所说：“最好的AI
仍然无法通过八年级考试。”
我说过我的目标是
能独立完成科学推理的AI系统，
但我们还没成功。
这是我几年前写的一些东西，
现在我仍然完全同意。
深度学习开始流行时，
我写下这些，
成了《纽约时报》的头版新闻。
”客观来说，深度学习
只是构建智能机器中
更大挑战的一部分。
这些技术缺乏
呈现因果关系的方法，
也就是谁对谁做了什么，

Ukrainian: 
В: Динозаври вимерли 
приблизно 65 мільйонів років тому.
Г: Океани набагато глибші, 
ніж мільйони років тому.
Тож якщо ви машина, то, як і більшість
моделей-учасників змагання, відповісте:
"В: Динозаври вимерли 
приблизно 65 мільйонів років тому".
Чому ж? Напевно, тому що вони роблять 
щось подібне до пошуку Google
за ключовими словами.
А фрази "історія планети", 
"65 мільйонів років тому",
"динозаври" і "вимерли" спливуть разом.
Вони не мають жодного уявлення
про землетрус чи історію планети.
Сподіваюся, що багато з вас,
хто працює в ЦЕРН,
усвідомлює, що правильна відповідь — Б,
але багато машин так не вважали.
Як писали у журналі "Wired": "Найкраща система ШІ
досі завалює екзамен для 8-класника".
Я вже казав, що надії покладаються на те,
щоб системи ШІ змогли робити власне
наукове міркування, але нам до цього далеко.
Я написав це декілька років тому
для газети "Нью-Йоркер", коли технології
глибинного навчання набирали популярності,
і наполягаю на кожному слові.
Це також було 
на першій шпальті у "Нью-Йорк Таймс":
"Насправді, "глибинне навчання" — 
лише частина проблеми
побудови розумних машин.
Такі методи не мають способів
подання причинно-наслідкових зв'язків
- хто, що, кому зробив -

German: 
und sie stoßen auf Hindernisse
beim Aneignen abstrakter Ideen."
Vier Jahre später gibt es einen
großen Hype um Deep Learning
und Investitionen in Milliardenhöhe.
Aber es gibt keinen Fortschritt
bei kausalen Zusammenhängen,
abstrakten Ideen, logischen Schlüssen
und so weiter.
Es erinnert mich an ein altes Gleichnis.
Es handelt davon, eine Leiter
zu bauen, wenn man zum Mond will.
Wissenschaft durch KI zu lösen,
ist wie zum Mond zu gelangen;
mehr Werbung zu verkaufen, nicht.
Dank KI können wir Ihnen
nun Kaufvorschläge machen --
"Kaufen Sie diese Bücher,
mögen Sie auch diese" -- was toll ist.
Aber kaufen Sie das Buch nicht,
ist es im Grunde egal.
Aber bei Medizin
zum Beispiel ist es wichtig;
die KI soll das wirklich richtig machen.
Leitern zu bauen, die uns
einige Zentimeter näher bringen,
ist womöglich nicht der richtige Weg.
Worüber wir nachdenken sollten,
ist der Unterschied zwischen Daten
und abstrakter Einsicht.
Hier sind Boyles und Charles' Gesetze,
die Sie aus dem Chemieunterricht kennen.
Die blauen Punkte stellen die Daten dar.
Für eine Datenerfassungmaschine
ist es einfach, diese Daten zu ordnen,
aber im Grunde braucht man die Linien.

Arabic: 
ومن المرجح أن تواجه تحديات
في استيعاب الأفكار المجرّدة."
بعد أربع سنوات، هناك كلام كثير
بخصوص التعلّم العميق،
و ملايين الدولارات من الاستثمارات
لكنّنا لم نحرز تقدماً في العلاقات السببية،
الأفكار المجرّدة والتقاطعات المنطقيّة،
وما إلى ذلك.
يذكّرني هذا بمثل قديم.
يحكي المثل عن بناء سلّم 
حين تريد الصعود إلى القمر.
حل الأسئلة العلمية بالذكاء 
الاصطناعي كالصعود للقمر.
بيع المزيد من الإعلانات ليس كذلك،
يمكننا استخدام الذكاء الاصطناعي الآن
لنخبرك بما ستشتريه.
"إن اشتريت هذا الكتاب، فلربما سيعجبك هذا،"
وهذا عظيم،
لكن حين لا تشتري كتاباً، 
فهذا لا يهم فعلاً.
لكن هذا يهمّ حين يتعلق الأمر 
بأشياء مثل الطب.
نريد أن يعمل الذكاء الاصطناعي
على نحو صحيح فعلاً.
حسنا، بناء سلالم تقرّبنا 
بوصة هنا و بوصة هناك
قد لا يكون المقاربة الصحيحة.
ما أعتقد أن علينا التفكير به
هو الفرق بين البيانات والفهم المجرّد.
هذا هو قانون (بويل) و(شارل) الذي تعلمته 
في درس الكيمياء في الثانوي.
تمثل النقاط الزرقاء البيانات.
من السهل بالنسبة لآلة تجميع بيانات ضخمة
أن تنظّم هذه البيانات،
لكن ما نريده فعلاً هو الخطوط بالأساس.

Italian: 
- chi ha fatto cosa a chi -
e incontrano molti problemi
nell'acquisire idee astratte."
Quattro anni dopo, si fa un gran
parlare di deep learning,
con miliardi di investimenti.
Ma non abbiamo fatto progressi
con relazioni causali, idee astratte,
inferenze logiche e così via.
Mi viene in mente una vecchia parabola.
Parlava della costruzione di una scala
per arrivare sulla Luna.
Arrivare sulla Luna significa risolvere
problemi scientifici con l'IA.
Non vendere più pubblicità, usando l'IA
per dire alla gente cosa acquistare.
"Se comprate i miei libri,
forse vi piacerà anche questo":
d'accordo, ma se non lo comprate
non è la fine del mondo.
Diventa importante se parliamo
di cose come la medicina, invece.
In quel caso è importante
che l'IA non fallisca.
Costruire scale che ci portino
un pochino più in qua o più in là
forse non è l'approccio giusto.
Secondo me, bisognerebbe pensare
alla differenza tra dati
e comprensione astratta.
Queste sono le leggi di Boyle e Charles
che abbiamo imparato al liceo.
I punti in blu rappresentano i dati.
Per un dispositivo di raccolta di big data
organizzare dati è semplice,
ma la sfida è cogliere le linee.

Swedish: 
och kommer att stöta på problem
när man vill lära sig abstrakta idéer.
Fyra år senare är hypen stor
kring deep learning,
det investeras miljarder i det.
Men vi har inte sett en förbättring
av de kausala sambanden,
de abstrakta idéerna,
de logiska slutsatserna,
och så vidare.
Det påminner mig om en gammal liknelse.
Liknelsen handlar om att bygga en stege
när man vill komma till månen.
Att lösa vetenskapsproblem med AI
är att komma till månen.
Att sälja fler annonser är inte det,
så vi kan använda AI för att berätta
vad mer du kommer köpa,
"Om du köpte de böckerna
kanske du gillar den här", det är fint,
men om du inte köper boken
spelar det inte så stor roll.
Men det spelar stor roll
om det handlar om medicin.
Där vill vi verkligen att AI ska ha rätt.
Att bygga stegar som tar oss
en eller några centimeter närmare
kanske inte är det rätta sättet.
Vad jag tror att vi behöver tänka på
är skillnaden mellan data
och abstrakt förståelse.
Det här är Boyles och Charles lag
som du lärde dig på kemin i gymnasiet.
De blå prickarna representerar datan.
Det är lätt för en maskin
som samlar in big data att organisera den,
men vad man faktiskt vill ha är linjerna.

Chinese: 
而且容易在接受抽象概念时
遇到问题。“
4年后，深度学习被吹得天花乱坠，
催生了数十亿的投资。
但在因果关系、抽象概念、
逻辑推理等方面
我们还没有进展。
这让我想起了一则寓言，
关于建梯子登月。
通过AI解决科学问题就像登月。
用广告增加销量则不是，
所以我们能用AI告诉你
还要买什么。
“如果你买那些书，
你也许还会喜欢这本。” 很不错，
你没买也不要紧。
但如果是药物之类的就要紧了。
我们希望AI真的能够万无一失。
建造梯子一寸一寸地接近目的地
也许不是正确的途径。
我觉得我们该思考的是
数据和抽象理解的区别。
这里展示了高中化学涵盖的
玻意耳定律和查理定律。
蓝点代表数据。
大数据收集器能
很容易地收纳数据，
但你真的想要的，
其实是这些线。

English: 
and are likely to face challenges
in acquiring abstract ideas."
Four years later, there's much hype
about deep learning,
and billions worth of investment.
But we haven't had progress
on the causal relationships,
the abstract ideas,
the logical inferences,
and so forth.
It reminds me of an old parable.
The parable is about building a ladder
when you want to get to the moon.
Solving science through AI
is getting to the moon.
Selling more advertisements isn't,
so we can use AI now to tell you
what else you might buy.
"If you buy that books, you might
like this one," and that's great,
but if you don't buy the book,
it doesn't really matter.
But it matters when it comes
to things like medicine.
We want the AI to really do it right.
Well, building ladders that are getting us
an inch closer or an inch here
might not be the right approach.
What I think we need to think about
is the difference between data
and abstract understanding.
These are Boyle's and Charles' law
that you learned in high school chemistry.
The blue dots represent the data.
It's easy for a big data
collection machine to organize that data,
but what you really want
is essentially the lines.

French: 
et auront du mal à se représenter
des idées abstraites. »
Quatre ans plus tard, l'apprentissage
profond fait le buzz
et des milliards sont investis.
Mais on n'a pas progressé
sur les relations causales,
les idées abstraites,
les inférences logiques,
entre autres.
Ça me rappelle une ancienne parabole.
Celle où l'on veut construire
une échelle pour aller sur la Lune.
Faire de la science avec l'IA,
c'est aller sur la Lune.
Vendre plus de pubs, c'est simple,
donc on peut utiliser l'IA pour vous
dire quoi acheter.
« Si vous aimez ce livre, vous aimerez
celui-ci », et c'est génial,
mais si vous ne l'achetez pas,
ça n'est pas très grave.
Mais ça compte
quand on parle de médecine.
On tient à ce que l'IA ne se trompe pas.
Construire une échelle qui nous
rapproche centimètre par centimètre,
n'est peut-être pas la bonne approche.
Je pense qu'on a besoin de réfléchir
à la différence entre
les données et l'abstraction.
Voici les lois de Boyle et de Charles
qu'on apprend en chimie au lycée.
Les points bleus représentent les données.
Un ordinateur organisera
facilement les données,
mais ce que vous voulez,
ce sont les courbes.

Dutch: 
en gaan waarschijnlijk problemen hebben 
bij het verwerven van abstracte ideeën."
Vier jaar later is diep leren een hype
met miljarden euro's investering.
Maar zonder vooruitgang 
in de causale relaties,
de abstracte ideeën, 
de logische gevolgtrekkingen,
enzovoorts.
Het doet me denken aan een oude parabel.
Een parabel over het maken 
van een ladder naar de maan.
Wetenschap bedrijven door middel 
van KI is als naar de maan gaan.
Meer advertenties verkopen is dat niet.
KI kan vertellen wat je gaat kopen.
"Als je dat boek koopt, 
hou je hier misschien ook van."
Geweldig,
maar oké als je het niet koopt.
Maar het is belangrijk als het gaat 
om zaken als geneeskunde.
We willen dat KI het dan echt goed doet.
Ladders maken die ons 
één centimeter verder brengen,
is misschien niet de juiste aanpak.
Waar we over moeten nadenken,
is het verschil tussen 
data en abstract begrijpen.
Dit zijn de wetten 
van Boyle en Charles uit de scheikundeles.
De blauwe stippen stellen de data voor.
Een machine die big data behandelt, 
kan die data gemakkelijk organiseren,
maar wat je in wezen echt wilt, 
zijn de lijnen.

Hungarian: 
és az elvont tartalmak akadályt
fognak jelenteni számukra."
Négy év elteltével a mélytanulás
divatosabb, mint valaha,
és milliárdokat fektetnek bele.
Az okozati összefüggések,
az elvont tartalmak,
a logikai következtetések
és más hasonlók terén
vajmi kevés haladást értünk el.
Erről egy régi példabeszéd jut eszembe.
Ez arról szól, hogy létrát építünk,
mert el akarunk jutni a Holdra.
Tudományos kérdések megoldása
MI-val olyan, mint a Holdra jutni.
Még több hirdetést eladni - az nem igazán.
Pedig most csak arra képes a MI,
hogy megmondja, mi egyebet vegyünk.
"Ha megveszed ezt a könyvet,
az is tetszeni fog." - Remek!
De ha nem veszed meg,
nem igazán számít.
Viszont számít, ha például
a gyógyászatról van szó.
Ott akarjuk, hogy a MI jól működjön.
Tehát létrákat építgetni,
melyek centikkel visznek előre,
nem biztos, hogy a legjobb módszer.
Szerintem az adatok
és az elvont értelmezés
közti különbségen kéne gondolkodnunk.
Ezek itt Boyle és Charles törvényei,
ahogy kémiaórán tanultuk.
A kék pontok jelentik az adatokat.
A nagy adatgyűjtő gépek számára
egyszerű dolog rendszerezni az adatokat,
de amire nekünk szükségünk van,
azok a vonalak [nem a pontok].

Japanese: 
抽象的な概念を理解する上で
困難にぶつかるでしょう」
この４年後 深層学習への期待は加熱し
何十億ドルもの投資も行われています
しかし因果関係についてや
抽象概念や
論理的推論などについては
まだ進歩がありません
これで古い寓話を思い出します
月に行くために はしごを作る
というお話です
人工知能で科学を解明するのは
はしごで月に行くような話です
広告販売するのは
そうではないので
人工知能を使って
商品を勧めることができます
「この本が好きなら これはいかが？」
というのもいいでしょうし
本を買わないにしても
特に問題はありません
しかし 医療のような問題になると
話は別です
人工知能が正しい答えを
出さなくては困ります
そこここで少しずつ前進する
はしごをかけるようなやり方は
正しい方法ではないかもしれません
考えねばならないと思うのは
データと抽象的理解の違いです
これは高校の化学で習う
ボイル＝シャルルの法則です
青い点はデータを示しています
ビッグデータを収集する機械が
データをまとめるのは簡単ですが
実際に必要なのは
それを繋ぐ線の方です

Spanish: 
y seguramente les costará
aprender ideas abstractas".
4 años después, hay una fiebre
del aprendizaje profundo,
y miles de millones de inversión.
Pero no hemos progresado
con las relaciones causales,
las ideas abstractas,
las inferencias lógicas,
y demás.
Me recuerda una antigua parábola
sobre construir una escalera
cuando uno quiere llegar a la luna.
Resolver la ciencia con IA
es llegar a la luna.
Vender más publicidad no lo es,
así que podemos usar IA
para decirte qué comprar.
"Si compras este libro, quizá
te guste este otro", y eso es genial,
pero si no compras el libro,
en realidad no importa.
Pero sí importa si se aplica
a cosas como la medicina,
de verdad queremos que la IA lo haga bien.
Construir escaleras que nos lleven
un centímetro más cerca o más allá
quizá no sea el enfoque apropiado.
Creo que debemos pensar
en la diferencia entre datos
y comprensión abstracta.
Estas son las leyes de Boyle y de Charles
que se aprenden en Química de la escuela.
Los puntos azules representan los datos.
Es fácil para una máquina recoger
todos esos datos y organizarlos,
pero lo que realmente
nos interesa son las líneas.

Ukrainian: 
і швидше за все, матимуть труднощі
в опануванні абстрактних ідей".
Минуло чотири роки, 
і зараз навколо глибинного навчання
багато галасу
і мільярдні інвестиції.
Але ми так і не досягли прогресу
у причинно-наслідкових зв'язках, 
абстрактних ідеях,
логічних висновках тощо.
Це нагадує мені про стару притчу,
в якій йдеться 
про будівництво сходів до Місяця.
Вирішення наукових проблем за допомогою ШІ
— це як дістатись до Місяця.
Про рекламу так сказати не можна,
тому ми можемо використовувати ШІ, 
щоб допомогти вам з покупками.
"Якщо ви купили цю книгу,
вам можуть сподобатись наступні" і це чудово,
але зовсім неважливо, 
якщо ви все ж не купуєте книгу.
Та це має значення, 
коли мова йде про медицину.
Ми хочемо, щоб системи ШІ 
робили все правильно.
І будівництво сходів, які б наблизили нас 
на сходинку чи дві вище,
можливо, не є найкращою нашою ідеєю.
Я вважаю, що ми маємо розібратися
у різниці між даними 
та абстрактним розумінням.
Це закони Бойля-Маріотта і Шарля, 
які ви проходили у шкільному курсі хімії.
Блакитні крапки являють собою дані.
Для величезних машин зі збору даних 
організувати їх просто,
але вам, насправді, потрібні лінії.

French: 
Vous voulez savoir quel est la relation
derrière les données.
Vous pouvez donc interpoler
là où vous n'avez rien vu,
extrapoler au-delà de ce que vous avez vu.
Vous voulez donc que l'IA fasse quelque
chose qu'elle n'a jamais fait.
Ça revient à demander : « Pourquoi ? »
Pas que « Combien ? », « Quand ? »
« Qui est en relation avec qui ? »,
mais plutôt « Pourquoi les objets sont
en relation avec d'autres ? »
Je crois qu'il n'existe
qu'une seule créature
qui pose souvent cette question.
C'est un enfant humain.
Voici ma fille, Chloé.
Elle a 2 ans et demi, elle me demande
« Pourquoi ? » 20 fois par jour.
(Rires)
« Pourquoi il fait sombre ?
Pourquoi tu portes un chapeau ? »
Elle n'arrête jamais.
Voici son frère, il est un peu plus vieux,
- c'est une vieille photo - il a 4 ans.
Quand il avait 2 ans,
il a étudié ce que j'appelle
« l'utilité fonctionnelle du trou »
de la framboise.
Il a inventé le concept -
il n'était pas le premier -
de « fran-doigt-ze »,
comme il l'a appelé.
Le voici avec sa fran-doigt-ze,
et quelques jours après cette photo,

Chinese: 
你想要知道，
数据背后有什么关联？
所以，你能通过外推
以前见过的东西，
补上以前没看到的部分。
这就意味着，
你希望你的AI系统
做它没做过的事。
怎样算是问“为什么？”
不是“多少？”“什么时候”
和“什么和什么有联系？”
而是“为什么世界上的东西
和其他东西有联系？”
我认为我们只有一种模型
会问这么多问题，
那就是人类的小孩。
这是我的女儿克洛伊。
她两岁半了，每天问我20次“为什么”。
（笑声）
“为什么现在天黑了？”
“为什么你要戴帽子？”
她一直问着“为什么”。
这是她哥哥，比她大一点
——这张照片有点旧——他快四岁了。
他两岁时，会用覆盆子研究
我称作“洞的功能”的东西。
他设计了新的概念，
这已经不是第一次了，
他叫它“覆手指子”。
这就是他和他的“覆手指子”，
而且大概就在这张照片后没几天，

Hungarian: 
Az adatok mögötti összefüggésekre 
vagyunk kíváncsiak.
Így hát interpolálhatunk 
a még nem látott területekre,
és extrapolálhatunk 
a már látott dolgokon túlra.
Olyat várunk tehát a MI rendszerektől,
amilyet korábban nem csináltak.
Hogy tegyék fel a kérdést: "Miért?"
Nemcsak hogy "Mennyi?", "Mikor"?
és "Mi mivel függ össze?"
Hanem hogy: "Miért függnek össze
a világ egyes dolgai másokkal?"
Szerintem egyetlen teremtmény létezik,
amelyik folyton ezt a kérdést ismételgeti:
a kisgyermek.
Ő itt a lányom, Chloe.
Két és fél éves, és ezt kérdezi tőlem:
"Miért?" - napjában úgy hússzor.
(Nevetés)
"Miért van sötét?"
"Miért van rajtad kalap?"
Folyton miért-kérdésekkel bombáz.
Ő a bátyja, egy kicsit idősebb -
ez egy régebbi kép - most négy éves.
Két éves korában azt csinálta, 
amit úgy hívok, hogy:
"a málnaszemben lévő lyuk hasznosítása".
A történelem során nem először ugyan,
de feltalálta az "ujjmálnát", 
ahogy ő nevezte.
Aztán az ujjmálnás kép után pár nappal,

Italian: 
A noi interessano le relazioni
dietro la massa di dati,
in modo da poter interpolare
valori non noti in precedenza,
o estrapolare oltre i dati noti.
In realtà ci aspettiamo
che i nostri sistemi di AI
facciano qualcosa
che non hanno mai fatto,
e cioè chiedere "Perché?"
Non semplicemente "Quanto?" e "Quando?"
o "Cosa è correlato a cosa?"
Ma "Perché nel mondo le cose
sono correlate ad altre cose?"
Conosco un solo un modello di creatura
che fa spesso questo genere di domande:
il bambino della specie umana.
Questa è mia figlia, Chloe.
Ha due anni e mezzo, e mi chiede
"Perché?" almeno 20 volte al giorno.
(Risate)
"Perché è buio ora?
"Perché hai quel cappello?"
Chiede continuamente
il "Perché" di tutto.
Questo è suo fratello più grande,
- la foto è vecchia - ha 4 anni.
A due anni, studiava questione
che potrei descrivere come:
"funzionalità pratica del foro
sulla sommità del lampone."
Aveva sviluppato il concetto,
forse non proprio nuovo,
di "fingerberry", come diceva lui.
Eccolo qui col suo fingerberry,
e qualche giorno dopo questa foto,

Arabic: 
تريد أن تحصل على فكرة عن:
ماهي العلاقة وراء هذه البيانات؟
حتى تتمكن من الإسقاط
حيث لم ترى الأشياء من قبل،
والإسقاط أبعد مما رأيت من قبل.
مما يعني حقاً أنك تريد منها
أن تقوم بأشياء لم تقم بها من قبل.
مما يدعو لطرح السؤال: "لماذا؟"
ليس فقط "كم؟" و"متى؟"
و"ما الذي يتعلق بماذا؟"
بل "لماذا ترتبط الأشياء في العالم 
بأشياء أخرى؟"
أعتقد أنّ لدينا نموذجاً واحداً 
من المخلوقات
من يسأل هذا السؤال بكثرة.
وهو الطفل البشري.
هذه ابنتي، (كلوي).
عمرها سنتان ونصف، وهي تسألني
"لماذا" بمعدل 20 مرة يومياً.
(ضحك)
"لم يحل الظلام الآن؟'
"لم ترتدي قبعة الآن؟"
هي تسأل أسئلة "لماذا" طوال الوقت.
هذا أخوها، أكبر منها بقليل،
هذه صورة قديمة - عمره أربع سنوات.
حين كان في سن الثانية، كان يدرس 
ما يمكنني أن أصفه
" المنفعة العمليّة للثقب"
على التوت البري.
وقد طوّر مفهوماً، ليس أول مرة في التاريخ،
ل "توت الإصبع"، كما أسماه.
ها هو مع توت الإصبع، وربما بعد بضعة أيام
بعد التقاط هذه الصورة،

Ukrainian: 
Ми хочемо зрозуміти: 
який зв'язок між цими даними?
Таким чином, можливо робити вставки там, 
де поняття нові,
та робити висновки з відомих понять.
А це означає, що ми хочемо від систем ШІ
того, що вони ніколи не робили.
Тобто поставити питання: "Чому?"
Не лише "Скільки?", "Коли?", 
"Що з чим співвідноситься?",
а й "Чому усі речі 
у світі взаємопов'язані?"
Думаю, що існує лише одна істота,
яка часто ставить таке питання.
І ця істота — дитина.
Це моя донечка Хлоя.
Їй два з половиною роки, і вона 
питає мене "Чому?" разів 20 на день.
(Сміх)
"Чому зараз темно?", 
"Чому ти надів капелюха?"
"Чому?" — її найулюбленіше питання.
А це її брат, тоді він був молодшим, 
це старе фото, — зараз йому чотири.
У дворічному віці він вивчав те, 
що я б назвав
"функціональна користь отвору" 
на вершині ягоди малини.
Він розробив концепцію, 
чи не вперше в історії,
"малинопальця", як він назвав його.
Тут він зі своїм відкриттям, 
і десь кілька днів потому

Dutch: 
Je wil weten wat de relatie is 
tussen die data?
Zodat je kunt interpoleren 
waar je dingen miste
en verder extrapoleren 
dan wat je al zag.
Wat betekent dat KI-systemen 
iets nieuws moeten doen.
Dat is de "Waarom?"-vraag stellen.
Niet alleen "Hoeveel?", "Wanneer?" 
en "Wat is gecorreleerd met wat?"
Maar "Waarom staan de dingen in de wereld 
in verband met andere dingen?"
Ik denk dat we maar één model 
van een schepsel kennen
dat deze vraag de hele tijd stelt:
de menselijke kleuter.
Dit is mijn dochter Chloe.
Ze is twee en een half en ze vraagt ​​me 
ongeveer 20 keer per dag: "Waarom?"
(Gelach)
"Waarom is het nu donker?"
"Waarom heb je een hoed op?"
Ze stelt voortdurend waarom-vragen.
Dit is haar oudere broer 
op een oudere foto -- hij is bijna vier.
Toen hij twee was, bestudeerde hij 
wat ik zou omschrijven als:
'De functionele bruikbaarheid 
van het geheel' met een framboos.
Hij ontwikkelde het concept
-- niet voor het eerst! --
van de 'vingerbes'.
Hier is hij met zijn vingerbes. 
Misschien een paar dagen na deze foto,

Swedish: 
Man vi ha idén om: Vad är relationen
bakom den här datan?
Så man kan tolka mönster
som man inte sett förut,
och förutse värden bortom
vad man redan har sett.
Vilket faktiskt betyder
att man vill att AI-systemen
ska göra något de inte gjort förut.
Vilket är att ställa frågan "Varför?"
Inte bara "Hur mycket?" och "När?"
och "Vad korrelerar med vad?"
Utan "Varför är saker i världen
relaterade till andra saker?"
Jag tror vi bara har en slags varelse
som ställer den frågan ofta.
Det är det lilla mänskliga barnet.
Här är min dotter, Chloe.
Hon är två och ett halvt,
och frågar mig "Varför?" 20 gånger om dan.
(Skratt)
"Varför är det mörkt nu?"
"Varför har du en mössa på dig nu?"
Hon ställer ständigt varför-frågor.
Detta är hennes bror, han är lite äldre,
- det är en gammal bild, han är fyra.
När han var två studerade han
vad jag vill beskriva som
"helhetens funktion" genom ett hallon.
Han utvecklade konceptet "fingerbär",
inte för första gången i världshistorien.
Här är han med ett fingerbär,
och några dagar efter den här bilden

Japanese: 
データの背景にある関係性は何か
ということについて知りたいのです
そうすれば
見たことのないものを補足したり
見たもの以上のことを
推論することができます
つまり 人工知能が
したことのないことを
できるようにしたいのです
それは「なぜか？」と問うことです
「どれくらい？」「いつ？」
「何が何と相関するか？」だけでなく
「これらがどうして他のことと
関連するのか？」と問うのです
こうした問いを
たくさん投げかける生き物は
たったひとつ
それは人間の幼児です
娘のクロエです
２歳半で「なんで？」と
１日に20回は聞いてきます
（笑）
「どうして今暗いの？」
「どうして帽子をかぶってるの？」
「どうして？」と絶えず
聞いてきます
こちらは兄で これは昔の写真ですが
少し年上の４歳です
２歳の時 息子が学習していたのは
ラズベリーのてっぺんにある
「穴の機能的有用性」についてです
息子はおそらく人類の歴史で
初めてではないでしょうが
「指ベリー」という概念を
発展させました
この指ベリーの写真を
撮った数日後

Spanish: 
Nos interesa cuál es la relación
detrás de esos datos.
Para poder interpolar
donde no has visto nada antes,
extrapolar más allá
lo que has visto antes.
Así que buscamos que
nuestros sistemas IA
hagan algo que no han hecho antes.
Que es hacer la pregunta "¿por qué?"
No solo "¿cuánto?" y "¿cuándo?"
y "¿qué se relaciona con qué?"
sino "¿por qué están las cosas del mundo
relacionadas con otras cosas?"
Solo hay un tipo de criatura
que se pregunte esto a menudo.
Y ese sería el niño pequeño humano.
Esta es mi hija, Chloe.
Tiene dos años y medio, y me pregunta
"¿por qué?" unas 20 veces al día.
(Risas)
"¿Por qué se ha hecho de noche?"
"¿Por qué ahora llevas sombrero?"
Está preguntando porqués constantemente.
Este es su hermano, un poco mayor,
-- la foto es vieja -- tiene 4 años.
Cuando tenía 2, estudiaba
lo que podríamos describir como:
"la utilidad funcional del todo"
en una frambuesa.
Desarrolló el concepto,
no por primera vez en la historia,
de lo que llamó "dedoambuesa".
Ahí está con la dedoambuesa,
y días después de tomar esta foto,

English: 
You want the idea about: what
is the relationship behind this data?
So you can interpolate
where you haven't seen things before,
extrapolate beyond
what you've seen before.
Which means really,
you want your AI systems
to do something they haven't done.
Which is ask the question of "Why?"
Not just "How much?" and "When?"
and "What is correlated with what?"
But "Why are the things in the world
related to other things?"
I think we have
only one model of a creature
that asks this question a lot.
And that would be the human toddler.
This is my daughter, Chloe.
She's two and a half, and she asks me,
"Why?" roughly 20 times a day.
(Laughter)
"Why is it dark now?
"Why are you wearing a hat now?"
She's constantly asking "Why" questions.
This is her brother, he's a little older,
- it's an older picture - he's four.
When he was two, he was studying
what I would describe as:
"the functional utility of the hole"
on the top of a raspberry.
He developed the concept,
not for the first time in history,
of the "fingerberry" as he called it.
So here he is with the fingerberry,
and maybe a few days after this picture,

German: 
Man muss verstehen, welche Beziehung
zwischen den Daten besteht.
Man kann interpolieren,
wo man vorher nichts sah,
extrapolieren über das hinaus,
was man gesehen hat.
Die KI-Systeme sollen also etwas tun,
was sie vorher noch nicht getan haben.
Nämlich die Frage stellen: "Warum?"
Nicht nur "Wie viel?" oder "Wenn?"
und "Was entspricht wem?",
sondern auch: "Warum sind die Dinge
in der Welt mit anderen verbunden?"
Es gibt nur ein Geschöpf,
das solche Fragen häufig stellt,
nämlich das menschliche Kleinkind.
Das ist meine Tochter, Chloe.
Sie ist zweieinhalb und fragt mich
20-mal am Tag: "Warum?".
(Gelächter)
"Warum ist es gerade dunkel?"
"Warum trägst du gerade einen Hut?"
Sie stellt dauernd Warum-Fragen.
Das ist ihr etwas älterer Bruder
-- es ist ein älteres Bild -- er ist vier.
Mit zwei untersuchte er, was ich als
"den funktionellen Nutzen des Lochs"
unten an einer Himbeere beschreiben würde.
Er entwickelte, nicht als Erster
in der Geschichte,
das Konzept der "Fingerbeere",
wie er es nannte.
Hier ist er also mit der Fingerbeere,
und etwa ein paar Tage nach diesem Foto,

Chinese: 
我正在外面演讲，
我妻子发来了如下信息。
她对我儿子亚历山大说，
——那时他两岁半——
“今天你的哪个动物要去上学？”
他说“大兔子。熊和鸭嘴兽还在吃饭。“
然后她去了他的卧室，
看到他真的
把熊和鸭嘴兽摆成了
吃饭的样子。
就这一点，他的回答是100%诚实的。
这告诉我们什么？
有一点就是，他明白复杂的句法。
用语言学术语，这叫“特殊疑问句“。
“今天你的哪个动物要去上学？”
如果你用过Siri
（苹果手机的语音助手），
你就知道，对电脑而言
句法有时仍是个挑战。
小孩儿能根据近期更新的
周围环境的状态
给出新回答。
或者，不是记住并找到
之前谷歌搜索过的最热门的答案，
他在思考刚刚发生了什么，
周围现在是什么样，
然后直接反映在答案中。
他进行了逻辑推理：
如果它们在吃饭，就不会跟我去上学。
所以，他能组合这一切。
而且，从AI角度来说
很重要的一点是，

Swedish: 
var jag ute i jobbet och höll ett föredrag
och min fru skickade det här sms:et.
Hon säger till min son Alexander -
han är två och ett halvt år -
"Vilket av djuren
ska med till förskolan idag?"
Och han säger, "Stora kanin.
Björnen och Näbbdjuret äter."
Hon går in i rummet bredvid
som är hans sovrum
och ser att han har skapat
ett tittskåp med björnen och näbbdjuret
och de håller faktiskt på att äta.
Han var 100 procent ärlig i sina svar.
Vad säger det här oss?
En sak är att han förstår komplex syntax.
I lingvistiska termer
kallas detta ett frågeord.
"Vilket av dina djur
ska med till förskolan idag?"
Om du hade jobbat med Siri
vet du att sån syntax
fortfarande är en utmaning för datorer.
Han kunde ge nya svar
som baserades på saker
som nyligen hänt i världen.
Eller, istället för att memorera saker
och hitta det mest populära svaret
som någon hade googlat på
tänkte han på vad som nyligen hade hänt,
hur läget var i världen just nu,
och speglade det i sitt svar.
Han resonerade logiskt:
Om de är där borta
kan de inte följa med mig.
Han lyckades få ihop det här,
och kanske viktigast av allt
ur ett AI-perspektiv,

Hungarian: 
amikor éppen egy előadásra utaztam,
a feleségem küldött egy üzenetet.
Azt mondta a két és fél éves
Alexander fiamnak:
"Ma melyik kisállatod 
jön velünk az iskolába?"
Mire ő: "A nagy nyuszi.
A maci és a kacsacsőrű esznek."
A feleségem erre átmegy 
a fiam hálószobájába,
és látja a macit és a kacsacsőrűt
egy kis jelenetbe rendezve,
amint éppen együtt esznek.
Tehát a válasz 100 százalékig
őszinte volt.
Mit jelent ez számunkra?
Először is, hogy ismeri
az összetett szintaxist.
Nyelvészeti kifejezéssel ezt
"Kifejtős kérdés"-nek hívják.
"Ma melyik kisállatod 
jön velünk az iskolába?"
Ha beszéltek már Sirivel 
[Apple digitális asszisztens], tudják,
hogy a szintaxis gyakran 
próbára teszi a számítógépeket.
A kicsi képes volt kifejtős választ adni,
figyelembe véve a környező 
világ pillanatnyi állapotát.
Tehát a dolgok megjegyzése
és a Google legnépszerűbb 
találatának kikeresése helyett
inkább átgondolta, mi történt éppen,
mi volt a világ pillanatnyi állapota,
majd ezt közvetlenül 
beépítette a válaszaiba.
Logikai érvelést végzett:
ha ott vannak, akkor nem jönnek velem.
Képes tehát a dolgokat összesíteni,
és ami a MI szemszögéből még fontosabb:

French: 
j'étais en déplacement à une conférence,
et ma femme m'a envoyé ce SMS.
Elle demandait à mon fils Alexander,
il avait 2 ans et demi alors,
« Quel animal vas-tu emmener
à l'école aujourd'hui ?
- Lapin. Ours et Ornythorinque
sont en train de manger. »
Elle va dans sa chambre,
et elle voit qu'il a placé
Ours et Ornythorinque
à table.
Ses réponses étaient
donc totalement cohérentes.
Qu'est-ce que cela montre ?
Un, il comprend une syntaxe complexe.
Un linguiste dirait que
c'est une question « QQOQCCP ».
« Quel animal vas-tu emmener
à l'école aujourd'hui ? »
Si vous avez testé Siri,
vous savez que ça reste
un défi difficile pour un ordinateur.
Il a su faire une réponse
conforme aux changements
dans le monde.
Au lieu d'enregistrer des choses
et de trouver la réponse
la plus populaire dans Google,
il a réfléchi à ce qui
venait de se passer,
quel était l'état du monde,
et s'en est servi dans ses réponses.
Il avait un raisonnement logique ;
s'ils sont là-bas,
ils ne viendront pas avec moi.
Il est capable d'intégrer ça, et surtout,
dans la perspective de l'IA,

Arabic: 
كنت في طريقي لإلقاء محادثة،
حين أرسلت لي زوجتي هذه الرسالة النصية.
قالت لابني (ألكسندر)،
-كان يبلغ سنتين ونصف-
" أيّ مِنْ حيواناتك سيأتي 
إلى المدرسة اليوم؟"
فقال "الأرنب الكبير. 
الدب وخلد الماء يأكلان."
فذهبت للغرفة المجاورة حيث غرفته،
ورأت أنه صنع ديوراما للدب وخلد الماء
وهما بالفعل كانا يأكلان.
لقد كان صادقاً تماماً في أجوبته.
مالذي يخبرنا به هذا؟
حسناً، أولاً فهو يفهم التراكيب المعقّدة.
في المصطلح اللغوي،
يسمى هذا "بالسؤال المفتوح."
"أيّ من حيواناتك سيأتي للمدرسة اليوم؟"
إن تعاملتم مع (سيري)،
ستعلمون أن القواعد لازالت تشكل
تحدياً أحياناً بالنسبة للحواسيب.
كان قادراً على إعطاء جواب
جديد بناءً على تحديثات حديثة
عن حالة العالم.
أو، عوضاً عن حفظ الأشياء
وإيجاد أكثر الأجوبة شيوعاً،
والتي تم البحث عنها من قبل على غوغل،
كان يفكر بما يحدث الآن،
ما الذي كانت عليه الحالة الآنية للعالم.
ويوضح هذا مباشرةً في أجوبته
كان يقوم بتفكير منطقي؛
بما أنهم هناك، فلن يأتوا معي.
فكان قادراً على دمج كل هذا، والأهم
من وجهة نظر الذكاء الاصطناعي،

Japanese: 
出張中で講演をしていたところ
妻からこんな携帯メールが来ました
息子のアレクザンダーに
妻はこう言いました
ちなみ この時２歳半でしたが
「今日は学校にどの動物が
一緒に行くの？」
息子は「大きなうさぎだよ
クマとカモノハシは食事中だから」
そこで妻が隣にある
息子の寝室へ行くと
クマとカモノハシが
実際に食事をしているように
息子が並べたのを見たそうです
ですから 息子は100％
正直に答えたわけです
これで何がわかるか？
ひとつには 息子は
複雑な構文を理解したということ
言語学の用語では
「WH疑問文」と呼ばれるものです
「今日は学校にどの動物が
一緒に行くの？」
Siriをお使いなら
コンピューターが構文に
まだ苦労するのはご存知でしょう
彼は 周囲の状況の変化に基づいて
独自の答えを出せました
物事を記憶して
過去に検索されたものから
最も一般的な答えを探すのではなく
今まさに起こったことを考えたり
周囲の現在の状況を考えて
直接それを答えに
反映させたのです
息子は論理的推論も行いました
向こうにいるなら
自分と一緒には来られないと
これらの情報をすべて統合して
さらに人工知能の観点から
重要なことに

Ukrainian: 
я був у дорозі на конференцію 
і моя дружина прислала мені повідомлення.
Вона запитала у мого сина Александра,
йому було два з половиною роки,
"Яке з твоїх звіряток 
сьогодні піде до школи?"
Він відповів: "Великий кролик.
Ведмедик і качкодзьоб обідають".
Моя дружина йде у дитячу і бачить,
що він створив таку собі діораму
за участі ведмедя і качкодзьоба,
й вони дійсно обідали.
Тоді він відповів напрочуд чесно.
Про що це нам говорить?
По-перше, він розуміє
складні синтаксичні конструкції.
У лінгвістиці такі питання 
називаються спеціальними.
"Яке з твоїх звіряток 
сьогодні піде до школи?"
Якщо ви мали справу з Siri,
то знаєте, що для комп'ютерів 
синтаксис іноді становить труднощі.
Мій син зміг дати актуальну відповідь 
з урахуванням
сучасного стану середовища.
Замість того,
щоб запам'ятовувати поняття
і знаходити найпопулярнішу відповідь, 
на яку робився запит у Google,
він думав про те, що відбувається зараз,
про сучасний стан світу,
і відображав це у своїх відповідях.
Він міркував логічно.
Якщо вони зараз обідають, 
то зі мною не підуть.
Тобто, він може об'єднати ці речі, 
і, що важливо
з точки зору ШІ,
він не оперував

Spanish: 
conducía de camino a una charla y
mi mujer me mandó un mensaje de texto.
Decía a mi hijo Alexander
-- tiene dos años y medio --
"¿Qué animales traerás al colegio hoy?"
Y él responde: "Conejo Grande.
Oso y Ornitorrinco están comiendo".
Así que va a su cuarto,
y ve que ha creado un diorama
de oso y ornitorrinco
y que, de hecho, están comiendo.
Hasta aquí, había sido 100 % honesto
con sus respuestas.
¿Qué sacamos de esto?
Para empezar,
que entiende sintaxis complejas.
En términos lingüísticos,
esto se llama una "pregunta QU".
"¿Qué animales traerás al colegio hoy?"
Si han usado Siri,
ya saben que la sintaxis todavía
es un desafío para las computadoras.
Pudo dar respuestas innovadoras
basadas en información reciente
sobre el estado del mundo.
O, en lugar de memorizar cosas
y encontrar la respuesta más popular
buscada en Google previamente,
estaba pensando en qué acababa de pasar,
cuál era el estado actual del mundo,
y reflejando eso directamente
en sus respuestas.
Hacía razonamiento lógico;
"si están allí, no vienen conmigo".
Así que es capaz de integrar todo esto
y lo relevante
desde la perspectiva de la IA,

Dutch: 
-- ik was op weg naar een lezing --
stuurde mijn vrouw me een sms.
Ze zegt tegen mijn zoon Alexander
-- hij is twee en een half jaar oud --
"Welke dieren gaan 
vandaag mee naar school?"
En hij zegt: "Groot konijntje. 
Beer en vogelbekdier eten nu."
Ze loopt naar zijn kamer
en ziet dat hij een diorama 
creëerde van beer en vogelbekdier
en ze waren aan het eten.
Hij was voor 100 procent 
eerlijk in zijn antwoorden.
Wat vertelt ons dit?
Ten eerste dat hij 
complexe syntax begrijpt.
Taalkundig is dat een "Waarom-Hoe"-vraag.
"Welke van jouw dieren 
gaan vandaag naar school?"
Als je met Siri hebt gewerkt,
weet je dat computers niet goed 
overweg kunnen met syntaxis.
Maar hij kon nieuwe antwoorden geven 
gebaseerd op de laatste updates
van de toestand van de wereld.
Of, in plaats van dingen te onthouden
en het meest populaire antwoord 
bij Google te vinden,
zat hij te denken aan wat net was gebeurd,
wat de huidige toestand van de wereld was,
en dat rechtstreeks te gebruiken 
in zijn antwoorden.
Hij deed aan logisch redeneren:
"Als ze daar zijn, 
gaan ze niet met me mee."
Hij kon dat allemaal integreren, 
en belangrijker,
vanuit KI-perspectief,

English: 
I was on the road, I was giving a talk,
and my wife sent me this text message.
She says, to my son Alexander,
- he's two and a half years old -
"Which of your animals
will come to school today?"
And he says, "Big bunny.
Bear and platypus are eating."
So she walks to the next room
where his bedroom is,
and she sees that he's created
a diorama of bear and platypus
and they are, in fact, eating.
At this point, he was 100 percent
honest in his answers.
What does this tell us?
Well, for one, he understands
complex syntax.
In a linguist's term,
this is called a "WH question."
"Which of your animals
will come to school today?"
If you've worked with Siri,
you know that syntax is still
a challenge sometimes for computers.
He was able to give novel answers
depending on recent updates
to the state of the world.
Or, instead of memorizing things
and finding the most popular answer
that had been Googled for before,
he was thinking about
what had happened right now,
what was the current state of the world,
and directly reflecting that
in his answers.
He was doing logical reasoning;
if they're over there,
they're not coming with me.
So he's able to integrate all this,
and importantly
from the perspective of AI,

Italian: 
mentre mi avviavo a una conferenza,
ricevetti un messaggio da mia moglie.
Chiedeva a mio figlio Alexander,
- che aveva due anni e mezzo -
"Quale dei tuoi animaletti
verrà a scuola con te oggi?"
Lui rispose, "Il coniglio grande.
Orso e Ornitorinco mangiano."
Lei andò nella sua stanzetta,
e vide che aveva creato il diorama
di un orso e un ornitorinco
che, di fatto, stavano mangiando.
La sua risposta, quindi,
era stata onesta al 100%.
Questo cosa ci dice?
Di certo che il bambino capisce
la sintassi complessa.
I linguisti le chiamano
"domande WH":
"Quale dei tuoi animali
viene a scuola con te oggi?"
Se avete mai parlato con Siri,
saprete che la sintassi è ancora
un problema, a volte, per i computer.
Era riuscito a elaborare risposte nuove,
basate su aggiornamenti recenti
dello stato del mondo.
Invece di memorizzare cose
o di trovare le risposte più popolari
dopo aver cercato su Google,
lui pensava a ciò che stava
accadendo in quel momento,
allo stato attuale del mondo,
e questo si rifletteva
direttamente nelle sue risposte.
Stava facendo un ragionamento logico:
se sono di là,
non possono venire con me.
Lui è in grado di integrare tutto ciò
e, cosa importante
dal punto di vista dell'IA,

German: 
als ich unterwegs war, um einen Vortrag
zu halten, sandte meine Frau mir eine SMS.
Sie sagte zu meinem Sohn Alexander
-- er war da zweieinhalb --:
"Welches deiner Tiere geht
heute mit dir zur Schule?"
Er sagte: "Mein großer Hase.
Bär und Schnabeltier essen gerade."
Also ging sie in sein Schlafzimmer
und sieht, er hat mit Schnabeltier
und Bär eine Szene arrangiert,
und sie essen wirklich.
Hier war er zu 100 % ehrlich
mit seinen Antworten.
Was sagt uns das?
Zum einen versteht er komplexen Satzbau.
Ein Linguist nennt das "W-Fragen".
"Welche deiner Tiere
kommen heute mit zur Schule?"
Wenn Sie Siri kennen,
wissen Sie, dass Satzbau
herausfordernd für Rechner sein kann.
Er fand neuartige Antworten,
abhängig von jüngsten Informationen
über den Zustand der Welt,
bzw. anstatt Dinge auswendig zu lernen
und die beliebteste Antwort zu finden,
die zuvor gegoogelt wurde,
dachte er darüber nach,
was gerade passiert war,
über den aktuellen Zustand der Welt,
und brachte das in seine Antworten ein.
Er nutzte logisches Denken;
wenn sie dort sind,
kommen sie nicht mit mir.
Er kann all das einbeziehen --
und was für die KI wichtig ist:

Spanish: 
no usó cantidades masivas de datos,
sino datos moderados.
Básicamente, dos años de gente hablándole.
En los primeros 6 meses
no creo que entendiese la fonología.
(Risas)
Dos años de gente hablándole,
sin acceso directo a lo que en mi campo
llamamos "datos etiquetados".
Les expliqué cómo era con Tiger Woods;
una foto de él, y la etiqueta.
Foto de una bola de golf,
y una bola de golf.
Mi hijo casi nunca recibe eso,
y sin embargo lo pudo resolver.
Así que ahora, un año y medio después,
es muy flexible.
Cuando estaba montando esta charla,
Le enseñé esto y le dije:
"¿Qué está pasando en la imagen?"
Dijo: "Es un elefante
que lleva un paraguas".
No es que en sus libros
haya un elefante con un paraguas
y lo haya memorizado,
sino que tiene un sistema perceptivo
integrado con su sistema de lenguaje
y une todas las piezas.
Le dije: "¿El paraguas es del tamaño
adecuado para el elefante?"
Dijo: "No, es demasiado pequeño".
Puede, sobre la marcha,
hacer inferencias sobre cosas
de las que tiene muy pocos datos.
Lo que nos lleva a mi idea principal.
Que se inspira bastante
en el lugar en que estamos.

Arabic: 
لم يستعمل البيانات الكبيرة، 
بل البيانات المتواضعة.
سنتان، بالأساس، قضاها الناس 
في الحديث إليه.
خلال الستة الأشهر الأولى، 
أشكّ أنه كان يفهم علم الأصوات.
(ضحك)
إذن فسنتان أمام ناس يتحدثون إليه،
دون وصول مباشر لما نسميه في مجالي،
"البيانات المعنونة".
كما قلت لكم، لديكم (تايجر وودز)،
صورته و لديكم العنوان.
صورة لكرة الغولف، وكرة الغولف.
ليست لديه هذه الأشياء معظم الوقت،
لكنه تمكّن من التوصل لنتيجة بها.
إذن الآن، بعد عام ونصف،
فقد أصبح مرناً للغاية.
حينما كنت أعدّ هذه المحادثة،
أريته هذه وقلت،
" مالذي يجري في هذه الصورة؟
فقال،" إنه فيل يحمل مظلة."
ليس هذا مثل ما لديه في أحد كتبه،
كان هناك فيل يحمل مظلة، وقد حفظ هذا.
لديه نظام إدراكي مدمج في نظامه اللغوي،
فيضعه كله معاً.
قلت،" هل المظلّة بالحجم المناسب للفيل؟"
فقال، "لا هي صغيرة جداً."
يستطيع بنظرة واحدة أن يفرّق بين الأشياء
التي يمتلك بيانات قليلة جداً بشأنها.
مما يحيلني لنقطتي الرئيسية.
والتي استوحيت بدرجة كبيرة 
من المكان حيث نحن الآن.

Dutch: 
deed hij dit niet met enorme data, 
maar met bescheiden data.
Twee jaar lang hadden mensen 
met hem gepraat.
Die eerste zes maanden denk ik niet 
dat hij de fonologie begreep.
(Gelach)
Twee jaar praatten mensen met hem
zonder directe toegang 
tot wat wij 'gelabelde data' noemen.
Ik vertelde je over Tiger Woods. 
Je hebt een foto en een label:
'foto van een golfbal' en 'een golfbal'.
Meestal kreeg hij dat niet 
en toch kon hij het allemaal uitwerken.
Nu, anderhalf jaar later, 
is hij erg flexibel.
Toen ik deze talk schreef,
toonde ik hem dit en zei: 
"Wat gebeurt er op de foto?"
Hij zei: 
"Het is een olifant met een paraplu."
Niet zoals in zijn boek, waarin 
een olifant met een paraplu stond,
die hij had onthouden.
Hij heeft een perceptueel systeem
geïntegreerd met zijn taalsysteem,
en hij combineert dat allemaal.
Ik zei: "Past de paraplu bij de olifant?'
Hij zei: "Nee, hij is te klein."
Hij kan terloops 
gevolgtrekkingen maken over dingen
waarover hij maar weinig data heeft.
Dit brengt me 
bij mijn belangrijkste punt,
dat heel erg geïnspireerd wordt 
door waar we zijn.

Swedish: 
han gjorde det inte med massor av data,
utan med ganska lite.
Ungefär två år och samtal
med andra människor.
De första sex månaderna
tror jag inte att han förstod fonologin.
(Skratt)
Så två år av samtal med andra,
och ingen direkt tillgång till
vad vi inom min bransch
kallar "strukturerad data".
Jag berättade om Tiger Woods;
en bild av honom, och etiketten.
Bild av en golfboll, och en golfboll.
Han förstår det inte för det mesta,
och ändå kunde han räkna ut det.
Och nu, ett och ett halvt år senare
är han mycket flexibel.
När jag satte ihop det här föredraget
visade jag honom den här och sa,
"Vad händer på den här bilden?"
Han sa, "Det är en elefant
som bär ett paraply."
Det finns inte med i hans böcker,
en elefant med ett paraply,
som han hade memorerat.
Han har ett perceptionssystem
som är integrerat med språket,
och han sätter ihop det.
Jag sa, "Är paraplyet
i lagom storlek för elefanten?"
Han sa, "Nej, det är för litet."
Han kan, helt apropå,
dra slutsatser om saker
som han bara har lite data om.
Det tar mig till min huvudpoäng.
Den är färgad av var vi befinner oss.

Chinese: 
他没有用大数据，而是最少的数据。
人们和他说了两年话。
我想，头6个月他应该
还听不懂这些音符。
（笑声）
所以，人们和他说了两年话，
并没有直接涉及我说的“带标签的数据”。
比如说我告诉你这是老虎·伍兹；
给你一张照片，你就有了标签。
高尔夫球的照片，等同于高尔夫球。
他通常不懂，但他能弄明白。
所以现在，一年半后，
他（的思维）已经很灵活了。
我准备这次演讲时，
我给他看这个，并问：”图里有什么？“
他说：”一头带伞的大象。“
虽然和他之前在书里看到过的
有伞的大象不一样，但是他记住了。
他有一套概念，
和他的语言系统相结合，
而他能调用它们。
我问：“大象打这把伞够吗？”
他说：“不，太小了。”
他能很快将事物联系起来，
只需要一点点数据。
这就是我的中心论点。
我们现在所处的地方
给了我很多灵感。

French: 
il n'a pas utilisé des masses de données,
seulement quelques-unes.
En gros, deux ans de conversations.
Les 6 premiers mois,
il ne comprenait pas la phonologie.
(Rires)
Donc, deux ans de conversation,
et pas d'accès à ce qu'on appelle
des « données taggées ».
Comme avec Tiger Woods,
sa photo et son tag.
Photo d'une balle de golf et son tag.
Il n'a pas souvent accès à ça,
et pourtant il est arrivé à s'en sortir.
Aujourd'hui, 18 mois plus tard,
il est très flexible.
Quand je préparais cette présentation,
je lui ai demandé :
« Qu'est-ce que c'est ?
-- C'est un éléphant avec un parapluie. »
Ça n'est pas dans un de ses livres,
il n'a pas vu et mémorisé l'image
d'un éléphant avec un parapluie.
Sa perception est intégrée
avec son langage,
il se sert des deux.
Je lui ai demandé si le parapluie
avait la bonne taille.
Il a dit qu'il était trop petit.
Il est capable de faire des inférences
avec très peu de données.
Ce qui m'amène au plus important,
qui est largement inspiré
par le lieu où nous sommes.

Ukrainian: 
при цьому масивами даних, 
а лише їх невеликим об'ємом,
фактично отриманим за два роки
спілкування з ним.
Не думаю, що перші півроку свого життя
він розумів фонологію.
(Сміх)
Лише два роки спілкування з ним
і відсутність прямого доступу до
так званих у цій сфері "мічених даних".
Як я казав, маєте Тайґера Вудса, 
його світлину, і у вас є мітка.
Зображення м'яча для гольфу і сам м'яч.
Більшість часу він цього не розуміє, 
але все ж зміг вирахувати все правильно.
Отже зараз, через півтора року,
він став більш гнучким.
Коли я складав цю промову,
я показав йому це зображення
і спитав: "Що тут відбувається?"
Він відповів: "Це слоник з парасолькою".
Слоник з парасолькою зображений
тут не так, як у одній з його книжок,
не так, як він запам'ятав його.
Але його системи мови та сприйняття інформації
працюють в одному руслі,
він поєднує їх.
Я запитав: "Чи підходить парасолька 
слонику за розміром?"
Він відповів: "Ні, вона замаленька".
Він з легкістю робить
імпровізований висновок
щодо речей, про які майже не знає.
Це підводить мене
до головної думки,
яка багато в чому обумовлюється місцем,
де ми знаходимося.

Hungarian: 
ehhez nem használt 
irdatlan mennyiségű adatot.
Mindössze azt, amit két év alatt
a hozzá beszélő emberektől összeszedett.
Az hiszem, az első hat hónapban
még nem értette a hangokat.
(Nevetés)
Tehát két évig beszéltek hozzá az emberek,
de nem használt semmi olyasmit, 
amit mi úgy hívunk "címkézett adat".
Ahogy mutattam Tiger Woods-ot;
a képét, ami fel volt címkézve.
Egy golflabda képét, és egy golflabdát.
Ilyenekre nem volt szüksége,
mégis egész jól elboldogult.
Mostanra, másfél évvel később,
már igencsak rugalmas a gondolkodása.
Amikor erre az előadásra készültem,
megmutattam ezt neki, és megkérdeztem:
"Mi van a képen?"
Mire ő: "Egy elefánt egy esernyővel."
És ezt anélkül tudta,
hogy bármely könyvében
látott és megjegyzett volna 
egy esernyős elefántot.
Van neki egy észlelési rendszere,
integrálva a nyelvi rendszerével,
és így képes a dolgokat összerakni.
Megkérdeztem: "Az esernyő illik 
az elefánt méretéhez?"
"Nem. Túl kicsi neki."
Képes volt minden előkészület 
nélkül következtetni dolgokra,
minimális adatmennyiséget használva.
És ezzel elérkeztünk 
mondanivalóm lényegéhez,
Melyhez az ösztönzést 
nagyrészt ez a helyszín adta.

English: 
he didn't do this with massive data,
he did this with modest data.
Two years, basically,
of people talking to him.
First six months, I don't think
he understood the phonology.
(Laughter)
So two years of people talking to him,
and no direct access to what we call
in my trade, "labeled data."
I told you like you have Tiger Woods;
a picture of him, and you have the label.
Picture of a golf ball, and a golf ball.
He doesn't get that most of the time,
and yet he was able to work it all out.
So by now, a year and a half later,
he's very flexible.
When I was putting together this talk,
I showed him this and said,
"What's going on in the picture?"
He said, "It's an elephant
carrying an umbrella."
It's not like in one of his books,
there was an elephant with an umbrella,
and he had memorized that.
He has a perceptual system
integrated with his language system,
and he puts it all together.
I said, "Is the umbrella
the right size for the elephant?"
He said, "No, it's too small."
He can, on the fly,
make inferences to things
for which he has
a very small amount of data.
This brings me to my main point.
Which is very much inspired
by where we are.

German: 
Er tat das nicht anhand vieler,
sondern weniger Daten.
Im Prinzip zwei Jahre,
in denen Leute mit ihm redeten.
Die ersten 6 Monate verstand er
das Lautsystem wohl nicht.
(Gelächter)
Zwei Jahre lang sprachen
Leute mit ihm,
und kein Zugang zu dem, was man
bei uns "klassifizierte Daten" nennt;
ein Foto von Tiger Woods
mit Kennzeichnung zum Beispiel.
Ein Foto eines Golfballs und ein Golfball.
Er versteht das meistens nicht
und dennoch hat er das hinbekommen.
Er ist inzwischen, 
18 Monate später, sehr flexibel.
Als ich diesen Vortrag vorbereitete,
zeigte ich ihm das und sagte:
"Was passiert auf dem Foto?"
Er sagte: "Ein Elefant
trägt einen Regenschirm."
In seinen Büchern kam
kein Elefant mit einem Schirm vor,
den er sich eingeprägt haben könnte.
Vielmehr sind sein Wahrnehmungs-
und Sprachsystem verbunden,
und er fügt das alles zusammen.
Ich sagte: "Ist der Schirm
groß genug für den Elefanten?"
Er meinte: "Nein, er ist zu klein."
Er kann spontan
Schlüsse aus Dingen ziehen,
für die er nur wenige Daten hat.
Das führt mich zu meinem Grundgedanken,
der sehr von dem Ort
inspiriert ist, an dem wir sind.

Italian: 
senza big data, anzi
con una quantità di dati modesta.
In pratica due anni di ascolto
delle conversazioni altrui.
Per i primi sei mesi, non credo
abbia capito la fonologia.
(Risate)
Quindi solo due anni di ascolto,
senza accesso diretto
ai cosiddetti "dati etichettati."
Come vi ho detto, c'è Tiger Woods,
la sua foto, e l'etichetta.
L'immagine di una pallina da golf
e la desccrizione.
Lui non ha accesso a tutti quei dati,
eppure è stato capace di elaborare tutto.
Ormai, un anno e mezzo dopo,
è diventato molto flessibile.
Mentre preparavo questo talk,
gli ho mostrato questa immagine
e ho detto: "Che succede nella foto?"
"Un elefante porta
un ombrello", mi ha detto.
Non era l'immagine
di uno dei suoi libri,
elefante con ombrello,
memorizzata in precedenza.
Ma possiede un sistema percettivo
integrato con il sistema linguistico,
e li combina entrambi.
Gli chiesi: "L'ombrello è della
giusta misura, per l'elefante?"
E lui: "No, è troppo piccolo."
Stabilisce al volo inferenze tra cose
su cui ha pochissimi dati.
Questo mi porta
al mio punto principale,
che trae ispirazione
dal luogo in cui ci troviamo.

Japanese: 
大量のデータではなく
少量のデータしか使いませんでした
人々に話しかけられた
２年間の蓄積です
最初の６か月は音韻体系も
理解していなかったでしょうから
（笑）
２年間 人に話しかけられただけで
「ラベル付きデータ」と呼ばれるものに
直接アクセスしてはいません
先ほど述べた通り タイガー・ウッズを
写真で見分けるのがラベルです
ゴルフボールを見て
それとわかることです
そのような情報を持たなくても
息子は理解をすることができました
当時から１年半が経った今
息子は実に柔軟です
このトークの準備中に
息子にこの写真を見せて
「何の写真だと思う？」と聞くと
「象が傘を持っているところ」
と答えました
絵本の中に
傘を持った象が
登場したのを
覚えていたわけではありません
そうではなく知覚システムを
言語システムと統合させ
答えを得ることができたのです
「象に合ったサイズの傘だと思う？」
と尋ねると
「ううん 小さすぎる」
とも答えました
息子は臨機応変に 
データが殆ど無い事柄の
推量をすることができるのです
ここからが私の話の要点です
この要点は私たちの現状に
大いに着想を得たものです

Japanese: 
CERNは広大な学際的
多国籍コンソーシアムで
数々の科学的問いを
追究しています
人工知能にも同じことが必要です
現在の人工知能の多くは
個々の企業や
広告の販売促進などの
小規模な問題に取り組む
小規模な研究所で行われています
人を集めてこの壮大なチャレンジに
取り組んではどうでしょう？
機械学習の専門家や
より高速のハードウェアを
作れるエンジニアだけでなく
知覚発達や認知科学の
研究者も招いては？
何らかの進歩が見られるかも知れません
全てにおいて人間が機械よりも
優れていると言いたいのでなく
人間は例えば数学では
機械にかないません
でも人間は「何故？」と疑問を持ち
科学を理解するのが得意です
人間の子供から学べることも
たくさんあるでしょう
こう考えてみましょう
過去60年間
人はコンピューターの改良を続け
ずっと小さく速く
エネルギー効率も上げました
60年前に初期の電子計算機 ENIACが
ひと部屋必要としたような事柄を
この時計は全てこなせます
しかし 私たちはまだ
人間の思考の柔軟性を

Spanish: 
CERN es un gran consorcio
interdisciplinar y multinacional
para solucionar problemas científicos.
Quizá necesitamos lo mismo en IA.
La mayoría de esfuerzos en IA hoy
son de empresas individuales,
o laboratorios pequeños que 
trabajan en problemas pequeños,
cómo vender más publicidad y cosas así.
¿Y si juntamos un grupo de gente que
intente esta inalcanzable meta científica?
¿Y si no solo juntamos
expertos en aprendizaje automático
e ingenieros que pueden
hacer hardware más veloz,
sino también investigadores que observen
desarrollo cognitivo y ciencia cognitiva?
Creo que quizá progresaríamos.
No digo que los humanos seamos
mejores que las máquinas en todo,
no lo son ni por asomo en matemáticas.
Pero lo somos preguntando "por qué"
y entendiendo la ciencia.
Quizá podemos aprender
de los niños humanos.
Pongámoslo de esta manera:
Hemos trabajado en las computadoras
durante 60 años.
Las hemos hecho mucho más pequeñas,
rápidas y eficientes energéticamente.
Este reloj que llevo puede hacer
todo lo que hacía ENIAC
ocupando toda una habitación hace 60 años.
Pero aún no hemos descubierto
cómo programar una máquina

Hungarian: 
A CERN egy hatalmas, interdiszciplináris,
nemzetközi vállalkozás
meghatározott tudományos 
problémák megoldására.
Lehet, hogy erre lenne 
szükség a MI területén is.
A MI ma többnyire arról szól,
hogy önálló cégek
vagy kis laboratóriumok próbálnak
olyan problémákat megoldani,
mint hogy adjunk el még 
több reklámot, és hasonlók.
Mi lenne, ha a MI "Holdra szállása"
érdekében egyesítenénk az erőinket?
És mi lenne, ha a gépi tanulás szakértői
és a gyorsabb hardvert 
alkotni képes mérnökök mellett
a kognitív tudományok kutatóit 
is bevonnánk a munkába?
Talán elérhetnénk valamennyi haladást.
Nem állítom, hogy az emberek 
mindenben jobbak a gépeknél.
Számtanban például közel sem annyira.
Viszont jobban tudunk "Miért?"-eket
kérdezni és a tudományt megérteni.
Hátha tanulhatunk valamit a gyerekektől.
Gondolkozzunk el egy kicsit:
60 éve fejlesztjük a számítógépeket.
Egyre kisebbé, gyorsabbá, 
takarékosabbá tettük őket.
Ez az óra mindent tud, 
amit a szobányi méretű ENIAC
tudott 60 évvel ezelőtt.
És még mindig nem tudjuk,
hogyan programozzuk be a gépbe

French: 
Le CERN est un vaste consortium
inter-disciplinaire international
créé pour résoudre
des problèmes scientifiques.
On a peut-être besoin de ça pour l'IA.
La plupart des travaux en IA
sont l’œuvre de sociétés,
de petits labos travaillant
sur de petits problèmes,
tels que vendre plus de publicité,
par exemple.
Et si on réunissait tout le monde
pour tenter de faire évoluer la science ?
Et si on réunissait, non seulement
des experts en machine-learning,
des ingénieurs construisant
de puissants ordinateurs,
mais aussi des chercheurs
en sciences cognitives ?
Peut-être qu'on pourrait
faire des progrès.
Je ne dis pas que les humains
sont meilleurs pour tout,
les humains sont moins bons en maths.
Mais nous sommes meilleurs
en « Pourquoi ? » et en sciences.
Peut-être que nous pouvons
apprendre des enfants.
Voici une manière d'y réfléchir :
on travaille sur les ordinateurs
depuis 60 ans.
On les a rendus plus petits, plus rapides,
moins consommateurs d'énergie.
Cette montre peut faire
ce que l'ENIAC faisait
en occupant tout une pièce
il y a 60 ans.
Et pourtant, nous n'avons toujours
pas compris comment programmer

Italian: 
Il CERN è un vasto consorzio
interdisciplinare internazionale
che serve a risolvere problemi
scientifici specifici.
Forse ci serve la stessa cosa per l'IA.
La maggior parte degli studi sull'IA,
oggi, è fatta da singole aziende
o da piccoli laboratori
al lavoro su problemi specifici,
come vendere più pubblicità,
o cose del genere.
E se radunassimo un po' di gente
per tentare di far decollare la scienza?
Se radunassimo non solo esperti
di apprendimento automatico
e ingegneri in grado di costruire
un hardware migliore,
ma anche esperti di sviluppo cognitivo,
di scienze cognitive?
Forse potremmo fare dei progressi.
Non che gli uomini siano meglio
delle macchine in tutto e per tutto.
Noi siamo meno bravi in matematica,
ma più bravi a fare domande
e a capire la scienza.
Forse dai bambini
possiamo imparare qualcosa.
Ecco come la vedo io:
Abbiamo passato 60 anni
a lavorare sui computer.
Li abbiamo resi più piccoli, più veloci,
energeticamente più efficienti.
Il mio orologio fa tutto ciò
per cui l'ENIAC, 60 anni fa,
richiedeva lo spazio di un'intera stanza.
Eppure, ancora non siamo riusciti
a programmare una macchina

Swedish: 
CERN är en gigantiskt, tvärvetenskapligt
och multinationellt konsortium
för att lösa vetenskapliga problem.
Kanske behöver vi samma sak för AI.
De flesta ansträngningar som görs
inom AI just nu görs av enskilda företag,
eller små labb som jobbar på små problem,
som hur man kan sälja fler annonser
och liknande saker.
Tänk om vi skulle föra samman människor
för att försöka åstadkomma
en helt ny nivå av vetenskap?
Och tänk om vi inte bara förde samman
experter på maskininlärning
och ingenjörer som bygger
snabbare hårdvara,
utan också forskare som ser på
kognitiv utveckling
och kognitionsvetenskap?
Jag tror vi skulle kunna göra framsteg.
Jag säger inte att människor
är bättre än maskiner på allt,
människor är inte
lika bra på matematik.
Men vi är bättre på att fråga "Varför?"
och att förstå vetenskap.
Kanske kan vi lära oss något
från mänskliga barn.
Här är ett sätt att tänka på det:
Vi har jobbat med datorer i 60 år.
Vi har gjort dem mycket mindre,
snabbare, energieffektivare.
Klockan jag har kan göra allt
som ENIAC kunde göra
i ett helt rum för 60 år sen.
Fortfarande har vi inte förstått
hur vi ska programmera en maskin

English: 
CERN is this vast, inter-disciplinary
and multi-country consortium
to solve particular scientific problems.
Maybe we need the same thing for AI.
Most of the efforts in AI right now
are individual companies,
or small labs working on small problems,
like how to sell more advertising,
and things like that.
What if we brought people together to try
this moonshot of doing better science?
And what if we not only
brought together machine-learning experts
and engineers who can make
faster hardware,
but researchers who look at cognitive
development and cognitive science?
I think maybe we could make some progress.
I'm not saying humans are better
than machines at everything,
humans aren't nearly
as good as arithmetic.
But we are better at asking "Why?"
and understanding science.
Maybe we can learn something
from human children.
So, here's a way to think about it:
We've been working
on computers for 60 years.
We've made them much smaller,
much faster, more more energy efficient.
This watch that I have can do
everything the ENIAC could do
with an entire room 60 years ago.
And yet, we still haven't understood
how to program into a machine

German: 
CERN ist eine riesige, interdisziplinäre
und länderübergreifende Vereinigung
zur Lösung bestimmter
wissenschaftlicher Probleme.
Vielleicht brauchen wir
das Gleiche für KI.
Die meisten Bemühungen in KI
kommen derzeit von einzelnen Firmen
oder kleinen Laboren,
die an kleinen Problemen arbeiten,
wie dem Verkauf von mehr Werbung oder so.
Was, wenn wir Menschen zusammenbringen,
um in bahnbrechender Weise
besser zu forschen?
Wenn wir nicht nur Experten
für maschinelles Lernen
und Ingenieure für schnellere
Hardware zusammenbrächten,
sondern auch Forscher der kognitiven
Entwicklung und Kognitionswissenschaft?
Das könnte uns vielleicht weiterbringen.
Menschen sind nicht in allem
besser als Maschinen;
sie sind im Rechnen
nicht annähernd so gut.
Aber wir können leichter "Warum?" fragen
und Wissenschaft verstehen.
Vielleicht können wir
etwas von Kindern lernen.
Hier ist eine Betrachtungsweise:
Wir arbeiten seit 60 Jahren an Computern.
Wir haben sie viel kleiner, schneller
und energieeffizienter gemacht.
Diese Uhr, die ich trage, kann alles das,
wofür das ENIAC vor 60 Jahren
einen ganzen Raum brauchte.
Dennoch haben wir immer noch nicht
begriffen, wie wir in eine Maschine

Dutch: 
CERN is een enorm interdisciplinair 
en internationaal consortium
om specifieke wetenschappelijke 
problemen op te lossen.
Misschien moeten we 
hetzelfde doen met KI.
De meeste inspanningen voor KI 
gebeuren nu bij individuele bedrijven
of kleine labs die werken 
aan kleine problemen,
zoals hoe meer reclame verkopen 
en dat soort dingen.
Wat als we mensen samen brachten 
voor een maanschot naar betere wetenschap?
En niet alleen experts in machinaal leren
en ingenieurs die snellere 
hardware kunnen maken,
maar ook onderzoekers van cognitieve 
ontwikkeling en cognitieve wetenschap?
Dan kunnen we misschien 
wat vooruitgang boeken.
Ik zeg niet dat mensen 
in alles beter zijn dan machines,
zeker niet in rekenen.
Maar wij zijn beter in "Waarom?"-vragen 
en begrijpen van wetenschap.
Misschien kunnen we 
iets van mensenkinderen leren.
Denk er zo over:
we werken al 60 jaar aan computers.
We hebben ze veel kleiner, 
sneller en energiezuiniger gemaakt.
Dit horloge hier kan alles 
wat ENIAC 60 jaar geleden kon.
Die vulde een hele kamer.
En toch kunnen we nog steeds
geen machine programmeren

Ukrainian: 
ЦЕРН — це величезний міждисциплінарний 
та міжнародний консорціум,
де вирішуються конкретні наукові проблеми.
Можливо, нам потрібне
щось схоже для ШІ.
На даний момент над розробкою ШІ 
працюють окремі компанії
або маленькі лабораторії,
що займаються невеликими проблемами,
наприклад, 
як продати більше реклами і т.ін.
Що, якби ми згуртували людей для 
різкого стрибка задля покращення науки?
А що, якби ми не лише зібрали експертів
у сфері машинного навчання
та інженерів, які можуть прискорити 
апаратне забезпечення,
а й дослідників, які займаються інтелектуальним
розвитком та когнітивними науками?
Я вважаю, ми б могли
зробити крок уперед.
Я не маю на увазі, що люди 
перевершують машини у всьому.
Людям далеко до машинних розрахунків,
але ми більш допитливі 
і краще розбираємося в науці.
Можливо, ми можемо чомусь 
навчитися від дітей.
Ми маємо подумати над цим:
ми працюємо над комп'ютерами 
протягом 60 років.
Ми зробили їх меншими, швидшими 
та більш енергоефективними.
Зараз мій годинник може виконати
ті ж функції, що й перший комп'ютер ENIAC
60 років тому, який займав цілу кімнату.
І тим не менше, донині ми не зрозуміли, 
як запрограмувати машину

Chinese: 
CERN是一个巨大的、
跨领域跨国界的联盟，
目标是解决特定的科学问题。
也许AI也需要一样的东西。
AI领域的大部分努力
都属于各个公司，
或者致力于小问题的小实验室，
比如如何用广告增加销量。
如果我们让大家走到一起，
共同探索更好的科研呢？
如果我们不仅集合了
机器学习的专家，
和提高硬件速度的工程师，
还有认知发展和
认知科学的研究人员呢？
我认为我们就可能取得一些进步。
我没说人类在任何方面都比机器强，
在数学上，人类甚至处于劣势。
但我们擅长问“为什么”，以及理解科学。
也许我们能从
人类儿童那儿学点东西。
试试这个思考的方式：
我们已经用了60年电脑。
它们变得越来越小，
越来越快，越来越节能。
60年前一间屋子那么大的
ENIAC计算机能做的事，
现在我这块表也都可以。
尽管如此，我们还是不明白
怎样对机器编程，

Arabic: 
سيرن، هذا الاتحاد الواسع ومتعدد 
الاختصاصات من دول مختلفة
من أجل حلّ مشاكل علمية غاية في الدقة.
ربما نحتاج نفس الشيء
للذكاء الاصطناعي.
معظم المجهودات في الذكاء الاصطناعي 
هي مجهودات فردية لشركات،
أو مختبرات صغيرة تعمل على مشاكل صغيرة،
مثل كيف تبيع إعلانات أكثر، وما إلى ذلك.
ماذا لو جمعنا كل أولئك الناس لتجربة
القيام بعلم أفضل؟
وماذا لو جلبنا ليس فقط خبراء آلات التعلّم،
و المهندسين الذين يستطيعون صنع آلات أسرع،
بل أيضاً الباحثين الذين يدرسون
التطور المعرفي والعلوم المعرفية؟
أعتقد أنه لربما نحرز بعض التقدّم.
لا أقول أن البشر أفضل من الآلات في كل شيء،
ليس البشر جيدين بنفس القدر في الحساب.
لكننا أفضل في طرح سؤال"لماذا"
وفهم العلوم.
ربما يمكننا تعلّم شيء من الأطفال.
وإليكم طريقة التفكير في ذلك:
لقد اشتغلنا على الحواسيب منذ 60 سنة.
وجعلناهم أصغر حجماً، وأسرع 
وأكثر فاعلية من ناحية الطاقة.
هذه الساعة التي لدي يمكن أن تقوم 
بما استطاعت (إنياك) القيام به
في قاعة كاملة منذ 60 سنة.
لكن مع ذلك، لم نفهم بعد
كيف نبرمج داخل الآلة

Dutch: 
met de flexibiliteit 
van het menselijk denken.
Het vermogen van een kind, kleuter, 
kleine kleuter om iets nieuws te leren.
Misschien is het tijd 
dat we dat eens proberen.
Dank je.
(Applaus)

Italian: 
con la flessibilità
del pensiero umano.
O con l'abilità d'imparare cose nuove,
tipica dei bambini piccoli.
Forse è ora di provarci.
Grazie.
(Applausi)

Arabic: 
مرونة التفكير البشري.
أو قدرة طفل، طفل صغير على تعلّم شيء جديد.
ربما حان الوقت لنحاول.
شكراً جزيلاً لكم.
(تصفيق)

Hungarian: 
az emberi gondolkodás rugalmasságát.
Vagy akár egy totyogó kisgyermek
tanulási képességét.
Talán itt az idő kipróbálnunk.
Köszönöm szépen.
(Taps)

English: 
the flexibility of human thought.
Or the ability of a child, toddler,
tiny toddler, to learn something new.
Maybe it's time that we try.
Thank you very much.
(Applause)

Japanese: 
機械にプログラムする方法を
理解していません
ほんの幼い子供が新しいことを
学ぶ能力もそうです
今が挑戦すべき時かもしれません
ありがとうございました
（拍手）

Chinese: 
它们才能有人类那么灵活的思维。
或者小孩，三岁小孩那种
学新东西的能力。
也许现在
就是我们努力的时机。
非常感谢。
（掌声）

Spanish: 
con la flexibilidad
del pensamiento humano.
O la capacidad de un niño, pequeño,
para aprender algo nuevo.
Quizá es el momento de intentarlo.
Muchas gracias.
(Aplausos)

Swedish: 
så att den tänker lika flexibelt
som människor gör.
Eller förmågan hos ett mycket litet barn
att lära sig något nytt.
Kanske är det dags att försöka.
Tack så mycket.
(Applåder)

Ukrainian: 
на людський тип мислення
або здатність малюків до вивчення нового.
Може, настав час спробувати.
Дуже вам дякую.
(Оплески)

German: 
die Flexibilität menschlichen
Denkens einprogrammieren.
Oder die Fähigkeit eines winzigen
Kleinkindes, etwas Neues zu lernen.
Vielleicht sollten wir es nun versuchen.
Vielen Dank.
(Applaus)

French: 
la flexibilité de la pensée humaine.
Ou la capacité d'un tout petit enfant
à apprendre.
Il est temps d'essayer.
Merci beaucoup.
(Applaudissements)
