
Japanese: 
ザックの紹介にあったように、僕は
DeepMind の設定グループのメンバーで
DeepMind のリサーチを
ラーニングマシーンや
ラーニング強化に適用させる、
DeepMind を Google のプロダクツに
対応させるチームで働いています。
今日はみなさんに、手短に
TensorFlow を選択した理由と
どのように利用しているか、
またその役割を話します。
TensorFlow を数的コンピューター
プラットフォームとして選ぶのは、
非常に重要な決断でした。
どのように私達のアイディアを表現するのか、
また技術者や科学者が情報を交換し、
大半の時間を費やすソフトの
一部だからです。
プラットフォームの質は、
仕事の質と結果を伝達するスピードに
直接的そして著しい影響を
及ぼすことになります。
そこには私達が求める
様々な要素があります。
フレキシビリティ、
リサーチでは、これらの奇妙で素晴しい
ネットワーク全てをミックスし続けます。

English: 
[MUSIC PLAYING]
DANIEL VISENTIN:
So as Zak said, I'm
from DeepMind's
applied group, where
I work on a team that applies
DeepMind's research to machine
learning and
reinforcement learning--
DeepMind's research in machine
learning and reinforcement
learning to Google's products.
Today I'm going to
briefly talk to you
about why we chose to use
TensorFlow, how we use it,
and how it's helped us.
So the choice of a
numerical computing
platform such as TensorFlow
is incredibly important to us.
It's how we express our ideas,
and it's the piece of software
our engineers and
scientists spend most
of their time interacting with.
The quality of that platform has
a direct and significant effect
on the quality of our work
and the speed with which we
can deliver results.
And there are several aspects
to what we look for in that.
So from flexibility,
our researches
continue to concoct all these
weird and wonderful networks,

Korean: 
잭이 언급했듯이
저는 딥마인드 응용 그룹에서 왔습니다
딥마인드의 연구를
머신 러닝과 강화 학습으로
응용하는 팀에서 일하고 있죠
머신러닝과 강화 학습에서의
딥마인드의 연구를
Google 제품으로 응용하는 겁니다
저는 오늘 저희가 왜 그리고 어떻게
텐서플로우를 사용하는지
또 저희를 어떻게 도와주는지에 대해
간단히 발표하겠습니다
텐서플로우와 같은 수차적인
계산 플랫폼을 선택하는 것은
저희에게 아주 중요합니다
저희가 생각을 표현하는 방식이고
저희 엔지니어들과 과학자들이
대부분의 시간을 상호작용하며
보내는 소프트웨어이죠
그 플랫폼의 품질은
결과를 전달할 수 있게 하는
저희 작업의 품질과 속도에 직접적이고
유의미한 영향을 미칩니다
저희가 살펴보고자 하는
몇 가지 측면이 있습니다
융통성에서부터 저희 연구자들은
이렇게 이상하지만 훌륭한 네트워크를
계속 만들어 나가고 있죠

Portuguese: 
Como o Zak disse, sou 
do grupo aplicado da DeepMind,
onde trabalho em um time
que aplica a pesquisa da DeepMind
ao aprendizado de máquina
e ao aprendizado por reforço
à pesquisa em aprendizado
de máquina e aprendizado por reforço
para produtos Google.
Hoje falarei um pouco com vocês
sobre porque escolhemos
usar o TensorFlow, como o usamos,
e como ele tem nos ajudado.
ESCOLHENDO UMA PLATAFORMA
A escolha de uma plataforma
de computação numérica como o TensorFlow
é incrivelmente importante para nós.
É como expressamos nossas ideias,
e é o software com que nossos engenheiros
e cientistas interagem por mais tempo.
A qualidade dessa plataforma
tem um efeito direto e significativo
na qualidade do nosso trabalho
e na velocidade 
com que produzimos resultados.
E nela, há vários aspectos 
relacionados ao que buscamos.
Portanto a partir da flexibilidade,
nossos pesquisadores continuam
criando essas redes estranhas e incríveis,

Spanish: 
Como Zak dijo,
soy del grupo aplicado de DeepMind
donde trabajo en un equipo
de investigación de DeepMind
de aprendizaje automático
y aprendizaje de refuerzo
investigación en aprendizaje automático
y de refuerzo
para los productos de Google.
Hablaré un poco
de por qué elegimos usar
TensorFlow, cómo lo usamos,
y cómo nos ayuda.
La elección de una plataforma
de cálculo numérico
tal como TensorFlow
es muy importante para nosotros.
Es la forma de expresar nuestras ideas
y el software con el que
nuestros ingenieros y científicos
interactúan casi todo el tiempo.
La calidad de esa plataforma
tiene un efecto directo y significativo
en la calidad de nuestro trabajo
y la rapidez de producir resultados.
Y buscamos varios aspectos.
Desde la flexibilidad,
nuestras investigaciones
inventan todas estas redes
extrañas y maravillosas

Indonesian: 
Seperti yang disebut Zak,
saya dari grup terapan DeepMind
di mana saya bekerja dalam tim
yang menerapkan riset DeepMind
ke pembelajaran mesin dan
penguatan pembelajaran--
riset DeepMind tentang
pembelajaran mesin dan
penguatan pembelajaran
ke produk Google.
Hari ini, saya berbagi singkat
tentang alasan kami memilih TensorFlow,
bagaimana kami memakainya
dan bagaimana itu membantu kami.
Jadi, pemilihan platform pemroses numerik
seperti TensorFlow
sangat penting bagi kami.
Begitulah kami mengekspresikan ide kami,
dan itulah perangkat lunak
yang sering dipakai oleh
para insinyur dan ilmuwan kami.
Kualitas platform tersebut berpengaruh
secara langsung dan signifikan
pada kualitas dan kecepatan
hasil kerja kami.
Ada beberapa aspek yang kami cari.
Dari segi fleksibilitas, para periset kami
terus mengembangkan semua jaringan
yang aneh dan mengagumkan ini

Chinese: 
[音乐]
丹尼尔·维森汀：
正如扎克说的
我来自 DeepMind 的应用团队
我所在的小组把 DeepMind 的研究应用到
机器学习和增强学习－－
把 DeepMind 在机器学习
和增强学习方面的研究
应用到 Google 产品上
今天我想和大家简单讨论
为何我们选择使用 TensorFlow，
怎么使用它
以及它对我们的帮助
选择一个数字化的计算平台
正如 TensorFlow
对我们来说至关重要
我们靠它来表达自己的想法
我们的工程师与科学家
花费了大部分时间
和这个软件打交道
这个平台的质量
对我们的作品的质量
以及提交成果的速度
有着直接、重大的影响
平台质量这个方面
我们有多方面考量
从灵活性角度说，我们的研究
不断交织着奇异而精美的网络

English: 
which we're hoping
to put into use.
Usability-- using this platform
has to be easy and natural.
Simple things like
getting some embeddings
and passing through a
feed-forward network
have to be trivial.
Composing things should be easy.
We should be able to take
all these components which
people are developing
and knock them together
to create new things.
We need to be able to reach
into the guts of that network
to see what it's doing, and
we need tools for visualizing
and debugging what's going on.
The platform also
has to be scalable.
We see this move towards
increasingly more data,
increasingly larger
networks trained
on more powerful accelerators
across multiple servers.
And the more that trend
continues, the better.
We need to be performant.
So training machine
learning models
is the new compile link cycle.
It often takes days
or even weeks for us
to get results, which reduces
the speed with which we
can iterate and try new things.

Japanese: 
これらを利用できることを
私達は望んでいます。
ユーザビリティ、
このプラットフォームの利用は
容易で自然なものでなければなりません。
簡単な動作、例えば
埋め込みを可能にするとか
フィードフォワードネットワークを
通過させるとか、平凡なものであるべきです。
構成作業は簡易であり、
人々が開発している構成要素を
全て取り込み、
新しいものを作るために
まとめる必要があります。
ネットワークの核心部分に到達する
必要があります。
何が起きているのかを知るために。
何が起きているのかを可視化し、
デバックするためのツールが必要です。
プラットフォームは、
計測可能なものであるべきです。
多量のデータ化、ネットワークの拡大化
という傾向が見受けられ、
よりパワフルなアクセラレータや
複数のサーバーによるものです。
こういう傾向が続けば、
それは良いことです。
パフォーマーであることが
求められます。
マシーンを仕込み、モデルを学ぶのは、
リンクサイクルの新たなコンパイルです。
結果を得るまでに数日、
もしくは数週間かかることは普通です。
反復作業や新しい事を試すスピードを
低減させるものです。

Indonesian: 
dengan harapan agar dapat dimanfaatkan.
Kegunaan-- memakai platform
ini harus mudah dan sederhana.
Hal sederhana seperti mendapat
beberapa penanaman
dan melewati jaringan fast-forward
perlu diuji coba.
Pembuatan harus mudah.
Kita harus bisa mengambil
semua komponen ini
yang akan dikembangkan dan digabung
untuk membuat sesuatu yang baru.
Kita perlu mencapai pusat jaringan
untuk melihat kinerjanya, dan
kita perlu alat untuk mencitrakan
dan mendebug apa
yang sedang berlangsung.
Platform juga harus bisa diukur.
Bisa dilihat dari peningkatan data,
peningkatan jaringan besar yang dilatih
pada akselerator yang lebih kuat
di beberapa server.
Jika tren ini terus berlanjut,
akan lebih baik lagi.
Kita harus efisien.
Jadi, melatih model mesin pembelajaran
merupakan siklus kompiler baru.
Diperlukan waktu beberapa hari,
bahkan mingguan untuk mendapat hasil
dan ini mengurangi kecepatan kami
untuk bertindak dan mencoba hal baru.

Chinese: 
而我们希望将其付诸实际应用
可用性——使用这个平台
必须要很简单、很自然
有一些小工作，比如做简单的嵌入
穿过前馈网络
必须轻而易举
编写代码应该很轻松
我们要能把这些大家开发的组件
都结合在一起
创造出新事物
我们要能够深入这个网络的内部
观察它的运行机理
还需要一些工具
对进程可视化以及查错
这个平台还必须要可扩展
我们有越来越多的数据
更大的网络
需要在更强大的加速器上运行
在多个服务器上
越是适应这种趋势，越好
我们还需要高性能
所以训练机器学习模型
是新的编译链接循环
这通常需要几天或者几周的时间得到结果
这可以减慢我们
重复和尝试新事物的速度

Korean: 
언젠가 사용되길 바라면서 말이죠
사용성은 이 플랫폼을
사용하는 것이 쉽고 자연스럽죠
피드 포워드 네트워크를 통해 임베딩과
패싱 등의 간단한 일은
사소한 일이죠
이를 만드는 일은 쉬울 겁니다
새로운 것을 만들기 위해
사람들이 개발하고
뚝딱 만들어 낸 모든 컴포넌츠를 가지고
일할 수 있는 거죠
네트워크의 요점에
다다를 수 있어야 합니다
이것이 하는 일이 무엇인지
또 그 일을 시각화하고
디버깅하기 위해 도구가 필요한 거죠
플랫폼은 또한 측정 가능해야 합니다
다양한 서버에 걸친
더욱 강력한 엑셀러레이터에
훈련된 점점 더 많은 데이터와
점점 더 큰 네트워크로
나아가는 걸 볼 수 있죠
이러한 트렌드가 더욱
계속될 수록 더 좋습니다
성능 기준에 잘 맞아야 합니다
머신 러닝 모델을 훈련시키는 것은
새로운 컴파일 링크 사이클입니다
결과를 얻기 위해
몇 일 혹은 몇 주가 걸리죠
이는 새로운 것을 반복하고
시도하는 속도를
느리게 만듭니다

Portuguese: 
que esperamos colocar em uso.
Usabilidade - usar essa plataforma
deve ser fácil e natural.
Coisas simples como conseguir encaixes
e passá-los por uma rede neural
pré-alimentada tem que ser trivial.
Criar coisas deve ser fácil.
Devemos poder pegar
todos esses componentes
que as pessoas estão desenvolvendo
e juntá-los para criar coisas novas.
Precisamos poder alcançar o cerne
dessa rede para ver o que está fazendo,
e precisamos de ferramentas
para visualizar e depurar o que acontece.
A plataforma também precisa ser escalável.
Observamos esse movimento
em direção a um maior fluxo de dados,
redes cada vez maiores,
treinadas em aceleradores mais potentes
sobre múltiplos servidores.
E quanto mais essa tendência
continuar, melhor.
Precisamos ser performantes.
Portanto, treinar modelos
de aprendizado de máquina
é o novo ciclo de compilação 
e link-edição.
Geralmente levamos dias, até semanas,
para obter resultados
o que reduz a velocidade com que iteramos
e testamos coisas novas.

Spanish: 
que esperamos poner en uso.
Usabilidad: usar esta plataforma
tiene que ser fácil y natural.
Cosas simples como hacer
que algunos embedding
pasen por una red prealimentada
tienen que ser triviales.
Componer cosas debería ser fácil.
Debemos poder tomar
todos estos componentes
que se están desarrollando
y juntarlos
para crear cosas nuevas.
Tenemos que llegar
a las entrañas de esa red
para ver lo que hace
y necesitamos herramientas para visualizar
y depurar lo que está pasando.
La plataforma también
tiene que ser escalable.
Vemos este movimiento
hacia cada vez más datos
redes cada vez más grandes entrenadas
en aceleradores más potentes
en múltiples servidores.
Y cuanto más siga esa tendencia, mejor.
Necesitamos ser eficaces.
Los modelos de entrenamiento
de aprendizaje automático
es el nuevo ciclo
de enlaces de compilación.
Nos lleva días o semanas
obtener resultados,
lo que reduce la rapidez
para iterar y probar cosas nuevas.

Portuguese: 
Quanto mais rápido isso acontece,
mais rápido podemos desenvolver.
Também é importante na hora de servir,
onde latência é um fator crítico
no que podemos fazer.
Geralmente temos limites
de latência bastante apertados.
Quanto mais performante for um modelo,
mais poderemos usar modelos
expressivos e poderosos
do ponto de vista computacional,
o que nos dará maiores ganhos de precisão.
Também no treinamento,
a performance é importante
porque quando treinamos
com dados reais no tempo do servidor
a velocidade com que podemos treinar
afeta a qualidade do modelo
o que geralmente tem efeito cascata
sobre a nossa acurácia ao servir.
E, finalmente,
disponibilidade de produção.
Geralmente gastamos todo esse tempo
em pesquisa, avaliação
e experimentação dos nossos modelos,
e quando, finalmente, conseguimos algo bom
queremos logo colocar em produção
para experimentos ao vivo
e escalonar para o tráfego que temos.
MIGRANDO PARA TF
Antes, na DeepMind,
nossos projetos eram todos implementados 
em Torch ou Disbelief.
Quando o TensorFlow começou a amadurecer

Spanish: 
Cuanto más rápido vaya,
más rápido podremos desarrollar.
También el tiempo de servicio
donde la latencia es un factor crítico
en lo que podemos hacer.
A menudo tenemos límites
de latencia muy ajustados.
Un modelo más efectivo
es más expresivo y más potente
computacionalmente
y nos dará mayor precisión.
Aun en el entrenamiento
importa la efectividad
porque cuando entrenamos
con datos reales en tiempo de servicio
la rapidez para entrenar
afecta la frescura del modelo
que a menudo tiene efectos descendentes
en la exactitud en el tiempo de servicio.
Y finalmente, la preparación
de la producción.
A menudo pasamos este tiempo
investigando, evaluando
y experimentando nuestros modelos.
Y cuando surge algo bueno
queremos ponerlo en producción
lo más pronto posible
para experimentar en vivo
y después subirlo
a todo el tráfico que tenemos.
Antes en DeepMind, nuestros proyectos
se implementaban en Torch o Disbelief.
Al madurar TensorFlow

Chinese: 
所以它越快，我们研发的速度也就越快
这在服务时也非常重要
延迟时间是决定我们可做之事的关键之一
我们通常有非常严格的延迟边界
模型的性能越高
我们可以使用的模型也就
越具有表现力，越强大
让我们可以得到更多更准确的结果
培训的同时，性能也至关重要
因为当我们用真实的数据训练时
我们训练的速度
会影响到模型的新颖性
这会对下游服务时间准确性有影响
最后，产品的就绪性－－
我们经常花所有时间研究、评估、
试验我们的模型
当我们得到一个好的模型时
我们会想要尽快投入生产
做实际的检验
最后规模化应用于我们所有的信息流
在之前的 DeepMind 中
我们的项目都在 Torch 或 Disbelief 中进行
随着 TensorFlow 的成熟

English: 
So the faster it goes,
the faster we can develop.
It's also important
at serve time,
where latency is a critical
factor in what we can do.
We often have quite
tight latency boundaries.
The more performant
the model is,
the more expressive and more
computationally powerful
models we can use, which will
give us bigger accuracy gains.
Also with training,
performance matters,
because when we're training
on real data at serve time,
the speed with
which we can train
affects the freshness
of the model, which
often has downstream effects
on our accuracy at serve time.
And finally,
production readiness--
we often spend all this time
doing research, and evaluation,
and experimentation
of our models.
And when we finally come
up with a good thing,
we want to get it into
production as soon
as possible to do
live experiments
and ultimately scale it up to
all the traffic that we have.
So previously at
DeepMind, our projects
were all implemented in
either Torch or Disbelief.
As TensorFlow began
to mature and head

Korean: 
따라서 더 빨리 갈수록
더 빨리 개발할 수 있는 거죠
이는 서브 시간에 있어서도 중요합니다
우리가 할 수 있는 일에 있어서
지연 속도가 중요한 부분이죠
종종 지역속도 경계기 아주 빠듯하죠
모델이 성능 기준에 더 잘 맞을수록
우리가 사용할 수 있는 모델은
표현력이 더욱 풍부해지고
계산적으로 강력해지므로
더욱 큰 정확도 이득을 얻게 되죠
또한 훈련을 통한 성능도 중요합니다
서브 시간으로 실제 데이터를 훈련할 때
우리가 훈련할 수 있는 속도는
모델의 신선함에 영향을 주고
이는 종종 서브 시간에서의
정확도에 후속 효과를 주기 때문이죠
마지막으로 생산 준비성의 경우
우린 종종 우리 모델을
연구하고 평가하며 실험하는 데에
이 모든 시간을 보냅니다
결국 좋은 결과를 얻었을 때
최대한 빨리 생산하고 싶어 하죠
실시간 실험을 하고
궁극적으로 우리가 가진
모든 트래픽으로까지
상향 조절하기 위해서 말이죠
따라서 이전 딥마인드에서의
저희 프로젝트는
모두 토치나 디스빌리프에서
실행되었습니다
텐서플로우가 발전하고 첫 번째

Japanese: 
ですから、速ければ速いほど
開発も速く行えます。
サーバー時間も重要で、
呼び出し時間は、私達が関知できる
重要な要素となっています。
常に、呼び出し時間の幅は
厳しい状況にあります。
よりパフォーマンス力の高いモデルは、
より表現力に富んでおり
また、コンピューター的に
よりパワフルなモデルを使えるようになり
それらは、より大きな精度をもたらします。
トレーニングに関しては、
パフォーマンスの問題になります。
なぜなら、リアルデータをサーバー時間で
トレーニングするからです。
トレーニングするスピードは、
モデルのフレッシュさを左右します。
それは、サーバー時間の精度に
下降の影響を与えます。
そして最後に、
プロダクション・レディネス
しばしば、モデルのリサーチや評価、
そして実験に多くの時間を費やします。
ついに、良いものが出てきた時
なるべく、早く生産を実現しようとし
そして実際の実験を望み、最終的に
通信量すべてを測ろうとします。
以前、DeepMind のプロジェクトはすべて
Torch か Disbelief で行なっていました。

Indonesian: 
Semakin cepat prosesnya,
semakin cepat kami mengembangkannya.
Itu juga penting pada waktu layanan
dimana latensi adalah faktor
penentu apa yang bisa dibuat.
Kami sering memiliki rintangan latensi.
Semakin efisien modelnya, semakin
ekspresif dan semakin kuat model komputasi
yang bisa kita gunakan, maka
hasilnya akan lebih akurat.
Begitu juga dengan pelatihan,
kinerja sangatlah penting
karena saat kita melatih pada
data nyata pada waktu yang tersedia,
kecepatan yang bisa kita latih
mempengaruhi kesegaran model, yang
seringkali mengurangi keakuratan
pada waktu yang tersedia.
Dan akhirnya, kesiapan produksi--
kita sering menghabiskan waktu
untuk riset, evaluasi
dan eksperimentasi model kita.
Dan saat kita berhasil,
kita ingin segera memproduksinya
untuk melakukan eksperimen secara langsung
dan meningkatkannya
untuk semua lalu lintas yang kita miliki.
Sebelumnya di DeepMind, proyek kami
diterapkan pada Torch atau Distbelief.

Chinese: 
以及它首次开放源码的发布
我们开始对它产生兴趣
在应用小组中，我们通过
尝试一些新的项目来试验它
与此同时，研究小组
有非常稳定的，
常用代码库，
开始仔细评估平台适用性
通过在几个已有项目中重应用
根据结果
我们认为 TensorFlow 是非常有潜力的
因此我们决定使用它
在最近的一年内
我们一直都致力于这一过程
直到今天为止，我们使用的大部分编码
都在TensorFlow中
以及所有的－－
从现在开始我们构建的大部分程序
都会使用 TensorFlow
很酷的是，我们在一年半以前
做了这个决定，从那以后
TensorFlow 以及它周边的系统改进
都超出了我们的想象
因此我们现在

Spanish: 
y publicarse en código abierto
empezamos a verlo como algo interesante.
En el grupo aplicado
comenzamos a probarlo
haciendo algunos nuevos proyectos.
Mientras, el equipo de investigación
que tenía esta base de código
muy estable y utilizado
en el que tenían que pensar
empezó a evaluar
cuidadosamente su idoneidad
rehaciendo varios proyectos existentes.
Basados en los resultados
decidimos que TensorFlow
era el camino a seguir
y así empezamos a migrar.
Durante el último año
hemos trabajado en ese proceso.
Y ahora, la mayor parte
del código que usamos actualmente
está en TensorFlow.
Y todas las cosas...
la mayoría de lo que construiremos
a partir de ahora
estará en TensorFlow.
Lo estupendo de esto
es que tomamos esta decisión
hace un año y medio
y desde entonces, el TensorFlow
y el ecosistema a su alrededor
ha superado nuestras expectativas.
Estamos más contentos
con esta decisión ahora
de lo que estábamos entonces.

Indonesian: 
Seiring berkembangnya TensorFlow dan
perilisan sumber terbuka pertamanya
maka kami mulai melihatnya
sebagai hal yang menarik.
Dalam grup terapan,
kami mulai menggunakannya
dengan berbagai proyek baru.
Sementara, tim riset
yang menjaga kestabilannya
banyak memakai dasar kode
yang mereka perlu pikirkan, mulai
dengan memeriksa kecocokan
secara teliti dengan menerapkan ulang
beberapa proyek yang ada.
Berdasarkan hasilnya,
kami memutuskan bahwa
TensorFlow adalah cara untuk maju
maka kami mulai berpindah.
Sejak sekitar tahun lalu,
kami mulai mengerjakan proses tersebut.
Sekarang hampir semua kode
yang kami pakai adalah dalam TensorFlow.
Dan semua hal--
sejumlah besar hal yang akan dibuat
akan ada dalam TensorFlow.
Ini keren karena kami mengambil keputusan
ini setahun, satu setengah tahun lalu
dan sejak itu TensorFlow
dan ekosistemnya telah berkembang
melebihi perkiraan kami.
Kami sekarang lebih senang

English: 
towards its first
open source release,
we started looking at it
as an interesting thing.
In the applied group, we
began experimenting with it
by trying a few new projects.
Meanwhile, the
research team, who
have this very
stable, much used code
base they needed to
think about, began
by carefully evaluating the
suitability by reimplementing
several existing projects.
Based on the results
of that, we decided
that TensorFlow was
the way forward,
and so we started to migrate.
So over the past
year or so, we've
been working on that process.
And as of today, most of our
code that we currently use
is in TensorFlow.
And all the stuff--
the significant amount of stuff
we're building from now on
will be in TensorFlow.
What's quite cool about this is
we made this decision a year,
a year and a half ago, and
since then, the TensorFlow
and the ecosystem
around it has improved
beyond our expectations.
So we're even more
happy with this decision

Japanese: 
TensorFlow が熟し、最初の
オープンソースリリースに向かった時
興味深いと思いました。
設定グループ内で、少数の新しい
プロジェクトを通じて実験を始めました。
一方で、リサーチチームは
非常に安定した大量の使用済みコードベースを
考慮する必要にせまられていました。
慎重に適合性を評価しながら、
既存のプロジェクトの再履行を始めました。
それらの結果に基づいて、
TensorFlow は前進的であると見なし
そこに移動することに決めたのです。
ここ１年ほど、私達は
そのプロセス作業を進めており
今日、現在使用しているコードの大部分は
TensorFlow に入っています。
そしてすべての要素、
これから構築していく、かなり多くの要素は
TensorFlow に入っていくでしょう。
１年半前にこの決断を下したことは、
非常に良かったと思います。
それ以来、TensorFlow と周囲の
エコシステムは期待以上に改善され
当時よりもさらにこの決断が
正しいものだったことを喜んでいます。

Portuguese: 
e seguir para a primeira versão
de código aberto
começamos a vê-lo como algo interessante.
No grupo aplicado,
começamos a experimentar com ele
testando alguns projetos novos.
Enquanto isso, o time de pesquisa,
que tem uma base de código
muito mais estável
com a qual precisa se preocupar,
começou a avaliar
cuidadosamente a adequação,
reimplementando vários
projetos existentes.
Com base nesses resultados,
decidimos que o TensorFlow
era o caminho a seguir
e começamos a migração.
Então, no último ano,
temos trabalhado nesse processo.
E hoje, a maior parte do código
que usamos está no TensorFlow.
E tudo aquilo,
a grande quantidade de coisas
que construímos a partir de agora,
vai estar no TensorFlow.
E o melhor é que tomamos essa decisão
há um ano, ano e meio,
e desde então, o TensorFlow
e o ecossistema ao seu redor
melhoraram além da nossa expectativa.
Então, estamos ainda mais felizes
com essa decisão do que estávamos antes.

Korean: 
오픈 소스 발표로 나아감에 따라
저희는 딥마인드가 아주
흥미롭다고 생각하기 시작했죠
응용 그룹에서 우리는
몇 가지 새로운 프로젝트를
시도하면서 실험을 시작했죠
동시에 연구팀은 많은 생각이 필요한
아주 안정적이고 많이 사용된
코드 베이스가 있었고
몇 가지 현존하는
프로젝트를 다시 실행함으로써
적합성을 조심스럽게 검토하기 시작했죠
이에 따른 결과에 근거해서 저희는
텐서플로우가 적합한
방향이라고 결정했고
따라서 병합을 시작했습니다
지난 일여년 동안에 걸쳐
이 과정을 작업하고 있습니다
그리고 오늘자로 현재 저희가
사용하는 코드의 대부분은
텐서플로우에 있습니다
그리고 이 모든 것
저희가 지금부터 만들 상당량은
텐서플로우에서
진행될 겁니다
이 결정을 일년 반 전에 내렸고
그때 이후로 텐서플로우와
그를 둘러산 생태계가
기대 이상으로 발전해 왔다는
점이 아주 멋지죠
따라서 저희는 이 결정에 대해
처음보다 지금

Portuguese: 
Vou usar o restante do meu tempo falando
mais especificamente
sobre como usamos TensorFlow
e como ele nos ajuda.
E como sou do grupo aplicado,
vou começar aqui.
RESFRIAMENTO DO CENTRO DE DADOS
Uma das coisas mais legais
que fizemos recentemente
foi otimizar a utilização de energia
nos centros de dados do Google.
Tudo começou quando o time
de infraestrutura técnica nos procurou
depois de ver os jogos do Alphago,
e perguntou se poderíamos usar RL
para controlar centros de dados
mais eficientemente.
Então, trabalhamos com eles, 
e depois com os times no Google Brain
para construir modelos para controlar
a infraestrutura de resfriamento.
Isso é como se parece um corredor frio
em um dos centros de dados do Google.
Estes são os servidores.
Alguns deles podem estar rodando
TensorFlow e, por isso, estão esquentando.
Então, temos esses ventiladores no fundo
que jogam ar frio sobre os servidores
nesse corredor quente, onde ele passa
e é transferido para o sistema
de refrigeração à água.
Aqui estão alguns canos e bombas.
E os canos levam a água quente
do corredor quente

Indonesian: 
dengan keputusan ini
dibanding saat dahulu.
Jadi, saya akan gunakan sisa waktu saya
untuk membahas lebih dalam
tentang pemakaian TensorFlow
dan cara memanfaatkannya.
Karena saya dari grup terapan,
saya akan mulai dari pemanfaatan.
Hal terkeren yang telah kami lakukan
adalah mengoptimalkan pemakaian
energi di pusat data Google.
Ini dimulai saat tim infrastruktur
teknis mengunjungi kami
setelah melihat pertandingan
AlphaGo dan penasaran
tentang cara kami memakai RL untuk
mengontrol efisiensi pusat data.
Jadi, kami bekerja sama dengan mereka,
dan lalu bekerja dengan tim Google Brain
untuk membuat model yang mengontrol
infrastruktur pendingin.
Singkatnya, seperti inilah
pendingin di pusat data Google.
Ini adalah server.
Beberapa mungkin
sedang menjalankan TensorFlow
dan mulai memanas karenanya.
Jadi, kami letakkan kipas di belakang,
yang mengalirkan udara dingin
ke server melalui lorong panas ini,
lalu bergerak ke bawah
dan ditransfer ke sistem pendingin air.
Ini adalah beberapa pipa dan pompa.
Pipa membawa air dari lorong panas

Spanish: 
Dedicaré el resto del tiempo
a hablar más específicamente
sobre cómo usamos TensorFlow
y cómo nos ayuda.
Y puesto que soy del grupo aplicado,
comenzaré allí.
Algo de lo mejor
que hicimos recientemente
fue optimizar el uso de energía
en los centros de datos de Google.
Comenzó cuando nos visitó
el equipo de infraestructura técnica
después de ver los partidos
de AlphaGo y se preguntó
cómo podríamos usar RL para
controlar los centros de datos
más eficientemente.
Trabajamos con ellos
y posteriormente trabajamos
con equipos en Google Brain
para construir modelos para controlar
la infraestructura de refrigeración.
Así es como se ve un pasillo frío
en uno de los datos de Google
Estos son los servidores.
Algunos deben estar ejecutando TensorFlow
y se van calentando.
Tenemos estos ventiladores atrás
que tiran el aire frío
a los servidores
en este pasillo caliente
donde se desplaza hacia abajo
y se transfiere a un sistema
de refrigeración por agua.
Aquí hay algunas tuberías
y algunas bombas.
Las tuberías llevan el agua
caliente del pasillo caliente

Chinese: 
比当时做这个决定的时候更满意
因此，我想要用剩下的时间
具体讲讲我们是如何使用 TensorFlow 的
以及它是如何帮助我们的
因为我是应用小组的
所以我就从这里开始讲
我们最近做的一件最棒的事
是优化谷歌数据中心的能源使用
这要从技术基础团队找到我们开始
他们看到 AlphaGo 的比赛
想知道我们如何使用 RL
来更加高效控制数据中心
因此我们与他们合作
随后与 Google Brain 团队一起构建模型
控制冷却设施
简单来说，这就是谷歌数据中心的
一个冷却通道
这是服务器
他们中的一些人，也许运行 TensorFlow
因此，他们成为了热门人物
我们有后面的风扇
他们让服务器上的冷空气
输送到热通道中，
从那里传下来
传送到水冷却系统
这里有一些管道和泵
管道把热气流通道中的热水

Japanese: 
スピーチの残り時間を、
TensorFlow の利用方法と
その利点についてもう少し詳しくお話します。
設定グループのメンバーなので、
そこから話し始めます。
最近、成功した例の１つが
Google のデータセンターの
エネルギー処理を最適化したことです。
テクニカルインフラチームが 
AlphaGo 大会を見た後に訪ねてきました。
RL を使って、より効果的なデータセンター
管理が可能かどうか尋ねてきました。
彼らと仕事を始め、結果的に
Google Brain チームと共同で作業し
モデルを構築し、インフラの
クーリング管理作業に携わりました。
手短かに言うと、こちらが Google の
データセンターの１つの冷房通路です。
これはサーバーです。
これらの幾つかが TensorFlow を
作動させていて、熱くなっていると思います。
後方には扇風機があり、サーバーの上部を
冷気が流れ、暖房通路に流れ込みます。
そし下方に移動して、
水冷却装置に運び込まれます。
ここにはパイプやポンプが並んでおり、

English: 
now than we were then.
So I'm going to spend the
rest of my time talking
a bit more specifically
about how we use TensorFlow
and how it helps us.
And since I'm from the applied
group, I'll start there.
So one of the coolest
things we've done recently
is on optimizing the energy
usage in Google's data centers.
This began when the technical
infrastructure team came to us
after seeing the AlphaGo
matches and wondered
how we could use RL to
control the data centers more
efficiently.
So we work with them,
and subsequently worked
with teams in Google Brain
to build models to control
the cooling infrastructure.
Briefly, this is what a cold
aisle in one of Google's data
centers looks like.
This is the servers.
Some of them, maybe,
are running TensorFlow,
and they're getting
hot doing so.
So we have these fans
at the back, which
pull that cold air
over the servers
into this hot aisle, where it
travels down and is transferred
into a water cooling system.
So here are some
pipes and some pumps.
And the pipes take the hot
water from the hot aisle

Korean: 
훨씬 더 기뻐하고 있습니다
그럼 남은 발표 시간 동안
어떻게 텐서플로우를
사용하고 이것이 어떻게
저희를 도와주는가에 대해
구체적으로 발표하겠습니다
제가 응용 그룹에서 왔으니
거기에서 시작하도록 하죠
저희가 최근에 한
가장 멋진 일 중 하나는
Google 데이터 센터에서의
최적화된 에너지 사용에 관한 것입니다
이는 기술 기반시설 팀이
알파고 시합을 본 후
데이터 센터를
좀더 효율적으로 통제하기 위해
어떻게 RL을 사용할지
궁금해 하면서 저희에게 왔을 때
시작되었죠
이들과 함께 일했고 이어서
냉각 기반시설을 통제하는
모델을 만들기 위해
Google 브레인팀과 일하게 되었죠
간단히 보면 이것이 Google
데이터 센터 중 하나에 있는
냉각통로의 모습입니다
이것은 서버이죠
이중 일부는 어쩌면
텐서플로우를 실행시킬테고
그러는 동안 뜨거워지겠죠
따라서 뒷쪽에 이러한
선풍기가 있습니다
서버 위쪽의 냉기를 이 뜨거운 통로로
가져오면 밑으로 내려와서
수냉식 시스템으로
바뀌는 곳이죠
여기 일부 파이프와 펌프가 있죠
이 파이프들은
뜨거운 통로에서 뜨거운 물을

English: 
to the chillers on the roof,
and the cold water from those
chillers back to the cold aisle.
And here's what those
cooling towers look like.
They're just big fans
which take the water
and cool it down into the air.
So we spent a while
working on this offline.
We had to take into
account safety.
The model couldn't go
and try random things,
otherwise we'd break
billion-dollar data centers,
which is never great.
And we had to work out how
to do a bit of exploration
as well, because if we
just learned on the data
which we had available,
the model would probably
never learn to do
anything more optimal
than what the human
operators had done.
So we iterated a bit,
and when it eventually
came time to experiment,
we turned it on,
and we saw this nice drop.
>From my experience, it's
kind of rare to see something
so defined and
sustained like this,
so we're quite happy with it.
So we had this initial
result, and it came time
to implement it.

Chinese: 
传输到顶端冷却，
再把冷却器中的冷水
输回到冷通道
这就是那些冷却塔的样子
它就是一些大风扇
可以将水冷却到室温
我们花了一阵子做这些线下工作
我们必须考虑账户安全
模型不能做随机的尝试
否则，我们可能会毁了
价值数十亿美元的数据中心
那就不妙了
我们还需要做一些探险
因为如果我们只是学习已有的数据
模型可能永远不会比
人工运行
更优化
因此我们重复了几次
等到我们实验的时候
我们把它打开
我们看到了这个美好的下降
根据我的经验
一个如此清晰的，稳定的程序很少见
因此我们对它很满意
我们有了这个初始结果
现在就要运用它了

Korean: 
천장의 냉각기로 가져오고
이러한 냉각기의 냉수는
차가운 통로로 다시 돌아가죠
이것이 그 냉각 타워의 모습입니다
물을 가져 와서
온도를 낮춘 후 공기로 만드는
그냥 큰 선풍기인 셈입니다
오프라인으로 이 작업을 하는 데에
꽤 오랜 시간을 보냈죠
안정성도 고려해야 했으니까 말이죠
모델이 무작위로 일을 하지는 못했죠
잘못 하면 십억 달러의
데이터 센터를 고장낼테니 말이죠
정말 안 좋은 일이겠죠
어떻게 탐색을 할지도 해결해야 했습니다
우리에게 있던 데이터에
대해서만 배운다면
이 모델은 아마 사람 정비사가
하는 일 이상의
최적화된 어떠한 것도
결코 배우지 못할테니 말이죠
따라서 저희는 약간 반복했고 마침내
실험할 시간이 되어 작동시켰더니
이렇게 근사한 온도 하락을 봤죠
제 경험상 이렇게
강력하고 지속되는 것은
아주 드문 광경입니다
굉장히 만족스러웠죠
이러한 초기 결과를 가지고 실행시킬
시간이 왔죠

Spanish: 
a los enfriadores en el techo
y el agua fría de esos enfriadores
de vuelta al pasillo frío.
Así se ven las torres de enfriamiento.
Son grandes ventiladores
que toman el agua
y la enfrían en el aire.
Pasamos un tiempo trabajando
en esto fuera de línea.
Teníamos que tener en cuenta la seguridad.
El modelo no podía ir
y probar cosas al azar
si no romperíamos centros de datos
de miles de millones de dólares
que no es nada bueno.
Y tuvimos que trabajar
en cómo hacer algo de exploración
porque aprendíamos sobre los datos
que teníamos disponibles,
el modelo probablemente
nunca aprendería a hacer algo mejor
que lo que los operadores
humanos habían hecho.
Iteramos un poco y cuando finalmente
llegó el momento de experimentar
lo encendimos y vimos esta bonita caída.
Por mi experiencia es algo raro ver
algo tan definido y sostenido como esto.
Estamos muy contentos con eso.
Tuvimos este resultado
inicial y llegó el momento
de implementarlo.

Portuguese: 
para os resfriadores no telhado,
e a água fria desses resfriadores
de volta para o corredor frio.
E essas são as torres de resfriamento.
São grandes ventiladores
que resfriam a água.
Passamos um tempo
trabalhando nisso offline.
Tínhamos que considerar a segurança.
O modelo não podia
sair testando coisas aleatórias
senão, poderíamos causar uma falha
em centros de dados de bilhões de dólares,
o que não seria muito bom.
E tivemos que descobrir
como explorar um pouco também
porque se só aprendêssemos
com os dados disponíveis,
o modelo provavelmente
nunca aprenderia a fazer algo melhor
do que os operadores
humanos já tinha feito.
Então iteramos um pouco
e quando, finalmente,
chegou a hora de experimentar,
nós o ligamos
e vimos essa bela queda.
Pela minha experiência, é raro ver algo 
tão bem definido e sustentável,
e ficamos muito felizes com isso.
Então, conseguimos esse resultado inicial
e chegou a hora de implementá-lo.

Japanese: 
パイプを通じて
暖房通路から温水が取り込まれ、
屋上部分に設置してある冷却装置に送られ、
そこから冷水が冷房通路に戻ってきます。
これらの冷却タワーをご覧下さい。
これらの大きな扇風機は、
水を冷却して、空気中に放出します。
しばらく、このオフラインの
作業に携わりました。
アカウントの安全を確保する
必要があったのです。
モデルは行き詰まっており、
無作為に進んでいました。
さもなければ、莫大な価値のある
データセンターがダウンし
それは望ましいことでは
ありません。
おまけに、実験じみたものを実行するために
作業する必要がありました。
なぜなら、取得できるデータの
学習だけであれば
たぶんモデルは
人間の技術者が行なったこと以外、
何も最適なことは習得しないでしょう。
少し反復作業を行い、実験段階に到達した時
作動させ、この素晴しい降下現象を
目にしました。
なかなか目にすることのできない
体験をしました。
このように明確で、
持続性があるものなので
非常に嬉しく思っています。
初期の結果が得られたので、
実行する段階に入りました。

Indonesian: 
menuju ke pendingin di atap,
dan air dari pendingin
menuju ke lorong dingin.
Seperti ini penampilan menara pendingin.
Itu hanya kipas besar yang membawa air
dan mendinginkannya di udara.
Kami mengerjakan ini secara offline.
Kami harus memperhitungkan keselamatan.
Kami tidak bisa sembarangan
mencoba model ini
atau pusat data seharga
miliaran dolar ini akan rusak
dan itu buruk sekali.
Kami juga perlu mencari
cara untuk mengeksplorasi
karena jika kami hanya mempelajari
data yang tersedia, model itu
mungkin tak akan belajar
umtuk bekerja lebih optimal
dibanding operator manusia.
Jadi, kami mengulang lagi,
dan saat waktunya tiba untuk eksperimen
kami menyalakannya, dan
melihat penurunan yang bagus ini.
Dari pengalaman saya,
jarang untuk melihat sesuatu
yang terdefinisi dan terjaga seperti ini.
Jadi kami cukup senang.
Jadi, kami punya hasil awal ini,
dan saatnya untuk menerapkannya.

Portuguese: 
Como os centros de dados
não tinham, de fato,
a infraestrutura para executar, treinar,
avaliar e verificar os modelos
de aprendizado de máquina,
nós mesmos tivemos que escrevê-lo.
E foi o que fizemos.
Pegamos nossos modelos Torch
e passarmos para o TensorFlow,
construímos toda a parte
de treinamento, validação e serviço.
Mas durante o último ano, vimos um aumento
no desenvolvimento de APIs de alto nível
em torno do TensorFlow e componentes
como TensorFlow Serving
que basicamente anulam grande parte
do trabalho que tivemos que fazer,
o que, para nós, é ótimo,
porque preferimos nos concentrar
nos aspectos do modelo
do que na parte de infraestrutura.
Um outro exemplo 
de como o TensorFlow nos ajudou
é que antes tínhamos 
esse sistema chamado Gorila,
que significa General
Reinforcement Learning Architecture-
Arquitetura Geral de Aprendizado 
por Reforço- com algumas letras a mais.
E escrevemos isso, no início,
para acelerar

Chinese: 
因为数据中心还没有
基础设施去运行、训练、
评估、验证机器学习模型
我们必须自己写许多代码
因此我们这么做了
我们使用最初的 Torch 模型
把它们用在了 TensorFlow 上
我们建立了所有的训练和验证
以及服务
然而，在最近的一年中
我们见证了高阶 API 的发展
通过 TensorFlow 以及
类似 TensorFlow 服务器的组件
这基本上使很多我们做的工作变得不必要
从我们的角度来说，这非常的棒
因为我们宁愿把注意力放在模型上
而不是这些基础设施上
太好了
TensorFlow 帮助我们的另一个例子是
我们之前的系统叫做 Gorila
也就是综合强化学习架构的缩写
加了些多余的字母
我们最初写这个程序

Korean: 
실행하고 훈련하고
평가하며 머신 러닝 모델을
확인하기 위한 기반시설이 데이터센터에
준비되어 있지 않았기 때문에
저희 스스로 많은 부분을
작성해야 했습니다
그렇게 했죠
원래의 토치 모델을 가지고
텐서플로우로 옮겼습니다
이 모든 훈련, 확인, 서빙을 저희가
만들었죠
하지만 지난 한 해 동안 저희는
이러한 텐서플로우
주변의 고등 API에서의 개발과
텐서플로우 서빙과 같은
컴포넌트를 목격했죠
이는 기본적으로 저희가
해야 했던 일의 많은 부분을
무색하게 만들었고
저희 입장에서는 정말 좋은 일이죠
이러한 기반시설 작업보다는 모델 측면에
초점을 두는 편이 더 낫기 때문이죠
좋습니다
텐서플로우가 도움을 준
또다른 예시는
이전에 고릴라라는 시스템이 있었습니다
이는 일반 강화 학습 건축의 줄임말로
약간의 철자가 더 첨가되긴 했죠
처음엔 DQN 스타일의 에이전트 훈련의

English: 
Because the data
centers didn't really
have the infrastructure
set up to run, and train,
and evaluate, and verify
machine learning models,
we had to write a lot
of this ourselves.
So we did that.
We took our original
Torch models
and moved them to TensorFlow.
We built up all this
training, and validation,
and serving stuff.
But over the past
year, what we've
witnessed the development
in these high-level APIs
around TensorFlow and components
like TensorFlow Serving, which
basically negate a lot of
the work that we had to do,
which from our perspective
is great because we'd rather
focus on the modeling
aspects than all this kind
of infrastructure stuff.
Cool.
So another example
where TensorFlow
helped us is we
previously had this system
called Gorila, which stands for
general reinforcement learning
architecture, with some extra
letters thrown in there.
And we wrote this,
initially, to speed up

Spanish: 
Dado que los centros de datos
no tienen la infraestructura establecida
para ejecutar, entrenar
evaluar y verificar
modelos de aprendizaje automático
nosotros tuvimos que escribir
mucho de esto.
Entonces lo hicimos.
Tomamos nuestros modelos de Torch
y los trasladamos a TensorFlow.
Hemos generado todos estos temas
de entrenamiento, validación y servicio.
Pero el último año
presenciamos el desarrollo
de estas API de alto nivel
alrededor de TensorFlow
y componentes como TensorFlow Serving
que niega gran parte del trabajo
que tuvimos que hacer
que desde nuestra perspectiva
es grande porque preferimos
centrarnos en los aspectos de modelado
antes que el tema infraestructura.
Otro ejemplo donde TensorFlow nos ayudó
es que previamente teníamos
el sistema llamado Gorila
que significa arquitectura
de aprendizaje de refuerzo general
con algunas letras extra puestas allí.
Escribimos esto,
inicialmente para acelerar

Japanese: 
なぜなら、データセンターは
ラーニングマシーンモデルを作動させる
また習得、評価、立証させるための
インフラを持っていませんでした。
私達はそこに直接入力する
必要に迫られました。
実際に入力を行ない、オリジナルの Torch 
モデルを TensorFlow に移動させました。
これらの習得、評価、また
サーバーに関係するものを構築し
しかし、過去数年間
私達が目にしてきたことは
TensorFlow 関連のこれらの
ハイレベル API の開発や
TensorFlow Serving のような
コンポーネント、
これらは基本的に私達がやってきた
作業の大部分を否定します。
私達の観点からは、
それは素晴しいことでした。
なぜなら、これらのインフラ関連ではなく
モデリングアスペクトに
重点を置いていたからです。
TensorFlow が私達を助けてくれた例を
挙げましょう。
以前まで、Gorila というシステムを
使っていました。
アーキテクチャー習得一般強化機能の
役割を担っています。
ここに、Gorila のロゴが
表示されています。
当初は、DQN スタイルエージェントの
トレーニングの高速化を測るために

Indonesian: 
Karena pusat data
tidak benar-benar memiliki
infrastruktur awal untuk menjalankan,
melatih, mengevaluasi
dan memeriksa model pembelajaran mesin,
kami banyak menulisnya sendiri.
Jadi, kami melakukannya.
Kami memindahkan model
Torch asli ke TensorFlow.
Kami membuat semua
pelatihan ini, mengesahkannya
dan menyediakan layanan terkait.
Selama setahun terakhir, kami melihat
perkembangan API tingkat tinggi
di TensorFlow dan komponen
seperti TensorFlow Serving
yang pada dasarnya meniadakan
banyak hal yang harusnya dilakukan.
Ini bagus karena lebih baik
kami fokus pada aspek pemodelan
dibanding semua hal terkait infrastruktur.
Keren.
Contoh lain di mana
TensorFlow sangat membantu
yaitu kami sebelumnya memiliki
sistem bernama Gorila
yang merupakan singkatan dari general
reinforcement learning architecture
dengan beberapa huruf tambahan di sana.

Chinese: 
是为了加速 DQN 代理训练的速度
这是建立在怀疑基础上的构架
我们有代理储存的一些参数
在多个参数服务器上
代理的多个实例
将从服务器端获取的参量
与环境互动，从而获取经验
这些经验然后被储存在分布式内存中
多个学习中的机器可以从中采样
更新模型参量
整个程序都如此循环
通过这样，我们可以更快地获取经验
因为我们有多个代理
我们可以更快地学习
因为我们有多个学习机器
但是，除了集合速度更快
我们更多会发现，这些模型
比在单一服务器上训练的模型更好
我们认为这与
打破我们训练示例的
相关性有关
这也是从 A3C 训练算法
得来的一个灵感
我们的开发者之后开发的算法

Portuguese: 
o treinamento de agentes DQN.
Essa foi uma estrutura
que criamos por cima do Disbelief.
Tínhamos os parâmetros de um agente
armazenados em múltiplos
servidores de parâmetros,
e múltiplas instâncias daquele agente
puxando parâmetros
do servidor de parâmetros,
e interagindo com ambientes
para ganhar experiência.
Essa experiência era armazenada
em uma memória distribuída
onde múltiplos aprendizes
obtinham amostras
para atualizar os parâmetros do modelo.
E a coisa toda girava ao redor disso.
Dessa forma, podíamos ganhar
mais experiência, mais rápido,
porque tínhamos múltiplos agentes
e podíamos aprender mais rápido
porque tínhamos múltiplos aprendizes.
Mas, em geral, mais do que a velocidade
de convergência, vimos que algumas vezes
esses modelos se saíam melhor 
do que aqueles treinados
em um único servidor.
E achamos que tinha algo a ver
com a quebra de correlações
entre os exemplos que usamos
para treiná-los de vez em quando.
Isso também foi uma das inspirações
para o algoritmo de treinamento A3C
que nossos pesquisadores
desenvolveram mais tarde.

Spanish: 
el entrenamiento de agentes de estilo DQN.
Este fue un framework construido
en la cima de la incredulidad.
Teníamos los parámetros
de un agente almacenado
a través de múltiples
servidores de parámetros,
y múltiples instancias de ese agente
con los parámetros
desde ese servidor de parámetros
e interactuando con los entornos
para obtener experiencia.
Esa experiencia se almacenaba
en una memoria distribuida
donde múltiples aprendices
tomaban muestras
para actualizar los parámetros del modelo.
Y todo el tema de ciclos
alrededor de esto.
Al hacerlo de esta manera
obtuvimos más experiencia
más rápido porque teníamos
múltiples agentes
y podíamos aprender más rápido
porque había aprendices múltiples.
Pero a menudo, más que
la velocidad de la convergencia,
veíamos que a veces estos modelos
lo hacían mejor que los modelos
entrenados en servidores individuales.
Y pensamos que tenía algo que ver
con la ruptura de correlaciones
entre los ejemplos sobre los que
entrenábamos de vez en cuando.
Esta también fue una de las inspiraciones
para el algoritmo de entrenamiento A3C

English: 
training of DQN style agents.
So what this was was a framework
built on top of disbelief.
We had the parameters
of an agent stored
across multiple
parameter servers,
and multiple instances
of that agent
pulling the parameters
from that parameter server
and interacting with
environments to get experience.
That experience was then stored
in a distributed memory where
multiple learners sampled
from it to make updates
to the model parameters.
And the whole thing kind
of cycled around like that.
By doing it this way, we
could get more experience
faster because we
had multiple agents,
and we could learn
faster because we
had multiple learners.
But often, more than the
speed of convergence,
we often saw that sometimes
these models actually
did better than models
trained on single servers.
And we think that
had something to do
with the breaking
of correlations
between the examples we
trained on from time to time.
This also was one
of the inspirations
for the A3C training algorithm,
which our researchers later

Japanese: 
入力を行ないました。
Disbelief の頂点に構築された
フレームワークでした。
複数のパラメータサーバーを通じた、
エージェント記憶装置パラメータ
パラメータサーバーからパラメータを引き出し
経験を積むための環境情報を伝達する、
あるエージェントの複数の
インスタンスを持っていました。
その経験はその後、
分布したメモリーに保存され
モデルパラメータ対応の更新のために、
多くのラーナーがサンプルを得ました。
このように、すべてのことが
こういったサイクルを経ることになります。
このようなやり方で、
より速く経験を積むことができました。
なぜなら、より多くのエージェントと
コンタクト取ることができ
多くのラーナーがいるので、
より速く習得することができました。
しかし、たびたび収束スピード以外に
シングルサーバーでトレーニングされた
モデルよりも、
これらのモデルの方が実際に良い
パフォーマンスを行なうのを見てきました。
トレーニングした見本の
相関関係の解消に関連していて、
対処しなければならないと思っています。
これは A3C アルゴリズムトレーニングの
インスピレーションともなりました。
これはリサーチャーが後日、
開発したものです。

Korean: 
속도를 향상시키기 위해 작성했죠
이는 디스빌리프 상에
만들어진 프레임워크였습니다
여러 파라미터 서버에 걸쳐 저장된
에이전트의 파라미터가 있었고
이 파라미터 서버에서
파라미터를 가져오고
경험을 얻기 위해 환경과 상호작용하는
에이전트의 예시가 많았죠
그런 후 이 경험은
분산 메모리에 저장되었고
이곳은 모델 파라미터로
업데이트하기 위해 여러 학습자가
표집하는 곳이었죠
이 모든 것이 이런 식으로
사이클을 돌았죠
이러 식으로 더 많은 경험을
더 빨리 얻을 수 있었죠
다양한 에이전트가 있었기 때문이죠
다양한 학습자가 있었기 때문에
더 빨리 학습할 수 있었죠
하지만 집중 속도뿐 아니라
이러한 모델들이
사실 단일 서버에서 훈련된
모델보다 더 낫다는 점을 종종 발견했죠
그리고 이것은 때때로
저희가 훈련해 온 예시들 사이에서의
상관관계를 깨트리는 것과
관련이 있다고 생각합니다
이는 또한 저희 연구자들이
나중에 개발한 A3C
훈련 알고리듬을 위한

Indonesian: 
Awalnya, kami menulis ini
untuk mempercepat pelatihan agen gaya DQN.
Ini adalah kerangka kerja
yang dibangun selain DistBelief.
Kami punya parameter
dari agen yang disimpan
di berbagai server parameter
dan beberapa agen
tersebut menarik parameter
dari server parameter dan
berinteraksi dengan lingkungan
untuk mendapat pengalaman.
Pengalaman itu lalu disimpan
dalam memori yang terdistribusi
di mana beberapa pembelajar mengambil
dari situ untuk memperbarui
parameter model.
Dan keseluruhan siklus seperti itu.
Dengan begini, kita bisa dapat
lebih banyak pengalaman
lebih cepat karena ada berbagai agen
dan kita bisa belajar lebih cepat
karena ada berbagai pembelajar.
Seringkali, lebih dari
kecepatan konvergensi
kami melihat bahwa
terkadang model ini sebenarnya
lebih baik dibanding model
yang dilatih dari server tunggal.
Dan menurut kami, itu berkaitan
dengan rusaknya korelasi
antar sampel yang kami latih
dari waktu ke waktu.
Ini juga merupakan salah satu inspirasi
untuk algoritma pelatihan A3C
yang nantinya dikembangkan ilmuwan kami.

Korean: 
원동력 중 하나가 되었죠
텐서플로우를 소개함으로써
저희는 이를 강력히
반대할 수 있었죠
많은 기능성이
텐서플로우 내에서
작성될 수 있기 때문입니다
코드를 쓰고 유지하는 데에 드는
시간이 줄고 실제 프로젝트에
더 많은 시간을
보낼 수 있으니 정말 좋은 일이죠
좀더 일반적으로 보면
텐서플로우를 사용한 이후로
저희가 실행해야 했던 보조 작업의 양이
전반적으로 감소했습니다
텐서플로우와 그 생태계가
계속 발전함에 따라
더 나아지기만 할 뿐인 거죠
이 중 하나는 현재
개발되고 있는 고등 API로
새로운 프로젝트를 시작하거나
프로토타입을 만들고
훈련하고 평가하기 위해 해야 했던
이전의 많은 일들을 해결해 줍니다
모델링에 시간을 더 쓸 수 있다는 뜻이죠
텐서플로우에서 모델로
실험을 하기 쉽습니다
몇 줄의 코드로 베이스라인을 만들어내기
쉬운 거죠
바꾸는 것도 쉽습니다

English: 
developed.
So with the introduction
of TensorFlow,
we were able to
basically deprecate this
because much of
the functionality
is handled by
TensorFlow or can be
written from within
TensorFlow, which is great
because it's less time
we need to spend on code
and maintaining it,
and more time we
can spend on our
actual projects.
More generally, since we've
started using TensorFlow,
we've seen a reduction
across the board
in the amount of ancillary
work we have to perform.
And things are only getting
better as TensorFlow
and the ecosystem around
it continues to develop.
So one of these is
the high-level APIs
which are developing, which take
care of a lot of the work we
previously had to do
to start a new project,
to build a prototype, to
train it and evaluate it,
meaning we can spend
more time on modeling.
It's easy to experiment
with models in TensorFlow.
It's easy to put together
a baseline in a couple
lines of code.
It's easy to change
things about it.

Spanish: 
que nuestros investigadores
desarrollaron más tarde.
Con la introducción de TensorFlow,
pudimos depreciar esto
porque mucha funcionalidad
es manejada por TensorFlow
o puede ser escrita desde
dentro de TensorFlow, lo que es genial
porque necesitamos emplear
menos tiempo en código
y en mantenerlo, y más tiempo
para nuestros proyectos reales.
En general, desde que empezamos
a usar TensorFlow
hemos visto una reducción general
de la cantidad de trabajo auxiliar
que tenemos que realizar.
Y las cosas solo mejoran
mientras TensorFlow
y el ecosistema alrededor de él
continúan desarrollándose.
Una de ellas son las API de alto nivel
que se están desarrollando,
que se ocupan de gran parte del trabajo
que antes había que hacer
para iniciar un nuevo proyecto,
construir un prototipo,
entrenarlo y evaluarlo,
lo que significa que podemos
dedicar más tiempo al modelado.
Es fácil experimentar
con modelos en TensorFlow.
Es fácil armar una línea de base
en dos líneas de código.
Es fácil cambiar las cosas relacionadas.

Japanese: 
TensorFlow 導入段階では、
これに基本的には不賛成でした。
なぜなら、多くの機能が
TensorFlow によって管理されており、
もしくは TensorFlow 内で
入力することも可能です。
コードに費やす時間が減ったので
良かったです。
メインテナンスもできるし、
現行のプロジェクトに時間を注げます。
具体的な例を挙げると
TensorFlow を使用して以来、
実行すべき補助的な作業量が
減少しているのをボード上で目にします。
TensorFlow と周囲のエコシステムが
改善し続ければ、状況は良くなります。
それらの１つは、
開発しているハイレベル API で
新プロジェクト開始時に必要だった
作業を担ってくれます。
プロトタイプを構築したり
それをトレーニングや評価したり、
それは私達がモデリングに
より時間を費やせることを意味します。
TensorFlow 内でモデルの実験を
行なうことは簡単です。
ベースラインを数個のコードラインに
統合することも簡単です。
それに関する事象を変更することも
簡単です。

Portuguese: 
Então, com a introdução do TensorFlow,
pudemos, basicamente, aposentar isso
porque muito da funcionalidade
é tratada pelo TensorFlow
ou pode ser escrita
dentro do TensorFlow;
o que é ótimo porque gastamos menos tempo
escrevendo, e mantendo código,
e temos mais tempo 
para dedicar aos nossos projetos.
De forma geral, desde que começamos
a usar o TensorFlow
tivemos uma grande redução
de trabalho adicional.
E as coisas só melhoram à medida
que o TensorFlow e seu ecossistema
continuam a se desenvolver.
Uma delas são as APIs de alto nível
que estão sendo desenvolvidas,
que cuidam de grande parte do trabalho
que fazíamos antes de iniciar um projeto,
como criar um protótipo, 
treiná-lo e avaliá-lo.
Assim podemos gastar
mais tempo na modelagem.
É fácil experimentar
com modelos no TensorFlow.
É fácil definir uma linha de base
com algumas linhas de código.
É fácil modificar algumas coisas.

Indonesian: 
Dengan adanya TensorFlow,
Gorila tidak perlu dipakai lagi
karena banyak fungsinya bisa ditangani
TensorFlow atau ditulis dari TensorFlow.
Ini bagus karena lebih hemat waktu
untuk mengerjakan kode dan menjaganya
dan makin banyak waktu
untuk proyek yang sebenarnya.
Secara umum, sejak kami mulai memakai
TensorFlow, kami melihat ada penurunan
terkait jumlah pekerjaan tambahan
yang harus dilakukan.
Dan keadaan jadi makin baik
seiring perkembangan TensorFlow
dan ekosistem di sekitarnya.
Salah satunya adalah API tingkat tinggi
yang sedang berkembang, yang
mengurus banyak pekerjaan
yang sebelumnya harus kami lakukan
untuk memulai proyek baru
untuk membuat prototipe, untuk melatih,
dan mengevaluasinya.
Ini artinya kami punya waktu lebih banyak
untuk mengerjakan pemodelan.
Mudah untuk bereksperimen
dengan model di TensorFlow.
Mudah untuk membuat sebuah garis dasar
dengan beberapa baris kode.
Mudah untuk mengubahnya.

Chinese: 
通过引入 TensorFlow
我们基本上可以忽略它
因为许多的功能
都可以被 TensorFlow 处理
或者可以写在 TensorFlow 中
这非常好，因为我们可以
花更少的时间在编码和维护上
也就可以花
更多的时间在实际项目上
总的说来，
自从开始使用 TensorFlow
我们所有人
需要做的辅助工作都变少了
有了 TensorFlow
一切都变得更好
周围的生态系统也在持续发展
其中之一就是正在开发的高阶 API
它帮助我们处理了许多
我们以前开启一个新项目时
需要做的工作
创立一个原型，训练它，评估它
我们可以有更多时间用来建模
在 TensorFlow 中试验模型非常简单
用几行的代码组建一个基线
非常简单
想要改变它也很容易

Spanish: 
Por ejemplo, si tenemos
muchos embeddings
de varias series de tiempo
¿queremos concatenar
los últimos 10 de ellos?
¿Queremos convolucionarlos
¿Queremos pasarlos
por un LSTM para obtener el estado?
Son solo cambios en un par de líneas
lo cual es muy bueno.
El entrenamiento distribuido nos ayuda.
Podemos intentar más cosas
más rápido y más pronto.
Y una vez que hemos pasado
por todo este trabajo
y estamos emocionados
deseando ponerlo en producción,
TF Serving se ocupa
de gran parte del sufrimiento
que antes había.
Todo esto significa
un ciclo de desarrollo más rápido
para soportar más proyectos.
Podemos experimentar más
y podemos entregar más rápido
lo cual es genial.
Y aún no hemos encontrado una instancia
en estas colaboraciones con Google
donde TensorFlow no haya sido adecuado
para el problema que se trabaja,
o no haya sido flexible
lo cual es genial.
Estoy entusiasmado
con las posibilidades que hay
y espero poder contarles más
sobre algunos de estos proyectos pronto.

Korean: 
예컨대 다양한 시간 시리즈에서
여러 개의 임베딩이 있을 때
이들 중 마지막 10개를
같이 연결하고 싶나요?
이들 위로 감고 싶나요?
스테이트를 얻기 위해
LSTM을 통해 보내고 싶나요?
이 모두가 몇 줄의
라인으로 바꿀 수 있으니
정말 좋은 겁니다
분산 훈련도 도움이 되죠
더 많은 것을 더 빠르고 더 이르게
시도할 수 있습니다
마지막으로 일단 이 모든 일을 하고
신나게 이 모든 것을 생산하고 싶다면
이전에 있었던 많은 부담을 TF 서빙이
없애줍니다
따라서 이 모든 것들이
더 빠른 개발 사이클에 이르게 하고
더 많은 프로젝트를
지원할 수 있게 되는 거죠
실험을 더 할 수 있고
더 빨리 배달할 수 있으니
정말 좋은 거죠
게다가 Google과의 협력에서
저희가 작업하는 문제에 텐서플로우가
적합하지 않거나 융통성이 없었던 경우가
나타난 적이 아직 없으니
정말 훌륭하죠
이 가능성들 덕분에 너무 신나고
조만간 이 프로젝트의 일부에 대해

Japanese: 
例えば、多様なタイムシリーズの
埋め込みのまとまりあったとして
後ろから数えて 10 個を
連鎖させたい時
それらを絡み合わせたい時
ステートを得るために
これらを LSTM に通過させたい時
これらはたった 1, 2 行の変更だけで
できるようになるのです。
分布されたトレーニングは
役に立ちます。
より多くのことをより迅速に
トライできるからです。
ついに、これら全ての作業を終えた時
私達は感動して
以前まで存在した多大な労力を軽減する
TF Serving というものを
生産することを望みました。
これらの迅速な開発サイクルの意義は、
より多くのプロジェクトに
関われるようになるということです。
より実験を行なえるようになり、
より迅速に伝達できるので、
素晴しいです。
加えて、Google とのコラボレーションで
あるサンプルを提案する予定です。
TensorFlow がまだ解決策を
見出していない部分です。
まだ充分なフレキビリティを
持ち得ていない部分です。
だから、そこに可能性があることに
ワクワクしているし
近い将来、このプロジェクトについて
みなさんに話ができることを望んでいます。

Indonesian: 
Contohnya, jika kita punya banyak
penanaman dari berbagai seri waktu
apakah kita ingin menggabungkan
10 terakhir diantaranya?
Apa kita ingin mereka menjadi kusut?
Apa kita ingin membawa mereka
melalui LSTM untuk mencapai kondisi itu?
Hanya ada beberapa perubahan baris,
cukup bagus.
Pelatihan yang terdistribusi
membantu kita.
Kita bisa mencoba lebih banyak hal
dengan lebih cepat.
Saat semua pekerjaan ini selesai,
kita senang dan ingin memproduksi semuanya
TF Serving menghilangkan
banyak kerepotan yang ada sebelumnya.
Jadi, semua ini membuat
siklus perkembangan lebih cepat
sehingga kita bisa mendukung
lebih banyak proyek.
Kita bisa bereksperimen lebih banyak, dan
kita bisa selesai lebih cepat,
dan ini bagus.
Selain itu, kami belum menemukan
contoh kolaborasi ini dengan Google
di mana TensorFlow
tidak cocok dengan masalah
yang sedang kami hadapi,
dan tidak cukup fleksibel.
Ini bagus.
Jadi saya senang dengan
kemungkinan di sini
dan saya harap kami bisa segera berbagi
lebih banyak tentang proyek ini.

English: 
So for example, if we
have a bunch of embeddings
from various time
series, do we want
to concatenate the last
10 of them together?
Do we want to
convolve over them?
Do we want to pass them through
an LSTM to get the state?
It's all just a couple
of lines of changes,
which is quite nice.
The distributed
training helps us.
We can try more things
quicker and sooner.
And finally, once we've
gone through all this work
and we're excited and wanting
to put them all into production,
TF Serving kind of gets rid
of a lot of the pain that
was previously there.
So all this amounts to a quicker
development cycle, meaning we
can support more projects.
We can experiment more,
and we can deliver
quicker, which is great.
And what's more, we've yet to
come across an instance in any
of these collaborations
with Google
where TensorFlow
has not been suited
to the problem we're working
on, hasn't been flexible
enough, which is great.
So I'm excited about
the possibilities here,
and I hope we can tell you more
about some of these projects

Portuguese: 
Por exemplo, se temos alguns encaixes
de várias séries de tempo,
devemos concatenar os últimos dez?
Devemos convolvê-las?
Devemos passá-las pelo LSTM
para obter o estado?
São apenas algumas linhas
de alteração, o que é bem legal.
O treinamento distribuído nos ajuda.
Podemos testar mais coisas 
de forma mais rápida.
No final, depois que tivemos
todo esse trabalho
e estamos empolgados
para colocar tudo em produção,
o TF Serving meio que facilita 
tudo para nós.
Tudo isso resulta em um ciclo
de desenvolvimento mais rápido,
portanto podemos suportar mais projetos.
Podemos experimentar mais, 
e podemos entregar mais rápido,
o que é ótimo.
E, além disso, ainda não encontramos
nenhuma instância
em todas essas colaborações com o Google
onde o TensorFlow não tenha sido adequado
ao problema em que estávamos trabalhando,
ou não tenha sido 
suficientemente flexível.
Estou empolgado
com as possibilidades aqui
e espero poder contar
mais sobre esses projetos em breve.

Chinese: 
比如说，如果我们有许多的
来自不同时间段的嵌入
要把最后的10个连接在一起吗？
要将他们缠绕在一起吗？
我们想要通过 LSTM 来获取状态吗？
这都只需要几行的变化
这非常棒
分布式的训练可以帮助我们
我们可以更快更早地试验更多东西
最后，当我们完成了所有工作
我们非常兴奋地想把他们投入生产
TF Serving 帮助我们摆脱了
许多以前需要经历的麻烦
所以这一切意味着更快的开发周期
我们可以支持更多的项目
我们可以做更多的试验
我们可以更快交付
这真的是太棒了
此外，我们还没有遇到过
跟谷歌合作时
TensorFlow 无法适应
我们正在解决的问题的情形
或者它不够灵活的情形，这很棒
因此我对它的前途非常激动
我希望可以尽快

Portuguese: 
O time aplicado é apenas
uma parte da DeepMind,
e nossos amigos na pesquisa
também estão ocupados
fazendo um monte de coisas legais,
e começaram a tirar vantagem
do TensorFlow para isso.
Uma das coisas óbvias
e um dos momentos mais empolgantes
para nós no ano passado
foi quando o AlphaGo ganhou
uma série de competições
contra Lee Sedol, um dos maiores
jogadores de Go da última década.
O que tornou isso tão empolgante
foi uma combinação
de um grande feito técnico
ao criar um forte jogador Go,
mas também representou 
um novo começo para o jogo de Go.
O interesse cresceu.
Tabuleiros de Go se esgotaram pelo mundo,
o que foi interessante.
E os jogadores responderam,
não com um senso de derrota,
mas ficaram excitados, 
como um novo começo
porque eles podiam trabalhar
com essas máquinas
para explorar mais a fundo
os mistérios desse jogo antigo.
Mais precisamente, AlphaGo
foi um dos primeiros usos importantes
do TensorFlow na DeepMind
onde foi usado com grande vantagem
para testar essas redes
que executavam o AlphaGo,

Spanish: 
El equipo aplicado es solo
una parte de DeepMind
y nuestros amigos de investigación
también están ocupados
haciendo muchas cosas interesantes
y comenzaron a aprovechar
TensorFlow para hacerlas.
Una de las cosas obvias
y uno de los momentos
más emocionantes el año pasado
fue cuando AlphaGo
ganó una serie de partidos
contra Lee Sedol, uno de los jugadores
más grandes de Go
de la última década.
Lo que hizo esto tan emocionante
fue una combinación
de un gran logro técnico
en hacer un jugador fuerte de Go
sino también representó
un nuevo comienzo en el juego de Go.
El interés creció.
Se vendieron tableros en todo
el mundo, lo cual fue interesante.
Y los jugadores respondían
no con un sentido de derrota,
sino que estaban entusiasmados
con un nuevo comienzo
porque podían trabajar con estas máquinas
para explorar más profundamente
los misterios de este antiguo juego.
Yendo al punto, AlphaGo fue uno
de los primeros usos importantes
de TensorFlow
en DeepMind, donde fue utilizado
con gran ventaja
para entrenar a estas redes
impulsando AlphaGo.

English: 
soon.
So the applied team is
only one part of DeepMind,
and our friends in
research are also
busy doing lots of
cool stuff and have
begun to take advantage
of TensorFlow to do so.
So one of the obvious
things and one
of the most exciting
moments for us last year
was when AlphaGo succeeded
in a series of matches
against Lee Sedol, one of
the greatest Go players
of the last decade.
What made this so
exciting was it
was a combination of a
great technical achievement
in making a strong Go
player, but it also
represented something of a new
beginning in the game of Go.
Interest boomed.
Go boards sold out across the
world, which was interesting.
And players responded, not
with a sense of defeat,
but they were excited about
it as a new beginning,
because they could work
with these machines
to explore more deeply the
mysteries of this ancient game.
More to the point,
AlphaGo was one
of the first significant
uses of TensorFlow
at DeepMind, where it was
used to great advantage

Chinese: 
跟大家分享一些此类项目
应用小组只是 DeepMind 的一部分
我们在研发组的朋友
也在做很多很酷的东西
并且他们开始利用 TensorFlow
很明显的一点是
我们去年最激动人心的时刻是
AlphaGo 在一系列与李世石的比赛中的胜出
李世石是过去的几十年中
顶级的围棋手
让我们激动的是
这是一个伟大的技术成就
我们不仅创造了一个伟大的围棋手
而且开创了围棋领域的新纪元
人们对围棋的兴趣大增
围棋棋盘在全世界一售而空
这非常有趣
棋手也作出了回应，不是以失败的姿态
他们也非常的激动，这是一个新的开始
因为他们可以跟机器下棋
来更深入地探索这个神秘的古老游戏
更重要的是，AlphaGo是
我们第一次在 DeepMind 上
利用 TensorFlow的重要应用，
我们很好地利用了它的优势

Indonesian: 
Jadi, tim terapan hanyalah
salah satu bagian dari DeepMind
dan kawan kami di riset
juga sibuk melakukan
banyak hal keren dan
mulai memanfaatkan TensorFlow.
Salah satu momen yang nyata dan
menyenangkan bagi kami tahun lalu
adalah saat AlphaGo sukses
pada seri pertandingan
melawan Lee Sedol,
salah satu pemain Go terhebat
di abad ini.
Ini menyenangkan karena
ini adalah gabungan pencapaian teknik
dalam memperkuat pemain Go
dan mewakili hal baru dalam permainan Go.
Minat bertambah.
Papan Go terjual di seluruh dunia,
dan ini menarik.
Para pemain menanggapi,
tidak dengan rasa kalah
tapi karena itu awal yang baru,
mereka bisa bekerja dengan mesin ini
untuk mengeksplorasi lebih dalam
tentang misteri permainan kuno.
Lebih jelas lagi, AlphaGo adalah
kegunaan TensorFlow pertama yang penting
di DeepMind, yang dimanfaatkan untuk

Korean: 
좀더 말씀드릴 수 있길 바랍니다
응용팀은 딥마인드의 일부분일 뿐입니다
연구팀의 동료들 또한
여러 멋진 일을 하느라 바쁘고
이를 위해 텐서플로우를
활용하기 시작했습니다
저희에게 가장 분명하고
신나는 순간 중 하나는 작년에
지난 십년 간 가장 훌륭한 바둑기사 중
한 명인 이세돌과의 경기에서
알파고가 승리했을 때였죠
이 승리가 신나는 이유는
이것이 강력한 바둑 기사를
만드는 데에 있어서의
훌륭한 기술적 성과의
조합이었기 때문일 뿐 아니라
바둑 시합에서의
새로운 시작을 나타내기 때문입니다
관심이 쏟아졌죠
전 세계에서 바둑판이
매진되다니 정말 재미있죠
바둑 기사들도 반응했습니다
폐배감 때문이 아니라
새로운 시작에 들뜬거죠
이 머신과 작업할 수 있다면
이 오래된 바둑의 미스테리를
더욱 깊게 탐색할 수 있을테니 말이죠
중요한 점은 알파고가 딥마인드에서
텐서플로우를 상당히
사용한 첫 경우 중 하나이고
알파고에 힘을 주는 이러한
네트워크를 훈련시키는 데에

Japanese: 
設定チームは、DeepMind の一部であって
リサーチ部門の同僚たちは
重要なことをたくさんやり続けており、
そして TensorFlow を
使いこなし始めています。
去年、私達にとって
最も嬉しかった事柄の１つは
AlphaGo がリー・セドルに対抗する
ゲームにおいて成功を収めたことでした。
彼は、今世紀において最も
偉大な Go player の１人であり
なぜ、これほど嬉しかったかというと
より強い Go player を輩出するという
技術的な業績を成し遂げたからですが
一方で、Go ゲームの新たな始まりを
象徴するものだったからです。
関心が集まり、
Go Board は世界中で売り切れ、
興味深い現象が起こりました。
プレイヤーたちは反応し、
打ち負かされたという感覚ではなく
新しい始まりという感覚で、
胸を躍らせていました。
これらのマシーンを使って、この古代ゲームの
神秘により深く浸ることができるからです。
核心にふれるならば、
AlphaGo は DeepMind で
最初に TensorFlow を利用した、
意義のあるものです。
これらのネットワークのトレーニングを
行なう重要な利点を持ち、
AlphaGo を強化しています。

Indonesian: 
melatih jaringan-jaringan ini,
dan memperkuat AlphaGo.
Saya tak akan berbicara
terlalu banyak tentang Go.
Singkatnya, ini permainan
informatif yang sempurna
dengan faktor percabangan yang tinggi dan
banyak gerakan dalam permainan tertentu.
Jadi, penelusuran minimax
standar Anda takkan berhasil.
Komponen utama AlphaGo terdiri
dari dua jaringan ini--
Policy Network dan Value Network.
Policy Network dilatih
sesuai kondisi permainan
untuk menebak langkah
yang akan diambil lawan.
Dan Value Network dilatih
sesuai kodisi permainan
untuk memprediksi kemungkinan
permainan dimenangkan.
Jadi, dengan naif, Anda bisa
memakai Value Network
untuk mengevaluasi
gerakan Anda berikutnya
meski kenyataanya itu tak cukup bagus
untuk kebutuhan kita.
Jadi, kami terpaksa berkompromi
memakai jaring ini dengan
penelusuran pohon Monte Carlo
untuk mendapat hasil yang lebih baik.
Dan dasar cara kerja ini yaitu
jika Anda lakukan penelusuran menyeluruh
Monte Carlo, akan ada banyak kemungkinan.

Spanish: 
No voy a pasar demasiado
tiempo hablando del Go en sí.
Basta con decir que es un juego
de información perfecto
con un factor de ramificación muy alto
y muchos movimientos
en un juego determinado.
Obviamente, la búsqueda minimax
estándar no funcionará.
El componente principal
de AlphaGo se compuso
de estas dos redes:
una red de políticas y
una red de valores.
La red de políticas fue entrenada
para, dado un estado de juego,
calcular el movimiento
que el oponente iba a hacer.
Y la red de valores fue entrenada
para, dado un estado de juego,
predecir la probabilidad
de ganar ese juego.
Ingenuamente, mientras podías
utilizar la red de valor
para evaluar tus próximos movimientos,
en la práctica no era lo suficientemente
bueno para lo que necesitábamos.
Recurrimos a un poco de compromiso
usando estas redes
con búsqueda en árbol Monte Carlo
para obtener mejores resultados.
La forma en que esto funciona es
si haces una búsqueda Monte Carlo completa
son muchas posibilidades.

English: 
to train these networks,
powering AlphaGo.
So I won't spend too much
time talking about Go itself.
Just suffice it it say, it's
a perfect information game
with a very high
branching factor and a lot
of moves in a particular game.
So your standard minimax
search obviously won't work.
The main component of
AlphaGo was composed
of these two networks--
a policy network
and a value network.
The policy network was trained
to, given a game state,
work out which move the
opponent was going to make.
And the value network was
trained to, given a game state,
predict how likely we
were to win that game.
So naively, while you could
just use the value network
to evaluate your
next set of moves,
in practice that wasn't quite
good enough for what we needed.
So we resorted to a
bit of a compromise,
using these nets with a
Monte Carlo tree search
to get better results.
And the way this
basically works is,
if you do a full Monte
Carlo search, that's
way too many possibilities.

Korean: 
엄청난 혜택을 주기 위해 사용되었죠
바둑 자체를 설명하기 위해
많은 시간을 쓰진 않겠습니다
간단히 말해 하나의 특정 시합에서
아주 높은 분기계수와
많은 바둑수가 있는
완벽한 정보 게임입니다
따라서 표준 미니맥스 탐색은
분명 적용할 수 없겠죠
알파고의 주요 컴포넌트는 이 두 가지
네트워크로 구성됩니다
정책 네트워크와 가치 네트워크이죠
정책 네트워크는 특정 시합 상태에서
상대가 어떠한 수를
둘지 알아내도록 훈련됩니다
가치 네트워크는 특정 시합 상태에서
이 시합을 이길 확률이
얼마인지 예측하죠
따라서 순진하게 생각하면
다음 바둑수를 평가하기 위해
가치 네트워크만 사용하면 되겠지만
시합에서는 이것만으로는 충분하지 않습니다
따라서 저희는
더 나은 결과를 얻기 위해
몬테 카를로 트리 탐색과 함께
이 네트를 이용해
마지못해 약간의 절충에 의지하게 됐죠
기본적으로 이것의 원리는
몬테 카를로 탐색 전체를 다 하면
가능성이 너무 많습니다

Japanese: 
Go 自体についての話は
ここで終わりにします。
非常に高度な分岐要素を包括した素晴しい
インフォメーションゲームだと言えます。
特定のゲームの中には、
非常に多くの動きが存在します。
ですから、最小限度の検索は
残念ながら実現しません。
AlphaGo の主要コンポーネントは、
この２つのネットワークで構成されています。
ポリシーネットワークと
バリューネットワークです。
ポリシーネットワークは、
ゲームステート中に
対向者がどんな動きをするのか
判別するように仕込まれています。
バリューネットワークは、
ゲームステート中に
ゲームでどのように勝利を収めるか
予測するように仕込まれています。
単純に次の動きを評価するために
バリューネットワークを使っている時
実際には、必要とされる要件を
満たしてはいません。
ですから、より良い結果を得るために
Monte Carlo Tree サーチを使って
多少妥協する方向へ進みました。
この作業の基本的な方法は、
Monte Carlo サーチをフル利用すれば、
多くの可能性が残されるということです。

Chinese: 
来训练网络，让 AlphaGo 变得更强大
我不想花太多时间谈围棋
可以说，它是一个完美的信息游戏
有非常多的分支因素
在一局特定的游戏中
有许多的移动可能
用标准极大极小搜索战略显然是行不通的
AlphaGo 的主要组成成分是
这两个网络
规则网络和值网络
规则网络经过训练，在特定游戏状态在
猜测对手可能会做的移动
值网络经过训练，在特定游戏状态下
预测赢得比赛的可能性有多大
简单说，虽然你可以只使用值网络
来评估你的下一步移动
在实践中，这达不到我们的要求
所以我们采取了一个折中方式，
使用 Monte Carlo 树搜索
来获取更好的结果
基本上，它的工作方式是
如果你有一个完整的 Monte Carlo 搜索
会得到太多可能

Portuguese: 
Não vou gastar muito tempo
falando sobre o Go em si,
apenas que é o jogo
de informação perfeito,
com um alto fator de ramificações
e muitos movimentos em um único jogo.
Por isso, a busca minimax padrão
obviamente não funcionaria.
O principal componente do AlphaGo
é composto dessas duas redes:
uma rede de regras e uma rede de valores.
A rede de regras é treinada para,
dado um estado do jogo,
descobrir qual o movimento
que o oponente fará.
E a rede de valores foi treinada para,
dado um estado do jogo,
prever a probabilidade
de vencermos o jogo.
Enquanto você poderia
usar apenas a rede de valores
para avaliar seus próximos movimentos,
na prática, isso não era bom
o bastante para o que precisávamos.
Então chegamos a um acordo,
usando essas redes 
com uma árvore de busca Monte Carlo
para obter melhores resultados.
E a forma como isso funciona, basicamente
se fizer uma busca Monte Carlo
completa, terá possibilidades demais.

English: 
So we use this policy network
to guide the paths in the search
tree to the most likely paths.
And then at some point further
on in one of those paths,
we'd use the value
network to evaluate
how good that path was,
meaning we didn't have
to go all the way to the end.
Why the value network
performed better in that case
is because as we unrolled
these paths, more of the game
had unfolded.
And things were more
certain, so the value network
had a better prediction.
But the real thing
where TensorFlow came in
was the training of this thing,
which was quite significant.
It took quite a
significant amount of work.
So we started by taking
games from expert players
and training this
policy network.
And then we began
this iterative process
where we use
reinforcement learning
to train a value network
from that policy network,
and then update the
policy network to produce
better moves.
Previously, doing this
on Torch, it was slow.
And when we moved
to TensorFlow, we

Korean: 
따라서 저희는 탐색 트리에서
가장 확률이 높은 경로로 인도해 주도록
이 정책 네트워크를 사용한 거죠
그리고 이 경로 중 하나에서
조금 더 나아간 어느 시점에서
이 경로가 얼마나 좋은지 평가하기 위해
가치 네트워크를 사용하는 겁니다
즉 완전히 끝까지 갈 필요가 없는 거죠
이 경우 가치 네트워크가
더 잘 실행되는 이유는
이 경로를 펼침에 따라 더 많은 게임이
펼쳐졌기 때문이죠
따라서 더욱 확실해졌으니
가치 네트워크가
예측을 더 잘 하겠죠
하지만 실제로 텐서플로우가 개입된 것은
훈련할 때였고 이는 굉장합니다
정말 많은 양의 작업이었죠
전문 바둑기사들의 시합으로 시작해서
이 정책 네트워크를 훈련시켰죠
그리고 나서 이 정책 네트워크로부터
가치 네트워크를 훈련시키기 위해
강화 학습을 사용하는
반복 과정을 시작했고
그 후 더 나은 바둑수를
두기 위해 정책 네트워크를
업데이트 했죠
이전에 토치에서 했을 때는 느렸죠
텐서플로우로 옮기자

Indonesian: 
Jadi, kami pakai Policy Network
untuk mengarahkan jalur
di pohon penelusuran
ke jalur yang paling mungkin.
Lalu, pada beberapa
titik selanjutnya di jalur tersebut
kami pakai Value Network
untuk mengevaluasi
seberapa bagus jalurnya
artinya kami tak perlu
menelusuri semua jalur.
Kinerja Value Network lebih baik
pada kasus ini
karena saat kita membuka jalur-jalur ini,
lebih banyak permainan terbuka.
Dan keadaan jadi lebih pasti
sehingga Value Network
memperkirakan dengan lebih baik.
Namun manfaat sebenarnya TensorFlow adalah
pelatihan hal-hal ini, yang cukup penting.
Diperlukan usaha yang signifikan.
Jadi, kami mulai dengan
permainan dari pemain ahli
dan melatih Policy Network ini.
Lalu, kami memulai
proses yang berulang ini
di mana kami memakai
pembelajaran penguatan
untuk melatih Value Network
dan Policy Network
lalu memperbarui Policy Network untuk
menghasilkan langkah yang lebih baik.
Sebelumnya, melakukannya
di Torch itu lamban.

Portuguese: 
Então usamos essa rede de regras
para guiar caminhos na árvore de busca
para os caminhos mais prováveis.
E, em um ponto mais a frente
em um desses caminhos
usamos a rede de valores
para avaliar se o caminho era bom
ou seja, não precisamos ir até o fim.
A rede de valores funcionou
melhor naquele caso
porque à medida que seguimos
esses caminhos, mais do jogo se desdobra,
e as coisas eram mais seguras,
portanto a rede de valores
tinha uma previsão melhor.
Mas o melhor quando o TensorFlow 
entrou foi o treinamento
que foi bem significativo.
Foi preciso uma grande
quantidade de trabalho.
Então, começamos pegando
jogos dos melhores jogadores
e treinando a rede de regras.
E daí começamos o processo iterativo
onde utilizamos aprendizado por reforço
para treinar a rede de valores
a partir da rede de regras
e atualizar a rede de regras para produzir
movimentos melhores.
Antes, fazer isso com o Torch era lento
e quando passamos para o TensorFlow,

Spanish: 
Usamos esta red de políticas
para guiar los caminos
en el árbol de búsqueda
a los caminos más probables.
Y luego en algún punto más adelante
de uno de esos caminos,
usamos la red de valor para evaluar
cuán bueno era ese camino,
es decir que no teníamos
que recorrer todo el camino
hasta el final.
La red de valores
tuvo un mejor desempeño en ese caso
porque mientras desarrollamos
estos caminos
gran parte del juego se había desplegado.
Y las cosas eran más certeras,
así que la red de valor
tenía una mejor predicción.
Pero donde realmente entró TensorFlow
fue en el entrenamiento de esto,
que fue bastante importante.
Llevó bastante trabajo.
Comenzamos tomando juegos
de jugadores expertos
y entrenando esta red de políticas.
Y luego comenzamos este proceso iterativo
donde usamos aprendizaje de refuerzo
para entrenar una red de valor
desde esa red de políticas
y luego actualizar la red de políticas
para producir mejores movimientos.
Antes, hacer esto en Torch, era lento.
Y cuando nos pasamos a TensorFlow

Chinese: 
因此我们用规则网络来引导搜索树
来获取最有可能的途径
接着进一步，在某条路径中
我们用值网络来评估
这条路径有多好
这也就意味着
我们不需要搜索每一条路径
值网络在这个例子里更好用的原因是
当我们展开这些路径时
游戏也更多被展开了
确定性更高，
因此值网络可以做出更准确的预测
TensorFlow 在这里
是用来训练的
这非常重要
这需要大量工作
我们通过与专业棋手下棋
来训练规则网络
然后我们开始重复这个过程
我们通过加强学习
从规则网络训练值网络
然后更新规则网络
使之作出更好的移动
之前，我们使用 Torch 来训练，很慢
当我们开始使用 TensorFlow 后

Japanese: 
検索ツリー内で最適なパスを導き出すために、
ポリシーネットワークを利用します。
そして、これらのパスの１つに関する
新たな要素として
そのパスがどのように良いのかを評価するため
バリューネットワークを利用します。
それは完全に同意する必要はありません。
なぜバリューネットワークが
良いパフォーマンスを挙げるのかというと、
これらのパスが開かれ、
ゲームの多くが閉じられ
確実性が高まり、バリューネットワークが
予測能力を高めるからです。
TensorFlow が入ってきて現実化したのは、
これをトレーニングするということです。
これはかなり意義の深いことで、
かなり多くの作業を必要としました。
ですから、エキスパートプレーヤーから
ゲームを入手し始め
そしてこのポリシーネットワークを
トレーニングしました。
それから、この反復プロセスを開始し
ポリシーネットワークから、
バリューネットワークをトレーニングする為に
ラーニング強化を使い、
より良い動きを作るために、
ポリシーネットワークを更新しました。
以前までは、この作業を Torch で
行なっていましたが
スピードは遅かったです。

Portuguese: 
pudemos trazer todo o poder
de treinamento distribuído
para suportar isso, o que faz tudo
andar mais rápido.
Ou seja, nossos pesquisadores podiam
iterar mais rápido e testar coisas novas.
Outra coisa legal desse ano foi WaveNet
que usamos para gerar 
sinais de áudio realísticos.
Isso, em geral, é difícil
porque as ondas sonoras
tem essa estrutura oscilante complexa
com uma alta taxa de amostragem,
da ordem de 16 kHz.
Gerar sinais de áudio requer um modelo
capaz de reproduzir o tipo de sinal
com oscilações mínimas,
da ordem de milissegundos
e o sinal inteiro em segundos,
o que é difícil devido
à quantidade de informação.
Então, antes, havia
duas abordagens principais:
modelos concatenativos
e modelos paramétricos.
Um modelo concatenativo
funcionava com uma pessoa
falando um monte de sons
e quebrando-os em pedacinhos

Japanese: 
そして TensorFlow に移動して、
分布トレーニングのフルパワーを
持ち込むことができ、耐久性も付き、
全てが速く行なえるようになりました。
それによって、リサーチャーは迅速に反復でき
新しいことを試せるようになりました。
もう１つ今年、素晴しい事があったのですが
それは WaveNet についてです。
これを使ってリアルな
オーディオシグナルを生成しています。
サウンドウェーブは、複雑な振動構造なので
一般的に難しい分野です。
16 キロヘルツという
非常に高いサンプル速度で、
オーディオシグナルを生成するには
ミリ秒単位で、非常にきめ細かな振動を伴う
このタイプのシグナル、
また秒単位の全てのシグナルを
再生する事が可能なモデルが
必要とされます。
膨大な情報量になるので、
容易ではありません。
以前は、２つのアプローチ方法が
ありました。
連鎖型モデルと
パラメトリックモデルです。
連鎖型モデルは、スピーカーが発声する
全てのサウンドを処理し、
細かいパートに分断して、
好きなように再び組み立てます。

Spanish: 
pudimos aplicar todo el poder
del entrenamiento distribuido
para soportar esto, lo que hizo
todo el asunto más rápido.
Nuestros investigadores podían iterar
más rápido y probar cosas nuevas.
Otra cosa genial de este año
fue WaveNet, que utilizamos para generar
señales de audio realistas.
Esto es difícil en general
porque las ondas sonoras tienen
una compleja estructura oscilante
con una tasa de muestreo muy alta,
del orden de 16 kilohertzios.
Generar una señal de audio
requiere un modelo que sea capaz
de reproducir este tipo de señal
en las oscilaciones de grano muy fino
del orden de milisegundos
y toda la señal de segundos
lo cual es difícil
por la cantidad de información.
Había dos enfoques principales,
anteriormente:
Modelos concatenativos y
modelos paramétricos.
Un modelo concatenativo funcionaba
haciendo que un locutor dijera
mucho sonido
tomando pequeños fragmentos,
y luego recomponerlos

Korean: 
이에 관련된 분산 훈련의 힘을
전부 가져올 수 있었고
이 전체를 더 빠르게 만들어줬죠
연구자들이 더 빨리 반복하고
새로운 것을 시도할 수 있게
된 거죠
올해 생긴 또다른 멋진 일은
웨이브넷으로 현실적인 오디오 신호를
만드는 데에 사용하고 있죠
전반적으로 어려운 과정이죠
음파가 복잡한 진동 구조와 함께
약 16 킬로헤르츠의
아주 빠른 표집율을 지니기 때문이죠
오디오 신호를 만들어 내는 것은
약 미릴세컨즈 수준의
아주 작은 단위의 진동과
초 단위가 넘는 전체 신호로
이러한 신호를 재생하는
모델을 요구합니다
정보의 양 때문에 어렵죠
이에 대해 두 가지
주요 접근법이 있었습니다
이전에는
음성연결 모델과 파라메트릭 모델이 있죠
음성연결 모델은 발화자가
여러 소리를 내도록 하고
이를 작은 단위로 잘라서
원하는 말을 하도록
다시 조립하죠

Chinese: 
我们能够利用分布式的训练
这让一切变得更快
这意味着我们的研究人员可以更快迭代
并尝试新项目
今年，另一个很酷的是 WaveNet
我们用它来
生成现实的音频信号
这总体来说很难，因为声波有
非常复杂的振荡结构
有很高的采样率，在16千赫左右
生成一个音频信号
需要一个可以同时在高精度震荡中
产生这种信号的模型
以毫秒为单位，整个信号持续几秒钟
这非常的困难
因为信息量的问题
所以有两个主要的方法
之前－－
衔接模型和参数模型
衔接模式通过一个发言人
说一大堆的话，把它分解成小碎片
然后把它重新组装成
你想要说的话

Indonesian: 
Dan saat kami beralih ke TensorFlow,
kami bisa membawa semua kekuatan
dari latihan terdistribusi ke sini,
yang membuat semuanya lebih cepat.
Itu artinya peneliti kami bisa
mengulang lebih cepat
dan mencoba hal baru.
Hal keren lain di tahun ini
adalah WaveNet
yang kami pakai untuk membuat
sinyal audio realistik.
Ini umumnya sulit, karena gelombang
waktu punya struktur osilasi rumit
dengan kecepatan pengambilan sampel
sangat tinggi, yaitu 16 kilohertz.
Membuat sinyal audio memerlukan
model yang bisa
memproduksi ulang jenis sinyal ini
baik pada osilasi yang sangat halus
secepat milidetik, maupun sinyal
keseluruhan dalam detik.
Ini sulit karena banyaknya informasi.
Jadi, ada dua pendekatan untuk ini
sebelumnya--
yaitu model konkatenasi
dan model parametrik.
Model konkatenasi bekerja dengan cara
pembicara mengucapkan banyak kata,
dan memotongnya menjadi bagian kecil

English: 
were able to bring the whole
power of distributed training
to bear on this, which made
the whole thing faster.
It meant our researchers
could iterate quicker and try
new things.
Another cool thing
from this year
was WaveNet, which
we use to generate
realistic audio signals.
So this is hard in general,
because sound waves have
this complex
oscillating structure
with a very high sampling rate,
on the order of 16 kilohertz.
Generating an audio
signal requires
a model which is able to
reproduce this sort of signal
at both these very
fine-grained oscillations,
on the order of milliseconds,
and the whole signal
over seconds, which is
difficult because of the amount
of information.
So there were two main
approaches to this,
previously--
concatenative models
and parametric models.
So a concatenative model
worked by having a speaker say
a whole bunch of
sound, and chopping it
up into little bits, and
then reassembling those
to say whatever you wanted.

Japanese: 
しばしば、これらのサウンドには
ムラがあるように感じられます。
なぜなら、こららのサウンド区分間の推移が
うまく行なわれていないからです。
新たなスピーカーを加えたり、
強勢や感情を入れ替えたりして
声を修正するのは難しいです。
同様に、
もう１つのパラメトリックモデル、
WaveNet が使っているものですが
スピーチを生成するのに必要な
全ての情報は
パラメトリックモデルの中に
保管されています。
伝えたい内容に関する情報を提供し、
そしてモデルにインプットする
それらの特性を提供します。
とにかく、WaveNet より以前に
スピーチ用のパラメトリックテキストは
連鎖型モデルよりも、
やや不自然なサウンド傾向にあることを
気がつきました。
WaveNet はパラダイムを変えました。
それは以前、パラメトリック
モデルの中にあったものです。
オーディオシグナルのウェーブフォームを
直接モデリングし、

English: 
What you often see
from these is the sound
seems kind of choppy
because these transitions
between these sound segments
don't quite match up.
It's also difficult
to modify the voice,
either adding a new speaker
or altering the emphasis
or emotion.
Similarly there, the other
was parametric models,
of which WaveNet is one, where
all the information required
to generate speech is stored
in the parameters of the model.
And you supply information
about what you want to say
and the characteristics of
that as inputs to the model.
However, prior to
WaveNet, we noticed
that parametric text
to speech tended
to sound a bit less natural
than concatenative models.
So WaveNet changes the
paradigm that was previously
in parametric models
by directly modeling

Indonesian: 
dan menggabungkannya untuk
mengatakan apapun yang Anda mau.
Yang sering Anda lihat
dari ini adalah suaranya
terdengar terpotong karena transisi
antar segmen-segmen suara ini tidak cocok.
Modifikasi suara juga rumit,
baik menambah pembicara baru
maupun mengubah penekanan atau emosi.
Serupa dengan itu yaitu model parametrik,
salah satunya adalah WaveNet
di mana semua informasi yang dibutuhkan
untuk membuat suara disimpan
dalam parameter model.
Dan Anda memasok informasi tentang
apa yang ingin Anda katakan
dan karakteristiknya
sebagai masukan ke model.
Bagaimanapun juga, terkait WaveNet,
kami mengamati bahwa
teks parametrik ke suara cenderung
terdengar kurang alami
dibanding model konkatenasi.
Jadi, WaveNet mengubah
paradigma yang sebelumnya
dalam model parametrik dengan
secara langsung memodelkan

Chinese: 
你常常可以发现
声音似乎不是很连贯
因为这些声音碎片的连接不太匹配
修改声音非常困难
可以添加一个新的声音
或者改变重点或情绪
类似地，另一个是参数模型
WaveNet 是其中的一个
所有生成语音所需的信息都
储存在模型中的参数中
你填充想要说的话
以及特征，作为模型的输入
然而，在 WaveNet 之前
我们注意到语音的参数文本
比起衔接模式，听起来有点不自然
因此 WaveNet 改变了以前
参数模型中的范型

Korean: 
이 경우 약간 끊어지는 듯한
소리가 나게 되죠
소리 조각들 사이의 변천이
별로 맞지 않기 때문이죠
음성을 수정하기도 어렵습니다
새로운 발화자를 추가하든
강조나 정서를 바꾸든
말이죠
유사하게 다른 경우는
파라메트릭 모델이죠
웨이브넷이 사용하는 것이고
발화를 만들기 위해 필요한
모든 정보가 모델의
파라미터에 저장되어 있죠
말하고 싶은 것에 대한 정보와 특징을
인풋으로 모델에 제공하는 거죠
하지만 웨이브넷 전에
발화에 대한 파라미터 텍스트가
음성연결 모델보다 덜 자연스럽다고 느꼈죠
따라서 웨이브넷은 오디오 신호의 파형을
한번에 샘플 하나씩
직접 모델링함으로써 이전에는

Spanish: 
para decir lo que quisieras.
Lo que ves a menudo es que el sonido
parece un poco entrecortado
porque las transiciones
entre los segmentos de sonido
no coinciden.
También es difícil modificar la voz
ya sea añadiendo un nuevo locutor
o alterando el énfasis o la emoción.
Del igual modo
en los modelos paramétricos
de los cuales WaveNet es uno,
donde toda la información requerida
para generar voz
se almacena en los parámetros del modelo.
Y provees información
sobre lo que quieres decir
y las características
como entradas al modelo.
Sin embargo, antes de WaveNet
notamos que el texto a voz paramétrico
sonaba menos natural
que los modelos concatenativos.
WaveNet cambia el paradigma previo
de los modelos paramétricos
modelando directamente

Portuguese: 
e depois reagrupando-os
para dizer o que você quisesse.
Em geral, o que se vê nesse caso
é o que som parece entrecortado
porque as transições
entre os segmentos de som
não combinam direito.
Também é difícil modificar a voz,
seja adicionando outra pessoa
ou alterando a ênfase ou a emoção.
E havia os modelos paramétricos,
um deles sendo o WaveNet,
onde toda a informação necessária
para gerar a fala é armazenada
em parâmetros do modelo.
E você fornece informação
sobre o que quer dizer
e suas características
como entradas para o modelo.
Entretanto, antes do WaveNet,
notamos que o texto para fala paramétrico
tendia a soar um pouco menos natural
do que os modelos concatenativos.
Então a WaveNet mudou o paradigma
que antes eram modelos paramétricos

Japanese: 
１度で１つのサンプルを
モデリングします。
ウェーブフォームを直接モデリングすることで
滑らかになっただけではなく、
自然なサウンドのスピーチになりました。
WaveNet がスピーチ以外にも、あらゆる
オーディオの生成が可能なことを意味します。
RNN と CNN ピクセルに関する作業の
発展に対応するアーキテクチャーは、
イメージ生成に通常使用されますが、
このアーキテクチャーの重要な要素は、
拡張した回旋の使用です。
レイヤーが増えれば、
ストライドの指数も増加しました。
それによって、モデルは受容力の高い
フィールドサイズを持つようになり
それはモデル内のレイヤーの数の
指数関数となります。
シグナルに関する情報の中に
これら全てを組み入れることができます。
このストラクチャーの
もう１つの素晴しい点は、
インプットの後半部分に比べて
前半部分には、
２倍のコネクション数が存在し、
それが意味しているのは
より大きな階級に対する情報を
使っているということです。

Korean: 
파라메트릭 모델에 있었던
패러다임을 바꾸었습니다
따라서 [청취불가]를
직접 모델링함으로써
더욱 자연스러운 음성을
만들어 낸 것이죠
이는 웨이브넷이 발화뿐 아니라
어떠한 오디오도 만들어낼 수
있다는 것을 의미합니다
따라서 이를 위한 건축은
이미지를 만들기 위해
사용됐던 RNN 픽셀과 CNN 픽셀에서
바로 사용할 수 있게 발전했죠
그리고 이 건축의 핵심은
레이어가 증가하면서 기하급수적으로
증가하는 진전으로 팽창된
컨볼루션을 사용했다는 점이죠
이를 통해 모델은
모델에서 레이어의 숫자가 기하급수적인
수용장 크기를 가질 수 있게 되었고
이는 이 모든 것을 신호에 대한 정보로
통합시키도록 해주 었습니다
이 구조의 또 다른 멋진 점은
인풋의 첫 번째 절반에서
두 번째 절반에 비해
연결의 수가 두 배이고
이는 이 정보를 훨씬 더 많이
사용한다는 의미이죠

English: 
the waveform of the audio
signal, one sample at a time.
So as well as yielding more
natural sounding speech
by directly modeling
the [INAUDIBLE],
it means that WaveNet can
produce any kind of audio, not
just speech.
So the architecture
for this evolved out
of work on pixel
RNNs and pixel CNNs,
which were used for
generating images.
And the key piece
of architecture
here was the use of
a dilated convolution
with an exponentially increasing
stride as the layers increased.
What this allowed
the model to do
was to have a receptive
field size that
was exponential in the
number of the layers
in the model, which
allowed it to incorporate
all this into information
about the signal.
The other cool thing
about this structure
is that in the first
half of the input,
compared to the
second half, there
are twice the number
of connections,
meaning it uses that
information to a greater degree.

Chinese: 
通过直接给波形音频信号建模
每次一个样本
这样我们得到了更为自然的演讲
通过直接建模[听不清]
这意味着 WaveNet 可以产生任何形式的音频
不仅仅是演讲
所以，架构
从像素 RNN 和 CNN 发展出来
它们可以被用来生成图像
架构的关键在于
使用扩张卷积
随着层次的增加
以指数方式增加步数
这让模型有一个
可以接受的字段大小
随模型层数以指数级增加
这让它可以
把所有的信号纳入信息
这个架构非常好的另一点
是它上半部分的输入
跟下半部分相比
有两倍的连接
意味着更大程度地利用了信息

Indonesian: 
bentuk gelombang dari sinyal audio,
satu sampel pada satu waktu.
Jadi, dengan menghasilkan lebih banyak
suara yang terdengar alami
dengan secara langsung memodelkan
bentuk gelombang
artinya WaveNet bisa memproduksi
jenis suara apa saja
tak hanya orang bicara.
Jadi, arsitektur untuk ini berkembang
dari piksel RNN dan piksel CNN
yang dipakai untuk membuat gambar.
Dan kunci utama arsitektur ini
adalah pemakaian konvolusi yang melebar
dengan langkah yang meningkat secara
eksponensial seiring peningkatan lapisan.
Ini memungkinkan model untuk memiliki
ukuran lahan yang mau menerima
jumlah lapisan model yang eksponensial
yang memungkinkan untuk menerapkan
semua informasi ini tentang sinyal.
Hal keren lain tentang struktur ini
adalah pada setengah masukan pertama
dibanding setengahnya yang kedua,
koneksi berlipat ganda
yang artinya informasi dipakai
pada tingkat yang lebih tinggi.

Portuguese: 
para modelar diretamente 
a onda sonora do sinal de áudio,
uma amostra de cada vez.
Portanto, além de gerar
uma fala mais natural
modelando diretamente a onda sonora,
significa que o WaveNet pode produzir
qualquer tipo de áudio, não apenas a fala.
Então a arquitetura
para isso se desenvolveu a partir
do trabalho com pixel RNNs e pixel CNNs
que eram usadas para gerar imagens.
E a peça fundamental
da arquitetura aqui foi o uso...
de convolução dilatada
com um avanço exponencial
à medida que as camadas aumentavam.
Isso permitiu que o modelo
tivesse um tamanho de campo receptivo
que era exponencial
no número de camadas do modelo,
que permitiu que incorporasse tudo isso
na informação sobre o sinal.
A outra coisa legal sobre essa estrutura
é que na primeira metade da entrada,
comparado com a segunda,
há duas vezes mais conexões,
significando que ela utiliza
a informação em maior grau.

Spanish: 
la forma de onda de la señal de audio,
una muestra a la vez.
Además de producir un sonido más natural
modelando directamente
la onda no procesada
significa que WaveNet puede producir
cualquier tipo de audio
no solo el habla.
La arquitectura de esto evolucionó
al trabajo sobre píxeles RNN
y píxeles CNN
que eran utilizados para generar imágenes.
Y la pieza clave
de la arquitectura
fue el uso de una
convolución dilatada
con un aumento exponencial
a medida que aumentaban las capas.
Esto permitió al modelo
tener un tamaño de campo receptivo
que era exponencial el número de capas
del modelo, lo que le permitió incorporar
todo esto en información sobre la señal.
Lo bueno de esta estructura
es que en la primera mitad de la entrada
en comparación con la segunda mitad
hay el doble del número de conexiones
lo que significa que utiliza
esa información en mayor grado.

Chinese: 
这里有一些系统
生成的样本
在左边，我们有从衔接模型生成的音频
[听不清]播放－－
左边的，好了
衔接模型：“蓝色珊瑚礁”
是1980年的一部美国浪漫冒险电影
由 Randal Kleiser 导演
丹尼尔·维森汀：如果你仔细听的话
你可以听到生成音频中的一些不连贯
由于一些小的不匹配
在不同的音频片段转换的过程中产生
因此在中间，我们有一个参数模型
参数模型：“蓝色珊瑚礁”
是1980年的一部美国浪漫冒险电影
由 Randal Kleiser导演
丹尼尔·维森汀：它变得连贯一些了
但是还是没有
正常讲话的那种音质
最后我们用 WaveNet
WaveNet：“蓝色珊瑚礁”

Indonesian: 
Ini adalah beberapa contoh sampel
yang dibuat dari berbagai sistem.
Di kiri, kita punya audio
dari model konkatenasi.
Tolong dimainkan--
Yang kiri, ya.
"The Blue Lagoon"
adalah film romantis dan petualangan
di Amerika pada tahun 1980
yang disutradarai Randal Kleiser.
Jika Anda dengarkan dengan baik,
Anda bisa mendengar
beberapa ketidaklancaran pada audio
yang dibuat, karena sedikit ketidakcocokan
pada transisi antar potongan-potongan
rekaman yang berbeda.
- Di tengah, adalah model parametrik.
- "The Blue Lagoon"
adalah film romantis dan petualangan
di Amerika pada tahun 1980
yang disutradarai Randal Kleiser.
Ini lebih lancar, tapi tidak terdengar
alami seperti orang bicara--
dan terakhir, kami punya WaveNet.
"The Blue Lagoon" adalah film
romantis dan petualangan

Japanese: 
多様なシステムから生成されたサンプルを
幾つかお見せします。
左側には、連鎖型モデルを使用した
オーディオがあります。
流してもらえますか。
左側のファイルです。
連鎖型モデル:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
近くで聴いてもらうと、
途切れ途切れになっている部分が
聞き取れると思います。
生成されたオーディオには、
異なる録音要素間の推移部分で
わずかなミスマッチが起こります。
真ん中は、パラメトリックモデルです。
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
途切れ感はやや少なくなりましたが
普通のスピーチと受け取れるような
自然なクォリティではありません。
最後に、WaveNet です。
"The Blue Lagoon"
is a 1980 American romance

Korean: 
다양한 시스템에서 만들어 낸 샘플이
몇 가지 있습니다
왼쪽에는 음성연결 모델에서
나온 오디오입니다
[청취불가] 틀어 주시죠
왼쪽 거 말입니다, 네
"블루 라군"은
랜달 클레이저 감독의
1980년도 미국 로맨스
모험 영화입니다
자세히 들어보시면
나오는 오디오에서 약간의 끊김을
눈치챌 수 있을 텐데
녹음된 여러 묶음 사이에서의
전이에서 약간의 불일치가 있기 때문이죠
중간은 파라메트릭 모델이 있죠
"블루 라군"은
랜달 클레이저 감독의
1980년도 미국 로맨스
모험 영화입니다
덜 끊기지만
정상 발화와 연관된 자연스러운
품질이 없죠
마지막으로 웨이브넷을 들어보죠
"블루 라군"은 랜달 클레이저 감독의

Portuguese: 
Aqui estão algumas amostras
geradas de vários sistemas.
À esquerda, temos um áudio
de um modelo concatenativo,
O da esquerda.
"A Lagoa Azul"
é um filme americano de romance
 e aventura de 1980
 dirigido por Randal Kleiser.
Se vocês ouvirem com atenção,
podem perceber alguma descontinuidade
no áudio gerado,
em função de leves incompatibilidades
nas transições entre
os diferentes pedaços gravados.
No meio, temos o modelo concatenativo
"A Lagoa Azul"é um filme americano 
de romance e aventura de 1980
dirigido por Randal Kleiser.
que é menos entrecortado,
mas não tem a qualidade natural
que associamos à fala normal.
E, finalmente, temos o WaveNet.
"A Lagoa Azul" é um filme
americano de romance e aventura de 1980"

English: 
So here are some
samples generated
from the various systems.
So on the left, we have audio
from a concatenative model,
[INAUDIBLE] play--
the left one, yeah.
CONCATENATIVE MODEL:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
DANIEL VISENTIN: So
if you listen closely,
you can perceive some
of the discontinuities
in the generated audio, due
to the slight mismatches
in the transitions between
the different recorded chunks.
So in the middle, we
have a parametric model.
PARAMETRIC MODEL:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
DANIEL VISENTIN:
Which is less choppy,
but it doesn't have
that natural quality we
associate with normal speech--
and so, and finally,
we have WaveNet.
WAVENET: "The Blue Lagoon"
is a 1980 American romance

Spanish: 
Aquí hay algunas muestras generadas
por los diferentes sistemas.
A la izquierda, tenemos audio
de un modelo concatenativo,
Ejecuta...
la izquierda, sí.
"La laguna azul"
es una película estadounidense
de romance y aventura de 1980
dirigida por Randal Kleiser.
Si escuchas atentamente
puedes percibir algunas discontinuidades
en el audio generado,
debido a los ligeros desajustes
en las transiciones
entre los diferentes trozos registrados.
El del medio es un modelo paramétrico.
"La laguna azul"
es una película estadounidense
de romance y aventura de 1980
dirigida por Randal Kleiser.
Es menos entrecortado
pero no tiene esa calidad natural
que asociamos con el habla normal.
Y finalmente, tenemos WaveNet.
"La Laguna Azul"
es una película estadounidense
de romance y aventura de 1980

Chinese: 
是1980年的一部美国浪漫冒险电影
由 Randal Kleiser 导演
丹尼尔·维森汀：跟其它两个模型相比
它非常流畅自然
WaveNet 唯一的小缺陷
是它有一些噪音，由于取样过程
以及神经网络
让我们重新播放一次
这样大家可以听到
说话者：[听不清]
丹尼尔·维森汀：是的，从左到右
说话者：你想再放一遍？
丹尼尔·维森汀：是的，谢谢
衔接模型：“蓝色珊瑚礁”
是1980年的一部美国浪漫冒险电影
由 Randal Kleiser 导演
参数模型：“蓝色珊瑚礁”
是1980年的一部美国浪漫冒险电影
由 Randal Kleiser 导演
WaveNet：“蓝色珊瑚礁”
是1980年的一部美国--
丹尼尔·维森汀：谢谢
[笑声]
我们把 WaveNet 与其它模型相比较
通过使用意见分数
通过人工评分
我们发现它缩小了50%与人声的差距
这真的是太棒了

Korean: 
1980년도 미국
로맨스 모험 영화입니다
다른 두 개와 비교했을 때
굉장히 부드럽고 자연스럽죠
웨이브넷이 하는 유일한 작은 일은
표집 과정과 신경망 때문에
약간의 소음이 있다는 점입니다
따라서 이 모두를 다시 틀어보면
여러분들이 들을 수 있게 말이죠
[청취불가]
네, 그냥 왼쪽에서 오른쪽으로
다시 틀어 드릴까요?
네, 고맙습니다
"블루 라군"은
랜달 클레이저 감독의
1980년도 미국 로맨스
모험 영화입니다
"블루 라군"은
랜달 클레이저 감독의
1980년도 미국 로맨스
모험 영화입니다
"블루 라군"은 1980년도
감사합니다
[웃음]
저희는 웨이브넷을 평점을 이용해
다른 모델과 비교해 봤습니다
인간 평점을 통해 저희가 찾은 것은
인간 발화와의 차이를
약 50%로 줄였다는 점입니다
훌륭하죠

Indonesian: 
di Amerika pada tahun 1980
yang disutradarai Randal Kleiser.
Dibandingkan dengan dua model sebelumnya,
WaveNet ini lebih halus dan alami--
dan WaveNet punya lebih sedikit kebisingan
karena prosedur pengambilan sampel
dan jaringan sarafnya.
Jadi, mungkin jika kita putar lagi
agar semua orang bisa melihat,
mendengar, dari--
Ya, dari kiri ke kanan.
Kau mau memutarnya lagi?
Ya, terima kasih.
"The Blue Lagoon"
adalah film romantis dan petualangan
di Amerika pada tahun 1980
yang disutradarai Randal Kleiser.
"The Blue Lagoon" adalah
film romantis dan petualangan
di Amerika pada tahun 1980
yang disutradarai Randal Kleiser.
"The Blue Lagoon" adalah film--
Terima kasih.
Jadi, kita bandingkan WaveNet
dengan model lain
dengan skor opini.
Dan dari responden manusia,
kami menemukan bahwa
WaveNet mengurangi perbedaan dengan
suara asli manusia hingga sekitar 50%
dan ini bagus.

Spanish: 
dirigida por Randal Kleiser.
En comparación con los otros dos
es muy suave y natural.
el único pequeño inconveniente de WaveNet
es que tiene un poco de ruido,
por el procedimiento de muestreo
y la red neuronal.
Volvamos a ejecutarlos
para que la gente pueda ver, escuchar...
Sí, de izquierda a derecha.
- ¿Quieres ejecutar de nuevo?
- Sí, gracias.
MODELO CONCATENATIVO:
"La laguna azul"
es una película estadounidense
de romance y aventura de 1980
dirigida por Randal Kleiser.
MODELO PARAMÉTRICO:
"La laguna Azul"
es una película estadounidense
de romance y aventura de 1980
dirigida por Randal Kleiser.
WAVENET: "La Laguna Azul"
es una película estadounidense...
Gracias.
Comparamos WaveNet
con otros modelos
mediante el uso de puntajes de opinión.
y lo que encontramos
por los evaluadores humanos
es que redujo la brecha
con el habla humana
en un 50% aproximadamente,
lo cual es genial.

Japanese: 
and adventure film
directed by Randal Kleiser.
他の２つに比べれば、
かなり滑らかで自然な感じです。
WaveNet の持つわずかな欠点を
挙げるとすれば、
サンプリング工程とニュートラルネットワーク
によるノイズがわずかに見られることです。
それではもう１度すべてのモデルを
再生してみましょう。
はい、左から右へ順に
再生して下さい。
はい、ありがとうございます。
連鎖型モデル:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
パラメトリックモデル:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
WaveNet : "The Blue Lagoon"
is a 1980 American--
ありがとうございます。
オピニオンスコアを使って、
WaveNet と他の２つのモデルを
比較しました。
人間による評価を通じて
人間のスピーチの約 50 ％まで
ギャップを縮めていることが分かりました。
素晴しいことです。
WaveNet モデルは
未処理のオーディオシグナルを使い、

English: 
and adventure film
directed by Randal Kleiser.
DANIEL VISENTIN: Which,
compared to the other two,
is very smooth and natural--
the only slight thing
that WaveNet does
is it has a bit of noise,
due to the sampling procedure
and the neural network.
So maybe if we play
them all again,
just so people can
see, hear, from--
SPEAKER: [INAUDIBLE]
DANIEL VISENTIN: Yeah,
just from left to right.
SPEAKER: You want
to play them again?
DANIEL VISENTIN: Yeah, thanks.
CONCATENATIVE MODEL:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
PARAMETRIC MODEL:
"The Blue Lagoon"
is a 1980 American
romance and adventure film
directed by Randal Kleiser.
WAVENET: "The Blue Lagoon"
is a 1980 American--
DANIEL VISENTIN: Thanks.
[LAUGHTER]
So we compared WaveNet
against other models
through the use
of opinion scores.
And what we found by human
raters, and what we found
was that it narrowed the gap
to human speech by about 50%,
which is great.

Portuguese: 
"dirigido por Randal Kleiser*.
que comparado aos outros dois
é bem contínuo e natural.
A única coisa que o WaveNet faz
é que ele tem um pouco de ruído
devido ao procedimento 
de amostragem e da rede neural.
Talvez se tocamos todos novamente
para que as pessoas possam ouvir...
Sim, da esquerda para a direita.
- Quer tocá-los novamente?
- Sim, obrigado.
"A Lagoa Azul"
é um filme americano de romance
 e aventura de 1980
"dirigido por Randal Kleiser.
"A Lagoa Azul"
é um filme americano de romance
e aventura de 1980
"dirigido por Randal Kleiser.
"A Lagoa Azul" é um filme...
Obrigado.
Então, comparamos o WaveNet
com outros modelos
utilizando opinion scores.
E o que descobrimos
com avaliadores humanos
é que ele reduziu a diferença
para a fala humana em cerca de 50%,
o que é ótimo.

Indonesian: 
Dan karena WaveNet
memodelkan sinyal audio mentah
kita bisa membuat suara lain
selain suara manusia.
Inilah contoh di mana kami melatihnya
dengan musik klasik.
Terima kasih, seperti yang Anda dengar,
WaveNet dapat membuat--
Mundur selangkah, terima kasih.
Seperti yang Anda dengar, ia bisa buat
suara realistik nada piano pada
basis momen ke momen.
Dan akhirnya, dengan
judul artikel favorit saya tahun ini
"Learning to Learn by Gradient Descent
by Gradient Descent"
di mana beberapa peneliti kami
melatih Neural Network
untuk melatih Neural Network,
yang merupakan contoh bagus
dari jenis fleksibilitas
yang ditawarkan TensorFlow.
Menurut saya, ke depannya, kita akan lihat
lebih banyak hal hebat ini di luar sana
seperti arsitektur pembelajaran
model dari model, model
menambahkan bagian
ke diri mereka, dan sebagainya.

Portuguese: 
E porque WaveNet modela
o sinal de áudio bruto,
nós também podemos
fazê-lo gerar sons diferentes da fala.
Aqui está um exemplo em que o treinamos
em uma compilação de música clássica.
Como vocês podem ouvir,
ele é capaz de gerar...
volte um atrás... sim, obrigado.
Como vocês podem ouvir,
ele é capaz de gerar
notas de piano com som realístico
a cada momento.
E, por fim, com um dos meus títulos
de artigo favoritos do ano:
"Aprendendo a aprender 
por Gradient Descent
por Gradient Descent",
em que alguns de nossos pesquisadores
treinaram uma rede neural
para treinar uma rede neural,
o que eu acho que é um grande exemplo
do tipo de flexibilidade
que o TensorFlow oferece.
E acho que, no futuro, vamos ver
mais dessas coisas malucas
como modelos aprendendo
arquitetura de modelos,

Spanish: 
Y como los modelos de WaveNet
modelan la señal de audio sin procesar
también podemos conseguir
que produzca sonido aparte del habla.
Aquí hay un ejemplo donde lo entrenamos
en un cuerpo de música clásica.
Gracias. Como se puede oír,
es capaz de generar...
Oh, vuelve uno, sí, gracias.
Como puedes escuchar,
es capaz de generar
notas de piano de sonido realista
en una base momento a momento.
Y finalmente, con lo que debe ser
uno de mis títulos favoritos del año:
"Aprendiendo a aprender
por pendiente de gradiente
por pendiente de gradiente"
en el que algunos
de nuestros investigadores
entrenaron una red neuronal
para entrenar a una red neuronal
lo que creo que es un gran ejemplo
del tipo de flexibilidad
que TensorFlow ofrece.
Y creo que en el futuro
vamos a ver más cosas locas
de este tipo por ahí
como modelos aprendiendo
arquitecturas de modelos,

Korean: 
웨이브넷 모델은 원래의
오디오 신호를 모델로 삼기 때문에
발화 뿐 아니라 다른 소리도
만들어내도록 할 수 있습니다
클래식 음악의 코퍼스에 대해 훈련시킨
예시를 들어보시죠
[음악재생]
감사합니다. 들으셨다시피
만들어낼 수 있죠
하나 뒤로 가죠, 감사합니다
들으셨다시피 그 자리에서 바로
현실적으로 들리는 피아노 음율을
만들어 낼 수 있죠
마지막으로 올해 저희가
가장 좋아한 논문 제목일텐데
"기울기 하강을 통해 배우는
기울기 하강에 의한 학습"
이는 저희 연구자 몇 명이
인공 신경망을 훈련하기 위해
인공신경망을 훈련한 내용이고
이는 텐서플로우가 제공하는 융통성의
멋진 예라고 생각합니다
그리고 앞으로는
이러한 이상하고 독특한 일을
더 많이 보게 될 겁니다
예컨대 모델이 모델의 건축을 배우거나

Chinese: 
因为 WaveNet 模型
他们给原始音频信号建模
我们还可以用它来产生声音
而不仅仅是演讲
这里有一个例子
我们用一些古典音乐训练它
[音乐]
谢谢！就像你听到的那样，它可以产生－－
哦，请倒回去一个，是的，谢谢
就像你听到的那样
它可以一分一秒地
弹奏出现实的钢琴音符
最后，我今年最喜欢的一片文章 
Gradient Descent 写的
“Learning to Learn by Gradient Descent”
我们的一些研究人员
训练一个神经网络
来训练另一个神经网络
我认为这是一个很好的例子
来体现 TensorFlow 提供的灵活性
我想，未来
我们将会看到更多
疯狂的，前卫的东西
比如模型学习模型构造

Japanese: 
スピーチ以外にも、他のサウンドを
生成することが可能です。
クラシックミュージックに仕込んだ
サンプルをお聞かせしましょう。
ありがとうございます。
お聞きになられたように、
これは生成されたサウンドです。
お聞きになられたように、
生成されたサウンドです。
その瞬間その瞬間ベースの
リアルなピアノの調べです。
最後に、今年の私の大好きな議題の
１つをお話します。
勾配降下法の
「Learning to Learn」です。
リサーチャーは勾配降下法の中で、
ニューラルネットワークを仕込むために、
ニューラルネットワークを仕込んでいました。
それは TensorFlow が提供する
フレキビリティの素晴しいサンプルです。
将来、このような素晴しいアイディアを
より多く目にすることになると思います。
モデルのアーキテクチャーを学ぶモデルや
自分でビットや要素を加えるモデルなど。

English: 
And because WaveNet models,
they model the raw audio signal,
we can also get it to produce
sound other than speech.
So here's an example
where we trained it
on a corpus of classical music.
[MUSIC PLAYING]
Thanks-- as you can hear,
it's able to generate--
oh, go back one, yeah, thanks.
As you can hear,
it's able to generate
realistic sounding piano notes
on a moment-to-moment basis.
And finally, with what must be
one of my favorite paper titles
of the year, "Learning to
Learn by Gradient Descent
by Gradient Descent," in
which some of our researchers
trained a neural network
to train a neural network,
which I think is a great example
of the kind of flexibility
that TensorFlow offers.
And I think, going
forward, we're
going to see more of this kind
of crazy, out-there stuff,
like with models learning
architectures of models,

English: 
models adding bits and pieces
to themselves, and so on.
And so it's exciting to see
that TensorFlow can handle that.
And I know, at least
from us at DeepMind,
that TensorFlow is going to
be our choice of how we model
these things going forward.
So if you're interested
in more details,
you can look at our
website, deepmind.com.
There's a blog post linked
here, which rounds up some
of the things from last year.
And we also have links
to the over 100 papers
that we've published so far.
Thanks for listening.
[APPLAUSE]
[MUSIC PLAYING]

Japanese: 
TensorFlow が処理する様子を
見るのはとても嬉しいです。
少なくとも DeepMind のメンバーは
将来これらのモデルを作る際の選択肢として
TensorFlow があることを知っています。
興味を持たれた方は、
こちらのウェブサイトをご覧下さい。
deepmind.com.
こちらにはブログのリンクが
表示されています。
ここには去年までの資料が
掲載されています。
また今日に至るまで発表した100 を超える
資料のリンク先もご覧下さい。
ご清聴ありがとうございました。

Indonesian: 
Sangat bagus karena TensorFlow
bisa menanganinya.
Dan saya tahu, setidaknya dari kami
di DeepMind, bahwa TensorFlow
akan menjadi pilihan kami untuk
memodelkan hal-hal ini kedepannya.
Jika Anda tertarik pada detailnya,
kunjungilah situs web kami, deepmind.com.
Ada tautan posting blog di sini,
yang merangkum beberapa hal
dari tahun lalu.
Dan kami juga punya tautan
ke lebih dari 100 artikel
yang telah kami publikasikan selama ini.
Terima kasih sudah menyimak.

Korean: 
모델이 스스로에게
약간을 추가하는 등 말이죠
텐서플로우가 이를
해낼 수 있어 기쁩니다
적어도 딥마인드에 있는 저희의 경우엔
이러한 모델을 발전시키기 위한
저희의 선택은
텐서플로우가 될 것입니다
더 자세히 알고 싶으시면
저희 웹사이트
deepmind.com를 보시면 됩니다
블로그 포스팅 링크도 여기 있습니다
작년에 한 일을 정리했죠
또한 저희가 지금까지 출간한 100편이 넘는
논문도 있습니다
들어주셔서 감사합니다
[박수]
[음악재생]

Portuguese: 
modelos adicionando partes a si próprios.
É excitante ver que o TensorFlow
pode lidar com isso.
E sei que, pelo menos
para nós na DeepMind,
o TensorFlow vai continuar
sendo a nossa escolha
de como modelar essas coisas no futuro.
Se vocês quiserem mais detalhes
podem visitar nosso site deepmind.com.
Aqui tem o link para um artigo no blog
que reúne algumas coisas do ano passado.
E também temos links
para mais de 100 artigos
que publicamos até agora.
Obrigado pela atenção.

Chinese: 
模型自动添加信息，等等
TensorFlow 可以处理这些真的非常令人兴奋
我知道，至少在我们 DeepMind
TensorFlow 已经是我们
未来建模的选择
如果你对更多细节感兴趣
你可以查阅我们的网站
deepmind.com
有一个博客文章链接
里面有一些去年的最新进展
我们还有我们目前发表的
上百篇文章的链接
感谢收听本演讲
[掌声]
[音乐]

Spanish: 
modelos que se agregan piezas
a sí mismos y así sucesivamente.
Y es emocionante ver que TensorFlow
puede manejar eso.
Y sé, al menos nosotros en DeepMind
que TensorFlow va a ser
nuestra elección para modelar
estas cosas en el futuro.
¡Gracias!
Si estás interesado en más detalles
puedes ver nuestro
sitio web, deepmind.com.
Hay un enlace a un blog aquí
que resume algunas cosas del año pasado.
Y también tenemos enlaces
a más de 100 artículos
que hemos publicado hasta ahora.
Gracias por tu atención.
