
Korean: 
텐서플로, 개발자 강연 2017
안녕하세요, 참석해주셔서 감사합니다
제 이름은 헹제입니다
헹이라고 부르셔도 좋습니다
저는 Google 리서치에서 근무하고 있고
여러분께 와이드 앤 딥 러닝에 대해
이야기할 수 있게 되어 영광입니다
텐서플로에서 와이드 앤 입 러닝을
사용하여 암기와 일반화의 힘을
융합하는 방법에 대해도 이야기할 것입니다
Google에서는 와이드 앤 딥 러닝
프로젝트를 시작할 때
암기와 보편화의 힘을
통합된 머신러닝 플랫폼에
결합하자는 사명을 가지고 시작했습니다
모두를 위해서 말이지요
여기서 모두라 함은
Google의 모든 생산팀 뿐만 아니라
오픈 소스 커뮤니티에 있는 모든 사람들과
학계와 산업에 종사하는
모든 사람들을 지칭합니다
저희는 이러한 사명을
이루기 위해 일하기 시작했습니다
좌측의 넓은 선형 모델과
우측의 심층신경망을 함께 훈련하면서

Chinese: 
♪ (音乐) ♪
大家好！
感谢大家来到这个讲座！
我是Heng-Tze
你可以叫我Heng
我在Google Research工作
很荣幸可以跟大家分享广泛深入学习
以及如何利用它
在TensorFlow上
将记忆和归纳结合起来
在谷歌，我们启动“深入广泛”课题的目的
是要将记忆和归纳的能力
整合到一个统一的机器学习平台上
为所有人。
当我们说所有人时
不仅仅是说谷歌的产品团队
而是每一个生活在这个开放的社会中的人
每一个在学术界以及工业界的人
因而，我们向这个目标努力，
一边训练宽线性模型
一边深入神经网络研究

English: 
HENG-TZE CHENG:
So hey, everyone.
Thanks for coming to the talk.
My name is Heng-Tze.
You can call me Heng.
I work at Google Research.
And today I'm very excited
to tell you all about Wide
and Deep Learning and how you
can use it to combine the power
of Memorization+Generalization
on TensorFlow.
At Google, we started the Wide
and Deep project with a mission
to combine the power of
memorization and generalization
on one unified machine
learning platform for everyone.
And when we say, everyone,
we really mean not
just every product
team at Google,
but also, everyone in the
open source community,
everyone in academia,
as well as industry.
So we started working
towards this mission
by jointly training Wide Linear
Models on the left and Deep

Japanese: 
テンソルフロー開発者会議 2017
こんにちは
ご来場ありがとうございます
Heng-Tze です
Heng と呼んでください
Google Research で働いています
今日はワイド＆ディープ学習と
それを使ってテンソルフローの
記憶化と一般化の力を
結合する方法をお話しします
Google でワイド＆ディープ
プロジェクトを開始しました
その使命は記憶化と一般化の力を
皆の為に１つの統合機械学習
プラットフォームに結合することです
皆というのは本当に
単に Google の製品チームだけでなく
オープンソースコミュニティの
全員をも意味しています
産業界と学究界の全員です
この使命に向けて作業を始めました
左側の幅広の線形モデルを
右の深層ニューラルネットワークと
共に学習させることで

Portuguese: 
Olá, pessoal!
Obrigado por terem vindo à palestra.
Meu nome é Heng-Tze.
Podem me chamar de Heng.
Trabalho no Google Research.
E hoje estou muito entusiasmado
para contar-lhes tudo sobre
Wide & Deep Learning
e como podem usá-lo para combinar
o poder de memorização 
e de generalização no TensorFlow.
Na Google, iniciamos o projeto Wide & Deep
com a missão de combinar
o poder de memorização e de generalização
em uma plataforma
de aprendizado de máquina
unificada para todos.
E quando dizemos todos,
não significa apenas
todas as equipes de produto na Google,
mas também todo mundo
na comunidade de código aberto,
todos no meio acadêmico,
como também na indústria.
Então começamos a trabalhar
para essa missão,
treinando conjuntamente
modelos lineares amplos, à esquerda,
redes neurais profundas, à direita,

Spanish: 
¡Hola a todos! 
Gracias por venir a la charla.
Mi nombre es Heng-Tze, 
pueden llamarme Heng.
Trabajo en Google Research 
y estoy muy entusiasmado
por hablarles de Wide & Deep Learning
y de cómo lo pueden usar para combinar
el poder de memorización
y generalización en TensorFlow.
En Google, comenzamos el proyecto
Wide & Deep con la misión
de combinar el poder
de memorización y generalización
en una plataforma de aprendizaje 
automático unificada para todos.
Cuando decimos todos
nos referimos no solo
a cada equipo de producto de Google
sino también a todos
en la comunidad de código abierto
en el mundo académico 
así como en la industria.
Empezamos a trabajar en esta misión
entrenando conjuntamente 
modelos lineales amplios a la izquierda
y redes neuronales profundas a la derecha

Indonesian: 
Hai semuanya! Terima kasih
telah hadir di presentasi ini.
Nama saya Heng-Tze.
Anda bisa memanggil saya Heng.
Saya bekerja dalam penelitian Google,
dan hari ini saya sangat senang
untuk berbagi dengan Anda semua
tentang Wide & Deep Learning
dan bagaimana mengkombinasikan itu
dengan kehebatan dari penghafalan
dan penyamarataan di TensorFlow.
Di Google, kami memulai
proyek Wide & Deep dengan misi
untuk mengkombinasikan kehebatan
penghafalan dan penyamarataan
pada satu platform yaitu
Pembelajaran Mesin terpadu
untuk semua orang.
Dan ketika saya berkata "semua orang"
bukan berarti hanya untuk
tim produk di Google
tapi juga untuk semua orang
di komunitas sumber terbuka
dan di dunia pendidikan dan industri.
Jadi kami mulai bekerja untuk misi ini
dengan melatih bersama
model linear wide di sebelah kiri
dan model Deep Neural Network
di sebelah kanan

Chinese: 
研发一个易于使用的API
一个高级的API
可以在TensorFlow上使用
这样用户可以从简单的线性模型开始
再逐渐添加复杂的模型
并且从始至终都不需要离开这个平台
所以第一个问题是：
记忆和归纳到底是什么意思？
要回答这个问题
在开始讨论机器学习之前
让我们先想一想
作为人类，我们是如何学习的
当我们还是一个小孩子时
我们开始构建自身的知识体系
通过观察每天所发生的事情
比如，“海鸥会飞。“
又比如，”鸽子会飞。“
我们非常擅长记忆
这些看似无关
甚至无趣的琐事，
但是即便你能想象，
再好的记忆也不能记住
世界上超过八百万种的动物
你没办法看到每一种动物

Indonesian: 
dan membuat API yang mudah digunakan
API level tinggi, tersedia di TensorFlow
jadi pengguna dapat memulai
dengan model linear sederhana
dan secara bertahap menambah kompleksitas
tanpa harus meninggalkan platform.
Jadi pertanyaan pertamanya adalah:
apa artinya penghafalan dan penyamarataan?
Untuk menjawabnya,
sebelum masuk ke pembelajaran mesin
mari mundur selangkah untuk berpikir
bagaimana kita belajar sebagai manusia.
Saat masih anak-anak,
kita membentuk pengetahuan kita
dengan mengamati peristiwa setiap hari.
Misalnya, "Burung camar dapat terbang"
atau "merpati dapat terbang."
Kita sangat baik dalam menghafal
fakta yang mungkin tidak berkaitan,
tepatnya membosankan ini
tapi Anda bisa bayangkan
penghafalan yang bagus kemungkinan
tidak menimbang dengan baik
8 juta lebih spesies hewan
di seluruh dunia.
Anda tidak akan melihat mereka semua

Korean: 
사용하기 쉬운 API와 고급 API를
텐서플로에서 사용 가능하도록 만들었습니다
사용자들이 단순한 선형 모형에서 시작하여
플랫폼을 나가지 않고도
계속해서 추가할 수 있습니다
첫 번째 질문은
암기와 일반화의 뜻이
도대체 무엇이냐는 것입니다
머신러닝에 대해 이야기하기 전에
사람의 학습법에 대해서 보겠습니다
우리는 아주 어릴 때부터
지식을 습득하기 시작합니다
일상을 관찰하면서 말이죠
예를 들자면, 갈매기는
날 수 있다는 것이라던가
비둘기는 날 수 있다는 것을 알게 되죠
우리는 암기하는 것에 능숙합니다
연관성이 전혀 없어 보이는 것들을
아주 정확하게 암기하죠
그래도, 아시다시피
아무리 암기력이 좋다고 해도
8백만 가지가 넘는
세계의 모든 종류의 동물들을
모두 볼 수도 없으실 테고

Portuguese: 
e criando uma API fácil de usar.
Uma API de alto nível,
disponível no TensorFlow,
então os usuários podem iniciar
com modelos lineares simples
e gradualmente adicionar complexidade
sem nunca ter de deixar a plataforma.
Então a primeira pergunta é:
O que realmente queremos dizer 
com "memorização e generalização"?
E para responder isso,
antes de detalharmos
o aprendizado de máquina,
vamos dar um passo para trás
para pensar sobre como aprendemos
como seres humanos.
Desde a infância, começamos a formar
nosso conhecimento
observando os eventos diários.
Por exemplo, "As gaivotas podem voar".
Ou "Os pombos podem voar".
Somos muito bons em memorizar
esses fatos chatos,
e talvez não relacionados,
muito precisamente.
Mas, como você pode imaginar,
uma boa memorização provavelmente
não pode se ampliar tão bem
para mais de oito milhões
de espécies de animais no mundo.
Você não verá todos eles,

Japanese: 
テンソルフローで使いやすい API
利用可能な高いレベルの API を作ります
ユーザーは簡単な線形モデルから始めて
プラットフォームを出なくても
徐々に複雑さを加えられるものです
そこで第一の疑問は
記憶化と一般化とは
本当に何を意味するのでしょう？
それに答えるには
機械学習に入る前に
一歩退いて 私たちは人間として
どう学ぶか考えてみましょう
幼児としては
毎日の出来事を観察して
知識を形成し始めます
例えば「カモメは飛べる」とか
「ハトは飛べる」とか
これらの無関係な退屈な事実を
詳細に記憶するのがとても得意ですが
あなたが想像してるように
世界にある 800 万以上の動物種を
よく覚えるのは困難でしょう
それらの全部は目にしないし

Spanish: 
y creando una API fácil de usar
una API de alto nivel, 
disponible en TensorFlow
para que los usuarios puedan empezar 
con modelos lineales simples
y gradualmente añadir complejidad
sin tener que salir de la plataforma.
Así que la primera pregunta es:
¿qué queremos decir
por memorización y generalización?
Para responder a eso, antes de ahondar
en el aprendizaje automático
volvamos hacia atrás y pensemos 
cómo aprendemos los seres humanos.
Desde la infancia, comenzamos
a formar nuestro conocimiento
mediante la observación 
de los hechos cotidianos.
Por ejemplo, "Las gaviotas pueden volar".
"Las palomas pueden volar".
Somos muy buenos memorizando
esos hechos aburridos y quizá
sin relación, de manera precisa.
Pero como se pueden imaginar
una buena memorización 
probablemente no se amplía bien
a más de ocho millones 
de especies de animales en el mundo.
No va a verlos a todos

English: 
Neural Networks on the
right, and create an easy
to use API, high-level API,
available in TensorFlow,
so users can start with
simple linear models
and gradually add
complexity without ever
having to leave the platform.
So the first question
is, what do we really
mean by memorization
and generalization?
And to answer that--
before we dive into
machine learning,
let's take a step back to think
about how we learn as humans.
So as little kids we start
forming our knowledge
by observing everyday events.
For example, seagulls can
fly or pigeons can fly.
We're very good at memorizing
these maybe unrelated
boring facts very precisely.
But, as you can imagine,
good memorization probably
doesn't scale well
to over eight million
animal species in the world.
You're not going
to see all of them

Indonesian: 
dan tidak akan menghafal semua nama mereka
dan apakah mereka bisa terbang atau tidak.
Jadi langkah hebat dalam pembelajaran kami
yaitu penyamarataan.
Dengan mengatakan
"Semua hewan bersayap dapat terbang"
pada dasarnya merangkum
semua pengamatan yang sedikit ini
menjadi satu ringkasan
representasi pengetahuan
yaitu apakah hewan punya sayap atau tidak.
Menggunakan aturan yang ringkas ini,
Anda dapat menyamaratakan
lebih banyak hewan yang pernah
atau belum pernah Anda lihat.
Namun, penyamarataan
punya batasannya sendiri
karena tidak selalu berhasil
pada semua kasus.
Misalnya, penguin...
Setidaknya mereka mencoba
tapi hal terbaik yang bisa mereka lakukan
ialah semacam terjun bebas ke laut.
Jadi kehebatan sesungguhnya
terletak pada bagaimana kita memadukan
kehebatan penghafalan dan penyamarataan?

Portuguese: 
não vai memorizar todos os seus nomes
e se eles podem voar ou não.
Então uma etapa muito poderosa
em nosso aprendizado é a generalização.
Ao dizer "Animais com asas podem voar",
você está basicamente resumindo
todas essas observações dispersas
em uma representação
de conhecimento muito compacta,
isto é, se o animal tem asas ou não.
Usando essas regras compactas,
você pode generalizar
para mais animais
que você tenha visto ou não antes.
No entanto, a generalização tem
suas próprias limitações,
porque ela nem sempre funciona
em todos os casos.
Por exemplo, os pinguins...
Bem, pelo menos eles tentam,
mas o melhor que podem fazer
é um tipo de queda livre no oceano, certo?
O verdadeiro poder
está em como combinamos
o poder da memorização e da generalização.

Spanish: 
y no va a memorizar todos sus nombres
y si pueden volar o no.
Así que un paso muy importante
en el aprendizaje es generalización.
Al decir, "los animales con alas
pueden volar"
reducimos todas esas
observaciones dispersas
en una representación 
de conocimiento muy compacta
y eso es si el animal tiene alas o no.
El uso de esas reglas compactas
puede generalizar a muchos más animales
a los que puede haber visto antes o no.
Pero la generalización 
tiene sus propias limitaciones
porque no siempre 
funciona en todos los casos.
Por ejemplo, los pingüinos...
al menos lo intentan
pero lo más que pueden hacer 
es una caída libre en el océano.
¿El verdadero poder 
está en cómo combinamos
el poder de la memorización
y generalización?

Chinese: 
也不会去记住每一种动物的名字
以及它们是否会飞
因此我们学习过程中
一个强大的步骤就是归纳
比如说，”有翅膀的动物会飞，“
我们其实就是将这些零碎的观察
总结成一个简化的、有代表性的知识
也就是动物是否有翅膀
使用这些简化的规则
你可以将它泛化到很多你以前见过，
或者没见过的动物身上
然而，归纳本身有它的局限性
因为它并不是在所有情况下都正确
比如，企鹅...
当然，它们可以试着飞
但它们最多只能飞着掉到大海里
因此，真正强大的是
我们要如何将记忆和归纳的能力相结合？

Korean: 
이름을 모두 외울 수도 없으실 테지요
날 수 있는지 없는지는 더욱 모르실 테고요
학습에 있어 아주 강력한
단계는 일반화입니다
날개가 있는 동물은
날 수 있다고 말하는 것은
지금껏 관찰해 온 것들을
매우 간략하게 대표적인 내용을
이용해서 표현하는 것입니다
날개가 있는 동물이냐
아니냐가 되는 것이지요
일반화를 이용해서, 지금까지 봤거나
보지 못 했던 동물들을
일반화 시킬 수 있습니다
하지만, 일반화에는 제약이 있습니다
모든 상황에 적용되지는 않기 때문이죠
예를 들어, 펭귄들은 날개가 있지만
기껏 해봤자 바다로
점프 정도 할 수 있습니다
그러므로, 여기에서 정말로 중요한 것은
암기와 일반화를 결합하는 방법입니다

English: 
and not going to memorize
all of their names
and whether they can fly or not.
So a very powerful step in our
learning is generalization.
By saying, animals
with wings can fly,
we're basically summarizing all
of these sparse observations
into one very compact
representation of knowledge,
and that's whether the animal
has wings or not, right?
Using these compact rules you
can generalize to many more
animals you may or may
not have seen before.
However, generalization
has its own limitations
because it doesn't
always work on all cases.
For example, penguins,
well, at least they try,
but the best they can do
is some sort of a free fall
into the ocean, right?
So the real power
lies in how we combine
the power of memorization
and generalization.

Japanese: 
それらの名前全部を
記憶しないし
飛べるかどうかも憶えません
そこで学習の強力な一歩は一般化です
「翼のある動物は飛べる」と言うことで
基本的にこれらのまばらな観察全部を
１つの非常にコンパクトな知識表現に
要約しています
それはその動物に翼があるかどうかですね
これらのコンパクトなルールを利用すると
以前見たことがあっても無くても
もっと多くの動物に一般化できます
ところが一般化には
それなりの限界があります
必ずしも全てのケースで
機能しないからですね
例えばペンギンですが...
少なくとも飛ぼうとしても
せいぜい海に自由落下できる程度です
ですから本当の力は
記憶化と一般化の力を
どう結合するかにあります

Chinese: 
有趣的是，这跟我们
从普通的记忆模型
发展成纯粹的深度模型的过程
非常相似
这使得归纳变得更为强大
最后，广度和深度学习相结合
也就是归纳加上记忆
也就是说
“有翅膀的动物会飞，
但是企鹅例外。”
好了，我已经讲了足够多关于动物的例子了
让我们回到真实世界里来，
我会一点点跟大家解释
在这个例子中
我们可以看到如何将广度和深度学习
应用到Google Play的应用推荐问题上
比如说我们一个重要客户，Chris
最近下载了Priceline应用
我们想要问的：
“现在应该推荐哪些应用给他？”

English: 
And interestingly, this is
very similar to what we observe
in the progression from a pure
wide model for memorization
to a pure deep model,
which gives us more power
in generalization, and finally,
in combining wide and deep,
which is generalization
plus memorizing exceptions,
which is saying, animals
with wings can fly,
but penguins cannot fly.
So enough with the
hypothetical animal examples.
Now let's come back to
a real world example,
and I'll walk you through it.
In this running
example we'll see
how we can apply wide, deep,
and wide and deep learning
on the Google Play apps
recommendation problem.
So suppose one of
our favorite users,
Chris, recently installed
the Priceline app.
The question we want to
ask is, which other apps
should we now recommend, right?

Portuguese: 
E, curiosamente, isso é
bem semelhante ao que observamos
na progressão de um modelo puro e amplo
de memorização
para um modelo puro e profundo,
que nos dá mais poder na generalização,
e, por último, ao combinar Wide & Deep,
amplo e profundo,
que é a generalização
mais a memorização de exceções.
É como dizer:
"Os animais com asas podem voar,
mas os pinguins não podem".
Chega de exemplos hipotéticos com animais.
Vamos voltar para um exemplo do mundo real
e vou apresentá-lo a vocês.
Neste exemplo, veremos 
como podemos aplicar
Wide, Deep e Wide & Deep Learning
no problema de recomendação de apps
no Google Play.
Digamos que Chris,
um de nossos usuários favoritos,
instalou o app Priceline recentemente.
A pergunta que queremos fazer é:
"Que outros apps
devemos recomendar agora?"

Spanish: 
Curiosamente, este es
muy similar a lo que observamos
en la progresión de un modelo 
puro y amplio de memorización
a un modelo puro y profundo
que nos da más poder en la generalización
y, finalmente, en la combinación
"Wide & Deep", que es la generalización
más las excepciones 
de memorización, que es decir...
"Los animales con alas pueden volar
pero los pingüinos no pueden".
Ya basta de hipotéticos
ejemplos de animales.
Volvamos a un ejemplo del mundo real.
Se lo voy a mostrar.
En este ejemplo veremos
cómo podemos aplicar Wide & Deep
y Wide & Deep Learning
al problema de recomendación 
de las apps de Google Play.
Supongamos que Chris, 
uno de nuestros usuarios favoritos
instaló recientemente la app Priceline.
La pregunta que queremos hacer es:
"¿Qué otras apps recomendaremos ahora?"

Japanese: 
興味深いことに これは
記憶のための純粋なワイドモデルから
純粋なディープモデルへの進化で
観察したものと非常によく似ています
それは一般化において
より多くの力を発揮し
最後に広く深いものに結合されます
それが一般化＋例外の記憶化です
つまり「羽のある動物は飛べるが
ペンギンは飛べない」です
仮想の動物の例はこれくらいにして
現実の世界の例に戻ってみましょう
その説明をしていきます
この実行例は
ワイドとディープつまり
ワイド＆ディープ学習の適用方法です
Google Play アプリの
お薦め問題です
お気に入りユーザーのひとり クリスが
最近 Priceline アプリを
インストールしたとしましょう
質問は以下のようになります
「今度は他のアプリのどれを勧めようか？」

Indonesian: 
Dan yang menarik, ini sangat mirip
dengan apa yang kami amati
dalam perkembangan
dari model pure wide untuk penghafalan
menjadi model pure deep
yang memberi kita kehebatan lebih
dalam penyamarataan
dan akhirnya dalam memadukan
wide dan deep, yaitu penyamarataan
ditambah pengecualian
dari hafalan, yang artinya
"Hewan bersayap dapat terbang,
tapi penguin tidak dapat terbang."
Jadi, cukup dengan contoh hipotesis hewan.
Sekarang kembali ke contoh dunia nyata
dan saya akan memandu Anda.
Dalam contoh ini kita akan melihat
bagaimana penerapan wide, deep,
dan Wide & Deep Learning
dalam masalah dari
rekomendasi aplikasi Google Play.
Misalnya, salah satu pengguna
favorit kami, Chris
baru saja memasang aplikasi Priceline.
Pertanyaan yang ingin kami ajukan ialah
"Aplikasi apa yang akan
kami rekomendasikan?"

Korean: 
아주 흥미롭게도, 이것은 저희가
순수하게 넓은 암기 방식에서
순수하지만 깊은 방식으로
진전하는 단계에서
관찰한 것과 아주 비슷합니다
일반화를 좀 더 효과적으로 만들었죠
결과적으로 넓고 깊은... 즉, 일반화와
예외에 대한 암기를 합하여
모든 날개 달린 동물들은 날 수 있지만
펭귄은 날 수 없다는
결론에 도달하게 되는 것입니다
동물을 이용한 예시는 여기까지 하고요
다시 현실의 예를 들어
설명해 보도록 하겠습니다
이 예시에서는 우리가 어떻게
와이드 앤 딥 러닝을
Google Play 추천 앱 문제에
적용했는지를 보여드립니다
예를 들어, 사용자인 크리스가 최근에
프라이스라인 앱을 설치했다고 가정해봅시다
저희가 하고 싶은 질문은
"어떤 다른 앱들을
추천해야 하는가?"인데요

English: 
And one way to frame
this problem is--
to frame the recommendation
problem as Retrieval+Ranking.
So let's start from the
upper left, where I'll
walk you through a live query.
So we get a query from the users
in the recommendation system
case as the user feature plus
some contextual features maybe
at the time and so on.
And then our
retrieval system will
retrieve the relevant
items that relate
to this user and context.
And maybe, let's say, give us
hundreds of candidates, right?
The ranking module will
rank these candidates
and present the most promising
ones, the most relevant ones,
to the user.
The user takes a look at
the items on their phones.
And they can take one
of the possible actions,
like, click on the app,
install the app, and so on.
All of these are recorded in the
logs, which the learner picks

Portuguese: 
Uma forma de enquadrar este problema é...
de enquadrar o problema de recomendação,
é a recuperação e a classificação.
Vamos iniciar pelo lado esquerdo superior,
em que vou lhes apresentar
a vida útil de uma consulta.
Recebemos uma consulta dos usuários,
no caso do sistema de recomendação,
é a característica do usuário
mais algumas características contextuais
talvez no momento, e assim por diante.
E então nosso sistema de recuperação
vai recuperar os itens relevantes
relacionados a esse usuário e contexto.
E talvez, digamos,
nos dê centenas de candidatos.
O módulo de classificação
vai classificar esses candidatos
e apresentar os mais promissores,
os mais relevantes, para o usuário.
Os usuários observarão os itens
em seus telefones
e podem fazer uma das ações possíveis,
como clicar no app, instalar o app
e assim por diante.
Tudo isso é gravado nos registros

Indonesian: 
Dan salah satu cara membingkai masalah
dari rekomendasi adalah
yaitu pencarian dan pemeringkatan.
Jadi, kita mulai dari kiri atas
di mana saya akan memandu Anda
melewati siklus dari kueri.
Jadi kita mendapatkan kueri dari pengguna.
Dalam kasus sistem rekomendasi,
itu adalah fitur pengguna
ditambah beberapa fitur kontekstual
pada saat itu, dan seterusnya
dan kemudian sistem pencarian kami
akan mengambil item yang relevan
yang terkait dengan pengguna ini
dan konteksnya
dan mungkin memberi kami ratusan kandidat.
Modul pemeringkatan
akan memberi peringkat pada kandidat
dan menampilkan yang paling menjanjikan
dan yang paling relevan kepada pengguna.
Para pengguna akan melihat
item tersebut di ponsel mereka
dan mereka dapat memilih
salah satu kemungkinan tindakan
seperti klik pada aplikasi,
memasang aplikasi, dan lainnya.
Semua ini dicatat dalam log

Chinese: 
要解决这个问题的一种方法
解决这个推荐问题的一种方法
就是检索和排名
所以让我们从左上角开始
我会为你慢慢解释一个完整的查询过程
因此，我们从用户那得到了一个查询
在这个系统推荐的案例里，
就是用户的特征
加上一些当时的背景特征，等等
然后我们的检索系统会检索相关信息
那些和用户和背景相关的信息
比如说，我们有上百个候选项
排序模块会将这些候选项排序
然后将最优的一项显示出来
与用户最相关的一项
用户会看一眼他手机上的项目
然后他们可能会做以下一种动作
比如点击应用，安装应用，等等
这些都会被日志记录

Korean: 
이 문제를 어떤 한 방향에서 보았을 때
앱 추천의 한 가지
문제는 검색과 순위입니다
좌측 상단부터 시작해 보겠습니다
문의하는 과정을 살펴보지요
우선, 사용자들에게 문의가 들어옵니다
추천 시스템은 사용자를 위한 기능입니다
그리고 사용의 흐름에 맞춘
기능들과 다른 것들도 있죠
그리고 저희의 정보 검색 시스템에서
사용자와 관련된 항목을 검색하고
수백 개의 가능성이 있는 후보들을 제시하고
순위 모듈이 이 후보들의 순위를 매깁니다
그런 후에 가장 유망한 것들과
사용자에게 관련성이 큰 항목을 보여줍니다
사용자들은 휴대폰으로 항목들을 살펴보고
가능한 조치를 취할 수 있게 되는 것이지요
앱을 클릭하거나 설치하는 것들 말입니다
이런 모든 것들은 기록에 남게 됩니다

Spanish: 
Una forma de enmarcar este problema
enmarcar el problema de recomendación,
es la recuperación y clasificación.
Empecemos en la parte superior izquierda
donde les voy a hablar
de la vida útil de una consulta.
Recibimos una consulta de los usuarios.
En caso del sistema de recomendación,
es la característica del usuario
además de algunas características 
contextuales quizás en el momento, etc.
y luego nuestro sistema de recuperación
recuperará los ítems relevantes
relacionados 
con este usuario y el contexto
y quizás nos proporcione 
cientos de candidatos.
El módulo de ranking 
clasificará a esos candidatos
y presenta a los más prometedores
los más relevantes al usuario.
Los usuarios verán
los ítems en sus teléfonos
y pueden realizar
una de las acciones posibles
como clicar en la app, instalarla, etc.
Todo esto se graba en los registros

Japanese: 
この問題を捉える
お薦めの問題を捉える一つの方法は
検索とランク付けです
では 左上から始めましょう
そこでクエリの説明になりますが
ユーザーからクエリを取得します
お薦めシステムの場合
それはユーザー特徴であり
その時にいくつかの文脈上の特徴も
ついているでしょう
検索システムがこのユーザーと
コンテキストに関連する
関連アイテムを検索します
そして何百もの候補が
出てくるとしましょう
ランク付けモジュールは
これらの候補をランク付けし
最も有望なもの
最も関連性の高いものを
ユーザーに提示します
ユーザーは携帯電話のアイテムを見て
可能な行動の１つをとることができ
アプリをクリックしたり
インストールしたりするわけです
これらはすべてログに記録され

Korean: 
학습자들은 이것을 습득하여
새로운 모델을 훈련시키고
새로운 모델이 다음의
순위 매김에 영향을 주는 겁니다
추천의 순환이죠
오늘의 강연은 
와이드 앤 딥 러닝을 이용하여
추천 앱 랭킹 모델의 문제점을
해결하는 방법에 중점을 두고 있습니다
아까 말씀드렸다시피
문의 기능은 사용자를 위한 기능이죠
항목의 특성들은 앱의 특성에 맞춰져있는데요
사용자들이 휴대폰에서 볼 수 있는 것들이죠
저희가 최적화시키고자 하는
목표는 앱 설치입니다
사용자가 앱을 설치하면
1로 표기되고
그렇지 않다면 0으로 표기됩니다
설명드리겠습니다
우선, 선택하실 수 있는
가장 간단한 모델은
로지스틱 회귀분석으로
알려져 있는 선형 모델인데요
입력 값들은 여러 가지 특성들입니다
사용자 특성으로
프라이스라인 앱이 설치되었습니다

Indonesian: 
yang dapat diambil pembelajar
untuk melatih model baru
dan model baru ini akan menggerakkan
pengulangan pada pemeringkatan.
Dan itulah siklus dari rekomendasi.
Jadi presentasi ini akan berfokus
pada penggunaan Wide & Deep Learning
dalam menyelesaikan model pemeringkatan
dari masalah rekomendasi aplikasi ini.
Dan fitur kueri, seperti yang saya sebut,
adalah fitur pengguna dan kontekstual.
Fitur item ini adalah fitur
dari aplikasi impresi
yang kita tampilkan ke ponsel pengguna
dan tujuan yang kita optimalkan
adalah pemasangan aplikasi,
jadi jika pengguna memasang aplikasi
labelnya adalah 1,
jika sebaliknya labelnya adalah 0.
Jadi mari kita mulai.
Yang pertama, mungkin model
paling sederhana yang dapat Anda pilih
adalah model linear, atau dikenal sebagai
regresi logistik dalam kasus ini.
Sehingga inputnya memiliki banyak fitur.
Anda dapat memiliki fitur pengguna--
aplikasi yang terpasang ialah Priceline.

Portuguese: 
que o aprendiz recolhe
e treina um novo modelo.
Esse novo modelo alimentará
a próxima iteração de classificação.
E esse é o ciclo da recomendação.
Esta palestra vai abordar
como usamos Wide & Deep Learning
para resolver o modelo de classificação
do problema de recomendação de app.
E as características de busca, como falei,
são as de usuário e contexto.
As características de item
são as de impressão dos apps
que apresentamos
aos telefones dos usuários,
e o objetivo que estamos otimizando
é a instalação de apps.
Se o usuário instalou o app,
a etiqueta é 1, caso contrário ela é 0.
Então vamos começar.
O primeiro, provavelmente o modelo
mais simples que você pode escolher,
é um modelo linear, conhecido
como regressão logística, neste caso.
Então as entradas são
um monte de características.
Você pode ter
as características do usuário,
o app instalado é o Priceline.

English: 
up, and trains a new model.
And this new model will power
the next iteration of ranking.
And that's a cycle of
recommendation, right.
So this talk we will focus
on how we use Wide and Deep
Learning to solve the
ranking model of this app
recommendation problem.
And the query
features, as I said,
is user and contextual features.
The item features are the
app impression features which
we show to the users phones.
And the objective we're
optimizing for is app installs.
So if the user installed
the app the label is one,
otherwise the label is zero.
OK.
So let's get started.
Now the first probably the
simplest model you can pick
is a Linear Model, or known
as logistic regression,
in this case.
So the inputs are a
bunch of features, right.
You can have the user features
installed app as Priceline,

Japanese: 
それを学習者が選んで
新しいモデルを訓練します
そしてこの新しいモデルは
ランク付けの次の反復を強化します
それがお薦めのサイクルです
では このアプリお薦め問題の
ランク付けモデルを解く為に
ワイド＆ディープ学習をどう使うかに
焦点を当てましょう
クエリ機能は 前述したように 
ユーザーとコンテキストの特徴です
アイテムの特徴は
ユーザーの携帯電話に表示される
アプリのインプレッション特徴です
私たちが最適化する目標は
「アプリのインストール」なので
ユーザーがアプリをインストールした場合
ラベルは 1 で
それ以外ではラベルは 0 です
では始めましょう
まず あなたが選べる
最も単純なモデルは多分線形モデルで
この場合はロジスティック回帰として
知られているものです
だから入力は 特徴の集まりです
インストールされたアプリが Priceline だ
というユーザー特徴を持つことができます

Spanish: 
que el aprendiz recoge
y entrena un nuevo modelo
y este nuevo modelo alimentará
la siguiente iteración de ranking.
Ese es el ciclo de recomendación.
Así que esta charla se centrará
en cómo usamos Wide & Deep Learning
para resolver el modelo de ranking
del problema de recomendación de la app.
Las características de la consulta 
son las de usuario y contexto.
Las características del ítem 
son las de impresión de las apps
que mostramos 
en los teléfonos de los usuarios
y el objetivo que estamos optimizando
es la instalación de apps...
entonces, si el usuario instaló la app
la etiqueta es 1,
de lo contrario la etiqueta es 0.
Así que comencemos.
El primero, probablemente
el modelo más simple que puede elegir
es un modelo lineal, conocido
como regresión logística, en este caso.
Las entradas 
son un montón de características.
Usted puede tener las características 
del usuario, la app instalada es Priceline

Chinese: 
用户挑选了哪一个，
这就可以训练一个新的模型
这个新的模型就可以让
下一次的排序功能更为强大
这就是推荐的循环
在这个讲座中，我们会着重讲述广度和深度学习
来解决应用推荐问题的排序模型
查询功能，就像我说的一样
是用户和背景功能
项目特征是我们向客户手机展示的
应用印象特征
我们优化的目标
是要增加应用下载量
所以如果用户安装了应用，标签为1
否则，标签为0
让我们开始吧
首先，你可以选择的
最简单的模型就是线性模型
在这里，我们把它叫做逻辑回归模型
输入量是一系列的特征
你可以用用户特征--
安装了Priceline应用

Chinese: 
以及印象特征--
如果我们推荐Kayak的湖
安装的可能性有多大
所以印象应用，在这里就是Kayak
我们想要预测
用户会安装这个应用的可能性
那么，我们要如何添加记忆的功能呢？
我们可以通过添加一个交叉特征来实现
也就是在这些二进制基本特性上
使用AND操作
这个交叉特征可以是：
安装应用为Priceline
印象应用为Kayak
如果两个都为真的话，
安装的可能性有多大？
如果我们看一下数据
我们会看到很多的相关性
安装这个应用的人
之后也安装了那个应用
然后你就可以记住
这些特征一起发生的频率
因此交叉特征可以帮你实现
现在，你可能会想这个例子太具体了

Spanish: 
las características de impresión,
si mostramos Kayak como impresión
sería cuál es 
la probabilidad de instalación.
Así que la app de impresión,
digamos que es Kayak
y queremos predecir la probabilidad
de que el usuario instalará la aplicación.
¿Cómo podemos agregar
capacidad de memorización?
Esto puede hacerse añadiendo 
una característica cruzada
que es la operación AND
sobre las características de base binaria.
La característica cruzada puede ser: 
la app de instalación como Priceline
y la app de impresión es Kayak.
Si ambos son verdaderos,
¿cuál es la probabilidad de instalación?
Si observamos los datos
y vemos mucha correlación...
las personas que instalaron esto,
también instalaron aquello más tarde...
entonces usted puede memorizar
esta coocurrencia frecuente
de estas características.
Así que los cruzamientos 
le ayudan con eso.
Usted podría pensar 
que eso es muy específico.

Indonesian: 
Dan fitur impresi-- jika kita menampilkan
Kayak sebagai impresi
apa kecenderungannya untuk dipasang.
Jadi aplikasi impresi, katakanlah Kayak
dan kita akan memprediksi kemungkinan
pengguna memasang aplikasinya.
Bagaimana kita menambah
kemampuan penghafalan?
Hal ini dapat dilakukan
dengan menambahkan fitur persilangan
dan operasi AND di fitur basis biner.
Jadi fitur persilangan dapat
memasang aplikasi sebagai Priceline
dan aplikasi impresi sebagai Kayak.
Jika keduanya benar, apa
kecenderungan pemasangan aplikasi?
Dan jika kita masuk dalam data
dan melihat banyak korelasi--
orang yang memasang ini,
juga memasang itu nanti--
sehingga Anda dapat menghafal
frekuensi bekerjanya fitur ini.
Jadi fitur persilangan bisa membantu Anda.
Anda mungkin berpikir itu sangat spesifik.

Japanese: 
インプレッション特徴の方は
私たちがインプレッションとして
Kayak を見せれば
インストールが見込まれるのは？
ではインプレッションアプリが
Kayak だとして
ユーザーがそのアプリをインストールする
確率を予測したいとします
さて 記憶力をどう追加できるでしょう？
これは交差特徴を追加することで
行うことができます
それは これらの２値ベースフィーチャに
対する AND 演算になります
交差特徴は 
インストールアプリが Priceline で
インプレッションアプリが Kayak 
となり得ます
両者が真なら
インストールの可能性は？
そこでデータに入って
多くの相関を見ますー
これをインストールした人は
後にそれもインストールしたとなると
これらの特徴のこの頻繁な共起を
記憶できます
だから交差はその役に立ちます
さて これは特定の場合で

Portuguese: 
E as características de impressão que,
se mostrarmos o Kayak como impressão,
qual é a probabilidade de instalação?
Então, o app de impressão,
digamos que seja o Kayak,
e queremos prever a probabilidade
de o usuário instalar o aplicativo.
Agora, como adicionamos
capacidade de memorização?
Podemos fazê-lo adicionando
uma característica cruzada
que é a operação AND
sobre essas características
básicas binárias.
Então a característica cruzada pode ser
o app de instalação como Priceline
e o app de impressão como Kayak.
Se ambos forem verdadeiros,
qual é a probabilidade de instalação?
E se examinarmos os dados,
e vemos muita correlação,
as pessoas que instalaram este
também instalaram aquele depois,
então você pode memorizar
a coocorrência frequente
dessas características.
Assim, cruzamentos o ajudam com isso.
Agora, você pode pensar
que isso é bem específico.

Korean: 
그리고 인상 특성으로 카약을 설정하면
설치 가능성이 얼마나 될까요
인상으로 분류된 앱으로
카약을 선택하도록 하겠습니다
그리고 사용자들이 이 앱을
다운로드할 가능성을 예측해 보겠습니다
여기에 어떻게 
암기 능력을 더할 수 있을까요?
교차 특성을 더함으로써 가능해지는데요
교차 특성은 2진법 기반에서의
AND 명령이 될 것입니다
그러면 교차 특성은 프라이스라인 앱 설치죠
인상 앱으로는 카약이고요
만약 둘 다 성립된다면
설치를 할 확률은 어느 정도 될까요?
데이터로 들어가면
많은 연관성들을 보게 됩니다
이 앱을 설치한 사람들이
다른 앱도 설치한다거나
이러한 잦은 연관성들로
기억되게 할 수 있는 것이지요
교차로 가능한 것입니다
제가 말씀드린 것이 너무 국한되었다고
생각하실 수 있습니다

English: 
and impression
features, which is
if we show KAYAK as
impression, what's
the likelihood of install?
So the impression app,
let's say, is KAYAK.
And we want to predict the
probability that the user will
install the app.
Now how do we generalize
memorization capability?
This can be done by adding
a Crossed Feature, which
is the end operation over
this binary base features.
So the cross feature can be,
install app as Priceline,
and impression app as KAYAK.
If both are true, what is
the likelihood of install?
And if we go into
the data and we
see a lot of correlation,
people who installed this also
installed that later, then you
can memorize this frequent co
occurrence of these features.
So crosses help you with that.
Now you might think that, well,
that's very specific, right?

Spanish: 
¿Cómo podemos
generalizar para otras apps
que no sean Priceline o Kayak?
Una forma de hacerlo
con modelos lineales amplios
es añadir características 
menos específicas
como categorías de apps.
Así, por ejemplo,
si se agrega un cruzamiento que dice:
si la categoría de la app
de instalación es viajar
y la categoría de la app
de impresión también es viajar
¿cuál es la probabilidad
de que el usuario las instale?
Una vez que haya aprendido eso,
puede aplicarlo a otras apps de viaje
no solo Priceline o Kayak.
El problema, que ya debe haber visto
es que el espacio de característica
es muy amplio y muy disperso.
Hay millones de apps
y millones de usuarios.
Si cruza apps con apps
eso es un millón de millones,
que es un billón de combinaciones.
Así que la mayoría de esos
pares de apps de impresión
nunca aparecerán 
en sus datos de entrenamiento.
Entonces, ¿cómo generalizamos
para estos pares invisibles

Korean: 
이것을 어떻게 다른 앱에서도
일반화시킬 수 있을까요?
프라이스라인이나 카약이 아닌 앱들로요
넓은 선형 모델을 사용하면 할 수 있습니다
앱의 범주와 같은
덜 구체적인 값들을 사용하면서요
예를 들어, 교차를 추가한다면
설치된 앱의 범주가 여행이고
인상 앱의 범주도 여행으로 입력한다면
사용자들이 그 앱을 다운로드할 
가능성이 얼마나 될까요?
이것을 습득하신 후에는 
다른 여행 앱에 적용하실 수 있습니다
프라이스라인과 카약뿐만 아니라요
이미 아실 수도 있겠지만, 여기서 문제는
특성들이 매우 광범위하면서
부족하다는 것입니다
수백만 개의 앱들이 있고
수십억 명의 사용자가 있습니다
앱들끼리 교차를 하려면
백만의 제곱입니다
1조가 넘는 조합이 나오죠
그래서 대부분 사용자의 
인상을 기반으로 한 앱의 교차는
교육자료에는 잘 등장하지 않지요
그렇다면 보이지 않는 교차를
어떻게 일반화시킬 수 있을까요?

English: 
How do we actually
generalize to other apps that
are not Priceline or KAYAK?
Well, one way you can do
it with Wide Linear Models
is to add less specific
features, like app categories.
So for example, if you add a
cross saying, if install app
category is travel and the
impression app category
is also travel, what is
the likelihood of user
installing that, right?
So once you learn
this, you can apply it
to other travel apps not
just Priceline or KAYAK.
Now the problem, which you
might have seen already,
is that the feature space is
very wide and very sparse.
There are millions
of apps, billions
of users, if you cross
apps with apps that's
a million times million which is
a trillion combinations, right?
So most of these user
impression app pairs will never
occur in your training data.
So how do you actually
generalize to these unseen

Chinese: 
我们要如何应用到其它
不是Priceline或Kayak的应用上呢？
你可以使用广泛线性模型
解决这个问题的一个方法
是添加一个不那么具体的特征
比如应用分类
比如，如果你添加一个交叉功能：
如果安装的应用分类是旅行
印象应用的分类也是旅行
用户安装它有多大的可能性？
只要你懂了这一点
你就可以将它应用到其它的旅行应用上
而不仅仅是Priceline或是Kayak
现在，你可能已经预见的问题是
这些特征会非常的不同
有上百万个应用
上十亿的用户
如果你应用相互交叉
那就是百万乘以百万
会得到一万亿种组合
大多数这些用户-印象应用配对
都从未在我们的训练数据中出现
那么你是如何生成这些隐形的配对

Portuguese: 
Como, na verdade,
generalizamos para outros apps
que não sejam Priceline ou Kayak?
Bem, uma forma de fazer isso
com modelos lineares amplos
é adicionar características
menos específicas,
como categorias de apps.
Então, por exemplo,
se adicionar um cruzamento dizendo:
se a categoria do app
de instalação é "viajar",
e a categoria do app de impressão
também é "viajar",
qual é a probabilidade
de o usuário instalar isso?
Quando você aprender isso,
poderá aplicar a outros apps de viagem,
não apenas ao Priceline ou Kayak.
Agora, o problema,
que você já deve ter visto,
é que o espaço de característica
é muito amplo e muito esparso.
Há milhões de apps e bilhões de usuários.
Se você cruzar apps com apps,
isso é um milhão de milhões,
que é um trilhão de combinações.
Então a maioria desses pares
de apps de impressão
nunca ocorrerão
em seus dados de treinamento.
Como generalizamos
para esses pares invisíveis

Indonesian: 
Sebenarnya bagaimana
kita sama ratakan ke aplikasi lain
selain Priceline atau Kayak?
Salah satu cara Anda bisa melakukannya
dengan model linear wide
yaitu menambah fitur yang kurang spesifik
seperti kategori aplikasi.
Sebagai contoh, jika Anda menambah
perintah persilangan:
jika kategori aplikasi yang dipasang
adalah wisata
dan kategori aplikasi impresi juga wisata
apa kecenderungan pengguna memasangnya?
Setelah Anda pelajari ini, Anda bisa
menerapkannya ke aplikasi wisata lainnya
bukan hanya Priceline atau Kayak.
Sekarang masalah yang mungkin
Anda sudah lihat
adalah bahwa fitur ruang
sangat luas dan sangat jarang.
Ada jutaan aplikasi, miliaran pengguna.
Jika ada persilangan antara aplikasi
berarti sejuta dikali jutaan,
dan menjadi triliunan kombinasi.
Jadi sebagian besar pasangan
aplikasi impresi pengguna
tidak akan pernah terjadi
dalam data yang Anda latih.
Jadi bagaimana Anda menyamaratakan
pasangan tak terlihat

Japanese: 
Priceline や Kayak 以外のアプリに
実際はどう一般化するのでしょう？
幅広の線形モデルでやれる１つの方法は
アプリのカテゴリのような 
もっと具体的でない特徴を追加することです
例えば交差を追加する場合
インストールアプリのカテゴリが旅行で
インプレッションアプリの
カテゴリも旅行の場合
ユーザーがそれをインストールする可能性は？
これを学習したら それを
Priceline や Kayak だけではなく
他の旅行アプリにも適用できます
さて もうお分かりでしょうが
問題は
特徴空間は非常に広く
非常にまばらだということですね
何百万のアプリがあり
何十億というユーザーがいます
アプリでアプリを横断すると
百万掛ける百万倍で
これは1兆の組み合わせです
したがってこれらのユーザー
インプレッションアプリのペアのほとんどは
学習データに決して現れません
では 実際にこれらの見えないペアを

Chinese: 
而不使用太多的手动特征工程
像我们在上一张幻灯片上做的那样
请记住，在很多情况下
人类很难在第一时间内想出这些
好的，高级的，非具象的特征交叉
想要自动归纳出更多的一种方法
就是使用有一层致密嵌入层的深度神经网络
让我们从底层开始
你还是有最基础的二进制特征
也就是用户安装了Priceline
现在的印象应用是Yelp
假如在人们安装了Priceline之后
你从未看到过Yelp
因此，你不能记住
你可以用来训练的一种方法是
对每一个独特的特征ID
你可以查看密集嵌入向量
这些都被随机的初始化
所以一开始，你的预测会非常的糟糕

English: 
pairs without doing a lot of
manual feature engineering
that we did in the
last slide, right?
And remember, in many cases,
it might be hard for humans
to come up with these
really good high level,
less specific feature
crosses in the first place.
So one way to solve this to
generalize more automatically
is to use Deep Neural Network
with a dense embedding layer.
So starting from the
bottom, you still
have your base
binarized features,
which is, user
install Priceline,
and let's say, impression
app is Yelp now.
And let's say,
you've never shown--
you happen to never have
shown Yelp after people have
installed Priceline,
so you cannot memorize.
Now one way you can train this
is for each unique feature ID
you look up dense
embedding vector
and these are
initialized randomly
so initially you will
make very poor predictions

Korean: 
지난 슬라이드에서 했던 번거로운 작업들을
최소화시키면서 말이죠
대다수의 경우에, 사람이
이렇게 훌륭하게 높은 수준이면서
국한되지 않은 특성을
처음부터 교차시키는 게 굉장히 힘듭니다
이를 해결할 수 있는 한가지 방법은
더욱 자동적으로 생성시키는 것입니다
밀집된 삽입 레이어로
심층신경망을 사용하는 것이죠
아래에서부터 시작하는데요
이진법에 기반을 두는 것은 같습니다
사용자가 프라이스라인을 설치했고
옐프가 인상 앱이라고 하겠습니다
그리고 프라이스 라인을 설치한 사람들에게
옐프를 보여주지 않았다면 기억할 수 없겠죠
이것을 훈련시키는 방법 중
하나는 각각의 특성 ID에
밀집된 삽입 벡터를 찾는 것입니다
이것들은 무작위로 시작되는데요
처음에는 아주 형편없는 예측을 합니다

Spanish: 
sin hacer mucha ingeniería
del manual característica
que vimos en la última diapositiva?
Recuerde que, en muchos casos
podría ser difícil para los humanos
llegar a estos cruces 
de características menos específicas
tan buenos y de alto nivel, para comenzar.
Una manera de resolverlo,
para generalizar de forma más automática
es el uso de redes neuronales profundas
con una incorporación de capa densa.
Comenzando desde la parte inferior
todavía tiene
sus características de base binaria,
que es Priceline instalado por el usuario
y digamos que ahora
la app de impresión es Yelp.
Digamos que nunca ha mostrado Yelp
después de los que instalaron Priceline
que usted no puede memorizar.
Una forma de practicar esto es,
para cada característica de ID única
busca un vector de incorporación densa
y esos se inicializan al azar.
Así que va a hacer inicialmente
una predicción muy pobre

Portuguese: 
sem fazer muita
engenharia manual de característica
como fizemos no último slide?
E lembre-se: em muitos casos,
talvez seja difícil para os humanos
criar esses cruzamentos
de características menos específicas,
tão bons e de alto nível, de todo modo.
Uma forma generalizar
mais automaticamente
é usando redes neurais profundas
com uma camada de incorporação densa.
Então, começando pela parte inferior,
você ainda tem suas características
básicas binarizadas,
que é o Priceline instalado pelo usuário,
e digamos que, agora,
o app de impressão seja o Yelp.
Digamos que você nunca 
tenha mostrado o Yelp
após as pessoas instalarem o Priceline,
então não pode memorizar.
Uma forma de praticar isto é,
para cada ID de característica única
você busca um vetor de incorporação denso
e esses se iniciam aleatoriamente.
Então você fará inicialmente
uma previsão bem fraca.

Indonesian: 
tanpa melakukan rekayasa fitur manual
yang kita lakukan di slide terakhir?
Dan ingat, dalam banyak kasus, akan sulit
bagi manusia pada awalnya untuk keluarkan
silangan fitur kurang spesifik
yang sangat baik dan tingkat tinggi ini.
Jadi salah satu cara
menyamaratakan secara otomatis
ialah menggunakan Deep Neural Network
dengan dense embedding layer.
Jadi mulai dari bawah
Anda masih memiliki fitur berbasis biner
yang dipasang pengguna Priceline
dan katakanlah aplikasi impresi
saat ini adalah Yelp.
Dan contohnya Anda belum pernah 
menampilkan Yelp
pada orang yang memasang Priceline,
sehingga Anda tidak dapat menghafalnya.
Salah satu cara Anda dapat latih ini,
untuk setiap fitur ID unik
Anda dapat mencari vektor dense embedding
dan ini diawali secara acak.
Jadi awalnya Anda akan membuat
prediksi yang lemah

Japanese: 
さっきのスライドでやったような
手動の特徴選択を沢山行わずに
どう一般化するのでしょう？
そもそも 多くの場合人間には難しく
これらの本当に良い高レベルの 
具体的でない特徴交差を出せないでしょう
したがって これを解決し
もっと自動的に一般化するためには
高密度埋め込み層を有する深層の
ニューラルネットワークを使用することです
だから下から始めると
まだ２値のベースフィーチャーがあり
それはユーザーが
インストールした Priceline で
今インプレッションアプリが Yelp で
Priceline をインストールした人の後で
Yelp を見せたことがないとしましょう
だから記憶できません
これを訓練できる方法の１つは
一意のフィーチャー ID ごとに
密な埋め込みベクトルを調べます
これらはランダムに初期化されます
だから当初はあなたは
非常に貧弱な予測を得るでしょう

Chinese: 
然后你可以将你预测的结果
与真实的标签做比较
然后你就会开始调整你的嵌入
这样你的预测就会越来越准确
时间久了，嵌入就会变得更像
自动提取的特征，高级的特征
并且可以很好的描述这些基本的特征
在这基础上加上隐藏层
你现在就可以自动学习
这些基础特征间复杂的互动
现在，我们已经讨论过广度和深度学习
那么，什么时候广度比深度要好
什么时候深度比广度好呢？
我们可以来看一下交通模型
在左边，使用广度模型
你基本上是学习一个矩阵
来记住哪个用户安装的应用和印象应用的组合
与安装相关联，哪一对组合没有关联
问题是还有这些问号

Spanish: 
y usted compara el error 
entre su predicción
y la etiqueta Ground Truth
y podrá empezar a ajustar 
sus incorporaciones
para predecir cada vez mejor.
Entonces, con el tiempo, 
las incorporaciones actuarán
más como características extraídas 
automáticamente, de alto nivel
que describen muy bien
esas características básicas.
Combinado con las capas
ocultas encima de ella
ahora puede aprender automáticamente
interacciones complejas 
entre estas características básicas.
Hemos hablado de Wide & Deep.
Entonces ¿cuándo es Wide
mucho mejor que Deep y viceversa?
Podemos mirar en los patrones de tráfico.
A la izquierda, usando el modelo amplio
usted está aprendiendo 
una matriz para memorizar.
Qué combinación de app instalada 
por el usuario y app de impresión
se correlacionan 
con la instalación y cuáles no.
El problema es que hay
estos signos de interrogación

Japanese: 
あなたの予測と実際の情報ラベルとの
誤差を比較します
埋め込みの調整を開始すると
予測はだんだん良くなります
だからそのうちに 埋め込みは
もっと自動抽出された機能
高度な機能のように動作して
これらのベースフィーチャーを
とても良く表します
その上の隠れたレイヤーと
組み合わせることで
これらのベースフィーチャー間の複雑な
相互作用を自動的に学習できるようになります
さて ワイドとディープの話をしました
ではワイドがディープより良い時は？
また逆は？
したがってトラフィックパターンを
調べることができます
左側で ワイドモデルを使い
あなたは記憶するために
基本的に行列の学習をするのですが
ユーザーがインストールしたアプリと
インプレッションアプリの組み合わせのどれが
インストールと相関し
どれが相関しないかを覚えます
問題は これらの疑問符ですが

English: 
and you compare the error
between your prediction
and the ground
truth label and you
start adjusting your embedding.
So you predict
better and better.
So over time, the
embeddings will
act more like automatically
extracted features, high level
features, that very well
describe these base features.
So combined with the
hidden layers on top of it,
you can now automatically
learn complex interactions
between e-space features.
Now we've talked about
Wide and talked about Deep.
So when is Wide better
than Deep and vice versa?
So we can look into
the traffic patterns.
So on the left using
the Wide Model,
you're basically learning a
matrix to memorize which user
install app and impression app
combinations correlates with
install and which one doesn't.

Portuguese: 
Você compara o erro entre a sua previsão
e a etiqueta Ground Truth
e começará a ajustar suas incorporações.
Então sua previsão ficará cada vez melhor.
Então, com o tempo, 
as incorporações agirão
mais como características extraídas
automaticamente, de alto nível,
que descrevem muito bem
essas características básicas.
Combinado com as camadas ocultas
que estão acima,
agora você pode aprender automaticamente
interações complexas
entre essas características básicas.
Falamos sobre Wide e sobre Deep.
Então quando Wide é melhor
do que Deep e vice-versa?
Podemos observar
os padrões de tráfego.
À esquerda, usando o modelo amplo
você está basicamente aprendendo
uma matriz para memorizar
que combinações de app instalado
pelo usuário e app de impressão
correlacionam-se com instalar
e quais não se correlacionam.
O problema é que há
esses pontos de interrogação,

Indonesian: 
dan Anda membandingkan kesalahan
antara prediksi Anda
dan label ground truth
dan Anda akan menyesuaikan embedding Anda
sehingga prediksi Anda akan semakin benar.
Jadi dari waktu ke waktu,
embedding ini akan berperan
lebih seperti fitur diekstrak,
fitur tingkat tinggi
yang menguraikan fitur dasar tersebut
dengan baik.
Dikombinasikan dengan lapisan tersembunyi
di atasnya, saat ini Anda dapat
secara otomatis mempelajari interaksi
yang kompleks antara fitur dasar tersebut.
Tadi kita sudah membahas wide dan deep.
Jadi kapan wide lebih baik
dari deep dan sebaliknya?
Kita bisa lihat dalam pola kunjungan.
Di sebelah kiri menggunakan model wide
pada dasarnya Anda mempelajari
matriks untuk menghafal
mana aplikasi yang dipasang pengguna
dan kombinasi aplikasi impresi
yang berkorelasi dengan pemasangan,
dan mana yang bukan.
Masalahnya adalah hadirnya tanda tanya ini

Korean: 
그리고 예측 사이에 오류들을 비교하고
점차적으로 보완된 결과가 나오게 되고
점점 값을 조정해 나가면 되는 것입니다
예측 값이 더 나아질 수 있게요
시간이 갈수록 삽입된 것이
조금 더 자동적으로 기본적인 
특성들을 매우 잘 묘사하는
높은 수준의 특성들을 추출합니다
맨 위의 숨겨진 층과 결합하여, 이제
기본 특성의 복잡한 상호 작용을
자동적으로 학습할 수 있습니다
넓고 깊은 것에 대해 이야기했습니다
언제 넓은 것이 깊은 것보다 낫고
깊은 것이 넓은 것보다 나을까요?
트래픽 패턴에 대해 살펴보도록 하겠습니다
좌측을 보시면 와이드 모델을
사용하고 있습니다
기억을 위한 행렬을 배우시는 겁니다
사용자가 설치한 앱과 인상 앱의 조합이
설치와 연관되어 있고
그렇지 않은지를 말입니다
문제는 이 물음표들입니다

Korean: 
훈련할 데이터가 없다는 것이죠
행과 열을 보면 아시겠지만
활용할 수 있는 반복적이고
비슷한 구조들이 많이 있습니다
이 모든 앱들을
오른쪽에 있는 낮은 차원의
삽입 공간에 배치하면
비슷한 앱들이 더 가까이 배치되는 것을
보실 수 있으실 겁니다
이제는 삽입 공간에 있는 모든 앱에서
예측을 일반화할 수 있습니다
그리고 왼쪽에 있는 가설적인 예시에는
22가지의 플로트와 숫자가 필요합니다
이 관계를 기억하려면 말이죠
하지만, 오른쪽 예에는
삽입 값들을 저장하기 위해
20가지의 변수만 있으면 됩니다
더 나은 정보를
나타낼 수 있음에도 불구하고
더 적은 수의 매개 변수가 필요하죠
데이터의 구조를 
잘 활용하고 있다는 뜻이지요

Chinese: 
也就是我们没有数据来做训练
如果你注意到行和列
有很多你可以利用的重复或类似的结构
如果你将这些所有的应用
在右边画入一个低维度的嵌入空间
你可能会有一些类似的应用
彼此非常的接近
在这个嵌入空间中
现在你就可以将你的预测泛化到
嵌入空间中的任何应用上
在这个假设的例子中
在左边，你需要22个浮点数
来记住这些互动
在右边，你只需要20个浮点数来储存嵌入
来呈现相同的，或是更多的信息
使用更少的参量
也就是说你更好的利用了数据结构

Spanish: 
que significa 
que no hay datos para entrenar.
Por lo tanto, si se da cuenta
en las filas y columnas
hay muchas estructuras repetidas
o similares que puede aprovechar
por lo que si mapea todas estas apps
en un espacio de incorporación
de dimensión inferior, a la derecha
puede que tenga apps similares
que estén más cerca la una de la otra
en el espacio de incorporación.
Ahora puede generalizar su predicción
a cualquier app
en el espacio de incorporación.
En este ejemplo hipotético
a la izquierda, necesitará
22 números flotantes
para memorizar estas interacciones,
mientras que a la derecha.
solo necesita 20 flotantes
para almacenar las incorporaciones
pudiendo representar 
la misma información o incluso más rica
usando menor número de parámetros
lo que significa que está aprovechando
mejor la estructura de los datos.

Japanese: 
訓練するデータがないという意味です
お気づきでしょうが 行と列に
利用できる繰り返しや類似した構造が
たくさんありますね
これらすべてのアプリを
下側の埋め込みスペースにマップすると
右側では
類似アプリが埋め込みスペース内で
お互いに近くなるようにできます
そうして今度はあなたの予測を
埋め込みスペース内の任意のアプリに
一般化することができます
そして左側のこの仮説的な例では
これらの相互作用を記憶する為
22 の浮動小数点数が必要です
一方右側では
埋め込みを格納するために
必要なのは 20 個の浮動小数点だけで
少ない数のパラメータを使用して
同じか より豊富な情報を表現でき
データの構造をより良く
活用していることを意味します

Portuguese: 
o que significa
que não há dados para treinar.
Então, se você perceber, 
nas linhas e colunas,
há muitas estruturas repetidas
e semelhantes que você pode melhorar.
Então se você mapear todos estes apps
em um espaço de incorporação
de dimensão inferior, à direita,
talvez tenha estes apps semelhantes
mais perto uns dos outros
no espaço de incorporação.
Então você pode generalizar
a sua previsão agora
para qualquer app
no espaço de incorporação.
E neste exemplo hipotético,
na esquerda, você precisaria
de 22 números flutuantes
para memorizar essas interações, 
enquanto que à direita
você só precisa de 20 flutuantes
para armazenar as incorporações,
podendo representar a mesma 
informação ou até uma mais rica,
usando um número menor de parâmetros,
o que significa que você está melhorando
a estrutura dos dados.

Indonesian: 
yang artinya ada data yang tidak dilatih.
Jadi, jika Anda perhatikan
dalam baris dan kolom
ada banyak pengulangan
atau struktur serupa yang berpengaruh
jadi jika Anda memetakan semua aplikasi ini
ke ruang dimensi embedding
yang lebih rendah, di sebelah kanan
Anda mungkin memiliki aplikasi serupa
yang dekat satu sama lain
di ruang embedding.
Jadi sekarang Anda
dapat menyamaratakan prediksi Anda
ke setiap aplikasi dalam ruang embedding.
Dan dalam contoh hipotetis ini
di sebelah kiri, Anda memerlukan
22 bidang, angka
untuk menghafal interaksi ini,
sedangkan di sebelah kanan
Anda hanya perlu 20 bidang
untuk menyimpan embedding
dan mampu mewakili hal yang sama,
bahkan lebih kaya informasi
dengan menggunakan parameter
yang lebih sedikit
berarti Anda memanfaatkan
struktur data dengan lebih baik.

English: 
The problem is there are these
question marks which means
there are no data to train on.
So if you notice that
in the rows and columns
there are a lot of repetitive
or similar structures
you can leverage.
So if you map all of
these apps onto a lower
dimensional embedding
space, on the right,
you might have that
similar apps that
will be closer to each other
in the embedding space.
So we can now generalize
your prediction
to any app in the
embedding space, right?
And in this hypothetical
example on the left,
you would need 22 floats numbers
to memorize these interactions,
whereas on the right,
you only need 20
floats to store the embeddings.
Being able to represent
the same or even richer
information using less number
of parameters, meaning you
are leveraging the structure
of the data better.
Now, on the other
hand, there are

Japanese: 
さて 一方ユーザーの特定の好みが
たくさんあります
ニッチアプリとかアプリトレーニング
データの例外ですね
たとえば 
Sheldon Cooper Bazinga アプリは
ユーザーが Big Bang Theory という
ショーを見たことがない限り
おそらくお薦めの意味がないでしょう
これらのニッチの
組み合わせは色々あります
記憶にワイドモデルを使うならば
この仮説的な例では
この対角行列を覚える
５つの方法だけ使えば済みます
一方 まだ低次元の埋め込みを
学ぼうとするなら
やはり 20 の浮動小数点が必要ですが
学習者はこれらの無関係なアプリを
互いから離そうとするのですが
混雑した低次元の埋め込み空間では
そうするのは非常に難しいのです
そうして起こるのが誤って
関連性の低いアプリをユーザーに
お薦めするわけです

Indonesian: 
Di sisi lain, banyak selera pengguna
tertentu, aplikasi berfokus
atau hanya pengecualian
di aplikasi pelatihan data.
Misalnya aplikasi Sheldon Cooper Bazinga.
Mungkin tidak masuk akal
untuk direkomendasi
kecuali pengguna pernah menonton
acara Big Bang Theory.
Jadi semuanya punya kombinasi terfokus
dan jika kita menggunakan model wide
untuk menghafal
Anda hanya dapat menggunakan lima cara
menghafal matriks diagonal
dalam contoh hipotetis ini.
Sedangkan jika Anda mencoba
mempelajari embedding dimensi rendah
maka Anda hanya butuh 20 bidang
dan sekarang pembelajar akan berusaha keras
untuk memisahkan aplikasi
tidak relevan ini dari satu sama lain
tapi sulit dilakukan di ruang embedding
penuh sesak dan berdimensi rendah.
Yang akan terjadi, tanpa sengaja
Anda akan merekomendasikan
aplikasi yang kurang relevan ke pengguna

Portuguese: 
Por outro lado, há muitas
preferências específicas dos usuários,
apps de nicho ou apenas exceções
nos dados de treinamento de app.
Então, por exemplo,
um app Sheldon Cooper Bazinga,
provavelmente não faria sentido 
recomendá-lo,
a não ser que o usuário tenha assistido
à série Big Bang Theory.
Então existe todas essas
combinações de nicho.
E se usarmos um modelo amplo 
para memorizar,
você pode usar apenas cinco formas
para memorizar esta matriz diagonal,
neste exemplo hipotético.
Por outro lado, se você tentar aprender
uma incorporação de baixa dimensão,
então você ainda precisará
de 20 flutuantes.
E agora o aprendiz vai se esforçar muito
para empurrar esses apps irrelevantes
uns para longe dos outros,
mas vai achar muito difícil fazê-lo
em um espaço de incorporação lotado
e de baixa dimensão.
E o que acontecerá é que você
acidentalmente recomendará
apps menos relevantes ao usuário.

Spanish: 
Por otra parte, hay un muchas
preferencias específicas de los usuarios
apps de nicho o solo excepciones
en los datos de entrenamiento de la app.
Por ejemplo, una app
Sheldon Cooper Bazinga
probablemente no tendría 
sentido recomendarla
a menos que el usuario 
haya visto la serie Big Bang Theory.
Así que hay todas estas 
combinaciones de nicho
y si usamos 
un modelo amplio para memorizar
solo puede utilizar cinco maneras
para memorizar esta matriz diagonal
en este ejemplo hipotético .
Si usted todavía intenta aprender 
una incorporación de baja dimensión
entonces todavía necesitará 20 flotantes
y ahora el aprendiz se esforzará
para empujar estas apps
irrelevantes lejos el uno del otro
aunque es muy difícil hacerlo
en una zona de incorporación
muy concurrida y de baja dimensión .
Lo que sucederá es que usted 
recomendará accidentalmente
apps menos relevantes 
al usuario y eso es en parte

Chinese: 
另一方面，用户会有很多独特的品味
利基应用，或者仅仅是应用训练数据中的例外
比如一个Sheldon Cooper Bazinga应用
可能就不适合被推荐
除非用户看过生活大爆炸
所以就会有很多这样的利基组合
如果我们用宽模型来记忆
你可以使用五种方法来记忆
在这个例子中的对角矩阵
然而，如果你仍想要使用一个低维度嵌入
那么你就仍然需要使用20个浮点数
现在学习者就会努力
让这些无关的应用远离彼此
但是在一个拥挤的，低维度的嵌入空间
要做到这一点非常不易
也就是说，你可能会推荐

Korean: 
반면에, 더 구체적인 사용자들의 취향들과
특화 앱이나 시범 데이터의 
예외들이 많이 있습니다
예를 들어, 쉘든 쿠퍼 바징가 앱은
추천하기에는 알맞지 않을 것입니다
사용자가 '빅뱅 이론'을
보지 않은 이상은 말이죠
모든 경우의 수들이 존재하고
사용자들이 광범위한 모델을 기억하려고 한다면
대각 행렬에서 다섯 가지 
방법만 사용하면 됩니다
가설적 예시에서 말이죠
그래도 낮은 차원에
삽입하는 방법을 배우려고 하신다면
20가지의 변수가 필요하실 것입니다
그리고 관련 없는 앱들을 서로에게서
떨어뜨리기 위해 노력을 하셔야 할 것입니다
하지만 복잡한 낮은 차원의 삽입 공간에서는
아주 어려운 일이죠
그리고 실수로 
사용자들에게 덜 연관된 앱들을

English: 
a lot of specific user tastes,
niche apps, or just exceptions
in the app training data.
So for example, a Sheldon
Cooper Bazinka app probably
wouldn't make sense to recommend
unless the user has seen
the show, "Big Bang Theory."
So there are all these
kind of niche combinations.
And if we use a Wide Model
to memorize you can just
use five ways to memorize
this diagonal matrix
in this hypothetical
example, right?
Whereas, if you
still try to learn
a low dimensional
embedding, then you
will still need 20 floats.
And now the learner
will try very
hard to push these irrelevant
apps away from each other,
but find it very hard to do so
in a crowded low dimensional
embedding space.
And what will happen is you
will accidentally recommend
less relevant apps to the user.

Portuguese: 
Isso acontece, em parte,
porque se tiver uma matriz esparsa
de classificação elevada,
como a matriz diagonal à esquerda,
é teoricamente muito difícil ou impossível
encontrar essas incorporações
de baixa dimensão
que reconstruirão a da esquerda.
memorização generalização
relevância diversidade
Nossa ideia é muito simples.
Por que não combinar 
o poder de Wide e de Deep?
Não só obtemos a combinação
de memorização e de generalização,
e em muitos sistemas de recomendação
e problemas de classificação de busca
frequentemente queremos equilibrar
a relevância versus a diversidade,
assim satisfazemos
as necessidades dos usuários.
Então foi o que fizemos.
Treinamos o Wide linear model
e a Deep neural network,
simultaneamente, fazendo a retropropagação
para ambos os lados,
ao mesmo tempo, no treinamento.
Nós os conectamos 
à mesma função de perda
e fizemos retropropagação
para ambos os lados.

Japanese: 
その理由の一部は
左の対角行列のような
上位のスパース行列がある場合は
左を再構成するこれらの
低次元埋め込みを見つけるのは
理論的には非常に難しいか
不可能だからです
だから私たちの考えはとてもシンプルです
ワイドとディープを組み合わせたら
いいじゃないかとね
私たちは記憶化と一般化の
組み合わせを得るだけでなく
多くのお薦めシステムや
検索ランク付け問題では
ユーザーのニーズを満たせるように
関連性と多様性とのバランスを
とることがよくありますが
まさにそれをしたのです
幅広線形モデルと
深層ニューラルネットワークを共同訓練し
同時に両方に逆伝播します
トレーニングで同時にやります
そこで それらを同じ損失関数に接続して
両方に誤差逆伝播させます

Chinese: 
一些不那么相关的应用给用户
一方面是因为如果你有一个高级稀疏矩阵
比如类似左边的对角矩阵
理论上非常的难，甚至是不可能
找到这样的低维度嵌入
来重建左方的模型
因此我们的想法非常的简单
为什么不简单的将广度和深度结合起来呢？
这样我们不仅仅将记忆和归纳结合
在很多推荐系统和搜索排名的问题上
我们经常想要平衡相关性与多样性
来满足用户的需求
这就是我们所做的
我们同时训练广泛线性模型和深层神经网络
通过在训练中同时
反向传播到两边
我们将它们与相同的损失函数相连
同时支持两边

Spanish: 
porque si usted tiene 
una matriz dispersa de alto rango
como la matriz diagonal a la izquierda
es teóricamente muy difícil o imposible
encontrar esas incorporaciones
de baja dimensión
que reconstruiría la izquierda.
Así que nuestra idea es muy simple.
¿Por qué no combinar
el poder de Wide & Deep?
Así, no solo obtenemos la combinación
de memorización y generalización
y en muchos sistemas de recomendación
y problemas de clasificación de búsqueda
a menudo queremos equilibrar
la relevancia frente a la diversidad
así satisfacemos 
las necesidades de nuestros usuarios.
Entonces eso es lo que hicimos.
Ensamblamos conjuntamente
Wide linear model y Deep neural network
simultáneamente, 
mediante la retropropagación
a ambos lados al mismo tiempo, 
en el entrenamiento..
Entonces los conectamos 
a la misma función de pérdida
e hicimos retropropagación a ambos lados.

Indonesian: 
sebab jika Anda punya matriks jarang
dengan peringkat tinggi
seperti matriks diagonal di sebelah kiri
secara teoretis sangat sulit,
bahkan tidak mungkin
untuk menemukan embedding dimensi rendah
yang akan merekonstruksi sebelah kiri.
Jadi, ide kami sangat sederhana.
Mengapa tidak menggabungkan
kehebatan wide dan deep?
Jadi kita tidak hanya mendapatkan
kombinasi penghafalan dan penyamarataan
dalam berbagai sistem rekomendasi
dan masalah peringkat penelusuran.
Seringkali kita ingin menyeimbangkan
relevansi terhadap keanekaragaman juga
jadi kami memenuhi kebutuhan pengguna.
Jadi itulan yang kami lakukan.
Kami melatih model linear wide
dan Deep Neural Network bersama
secara serempak, dan disebarkan kembali
untuk kedua sisi pada saat
yang bersamaan, dalam pelatihan.
Jadi kami menghubungkan mereka
ke dalam loss function yang sama
dan disebarkan kembali ke dua sisi.

Korean: 
추천하게 되는 사태가 발생할 수 있습니다
이것은 부분적으로
높은 순위의 행렬이 부족하기 때문입니다
왼쪽의 대각 행렬과 같은 것들이요
왼쪽을 재현할 수 있는
낮은 차원의 삽입을 찾는 것은
이론적으로 아주 어렵거나 불가능합니다
저희의 아이디어는 아주 간단합니다
"넓은 것과 깊은 것의 
힘을 합하는 것이 어떨까?"
암기와 일반화를 결합할 뿐만 아니라
추천 시스템도 병합할 수 있으며
검색 순위의 문제도
해결할 수 있게 되는 것이지요
사용자의 필요에 의해 
관련성과 다양성의 균형을 맞추어
만족도를 높이는 것도 가능해집니다
저희는 그렇게 해냈습니다
넓은 선형 모델과
심층신경망을 공동으로 훈련했고
동시에 양쪽에서
훈련하는 동안 역전파를 거치도록 했습니다
그래서 양측에서 같은 손실 함수와
역전파를 연결했습니다

English: 
And that's partly because if
you have a high rank sparse
matrix like the diagonal
matrix on the left
is, theoretically,
very hard or impossible
to find these lower
dimensional embedding that
will reconstruct the left.
OK.
So our idea is very simple.
Why not just combine the
power of Wide and Deep, right?
So we not only get the
combination of memorization
and generalization, and in
many recommendation systems
and search ranking
problems we often want
to balance relevance
versus diversity,
as well, so we satisfy
our users need.
So that's what we did.
We jointly train Wide Linear
Model and Deep Neural Network
simultaneously by back
propagating to both sides
at the same time in training.
So we connect them to the same
last function and backdrop
to both sides.

Chinese: 
你可能注意到
这与普通的组合模型很相似
但是在组合模型中
你会单独训练两种模型
而彼此没有联系
只有在特定的时间
你会将它们的预测相结合
我们两种方法都试过
我们发现使用联合训练
由于在训练时两种模型相互联系
广泛模型只需要在
深度模型没法学习好的时候被使用
反之亦然
所以你经常会得到更小的模型
然而如果你训练一个组合模型
两种模型都会相当大并可以自给自足
把它们组合在一起会做出很好的预测
当然我们也积极的
比较两种模型的表现
我们也很乐意听到你的发现

Korean: 
아마도 눈치채셨겠지만
일반적인 집합 모델과 조금 비슷합니다
하지만 집합 모델에서는 
2가지의 모델들에 대해 알지 못하는
상태로 따로 훈련하고
예측할 때만 두 예측을 합합니다
저희는 두 가지를 모두 시도해 본 후
공동으로 훈련하는 것이
훈련 기간 동안 서로를 알게 되기 때문에
와이드 모델과 딥 모델이
서로 하지 못하는 것들을
증가시키기만 한다는 것을 알게 되었습니다
그래서 훨씬 작은 모델이 나오기도 했는데
집합으로 훈련했을 경우에는
두 모델이 꽤 컸고 자급자족이 가능했습니다
둘의 집합이 더 좋은 예측을
해낼 수 있다는 것입니다
그리고 저희는 물론 둘의 성과를
활발히 비교하고 있습니다
그리고 여러분이 발견하신 것에
대해서도 듣고 싶습니다

English: 
Now you might notice
that this is somewhat
similar to an Ensemble Model.
But in the Ensemble Model
you would train two models
separately without
knowing each other.
And only at prediction
time you would combine
their predictions, right?
So we've been trying both.
And what we've observe is
that doing a joint training,
because they know each
other in the training time,
the Wide Model only needs to
augment what the Deep Model
cannot learn well,
and vice versa.
So you often get a
much smaller model,
whereas if you train
ensemble, both models
need to be fairly large
and self-sufficient models
so their ensemble will
make a good prediction.
And we're definitely
actively working
on comparing the
performance of both.
And we're happy to here
what you find as well.

Portuguese: 
É possível perceber que isto é semelhante
a um modelo de conjunto comum,
mas no modelo de conjunto
você treinaria dois modelos separadamente,
sem conhecer um ao outro,
e somente no tempo da previsão
você combinaria suas previsões.
Temos tentado ambos e o que observamos
é que ao fazer um treinamento em conjunto,
porque eles se conhecem
no tempo de treinamento,
o Wide model só precisa ampliar
o que o Deep model não pode aprender bem.
E vice-versa.
Então obtém-se frequentemente
um modelo bem menor,
enquanto que, se você treinar um conjunto,
ambos os modelos precisam ser
bem grandes e autossuficientes
para que o conjunto deles
faça uma boa previsão.
E, sem dúvida alguma,
estamos trabalhando ativamente
na comparação do desempenho de ambos
e ficaremos felizes em ouvir
as suas descobertas também.

Indonesian: 
Anda mungkin melihat bahwa ini agak mirip
dengan model Ensemble umum
tapi dalam model Ensemble,
Anda akan melatih dua model terpisah
tanpa tahu satu sama lain
dan hanya saat prediksi, Anda 
akan menggabungkan prediksi mereka.
Jadi kami sudah mencoba keduanya,
dan yang kami amati adalah
melakukan pelatihan bersama,
karena mereka mengenal satu sama lain
pada saat pelatihan,
model wide hanya perlu menambah
apa yang model deep tidak dapat pelajari
dengan baik, begitupun sebaliknya.
Jadi Anda akan sering mendapatkan
model yang jauh lebih kecil
sedangkan jika Anda melatih model ensemble
kedua model harus cukup besar dan mandiri
sehingga Ensemble mereka
akan membuat prediksi yang baik.
Dan kami pastinya bekerja aktif
dengan membandingkan kinerja keduanya
dan kami senang mendengar
apa yang Anda temukan.

Japanese: 
これは共通アンサンブルモデルに
やや似ていると気付くかもしれませんが
アンサンブルモデルでは
２つのモデルを別々に訓練して
お互いを知らない訳です
予測時にのみ
それらの予測を組み合わせます
だから両方を試してきて
私たちが観察したことは
共同訓練をしていることで
両方はトレーニング時に
お互いを知っているので
ワイドモデルはディープモデルが
うまく学習できないものを
拡張するだけでよく
またはその逆ですね
だからあなたはしばしば
はるかに小さなモデルでいいのです
一方アンサンブルを訓練する場合は
アンサンブルが良い予測をするには
どちらのモデルもかなり大きく
自己完結型モデルでなければなりません
そして私たちは絶対積極的に
両者の性能比較に取り組んでいきます
あなたが見つけたものを
聞いてもうれしいです

Spanish: 
Usted puede notar que eso es algo similar
a un modelo de conjunto común
pero en el modelo de conjunto
entrenaría dos modelos por separado
sin conocerse
y solo en el tiempo de predicción
usted combinará sus predicciones.
Hemos estado intentando 
ambos y lo que observamos
es que haciendo un entrenamiento conjunto
porque se conocen
en el tiempo de entrenamiento
el wide model solo necesita aumentar
lo que el deep model
no puede aprender bien y viceversa.
A menudo se obtiene 
un modelo mucho más pequeño
mientras que si usted 
entrena a un conjunto
los dos modelos deben ser 
bastante grandes y autosuficientes
entonces su conjunto
hará una buena predicción
y definitivamente estamos 
trabajando activamente
comparando el desempeño de ambos
y nos complace saber
lo que también encontró usted.

Chinese: 
这就是我们最后的模型
会被用于
Google Play 应用推荐
在左边是一个三层的神经网络
在下面有一些连续的特征
以及用于训练这个模型的分类特征
这回因交叉产品转换而增强
一个用户安装应用
和印象应用的交叉
两个都会被连接到联合训练的物流损失
我们之前已经在文章中发表过这些结果
我们在Google Play做在线实验
我们发现宽度&广度模型
相对于宽度模型有4%的提高
这是一个非常成熟的，优化的
先生成的，已经被使用的模型
我们也将它与深度模型部分做比较
它有1%的提高

Portuguese: 
Isto é o que conseguimos ao final,
que foi lançado na produção
das recomendações de apps do Google Play.
É uma uma rede neural
de três camadas, à esquerda,
e mais abaixo, temos
as características contínuas
e características categóricas
que influenciam o modelo.
E é ampliado por uma transformação
de produto cruzado,
um cruzamento entre o app instalado
pelo usuário e o app de impressão.
Ambos estão conectados à logística
de perda para treinamento conjunto.
Publicamos estes resultados
em um artigo, anteriormente.
Realizamos experiências on-line 
no Google Play
e vimos que o modelo Wide & Deep
teve um ganho significativo de 4%
em relação a nosso Wide model,
que é um modelo bem aperfeiçoado,
altamente otimizado,
de geração prévia que foi usado.
Também o comparamos à parte Deep
do modelo Wide & Deep
e ele tem 1% de ganho sobre ela.

Spanish: 
Esto es lo que conseguimos finalmente
que se lanzó dentro de la producción
de las recomendaciones 
de las apps de Google Play.
Es una red neuronal 
de tres capas, a la izquierda
debajo tiene sus características continuas
y características categóricas
que se alimentan en el modelo.
Esto está aumentado
por una transformación de producto cruzado
un cruce entre la app
instalada por el usuario
y la app de impresión
y ambos están conectados a la pérdida 
logística para la formación conjunta.
Hemos publicado 
estos resultados en un informe.
Hemos realizado experimentos 
en línea en Google Play
y hemos visto que el modelo Wide & Deep
tuvo una ganancia significativa 
del 4 % en nuestro Wide Model
que es un modelo muy maduro, 
altamente optimizado
de generación previa que se ha utilizado.
También lo comparamos
con la parte profunda
del modelo Wide & Deep
y tiene un 1% de ganancia sobre ella

Japanese: 
結局こういう風になりました
それが Google Playアプリの
お薦め情報の実稼働に投入されました
左側は３層のニューラルネットワークで
下にはあなたの連続特徴と
モデルに組み込まれた
カテゴリ特徴があります
そしてこれは 製品交差の変換によって
増強されています
ユーザーがインストールしたアプリと
インプレッションアプリを交差して
両者とも合同訓練の
ロジスティック損失につながっています
以前これらの結果を
論文に掲載しました
私たちは Google Play で
オンライン実験を実施して
そのワイド＆ディープモデルが
私たちのワイドモデルより
4% の大幅な利得があると分かり
これは使われてきて
非常に成熟した
高度に最適化された前世代のモデルです
またワイド＆ディープモデルの
深層部分と比較すると
その上 1% の利得があり

Korean: 
이 연구가 결과적으로
Google Play 앱의 추천 기능을
탄생시킨 것입니다
좌측은 3단 신경망입니다
그 아래는 모델에 반영되는 지속적인 특성들과
단정적인 특정들을 보실 수 있습니다
그리고 벡터적 변화에 의해 증가합니다
사용자가 설치한 앱과
인상 앱을 교차하는 것이지요
이 둘은 모두 합동훈련의 
로지스틱 손실과 연결되어 있습니다
그리고 저희는 이 결과물을 출판했었죠
Google Play에서 온라인 실험을 했습니다
그리고 와이드 앤 딥 모델에서
와이드 모델의 4% 증가를 보았습니다
지난번 모델에 비해
아주 높은 완성도입니다
그리고 저희는 이것을 와이드 앤 딥 모델의
깊은 쪽과도 비교해 보았습니다
그리고 1%의 이익을 확인했고요

English: 
So this is what
we got eventually
that was launched into the
production of Google Play
apps recommendation.
So it's a three layer
neural networks on the left.
And down below, you have
your continuous feature
and categorical features
that feeds into the model.
And this is augmented by a
cross product transformation,
a cross between the user install
app and the impression app.
And both are connected
to the logistic loss
for joint training.
And we published these results
in the paper, previously.
We ran online experiments
on Google Play.
And we've seen that the Wide and
Deep Model had a significant 4%
gain on our Wide Model, which
is a very mature, highly
optimized, previous generation
model that's been used.
And we also compare it with the
Deep part of the Wide and Deep
Model, and it has a
1% gain on top of it.

Indonesian: 
Jadi inilah yang kami punya
yang diluncurkan ke produksi
dari rekomendasi aplikasi Google Play.
Jadi ini adalah neural network tiga lapis,
di sebelah kiri
dan di bawah adalah fitur terus menerus
dan fitur kategorikal
yang diumpan ke dalam model.
Dan ini ditambah
dengan transformasi lintas-produk
persilangan antara aplikasi yang dipasang
pengguna dan aplikasi impresi
dan keduanya terhubung pada logistic loss
untuk pelatihan bersama.
Dan kami menerbitkan hasil ini
dalam makalah sebelumnya.
Kami melakukan percobaan
secara online di Google Play
dan melihat model Wide & Deep
mengalami peningkatan signifikan 4%
pada model wide kami
yang merupakan model generasi sebelumnya
yang sempurna dan sangat optimal
yang telah digunakan.
Kami juga bandingkan dengan bagian Deep
dari model Wide & Deep
yang mengalami peningkatan 1%

English: 
And that's pretty
significant for Google Play.
Now the good news is all
these you can do today
in about 10 lines of code using
the high level estimator API,
which Martin and others
have talked about.
So all you have to do is, first,
define the features you want
to use in your Wide Models, and
configure the crosses you think
might be useful for memorizing
a lot of combinations.
And the second part,
you define the features
you want to use
in the Deep Model,
and the embedding
configurations.
And finally, define
your model structure,
like, how many hidden layers,
how wide are the hidden layers.
And boom, you can start
training right away.
So I encourage you to go online
and search for Wide and Deep
Learning to learn more
about Wide and Deep

Korean: 
Google Play에게 
꽤 의미 있는 성과였습니다
좋은 소식은 마틴과
다른 사람들이 이야기 한
높은 수준의 에스티메이터 API를 사용하면
약 10줄의 코드로 하실 수 있다는 겁니다
여기에서는 여러분께서
사용하고 싶으신 특성을
와이드 모델에 정의하시면 됩니다
그리고 많은 조합들을 기억하는데 
유용하다고 생각되는
교차 환경을 설정하시면 됩니다
두 번째로는 딥 모델에 사용하실 특성들을
정의하시고 삽입 환경을 선택하세요
마지막으로 모델 구조를 정의하셔야 합니다
숨겨진 층의 개수와 넓이와 같은 것들이죠
그리고 지금 당장 훈련을
시작하실 수 있습니다
인터넷에서 와이드 앤 딥 러닝을 검색하면

Chinese: 
这对于Google Play来说是显著的
好消息是你今天就可以通过
十行编码来实现
通过高级的Estimator API
就如Martin和其他人聊到的那样
你需要做的
首先，定义你想要在广度模型中
使用的特征
配置你觉得可能有用的交叉
来记忆很多的组合
其次，定义你想要在深度模型中使用的特征
以及嵌入配置
最后，定义你的模型结构
比如有多少隐藏层
每一个隐藏层有多宽
好啦！你现在就可以开始训练
因此我鼓励大家上网搜索广度和深度学习

Portuguese: 
Isso é muito significativo
para o Google Play.
A boa notícia é
que você pode fazer tudo hoje
em cerca de dez linhas de código,
usando a API Estimadora de alto nível
que o Martin e outros apresentaram.
Então tudo o que tem a fazer é,
primeiro, definir as características
que deseja usar em seus modelos Wide
e configurar os cruzamentos
que acha que devem ser úteis
para memorizar muitas combinações.
E, na segunda parte, você define
as características que quer usar
no modelo Deep
e as configurações de incorporação.
E, por último, definir
seu modelo de estrutura,
como quantas camadas ocultas 
e quão profundas são essas camadas.
E bum! Você pode começar a treinar agora!
Então, eu...
... eu recomendo que você busque
o Wide & Deep Learning on-line
para aprender sobre Wide & Deep

Spanish: 
y eso es bastante 
significativo para Google Play.
La buena noticia
es que todo lo que puede hacer hoy
en unas diez líneas de código,
usando el estimador API de alto nivel
que Martin y otros han explorado.
Todo lo que tiene que hacer es, primero,
definir las características que desea usar
en sus Wide Models
y configurar los cruces
que cree que podrían ser útiles
para memorizar muchas combinaciones.
y, segunda parte, usted define
las características que desea usar
en el Deep Model,
y las configuraciones de incorporación.
Por último, definir
su modelo de estructura
el número de capas ocultas,
qué profundidad tienen las capas ocultas
y puede comenzar a entrenar ahora.
Así que les animo a que vayan en línea
y que busquen Wide & Deep Learning

Japanese: 
それは Google Play にとって
かなり重要です
さて良いお知らせです
今日皆さんは約 10 行のコードで済みます
高レベル Estimator API を使用して
その API についてマーティンと
他の人が話しましたが
まずあなたのワイドモデルで
使いたい特徴を定義して
多くの組み合わせの記憶に役立つと思う
交差を設定します
次に
ディープモデルで使いたい特徴と
埋め込み設定を定義します
最後にモデル構造を定義します
例えば 隠れたレイヤーの数とか
隠れたレイヤーの幅とかですね
するとすぐにトレーニングを開始できます
だから 是非オンラインに行き
ワイド＆ディープ学習を検索して
私たちが提供するリソースから

Indonesian: 
dan itu cukup signifikan untuk Google Play.
Kabar baiknya adalah
semua ini dapat Anda lakukan hari ini
hanya dalam 10 baris kode,
menggunakan pengukur API tingkat tinggi
yang telah dibahas Martin dan lainnya.
Jadi yang harus Anda lakukan, pertama,
tentukan fitur yang ingin Anda gunakan
dalam model wide Anda
dan atur persilangan
yang Anda pikir akan berguna
untuk menghafal banyak kombinasi.
Bagian kedua, Anda tentukan
fitur yang ingin Anda gunakan
dalam model deep dan atur juga embedding.
Dan terakhir, tentukan struktur model Anda
seperti seberapa banyak dan
seberapa luas lapisan tersembunyi,
dan Anda dapat segera memulai pelatihan.
Jadi, carilah lebih lanjut di situs online
tentang Wide & Deep Learning

Indonesian: 
untuk mempelajari Wide & Deep
dari referensi yang kami sediakan.
Itu telah menjadi sumber terbuka.
Kami juga memiliki pos blog,
makalah, video YouTube
dan juga tutorial TensorFlow
untuk memandu Anda.
Kami rasa itu berguna
sebagai rekomendasi umum
dalam penelusuran dan
masalah pemeringkatan
terutama jika Anda memiliki
input kategorikal yang sedikit
dengan sejumlah nilai fitur unik.
Kami sangat senang
jika Anda bisa menggunakannya
dalam kasus penggunaan lain.
Dan akhirnya, saya pikir kita semua
ingin pelajari lebih luas dan lebih dalam
tentang pembelajaran mesin,
dan mungkin lainnya juga.
Tapi saya pikir kekuatan sebenarnya
ada dalam kata "bersama-sama".
Jadi dalam proyek Wide & Deep
kami membawa dua teknik model
yang cukup berbeda
dalam satu platform terpadu
dan itu menguntungkan
banyak tim produk di Google.
Dengan menjadikannya sumber terbuka
dan berbagi temuan kami

Portuguese: 
com os recursos que oferecemos.
Nós abrimos o código.
Temos postagens em blog,
um artigo, um vídeo no YouTube
e também tutoriais do TensorFlow
para guiá-los neste assunto.
Achamos isso útil
para problemas gerais
de busca de recomendação
e de classificação,
especialmente se você tiver
entradas categóricas esparsas
com um grande número
de valores de características únicas.
Queremos muito saber
se vocês acham isso útil
em outros casos de uso, também.
Por último, acho que todos
queremos aprender
de forma mais ampla e profunda
sobre o aprendizado de máquina
e talvez sobre tudo mais.
Mas acho que o verdadeiro poder
está na palavra juntos.
Assim, no projeto Wide & Deep,
unimos duas técnicas
de modelagem bastante distintas
em uma plataforma unificada
e isso beneficiou muitas equipes
de produto na Google.
E, ao abrir o código e compartilhar
as nossas descobertas,

Japanese: 
ワイド＆ディープについて
詳細を学ぶことをお勧めします
それをオープンソースに
してありますからね
ブログ記事・文書・YouTube 動画
またテンソルフローのチュートリアルを
参照してください
それが一般的なお薦め
検索とランク付けの問題に
役立つと分かりました
特にカテゴリの入力が疎で
ユニークな特徴値が
多数ある場合ですね
他のユースケースでも同様で
それがあなたの役に立ったら
私たちは喜んで学習します
最後に 私たちは皆
機械学習やおそらく他の全てについて
より広くより深く学びたいと思っています
ですが 本当の力は「一緒に」と
いう言葉にあると思います
ワイド＆ディーププロジェクトでは
私たちは２つのかなり異なる
モデリング技術を
1つの統一プラットフォーム上で
まとめました
それは Google の多くの
プロダクトチームに有益でした
そして私たちの発見を
オープンソーシングし共有することによって

Spanish: 
para saber más sobre Wide & Deep
a partir de los recursos que ofrecemos.
Hemos abierto el código.
Tenemos entradas de blog,
artículos, el vídeo de YouTube
y también tutoriales TensorFlow
para ayudarles en este asunto.
Hemos encontrado que es útil
en la búsqueda de recomendación general
y la clasificación problemas
especialmente si usted tiene
entradas categóricas dispersas
con un gran número de valores
de características únicas.
Estamos expectantes
por saber si lo encuentra útil
en otros casos de uso, también.
Por último, creo que todos queremos
aprender de forma más amplia y profunda
sobre el aprendizaje automático,
y tal vez todo lo demás.
Pero creo que el verdadero poder
se encuentra en la palabra juntos.
En el proyecto Wide & Deep
unimos dos técnicas 
de modelado bastante diferentes
en una plataforma unificada
y eso ha beneficiado
a muchos equipos de producto en Google.
Por estar en código abierto
y compartir nuestros hallazgos

Chinese: 
通过我们提供的资源
来学习更多关于广度和深度学习的信息
我们已经将它公开
我们发布了博客，论文，以及YouTube视频
以及TensorFlow教程来教你学习
我们发现它对于生成推荐搜索
和排序问题非常有效
尤其当你有稀疏分类输入
并且有很多独特的特征值
我们也很乐意听到
你们发现它在其它的用例中有用
最后，我想大家都想要更深更广的学习
机器学习，以及其它内容
但我认为真正的力量在于“在一起”
在深度和广度项目中
我们将两个非常不同的模型
放到同一个平台上
这为谷歌的很多产品组都带来了益处
通过分享我们的成果

English: 
from the resources we provide.
So we've open-sourced it.
We have blog post, paper,
a YouTube video, and also
TensorFlow tutorials to
walk you through these.
And we found it useful for
general recommendations,
search, and ranking
problems, especially
if you have sparse categorical
inputs with a large number
of unique feature values.
We're excited to learn if you
find it useful in other use
cases as well.
And finally, I think
we all want to learn
Wider and Deeper about machine
learning and maybe just
everything else.
But I think the true power
lies in the word, together.
So in the Wide and
Deep project we
brought two pretty different
modeling techniques together
on one unified platform.
And that benefited many
product teams at Google.

Korean: 
저희가 제공하는 자료들을
찾으실 수 있으실 겁니다
오픈 소스이니까요
블로그, 문서, YouTube 비디오
그리고 텐서플로의
튜토리얼에서도 자세한 설명을
들으실 수 있습니다
일반적인 추천, 검색 그리고
순위 문제에 유용할 것입니다
흔하지 않은 범주에 속하는 것을
입력해주신다면 정말 감사하겠습니다
다른 경우에서 사용하셨을 때도
유용하셨는가에 대한 의견도 부탁드립니다
마지막으로, 우리는
머신러닝과 관련된 것들에 대해서
더 넓고 깊이 배우기를 원한다고 생각합니다
제 생각에, 진정한 힘은
'함께'라는 단어에 있는 것 같습니다
와이드 앤 딥 프로젝트에서, 저희는
두 가지의 꽤나 다른 모델링 기법을
한가지 통일된 플랫폼에 
가져오는 것에 성공했습니다
그리고 Google의 많은 
생산팀들에게 이익을 선사했습니다
이러한 발견을 공개하고 나눔으로써

Spanish: 
usted y nosotros podemos colaborar
incluso si no estamos
en la misma organización
y juntos podemos conseguir
una comprensión más profunda
de cómo combinar estas tecnologías 
de aprendizaje automático
con una comunidad
que es más amplia que nunca
y yo creo que eso 
es una cosa muy poderosa.
Me gustaría dar las gracias 
a todos los colaboradores
del proyecto Wide & Deep 
y muchas gracias
por escuchar la charla de hoy.
¡Gracias!

Portuguese: 
vocês e nós podemos colaborar agora,
mesmo se não estivermos
na mesma organização.
E juntos podemos obter
uma compreensão mais profunda
de como combinar estas tecnologias
de aprendizado de máquina
com uma comunidade
que nunca foi tão ampla,
e eu acho que isso é
uma coisa muito poderosa.
Então gostaria de agradecer a todos
os colaboradores do projeto Wide & Deep 
e muito obrigado por terem ouvido
a palestra hoje.
Obrigado!

Japanese: 
あなたと私たちは今協力し合うことができます
私たちが同じ組織にいなくても
一緒に私たちはこれらの機械学習技術の
組み合わせ方について
これまで以上に幅広いコミュニティで
より深い理解を得ることができます
それは非常に強力なものです
だから私は ワイド＆ディーププロジェクトの
貢献者の皆さんに感謝したいと思います
ご視聴どうもありがとう
ありがとうございました

Chinese: 
你和我现在都可以一起合作
即使我们不在同一个组织
在一起，我们可以更深地理解
如何将这些机器学习技术相结合
通过这个史上最大的社区
我认为这非常的强大
因此我想要感谢所有深度广度项目的贡献者
非常感谢大家来到今天的讲座
谢谢大家！
(掌声)
♪ (音乐) ♪

Indonesian: 
Anda dan kami sekarang dapat berkolaborasi
walaupun tidak dalam satu organisasi
dan bersama-sama kita mendapatkan
pemahaman yang lebih dalam
tentang cara mengkombinasikan
teknologi pembelajaran mesin ini
dengan masyarakat yang lebih luas
dan saya pikir itu hal yang sangat hebat.
Jadi saya ingin berterima kasih
pada semua kontributor proyek Wide & Deep
dan terima kasih telah mendengarkan
presentasi saya hari ini.
Terima kasih!

Korean: 
저희와 여러분이
같은 단체가 아님에도 불구하고
공동 작업할 수 있게 되었습니다
그리고 함께 함으로써, 우리는
러닝 머신 기술에 대해
더 깊이 이해할 수 있게 되었습니다
어느 때 보다 넓은 공동체들과 함께 말이죠
그리고 이것은 아주 강력한 것입니다
이 프로젝트에 기여하신 모든 분들께
감사의 인사를 전하고 싶습니다
참여해 주시고 들어주셔서 감사합니다
감사합니다

English: 
And by open-sourcing and
sharing our findings,
you and we are now able to
collaborate even if we're not
in the same organization.
And together, we can get
a deeper understanding
of how to combine these
machine learning technologies
with a community
that's wider than ever.
And I think that's a
very powerful thing.
So I'd like to thank
all the contributors
to the Wide and Deep Project.
And thank you very much for
listening to the talk today.
Thank you.
