
English: 
You've already seen how convolutional
network uses shared parameters across
space to extract patterns over an image.
Now you're going to do the same thing
but over time instead of space.
This is the idea behind
recurrent neural networks.
Imagine that you have a sequence
of events, at each point in time
you want to make a decision about what's
happened so far in this sequence.
Imagine that you have a sequence
of events, at each point in time
you want to make a decision about
what's happened so far in the sequence.
If your sequence is
reasonably stationary,
you can use the same classifier
at each point in time.
That simplifies things a lot already.
But since this is a sequence, you also
want to take into account the past.
Everything that happened
before that point.
One natural thing to do here is to use
the state of the previous classifier
as a summary of what happened before,
recursively.
Now, you would need a very deep neural
network to remember far in the past.
Imagine that this sequence could
have hundreds, thousands of steps.

Portuguese: 
Você já viu
como a rede convolucional
usa parâmetros compartilhados
através do espaço
para extrair padrões
de uma imagem.
Agora você vai fazer a mesma coisa,
mas com o tempo em vez do espaço.
Esta é a ideia por trás
de redes neurais recorrentes.
Imagine que você tenha
uma sequência de eventos.
A cada ponto do tempo,
você quer tomar uma decisão
sobre o que aconteceu
até agora nesta sequência.
Imagine que você tenha
uma sequência de eventos.
A cada ponto do tempo,
você quer decidir
sobre o que aconteceu
até agora nesta sequência.
Se sua sequência é
razoavelmente estacionária,
você pode usar um classificador
a cada ponto no tempo.
Isto já simplifica muito
as coisas.
Mas já que isto é
uma sequência,
você também quer levar em conta
o passado.
Tudo que aconteceu
antes daquele ponto.
Uma coisa natural
a se fazer aqui
é usar o estado
do classificador anterior
como um resumo
do que aconteceu antes,
recursivamente.
Agora, você precisa
de uma rede neural muito profunda
para lembrar
de um passado longínquo.
Imagine que esta sequência
podia ter centenas,
milhares de etapas.

Japanese: 
これまで、畳み込みネットワークが
共有パラメーターを使用して、スペース上でイメージのパターン
を抽出する方法を見てきました。
次も同じようにするのですが、今度は
スペースではなく時間です。
これは再帰型ニューラルネットワーク
の考え方です。
イベントのシーケンスがあるとします。
それぞれの時点で、
このシーケンスでそれまでに何が
起きたかを判別しようとします。
イベントのシーケンスがあるとします。
それぞれの時点で、
それまでにこのシーケンスで何が
起きたかを判別しようとします。
シーケンスがほぼ
静的である場合、
それぞれの時点で同じクラシファイアを
使うことができます。
これでかなり単純化されます。
しかし、これはシーケンスであり、
過去も考慮する必要があります。
その時点よりも前に起きた
すべてのことを。
ここでは当然、
起きたことの要約として
以前のクラシファイアの状態を使用します。
再帰的に行います。
遠い過去のことを記憶するためには、非常に深い
ニューラルネットワークが必要になります。
このシーケンスに数百または数千の
ステップがあると想像してください。

Chinese: 
你已经了解了卷积网络怎样在不同空间
通过共用参数来提取图像的模式
现在你将做类似的事 但是是在不同时间而非空间
这是递归神经网络背后的思想
想象你有一个事件组成的序列
你希望在每个时间点根据目前序列中的事件做出预测
想象你有一个事件组成的序列
你希望在每个时间点根据目前序列中的事件做出预测
如果序列是较为静止不变的
你就可以在每个时间点用同样的分类器
这会极大地简化要做的事
然而这是个序列 你希望能将序列中已发生的事件考虑在内
包括当前时间点前发生的所有事件
一个自然的做法是递归地使用先前分类器的状态
作为之前所发生事件的总结
为此你需要一个很深的神经网络来记住久远的过去
如果这个序列有数百步、数千步事件

Portuguese: 
Isto basicamente significaria
ter uma rede profunda
com centenas
ou milhares de camadas.
Mas em vez disso,
vamos tentar fazer um nó de novo
e ter um modelo responsável
por resumir o passado
e dar esta informação
ao seu classificador.
Com isso, você consegue
uma rede
com um padrão de repetição
relativamente simples
com parte do seu classificador
se conectando ao input
em cada etapa de tempo,
e outra parte,
chamada de "conexão recorrente",
conectando você ao passado
a cada passo.

Japanese: 
これは基本的には数百または数千の
レイヤーの深いネットワークを
使うことを意味します。
しかし、その代わりに
再び結び付きを使用します。
単純なモデルが過去を要約
できるようにし、
その情報をクラシファイアに
提供するようにします。
こうすることで、比較的単純な繰り返し
パターンのネットワークができあがります。
クラシファイアの一部は各時点の
入力と結び付き、もう1つの部分は
再帰結合と呼ばれ、各ステップで過去と
結び付きます。

English: 
It would basically mean to have
a deep network with hundreds or
thousands of layers.
But instead,
we're going to use tying again and
have a single model responsible for
summarizing the past and
providing that information
to your classifier.
What you end up with is a network with a
relatively simple repeating pattern with
part of your classifier connecting to
the input at each time step and another
part called the recurrent connection
connecting you to the past at each step.

Chinese: 
这基本上意味着所需的深度网络要有
数百层、数千层
但取而代之 我们将会再次使用捆绑 (tying) 法
用单个模型负责总结过去的信息
并将它提供给分类器
最终你的网络会有一个简单重复的模式
在每个时间步中 分类器的一部分连接到输入层
称作递归连接层的那部分 连接到过去事件
