
Chinese: 
现在 你有一个“小”神经网络
它不是很“深” 仅仅只有两层
通过增大中间隐层的尺寸
你可以让它变的更大 更复杂
但总体上说 仅仅增大 H 数
并非高效的手段
你需要让他变的非常非常大 当然这也会使它很难被训练
而这正是深度学习核心思想发挥作用的地方
实际上 你可以通过增加更多层的方式 来使你的模型变的更“深”
有如下原因
一个是参数的“效率”
通过让网络变深的方式 你可以
通过增加较少的参数以使模型表现大为改善
另一个原因是 这会出现很多
神奇的现象
更深模型 往往会呈现出层次化的结构
我们以一个图形分类模型为例
若我们画出它每层所学到的内容
你会发现模型最底层会是一些非常简单的东西 例如线、边等
再往右看
则会有更复杂的东西出现 例如几何形状等

Japanese: 
小さなニューラルネットワークがあります。
深さは特に深くなく、
レイヤーは2つだけです。
中間の隠れレイヤーのサイズを拡大すると、
ニューラルネットワークを
より大きく、複雑にすることができます。
しかし、通常は、
このHを大きくしても、
それほど有効ではないことがわかっています。
Hはきわめて大きくする必要があるのですが、
そうすると、今度はトレーニングが難しくなります。
この点で深層学習(ディープラーニング)の
中心となるコンセプトが効果を発揮します。
代わりに、レイヤーをさらに追加して、
モデルをより深くすることもできます。
これを行う正当な理由は
多数あります。
その1つは、パラメーターの効率です。
通常は、広くするよりも、深くすることにより、
より少ないパラメーターで
はるかに高いパフォーマンスが得られます。
もう1つは、人が関心を持つ
自然現象の多くは
階層構造を持つ傾向があり、
深いモデルで取り込むのが
自然であるということです。
たとえば、イメージのモデルを
入力して、
モデルの学習内容を視覚化すると、
多くの場合、レイヤーの最下部は、線やエッジなど
非常に単純なものになります。
上に移動すると、
幾何学的形状のようなより複雑なものが
見られる傾向があります。

English: 
So now you have a small neural network.
It's not particularly deep,
just two layers.
You can make it bigger, more complex,
by increasing the size of that
hidden layer in the middle.
But it turns out that increasing
this H is not particularly
efficient in general.
You need to make it very, very big,
and then it gets really hard to train.
This is where the central idea of
deep learning comes into play.
Instead, you can also add more
layers and make your model deeper.
There are lots of good
reasons to do that.
One is parameter efficiency.
You can typically get much more
performance with fewer parameters
by going deeper rather than wider.
Another one is that a lot of
natural phenomena that you might be
interested in,
tend to have a hierarchical structure
which deep models naturally capture.
If you poke at a model for
images, for example, and
visualize what the model learns,
you'll often find very simple things at
the lowest layers, like lines or edges.
Once you move up,
you tend to see more complicated
things like geometric shapes.

Chinese: 
再往深处看 你则会看到一些更具体的内容 例如脸、物件等
该模型因此而显得十分强大
因为模型能够学习到数据中的抽象内容 而这正是你所期望的
而最终 模型也会因此而更快地完成学习过程

English: 
Go further up and you start seeing
things like objects, faces.
This is very powerful because the model
structure matches the kind of
abstractions that you might
expect to see in your data.
And as a result the model has
an easier time learning them.

Japanese: 
さらに上に移動すると、顔のようなものが
見え始めます。
これは非常に強力です。なぜなら、
モデル構造が、データに反映させたい
抽象化の種類と
一致しているからです。
その結果として、モデルでの学習が
より簡単になります。
