
Chinese: 
卷积神经网络（又称CNN）
是一种用于深度学习的网络结构
它直接对图像进行学习
CNN由若干层组成，能够处理并转换输入以产生输出
您可以训练一个CNN执行图像分析任务
包括场景分类、目标检测和分割
以及图像处理
为了解CNN的工作原理
我们将介绍三个关键概念
1）	局部感受域
2）	共享权重和偏差，以及
3）	激活和池化
最后，我们将简要讨论三种训练CNN进行图像分析的方法
让我们从局部感受域的概念开始
在典型的神经网络中
输入层中的每个神经元都连接到隐藏层中的一个神经元
然而，在CNN中
只有一小部分输入层神经元连接到隐藏层的神经元

Japanese: 
畳み込みニューラルネットワーク
（CNN: Convolutional Neural Network ）は
画像から直接学習する
ディープラーニングのための
ネットワークアーキテクチャです
CNNは入力を処理し変換して
出力を生成する複数の層で構成されています
CNNを学習させて
次の画像解析タスクを実行することができます
シーンの分類
物体の検出とセグメンテーション
そして、画像処理です
CNNの機能を理解するために
3つの重要な概念について説明します
局所受容野
共有された重みとバイアス
そして活性化とプーリングです
最後に、CNNを画像分析用にトレーニングする
3つの方法について簡単に説明します
それでは
局所受容野の概念から始めましょう
典型的なニューラルネットワークでは
入力層の各ニューロンは
隠れ層のニューロンに接続されています
しかしCNNでは入力層のニューロンの極一部の領域が
隠れ層のニューロンに接続しています

French: 
UNE
réseau neuronal convolutionnel ou Cn n est une architecture de réseau pour un apprentissage en profondeur, il apprend directement
CnN est composé de plusieurs couches qui traitent et transforment une entrée pour produire une sortie.
Vous pouvez former un CNN pour qu’il réalise des tâches d’analyse d’images, y compris des scènes.
objet de classification Détection et segmentation et traitement d'images pour comprendre
Comment le travail de CNN couvrira-t-il trois concepts clés?
champs réceptifs locaux poids et biais partagés et activation et mise en commun
Enfin, nous discuterons brièvement des trois manières de former les CNN à l'analyse d'images.
Commençons donc par le concept de champs récepteurs locaux dans un réseau de neurones typique, chaque neurone de la couche d'entrée étant
Connecté à un neurone dans la couche cachée cependant dans un CnN
Seule une petite région de neurones de couche d'entrée se connecte aux neurones de la couche cachée

English: 
A
convolutional Neural Network or Cn n is a network architecture for deep learning it learns directly from images a
CnN is made up of several layers that process and transform an input to produce an output
You can train a cnn to do image analysis tasks including scene
classification object Detection and segmentation and image processing in order to understand
How cnn's work we'll cover three key concepts?
local receptive fields shared weights and biases and activation and pooling
Finally we'll briefly discuss the three ways [to] train Cnn's for image analysis
So let's start with the concept of local receptive fields in a typical neural network each neuron in the input layer is
Connected to a neuron in the hidden layer however in a CnN
Only a small region of input layer neurons connect to neurons in the hidden layer

Chinese: 
这些区域被称为局部感受域
局部感受域在图像中转换
以创建从输入层到隐藏层神经元的特征映射
您可以使用卷积来有效地实现这个过程
因此，它被称为卷积神经网络
我们将讨论的第二个概念关于共享权重和偏差
与典型的神经网络一样
CNN也有带有权重和偏差的神经元
模型在训练过程中学习这些参数
并随着每个新的训练示例不断更新其数值
然而，在使用CNN的情况下
给定层中所有隐藏神经元的权重和偏差值相同
这意味着所有隐藏的神经元
都在图像的不同区域检测相同的特征
如边缘或斑点
这使得网络能够容忍图像中对象的平移
例如

Japanese: 
これらの領域は局所受容野と呼ばれます
局所受容野は入力層から隠れ層ニューロンへの
特徴マップを作成するための
画像を介して変換されます
このプロセスを効率的に実装するために
畳み込みを使うことができます
それが畳み込みニューラルネットワーク
と呼ばれる理由です
次に説明する2番目の概念は
共有された重みとバイアスについてです
典型的なニューラルネットワークのように
CNNは重みとバイアスを持つ
ニューロンを持っています
モデルはトレーニングプロセス中に
これらの値を学習し
新しいトレーニング例ごとに
継続的にそれらを更新します
しかしながら
CNNの場合
重みおよびバイアス値は
ある層のすべての隠れニューロンについて同じです
これはすべての隠れニューロンが
画像の異なる領域にあるエッジやブロブなど
同じ特徴を検出していることを意味します
これによりネットワークは
画像内のオブジェクトの移動に対して耐性をもちます
たとえば

French: 
Ces régions sont appelées champs récepteurs locaux
Le champ Réceptif local est traduit dans une image pour créer une carte de caractéristiques depuis la couche d'entrée jusqu'aux neurones de couche cachée.
Vous pouvez utiliser convolution pour implémenter efficacement ce processus
C'est pourquoi on appelle cela un réseau de neurones convolutifs
le deuxième concept dont nous allons parler concerne les poids partagés et les biais tels que [un] réseau de neurones typique un
CnN a des neurones avec des poids et des biais
Le modèle apprend ces valeurs au cours du processus de formation et les met à jour en permanence à chaque nouvel exemple de formation.
Cependant, dans le cas de CNN, les poids et les valeurs de biais sont les mêmes pour tous?
Neurones cachés dans une couche donnée, cela signifie que tous les neurones cachés détectent la même caractéristique
Comme un bord ou une goutte dans différentes régions de l'image
cela rend le réseau tolérant à la traduction d'objets dans une image, par exemple un

English: 
These regions are referred to as local receptive fields
The local Receptive field is translated across an image to create a feature map from the input layer to the hidden layer neurons
You can use convolution to implement this process efficiently
That's why it is called a convolutional Neural Network
the second concept we'll discuss is about shared weights and biases like [a] typical neural network a
CnN has neurons with weights and biases
The model learns these values during the training process and it continuously updates them with each new training example
However in the case of Cnn's the weights and bias values are the same for all?
Hidden neurons in a given layer this means that all hidden neurons are detecting the same feature
Such as an edge or a blob in different regions of the image
this makes the Network tolerant to translation of objects in an image for example a

Japanese: 
猫を認識するように訓練されたネットワークは
猫が画像内のどこにいても認識できます
3番目のそして最後の概念は
活性化とプーリングです
活性化では各ニューロンの出力に対し
活性化関数による変換を行います
正規化線形関数またはReLUは
一般的に使用される活性化関数の一例です
ニューロンの出力を受け取り
それを最も高い正の値に写像します
あるいは出力が負の場合
関数はそれをゼロに写像します
プーリングを適用することによって
活性化の出力をさらに変換することができます
プーリングはニューロンの小領域の出力を
単一の出力にまとめることによって
特徴マップの次元数を減らします
これにより次の層を単純化し
モデルが学習する必要がある
パラメータの数を減らすことができます
それではまとめてみましょう
これら3つの概念を使用して
CNN内にレイヤを設定できます
CNNには数十から数百の隠れ層があります

English: 
Network trained to recognize cats will be able to do so
Wherever the cat is in the image our third and final concept is activation and pooling
the activation Step apply the transformation to the output of each neuron by using activation functions
Rectified linear unit or relu is an example of a commonly used activation function
it takes the output of a [neuron] and maps it to the highest positive value or
If the output is negative the function [maps] it to zero
You can further transform the output of the activation step by applying a pooling step
Pooling reduces the dimensionality of the features map by condensing the output of small regions of neurons into a single output
This helps simplify the following layers and reduces the number of parameters that the model needs to learn now. Let's pull it all together
using these three concepts we can configure the layers in a cnn a

French: 
Un réseau formé à reconnaître les chats sera capable de le faire
Où que le chat soit à l'image, notre troisième et dernier concept est l'activation et la mise en commun
l'étape d'activation applique la transformation à la sortie de chaque neurone en utilisant des fonctions d'activation
L'unité linéaire ou relu rectifiée est un exemple d'une fonction d'activation couramment utilisée
il prend la sortie d'un [neurone] et le mappe à la valeur positive la plus élevée ou
Si le résultat est négatif, la fonction [mappe] à zéro
Vous pouvez transformer davantage la sortie de l'étape d'activation en appliquant une étape de regroupement.
Le regroupement réduit la dimensionnalité de la carte des fonctionnalités en condensant la sortie de petites régions de neurones en une seule sortie
Cela simplifie les couches suivantes et réduit le nombre de paramètres que le modèle doit apprendre maintenant. Tirons tout ensemble
en utilisant ces trois concepts, nous pouvons configurer les couches dans un cnn un

Chinese: 
一个训练好的用于识别猫的网络
将能够识别图像中任何位置的猫
我们的第三个也是最后一个概念是激活和池化
激活步骤通过使用激活函数
对每个神经元的输出进行转换
修正线性单元（又称ReLU）是常用的激活函数
它获取神经元的输出并将其映射到最高的正值
或者，如果输出为负，则函数将其映射为零
您可以通过应用池化步骤进一步转换激活步骤的输出
通过将神经元小区域的输出压缩为单个输出
池化降低了特征图的维数
这有助于简化后续的层
并减少模型需要学习的参数数量
现在，让我们总结一下
使用这三个概念，我们可以配置CNN的层
CNN可以有数十个或数百个隐藏层

English: 
CnN can have tens or hundreds of hidden [layers] they need to learn to detect different features in an image in this feature map?
We can see that every hidden layer increases the complexity of the learned image features
for example the first hidden layer learns how to detect edges and the last learns how to detect more complex shapes
Just like in a typical neural network [the] final layer connects every neuron from the last hidden layer to the output neurons
This produces the final output there are three ways to use [Cnn's] for image analysis
The first method is to [train] the Cnn from scratch
this method is highly accurate although it is also the most challenging if you might need hundreds of thousands of [labelled] images and
significant computational resources
the second method relies on Transfer learning
Which is based on the idea that you can use knowledge of one type of problem to solve a similar problem
For example you could use a Cnn model that has been trained to recognize

French: 
CnN peut avoir des dizaines ou des centaines de [couches] cachées dont ils ont besoin pour apprendre à détecter différentes caractéristiques dans une image de cette carte de caractéristiques?
Nous pouvons voir que chaque couche cachée augmente la complexité des fonctionnalités d’image apprises.
par exemple, la première couche cachée apprend à détecter les arêtes et la dernière à détecter des formes plus complexes
Comme dans un réseau de neurones typique [la] couche finale connecte chaque neurone de la dernière couche cachée aux neurones de sortie
Cela produit le résultat final. Il existe trois façons d'utiliser [Cnn's] pour l'analyse d'images.
La première méthode consiste à [former] le CNN à partir de zéro
cette méthode est très précise bien qu’elle soit aussi la plus difficile si vous avez besoin de centaines de milliers d’images [étiquetées] et
ressources informatiques importantes
la deuxième méthode repose sur l'apprentissage par transfert
Qui est basé sur l'idée que vous pouvez utiliser la connaissance d'un type de problème pour résoudre un problème similaire
Par exemple, vous pouvez utiliser un modèle CNN qui a été formé pour reconnaître

Chinese: 
每个层各自学习检测图像的不同特征
在此特征图中
我们可以看到随着隐藏层的深入
所学习到的图像特征的复杂度逐渐提高
例如，第一个隐藏层学习如何检测边缘
最后一个隐藏层学习如何检测更复杂的形状
类似于典型的神经网络
最后一层将最后一个隐藏层的每个神经元
连接到输出神经元
这将生成最终输出
使用CNN进行图像分析有三种方法
第一种方法是从头开始训练CNN
这种方法非常精确，但也最具挑战性
因为您可能需要数十万个标记图像
和大量的计算资源
第二种方法是采用转移学习
其出发点在于
您可以使用一种特定问题的知识来解决类似的问题
例如
您可以将一个用于识别动物的预训练CNN模型初始化

Japanese: 
これらは画像中のさまざまな特徴を
検出することを学習する必要があります
この特徴マップでは
隠れ層ごとに学習した画像特徴の複雑さが
増していることがわかります
たとえば
最初の隠れ層はエッジの検出方法を学習します
そして最後は
より複雑な形状を検出する方法を学びます
典型的なニューラルネットワークのように
最後の層は最後の隠れ層からのすべてのニューロンを
出力ニューロンに接続します
そして最終的な出力を生成します
CNNを画像解析に使用する方法が3つあります
最初の方法はゼロからCNNを訓練することです
この方法は非常に正確ですが
数十万ものラベル付き画像と
膨大な計算リソースが必要になる可能性があるため
これも最も困難です
2番目の方法は転移学習によるものです
これはある種類の問題に関する知識を使用して
似た問題を解決できるという考えに基づいています
たとえば
動物を認識するように訓練された
CNNモデルを使用して

Japanese: 
自動車とトラックを区別する
新しいモデルの初期化と学習をすることができます
この方法は最初の方法よりも
少ないデータと少ない計算リソースですみます
3番目の方法では
事前学習済みのCNNを使用して
機械学習モデルを学習するための特徴を抽出できます
たとえば
画像内のエッジを検出する方法を学習した隠れ層は
さまざまなドメインの画像に広く対応します
この方法では
必要最小限のデータと計算リソースですみます
このビデオがお役に立つことを願っています
詳細については
mathworks.com/deep learningを参照してください

English: 
Animals to initialize and train a new model that differentiates between cars and trucks
This method requires less Data and fewer computational resources than the first
With the third method you can use a pre trained Cnn to extract features for training a machine learning Model
for example a hidden layer that has learned how to detect edges in an image is
broadly relevant to images from many different domains
This method requires the least amount of data and computational resources. [I] hope you found this video useful
For more information with it. Matt works calm [Slash] deep learning
you

French: 
Animaux à initialiser et à former un nouveau modèle qui différencie les voitures des camions
Cette méthode nécessite moins de données et moins de ressources de calcul que la première.
Avec la troisième méthode, vous pouvez utiliser un CNN pré-formé pour extraire des fonctionnalités permettant de former un modèle d'apprentissage automatique.
par exemple une couche cachée qui a appris à détecter les contours d’une image est
largement pertinent pour les images de nombreux domaines différents
Cette méthode nécessite le moins de données et de ressources informatiques. [J'espère] que vous avez trouvé cette vidéo utile
Pour plus d'informations avec elle. Matt travaille en calme [Slash] apprentissage profond
vous

Chinese: 
训练成一个用于区分汽车和卡车的新模型
与第一种方法相比，这种方法所需数据和计算资源更少
通过第三种方法
您可以使用预先训练过的CNN来提取特征
以训练机器学习模型
例如
学习了如何检测图像边缘的隐藏层
与来自多个不同领域的图像具有广泛的相关性
这种方法所需数据和计算资源量最少
我希望本视频对您有用
有关更多信息
请参见mathworks.com/deep,learning
