
Chinese: 
各位學術夥伴
這是「Two Minutes Papers」
with Károly Zsolnai-Fehér。
在前一段影片中，我們討論一種機器學習的技巧，
convolutional neural network，
它可以用知名畫家的風格作畫。
主要的概念是，我們不重視個別的細節，
希望教導類神經網路藝術風格的高階概念。
convolutional neural network 
是完成這功能的神奇工具，它不只是理解影像內容，
當進入更深的 layer，
更多的高階概念神經元會進行編碼，
演算法也更能擷取藝術風格中的概念。
在先前的例子，我們展示了
第一個 hidden layer 的神經元形成邊，
是輸入影像像素的組合。
下一層是邊的組合，形成物體的零件。
更深一層，物體零件組合成物體模型。

French: 
Chers collègues scientifiques
Voici Two Minute Paper et je suis Károly Zsolnai-Fehér.
Dans un épisode précédent, nous avons parlé de comment une technique de machine learning appelée
un convolutional neural network pouvait peindre dans le style de d'artistes célèbres.
L'idée principale est que nous ne sommes pas intéressé par les détails,
nous voulons apprendre au réseau de neurone un concept de haut-niveau de style artistique.
Un convolutional neural network est un outil fantastique pour cette tâche, car, en plus de bien reconnaître les images,
plus nous allons en profondeur dans les couches, plus les neurones coderont des concepts de haut-niveau,
et donc plus l'algorithme aura une bonne idée du style artistique.
Dans un précédent exemple, nous avons montré que le neurones de la première couche créent des lignes
comme des combinaisons de pixels de l'image en entrée.
La couche suivante est une combinaison de ces lignes pour créer des morceaux d'objets.
Dans la couche suivante, une combinaison de morceaux d'objets créent des modèles pour les objets

English: 
Dear fellow scholars
This is Two Minute Papers with Károly Zsolnai-Fehér.
In a previous episode, we discussed how a machine learning technique called
a convolutional neural network could paint in the style of famous artists.
The key thought is that we are not interested in individual details,
We want to teach the neural network the high-level concept of artistic style.
A convolutional neural network is a fantastic tool for this, since it does not only recognize images well,
But the deeper we go in the layers, the more high-level concepts neurons will encode,
therefore the better idea the algorithm will have of the artistic style.
In an earlier exemple, we have shown that the neurons in the first hidden layer will create edges
as a combination of the input pixels of the image.
The next layer is a combination of edges that create object parts.
One layer deeper, a combination of object parts create object models,

Chinese: 
這是 convolutional neural network 
可以如此有效識別物體的原因。
在這篇後續的論文，作者使用了深達19層的 convolutional network
其中混合了Markov random fields，
一種常用的影像紋理混合技巧。
此演算法保留輸入影像的重要結構，
明顯的優於過往的成果。
這真是太好了，附帶一提
失敗的情形在論文中也有著墨，很值得一讀。
如果你有興趣，一定要讀這篇文章。
我們提供許多影像資源在敘述欄位，
你可以大量的吸收更多的資訊。
已經有一個很酷的網站你可以花點時間等待，
就可以得到免費的計算結果，
或是你願意付費，並幾乎立刻得到結果。
如果各位願意製作一些與
「Two Minutes Papers」有關的 neural art，
請務必讓我知道，我非常樂意看到。
作為一個評論家，我聽到有人說這項技術
應用在 HD 影像需要無止盡計算時間，
那的確是真的。

English: 
and this is what makes convolutional neural network so useful in recognizing them.
In this follow up paper, the authors use a very deep 19-layer convolutional network
that they mix together with Markov random fields, a popular technique in image and texture synthesis
The resulting algorithm retains the important structures of the input image significantly better
than the previous work.
Which is also awesome, by the way.
Failure cases are also reported in the paper, which was a joy to read.
Make sure to take a look if you are interested.
We also have a ton of video resources in the description box
that you can voraciously consume for more information.
There is already a really cool website  where you either wait quite a bit,
and get results for free, or you pay someone to compute it and get results almost immediately
If any of you are in the mood of doing some neural art of something Two Minute Papers related,
make sure to show it to me, I would love to see that.
As a criticism, I have heard people saying that the technique takes forever on an HD image,
which is absolutely true.

French: 
et c'est de cette façon que les convolutional neural network sont si puissant pour reconnaître les objets.
Dans l'article suivant, les auteurs utilisent un convolutional network très profond à 19 niveaux
qu'ils mélangent en utilisant des champs aléatoire de Markov, une technique populaire en synthèse d'image et de texture.
L'algorithme qu'ils obtiennent garde les structures importantes de l'image nettement mieux
que dans le travail précédent.
Qui est aussi génial, en passant.
Les cas d'échec sont aussi explorés dans l'article, ce qui était agréable à lire.
Je vous conseille d'aller jeter un œil si vous êtes intéréssés.
Nous avons aussi une tonne de vidéo dans la description
que vous pouvez dévorer pour plus d'information.
Il y a déjà un site très sympa sur lequel vous pouvez soit attendre un moment,
et avoir les résultats gratuitement, ou bien payer quelqu'un pour le calculer et obtenir le résultat quasi immédiatement.
Si certains d'entre vous se sentent d'humeur à créer des œuvres d'arts liées à Two Minute Papers,
n'hésitez pas à me les montrées, j'aimerais beaucoup voir ça.
Comme critique, j'ai entendu des gens dire que cette technique prenait une éternité pour une image HD,
ce qui est tout à fait vrai.

English: 
But please bear in mind that the most exciting research is not speeding up something that runs slowly
The most exciting thing about research is making something possible that was previously impossible
If the work is worthy of attention, it does'nt matter if it's slow.
Tree followup papers later, it will be done in a matter of seconds.
In summary, the results are nothing short of amazing.
I was full of ecstatic glee when I've first seen them.
This is insanity, and it's only been a few months since the initial algorithm was published.
I always say this, but we are living amazing times indeed.
Thanks for watching and for your generous support,
and I'll see you next time!

French: 
Mais gardez à l'esprit que la recherche la plus excitante n'est pas d'accélérer quelque chose qui va lentement.
La recherche la plus excitante est de rendre quelque chose possible qui ne l'était pas précédemment.
Si ce travail mérite qu'on s'y intéresse, le fait qu'il soit lent n'a pas d'importance.
Trois articles plus tard, ça sera en l'espace de quelques secondes.
En résumé, les résultats sont extraordinaires.
J'étais complètement extatique quand je les ai vu pour la première fois.
C'est de la folie, ça ne fait que quelques mois que l'algorithme original a été publié.
Je dis toujours ça, mais nous niveau dans une époque fantastique.
Merci d'avoir regardé et pour votre généreux support,
et je vous dis à la prochaine !

Chinese: 
但請牢記在心，
最令人振奮的研究不是為緩慢的工作加速，
最令人振奮的研究是將以往不可能的事情變成可能。
如果這個成果是值得注意的，那快慢並不重要。
後續延伸的論文，這項技術會在幾秒間完成。
總結來說，結果充滿著驚奇。
第一次看到這成果時，我陷入了狂喜之中。
這真是瘋狂，
僅是在最初的演算法發表的短短幾個月間。
我常說，我們真的身處一個驚奇的時代。
感謝你的觀賞跟慷慨的支持，
我們下次見。
