
English: 
Dear Fellow Scholars, this is Two Minute Papers
with Károly Zsolnai-Fehér.
This is an article from the Distill journal,
so expect a lot of intuitive and beautiful
visualizations.
And it is about recurrent neural networks.
These are neural network variants that are
specialized to be able to deal with sequences
of data.
For instance, processing and completing text
is a great example usage of these recurrent
networks.
So, why is that?
Well, if we wish to finish a sentence, we
are not only interested in the latest letter
in this sentence, but several letters before
that, and of course, the order of these letters
is also of utmost importance.
Here you can see with the green rectangles
which previous letters these recurrent neural
networks memorize when reading and completing
our sentences.
LSTM stands for Long Short-Term Memory, and
GRU means Gated Recurrent Unit, both are recurrent
neural networks.

Turkish: 
Sayın bilge dostlarım, Burası Károly Zsolnai-Fehér ile iki dakikada makale
Bu, Distill'den bir makale yani birçok güçlü ve güzel görseller
bekliyoruz.
Ve, makale tekrarlayan sinir ağları hakkında
Bunlar veri dizileriyle başa çıkabilmek için uzmanlaşmış sinir ağı
çeşitleridir.
Örneğin, metin üretme ve tamamlama tekrarlayan sinir ağları için çok iyi bir kullanım
örnekleridir.
Peki, neden böyle?
Bir cümleyi tamamlamak istediğimizde, sadece cümledeki son harfle değil,
ondan önceki birkaç harfle de ilgileniyoruz, ve tabiki bu harflerin dizimi de
son derece önemli.
Burada yeşil dikdörtgenlerle tekrarlayan sinir ağımızın cümlemizi okurken ve
tamamlarken hangi önceki harfleri hatırladığını görüyorsunuz.
Uzun kısa-vadeli hafıza anlamına gelen LSTM ve Geçitli tekrarlayan ünite anlamına gelen GRU, ikisi birlikte
tekrarlayan sinir ağını meydana getirir.

Turkish: 
Ve burada, iç içe geçmiş LSTM'in, klasik LSTM'in işlenen kelimeden
önceki kelimelerin uzun bir geçmişini hafızasında tutarken, şu an işlediğimiz kelimeden
öncesine bakmadığını görüyorsunuz.
Ve şimdi, ilginç bir şekilde, GRU’ya bakın, burada “grammar” kelimesinin
başlangıcına baktığımızda, bu yeni kelime hakkında hiçbir şey bilmiyoruz,
bu nedenle, o anda en yararlı olabilecek
olan bir önceki kelime tamamen ezberleniyor.
Ve şimdi, bu kelimede birkaç harf daha ilerledikçe, dikkatinin çoğunu daha kısa bir bölüme,
yani şu anda yazmakta olduğumuz 
bu yeni kelimenin harflerine kaydırıyor.
Neyse ki, makale çok etkileşimli, yani buraya bir parça metin ekleyebilir
ve GRU ağının nasıl işlediğini görebilirsiniz.
Bu yazının ana argümanlarından biri, bu ağların kalite açısından karşılaştırırken yalnızca ürettikleri
çıktı metnine bakmamamız gerektiğidir.

English: 
And you see here that the nested LSTM doesn’t
really look back further than the current
word we are processing, while the classic
LSTM almost always memorizes a lengthy history
of previous words.
And now, look, interestingly, with GRU, when
looking at the start of the word “grammar”
here, we barely know anything about this new
word, so, it memorizes the entire previous
word as it may be the most useful information
we have at the time.
And now, as we proceed a few more letters
into this word, it mostly shifts its attention
to a shorter segment, that is, the letters
of this new word we are currently writing.
Luckily, the paper is even more interactive,
meaning that you can also add a piece of text
here and see how the GRU network processes
it.
One of the main arguments of this paper is
that when comparing these networks against
each other in terms of quality, we shouldn’t
only look at the output text they generate.

English: 
For instance, it is possible for two models
that work quite differently to have a very
similar accuracy and score on these tests.
The author argues that we should look beyond
these metrics, and look at this kind of connectivity
information as well.
This way, we may find useful pieces of knowledge,
like the fact that GRU is better at utilizing
longer-term contextual understanding.
A really cool finding indeed, and I am sure
this will also be a useful visualization tool
when developing new algorithms and finding
faults in previous ones.
Love it.
Thanks for watching and for your generous
support, and I'll see you next time!

Turkish: 
Örneğin, birbirinden tamamen farklı çalışan iki model bu testler üzerinde çok benzer bir doğruluk oranında
olması ve benzer puanda olması mümkündür.
Yazar, bu ölçümlerin ötesine, bu tür bağlantılı bilgilere de bakmamız
gerektiğini savunuyor.
Bu şekilde, GRU'nun uzun vadeli bağlamsal anlayışı kullanmakta daha iyi olması gerçeği gibi,
yararlı bilgileri bulabiliriz.
Gerçekten harika bir bulgu ve eminim ki bu aynı zamanda yeni algoritmalar geliştirirken ve
öncekilerdeki hataları bulurken de kullanışlı bir görselleştirme aracı olacaktır.
Bunu sevdim.
İzlediğiniz ve cömert destekleriniz için teşekkür ederim. Gelecek sefer görüşmek üzere!
