
Turkish: 
Altı paragrafız ve bu noktadan haberdarım, bu ilk paragrafın ilk cümlesini ele aldım
Şimdi, liderin bu ikinci cümlesinden bahsetmenin tam zamanı, araştırmacılar için olduğundan daha şaşırtıcıdır.
İngilizce konuştu ve
İngilizce konuşan kısmı tamamen görmezden geldi.
Şimdi bunun hakkında konuşuyor
Bu tür sistemlerin gerçek sıkıntı yaşayacağı türden bir şey bu kadar iyi yazamayan gazeteciler tanıdım
Bu bağlarsa
Düşündüğüm bir şey, insanların AI hakkındaki düşüncelerinin temelini oluşturuyor.
Eskiden satrançta iyi olmak için gerçekten zeki olmak zorunda olduğumuzu ve satranç oynayabilirseniz
Gerçek miydi?
İstihbarat olmak zorundaydınız ve sonra insanüstü bir seviyeye satranç oynamak gibi bir şey gerektirmeyeceğini anladık.
İstihbarat ve tutarlı ve mantıklı yazma gibi bulmanın biraz rahatsız edici olduğunu
Görünüşe göre haber nesir ayrıca genel istihbarat gerektirmez
Mesela kelimeler arasındaki istatistiksel ilişkileri öğrenirseniz

English: 
We're six paragraphs in and it knows about this point, I've covered the first sentence of this initial paragraph
now it's time to talk about this second sentence of the lead even more surprising to the researchers than the fact that they
spoke English and
it completely ignored the speaking English part until it got to the part of the news article where that comes in and
Now it's talking about it
Which is the kind of thing that these kinds of systems would have real trouble doing I've known journalists who can't write that well
If that ties into
Something that I think is kind of fundamental to the way that people think about AI
like we used to think that you had to be really clever to be good at chess and if you could play chess then you
Were real?
Intelligence you had to be and then we realized that like playing chess to a superhuman level doesn't require something that we would call
Intelligence and it's slightly unsettling to find that like writing coherent and plausible
News prose apparently also doesn't require general intelligence
like if you just learn the statistical relationships between words

Turkish: 
Ama bunu gerçekten çok iyi yap, bu yeterli görünüyor.
Açıkçası herhangi bir gazeteci gerçeğin bu konuda da önemli olduğunu söyleyecektir.
Ama evet, mantıklı görünmesi için. Kesinlikle haklısın, doğru
Evet, öyleyse bunu belirli bir makale üretmeye yönlendirmek gibi kesin sorular var.
bu doğru, ama
sadece nesrin kendisinin üretilmesi, görünüşe göre daha az benzerlik gerektirir
Düşündüğümüzden daha felsefi karmaşıklık
O zaman birçok insan yine de sanırım, 10 yıl önce
İnsanlar buna inanmakta çok zorlanacaklardı.
Sadece veriden öğrenen ve bu göreceli olasılıkları öğrenen bir şey bu tutarlı bir şey üretebilir
Her türlü koşulun ve bir formülün olmasını beklersiniz.
Kodlanmamış bir şeye bakar ve şöyle der: oh bu bir veritabanı gibi olmalı

English: 
But do that really really well that seems to be enough
I mean obviously any journalist would would say that the truth is kind of important in this as well
But yeah to make it sound plausible. You're absolutely right, right
Yeah there so there's there's definitely questions about like directing this towards producing a specific article
that is correct, but
just the generating of the of the prose itself apparently requires less like
Philosophical sophistication than we thought
Then many thought anyway, I think 10 years ago
People would have a really hard time believing that
Something that's just learning from data and learning these relative probabilities could produce something this coherent
you would expect it to have all sorts of conditions and a formula and
An uncoded you would look at this and say oh this must have like a database of

English: 
names and countries
locations and
Cities and everything else because it's using that information, but it turns out all of that
Is already represented in the data set because we're talking about all these things
Here's a recipe for some kind of peppermint chocolate cake, and it's got a bunch of different completions
so you can just spit these out arbitrarily so
You know those recipe blogs where like you google the recipe for something and you go to the blog and there's like seven paragraphs
Of like my mother used to make this for me back in our home in, Indiana
I always remember sitting out on the porch with my dog
He used to you know
The important thing is I had an onion on my belt which was the style at the time and and it's doing that
It's like talking about
Different back stories. Yeah, just back story and um I wonder if anyone was trying to make any of these recipes
Yeah, it's dangerous
this one

Turkish: 
isimler ve ülkeler
konumlar ve
Şehirler ve her şey, çünkü o bilgiyi kullanıyor, ama hepsi çıkıyor
Veri setinde zaten temsil edildi, çünkü biz bütün bunları konuşuyoruz
İşte bir çeşit naneli çikolatalı kek için bir reçete ve bir sürü farklı tamamlama var.
Yani bunları keyfi bir şekilde tükürebiliyorsun.
Bir tarif için google'ı istediğiniz ve blogunuza giden ve yedi paragraf gibi o tarif bloglarını biliyorsunuz.
Annemin bunu benim için yaptığımız evdeki gibi, Indiana'daki gibi
Köpeğimle verandada oturduğumu hep hatırlıyorum.
Sana alışmıştı
Önemli olan şu ki, kemerimde o zamanlar stil olan bir soğanı vardı ve bunu yapıyor.
Hakkında konuşmak gibi
Farklı geçmiş hikayeleri. Evet, sadece bir hikaye ve um, birilerinin bu tariflerden herhangi birini yapmaya çalışıp çalışmadığını merak ediyorum.
Evet, tehlikeli
Bu

Turkish: 
Yani bu, kremalı kurabiye için bir reçetedir
1 ve 3/4 su bardağı tereyağı 3 su bardağı şeker ve yumurta sarısını yumuşattı
Kritik T. Hangi birim? Bu 3 ton mu? Yoğun krema?
Bu genellikle küçük harf T'dir. 3 ton ağır kremin ne olduğunu bilmiyorum. Diyelimki
üç buçuk ila dört bardak un bir tutam tuz
Nane Jojo tepesi hangisi olduğu hakkında hiçbir fikrim yok, ama naneli. Jo jo's isteminde bahsedilmiştir
Yani bir çeyrek bardak pudra şekeri bir fincan kıyılmış cevizler yarım fincan
İnce doğranmış nane yarım fincan yaklaşık yarım yaprak doğranmış taze nane bırakır
Yani mantıklı gelmiyor gibi, ama mantıklı geliyor
Yarım bardak kıyılmış nane yaprağımız var ve
Sonra da yarım bardak kıyılmış taze nane, tüm bu potansiyel kiraz çok sayıda korkunç şeyden toplandı
Sağ. Evet. Öyleyse bu özellikle bunlar mı, yoksa
Yani, tek boynuzlu at bir ve bu benim sevdiğim bir şey ve standart bir uygulama, ama bu tek boynuzlu at bir

English: 
So this is this is a recipe for meringue cookies
1 and 3/4 cups butter softened the cup of sugar and egg yolk 3 t of heavy
Critical T. What unit? Is that 3 tons? Heavy cream?
That's usually a lowercase T. I don't know what it is 3 tons of heavy cream. Let's say
three and a half to four cups of flour pinch of salt
Peppermint Jojo topping which like I have no idea what that is, but peppermint. Jo jo's is mentioned in the prompt
So one and a quarter cups powdered sugar a cup of chopped pecans a half a cup
Finely chopped mint leaves 1/2 cup chopped fresh mint about a half sheet
So it's like it doesn't quite make sense, but it's right on the edge of making sense
like we have half a cup of chopped mint leaves and
Then also half a cup of chopped fresh mint all these potentially cherry picked out of a huge number of horrendous
Right. Yes. So this is these ones specifically or not
So the unicorn one and this is something that I like and it's standard practice, but I like this the unicorn one

Turkish: 
Özellikle şu anda kağıt için bir örnek yapacağımızı söylediler.
Onlardan 10'unu yaptılar ve sevdikleri birini seçtiler, hangisi olduğu, ancak tarifleri için
Bunlar toplanmış kiraz değil. Bu yüzden, 6 gösterdiklerini gösteriyorlar.
Bu, ürettiğimiz ilk altı
Ve işte buradalar ve orada, böylece ortaya koydukları şeylerin genel kalitesi hakkında daha iyi bir fikir veriyor.
Hepsi oldukça mantıklı. Bu dünyaya bakmayı seviyorum, değil mi?
bu gelir ve blah blah blah ile başka bir şeyin yerine geçmediğimi söyler ve sonra
Bunun gibi, bunun doğru olup olmadığını bilmiyorum
İşte bir resim veya evet
Lütfen Facebook'ta böyle ve sonra devam ediyor Bu şirin kartı buldum
Yavru kediler ve sonra örneklerin kesildiği gibi, bu yüzden blogdaki bir sonraki yazıdaki gibi
Bu yüzden GPT-2 bana çok iyi davranıyor. Bakalım
Test ettikleri ilk şey, bunun nerede olduğu bir çocuk kitabı testidir. Bence kapalı bir şey gibi
Bazı çocuk kitaplarının bulunduğu bir veri kümesine sahip olduğunuzda, bir kelimeyi kaldırmaktan hoşlanıyorsunuz
Ve sonra sistem, hangi kelimelerin doğru olduğunu tahmin etmelidir.

English: 
It says they specifically said right now we're gonna make a sample for the paper
They made 10 of them and they picked the one they liked which was this one but for the recipes here
These are not cherry picked at all. That's why they're showing 6 they just gone
This is the first six that we generated
And here they are and there so that gives you a better idea of the general quality of what it's putting out
They're all fairly sensible. I like look at this world, right?
this one comes in and says I do not substitute it with something else blah blah and then
Like this, I don't know if that is right
Here's an image or yeah
Please like this on Facebook and then it goes on I found this really cute card with cute little
Kittens on and then as your samples cut off, so it's just like next post in the blog or you know
This is why GPT-2 is so cool to me. Let's see
The first thing they tested on is a children's book test where this is. I think it's like a closed thing
Where you just have it have a data set with some children's books and then you like remove one word
And then the system has to predict which of the words is the correct

Turkish: 
Verdiğin gibi, ona olabilecek on kelime ya da onun gibi bir şey ver ve hangi kelimenin uygun olduğunu seçmesi gerekiyor.
Bu alanda. Yani bu standart bir dil modeli tipi görevidir. Yapmaları gereken tek şey
örtüşmeyi kontrol etmek için analiz yapmak zorunda kalmışlardı ve
Çocuk kitapları Rudyard Kipling'in orman kitabıdır.
Aslında bütünüyle içinde olan şey, üzerinde eğitim almış oldukları veri setindeydi, o yüzden bunu biliyordu.
Sonra da attılar, çünkü daha önce kitabın tamamını görmüş olmanızın adil olmadığını düşünüyorum.
Ve bunun performansı çok büyük ölçekli modellere düştüğünde iyi oldu.
Bir gol atıyor. Seksen mi?
yüzde seksen dokuz, insanların sevilme eğilimindedir
yüzde doksan 90 ila 93
Çocuk kitabındaki bir cümleden eksik olan bir kelimeyi tahmin etmek neredeyse insani bir seviye gibi.
Lambada uzun vadeli bağımlılıkları test etmek için tasarlandı;

English: 
Like you give it you give it ten words that it might be or something like that and it has to pick what word fits
In this space. So that's standard kind of language model type task. The one thing that they did have to do is
they had to run analysis to check about overlap and it turns out that one of the
Children's books is the jungle book by Rudyard Kipling
Which was actually in in its entirety was in the data set that they trained the thing on so he just knew that one
So then they threw that out because I think that's not fair if you've already seen the entire book before
And it's performance on that was was good by the time they guts up to the to the very large scale models
Its scoring one. Is that eighty?
eighty nine percent where humans tend to get like
ninety 90 to 93 percent
It's like nearly a human level for guessing one missing word from a sentence in a children's book pretty good
Lambada is designed to test long-range dependencies, which is what I've been talking about a lot

Turkish: 
Görev, bir insanın başarılı bir şekilde tahmin edebilmesi için en az 50 belirteç bağlamı gerektiren son cümle sözcüğünü tahmin etmektir.
50 kelime gibi oldukça uzun bir cümle
ve
Yani bu tür uzun vadeli bağımlılık bir şey dil modelleri test etmek için standart bir yoldur ve
Yüzde 63 doğrulukla bitiyor
Bu, sanat hacmine göre yüzde 4 oranında bir gelişmedir. Demek lambada sanatsız sanat eseri
Winograd şeması genel olarak sadece bu konuda çalışan eğitimli olmak
Olay koruma görevlilerini biliyorsan, bunun destek olup olmadığını bilmiyorum. Kim bilir
Belki de birinin adı
Her neyse. Bu, özellikle özellikle önemli olan belirsizliklerin çözülmesi ile ilgilidir.
çeviri görevleri ve bunun gibi şeyler
cümlelerin belirsiz olması çok kolaydır
Onları tercüme ettirir
Çok zor, hatta imkansız ve bunu kontrol etmek için bir örneğim var. Yani gibi bir cümleyi düşünün

English: 
The task is to predict the final word of sentences which require at least 50 tokens of context for a human to successfully predict
It's like 50 words is a pretty long sentence
and
So this kind of long-term dependency thing is a standard way of testing language models and
It ends up with an accuracy of 63 percent
Which is an improvement over state of the art by four percent. So it's state of the art on Lambada without
Being specifically trained on that just running in general the winograd schema
I don't know if it's support if you know event venal guard. Who knows
Maybe it's somebody's name
Whatever. This is about resolving ambiguities, which is really especially important in
translation tasks and things like that
it's very easy for sentences to be ambiguous in a way that
Makes translating them
Very difficult or even impossible and I have like I have an example of this check this out. So consider a sentence like

Turkish: 
Tavuk yoldan geçmedi çünkü çok siyahtı.
tamam, ve sonra bu cümlenin farklı versiyonlarını göz önünde bulundurabiliriz.
Geniş tavuk yolu geçmedi çünkü çok genişdi, değil mi?
Bunun için olası bir tamamlanma gibi, ya da diyebilirsiniz
Tavuk yolu geçmedi çünkü çok korkmuştu.
bir başka mükemmel mantıklı cümle, o zaman soru şu ki
o
bunlardan birinde
Tavuğa ve bunlardan birine atıfta bulunuyor. Üçte biri için yol renginden bahsediyor ve kesinlikle
fırtınalı
Fırtınalı. Ah evet. Peki. Bu iyi bir tanesi. Yani fırtınalı, cümle içindeki hiçbir şeyin aslında olmadığı anlamına gelir.
diğeri eğlenceli bir şey gibi
meşgul
Sağ. İşlek bir yol mu yoksa tavuğun yoldan geçmek yerine yapması gereken daha iyi şeyler var mı?
Bilmiyoruz Demek istediğim gibi
Muhtemelen yol derdim ama bu bir çocuk kitabı olabilir, değil mi?

English: 
The chicken didn't cross the road because it was too black
okay, and then we can consider different versions of this sentence suppose that this is
Wide chicken didn't cross the road because it was too wide, right?
That's like one possible completion for this or you might say
The chicken didn't cross the road because it was too scared
another perfectly sensible sentence, then the question is
it
in one of these
It is referring to the chicken and in one of them. It is referring to the road color for a third and sure
stormy
Stormy. Oh, yeah. Alright. That's a good one. So stormy means it is actually neither of the things in the sentence
the other one that's fun is something like
busy
Right. Is it a busy road or did the chicken just have better things to do than crossing the road?
We don't know. I mean like I
Would say probably the road but this could be a children's book, right?

Turkish: 
Bu şeyi çocuk kitaplarında çalıştırıyoruz. Tavşan. Tavşan çok meşguldü. Önemli bir randevuya geç kaldım
neden meşgul olamıyor ki
Mesele şu ki. Bunu bir dile çevirmeye çalışıyoruz, birçok dilin yaptığı gibi her şeyi cinsiyete dönüştürüyor ve
Belki tavuk bir erkeksi bir isimdir ve Yol bir dişil isimdir ve bilmek zorundadır
Neyle ilgili?
Bu, bu L mi yoksa L mi yoksa bu kıyaslama fikri mi?
belirsizlikleri ne kadar iyi çözebileceğini ölçmek, çünkü eğer deniyorsanız geniş diyorsa
Tercüme eski moda yolu
Ağaçları kesmek, sözlüklerde bir şeyler aramak veya onun gibi şeyleri görmek istediğiniz bir yer
Bu cümle cehennem kabusudur çünkü bilemezsin. Yani, sadece bilginin olmadığını bilemezsin
gerçekten mevcut
Metin dilbilgisi olarak mevcut değil. Dünyayı, tavukları ve yolları anlamında mevcut değil mi?

English: 
We are running this thing on children's books. The rabbit. The rabbit was too busy. It was late for an important date
why can't that she can be busy so
The point is suppose. We're trying to translate this into a language the genders everything as many languages do and
Maybe chicken is like a is a masculine noun and Road is a feminine noun and it has to know
What it's about right?
Is this like is this L or L or whatever so the idea of this benchmark is?
measuring how well it can resolve ambiguities because if this says wide if you're trying to do
Translation the old old-fashioned way
Where you're like parsing trees and looking things up in dictionaries and stuff like that
This kind of sentence is the hell nightmare because you can't you don't know. I mean, you just don't know the information is not
really present in the
Text it's not present grammatically. It's present in your understanding of the world and chickens and roads, right?

English: 
So translating this if this is it was too wide and you translate it
Into something which is the equivalent of the English sentence the chicken cross the road because the chicken was too wide you've screwed up
Right, that's a bad translation. But at the same time
Like there's nothing in the sentence that tells you that it shouldn't be right
so what you need to do is the same this the thing that we've already seen that GPT 2 is super good at
Which is pulling in knowledge of the world
Like knowing that the University of La Paz is going to be near the Andes or in the Andes right that kind of thing
It's going to know
that
Roads being wide is a thing much more than chickens being wide is a thing and so on and that like roads don't get scared
If it's scared crazy fearless, so again on this kind of thing, it does very well
It beats the state of the art by a lot. You can see on this graph here
So the way that this graph is laid out, by the way, this is the same in all of them
This is the size of the model. They made four different sizes of model. And these are like the same sizes that previous

Turkish: 
Öyleyse, eğer bu çok genişse, bunu tercüme etmek
İngilizce cümlenin karşılığı olan bir şeye, tavuk yoldan geçiyor, çünkü tavuk çok geniş
Doğru, bu kötü bir çeviri. Ama aynı zamanda
Cümlenin, doğru olmamasını söyleyen hiçbir şey yokmuş gibi.
Yapmanız gereken şey, GPT 2'nin çok iyi olduğunu gördüğümüz şey aynı.
Dünya bilgisini çeken hangisi
La Paz Üniversitesi’nin And Dağları’nın yakınında ya da And Dağları’nın içinde olacağının bilinmesi gibi
Bilecek
o
Yollar geniş olmak, tavukların geniş olmaktan çok daha fazlasıdır.
Çılgın korkusuz korkuyorsa, bu tür bir şey için tekrar, çok iyi yapıyor
Sanatın durumunu çokça yener. Burada bu grafikte görebilirsiniz
Yani bu grafiğin ortaya konduğu şekilde, bu arada, bu hepsinde aynı
Bu modelin boyutu. Dört farklı boyutta model yaptılar. Ve bunlar önceki ile aynı boyutlarda

English: 
Language models were so they were like make sense to compare them their previous to the small ones
They do worse than the state of the art
But then these seven hundred sixty two million parameter and the 1.5 billion parameter significantly past state of the art
They're getting like 70 percent. So the state of the art is the straight line across, right?
Yes
And the thing that is also kind of fun about some of these graphs is so some of them they're seven six two
million and the 1.5 billion end up doing about as well as each other, which means you've like hit the limit of I
Get maybe your data set or whatever. Whereas in this one. They're still growth which means an even bigger model
We might expect to do even better maybe reading comprehension
This is another thing you have some text you then you have to answer questions about that text, right?
the thing that's fun is
How do you do this
Without
Modifying your model. That's just a generative model
This is where we start getting into
So that's... you... by the time it's read it, it's modified itself based upon what you've given it to read? Is that what you mean?
No, what I mean is

Turkish: 
Dil modelleri, öncekilerle küçük olanları karşılaştırmak için mantıklı gibiydiler.
Sanat devletinden daha kötüsünü yaparlar
Ancak daha sonra bu yedi yüz altmış iki milyon parametre ve 1.5 milyar parametre, son teknoloji ürünü bir biçimde geçmişe dayanıyor
Yüzde 70'i alıyorlar. Yani sanatın durumu düz çizgide, değil mi?
Evet
Ve bu grafiklerin bazıları için aynı zamanda eğlenceli olan şey, bazılarının yedi altı iki olması.
Milyon ve 1.5 milyar, birbirlerinin yanı sıra birbirleriyle de ilgileniyorlar.
Belki veri kümeni ya da her neyse al. Oysa bunun içinde. Hala büyüyorlar, yani daha da büyük bir model
Okuduğunu anlama belki de daha iyisini yapmayı umabiliriz
Bu, sizin de bir metniniz olan başka bir şey, o zaman bu metin hakkında soruları cevaplamanız gerekiyor, değil mi?
eğlenceli olan şey
Bunu nasıl yapıyorsun
olmadan
Modelinizi değiştirme Bu sadece üretken bir model
Burası içine girmeye başlıyoruz
Yani bu ... siz ... okuduğunda, okuması için verdiğiniz şeye bağlı olarak kendini değiştirdi mi? Demek istediğin bu mu?
Hayır, demek istediğim

Turkish: 
GPT 2'nin çalışma şekli
belirteçlerin sırasını verirsiniz ve bir sonraki belirteç için olasılık dağılımını verir ve
yani bunun imzası gibiler.
Eksik bir kelimeyi doldurmaya çalışıyorsanız tamamen
Sanırım bunlar için nasıl yaptıklarını bilmiyorum.
bu test için
Ama almalısın, sana verdiğin zorluğu almalısın ve ...
Bunun gibi bir sonraki kelimeyi tahmin etmek
tip
çünkü aksi takdirde kurulum
Bir çeşit hile yapıyorsun, değil mi? Bütün mesele şu ki, buna devam etmeye çalışıyorlar ve sistemi hiç değiştirmiyorlar. Yani
okuduğunu anlama için
onların yapma şekli onlar
ver
Anlaşılması gereken şeyler ve
sonra veriyorlar
S: bir soru a: bu sorunun doğru cevabı

English: 
The way that GPT 2 works is
you give it the sequence of tokens and it gives you a probability distribution for the next token and
so they're like type signature of that is
totally fine with if you're trying to fill in a missing word or
I guess I don't know how they did it for these
for this test
But you have to take you have to take the challenge that you're given and try and express it in terms of
This like predict the next word
type
setup because otherwise
You're sort of cheating, right? The whole thing is they're trying to go at this and not not modify the system at all. So
for reading comprehension
the way they do it is they
give the
thing bits to be comprehended and
then they give
Q : a question a : the correct answer to that question

English: 
newline Q : a new question they give like three or four example questions and then
Q : the question, they actually want answered a : let it generate
So they sort of prime it I think we have some examples of this
So this is how they did the question/answer thing. They gave these two paragraphs about
the
Olympic Games to torch relay moving the
Olympic torch and I have some news story and then a bunch of questions right question
What was the theme of the one world one dream and so on and so on and then at the end question and did they?
climb any mountains and then a :
Generate me the next word so they've used
This the the input text to kind of prime the model
Now we're doing question-answer pairs. This is how it works, right and
The interesting thing about this is it actually ends up giving kind of a better answer than that human generated answers

Turkish: 
newline Q: Üç veya dört örnek soru gibi yeni bir soru sordular
S: soru, aslında cevap vermek istiyorlar: üretmesine izin vermek
Böylece bir tür prime ederler, bence bunun bir örneğini var.
Demek soru bu şekilde cevaplandılar. Hakkında bu iki paragrafı verdiler
 
Olimpiyat Oyunları'nda meşale röle hareket ediyor
Olimpiyat meşalesi ve bazı haberlerim var ve sonra bir sürü soru doğru soru
Bir dünyanın rüyasının teması neydi ve bunun gibi şeyler, nihayetinde soru sordular mı?
Herhangi bir dağa tırmanın ve sonra:
Bana bir sonraki kelimeyi üret, böylece kullandılar.
Bu modelin ana türüne giriş metni
Şimdi soru-cevap çiftleri yapıyoruz. Bu nasıl çalışır, doğru ve
Bununla ilgili ilginç olan şey aslında insanın verdiği cevaplardan daha iyi bir cevap vermesidir.

English: 
So the question did they climb any mountains the responses they got from humans were unknown. Yes. Yes, and yes because they do plain mountains
but gbg to
Dare answer is Everest. So gbt twos answer is actually kind of better than the humans. The humans just said, yes they did and
the machine learning system has named the mountain that they climbed so I don't know if that's
If that counts is not quite understanding the question or if that counts is actually providing a high-quality answer
It's up for debate because it has this ability with attention to do the long range
It has to look back past all of the previous questions
To the actual paragraph and find the relevant information and it can do it and it performs reasonably. Well at that
But the thing I love about that is that they have to like come up with tricks
To get it to actually do the task that they're trying to get it to do. So the summarization one is brilliant
I love the way they did this with the summarization. See if you can guess how they did this, right?
You want to get a summary of?

Turkish: 
Yani soru, herhangi bir dağa tırmandıklarını, insanlardan aldıkları tepkilerin bilinmediğini söyledi. Evet. Evet ve evet, çünkü düz dağlar yapıyorlar
ama gbg
Cesaret cevabı Everest. Yani gbt twos cevabı aslında insanlardan biraz daha iyi. İnsanlar az önce dediler, evet yaptılar ve
Makine öğrenim sistemi, tırmandıkları dağa adını verdi, bu yüzden bilmiyorum.
Bu sayım soruyu tam olarak anlamak değilse veya bu sayım gerçekten yüksek kaliteli bir cevap veriyorsa
Tartışmaya hazır, çünkü uzun menzilli yapmaya özen göstererek bu yeteneğe sahip.
Önceki tüm soruların arkasına bakmak zorunda
Asıl paragraf ve ilgili bilgileri bulmak ve bunu yapabilir ve makul bir şekilde gerçekleştirir. Peki o zaman
Ama bunun hakkında sevdiğim şey, hileler bulmaktan hoşlanmak zorunda olmaları.
Bunu yapmak için gerçekten yapmaya çalıştıkları görevi yapmak. Yani özetleme bir parlak
Özetleme ile bunu yapma şeklini seviyorum. Bakalım bunu nasıl yaptıklarını tahmin edebilir misin?
Bir özetini almak ister misin?

English: 
A piece of text. How do you how do you get that given a huge data set or edit?
content and what you do is
you write the whole long piece of text and then you put like a new line and then you put
TL DR too long didn't read in this data set. There will be
thousands and thousands of examples of long pieces of text followed by a short summary of that text and
In the middle is this string TL DR? I would love to have been in the room when they thought of that
So yeah, it's really
Really cool really powerful technology. I like it a lot.
So an executable binary the net effect of slotting that T diagram against here slightly downwards is to show you
That the C you've written gets converted into binary and the net output
from this process it produces out a program that you probably store in a

Turkish: 
Bir parça metin. Büyük bir veri seti veya düzenlemesi yapıldığında bunu nasıl elde edersiniz?
içerik ve yaptığınız şey
tüm uzun yazıyı yazıyorsun ve sonra yeni bir satır gibi koyuyorsun ve sonra yazıyorsun
Uzun süredir TL DR bu veri setinde okumadı. Olacak
Binlerce ve binlerce uzun metin örneği örneği ve ardından bu metin kısa bir özeti
Ortadaki bu dize TL DR? Bunu düşündüklerinde odada olmayı çok isterdim
Yani evet, gerçekten
Gerçekten harika gerçekten güçlü teknoloji. Onu çok severim.
Bu nedenle, çalıştırılabilir bir ikili, T diyagramının buraya karşı hafifçe aşağıya doğru yönlendirdiği olmanın net etkisi, size göstermektir.
Yazdığınız C'nin ikili ve net çıktıya dönüştürülmesi
Bu işlemden sonra muhtemelen bir depoda sakladığınız bir program üretir
