
English: 
In the previous video we were talking about
transformers this architecture that uses attention to give
Unprecedented ly good performance on sort of language modeling tasks and some other tasks as well
but when were looking at language modeling and that was in preparation to make a video about
GPG 2, which is this very giant language model that has been there was recently
Well, it was recently not released actually by open AI the way that they generated the data set for this is pretty cool
to get enough text they went to Reddit and
They pulled every website that is linked to from reddit. Do we have any idea of how many days lots?
Literally, everything was everything that had more than three karma
I think or maybe more than two karma something like that like
Anything that had somebody had thought to post around it and at least two or three people who had thought was good enough to upload

Japanese: 
前のビデオで私達は
注意を払ってこのアーキテクチャを変換するというのを話しましたね。
ある種の言語モデル化タスクや他のいくつかのタスクでもこれまでにない優れたパフォーマンス
言語モデリングを見ていたとき、それはについてのビデオを作るための準備中でした
GPG 2は、最近あった非常に巨大な言語モデルです。
まあ、それは最近彼らがこれのためにデータセットを生成した方法がかなりクールであることをオープンAIによって実際にリリースされませんでした
十分なテキストを得るために彼らはRedditに行き、
彼らはredditからリンクされているすべてのウェブサイトを引っ張った。何日の日数があるのか​​、わかりませんか。
文字通り、すべてが3つ以上のカルマを持っていたすべてでした
私は2つ以上のカルマがそのようなものだと思います
誰かがそれを投稿しようと思っていたこと、アップロードしてもいいと思っていた人が少なくとも2人か3人いて

Dutch: 
In de vorige video hadden we het over
transformeert deze architectuur die aandacht besteedt om te geven
Ongekend goede prestaties op soort taalmodelleringstaken en nog enkele andere taken
maar toen keken we naar taalmodellering en dat was in voorbereiding om een ​​video over te maken
GPG 2, dat is dit gigantische taalmodel dat er de laatste tijd is geweest
Nou, het werd onlangs niet daadwerkelijk vrijgegeven door open AI, zoals ze de dataset hebben gegenereerd, want dit is best cool
om voldoende tekst te krijgen gingen ze naar Reddit en
Ze hebben aan elke website getrokken die is gekoppeld aan reddit. Hebben we enig idee van hoeveel dagen veel?
Letterlijk, alles was alles dat meer dan drie karma had
Ik denk of misschien meer dan twee karma zoiets als dat
Alles waar iemand over beschikte, had gedacht eromheen te posten en ten minste twee of drie mensen die dachten dat het goed genoeg was om te uploaden

Turkish: 
Önceki videoda biz hakkında konuşuyorduk
Dikkatini veren bu mimariyi dönüştürür
Eşi görülmemiş ly tür dil modelleme görevlerinde ve diğer bazı görevlerde iyi performans
fakat ne zaman dil modellemesine bakarken, bu konuda bir video hazırlamaya hazırlanıyordu.
GPG 2, son zamanlarda bu devasa dil modeli.
Eh, son zamanlarda aslında açık AI tarafından serbest bırakılmadı, bunun için veri setini ürettikleri yol oldukça güzel
Yeterli metin almak için Reddit’e gittiler.
Reddit ile bağlantılı her web sitesini aradılar. Kaç gün olduğu hakkında bir fikrimiz var mı?
Kelimenin tam anlamıyla, her şey üçten fazla karması olan her şeydi
Sanırım ya da belki ikiden fazla karma böyle bir şey
Birisinin etrafına mesaj göndermeyi düşündüğü ve düşünen en az iki ya da üç kişi yüklemeye yetecek kadar iyiydi

Turkish: 
Ondan metni çıkardılar. Bu hemen hemen sadece bir transformatör. Bu değil
Mimarlık özellikle yeni değil. İnanılmaz yeni bir şey yapmadılar.
yeni keşif ama
Ne farkettiler?
Transformers benziyor
ne kadar çok veri verirseniz o kadar iyi yaparlar ve ne kadar büyük yaparsanız o kadar iyi yaparlar ve
Bu noktaya kadar kurduğumuz her şey açıkça değil
Sanki bunun neler yapabileceğinin sınırlarını aşmadık.
Muhtemelen bizim olduğumuzu sandığımızı sandık
Verilere ve ağ boyutuna göre şişe boyunlu
Öyleyse, 211'i çevirmek istersek ne olur? Bunları verirsek ne olur?
Veri ve gerçekten büyük bir tane yapmak. Kısaltma hakkında konuşmak mantıklıdır, bu yüzden üretici bir ön eğitimdir.
Transformatör çok üretken ters ağ ile aynıdır. Örnek üretmek için çıktılar üretir
Önceden eğitilmiş olan bu şey. Farklı şeyler hakkında konuşuyordum

Japanese: 
彼らはそれからテキストを削り取った。それはほとんど単なる変圧器です。それはありません
建築は特に斬新ではありません。彼らは驚くほど新しいようなことをしていない
新しい発見
彼らが気づいたのは何ですか？
トランスフォーマー
より多くのデータを提供すればするほどそれらはより良いものになり、そしてより大きなあなたがそれらをより良いものにするのです。
この時点までに私たちが積み上げたものはすべて明らかにそうではありません
我々がこれができることの限界にぶつかっていないように
私たちは、私たちはおそらく私たちだと思う
ボトルネックのデータと多分ネットワークサイズ
それでは、211を有効にしたいのであればどうなりますか。
データは本当に大きいものにします。頭字語について正しく話すことは理にかなっているので、それは生成的な事前トレーニングです
変圧器は、生成的敵対的ネットワークと非常に生成的に同じです。サンプルを生成するための出力を生成します
あなたの事前訓練はこれです。いろいろなことについて話していた

English: 
They scraped the text from that. It's pretty much just a transformer. It's not the the
Architecture is not especially novel. They haven't done any like amazing new
new discovery, but
What they realized was?
Transformers it seems like
the more data you give them the better they do and the bigger you make them the better they do and
Everything that we built up until this point is clearly not
Like we haven't hit the limits of what this can do
We they thought we think we're probably
Bottle necked on data and maybe network size
So what happens if we'd like to turn that 211 what happens if we just give this all?
The data and make a really big one. It makes sense to talk about the acronym right so it's a generative pre-training
Transformer so generative same as generative adversarial network. It generates outputs to generate samples
Your pre-trained is this thing. I was talking about all of the different things

Dutch: 
Daar hebben ze de tekst uit geschraapt. Het is zo ongeveer een transformator. Het is niet de de
Architectuur is niet speciaal nieuw. Ze hebben niet zoiets geweldigs gedaan
nieuwe ontdekking, maar
Wat ze zich realiseerden was?
Transformers lijkt het
hoe meer gegevens je ze geeft, hoe beter ze doen en hoe groter je bent, hoe beter ze doen en
Alles wat we tot dit punt hebben opgebouwd is duidelijk niet
Alsof we niet de grenzen hebben bereikt van wat dit kan doen
We dachten dat we denken dat we waarschijnlijk zijn
Er is een nauwe band met de gegevens en misschien ook de netwerkomvang
Dus wat gebeurt er als we dat willen veranderen wat er gebeurt als we dit alles gewoon geven?
De gegevens en maak er een hele grote van. Het is logisch om over het afkortingrecht te praten, dus het is een generatieve vooropleiding
Transformator zo generatief hetzelfde als generatief adversarial netwerk. Het genereert outputs om samples te genereren
Je voorgetrainde is dit ding. Ik had het over alle verschillende dingen

Dutch: 
U kunt een taalmodel gebruiken voor het recht dat u kunt doen, u kunt vertalen. U kunt dubbelzinnigheden proberen op te lossen
Je kunt een samenvatting maken. Je kunt vragen beantwoorden. U kunt de waarschijnlijkheden gebruiken om andere systemen te vergroten
Dus ja, er zijn een heleboel verschillende benchmarks voor deze verschillende taken
dat je misschien wilt dat je taalmodel het doet en
Dit is waar we het over hadden in de video van de grid worlds over deze gestandaardiseerde problemen met gestandaardiseerde metrieken en gestandaardiseerde datasets
Dus als je twee verschillende methoden vergelijkt, weet je dat je appels met appels vergelijkt
En dit is heel belangrijk, het geeft je cijfers over deze dingen. Het is vaak best moeilijk
Zal het waarschijnlijk leuk vinden dat je tekstmonsters genereert en het is net hoe plausibel deze tekst is? Hoe realistisch lijkt het?
Hoe zeg je een cijfer dat het een beetje moeilijk is. Dus er zijn al deze gestandaardiseerde statistieken en
het ding dat
Mensen kwamen tot het besef dat ik eigenlijk dat zeg, alsof het een verbazingwekkende ontdekking is
Het is vrij duidelijk. Als je je systeem op een ongecontroleerde manier traint op een groot corpus van alleen algemene Engelse tekst en
dan neem je dat en

Turkish: 
Dil modelini kullanabiliyorsan doğru yapabilirsin çeviri yapabilirsin. Belirsizlikleri deneyebilir ve çözebilirsiniz
Özetleme yapabilirsiniz. Soruları cevaplayabilirsin. Diğer sistemleri güçlendirmek için olasılıkları kullanabilirsiniz
Yani evet, bu farklı görevler için bir sürü farklı kriter var.
dil modelinizin yapmasını isteyebilirsiniz ve
Izgara dünyalarında bu gibi standartlaştırılmış ölçümler ve standartlaştırılmış veri kümeleriyle standartlaştırılmış problemlere sahip olma videosu hakkında konuştuk.
Eğer iki farklı yöntemi karşılaştırıyorsanız, aslında elmaları elmalar ile karşılaştırdığınızı biliyorsunuzdur.
Ve bu çok önemli gibi size bu şeylerle ilgili rakamlar veriyor. Genellikle oldukça zor
Metin örnekleri oluşturmayı sevdiğiniz ve bu metin ne kadar makul olabilir? Ne kadar gerçekçi görünüyor?
Nasıl zor bir rakamı yazıyorsun? Yani tüm bu standart metrikler var ve
o şey
İnsanlar farkına varmaya başladılar, demek istediğim demek, sanırım şaşırtıcı bir keşif gibi.
Bu oldukça açık. Sisteminizi, yalnızca genel İngilizce metinlerden oluşan büyük bir toplulukta denetimsiz bir şekilde eğitirseniz ve
o zaman sen al ve

English: 
You can use a language model for right you can do you can do translation. You can try and resolve ambiguities
You can do summarization. You can answer questions. You can use the probabilities for augmenting other systems
So yeah, there's a bunch of different benchmarks for these different tasks
that you might want your language model to do and
This is what we talked about in the grid worlds video of having these like standardized problems with standardized metrics and standardized data sets
So that if you're comparing two different methods, you know that you're actually comparing apples to apples
And this is like very important it gives you numbers on these things. It's often quite difficult
Expected to like you're generating samples of text and it's like how plausible is this text? How realistic does it look like?
How do you put a number on that it's kind of difficult. So there's all of these standardized metrics and
the thing that
People came to realize which actually I mean I say that as though it's like some amazing discovery
It's fairly obvious. If you train your system in a like an unsupervised way on a large corpus of just general English text and
then you take that and

Japanese: 
あなたはあなたが翻訳をすることができるのをあなたがすることができる権利のために言語モデルを使うことができます。あいまいさを試すことができます
あなたは要約をすることができます。質問に答えることができます。他のシステムを増強するために確率を使うことができます
それで、ええ、これらのさまざまなタスクのさまざまなベンチマークがあります
あなたの言語モデルにしてほしいと思うかもしれない
これは、標準化されたメトリックと標準化されたデータセットに関する標準化された問題のようなものであることをグリッドの世界で紹介したビデオです。
2つの異なる方法を比較しているのであれば、実際にはリンゴとリンゴを比較していることがわかります。
そして、これはとても重要なことです。それはあなたにこれらのことについての数字を与えます。かなり難しいことが多い
あなたがテキストのサンプルを生成しているのが好きで、それはこのテキストがどれほどもっともらしいかのようなものですか？それはどのようにリアルに見えますか？
どうやって数字を付けますか。それはちょっと難しいですね。したがって、これらの標準化された測定基準はすべてあります。
ということ
人々はそれを実際にそれがいくつかの驚くべき発見のようであるかのように私が言うことを意味することを私が言うことを意味することを実現する
それはかなり明白です。一般的な英語のテキストの大規模なコーパスでシステムを教師なしで訓練すると、
それからあなたはそれを取ります

Japanese: 
このベンチマークのデータまたはそのベンチマークのデータを使用してそれをトレーニングします。
あなたはきちんとしたもののようなものから始めるので、あなたはそれを微調整することを好きになることができます
英語がどのように機能するのかを理解した上で、あなたは今これらのことをするつもりです。
よくある質問に答えるためのサンプル、またはこのベンチマークに進むためにそれを使って解決するためのシステムを構築するつもりです
だからあなたは何かから始める事前訓練を受けています。それは汎用言語モデルのようなものです。
どちらかに微調整
実際のベンチマークまたはあなたが解決しようとしている問題
この
何もないところから始めて各ベンチマークを一から訓練するよりも優れたパフォーマンスを得ることができます。
理にかなって
など
GPT 2ペーパーのポイントは、それをクールにしているのは、本当に巨大なものを作れば大丈夫だということです。
私たちはどうですか？
しない
まったく微調整する

Turkish: 
Bunu, bu kıyaslamadaki verilerle ya da o kıyaslamadaki verilerle eğitin
İnce ayar yapmaktan hoşlandığınız için nezih bir şeyle başlayabilirsiniz.
İngilizcenin az ya da çok nasıl çalıştığını anlamak ve sonra şimdi size şunu vereceğim
Benzeri soru cevaplama örnekleri ya da bu kıyaslama için çözülecek çözümü kullanan bir sistem inşa edeceğim.
Bu yüzden önceden eğitilmiş bir şeyle başlarsınız. Genel amaçlı bir dil modeli gibi, o zaman
İnce ayarlı
Çözmeye çalıştığınız gerçek kriter veya problem
ve bu
Size sıfırdan başlayarak her bir ölçüt için eğitim vermekten ve hiç bir şey yapmamaktan daha iyi performans verebilir.
mantıklı olmak
ve bu yüzden
GPT 2 makalesinin amacı, onu harika yapan şey, gerçekten çok büyük bir şey yaparsak tamam derler.
Ya biz?
yapamaz
İnce ayar yap

Dutch: 
Train dat met de gegevens van deze benchmark of de gegevens van die benchmark
Je kunt het fijn afstemmen zodat je begint met iets dat als een fatsoenlijk heeft
Inzicht in hoe Engels meer of minder werkt en dan zeg je nu, ik ga je deze geven
Voorbeelden voor hetzelfde vraagantwoord of ik ga een systeem bouwen dat dat gebruikt om op te lossen om voor deze benchmark te gaan
Dus het is vooraf getraind, je begint met iets. Dat is als een universeel taalmodel en dan komt u er vanaf
Nauwkeurig afgestemd op welke dan ook
Werkelijke benchmark of probleem dat u probeert op te lossen
en dit
Kan u betere prestaties bieden dan van nul te beginnen en van begin af aan helemaal naar de benchmarks te trainen
logisch
en dus
Het punt van het GPT 2-papier is het ding dat het cool maakt, ze zeiden dat het goed was als we een heel grote maken
Wat als we?
niet doen
Stem het helemaal af

English: 
Train that with the data from this benchmark or the data from that benchmark
You can like fine-tune it so you start with something which has like a decent
Understanding of how English works more or less and then you say now I'm going to give you these
Samples for like question answering or I'm going to build a system using that to solve to go for this benchmark
So it's pre trained you start with something. That's like a general-purpose language model and then you from that a
Fine-tuned it to whichever
Actual benchmark or problem you're trying to solve
and this
Can give you better performance than to starting from nothing and training to each of the benchmarks from scratch
make sense
and so
The point of the GPT 2 paper the thing that makes it cool is they said okay if we make a really huge one
What if we?
don't
Fine tune it at all

Japanese: 
巨大なモデルを作成し、それを台無しにせずにベンチマークで実行してみてください。
それをそのベンチマークのための彼らの特別なデータのどれもそれを示さずに。生だけ
汎用言語モデル、それがどのように実行されるのか
驚くほどよく、それでこれは
テキスト用の非常に大きなデータセット
約40ギガバイト
どっち
実際にはそれほど大したことではないように思えますが、非常識なテキストのためのもののようですね。それは
これはのサイズだと誰かが言った
98年のGoogleのインターネット全体インデックス
だから、そうだね、それはたくさんのテキストだ
そして彼らはそれについてそれを訓練し、そして彼らは最終的に
15億パラメータモデルが、これは最先端のシステムのように345万だった
これは15億です
だから彼らは物事をもっとずっと大きくしただけで、彼らが公開したサンプルのいくつかは本当にうまく機能している。

Dutch: 
Wat als we gewoon een gigantisch model maken en het gewoon proberen uit te voeren zonder te knoeien met de benchmarks?
Zonder dat het een van hun gespecialiseerde gegevens voor die benchmark toont. Alleen het rauwe
algemeen taalmodel, hoe presteert dat en hoe blijkt het
verrassend goed, dus dit is een
Zeer grote dataset voor tekst
Het is ongeveer 40 gigabytes
welke
Klinkt eigenlijk niet zo heel erg, maar wel voor teksttekst die gek is, toch? Haar
iemand zei dat dit zo groot was
Google's volledige index van internet in 98
Dus zoals het is ja, het is veel tekst
en zij trainden het daarop en zij eindigden met een
1,5 miljard parameter model, maar dat is als een systeem van de vorige stand van de techniek was 345 miljoen
Dit is 1,5 miljard
Dus ze hebben het ding gewoon veel groter gemaakt en het doet erg goed enkele van hun samples die ze behoorlijk publiceerden

Turkish: 
Ya biz sadece dev bir model yaparsak ve daha sonra sadece onunla uğraşmadan ölçütlerde çalıştırmayı denersek?
Bu kıyaslama için herhangi bir özel verisini göstermeden. Sadece ham
Genel amaçlı dil modeli, bu nasıl yapılır ve ortaya çıkar
şaşırtıcı derecede iyi, yani bu bir
Metin için çok çok büyük veri kümesi
Yaklaşık 40 gigabayt
hangi
Aslında, çok kulağa hoş gelmiyor ama çılgınca bir metin metni gibi, değil mi? Onun
Birileri bunun büyüklüğü olduğunu söyledi.
Google’ın İnternet’in toplam endeksi 98’de
Yani evet, çok fazla metin
ve bunun üzerine eğittiler ve
1.5 milyar parametre modeli, ancak önceki teknolojiye uygun bir sistem gibi 345 milyon
Bu 1,5 milyar
Bu yüzden, şeyi çok daha büyük hale getirdiler ve yayınladıkları örneklerden bazılarını gerçekten iyi bir performans sergilediler.

English: 
What if we just make a giant model and then just try and run it on the benchmarks without messing with it?
Without showing it any of their specialized data for that benchmark. Just the raw
general-purpose language model, how does that perform and it turns out
surprisingly well, so this is a
Very very large data set for text
It's about 40 gigabytes
which
Actually doesn't sound like very much but like for text text that's insane, right? It's
somebody said that this was the size of
Google's entire index of the Internet in 98
So like it's yeah, it's a lot of text
and they trained it on that and they ended up with a
1.5 billion parameter model, but which is like a previous state of the art system was 345 million
This is 1.5 billion
So they've just made the thing much much bigger and it performs really well some of their samples that they published quite

Japanese: 
世間の想像力を捉えた
あなたが言うことができるそして今私達が問題について少し話し合ったこと
ニューラルネットワークや他の言語モデルは本当に？
長期的な依存関係を持っています
これらのサンプルがどれほど印象的かを実感することができます。
あなたがそれらを初心者で見ないならば、あなたはええのようです、それはかなり現実的です
それは理にかなっているように思えるし、それはクールです。しかし、言語モデルがどのように機能するかを知っているのを見ると、次のようになります。
コヒーレンスと
一貫性と長期的な依存関係なので、みんなの注目を集めた、これを見ることができます。
右
それで彼らは科学者がユニコーンの群れを発見した衝撃的な発見でそれを促しました
 
アンデス山脈のこれまで探検されていない遠くの谷に住んでいる
研究者にとってさらに驚くべきことは、ユニコーンが完璧な英語を話すという事実でした。
そしてそこからあなたはあなたの言語モデルgbgtに行くと言います、そしてあなたは私達がこれで始めたとすればあなたは言います

Dutch: 
veroverde de publieke verbeelding
Je zou kunnen zeggen en nu hebben we het een beetje over de problemen gehad
Neurale netwerken of elk taalmodel echt?
Heeft een langdurige afhankelijkheid
we kunnen nu beseffen hoe indrukwekkend deze voorbeelden zijn, want als je naar ze kijkt zoals je weet,
Als je ze oningewijd bekijkt, ben je als ja, dat is redelijk realistisch
Het lijkt logisch en het is cool. Maar als je ernaar kijkt wetende hoe taalmodellen werken, is dat net zo
zeer indrukwekkend de samenhang en de
Consistentie en de langeafstandsafhankelijkheden zodat we naar deze kunnen kijken die de aandacht van de eenhoorns op ieders aandacht heeft gevestigd
rechts
Dus zij hebben er met een schokkende bevinding toe geleid dat wetenschappers een kudde eenhoorns ontdekten
 
wonen in een afgelegen, nog onontgonnen vallei in het Andesgebergte
Nog verrassender voor de onderzoekers was het feit dat de eenhoorns perfect Engels spraken
En vanaf dat moment zeg je dan dat je naar je taalmodel Gbgt gaat, en je zegt dat we daarmee zijn begonnen

English: 
captured the public imagination
You could say and now that we've talked a little about the problems that
Neural networks or any language model really?
Has with a long term dependency
we can now realise just how impressive these samples are because when you look at them as a you know,
If you look at them uninitiated, you're like yeah, that's pretty realistic
It seems to like make sense and it's cool. But when you look at it knowing how language models work, it's like
very impressive the the coherence and the
Consistency and the long-range dependencies so we can look at this one that got everybody's attention the unicorns one
right
So they prompted it with in a shocking finding scientists discovered a herd of unicorns
living in a remote previously unexplored valley in the Andes Mountains
Even more surprising to the researchers was the fact that the unicorns spoke perfect English
And from there you then say you go to your language model gbgt, and you say given that we started with this

Turkish: 
kamu hayal gücünü ele geçirdi
Söyleyebilirsiniz ve şimdi biz sorunları hakkında biraz konuştuk
Sinir ağları veya herhangi bir dil modeli gerçekten?
Uzun süreli bağımlılığa sahip
Şimdi bu örneklerin ne kadar etkileyici olduğunu anlayabiliriz, çünkü onlara bir bildiğiniz gibi baktığınızda,
Onlara başlamadan bakarsanız, evet gibisiniz, bu oldukça gerçekçi
Mantıklı geliyor gibi görünüyor ve serin. Ancak, dil modellerinin nasıl çalıştığını bildiğinize baktığınızda
tutarlılık ve etkileyici çok etkileyici
Tutarlılık ve uzun vadeli bağımlılıklar, böylece herkesin tek boynuzlu atlara dikkatini çeken şeye bakabiliriz.
sağ
Bu yüzden şok edici bir bulgu olarak, bilim adamları tek boynuzlu at sürüsü keşfettiler.
 
Andes Dağları'ndaki keşfedilmemiş bir vadide yaşamak
Araştırmacılar için daha da şaşırtıcı olan, tek boynuzlu atların mükemmel İngilizce bilmeleriydi.
Ve o zaman oradan dil modelinize gbgt gideceğinizi söylüyorsunuz ve bununla başladığımızı söylüyorsunuz

Japanese: 
次の単語は何ですか、その後の単語は何ですか。
それはそのユニコーンの彼らの独特の角の後に人口という名前の科学者に行きます
これら4つの角のある銀白色のユニコーンは、以前は科学に知られていませんでした
人間は角のあるユニコーンでは意味をなさないので、ここには手がかりがあります。
それにもかかわらず、私たちは大丈夫です
2世紀近く経った今、この奇妙な現象を引き起こした原因の謎はついに解決されました。博士
ブデッティホルヘホルヘペレス
Joはラパス大学の進化生物学者です。
私たちのプロンプトでアンデス山脈について述べたので、これは印象的です、そして今それは大丈夫と言っています
これは明らかです、あなたは衝撃的な発見で知っています。これは科学プレスリリースのニュース記事です
redditからリンクされたことがあるすべてのものがあるので、それらは十分に見られますね。
それで、これらがどのようにそれが知っているかについて知っています。わかりました第3段落
科学者について話すとき、私たちは科学者にインタビューしますね。はい

Dutch: 
Wat is het volgende woord en wat is het woord daarna enzovoort?
Dus het gaat op de wetenschapper genaamd de bevolking na hun kenmerkende hoorn van zijn eenhoorn
Deze vier gehoornde zilverwitte eenhoorns waren voorheen onbekend voor de wetenschap
We hebben hier een idee omdat een mens eenhoorns voor gehoornde niet helemaal logisch is
Maar toch gaan we goed
Nu na bijna twee eeuwen is het mysterie van wat dit vreemde fenomeen heeft aangewakkerd eindelijk opgelost. Dr
Budetti Jorge Jorge Perez
Jo is een evolutionair bioloog van de Universiteit van La Paz
Dit is indrukwekkend omdat we het Andesgebergte op onze prompt hebben genoemd en dus zegt het nu oké
Dit is duidelijk, weet je in een schokkende bevinding. Dit is een nieuwsartikel over het persartikel over wetenschap
Het heeft genoeg van die gezien omdat het elke enige heeft die ooit is gekoppeld aan reddit, toch?
Dus het weet hoe deze het gaan weet. Oké, derde alinea
Dit is wanneer we over de wetenschapper praten, we interviewen de wetenschapper, toch? oke

Turkish: 
Sıradaki kelime nedir ve ondan sonraki kelime nedir?
Bu yüzden, tek boynuzlu atının kendine özgü boynuzundan sonra popülasyon adındaki bilim adamına gider.
Bu dört boynuzlu gümüş beyaz tek boynuzlu at, daha önce bilime bilinmiyordu
Boynuzlu tek boynuzlu atların bir anlamı olmadığından, burada bir ipucumuz var.
Ama yine de iyi gidiyoruz
Şimdi neredeyse iki yüzyıldan sonra bu garip fenomeni başlatan şeyin gizemi nihayet çözüldü. Dr
Budetti Jorge Jorge Perez
Jo G, La Paz Üniversitesi'nden evrimsel bir biyolog.
Bu etkileyici çünkü bizden istifa ettiğimizde And Dağları’ndan bahsettik ve şimdi tamam diyor
Bu açıkça, şok edici bir bulgu olduğunu biliyorsunuz. Bu bir bilim basın bülteni haber makalesi
Bunlardan yeterince görülüyor çünkü reddit ile bağlantısı olan her birine sahip, değil mi?
Yani bunların nasıl gittiğini biliyor. Tamam üçüncü paragraf
Bilim adamı hakkında konuştuğumuzda, bilim adamıyla röportaj yapıyoruz, değil mi? Tamam

English: 
What's the next word and what's the word after that and so on?
So it goes on the scientist named the population after their distinctive horn of its unicorn
These four horned silver white unicorns were previously unknown to science
We do have a clue here as a human being unicorns for horned doesn't quite make sense
But nonetheless we're going okay
Now after almost two centuries the mystery of what sparked this odd phenomenon is finally solved. Dr
Budetti Jorge Jorge Perez
Jo are G an evolutionary biologist from the University of La Paz
This is impressive because we've mentioned the Andes Mountains in our prompt and so now it's saying okay
This is clearly, you know in a shocking finding. This is a science press release news article
It's seen enough of those because it has every single one that was ever linked to from reddit, right?
So it knows how these go it knows. Okay third paragraph
This is when we talk about the scientist, we interview the scientist, right? Okay

Dutch: 
Het eerste woord van de wetenschapper paragraaf, Dr. Natuurlijk, juist omdat dit het nu is dat we in naam van de wetenschapper zijn
Welke naam gaan we geven?
Het moet een naam zijn
conditionering op het feit dat we het Andes-gebergte hebben
Dus we moeten komen waar we in Zuid-Amerika zijn
De naam moet waarschijnlijk Spaans of misschien Portugees zijn
Dus we krijgen dr. Perez hier
En dan is evolutionaire bioloog logisch omdat we het over dieren hebben
van de universiteit van La Paz opnieuw
Dit is de eerste zin zoals wanneer je die eerste zin hebt die de wetenschapper introduceert die je altijd zegt waar ze vandaan komen
Dus we zeggen van de universiteit en dan zijn universitaire namen vaak de naam van een stad
Wat is de stad waar we het Andesgebergte hebben, dus we gaan naar Lapaz, Bolivia. Perfect
En het enige dat cool is, is dat het al deze dingen herinnert die een hele tijd geleden een aantal zinnen geleden zijn geweest
Wel, het heeft ze niet onthouden. Er is op die afstand aandacht aan besteed, wat indrukwekkend is

English: 
First word of the scientist paragraph, dr. Obviously, right because this is the now we're in the name of the scientist
What name are we going to give?
It needs to be a name
conditioning on the fact that we have the Andes Mountains
So we need to get where we're in South America
The name probably should be Spanish or maybe Portuguese
So we get we get dr. Perez here
And then evolutionary biologist makes sense because we're talking about animals
from the University of La Paz again
This is the first sentence like when you have that first clause that introduces the scientist you always say where they're from
So we say from the University of and then university names tend to be the name of a city
What's the city where we have the Andes Mountains, so we're going to Bolivia lapaz. Perfect
And the thing that's cool about this is it's remembered all of these things that were quite a long time ago several sentences ago
Well, it hasn't remembered them. It's paid attention to them across that distance, which is impressive

Japanese: 
科学者パラグラフの最初の言葉、博士。明らかに、これが今私たちが科学者の名の下にあるのだから
私たちはどんな名前をつけるつもりですか？
それは名前である必要があります
アンデス山脈があるという事実の条件付け
だから私たちは南アメリカの現在地を知る必要があります
名前はおそらくスペイン語かポルトガル語であるべきです
だから私達は私達がdrを得る。ペレスはこちら
動物について話しているので進化生物学者は理にかなっている
再びラパス大学より
科学者を紹介する最初の節があるときのように、これは最初の文です。
だから私たちは大学から言うし、大学の名前は都市の名前になる傾向がある
私たちがアンデス山脈を持っている都市は何ですか、それで私たちはボリビアラパスに行きます。完璧な
そしてこれについてクールなことはそれはかなり長い時間前にいくつかの文の前にあったこれらの事のすべてを覚えているということです
まあ、それはそれらを覚えていません。それはその距離を越えて彼らに注意を払った、それは印象的です

Turkish: 
Bilim paragrafının ilk sözü, dr. Açıkçası, doğru çünkü şimdi biz bilim adamının ismindeyiz.
Hangi ismi vereceğiz?
Bir isim olmalı
And Dağları'nın olduğu gerçeğine koşullandırma
Bu yüzden Güney Amerika’da olduğumuz yere gitmeliyiz.
Adı muhtemelen İspanyolca veya Portekizce olmalı
Bu yüzden biz Dr. Perez burada
Ve sonra evrimsel biyolog mantıklı çünkü biz hayvanlar hakkında konuşuyoruz
yine La Paz Üniversitesi'nden
Bu, her zaman nereden olduklarını söylediğiniz bilim insanını tanıtan ilk maddeye sahip olduğunuz gibi ilk cümledir.
Yani biz üniversite diyoruz ve sonra üniversite isimleri bir şehir ismi olma eğiliminde
And Dağları'nın bulunduğu şehir ne, yani Bolivya lapaz'a gidiyoruz. Mükemmel
Ve bu konuda havalı olan şey, uzun zaman önce birkaç cümle önce geçen tüm bu şeylerin hatırlanmasıdır.
Onları hatırlamadı. Etkileyici olan bu mesafe boyunca onlara dikkat edildi.

English: 
But also this is encoding a bunch of understand understanding a bunch of information about the real world
Right all that was given all it knows is statistical relationships between words, but the way that it comes out to us
Is that it knows?
Where the Andes Mountains are what kind of names people in that area have what their cities are what the universities are all of those
Facts about the real world because in order to have a really good language model it turns out you have to kind of implicitly encode
information about the world because
We use language to talk about the world and knowing what's likely to come next
Requires actual real world understanding and that's something that we see in some of the other
Things that they got it to do you can see the real world understanding coming through
Let's keep going
University of a person several companions were exploring the Andes Mountains when they found a small valley with no other animals or humans peres see
We're hanging on to him. Yep. We're referring to him again

Dutch: 
Maar dit codeert ook een hoop begrip voor een hoop informatie over de echte wereld
Precies datgene wat het heeft gekregen is alles wat het weet, is statistische relaties tussen woorden, maar de manier waarop het naar ons uitgaat
Is dat het weet?
Waar het Andesgebergte is, wat voor soort namen de mensen in dat gebied hebben wat hun steden zijn, wat de universiteiten allemaal zijn
Feiten over de echte wereld, want om een ​​echt goed taalmodel te hebben, blijkt het dat je een beetje impliciet codeert
informatie over de wereld omdat
We gebruiken taal om over de wereld te praten en te weten wat er waarschijnlijk gaat komen
Vereist werkelijk begrip van de echte wereld en dat is iets dat we in de een ander zien
Dingen waar ze het voor hebben, kunnen het begrip van de echte wereld zien komen
Laten we door gaan
Universiteit van een persoon verschillende metgezellen verkenden het Andesgebergte toen ze een klein dal vonden waar geen andere dieren of mensen konden zien
We houden hem vast. Yep. We verwijzen opnieuw naar hem

Turkish: 
Ama aynı zamanda, gerçek dünya hakkında bir demet bilgiyi anlayabilen bir grup anlaşmayı da kodluyor.
Bildiği kadarıyla verilen her şey, kelimeler arasındaki istatistiksel ilişkiler, ancak bize geldiği gibi.
Biliyor mu?
And Dağları'nın olduğu yerde, o bölgedeki insanlar ne tür isimler alırlar, şehirleri ne olur, üniversiteler nelerdir?
Gerçek dünyayla ilgili gerçekler, çünkü gerçekten iyi bir dil modeline sahip olmak için örtük olarak kodlamanız gerekiyor.
dünya hakkında bilgi çünkü
Dili dünya hakkında konuşmak ve daha sonra ne geleceğini bilmek için kullanıyoruz
Gerçek gerçek dünya anlayışı gerektirir ve bu diğer bazılarında gördüğümüz bir şeydir.
Yaptıkları şeyleri gerçek dünya anlayışının ortaya çıktığını görebilirsiniz.
Hadi devam et
Bir insanın üniversitesi, birkaç arkadaş, başka hayvan veya insan perileri görmeyen küçük bir vadi bulduğunda And Dağları'nı keşfediyordu.
Ona asılıyoruz. Evet. Ona tekrar atıfta bulunuyoruz

Japanese: 
しかし、これは現実の世界についてのたくさんの情報を理解するたくさんの理解をエンコードしています。
それが知っていることをすべて与えられたのは、単語間の統計的な関係だけですが、それが私たちにもたらされる方法です。
それは知っていますか？
アンデス山脈がどこにあるのかその地域の人々はどのような名前を持っていますか
本当に良い言語モデルを持つためには、暗黙のうちにエンコードする必要があることがわかっています。
世界に関する情報
私たちは世界について話し、次に来る可能性が高いものを知るために言語を使います
実際の実世界の理解が必要であり、それは私たちが他の人々のうちのいくつかで見るものです
彼らがそれをするために得たものはあなたを通して現実の世界の理解が見えるのを見ることができます
続けていきましょう
彼らが他の動物や人間の害虫がいない小さな谷を見つけたとき、ある人の大学のいくつかの仲間がアンデス山脈を探索していました
私たちは彼に頼っています。うん私達は彼に再び言及している

Japanese: 
しかし今、私たちはそれを単なる姓に変更しました。
ニュース記事で人々が使用するフォーマットペレスは、谷は2つの山頂に囲まれた自然の泉であると思われるものがあることに気づいた。
岩と銀の雪は現在他の人たち、それから私達の記事の中でここの周りの谷へとさらに進出した。
私達は科学者からの正しい引用を持っているべきです
私たちが1つのピークの頂点に達するまでに、水は上にいくつかの結晶で青いように見えました、そして我々はこの噴水について話しています
それは自然の泉だと思います。前のintを参照しています。それはすべてのようなものです
これらの奇妙なことを調べながら抜粋した段落でそこを調べながらテキストの以前の部分に依存して頼りに
科学者たちが発見した生物は、私が好きなことを読んだときに知っている、普通の英語を話すこともわかった。
これは今では異常に優れています。なぜならそれは6つの段落が
それはこの点について知っています。私はこれの最初の文をカバーしました
最初の段落
今度は、この2番目のリードのセンテンスについて話をする時が来ました。
英語を話し、
それが入ってくるニュース記事の部分に到達するまで、それは話す英語の部分を完全に無視しました。

Dutch: 
maar nu hebben we het veranderd in alleen de achternaam, want dat is het
format dat mensen gebruiken in nieuwsartikelen Peres merkte op dat de vallei een natuurlijke fontein had, omringd door twee pieken van
Rots en zilveren sneeuw weldra anderen, waagden toen verder het dal in, hier in ons artikel
We zouden een citaat uit het citaat van de wetenschapper moeten hebben
Tegen de tijd dat we de top van een piek bereikten leek het water blauw met een paar kristallen erboven en we hebben het over deze fontein
Ik denk dat het een natuurlijke fontein is. We verwijzen terug naar de vorige int. Het is alsof alles is
Zich baserend op eerdere delen van de tekst terwijl ze daar door een afgeknipte alinea worden onderzocht terwijl ze deze bizar onderzoeken
Wezens die de wetenschappers ontdekten dat de wezens ook vrij regelmatig Engels spraken, weten wanneer ik lees dat ik het leuk vind, oké
dit is nu ongewoon goed, want dat is de tweede zin van de hoofdzin waar zes alinea's in en
Het weet van dit punt. Ik heb de eerste zin hiervan behandeld
eerste alinea
nu is het tijd om over deze tweede zin van de leiding te praten, nog verrassender voor het onderzoek van ons over het feit dat zij
sprak Engels en
Het negeerde volledig het sprekende Engelse deel totdat het bij het deel van het nieuwsartikel kwam waar dat binnenkomt

English: 
but now we've changed it to be just the surname because that's the
format that people use in news articles Peres noticed that the valley had what appeared to be a natural fountain surrounded by two peaks of
Rock and silver snow presently others, then ventured further into the valley a round about here in our article
We should have a quote from the scientist right quote
By the time we reached the top of one peak the water looked blue with some crystals on top and we're talking about this fountain
I guess it's natural fountain. We're referring back to the previous int. It's like everything is
Relying on in contingent on earlier parts of the text while examining there by snipped paragraph while examining these bizarre
Creatures the scientists discovered that the creatures also spoke some fairly regular English know when I read that I like, okay
this is now unusually good because that's the second sentence of the lead right where six paragraphs in and
It knows about this point. I've covered the first sentence of this
initial paragraph
now it's time to talk about this second sentence of the lead even more surprising to the research of us of the fact that they
spoke English and
It completely ignored the speaking English part until it got to the part of the news article where that comes in

Turkish: 
ama şimdi sadece soyadı olarak değiştirdik, çünkü bu
Haberlerde insanların kullandığı format Peres, vadinin iki tepe ile çevrili doğal bir çeşme gibi göründüğünü fark etti.
Kaya ve gümüş kar şuanda diğerleri, sonra makalemizdeki vadide bir tur daha ilerliyoruz
Bilim adamının doğru teklifinden bir teklif almalıyız.
Bir zirvenin tepesine ulaştığımızda, su üstünde bazı kristallerle mavi görünüyordu ve bu çeşmeden bahsediyoruz.
Sanırım bu doğal çeşme. Önceki int'ye geri dönüyoruz. Her şey gibi
Bu tuhaflığı incelerken metnin daha önceki bölümlerine şartlı olarak, paragrafla incelenirken metnin daha önceki bölümlerine dayanmak;
Yaratıklar, bilim adamları, yaratıkların, sevdiğim zaman okuduğumda bildikleri oldukça düzenli İngilizce bildiklerini de keşfetti.
bu şimdi alışılmadık derecede iyi çünkü bu altı paragrafın girdiği yerin ikinci cümlesi ve
Bu noktayı biliyor. Bunun ilk cümlesini ele aldım
ilk paragraf
Şimdi, liderin bu ikinci cümlesinden bahsetmenin tam zamanı, bize yaptıkları araştırmayı daha da şaşırtıcı kılıyor.
İngilizce konuştu ve
Konuşan İngilizce bölümünü tamamen görmezden geldi.

Turkish: 
Altı bütün paragrafa gittin
ın fikri
Tek boynuzlu atın mükemmel konuştuğunu kesinlikle hatırlamak
İngilizce, bu benim için çok etkileyici ve o zaman biraz insansızlaşıyor.
Tek boynuzlu atların gerçekten olup olmadığından emin olmanın tek yolunun kesin olduğunu söylemeye başlar
Kayıp bir uzaylı ırkının soyundan gelenler DNA'dan geçiyor. Bu gerçekten okundu
Şey, aslında reddit ile ilgili bir şey değil. Reddit ile bağlantılı şeyler. Ama evet, bu haber makaleleri erkekler.
İngilizceyi oldukça iyi iletişim kurabiliyorlar gibi görünüyor
Bilim adamının, evrimin bir işareti olduğunu ya da en azından sosyal organizasyonda bir değişiklik olduğuna inanıyorum
Bu onun evrimsel biyolojisi. Sağ? Doğru doğru. Evet, burada evrimsel bir biyolog olduğunu biliyoruz. Öyleyse bu
bu metnin tutarlılığı
gerçekten yeteneğine bağlı
Ne ürettiğini koşullandırmak
Uzun zaman önce yarattığı şeyler
Yani evet

Dutch: 
Je bent zes hele paragrafen gegaan
het idee van
Nauwkeurig te herinneren dat de eenhoorn perfect spreekt
Zo is Engels zo indrukwekkend en dan gaat het er een beetje uitgehaald uit
Begint te praten over het is waarschijnlijk dat de enige manier om zeker te weten of eenhoorns inderdaad zijn
De afstammelingen van een verloren buitenaards ras zijn door DNA. Dat is het echt gelezen
Nou, het zijn eigenlijk geen dingen op reddit. Het zijn dingen gelinkt aan van reddit. Maar ja, dit zijn dit nieuwsartikels mannen
Ze lijken redelijk goed in het Engels te kunnen communiceren
Wat ik geloof is een teken van evolutie of op zijn minst een verandering in sociale organisatie zei de wetenschapper
Dat is zijn evolutionaire biologie daar. Rechts? Oké, goed. Ja, we weten dat dit een evolutionair bioloog is. Zo ook de
de samenhang van deze tekst is
echt afhankelijk van zijn vermogen om
Voorwaarde wat het genereert
Dingen die lang geleden zijn gegenereerd
Dus ja

English: 
You've gone six whole paragraphs
the idea of
Accurately remembering that the unicorn speak perfect
English is like that's very impressive to me and then it goes into its gets a little bit unhinged
Starts talking about it's likely that the only way of knowing for sure if unicorns are indeed
The descendants of a lost alien race is through DNA. That's read it really
Well, it's not actually stuff on reddit. It's stuff linked to from reddit. But yeah, this is this is news articles men
They seem to be able to communicate in English quite well
Which I believe is a sign of evolution or at least a change in social organization said the scientist
That's his evolutionary biology there. Right? Right, right. Yeah, we know here's an evolutionary biologist. So so the the
coherence of this text is
really dependent on its ability to
Condition what it's generating on
Things that it's generated a long time ago
So yeah

Japanese: 
あなたは6段落全部行った
のアイデア
ユニコーンが完璧に話すことを正確に覚えている
英語はそれが私にとって非常に印象的であるようであり、それからそれは少し邪魔されずに入ります。
ユニコーンが本当にあるかどうかを確実に知る唯一の方法である可能性が高いという話を始めます
失われたエイリアンの子孫はDNAによるものです。それは本当に読みました
まあ、それは実際にはredditのものではありません。それはredditからリンクされているものです。しかし、ええ、これはニュース記事男性です
彼らは英語でとても上手にコミュニケーションできたようです
私が信じているのは、進化のしるし、あるいは少なくとも社会組織の変化の兆候であると科学者は言った。
それが彼の進化論的生物学です。右？そうそう。ええ、我々はここで進化論の生物学者であることを知っています。だからそう
このテキストの一貫性は
本当にその能力に依存する
何を生成しているのか
ずっと前に生成されたもの
そうだね

Dutch: 
Dus het kan echt leuke nieuwsartikelen genereren en het kan allerlei soorten tekst dingen genereren die het enige is
Voldoende goed vertegenwoordigd in de oorspronkelijke dataset. Dus dat is GPG - het is echt
Ongewoon krachtig en net zo veelzijdig
taalmodel dat al deze verschillende natuurlijke taalverwerking kan doen
Taken zonder daadwerkelijk specifiek voor die taken te worden opgeleid
Het is echt en dat is waarom het indrukwekkend is
Het is niet dat het een it's een gloednieuwe architectuur of een geheel nieuwe aanpak of wat dan ook is
Het is net wanneer u deze dingen echt enorm maakt en hen enorm veel gegevens geeft
De resultaten zijn echt indrukwekkend
In de originele dataset. Dus het zal je de fanfictie van Lord of the Rings gaan schrijven
Het zal je taartrecepten schrijven als we zijn, er zijn allerlei voorbeelden van verschillende monsters. Hier is een recept voor
Een soort pepermunt-chocoladetaart en het heeft een hoop verschillende

English: 
So it can generate really nice news articles and it can generate all kinds of text things that it anything that is
Sufficiently well represented in the original data set. So that's GPG - it's a really
Unusually powerful and like versatile
language model that can do all of these different natural language processing
Tasks without actually being trained specifically on those tasks
It's really and that's that's why it's impressive
It's not that it's a it's a brand new architecture or a brand new approach or whatever
It's just when you make these things really huge and give them tremendously large amounts of data
The results are really impressive
In the original data set. So it will it will write you the Lord of the Rings fan fiction
It will write you cake recipes if we're like, there's all kinds of examples of different samples. Here's a recipe for
Some kind of peppermint chocolate cake and it's got a bunch of different

Turkish: 
Böylece gerçekten güzel haberler üretebilir ve her türlü yazılı şeyi üretebilir.
Orijinal veri setinde yeterince iyi temsil edildi. Yani bu GPG - bu gerçekten
Olağandışı şekilde güçlü ve çok yönlü
tüm bu farklı doğal dil işlemlerini yapabilen dil modeli
Aslında bu görevler hakkında özel olarak eğitilmemiş görevler
Gerçekten ve bu yüzden etkileyici
Yepyeni bir mimari ya da yepyeni bir yaklaşım ya da her neyse.
Bu şeyleri gerçekten çok büyüttüğünüzde ve çok büyük miktarda veri verdiğinizde
Sonuçlar gerçekten etkileyici
Orijinal veri setinde. Bu yüzden sana Yüzüklerin Efendisi fan kurgu yazacak
İsterseniz size kek tarifleri yazacak, her çeşit farklı örnek örnekleri var. İşte için bir reçete
Bir çeşit naneli çikolatalı kek ve bir sürü farklı var.

Japanese: 
それで、それは本当に素晴らしいニュース記事を生成することができます、そしてそれはそれが何かであることすべての種類のテキストものを生成することができます
元のデータセットで十分によく表現されています。それはGPGです - それは本当に
異常に強力で汎用的な
これらのさまざまな自然言語処理をすべて実行できる言語モデル
それらのタスクについて実際に訓練されていないタスク
それは本当にそしてそれがそれが印象的な理由です
それはそれがまったく新しいアーキテクチャーや新しいアプローチ、あるいは何でも
それはあなたがこれらのものを本当に巨大にして、それらに途方もない量のデータをそれらに与えるときだけです
結果は本当に印象的です
元のデータセットだからそれはあなたにロードオブザリングのファンの小説を書くでしょう
私たちが好きなら、それはあなたにケーキのレシピを書くでしょう、異なるサンプルの例のすべての種類があります。これがレシピです
ペパーミントチョコレートケーキの一種で、それは別の束を得ました
