
Chinese: 
 大家好  欢迎来到
hello everybody and welcome back to
面向程序员的深度学习实践课程
practical deep learning for coders
这是第二课
this is lesson two
上节课我们开始训练了自己的第一个模型
and in the last lesson we started training our first models
我们其实根本不知道
we didn't really have any idea
那些训练到底是什么原理
how that training was really working
但是我们从更高层面还是了解到不少
but we were looking at a high-level at what was going on
而且我们还学了机器学习是什么
and we learned about what is machine learning
还有它是如何运作的
and how is that work
我们意识到  基于机器学习的原理
we realized that based on how machine learning worked
它实际能做的事情有一些基本限制
there are some fundamental limitations on what it can do
而且我们讨论了其中部分限制
and we've talked about some of those limitations
而且我们还讨论了
and we also talked about
你训练完一个机器模型后
how after you've trained a machine learning model
你会得到一个程序
you end up with a program
这个程序就和普通程序差不多
which behaves much like a normal programs
你给个输入它就给你个输出
something with the inputs sent to the middle and outputs

Japanese: 
2それでは皆さん、こんにちは。そして、
コーダのための実践的ディープラーニングへお帰りなさい。今回はレッスン2です。
そして、
前回のレッスンでは
最初のモデルのトレーニングを開始しました。実際にトレーニングがどのようなものかは考えずに
より高いレベルでどうなっているかを見ていました。
そして、
私たちは
機械学習とは
何であるか、そしてどのように機能するかを学びました。
さらに
私たちは
機械学習がどう動くかに基づいて考えると、そもそも機械学習にはできることの制限があることを認識しました。
そして、そういった制限についても話しました。
さらに、機械学習モデルを訓練した後に、
通常のプログラムのように振る舞うプログラムができあがることについても話しました：入力、中間にあるもの（モデル）、そして
出力です。

Spanish: 
Hola a todos. Bienvenidos otra vez a
"Aprendizaje Profundo Práctico para Programadores".
Es la Lección 2
y...
y la última lección hemos
empezado a entrenar nuestro primer modelo.
No teníamos mucha idea cómo el entrenamiento realmente funcionaba.
Pero mirábamos desde un punto de vista de alto nivel
qué estaba sucediendo
y hemos aprendido sobre
qué es
aprendizaje automático y cómo funciona.
[humm]
y... nos hemos
dado cuenta
que basando en cómo funciona el aprendizaje automático que hay algunas
limitaciones fundamentales de lo que puede hacer.
Hemos hablado sobre otras limitaciones y también
sobre luego de entrenar nuestro modelo
obtienes un programa que
se comporta como un programa normal. algo con entrada
algo en el medio y salidas.

Italian: 
 Quindi, ciao a tutti e bentornati a Practical Deep Learning for Coders. 
 Questa è la seconda lezione e nell'ultima lezione abbiamo iniziato ad addestrare i nostri primi modelli. 
 Non avevamo idea di come funzionasse davvero quella formazione, ma stavamo guardando 
 un livello superiore a quello che stava succedendo. 
 E abbiamo imparato a conoscere "Che cos'è l'apprendimento automatico?" e "Come funziona?" e ci siamo resi conto 
 che in base a come ha funzionato l'apprendimento automatico che ci sono alcune limitazioni fondamentali 
 su cosa può fare, e abbiamo parlato di alcune di queste limitazioni. 
 E abbiamo anche parlato di come, dopo aver addestrato un modello di apprendimento automatico, si finisce 
 con un programma che si comporta in modo molto simile a un normale programma o qualcosa del genere: con gli input 
 e una cosa in mezzo e uscite. 

English: 
So, hello everybody, and welcome back to Practical
Deep Learning for Coders.
This is lesson two, and in the last lesson
we started training our first models.
We didn't really have any idea how that training
was really working, but we were looking at
a higher level at what was going on.
And we learned about “What is machine learning?”
and “How does that work?” and we realized
that based on how machine learning worked
that there are some fundamental limitations
on what it can do, and we've talked about
some of those limitations.
And we also talked about how after you've
trained a machine learning model, you end
up with a program which behaves much like
a normal program or something: with inputs
and a thing in the middle and outputs.

Tamil: 
அனைவருக்கும் வணக்கம், நிரலாளர்களுக்கான ஆழமான கற்றல்ற்கு மீண்டும் வருக. இது பாடம் 2
கடைசி பாடத்தில் நம்முடைய
முதல் மாதிரியை பயிற்றுவிக்க தொடங்கினோம். அப்படி பயிற்றுவிப்பது, உண்மையில் எவ்வாறு இயங்குகிறது என்பது நமக்குத் தெரியாது.
ஆனால் என்ன நடக்கிறது என்று நாம் ஒரு உயர் மட்டதிலிருந்து பார்த்துக் கொண்டிருந்தோம்
இயந்திர கற்றல் என்றால் என்ன என்பதை கற்றுக்கொண்டோம்.
மற்றும் அது எவ்வாறு செயல்படுகிறது என்றும் தெரிந்துகொண்டோம்.
இயந்திர கற்றல் எவ்வாறு செயல்படுகிறது என்பதை அடிப்படையாகக் கொண்டு,
என்ன செய்ய முடியும் என்பதில் சில அடிப்படை வரம்புகள் உள்ளன என்பதை உணர்ந்தோம்
மற்றும் அந்த வரம்புகள் சிலவற்றைப் பற்றி நாம் பேசினோம்
இயந்திர கற்றல் மாதிரியை நீங்கள் பயிற்றுவித்த பிறகு, ஒரு நிரலுடன் எவ்வாறு முடிவடைகிறோம் என்பதையும் நாம் பேசினோம்
இது ஒரு சாதாரண நிரலைப் போலவே செயல்படுகிறது. சில உள்ளீடுகள், சில நடுவில் மற்றும் வெளியீடுகள் கொண்டதாக இருக்கும்.

Italian: 
 Quindi oggi finiremo per parlarne e poi vedremo come 
 mettere quei modelli in produzione e quali potrebbero essere alcuni dei problemi con farlo. 
 Volevo ricordarvi che ci sono due serie di libri - scusate due serie di quaderni - disponibili 
 a te. 
 Uno è il repo del fastbook (i quaderni effettivi completi contenenti tutto il testo del file O'Reilly 
 libro) e quindi questo ti consente di vedere tutto ciò che ti sto dicendo in modo molto più dettagliato, 
 e poi c'è anche il repo del corso v4 che contiene esattamente gli stessi taccuini 
 ma con tutta la prosa spogliata per aiutarti a studiare. 
 Quindi è lì che vuoi davvero fare il tuo esperimento e la tua pratica e quindi forse 
 mentre ascolti il ​​video, puoi alternare tra il video e il 

Spanish: 
Hoy vamos a
terminar de hablar de eso y
cómo poner esos modelos en producción
y las cuestiones
que implican.
Quiero recordarles que hay
dos conjuntos de cuadernos
disponibles para ti. Uno es
el repositorio "fastbook". Los cuardernos completos, que contienen todo el texto
del libro de O'Reilly.
y...
estos te permiten ver
todo lo que te estoy diciendo con mucho mas detalle.
Además de eso también están el repositorio del curso V4,
que contiene los mismos cuardernos
pero con la prosa quitada,
para ayudarte a estudiar. Ahí es dónde
deberías hacer tus experimentos y prácticas
así mientras escuchas el vídeo puedes
cambiar entre uno y otro, entre el vídeo y la lectura
y hacer uno y luego el otro

Japanese: 
さて、今日は
この話を終わらせてから
実際に訓練したモデルを
本番環境にのせる方法とそうする上での問題点について話します。
そして
2冊の本について再度説明したいです。
失礼、実際にはノートブックですね。
一つは、fast bookで
オライリー本の執筆で実際に使ったノートブックのレポジトリで、
実際に
私が伝えることとプラスアルファを動かすことができます。
そして、もう一つはこのコースのレポジトリで、レッスンで扱うものと同じノートブックですが、
あなた方の理解のために説明文などは消してあります。
ですので、それらのノートブックは授業を聞きながら実行したり、自分で色々試したりできます。
そして、ビデオと本を行ったり来たりすることも、どちらか片方を先に終わらせてからもう片方を進めることもできます。

Chinese: 
所以今天我们今天要结束
so today we're gonna finish up
关于那方面的讨论了
talking about talking about that
然后我们会看看如何
and we're going to then look at how we get
产出这些模型
those models into production
以及做的时候会遇到的一些问题
and what are some of the issues with doing that
可能有哪些
might be
我想提醒一下你
I wanted to remind you that
一共有两种本
there are two sets of books
啊不好意思  两种笔记本可供你选择
sorry two sets of notebooks available to you
第一种是这个fast版本的
one is the the the fast book repo
完整版的笔记本
the full actual notebooks
包含了O'Reilly那本书的全部内容
containing all the text of the O'Reilly book
所以你能看到所有东西
and so this lets you see everything
我也会跟你更详细的解释
that I'm telling you in much more detail
然后还有这个coursev4版本
and then as well as that there's the course v4 repo
包含了完全一样的笔记本
which contains exactly the same notebooks
但是为了帮助你学习 答案全都被拿掉了
but with all the pros stripped away to help you study
所以这是你做各种实验
so that's where you really want to be doing your experiment
和练习的版本
and your practice
在你听视频的时候
and so maybe as you listen to the video
你或许想在其中来回切换
you can kind of switch back and forth
边看边读 或者先看其中一个再看另外一个
between the video and reading or do one and then the other

Tamil: 
எனவே இன்று நாம்
அதை பற்றி பேசி
முடிக்க போகிறோம்
அந்த மாதிரிகளை எவ்வாறு உற்பத்திக்கு கொண்டு செல்லவேண்டும், அதைச் செய்வதில் எந்த மாதிரி  சிக்கல்கள் இருக்கலாம்
என்பதைப் பார்ப்போம்.
இரண்டு தொகுப்புகளாக புத்தகங்கள் உள்ளன என்பதை உங்களுக்கு நினைவூட்ட விரும்புகிறேன்
மன்னிக்கவும், இங்கு இரண்டு தொகுப்புகளாக குறிப்பேடுகள் உள்ளன
முதலாவது - 'FastBook'
களஞ்சியம். ஓ'ரெய்லி புத்தகத்தின் அனைத்து உரையையும் உள்ளடக்கிய முழு உண்மையான குறிப்பேடுகள்
இது நான் சொல்லும் எல்லாவற்றையும், இன்னும் விரிவாக பார்க்க அனுமதிக்கிறது.
பின்னர் அதே குறிப்பேடுகளைக் கொண்ட - பாடநெறி வி4 களஞ்சியம் உள்ளது.
அனைத்து உரைநடைகளும் நீக்கப்பட்டு, நீங்கள் படிக்க உதவும்விதமாக செய்யப்பட்டுள்ளது
உங்கள் பரிசோதனையையும் பயிற்சியும்  நீங்கள் இங்கேதான் செய்யவேண்டும்
நீங்கள் வீடியோவைக் கேட்கும்போது, வீடியோவிற்கும் வாசிப்புக்கும் இடையில் முன்னும் பின்னுமாக மாறலாம். அல்லது ஒன்றைச் செய்த, பின்னர் மற்றதைச் செய்யலாம்.

English: 
So today we're gonna finish up talking about
that and we're going to then look at how we
get those models into production and what
some of the issues with doing that might be.
I wanted to remind you that there are two
sets of books--sorry two sets of notebooks--available
to you.
One is the fastbook repo (the full actual
notebooks containing all the text of the O'Reilly
book) and so this lets you see everything
that I'm telling you in much more detail,
and then as well as that there's the course
v4 repo which contains exactly the same notebooks
but with all the prose stripped away to help
you study.
So that's where you really want to be doing
your experiment and your practice and so maybe
as you listen to the video you can kind of
switch back and forth between the video and

Japanese: 
それから、このノートブックを見て、
セクションの内容を思い出して、コードを実行して、何が起きるかを見て、コードを少し変えるとどうなるかを確認するといった使い方をしてください。
さて、私たちが
見ていたこの行ではデータセットを
作るために
おそらく最も重要であろうラベルの付け方を教えたり
私たちはラベル付けの重要性についても話しましたね
そして、今回は、犬と猫のデータセットを使っています。
このデータセットではファイル名の頭文字が大文字か小文字かでラベルが決まっています。
これは、このデータセットがそう作られているからです。
そして、特に、このvalid_pct=0.2というものを確認しました。
これは、バリデーションセットを作るもので、バリデーションセットについては今後詳しく話したいと思っています。

English: 
reading or do one and then the other, and
then put it away and have a look at the course
v4 notebooks and try to remember like “Okay,
what was this section about?” and run the
code, and see what happens and change it and
so forth.
So we were looking at this line of code where
we looked at how we created our data by passing
in information--perhaps most importantly some
way to label the data--and we talked about
the importance of labeling.
And in this case, this particular dataset
whether it's a cat or a dog, you can tell
by whether it's an uppercase or a lowercase
letter in the first position.
That's just how this dataset (that they tell
you when the readme) works.
And we also looked particularly at this idea
of “valid percent equals 0.2,” and like
“What does that mean?
It creates a validation set.” and that was
something I wanted to talk more about.

Spanish: 
y luego dejarlo y echarle un vistazo a los cuadernos del curso
y tratar de recordar, "bien, ¿de qué trataba esta sección?"
y ejecutar el código, cambiarlo, ver qué pasa y así.
Estábamos mirando
a
esta línea de código donde creábamos
nuestros datos
pasando la información, quizás
mas importante alguna forma de etiquetar
los datos. Y hemos hablado de la importancia del etiquetado.
Y en este caso en particular
donde puedes saber si es un gato un perro si la etiqueta
tiene su primer letra en mayúsculas.
Así es cómo funciona este conjunto de datos (según dice el
"README").
También veremos esta idea de
"porcentaje de validez igual a 0,2"
y qué significa crear un conjunto de validación.
Y eso es algo de lo que quiero hablar.

Tamil: 
பின்னர் அதை விலக்கி வைத்து , வி 4 குறிப்பேடுகளைப் பாருங்கள். பின்னர்அதை நினைவு படுத்த முயற்சிக்கவும்.
இந்த பகுதி எதை பற்றி சொல்கிறது. பின்பு நிரலை இயக்கி, என்ன நடக்கிறது என்று பாருங்கள், பிறகு  அதை மாற்றி பாருங்கள்.
எனவே நாம் பார்த்துக்கொண்டிருந்தது,
இந்த நிரல் வரி. தகவல்களை அனுப்புவதன் மூலம் நாம் தரவை எவ்வாறு உருவாக்கினோம் என்பதைப் பார்த்தோம்.
ஒருவேளை மிக முக்கியமாக
தரவை பெயரிடுவதற்கான ஒரு வழியை பார்த்தோம் மற்றும் பெயரிடுவதின் முக்கியத்துவத்தைப் பற்றி பேசினோம்
இந்த விஷயத்தில், இந்த குறிப்பிட்ட தரவுத்தொகுப்பில், இது ஒரு பூனை-யா  அல்லது நாய்-யா  என்பதை
முதலில் இருப்பது பெரிய எழுத்தா அல்லது சிறிய எழுத்தா என்பதை பார்த்து தெரிந்து சொல்லலாம்
'ReadMe' இல் குறிப்பிட்டுள்ளபடி இந்த தரவுத்தொகுப்பு இவ்வாறே செயல்படுகிறது
குறிப்பாக இந்த 'valid_pct=0.2' என்ற யோசனையையும், இதன் பொருள் என்ன என்பதையும் பார்தோம்
இது ஒரு சரிபார்ப்பு தொகுப்பை உருவாக்குகிறது. இதை பற்றி நான் அதிகம் பேச விரும்பினேன்.

Italian: 
 leggi o fai uno e poi l'altro, poi mettilo via e dai un'occhiata al corso 
 taccuini v4 e cerca di ricordare come "Ok, di cosa trattava questa sezione?" ed esegui il 
 codice e vedere cosa succede e cambiarlo e così via. 
 Quindi stavamo guardando questa riga di codice in cui abbiamo esaminato come abbiamo creato i nostri dati passando 
 nell'informazione - forse la cosa più importante è un modo per etichettare i dati - e ne abbiamo parlato 
 l'importanza dell'etichettatura. 
 E in questo caso, questo particolare set di dati che si tratti di un gatto o di un cane, puoi dirlo 
 dal fatto che si tratti di una lettera maiuscola o minuscola nella prima posizione. 
 È così che funziona questo set di dati (che ti dicono quando il file readme). 
 E abbiamo anche esaminato in particolare questa idea di "percentuale valida è uguale a 0,2" e simili 
 "Cosa significa? 
 Crea un set di convalida. " ed era qualcosa di cui volevo parlare di più. 

Chinese: 
然后把它们放一边
and then put it away
然后看看coursev4的版本
and have a look at the course v4 notebooks
然后回忆起一些比如
and try to remember like
这个章节是讲什么的  然后跑一下代码
what was this section about and run the code
然后看看发生了什么  做些修改  之类的
and see what happens and change it and so forth
之前我们在看这行代码
so we were looking at this line of code
我们看到我们是如何通过
where we looked at how we created
输入我们的信息来生成的数据
our data by passing in information
或许还有最重要的  标记数据的方法
perhaps most importantly some way to label the data
我们还讨论了标记的重要性
and we talked about the importance of labeling
还有这个情况  这个特定的数据集
and in this case this particular data set
无论这是猫还是狗
whether it's a cat or a dog
你可以通过
you can tell by
第一个字母是大写还是小写来判断
whether it's an uppercase or a lowercase letter in the first position
这就是这个数据集
that's just how this data set
自述文件里写的用法
as if they tell you in the readme works
然后我们还特别关注了
and we are also looked particularly at
这个验证百分比为0.2
this idea of valid percent equals zero point two
这什么意思呢
and like what does that mean
这建立了一个验证集
it creates a validation set
这些就是我要多谈一些的
and that was something I wanted to talk more about
但是我想做的第一件事却是
the first thing I  want to do though is

Spanish: 
Sin embargo, quisiera apuntar primero
que esta particular
 
función de etiquetado devuelve
algo que es verdadero o falso.
 
Y realmente este conjunto de datos
también contiene la raza
de 37 razas diferentes de gatos y perros.
Por lo que puedes obtener eso del nombre de archivo.
En cada uno de esos casos estamos tratando de predecir
una categoría, "¿es un gato o un perro?"
o "¿Es un pastor alemán o un beagle
o un gato ragdoll o lo que sea?"
Cuando tratas de predecir una categoría, donde la etiqueta es una categoría
lo llamamos un modelo de clasificación.
Por otro lado podrías intentar predecir
qué edad tiene el animal o
qué tan alto es
o algo parecido, que sería un número continuo
como 13,2 o 26,5 o lo que sea.

Japanese: 
まず最初に指摘しておきたいのは、この特定のラベリング関数は
真か偽のどちらかを返すということです。
このデータセットには、後ほど見るように、37種類の猫と犬の実際の品種も
このデータセットには、後ほど見るように、37種類の猫と犬の実際の品種も含まれており、ファイル名から取得できます。
これら2つのケースでは、カテゴリを予測します。それらは、「猫なのか犬なのか？」、
「ジャーマンシェパードなのかビーグルなのかラグドールなのか？」といったものです。
カテゴリーを予測しようとしているとき、つまりラベルがカテゴリーであるとき、それを分類モデルと呼びます。
一方で、
動物の年齢や身長、
あるいは、
そういったものを予測しようとするとき、対象は13.2や26.5といった連続値です。

Tamil: 
நான் முதலில் இதை  சுட்டிக்காட்ட விரும்புகிறேன், இந்த குறிப்பிட்ட
இந்த பெயரிடும் செயல்பாடு வெளியீடுவது, உண்மையா பொய்யா என்பதை குறிக்கும்
இந்த தரவுத்தொகுப்பில் 37 வகையான பூனை மற்றும் நாய் இனங்களின் விவரமும் உள்ளது என்பதை பின்னர் பார்ப்போம்
அதை கோப்பின் பெயரிலிருந்தும் கண்டுபிடிக்கலாம்
அந்த இரண்டு நிகழ்வுகளிலும் ஒவ்வொன்றிலும், ஒரு வகையை கணிக்க முயற்சிக்கிறோம். இது ஒரு பூனை-யா  நாய்-யா என்று.
அல்லது ஜெர்மன் ஷெப்பர்டா, பீகிளா, ராக்டோல் பூனையா அல்லது மாற்றதா என்று.
நாம் ஒரு வகையை கணிக்க முயற்சிக்கும்போது, சிட்டை ஒரு வகையாக இருக்கும்போது, அதை ஒரு வகைப்பாடு மாதிரி என்று அழைக்கிறோம்
மறுபுறம்
விலங்கின் வயது எவ்வளவு அல்லது எவ்வளவு உயரம் என்று நீங்கள் கணிக்க முயற்சி செய்யலாம்.
அல்லது
இது தொடர்ச்சியான எண்ணைப் போன்ற இருக்கலாம், இது 13.2 அல்லது 26.5 அல்லது எதுவாகவும் இருக்கலாம்

English: 
The first thing I want to do though is point
out that this particular labeling function
returns something that's either true or false.
And actually this data set as we'll see later
also contains the actual breed of 37 different
cat and dog breeds, so you can also grab that
from the filename.
In each of those two cases we're trying to
predict a category “Is it a cat, or is it
a dog?” or “Is it a German Shepherd, or
a Beagle, or a Ragdoll cat, or whatever?”
When you're trying to predict a category,
so when the label is a category, we call that
a classification model.
On the other hand, you might try to predict
how old is the animal, or how tall is it,
or something like that, which is like a continuous
number that could be like 13.2 or 26.5 or
whatever.

Chinese: 
指明这个特定的标记函数
point out that this particular labeling function
返回的的不是True就是False
returns something that's either true or false
而且实际上这个数据集和之后我们
and actually this data set as we'll see later also tells
会看到的说明  也包含了37种
also contains the actual breed
不同的猫和狗的品种
of 37 different cat and dog breeds
你从文件名中也可以获取这些
so you can you can also grab that from the file name
我们试图从这两个中
in each of those two cases we're trying to
预测类别应该是猫或是狗
predict a category is it a cat or is it a dog
或是德牧还是小猎犬
or is it a German Shepherd or a beagle
或是布偶猫之类的
or a ragdoll cat or whatever
当你要预测一个类别的时候
when you're trying to predict a category
所以当标记是类别的时候
so when the label is a category
我们称之为分类模型
we call that a classification model
另一方面你可能要尝试预测
on the other hand you might try to predict
这动物有多大的年龄，长多高
how old is the animal or how tall is it
或者什么别的带有连续性的数字
or something like that which is like a continuous number
这可以是13.2或是26.5之类的
that could be like 13.2 or 26.5 or whatever

Italian: 
 La prima cosa che voglio fare però è sottolineare che questa particolare funzione di etichettatura 
 restituisce qualcosa che è vero o falso. 
 E in realtà questo set di dati, come vedremo più avanti, contiene anche la razza effettiva di 37 diversi 
 razze di cani e gatti, quindi puoi anche prenderle dal nome del file. 
 In ciascuno di questi due casi stiamo cercando di prevedere una categoria "è un gatto, o è 
 un cane?" o "È un pastore tedesco, un beagle, un gatto Ragdoll o qualsiasi altra cosa?" 
 Quando provi a prevedere una categoria, quindi quando l'etichetta è una categoria, la chiamiamo 
 un modello di classificazione. 
 D'altra parte, potresti provare a prevedere quanti anni ha l'animale o quanto è alto, 
 o qualcosa del genere, che è come un numero continuo che potrebbe essere come 13,2 o 26,5 o 
 qualunque cosa. 

Japanese: 
数字を予測しようとするときはいつでも、そのラベルは回帰と呼ばれる数字です。
これらが主に用いられる2種類のモデルで、
分類と回帰と呼ばれるものです。これは非常に重要な専門用語なのでしっかり覚えてください。回帰モデルは、
温度や場所などの1つ以上の数値量を予測しようとします。
これは少し紛らわしいですね。時々、回帰という言葉は
線形回帰と呼ばれる特定のモデルをさすことがあります。
しかし、線形回帰は回帰ではないので、大変紛らわしいです。
線形回帰は特定の種類の回帰に過ぎないことに注意してください。
回帰について話し始めると、線形回帰ではないのに多くの人は線形回帰のことを話していると思い込むでしょう。
さて、私はこのvalid_percent 0.2について話したいと思います。先ほど説明したように、

Tamil: 
ஒரு எண்ணைக் கணிக்க முயன்றால் அல்லது உங்கள் சிட்டை ஒரு எண்ணாக இருந்தால், அதை 'தொடர்புப்போக்கு' என்று அழைக்கப்படும்
எனவே அவை மாதிரியின் இரண்டு முக்கிய வகைகள்
வகைப்பாடு மற்றும் தொடர்புப்போக்கு. இது நீங்கள் தெரிந்துகொள்ளவேண்டிய ஒரு முக்கியமான தொழில்நுட்ப சொல். எனவே தொடர்புப்போக்கு மாதிரி
வெப்பநிலை அல்லது இருப்பிடம் போன்ற, ஒன்று அல்லது அதற்கு மேற்பட்ட எண்ணிக்கையிலான அளவுகளை கணிக்க முயற்சிக்கிறது
இது சற்று குழப்பமானதாக இருக்கிறது, ஏனெனில் சில நேரங்களில் மக்கள் தொடர்புப்போக்கு என்ற வார்த்தையை குறுக்குவழியாக,
நேரியல் பின்னடைவு எனப்படும் ஒரு குறிப்பிட்ட வகையான மாதிரியின் சுருக்கமாக பயன்படுத்திகிறார்கள்
இது மிகவும் குழப்பமானதாக இருக்கிறது, ஏனெனில் அது தொடர்புப்போக்கு என்பதன் அர்த்தம் அது அல்ல. நேரியல் தொடர்புப்போக்கு என்பது ஒரு குறிப்பிட்ட வகையான தொடர்புப்போக்கு.
ஆனால் நான் அதைப் பற்றி எச்சரிக்க விரும்பினேன். நீங்கள் பின்னடைவைப் பற்றி பேசத் தொடங்கும் போது,
அந்த வார்த்தையின் அர்த்தம் அதுவல்ல என்றாலுமே,  நீங்கள் நேரியல் தொடர்புப்போக்கைப் பற்றி பேசுகிறீர்கள் என்று மக்கள் கருதுவார்கள்.
சரி, எனவே இந்த 'valid_pct=0.2' பற்றி பேச விரும்பினேன்,
எனவே நாம் சொன்னதுபோல செல்லுபடியாகும் சதவீதம்

English: 
Anytime you're trying to predict a number,
your label is a number you call that regression.
Okay?
So those are the two main types of model classification
and regressions.
This is very important jargon to know about.
So the regression model attempts to predict
one or more numeric quantities such as temperature,
or location, or whatever.
This is a bit confusing, because sometimes
people use the word regression as a shortcut
to a particular, for a…
Like an abbreviation for a particular kind
of model, called linear regression.
That's super confusing, because that's not
what regression means.
Linear regression is just a particular kind
of regression but I just wanted to warn you
of that.
When you start talking about regression a
lot of people will assume you're talking about
linear regression even though that's not what
the word means.
All right, so I wanted to talk about this
valid percent zero point two thing.

Spanish: 
Siempre que intentas predecir un número,
tu etiqueta es un número lo llamas
regresión. Esos son los dos tipos principales
de modelos: clasificación y regresión.
Este jerga es importante conocerla.
El modelo de regresión trata de predecir
una o mas cantidades numéricas, como temperatura o lugar
o lo que sea.
Esto es algo confuso porque alguna gente usa la palabra regresión
como atajo para una particular...
como... una abreviatura de una clase de modelos
llamados de regresión lineal.
 
Es súper confuso porque no es lo que significa
regresión
Regresión lineal es sólo una clase de regresión
Pero solo quería advertirte. Cuando empiezas hablar de regresión
mucha gente
asumirá que hablas de regresión lineal
aún cuando ese no sea el significado de la palabra.
Quiero hablar de este "porcentaje de
validación de 0,2". Como hemos
descrito, "porcentaje de validación" toma,

Italian: 
 Ogni volta che provi a prevedere un numero, la tua etichetta è un numero che chiami regressione. 
 Va bene? 
 Quindi questi sono i due principali tipi di classificazione e regressione del modello. 
 Questo è un gergo molto importante da conoscere. 
 Quindi il modello di regressione tenta di prevedere una o più quantità numeriche come la temperatura, 
 o posizione, o qualsiasi altra cosa. 
 Questo crea un po 'di confusione, perché a volte le persone usano la parola regressione come scorciatoia 
 a un particolare, per un ... 
 Come un'abbreviazione per un particolare tipo di modello, chiamato regressione lineare. 
 È molto confuso, perché non è questo il significato di regressione. 
 La regressione lineare è solo un tipo particolare di regressione, ma volevo solo avvisarti 
 di quella. 
 Quando inizi a parlare di regressione, molte persone presumeranno che tu stia parlando 
 regressione lineare anche se non è questo il significato della parola. 
 Va bene, quindi volevo parlare di questa cosa valida per cento zero virgola due. 

Chinese: 
每当你要预测的是数字的时候
anytime you're trying to predict a number
你的标签是数字你就称之为回归
your label is a number you call that regression
所以主要有两种不同模型
so those are the two main types of model
分类和回归
classification and regression
这是必须得知道的行话
this is very important jargon to know about
所以回归模型试图预测
so the regression model attempts to predict
一种或是几种数字量
one or more numeric quantities
例如温度或是位置之类的
such as temperature or location or whatever
这可能有些容易搞混  因为
this is a bit confusing because
有的时候人们偷懒就会用
sometimes people use the word regression
“回归”表示线性回归
as a shortcut to a particular a like a abbreviation
或是它的简写
for particular kind of model called linear regression
这就非常容易搞混
that's super confusing
因为回归不是这个意思
because that's not what regression means
线性回归只是一种回归方式
linear regression is just a particular kind of regression
但是我得警告你
but I just wanted to warn you of that
当你开始谈论回归的时候
when you start talking about regression
大部分人都会默认
a lot of people will assume
你指的是线性回归
you're talking about linear regression
即使它不是这个词的意思
even though that's not what the word means
我想讨论一下关于这个验证百分比0.2的事
I wanted to talk about this valid percent zero point two thing
在这种情况下 验证百分比挑出了
as we described valid percent  grabs in this case

Tamil: 
இருபது சதவிகித தரவை (0.2 உடன்) எடுத்து ஒரு தனி வாளியில் ஒதுக்கி வைக்கிறது
உங்கள் மாதிரியைப் பயிற்றுவிக்கும் போது
உங்கள் மாதிரி அந்தத் தரவைப் பார்க்கப்போவதில்லை
உங்கள் மாதிரி எவ்வளவு துல்லியமானது என்பதைக் காண்பிக்க மட்டுமே அந்தத் தரவு பயன்படுத்தப்படுகிறது
எனவே நீங்கள் அதிக நேரம் பயிற்றுவித்தால்
போதிய/போதுமான தரவை கொண்டு, பல/சில அளவுருக்கள் கொண்ட மாதிரியை
சிறிது நேரத்திற்குப் பிறகு உங்கள் மாதிரியின் துல்லியம் மோசமாகிவிடும், இது 'அதிகப்படியான பொருத்துதல்' என்று அழைக்கப்படுகிறது
எனவே, நாம் 'அதிகப்படியான பொருத்துதல்' இல்லை என்பதை உறுதிப்படுத்த சரிபார்ப்பு தொகுப்பைப் பயன்படுத்துகிறோம்
நாம் பார்த்த நிரலின் அடுத்த வரி இது
இங்கு 'learner' என்று ஒன்றை உருவாக்கியுள்ளோம். நாம் அதைப் பற்றி மேலும் பிறகுக் கற்றுக்கொள்வோம். ஆனால் 'learner' என்பது அடிப்படையில்,
உங்கள் தரவைக் வைத்திருக்கும் ஒன்று, மற்றும்
உங்கள்
கட்டடமைப்பு, இது நீங்கள் மேம்படுத்தும் கணித செயல்பாடு

Italian: 
 Quindi, come abbiamo descritto, la percentuale valida acquisisce, in questo caso, il venti percento dei dati, se 
 è zero virgola due, e lo mette da parte come in un secchio separato e poi quando ti alleni 
 il tuo modello, il tuo modello non riesce a guardare affatto quei dati. 
 Questi dati vengono utilizzati solo per decidere, per mostrarti quanto è accurato il tuo modello. 
 Quindi, se ti alleni troppo a lungo e / o con dati insufficienti e / o un modello con troppi 
 parametri, dopo un po 'la precisione del tuo modello peggiorerà, e questo 
 si chiama overfitting. 
 Destra? 
 Quindi utilizziamo il set di convalida per garantire che non stiamo adattando eccessivamente. 
 La prossima riga di codice che abbiamo esaminato è questa, in cui abbiamo creato qualcosa chiamato 
 uno studente. 
 Impareremo molto di più su questo, ma uno studente è fondamentalmente, o è, qualcosa che 

Spanish: 
en este caso, el 20% de los datos (el 0,2)
lo aparta, como en un cubo separado,
y luego cuando entrenas tu modelo, el modelo
no podrá ver esos datos para nada.
Esos datos sólo serán usados para decidir,
para mostrate, qué tan exacto
es tu modelo.
Si entrenas durante mucho tiempo
Y/o sin datos suficientes
y/o un modelo con demasiados parámetros luego de un tiempo la exactitud empeorará
A esto se le llama sobreajuste.
Usamos nuestro conjunto de validación
para asegurarnos que no estamos sobreajustando.
La siguiente línea de código que estamos viendo
donde creamos algo llamado "un aprendiz"
Sabremos mucho mas sobre eso, pero básicamente
es algo que contiene tus datos
y tu arquitectura

Chinese: 
20%的数据  如果是0.2的话
twenty percent of the data if it's zero point two
然后放到一边就像放到另一个篮子里
and puts it aside like in a separate bucket
然后你训练你的模型的时候
and then when you train your model
你的模型就完全看不到那部分数据
your model doesn't get to look at that data at all
这数据只是为了给你展示
that data is only used to decide to show you
模型有多准确
how accurate your model is
所以如果你训练了太久
so if you train for too long
或者数据量不够
and or with not enough data
或是模型参数太多
and or a model with too many parameters
一段时间后你模型的准确率
after a while the accuracy of your model
其实会下降
will actually get worse
这叫做过度拟合
and this is called overfitting
我们用验证集
right so we use the validation set
就是为了保证没有过度拟合
to ensure that we're not overfitting
我们要看的下一行代码
the next line of code that we looked at
是这一行
is this one
我们建立了一个叫做学习器的东西
where we created something called a learner
我们之后会学很多关于它的知识
we'll be learning a lot more about that
这个学习器其实就是
that a learner is basically more is
存放你数据的
something which contains your data
还有你的框架的
and your architecture
这是你要优化的数学函数
that is the mathematical function that you're optimizing

Japanese: 
先ほど説明したように、valid_percentはデータの20パーセントを別のバケツに入れておき、
モデルを訓練するときには
そのデータを使いません。
そのデータは、モデルがどれだけ正確であるかを示すためだけに使用されます。
ですから、もしあなたがあまりにも長い間、
あるいは十分なデータを持たずに、あるいはパラメータが多すぎるモデルを使って
トレーニングした場合、しばらくするとモデルの精度は実際に悪くなります。これをオーバーフィットと呼びます。
そこで、オーバーフィットしていないことを確認するために検証セット
を使用します。
次に見たコードの行はこの行で、
Learnerと呼ばれるものを作成しました。Learnerについては今後深く学ぶ予定ですが、基本的には
データセットと
あなたの
アーキテクチャ、つまり最適化する数学的な関数を持ちます。

English: 
So as we described valid percent grabs, in
this case, twenty percent of the data, if
it's zero point two, and puts it aside like
in a separate bucket and then when you train
your model, your model doesn't get to look
at that data at all.
That data is only used to decide, to show
you how accurate your model is.
So if you train for too long, and or with
not enough data, and/or a model with too many
parameters, after a while the accuracy of
your model will actually get worse, and this
is called overfitting.
Right?
So we use the validation set to ensure that
we're not overfitting.
The next line of code that we looked at is
this one, where we created something called
a learner.
We'll be learning a lot more about that, but
a learner is basically, or is, something which

Chinese: 
然后这个学习器就是
and so a learner is the thing
会试图找到那些参数
that tries to figure out what are the parameters
会使得在这些数据里  这个函数
which best cause this function to match the labels
和那些标记最吻合
in this data
所以我们要说很多关于这些的
so we're talking a lot more about that
但是这个Resnet34
but basically this particular function Resnet34
是这个框架的名称
is the name of a particular architecture
非常适合解决计算机视觉问题
which is just very good for computer vision problems
其实它就叫ResNet
in fact the name really is ResNet
34只是告诉你一共有多少层
and then 34 tells you how many layers there are
所以你可以在这里用更大的数字
so you can use ones with bigger numbers here
来让它有更多参数  训练时间也更长
to get more parameters that will take longer to train
使用更多内存  也更容易过度拟合
take more memory more likely to overfit
这会制造出更复杂的模型
that could also create more complex models
但是现在我只想专注于这里这部分
right now though I wanted to focus on this part here
这个metrics=error_rate (标准=失误率)
which is metrics equals error_rate
这是你要在每个epoch之后
this is where you list the functions
都要和你的数据一起调用的
you want to be called with your data
一系列函数  还有你每个epoch之后要
with your validation data and print it out
打出来的
after each epoch

English: 
contains your data and your architecture that
is the mathematical function that you're optimizing,
and so a learner is the thing that tries to
figure out what are the parameters which best
cause this function to match the labels in
this data.
So we’ll be talking a lot more about that,
but basically this particular function ResNet34
is the name of a particular architecture which
is just very good for computer vision problems.
In fact the name really is ResNet and then
34 tells you how many layers there are.
So you can use ones with bigger numbers here
to get more parameters that will take to train,
take more memory, more likely to overfit,
but could also create more complex models.
Right now though I wanted to focus on this
part here which is metrics equals error rate.
This is where you list the functions that
you want to be the...
That you want to be called with your data.

Italian: 
 contiene i tuoi dati e la tua architettura che è la funzione matematica che stai ottimizzando, 
 e quindi uno studente è la cosa che cerca di capire quali sono i parametri migliori 
 fare in modo che questa funzione corrisponda alle etichette in questi dati. 
 Quindi ne parleremo molto di più, ma fondamentalmente questa particolare funzione ResNet34 
 è il nome di una particolare architettura che è molto buona per i problemi di visione artificiale. 
 In effetti il ​​nome è davvero ResNet e poi 34 ti dice quanti strati ci sono. 
 Quindi puoi usare quelli con numeri più grandi qui per ottenere più parametri che serviranno per allenarti, 
 richiede più memoria, più probabilità di overfit, ma potrebbe anche creare modelli più complessi. 
 In questo momento, però, volevo concentrarmi su questa parte che è che la metrica è uguale al tasso di errore. 
 Qui è dove elenchi le funzioni che vuoi essere il ... 
 Che vuoi essere chiamato con i tuoi dati. 

Spanish: 
esto es la función matemática que estás optimizando.
Un "aprendiz" es una cosa
que trata de calcular qué parámetros
hacen que esta función
encaje mejor las etiquetas de los datos.
 
Hablaremos de eso, pero básicamente
esta función particular, "resnet34", es el nombre
de una arquitectura en particular que es muy buena
para problemas de computación visual.
En realidad, el nombre es ResNet, y el 34
te dice cuántas capas hay.
Puedes usar con números mas grandes para obtener mas parámetros,
que tardará mas en entrenar, ocupará mas memoria,
y es mas probable que sobreajuste. pero también
podría crear modelos mas complejos.
Ahora quiero que te fijes en esta parte de aquí
que es : métrica igual a tasa de error.
Esto es donde listas las funciones
que quieres que se invoquen con tus datos
con tus datos de validación e imprimir
luego de cada "era" ("época").

Tamil: 
இது இந்த செயல்பாட்டை, தரவில் உள்ள சிட்டைகளுடன் பொருந்தி, சிறப்பாக ஏற்படுத்துகிறது .
எனவே நாம் அதைப் பற்றி அதிகம் பேசுவோம், ஆனால் அடிப்படையில்
இந்த குறிப்பிட்ட செயல்பாடு ResNet34 என்பது ஒரு குறிப்பிட்ட கட்டமைப்பின் பெயர்
கணினி பார்வை சிக்கல்களுக்கு இது மிகவும் நல்லது
உண்மையாக
அதன் பெயர் ResNet மற்றும் '34' எத்தனை அடுக்குகள் உள்ளன என்பதைக் கூறுகிறது. எனவே நீங்கள் இங்கே பெரிய எண்களைப் பயன்படுத்தி
அதிக அளவுருக்களைப் பெறலாம், அது பயிற்சிக்கு அதிக நினைவகத்தை எடுக்கும் மற்றும் அதிகப்படியான பொருத்தத்தை எடுக்கும். அதைவைத்து
மிகவும் சிக்கலான மாதிரிகளை உருவாக்கலாம்
இப்போது, நான் இந்த பகுதியில் கவனம் செலுத்த விரும்புகிறேன், அதாவது 'அளவீடுகள் பிழை விகிதத்திற்கு சமம்' என்பதில்
உங்கள் சரிபார்ப்பு தரவுடன் அழைக்கப்பட்டு அதை அச்சிட விரும்பும் செயல்பாடுகளை நீங்கள் பட்டியலிடக்கூடிய இடம் இது
ஒவ்வொரு சகாப்தத்திற்கும் பிறகு செய்யப்படும்

Japanese: 
つまり、learnerとは関数がデータのラベルに最も適合するような
パラメータを見つけ出すものです。
詳しく説明しましたが、要するに、
このresnet34という関数がアーキテクチャの名前で、
このアーキテクチャは、コンピュータビジョンに適している
ことが知られています。
本当の名前はResNetで34は層の数を表していて、この数字が大きくなると、
より多くのパラメータが学習に使われるのでよりメモリを消費し、さらに過学習しやすくなりますが、
より複雑なモデルを作れます。
しかし、今はmetrics=error_rateに注目しましょう。
ここでは、バリデーション時に使いたい関数を列挙し、
それらの結果は毎エポック後に
プリントされます。

Spanish: 
Una "era" es lo que llamamos
cuando cada una de las imágenes del conjunto de datos una vez.
Luego de ver cada una de las imágenes del
conjunto de datos una vez imprimiremos alguna
información de cómo los estás haciendo. Lo mas importante que estamos mostrando
es el resultado de llamar a esta métrica.
Entonces "error_rate" (tasa de error) es el nombre de esta métrica
y es una función que muestra qué porcentaje
de nuestro conjunto de validación está siendo clasificado incorrectamente
por nuestro aprendiz.
Entonces una métrica es una función que mide
la calidad de las predicciones usando el conjunto de validación.
Así, tasa de error es una, otra común es exactitud, que es 1,0 - tasa de error.
Es muy importante recordar de la semana pasada
cuando hablamos de "pérdida" ("loss"). Arthur Samuel
tuvo esta idea importante
en aprendizaje automático que necesitamos
encontrar qué
tan bien nuestro modelo lo está haciendo.
Así, si cambiamos los parámetros

Italian: 
 Con i tuoi dati di convalida e stampalo dopo ogni epoca, e l'epoca è ciò che chiamiamo 
 quando guardi una volta ogni singola immagine nel set di dati. 
 E così dopo aver guardato ogni immagine nel set di dati, stampiamo alcune informazioni 
 di come stai e la cosa più importante che stampiamo è il risultato della chiamata 
 queste metriche quindi il tasso di errore è il nome di una metrica ed è una funzione che viene stampata 
 scoprire quale percentuale del set di convalida viene classificata in modo errato dal modello. 
 Quindi la nostra metrica è una funzione che misura la qualità delle previsioni utilizzando la convalida 
 impostare in modo che i tassi di errore uno un altro metrica comune sia la precisione che è solo 1 meno il tasso di errore 
 quindi molto importante da ricordare dalla scorsa settimana abbiamo parlato di perdita. 
 Arthur Samuel ha avuto questa idea importante nell'apprendimento automatico che abbiamo bisogno di un modo per capire 
 quanto è buono quanto bene sta facendo il nostro modello in modo che quando cambiamo i parametri possiamo 

English: 
With your validation data and print it out
after each epoch, and epoch is what we call
it when you look at every single image in
the data set once.
And so after you've looked at every image
in the data set once we print out some information
about how you're doing and the most important
thing we print out is the result of calling
these metrics so error rate is the name of
a metric and it's a function that just prints
out what percent of the validation set are
being incorrectly classified by your model.
So our metric is a function that measures
the quality of the predictions using the validation
set so error rates one another common metric
is accuracy which is just 1 minus error rate
so very important to remember from last week
we talked about loss.
Arthur Samuel had this important idea in machine
learning that we need some way to figure out
how good our how well our model is doing so
that when we change the parameters we can

Chinese: 
然后epoch就是
and epoch is is what we call it
当你数据集里每张图都被看一次
when you look at every single image in the data set once
当你看完每张图
and so after you've looked at every
一遍之后
image in the data set once
我们会打出一些有关表现如何的信息
we print out some information about how you're doing
然后打出来的最重要的
and the most important thing we print out
就是调用这些标准的结果
is the result of calling these metrics
所以失误率就是标准的一种
so error rate is the name of a metric
这是个函数
and it's a function
它只是把验证集中
that just prints out what percent of the validation set
模型分类出错的打出来了
are being incorrectly classified by your model
metric(评价指标)是一个函数
so a metric is a function
它用于衡量模型的预测质量
that measures the quality of the predictions
且基于验证集
using the validation set
比如错误率
so error rates one
另一个常见指标就是准确率
another common metric is accuracy
即 1 减去错误率
which is just 1 minus error rate
回顾一下上周的知识点
so very important to remember from last week
我们讨论了损失
we talked about loss
Arthur Samuel 为机器学习引入了这个重要的理论
Arthur Samuel had this important idea in machine learning
我们一种方式来衡量
that we need some way to figure out
模型的表现到底有多好
how good or how well our model is doing
我们通过调整参数
so that when we change the parameters

Tamil: 
சகாப்தம்
'தரவுத்தொகுப்பில் உள்ள ஒவ்வொரு படத்தையும், ஒரு முறை பார்ப்பது' என வரையறுக்கப்படுகிறது,
தரவுத்தொகுப்பில் உள்ள ஒவ்வொரு படத்தையும் ஒரு முறை பார்த்த பிறகு, நிலையைப் பற்றிய சில தகவல்களை நாம் அச்சிடுகிறோம்
நாம் அச்சிடும் மிக முக்கியமான விஷயம், இந்த அளவீடுகளின் விளைவாகும்
எனவே பிழை வீதம் ஒரு அளவீடின்  பெயர். சரிபார்ப்பு தொகுப்பின் எந்த சதவீதத்தை உங்கள் மாதிரியால் தவறாக வகைப்படுத்தப்படுகிறது என்பதை அச்சிடும் ஒரு செயல்பாடு இது.
ஒரு அளவீடு என்பது சரிபார்ப்பு தொகுப்பைப் பயன்படுத்தி கணிப்புகளின் தரத்தை அளவிடும் ஒரு செயல்பாடு ஆகும்.
'பிழை வீதம்' அத்தகையான அளவீடு மற்றொரு பொதுவான அளவீடு 'துல்லியம்'. இது '1 - பிழை வீதமாகும்'.
கடந்த வாரத்திலிருந்து நினைவில் கொள்வது மிகவும் முக்கியமான ஒன்று - இழப்பு. அதை பற்றி பேசினோம்
ஆர்தர் சாமுவேலிடம்  ஒரு முக்கியமான யோசனை இருந்தது. இயந்திர கற்றலில், மாதிரி எவ்வளவு சிறப்பாக செயல்படுகிறது என்பதைக் கண்டுபிடிக்க நமக்கு சில வழிகள் தேவை

Japanese: 
エポックとは、
データセットの全ての画像を見ることを意味します。
つまり、データセットを1周するたびに、モデルに関する情報がプリントされ、
最も重要なことですが、これらのメトリクスの結果もプリントされます。
error_rateはメトリクスの1つで、バリデーションセットのうち，何%の画像が
誤って分類されたかをプリントします。
つまり、バリデーションセットを使って予測の質を計算しているのです。
1 - error_rateで計算される正確度も一般的なメトリクスです。
先週のレッスンで大変重要なことを話しました。アーサー・サミュエルは
機械学習における重要な損失という考えを持っていました。モデルの性能がどれくらい良いかを把握するためには

Chinese: 
可以找出具体哪一组参数
we can figure out which set of parameters
让模型的表现更好或者更差
make that performance measurement get better or worse
这个衡量方法就称为损失
that performance measurement is called the loss
损失和评价指标不一定要一样
the loss is not necessarily the same as your metric
其中的原因非常微妙
the reason why is a bit subtle
我们很快就会了解更多细节
and we'll be seeing it in a lot of detail
后续课程中的数学部分就会涉及这个知识点
once we delve into the math in the coming lessons
不过你得需要一个函数
but basically you need a function
一个损失函数
you need a loss function
当你把参数
where if you change the parameters
微微上调
by just a little bit up
或是微微下调的时候
or just a little bit down
你可以观察损失是降低了
you can see if the loss gets a little bit better
还是更高了
or a little bit worse
最终失误率和正确率
and it turns out that error rate and accuracy
不会告诉你这些
doesn't tell you that at all
因为你的参数调整可能
because you might change the parameters
小到不足以
by as much such a small amount
把狗预测成猫
that none of your dog's predictions start becoming cats
或者把猫预测成狗
and none of your cat predictions start becoming bogs
那么预测不变
so like your predictions don't change
错误率也就不会发生变
and your error doesn't change
所以损失和评价指标息息相关
so loss and metric are closely related
但是你关心的是评价指标
but the metric is the thing that you care about

Spanish: 
podemos calcular cuáles de esos parámetros hacen
la medida del rendimiento mejor o peor.
Esa medida del rendimiento es llamada "perdida" ("loss").
La pérdida no es necesariamente
lo mismo que tu métrica.
La razón es un poco sutil
y la veremos en mucho detalle cuando ahondemos en las matemáticas
en próximas lecciones, pero básicamente
necesitas una función, necesitas
una función de pérdida donde
si cambias los parámetros un poco hacia arriba
o un poco hacia abajo, puedes ver si la pérdida mejora o
empeora un poco. Y resulta que la tasa de error
o la exactitud no te dicen eso para nada
porque si cambias los parámetros por una cantidad
tan pequeña, ninguna de las predicciones de perros se convertirán en
predicciones de gatos y ninguna de las predicciones de gatos
serán de perros. Por lo que tus predicciones no cambian
y tu tasa de error no cambia.
La pérdida y la métrica están estrechamente relacionadas.

English: 
figure out which set of parameters make that
performance measurement get better or worse,
that performance measurement is called the
loss.
The loss is not necessarily the same as your
metric.
The reason why is a bit subtle and we'll be
seeing it in a lot of detail once we delve
into the math in the coming lessons but basically
you need a function you need a loss function
where if you change the parameters by just
a little bit up or just a little bit down
you can see if the loss gets a little bit
better or a little bit worse and it turns
out that error rate and accuracy doesn't tell
you that at all because you might change the
parameters by such a small amount that none
of your dog's predictions start becoming cats
and none of your cat predictions start becoming
dogs.
So like your predictions don't change so your
error rate doesn't change.

Tamil: 
அதன்மூலம் அளவுருக்களை மாற்றும்போது எந்த அளவுருக்கள் செயல்திறன் அளவீட்டு சிறப்பாகவோ அல்லது மோசமாகவோ இருக்கும் என்பதைக் கண்டுபிடிக்கலாம் - என்றார்
அந்த செயல்திறன் அளவீட்டு 'loss' என்று அழைக்கப்படுகிறது
இழப்பு என்பது
உங்கள் அளவீட்டைப் போலவே இருக்கவேண்டும் என அவசியமில்லை
காரணம் சற்று நுட்பமானது. வரவிருக்கும் பாடங்களில் கணிதத்தை ஆராயும்போது, அதை நாம் விரிவாகப் பார்ப்போம்
ஆனால் அடிப்படையில்
நமக்கு ஒரு இழப்பு செயல்பாடு தேவை
நீங்கள் அளவுருக்களை சிறிது மேலே அல்லது கீழே மாற்றினால், இழப்பு சற்று சிறப்பாகிறதா அல்லது மோசமாகிறது என்பதை நீங்கள் பார்க்கலாம்
'பிழை வீதம்' மற்றும் 'துல்லியம்' இதைப் பற்றி எதுவும் சொல்லாது என்பதை நாம் தெரிந்துகொள்கிறோம்
ஏனென்றால் அளவுருக்களை மிக சிறிய அளவு மாற்றும்போது
உங்கள் நாய்களின் கணிப்புகள் எதுவும் பூனைகளாக மாறாது, உங்கள் பூனைகளின் கணிப்புகள் எதுவும் நாய்களாக மாறாது
எனவே உங்கள் கணிப்புகள் மாறாது, உங்கள் பிழை விகிதம் மாறாது.
எனவே இழப்பு மற்றும் அளவீடு ஆகியவை நெருங்கிய தொடர்புடையவை, ஆனால் நமக்கு தேவையானது - அளவீடு

Japanese: 
何らかの方法が必要で、パラメータを変更したときに、どのパラメータのセットが性能を良くするか悪くするかを
把握することができます。
パフォーマンスの基準は損失ですが、
必ずしも
メトリクスと同じとは限りません。
その理由は少し微妙で、今後のレッスンで数学を掘り下げていくと
詳細が見えてきますが 、
基本的には関数が必要で、
パラメータを少しだけ上げたり下げたりして、 損失が少し良くなったか悪くなったか
を見ることができる損失関数が必要です。
予測が犬から猫に変わるほどパラメータを変化させるわけではない
ので精度やエラーレートでは不十分なのです。
予測が同じならエラーレートも同じはずです。
損失とメトリックは密接に関連していますが、メトリックはあなたが気にしているもので、

Italian: 
 capire quale set di parametri migliora o peggiora la misurazione del rendimento, 
 quella misurazione delle prestazioni è chiamata perdita. 
 La perdita non è necessariamente la stessa della tua metrica. 
 Il motivo è un po 'sottile e lo vedremo in molti dettagli una volta approfondito 
 in matematica nelle prossime lezioni ma fondamentalmente hai bisogno di una funzione hai bisogno di una funzione di perdita 
 dove se si modificano i parametri solo un po 'in alto o solo un po' in basso 
 puoi vedere se la perdita migliora o peggiora e si trasforma 
 il tasso di errore e la precisione non te lo dicono affatto perché potresti cambiare il file 
 parametri di una quantità così ridotta che nessuna delle previsioni del tuo cane inizia a diventare un gatto 
 e nessuna delle previsioni del tuo gatto inizia a diventare cani. 
 Quindi, come se le tue previsioni non cambiassero, il tuo tasso di errore non cambia. 

Japanese: 
損失はパフォーマンスの測定値としてコンピュータがパラメータをどのように更新するかを決定するために使用しているものです。
損失はパフォーマンスの測定値として
コンピュータがパラメータをどのように更新するかを決定するために使用しているものです。
FastAIは常に検証セットを使用してメトリクスを出力します。
オーバーフィッティングは重要で、学習しているデータだけでなく、
学習アルゴリズムが見たことのないデータに適合するモデルをどうやって見つけるかということです。
つまり
過学習は
モデルが
不正行為が
している結果とも言えます。
モデルは、「これと同じ写真を見たことがある、それは猫の写真だ」と言うことでごまかすことができます。

Italian: 
 Perdita e metrica sono strettamente correlate, ma la metrica è la cosa che ti interessa 
 la perdita è la cosa che il tuo computer utilizza come misura delle prestazioni per decidere 
 come aggiornare i tuoi parametri. 
 Quindi misuriamo l'overfitting osservando le metriche sul set di convalida. 
 L'IA così veloce utilizza sempre il set di convalida per stampare le metriche e l'overfitting 
 è come se la cosa fondamentale dell'apprendimento automatico sia tutto su come trovare un modello 
 che si adatta ai dati non solo per i dati con cui ci stiamo allenando ma per i dati che 
 l'algoritmo di addestramento non ha mai visto prima. 
 Quindi overfitting risulta quando il nostro modello è fondamentalmente "barare". 
 Una modella può imbrogliare dicendo: oh, ho già visto questa immagine esatta e ricordo che è così 
 una foto di un gatto. 

Spanish: 
La métrica es lo que te importa,
la pérdida es lo que usa el ordenador como
medida del rendimiento para decidir
cómo actualizar tus parámetros.
Medimos
el sobreajuste mirando las métricas
en el conjunto de validación. fast.ai
siempre usa el conjunto de validación para mostrar las métricas
y el sobreajuste es como el punto clave
de lo que se trata el aprendizaje automático.
Es cómo encontrar un modelo
que ajusta los datos, no sólo los datos que estamos
entrenando, si no aquellos que el algoritmo entrenado
no ha visto con anterioridad.
 
El sobreajuste aparece cuando
el modelo está, básicamente, "engañando".
Un modelo puede engañar diciendo "Oh,
ya he visto esa foto anteriormente
y recuerdo que es la foto de un gato."

Tamil: 
உங்கள் அளவுருக்களை எவ்வாறு புதுப்பிப்பது என்பதை தீர்மானிக்க செயல்திறனின் அளவீடாக உங்கள் கணினி பயன்படுத்தும் விஷயம் இழப்பு
எனவே நாம்
சரிபார்ப்பு தொகுப்பில் உள்ள அளவீடுகளைப் பார்ப்பதன் மூலம் அதிகப்படியான பொருத்தத்தை அளவிடுகிறோம். எனவே 'FastAI' -
அளவீடுகளை அச்சிட எப்போதும் சரிபார்ப்பு தொகுப்பைப் பயன்படுத்துகிறது
அதிகப்படியான கற்றல் என்பது இயந்திரக் கற்றல் பற்றிய முக்கிய விஷயம்.
இது நாம் பயிற்றுவிக்கும் தரவுகளுக்கு மட்டுமில்லாமல், படிமுறை முன்பு பார்த்திராத தரவிற்கும் பொருந்தும், ஒரு மாதிரியைக் கண்டுபிடிப்பது பற்றியது.
நம்முடைய மாதிரி அடிப்படையில் ஏமாற்றும்போது 'அதிகப்படியான பொருத்துதல்' செய்கிறது
ஒரு மாதிரி -
ஓ!
இதே படத்தை நான் முன்பு பார்த்துள்ளேன், அது ஒரு பூனையின் படம் என்பதை நினைவில் இருக்கிறது - என்று சொல்வதன் மூலம் ஏமாற்ற முடியும்

Chinese: 
而计算机用损失函数
the loss is the thing which your computer is using
作为模型好坏的评测方法
as the measurement of performance
来决定是否更新参数
to decide how to update your parameters
衡量过拟合的程度
we measure overfitting
则是通过观察评价指标在验证集上的表现
by looking at the metrics on the validation set
fast.ai 一直基于验证集
so fast AI always uses the validation set
来生成评价指标
to print out your metrics
过拟合是一个关键因素
and overfitting is like the key thing
机器学习中的重要指标
that machine learning is about
机器学习就是研究如何找到一个模型
it's all about how do we find a model
能够很好地拟合数据
which fits the data
不仅适用于训练集
not just for the data training with
在未见过的数据上也有良好的表现
but for data that the training algorithm hasn't seen before
可以说模型作弊导致了过拟合现象
so overfitting results when our model is basically cheating
模型可以这么作弊
a model can cheat by saying
哦  我之前看过这张照片
oh I've seen this exact picture before
我记得这是一张猫的照片
and I remember that that's a picture of a cat

English: 
Loss and metric are closely related but the
metric is the thing that you care about the
loss is the thing which your computer is using
as the measurement of performance to decide
how to update your parameters.
So we measure overfitting by looking at the
metrics on the validation set.
So fast AI always uses the validation set
to print out your metrics and overfitting
is like the key thing that machine learning
is about it's all about how do we find a model
which fits the data not just for the data
that we're training with but for data that
the training algorithm hasn't seen before.
So overfitting results when our model is basically
“cheating”.
A model can cheat by saying oh I've seen this
exact picture before and I remember that that's
a picture of a cat.

Chinese: 
模型实际上无法识别猫
so it might not have learnt what cats look like in general
它只记得第 1、4、8 张是猫
it just remembers that images one four and eight are cats
2、3、5 是狗
and two and three and five are dogs
压根没学到他们到底长什么样
and learns nothing actually about what they really look like
这种形式的作弊
so that's the kind of cheating
我们要尽量避免
that we're trying to avoid
我们不希望模型记住某个特定的数据集
we don't want it to memorize our particular data set
所以我们拆分验证数据
so we split off our validation data
屏幕上大部分的陈述
and most of this are these words
都来自书上
you're seeing on the screen are from the book
我只是把它们复制粘贴下来
okay so I just copied and pasted them
如果我们拆分验证数据
so if we split off our validation data
并确保模型训练时不接触验证数据
and make sure that model (never) sees it during training
验证数据完全隔绝于训练过程
it's completely untainted by it
这样模型就无法作弊
so we can't possibly cheat
其实不完全对  模型还是可以作弊
not quite true we can cheat
我们作弊的方式
the way we could cheat
就是在训练和拟合模型的过程中
is we could run we could fit a model
不断对比结果和验证集
look at the result and the validation set
对参数稍作修改  再拟合另一个模型
change something a little bit fit another model
然后再对比下验证集
look at the validation set
再做相应的修改
change something a little bit
上述过程可以重复几百次
we could do that like a hundred times
直至找到与验证集拟合程度最高的参数
until we find something with the validation set looks the best
但是现在模型或许已经拟合了验证集的数据
but now we might have fit the validation set, right

English: 
So it might not have learnt what cats look
like in general it just remembers you know
that images one four and eight are cats and
two and three and five are dogs and learns
nothing actually about what they really look
like.
So that's the kind of cheating that we're
trying to avoid we don't want it to memorize
our particular data set.
So we split off our validation data and what
most of this are words you're seeing on the
screen are from the book okay so I just copied
and pasted them.
So if we split off our validation data and
make sure that our model never sees it during
training, it's completely untainted by it
so we can't possibly cheat.
Not quite true!
We can cheat, the way we could cheat is we
could run we could fit a model look at the
result and the validation set, change something
a little bit fit another model look at the
validation set change something a little bit
we could do that like a hundred times until
we find something with the validation set
looks the best.

Japanese: 
つまり、一般的に猫がどのように見えるかを学習していないかもしれませんが
、画像1〜4と8が猫で、
画像2〜3と5が犬であることを覚えているだけで
猫がどういうものかという概念は学習していないのです。これが、絶対に避けたいタイプのズルです。
つまり、モデルが特定のデータセットを
丸暗記するのは避けたいのです。
なので、バリデーションデータを作るのです。
画面に表示されている文章は本からコピーしてきました。
検証データを分割して、
モデルが学習中にそれを見ないようにすれば、完全にデータに汚染されないので、ごまかすことはできません。
そうではありません。ごまかすことはできます。
ごまかす方法としては、モデルをフィットさせて結果と検証セットを見て、
何かを少し変更して別のモデルをフィットさせて検証セットを見て、
何かを少し変更して、検証セットが一番良さそうなものが見つかるまで
100回くらい繰り返してみることができます。
そうするとバリデーションセットに適合しているかもしれませんね。

Tamil: 
எனவே பூனைகள் பொதுவாக எப்படி இருக்கும் என்பதை இது கற்றுக் கொள்ளாமல்,
1, 4, 8 எண்கள் பூனைகளின் படம் என்றும் 2, 3, 5 எண்கள் நாய்களின் படம் நினைவில் கொள்ளும்.
அவைகள் உண்மையில் எப்படி இருக்கும் என்பது பற்றி எதுவும் கற்றுக்கொள்ளாது. எனவே இது ஒரு வகையான மோசடியை நாம் தவிர்க்க முயற்சிக்கிறோம்
நம்முடைய குறிப்பிட்ட தரவு தொகுப்பை மனப்பாடம் நாம்  நாங்கள் விரும்பவில்லை
எனவே நாம் சரிபார்ப்பு தரவை பிரித்து
திரையில் நீங்கள் காணும் இந்த வார்த்தைகளில் பெரும்பாலானவை புத்தகத்திலிருந்து வந்தவை. நான் அவற்றை நகலெடுத்து ஒட்டினேன்.
எனவே நாம் சரிபார்ப்பு தரவை பிரித்து
பயிற்சியின் போது நம் மாதிரி அதைப் பார்க்கவில்லை என்பதை உறுதிப்படுத்தவும். அது மாதிரியை கறைபடுத்தவில்லை, எனவே நாம் ஏமாற்ற முடியாது.
இது  உண்மையல்ல. நாம் ஏமாற்றலாம்.
நாம் ஏமாற்றக்கூடிய வழி என்னவென்றால், நாம் ஒரு மாதிரியைப் பொருத்த முடியும், முடிவு மற்றும் சரிபார்ப்பு தொகுப்பைப் பார்த்துவிட்டு
எதையாவது கொஞ்சம் மாற்றவும். மற்றொரு மாதிரிக்கு பொருத்தவும்,
சரிபார்ப்பு தொகுப்பைப் பார்த்துவிட்டு, திரும்பவும் எதையாவது கொஞ்சம் மாற்றவும். இப்படி நாம் அதை நூறு முறை செய்ய முடியும்,
சரிபார்ப்பு தொகுப்பில் சிறந்ததாக அக்க, ஏதாவது ஒன்றைக் கண்டுபிடிக்கும் வரையில்.
ஆனால் இப்போது நாம் சரிபார்ப்பு தொகுப்புக்கு பொருத்த வேண்டும்

Spanish: 
Podría no haber aprendido cómo son los gatos en general
si no que recuerda que las imágenes 1, 4
y 8 son gatos y la 2, 3 y 5 perros
y no ha aprendido nada
cómo realmente son.
Esa es la clase de engaño que intentamos evitar.
No queremos memorizar nuestro conjunto
de datos particular.
Separamos nuestro conjunto de validación,
muchas de estas palabras que estás viendo
están extraídas del libro, las he copiado y pegado aquí.
Separamos nuestro conjunto de validación,
y nos aseguramos que nuestro modelo no lo vea durante el entrenamiento,
totalmente sin manchas, por lo que no podemos engañar.
No del todo cierto, podemos engañar.
La forma en qué podríamos engañar es ejecutando,
ajustaríamos un modelo, miraríamos los resultados y el conjunto de validación,
cambiar algo un poco, ajustamos el modelo,
miramos el conjunto de validación, cambiamos algo. Podríamos
hacer eso cientos de veces hasta encontrar algo
donde el conjunto de validación se vea el mejor.
Pero ahora hemos ajustado el conjunto de validación

Italian: 
 Quindi potrebbe non aver imparato che aspetto hanno i gatti in generale, ricorda solo che sai 
 che le immagini uno quattro e otto sono gatti e due e tre e cinque sono cani e impara 
 niente in realtà su come sono realmente. 
 Quindi questo è il tipo di inganno che stiamo cercando di evitare, non vogliamo che venga memorizzato 
 il nostro particolare set di dati. 
 Quindi abbiamo suddiviso i nostri dati di convalida e quali sono la maggior parte di queste parole che stai vedendo nel file 
 schermo sono dal libro ok, quindi li ho copiati e incollati. 
 Quindi, se suddividiamo i nostri dati di convalida e ci assicuriamo che il nostro modello non li veda mai durante 
 allenamento, non è completamente contaminato da esso, quindi non possiamo barare. 
 Non proprio vero! 
 Possiamo imbrogliare, il modo in cui potremmo imbrogliare è che potremmo correre, potremmo adattare un modello guarda il file 
 risultato e il set di convalida, cambia qualcosa di un po 'adatto a un altro modello guarda il 
 set di convalida cambia qualcosa un po 'potremmo farlo cento volte fino a quando 
 troviamo che qualcosa con il set di convalida sembra il migliore. 

Chinese: 
如果希望结果更严谨
so if you want to be really rigorous about this
实际上还得划分出第三组数据
you should actually set aside a third bit of data
这就是测试集  完全没有用于训练
called the test set that is not used for training
也不能用于评价指标
and it's not used for your metrics
实际上你完全不接触这组数据
it's actually you don't look at it
直到模型训练结束为止
until the whole projects finished
这种数据划分方式
and this is what's used
被 Kaggle 之类的竞赛平台所采用
on competition platforms like Kaggle
在 Kaggle上  当竞赛结束后
on Kaggle after the competition finishes
衡量模型的表现
your performance will be measured
会基于一组从未见过的数据
against a data set that you have never seen
这是一种非常有效的方式
and so that's a really helpful approach
它的好处在于
and it's actually a great idea to do that
即便模型不是你本人构建的
like even if you're not doing the modeling yourself
如果我们正在挑选模型框架
so if you're if you're looking at vendors
今天就要做个决定
and you're just trying to decide today
是用 IBM  谷歌还是微软
go with IBM or Google or Microsoft
每一家都在展示自己的模型多优秀
and they're all showing you how great their models are
你要做的是
what you should do is
跟他们说  你们只管训练模型
you should say okay you go and build your models

Japanese: 
ですから、もしこれを本当に厳密に行いたいのであれば、テストセットと呼ばれる3番目のデータを用意しておくべきです。
訓練にもメトリクス計算にも使わないテストデータを作るのです。
これは実際には、プロジェクト全体が終了するまで見ることはありません。
これは、Kaggleのようなコンペテイションプラットフォームで使われているものです。
Kaggleでは、コンペテイション後、
見たことのないデータセットに対して
パフォーマンスが測定されます。
　
0:11:32.990,0:11:34.990
これは本当に有益なアプローチで、
自分でモデリングをしていなくても、実際にそうするのは素晴らしいアイデアです。
　
0:11:42.230,0:11:44.529
もしあなたがベンダーを見ていて、
今日はIBMかGoogleかMicrosoftにしようと決めようとしていて、彼らのモデルがどれだけ素晴らしいかを見せてくれているなら、
あなたがすべきことは、「OK、あなたはモデルを作成して、

Tamil: 
இதைப் பற்றி நீங்கள் உண்மையிலேயே கடுமையாக இருக்க விரும்பினால், சோதனைத் தொகுப்பு எனப்படும் தரவுகளின் மூன்றாவது தொகுப்பை நீங்கள் உண்மையில் ஒதுக்கலாம்
அது பயிற்சிக்கு மற்றும் அளவீடுகளுக்கு பயன்படுத்தகூடாது
முழு திட்டமும் முடியும் வரை நீங்கள் அதைப் பார்க்க மாட்டீர்கள்
'Kaggle' போன்ற போட்டி தளங்களில் இப்படிதான் பயன்படுத்தப்படுகிறது
போட்டி முடிந்ததும், 'Kaggle' இல்
நீங்கள் பார்த்திராத தரவுத் தொகுப்பிற்கு எதிராக உங்கள் செயல்திறன் அளவிடப்படும்
அதனால்
இது மிகவும் உதவியாக உள்ள
அணுகுமுறை. அது உண்மையில் ஒரு சிறந்த யோசனை. நீங்களே மாடலிங் செய்யாவிட்டாலும் கூட
அதாவது நீங்கள்
நீங்கள் விற்பனையாளர்களைப் தேடுகிறீர்கள் என்றால்
இன்று நீங்கள் ஐபிஎம் அல்லது கூகிள் அல்லது மைக்ரோசாப்ட் உடன் செல்ல முடிவு செய்ய முயற்சிக்கிறீர்கள். அவற்றின் மாதிரிகள் எவ்வளவு சிறப்பானவை என்பதை அவை அனைத்தும் உங்களுக்குக் காட்டுகின்றன
நாம் செய்ய வேண்டியது என்னவென்றால், 'சரி நீங்கள் போய் உங்கள் மாதிரிகளை உருவாக்கு' என்று சொல்ல வேண்டும்

Spanish: 
Si quieres ser realmente riguroso en esto
deberías separar un tercer
trozo de datos, llamado conjunto de prueba
que no se use ni para entrenar ni en las métricas.
Realmente no lo miras hasta que el
proyecto esté terminado.
Es lo que se usa en las plataformas de competición, como Kaggle.
En Kaggle, luego de que la competición haya terminado,
tu rendimiento será medido
contra un conjunto de datos
que nunca has podido ver.
Es un enfoque realmente útil
y realmente una gran idea a hacer
aún cuando seas tu quien haga el modelado.
 
Si estás evaluando proveedores y tratando
de decidir si ir con IBM, Google o Microsoft
y todos ellos están mostrando qué tan buenos son sus modelos
Lo que deberías decir es "Muy bien,"
"construyan sus modelos que yo"
"voy a separar un 10% de mis datos"

Italian: 
 Ma ora potremmo aver adattato il set di convalida, giusto? 
 Quindi, se vuoi essere davvero rigoroso su questo, dovresti effettivamente metterne da parte un terzo 
 bit di dati chiamato set di test che non viene utilizzato per l'addestramento e non viene utilizzato per il tuo file 
 metrica. 
 In realtà non lo guardi fino a quando l'intero progetto non è finito. 
 E questo è ciò che viene utilizzato su piattaforme da competizione come Kaggle. 
 Su Kaggle, al termine della competizione, la tua performance verrà misurata 
 un set di dati che non hai mai visto. 
 E quindi, questo è un approccio davvero utile ed è davvero un'ottima idea farlo 
 anche se non stai modellando da solo. 
 Quindi, se stai guardando i fornitori e stai solo cercando di decidere oggi, vai 
 con IBM o Google o Microsoft e ti mostrano tutti quanto sono fantastici i loro modelli, 
 quello che dovresti fare è dire: "Va bene, vai a costruire i tuoi modelli e io vado 

English: 
But now we might have fit the validation set,
right?
So if you want to be really rigorous about
this you should actually set aside a third
bit of data called the test set that is not
used for training and it's not used for your
metrics.
It's actually, you don't look at it until
the whole project has finished.
And this is what's used on competition platforms
like Kaggle.
On Kaggle, after the competition finishes
your performance will be measured against
a data set that you have never seen.
And so, that's a really helpful approach and
it's actually a great idea to do that like
even if you're not doing the modeling yourself.
So if you're if you're looking at vendors
and you're just trying to decide today go
with IBM or Google or Microsoft and they're
all showing you how great their models are,
what you should do is you should say, “Okay
you go and build your models and I am going

Tamil: 
எனது தரவுகளில் 10% ஐ நான் வைத்திருக்கப் போகிறேன், அதைப் பார்க்க நான் உங்களை அனுமதிக்கப் போவதில்லை
நீங்கள் எல்லாம் முடிந்ததும், திரும்பி வாருங்கள், பின்னர் நீங்கள் பார்த்திராத 10% தரவில் உங்கள் மாதிரியை இயக்குவேன்
இப்போது
உங்கள் தரவை சரிபார்ப்பு மற்றும் சோதனைத் தொகுப்புகளாகப் பிரிப்பது சற்று நுட்பமானது
எளிய சிறிய தரவு தொகுப்பின் எடுத்துக்காட்டு இங்கே.
பயனுள்ள சரிபார்ப்பு தொகுப்புகளை உருவாக்குவது பற்றி ரேச்சல் எழுதிய ஒரு அருமையான வலைப்பதிவு இடுகையிலிருந்து இது வருகிறது (நாங்கள் இணைப்பைப் பகிர்வோம்).
இது ஒருவித பருவகால தரவு தொகுப்பு என்பதை நீங்கள் அடிப்படையில் காணலாம்.
இப்போது நீங்கள் - சரி, 'FastAI' சரிபார்ப்பு தரவுத்தொகுப்பு 0.2 சதவீதத்துடன் மாதிரியை உருவாக்க விரும்புகிறேன் - என்று சொன்னால்,
இது இதைச் செய்யும். இது தோராயமாக சில புள்ளிகளை நீக்கும்
இப்பொது
இது மிகவும் உதவியாக இல்லை
ஏனென்றால், நாம் இன்னும் ஏமாற்றலாம், ஏனென்றால் இந்த புள்ளிகள் சரியாக மற்ற புள்ளிகளின் நடுவில் இருக்கும்.

Spanish: 
"que no les permitiré ver,"
"y cuando terminen, vuelvan"
"y ejecutaré sus modelos contra el 10% de los datos"
"que no han visto"
Ahora
extraer el conjunto de validación y prueba
es algo sutil.
Aquí hay un ejemplo de un conjunto de datos pequeño y simple
que viene de una fantástica publicación en la bitácora
que escribió Rachel sobre
crear conjuntos de validación efectivos.
Y puedes que hay cierta clase de estacionalidad
en el conjunto de datos aquí. Si solo dijeras
"Bien, fast.ai, voy a modelar esto"
"voy a crear mi 'dataloader' usando"
"un porcentaje de validación de 0,2"
Hará esto: borrará aleatoriamente
algunos de los puntos
Ahora
Esto no es de mucha ayuda porque
aún podemos engañar. Porque estos puntos están justo

Japanese: 
私は私のデータの10％を保持して、あなたには全く見せないようにします。
あなたたちが作成したモデルをあなたたちが使えなかったテストデータで評価します。
さて、検証セットとテストセットを
引き出すのはちょっと微妙ですが、
これは簡単な小さなデータセットの例で、
これはレイチェルが書いた、効果的な検証セットの作成についての素晴らしいブログもってきました。
基本的には、ある種の季節性をもつデータセットであることがわかります。
さて、「Ok, FastAI, valid_percent of 0.2で
data loaderを作りたい」と言うと、次のようになります。
ランダムにいくつかのドットを間引いていますね？
これは良くありません。
ドットが他のドットの真ん中にあるので、ズルをすることができます。

English: 
to hang on to 10% of my data and I'm not going
to let you see it at all and when you're all
finished, come back and then I'll run your
model on the 10% of data you've never seen”.
Now pulling out your validation and test sets
is a bit subtle though.
Here's an example of a simple little data
set and this comes from a fantastic blog post
that Rachel wrote that we will link to about
creating effective validation sets.
And you can see basically you have some kind
of seasonal data set.
Now if you just say, “Okay, fas.ai, I want
to model that I want to create a my dataloader
using a valid_percent of 0.2”, it would
do this.
It would delete randomly some of the dots,
right?
Now, this isn't very helpful because it's
we can still cheat because these dots are

Chinese: 
我会留出 10% 的数据
and I am going to hang on to 10% of my data
这些数据不会被任何模型接触
and I'm not going to let you see it at all
等模型训练完了
and when you're all finished come back
让这些模型
and then I'll run your model
拟合从未见过的 10% 的数据
on the tip as 10% of data you've never seen
划分验证集和测试集需要一些技巧
pulling out your validation and test sets is a bit subtle though
这里有一组简单的数据集例子
here's an example of a simple little data set
来自一篇很赞的博客文章
and this comes from a fantastic blog post
这篇文章是 Rachel 写的
that Rachel wrote that we will link to
关于如何划分有效的验证集
about creating effective validation sets
同学们大致可以看出
and you can see basically
这里有一些季节性数据
you have some kind of seasonal data set here
如果你说  Fast AI  我要用数据建个模型
now if you just say okay Fast AI I want to model that
我先构建一个数据加载模块
I want to create a my data loader
流出 0.2 比例的验证集
using a valid percent of 0.2
数据加载模块会随机删除
it would do this it would delete randomly
上面的一些点
some of the dots, right
但是这样划分不一定有用
now this isn't very helpful
因为模型照样可以作弊
because it's we can still cheat
因为这些点正好在中间位置
because these dots are right in the middle of other dots

Italian: 
 di aggrapparmi al 10% dei miei dati e non te lo farò vedere affatto e quando sarai tutto 
 finito, torna indietro e poi eseguo il tuo modello sul 10% di dati che non hai mai visto ”. 
 Tuttavia, estrarre la convalida e i set di test è un po 'sottile. 
 Ecco un esempio di un semplice set di dati e questo proviene da un fantastico post sul blog 
 che Rachel ha scritto a cui ci collegheremo sulla creazione di set di convalida efficaci. 
 E puoi vedere fondamentalmente che hai una sorta di set di dati stagionali. 
 Ora, se dici solo: "Va bene, fas.ai, voglio modellare che voglio creare un mio dataloader 
 utilizzando un valid_percent di 0.2 ", lo farebbe. 
 Eliminerebbe in modo casuale alcuni punti, giusto? 
 Ora, questo non è molto utile perché possiamo ancora barare perché questi punti lo sono 

English: 
right in the middle of other dots and this
isn't what would happen in practice.
What would happen in practice is we would
want to predict this is sales by date right
we want to predict the sales for next week.
Not the sales for 14 days ago 18 days ago
and 29 days ago, okay?
So what you actually need to do to create
an effective validation set here is not do
it randomly but instead chop off the end,
right?
And so this is what happens in all Kaggle
competitions pretty much that involve time,
for instance, is the thing that you have to
predict is the next like two weeks or so after
the last data point that they give you and
this is what you should do also for your test
set so again if you've got vendors that you're
looking at you should say to them okay after
you're all done modeling we're going to check
your model against data that is one week later
than you've ever seen before.
And you won't be able to retrain or anything
because that's what happens in practice, right?
Okay.

Italian: 
 proprio nel mezzo di altri punti e questo non è ciò che accadrebbe in pratica. 
 Quello che accadrebbe in pratica è che vorremmo prevedere che si tratta di vendite per data giusta 
 vogliamo prevedere le vendite per la prossima settimana. 
 Non le vendite di 14 giorni fa, 18 giorni fa e 29 giorni fa, ok? 
 Quindi ciò di cui hai effettivamente bisogno per creare un set di convalida efficace qui è non farlo 
 a caso ma invece taglia la fine, giusto? 
 E quindi questo è ciò che accade in tutte le competizioni Kaggle più o meno che richiedono tempo, 
 per esempio, la cosa che devi prevedere è il prossimo, circa due settimane dopo 
 l'ultimo dato che ti danno e questo è quello che dovresti fare anche per il tuo test 
 impostalo di nuovo se hai fornitori che stai guardando, dovresti dire loro ok dopo 
 hai finito di modellare, controlleremo il tuo modello con i dati che sono una settimana dopo 
 di quanto tu abbia mai visto prima. 
 E non sarai in grado di riqualificarti o altro perché è quello che succede in pratica, giusto? 
 Va bene. 

Spanish: 
en el medio de los otros puntos. Y esto no es lo que
sucede en la práctica. En la práctica querríamos predecir,
estas son las ventas por día, querríamos predecir las ventas
de la semana próxima, no las ventas de
14 días atrás, 18 días o 29 días atrás.
 
Lo que tienes que hacer aquí para crear un conjunto de validación efectivo no es
hacerlo aleatoriamente si no
trocear
el final.
Es lo que pasa en todas las competencias de Kaggle
que involucren tiempos, por ejemplo,
es lo que tienes que predecir en los próximos, digamos,
las siguientes dos semanas luego
del último dato que te dan.
También es lo que tienes que hacer con el conjunto de prueba
si estás buscando proveedores
deberías decirles "Luego del modelado"
"verificaremos sus modelos contra"
"datos que son una semana mas tarde de lo han visto"
"Y no pueden volver a entrenar ni nada" Porque es lo que sucede
en la práctica.
[Rachel] Hay una pregunta:

Japanese: 
こんなことは実世界では起きませんよね？
実際に何が起こるかというと、これは日付ごとの売上高ですが、
来週の売上高を予測したいと思います。対象は
14日前、18日前、29日前の売上ではありません。
ここで効果的な検証セットを作成するために実際に必要なのは、ランダムに行うのではなく、
最後の部分を
切り落とすことです。
これは全てのKaggleコンテストで起こることで、例えば、時間が関係していて、
予測しなければならないのは、最後に与えられたデータポイントの２週間後くらいのことで、
あなた達のテストセットでもこうすべきです。
繰り返しになりますが、ベンダーを抱えていて、
あなた方のモデリングが完了したら、私たちが提供したデータセットの1週間後の
データセットでモデルを評価します。
あなた達は再学習などはできません。なぜならこれが実世界で起きることだからです。

Chinese: 
实践中这类情况不会发生
and this isn't what would happen in practice
实践中常见的情况是
what will happen in practice is
我们希望预测
we would want to predict
这是每日的销售量
this is sales by date
我们希望预测下周的销售量
we want to predict the sales for next week
而不是 14 天前或是 18 和 29 天前的销售量
not the sales for 14 days ago 18 days and 29 days ago
所以实际上
so what you actually need to do
为了划分出有效的验证数据
to create an effective validation set here
不能随机划分  而是直接从末尾截取
is not do it randomly but instead chop off the end
所有 Kaggle 比赛都是这么操作的
and so this is what happens in all kaggle competitions
尤其是时序相关的数据
pretty much that involve time for instance
比赛通常要预测的目标是
is the thing that you have to predict is
未来两周左右的趋势
the next like two weeks or so
这两周的数据就在最后一个数据点之后
after the last data point that they give you
我们划分出的测试集也应该这么使用
and this is what you should do also for your test set
再回到我们挑选模型框架的例子
so again if you've got vendors that you're looking at
你跟他们说  模型训练完成后
you should say to them okay after you're all done modeling
我们会用模型来拟合一批数据
we're going to check your model against a data
这批数据晚于训练数据一周左右
that is one week later than you get the same before
而且你们的模型不能再用它来训练
and you won't be able to retrain or anything
因为实践中就是这么操作的
because that's what happens in practice
(助手) 这儿有个提问
(assistant) there's a question

Tamil: 
இது நடைமுறையில் இப்படி நடக்காது.
நடைமுறையில், இது தேதியின்படி விற்பனை என்ன என்று நாம் கணிக்க விரும்புகிறோம், இல்லையா?
அடுத்த வாரத்திற்கான விற்பனையை கணிக்க விரும்புகிறோம்.
14, 18 மற்றும் 29 நாட்களுக்கு முன்பு விற்பனை என்ன என்று கணிக்க விரும்பவில்லை .
எனவே இங்கே ஒரு பயனுள்ள சரிபார்ப்பு தொகுப்பை உருவாக்க நீங்கள் உண்மையில் - தோராயமாக செய்யக்கூடாது.
ஆனால் அதற்கு பதிலாக, முடிவை நறுக்கவும்
எனவே நேரத்தை உள்ளடக்கிய அனைத்து 'Kaggle' போட்டிகளிலும் இதுதான் நடக்கும்.
உதாரணமாக, நாம் கணிக்க வேண்டிய விஷயம், நமக்குக் கொடுத்திருக்கும் கடைசி தரவு புள்ளியின் அடுத்த இரண்டு வாரங்கள்/ அதற்கு மேலான காலத்தில் இருப்பதாகும்.
உங்கள் சோதனைத் தொகுப்பிற்கும் நீங்கள் செய்ய வேண்டியது இதுதான்
எனவே மீண்டும், நீங்கள் விற்பனையாளர்களைப் தேடுகிறீர்கள் என்றால்
நீங்கள் அவர்களிடம் சொல்ல வேண்டியது - சரி, நீங்கள் அனைவரும் மாதிரிகளை செய்து முடித்த பிறகு, ஒரு தரவுக்கு எதிராக அதை நாங்கள் சரிபார்க்கப் போகிறோம்
அந்த தரவு நீங்கள் முன்பு பார்த்ததை விட ஒரு வாரம் கழித்து இருக்கப்போவது
மற்றும் மறு பயிற்சி அல்லது வேறு எதையும் செய்ய கூடாது - என்று . ஏனென்றால் அது நடைமுறையில் அப்படித்தான் நடக்கிறது, இல்லையா?
ஒரு கேள்வி இருக்கிறது.

English: 
There's a question, I've heard people describe
overfitting as training error being below
validation error does this rule of thumb end
up being roughly the same as yours?
Okay, so that's a great question.
So, I think what they mean there is training
loss versus validation loss.
Because we don't print training error so we
do print at the end of each epoch the value
of your loss function for the training set
and the value of the loss function for the
validation set.
And if you train for long enough, that's so
so if it's training mostly your training loss
will go down and your validation loss will
go down.
Because by definition, loss function is defined
such as a lower loss function is a better
model.
If you start overfitting, your training loss
will keep going down, right?
Because like why wouldn't it?
You know, you're getting better and better
parameters.

Italian: 
 C'è una domanda, ho sentito persone che descrivono l'overfitting come errore di formazione sotto 
 errore di convalida questa regola pratica finisce per essere più o meno la stessa della tua? 
 Ok, questa è un'ottima domanda. 
 Quindi, penso che ciò che significano sia perdita di allenamento rispetto a perdita di convalida. 
 Poiché non stampiamo l'errore di addestramento, quindi stampiamo il valore alla fine di ogni epoca 
 della funzione di perdita per il training set e il valore della funzione di perdita per il 
 set di convalida. 
 E se ti alleni abbastanza a lungo, è così se si tratta principalmente della tua perdita di allenamento 
 diminuirà e la perdita di convalida diminuirà. 
 Perché per definizione, la funzione di perdita è definita come una funzione di perdita inferiore è migliore 
 modello. 
 Se inizi l'overfitting, la tua perdita di allenamento continuerà a diminuire, giusto? 
 Perché tipo perché non dovrebbe? 
 Sai, stai ottenendo parametri sempre migliori. 

Chinese: 
有人把过拟合描述成
I've heard people describe overfitting
低于验证误差的训练误差
as training error being below validation error
这个定义
does this rule of thumb
和您讲的差不多是一个意思吗
end up being roughly the same as yours
好的这是个好问题
okay so that's a great question
我认为他们的意思是
so I think what they mean there
训练损失 vs. 验证损失
is training loss versus validation loss
因为 fastai 不输出训练误差
because we don't print training error
在每个 epoch 结束后 fastai 会输出的是
so we do print at the end of each epoch
训练集的损失函数结果
the value of your loss function for the training set
和验证集的损失函数结果
and the value of the loss function for the validation set
而且如果模型训练得足够久
and if you train for long enough
且训练得足够好
so if it's training nicely
模型的训练损失就会下降
your training loss will go down
模型的验证损失也会下降
and your validation loss will go down
因为损失函数的定义就是
because by definition loss function is
损失函数越小  模型表现越好
to find such as a lower loss function is a better model
如果模型开始过拟合了
if you start overfitting
训练损失会持续下降
your training loss will keep going down right
因为  不下降才怪
because like why wouldn't it
这时模型的参数越来越好
you know you're getting better and better parameters

Japanese: 
質問があります。過学習は訓練誤差が
バリデーション誤差より小さくなることだと聞いたことがあります。この経験則はあなたの説明と同等ですか？
良い質問ですね。
おそらく、質問は、訓練誤差と検証誤差の比較に関してですね。
fastaiでは訓練誤差をプリントせず、
エポックの終わりに、トレーニングセットとバリデーションセットに対する損失関数の値を
プリントします。
十分長く訓練を続けた場合、
訓練誤差も検証誤差も小さくなるでしょう。
なぜなら、定義上、
損失関数は、損失関数が低いほど良いモデルであるように定義されているからです。
過学習し始めたら
パラメータは改善されているので訓練誤差は減少し続けますが、

Spanish: 
He escuchado a gente que describe sobreajuste como el error del entrenamiento
por debajo del error de validación. ¿Es esta regla general
mas o menos como la suya? [Jeremy] Buena pregunta
Pienso que quiere decir
la pérdida del entrenamiento menor a la pérdida de validación
porque no mostramos el error del entrenamiento.
Sí imprimimos al final de cada era
el valor tu función de pérdida para el conjunto de datos de entrenamiento
y el valor tu función de pérdida para el de validación
Y si entrenas durante un tiempo suficiente
si estás entrenando
tu pérdida del entrenamiento disminuirá y tu pérdida de validación disminuirá
porque por definición
una función de pérdida es
una función donde una pérdida menor es un mejor modelo
Si empiezas a sobreajustar tu
pérdida en el entrenamiento seguirá disminuyendo
porque ¿por qué no?
Vas obteniendo mejores parámetros
 

Tamil: 
பயிற்சி பிழை சரிபார்ப்பு பிழைக்குக் கீழே இருந்தால் அதை அதிகப்படியான பொருத்தம் என்று  மக்கள் விவரிப்பதை கேள்விப்பட்டேன். இந்த கட்டைவிரல் விதி நீங்கள் சொல்வதை போலவே இருக்குமா?
சரி, அது ஒரு நல்ல கேள்வி
எனவே அவை என்னவென்று நான் நினைக்கிறேன் என்றால். பயிற்சி இழப்பு மற்றும் சரிபார்ப்பு இழப்பு என்று உள்ளது
நாம் பயிற்சி பிழையை அச்சிடவில்லை என்பதனால்
ஒவ்வொரு சகாப்தத்தின் முடிவிலும், பயிற்சி தொகுப்பு மற்றும் சரிபார்ப்பு தொகுப்புக்கான உங்கள் இழப்பு செயல்பாட்டின் மதிப்பை நாங்கள் அச்சிடுகிறோம்
நீங்கள் நீண்ட நேரம் பயிற்சி செய்தால். அது பெரும்பாலும் பயிற்சியாக இருந்தால்
உங்கள் பயிற்சி இழப்பு குறையும், உங்கள் சரிபார்ப்பு இழப்பு குறையும்
ஏனெனில் வரையறையால்
குறைந்த இழப்பு செயல்பாட்டைக் கண்டுபிடிப்பதே சிறந்த மாதிரியாகும்
நீங்கள் அதிகப்படியான பொருத்தத்தைத் தொடங்கினால்
உங்கள் பயிற்சி இழப்பு குறைந்து கொண்டே இருக்கும். நீங்கள் மிக சிறந்த அளவுருக்களைப் பெற்றுக்கொண்டே இருக்கும்போது, அது குறைந்து கொண்டே இருக்கும்.

Japanese: 
検証誤差が増加し始めます。
なぜなら、モデルがトレーニングセットの特定のデータに適合し始めているからです。そうすれば訓練誤差は小さくなりますから。
しかし検証誤差に関しては当てはまりません。ですので検証誤差は悪くなります。
とはいえ、
このことは必ずしも
過学習、もしくは悪い意味での過学習しているとは言い切れません。
実際に、検証誤差は増え始めているが、
検証正確度あるいは誤差率などのメトリクスは良くなっていることもありうるのですから。
過学習を数式的に
表せすには損失関数について学ぶ必要があるのでここでは行いません。
検証誤差ではなく、メトリクスの値が悪化していないか見るのが
大事と認識しておいてください。
大変素晴らしい質問でした。

Chinese: 
但验证集的损失开始呈上升趋势
but your validation loss will start to go up
因为模型已经开始
because actually you've started
拟合训练集中的特定数据点了
fitting to the specific data points in the training set
实际上模型的表现将会趋于更差
and so it's not going to actually get better, it's going to get..
对应验证集上的表现不会趋于更好
it's not going to get better for the validation set
验证集的损失会开始增大
it'll start to get worse
但这并不一定意味着你的模型是过拟合
however um that does not necessarily mean that you're overfitting
至少不是 以糟糕的方式过拟合
or at least not overfitting in a bad way
正如我们看到的一样
as we'll see
模型实际上可能正在趋向于
it's actually possible to be at a point
验证集的损失逐渐增大
where the validation loss is getting worse
但是验证集的精度、误差以及其他度量尺度却逐渐趋于最优
but the validation accuracy or error or metric is still improving
在此我不打算从数学理论角度解释上述过程是如何进行的
so I'm not going to describe how that would happen mathematically yet
原因是我们还要学习更多有关损失函数的知识才能理解
because we need to learn more about loss functions
现在我们只需要意识到
but we will but for now just realize that
最需要关注的是模型度量指标变差
the important thing to look at is your metric getting worse
而不是你的模型损失逐渐增大
not your loss function getting worse
非常感谢你的提问
thank you for that fantastic question
接下来重要的事情是
the next important thing
我们要学习的内容是模型迁移学习
we need to learn about is called transfer learning

Spanish: 
Pero tu pérdida por validación empezará a subir
Porque estarás sobreajustando sobre los puntos de dato específicos
del conjunto de entrenamiento. No estará mejorando
para el conjunto de validación,
lo estará empeorando. Sin embargo
eso no implica necesariamente
que estás sobreajustando
o sobreajustando de una forma mala y veremos
que es posible que la pérdida por
validación empeore pero que el error de
validación o exactitud mejoren.
No describiré todavía
cómo eso funciona matemáticamente, porque necesitamos
aprender mas de las funciones de pérdida ¡lo haremos!
Pero por el ahora solo entiende que lo importante es ver
tu métrica
empeore. No tu
función de pérdida.
Gracias por esa pregunta fantástica.
El siguiente tema importante que necesitamos conocer

Tamil: 
ஆனால் உங்கள் சரிபார்ப்பு இழப்பு உயரத் தொடங்கும்
ஏனெனில் உண்மையில் நீங்கள் பயிற்சி தொகுப்பில் உள்ள குறிப்பிட்ட தரவு புள்ளிகளுடன் பொருத்தத் தொடங்கிவிட்டீர்கள்.
எனவே இது சரிபார்ப்பு தொகுப்புக்கு சிறப்பாக வரப்போவதில்லை. இது மோசமடையத் தொடங்கும்.
எனினும்
நீங்கள் மோசமான வழியில் அதிகமாகப் பொருந்துகிறீர்கள் என்று அர்த்தமல்ல. நாம் பார்க்கப்போவதுபோல
சரிபார்ப்பு இழப்பு மோசமாக இருக்கும் ஒரு கட்டத்தில் இருக்க முடியும்.
அதேசமயத்தில் சரிபார்ப்பு துல்லியம் அல்லது பிழை அல்லது அளவீடு இன்னும் மேம்பட்டு இருக்கும்.
கணித ரீதியாக இது எவ்வாறு நடக்கும் என்பதை நான் விவரிக்கப் போவதில்லை, ஏனென்றால் இழப்பு செயல்பாடுகளைப் பற்றி நாம் மேலும் அறிய வேண்டும்
ஆனால் நாங்கள் செய்வோம். ஆனால் அளவீடு மோசமாகி வருவதையும், இழப்பு செயல்பாடு மோசமடையாமல் இருப்பதே முக்கியமான விஷயம் இப்போதைக்கு புரிந்து கொள்ளுங்கள்
அதற்கு நன்றி. அருமையான கேள்வி.

Italian: 
 Ma la tua perdita di convalida inizierà a salire perché in realtà hai iniziato ad adattarti 
 i punti dati specifici nel set di addestramento e quindi non migliorerà effettivamente. 
 Otterrà, non migliorerà per il set di convalida che inizierà a ottenere 
 peggio. 
 Tuttavia, ciò non significa necessariamente che tu stia overfitting o almeno non overfitting 
 in un brutto modo come vedremo è effettivamente possibile essere a un punto in cui la convalida perde 
 sta peggiorando ma l'accuratezza della convalida, l'errore o la metrica stanno ancora migliorando. 
 Quindi non descriverò ancora come sarebbe matematicamente perché ne abbiamo bisogno 
 per saperne di più sulle funzioni di perdita, ma lo faremo. 
 Ma per ora renditi conto che la cosa importante da considerare è che la tua metrica sta peggiorando, 
 non la tua funzione di perdita che peggiora. 
 Grazie per questa fantastica domanda. 

English: 
But your validation loss will start to go
up because actually you started fitting to
the specific data points in the training set
and so it's not going to actually get better.
It's going to get it's not going to get better
for the validation set it'll start to get
worse.
However, that does not necessarily mean that
you're overfitting or at least not overfitting
in a bad way as we'll see it's actually possible
to be at a point where the validation loss
is getting worse but the validation accuracy
or error or metric is still improving.
So I'm not going to describe how that would
happen mathematically yet because we need
to learn more about loss functions but we
will.
But for now just realize that the important
thing to look at is your metric getting worse,
not your loss function getting worse.
Thank you for that fantastic question.

Italian: 
 La prossima cosa importante che dobbiamo imparare è chiamata transfer learning. 
 Quindi la riga di codice successiva diceva learn.fine_tune. 
 Perché dice learn.fine_tune? 
 La messa a punto è ciò che facciamo quando trasferiamo l'apprendimento, quindi il trasferimento dell'apprendimento utilizza un pre-formato 
 modello per un'attività diversa da quella per cui era stata originariamente addestrata. 
 Quindi più gergo per capire il nostro gergo. 
 Diamo un'occhiata a quello. 
 Cos'è un modello pre-addestrato? 
 Quindi cosa succede è ricordare che ti ho detto che l'architettura che stiamo usando si chiama ResNet-34? 
 Quindi, quando prendiamo quel ResNet-34 è solo una semplice funzione matematica va bene con un sacco 
 di parametri che adatteremo utilizzando l'apprendimento automatico. 
 C'è un grande set di dati chiamato ImageNet, che contiene 1,3 milioni di immagini su mille 
 diversi tipi di cose, che si tratti di funghi o animali o aeroplani o martelli o altro. 
 C'è una competizione o c'era una competizione che si corre ogni anno da vedere 

Japanese: 
次に学ぶべき重要なことは、転移学習と呼ばれるものです。
なぜlearn.fitなんでしょう？
fine tuningは転移学習で行うものです。
転移学習では、異なるタスクで訓練された学習済みモデルを活用します。
専門用語の説明にさらに専門用語が必要ですね。学習済みモデルとは何でしょう？
先ほど、今使っているアーキテクチャはresnet34とお伝えしました。
resnet34を持ってくる時、それはただの数式で、
大量のパラメータが使われていて、私たちが機械学習で調整しようとします。
ImageNetという1000クラス合計130万枚の画像データセットがあります。
キノコや動物、飛行機やハンマーなどが含まれます。
かつて、ImageNetのコンペテイションが毎年開催されていて、研究者達はより

English: 
The next important thing we need to learn
about is called transfer learning.
So the next line of code said learn.fine_tune.
Why does it say learn.fine_tune?
Fine tune is what we do when we are transfer
learning so transfer learning is using a pre-trained
model for a task that is different to what
it was originally trained for.
So more jargon to understand our jargon.
Let's look at that.
What's a pre-trained model?
So what happens is remember I told you the
architecture we're using is called ResNet-34?
So when we take that ResNet-34 that's just
a just a mathematical function okay with lots
of parameters that we're going to fit using
machine learning.
There's a big data set called ImageNet, that
contains 1.3 million pictures of a thousand
different types of thing, whether it be mushrooms
or animals or airplanes or hammers or whatever.
There's a competition or there used to be
a competition that runs every year to see

Tamil: 
நாம் கற்றுக்கொள்ள வேண்டிய அடுத்த முக்கியமான விஷயம் பரிமாற்ற கற்றல் என்று அழைக்கப்படுகிறது. எனவே நிரலின் அடுத்த வரி 'learn.fine_tune'
அது ஏன் 'learn.fine_tune' என்று கூறுகிறது?
"fine_tune" என்பது நாம் 'பரிமாற்ற கற்றல்' செய்யும்போது, செய்வதாகும்
எனவே பரிமாற்றக் கற்றல் என்பது ஒரு முன் பயிற்சி பெற்ற மாதிரியைப் பயன்படுத்துகிறது, இது முதலில் பயிற்றுவிக்கப்பட்டதை விட வேறுபட்டது
எங்கள் குழுமொழியை புரிந்துகொள்ள இன்னும் குழுமொழி, அதைப் பார்ப்போம். முன் பயிற்சி பெற்ற மாதிரி என்றால் என்ன?
ஆகவே, நாங்கள் பயன்படுத்தும் கட்டடமைப்பு ResNet-34 என்று நான் சொன்னேன் என்பதை நினைவில் கொள்க
அந்த ResNet-34 ஐ எடுத்து (அது அளவுருக்களை கொண்ட ஒரு கணித செயல்பாடு) இயந்திர கற்றலைப் பயன்படுத்தி நாம் பொருத்தப் போகிறோம்
ImageNet என்று அழைக்கப்படும் ஒரு பெரிய தரவுத்தொகுப்பு உள்ளது, அதில் ஆயிரம் வெவ்வேறு வகையான விஷயங்களின் 1.3 மில்லியன் படங்கள் உள்ளன
காளான்கள் அல்லது விலங்குகள் அல்லது விமானங்கள் அல்லது சுத்தியல் அல்லது மற்றவை?

Spanish: 
es llamado "transferencia de aprendizaje" y la siguiente línea de código
dice "learn.fine_tune"
¿Por qué dice "learn.fine_tune"?
"fine_tune" (el afinado) es lo que hacemos cuando
estamos transfiriendo aprendizaje. La transferencia de aprendizaje usa
un modelo preentrenado para una tarea
diferente para la que ha sido entrenado originalmente.
Mas jerga. Para entender la jerga veamos
¿Qué es un modelo pre-entrenado?
¿Recuerdas que te conté que la arquitectura era ResNet34?
Cuando tomamos ResNet34
es sólo una función matemática
con muchos parámetros para ajustaremos
usando aprendizaje automático.
 
Hay un conjunto muy grande de datos llamado "ImageNet"
que contiene 1,3 millones de fotos de miles de cosas
diferentes. Sean estas setas, animales,
aviones, martillos,
lo que sea.
Había una competición
anual para ver quién obtenía la mejor exactitud

Chinese: 
下一行代码是learn.fine_tune()
so the next line of code said learn.fine_tuned()
为什么进行learn.fine_tune()呢
why does it say learn.fine_tune()
微调就是我们在进行迁移学习时所做的事情
fine tuned is what we do when we are transfer learning
迁移学习是使用一个针对特定任务的预训练模型
so transfer learning is using a pre-trained model
该任务不同于该模型最初训练时的目的
for a task that is different to what it was originally trained for
我们接着来进行深入的讲解
so more jargon to understand our jargon let's look at that
预训练模型主要内容
what's a pre-trained model
我之前讲过我们现在
so what happens is remember I told you
使用的网络结构叫做ResNet-34
the architecture we're using is called ResNet 34
ResNet-34是一种
so when we take that ResNet 34 that's just a
数学定义上的带有大量参数的函数
just a mathematical function okay with lots of parameters
这些参数将会通过机器学习进行拟合学习
that we're going to fit using machine learning
ImageNet是现有的一个巨大的数据集
there's a big data set called ImageNet
其中包含130万张各种事物的图片
that contains 1.3 million pictures of a thousand
例如各种类型的菌类、动物
different types of thing wherein mushrooms or animals or
以及飞机、锤子工具等等
airplanes or hammers or whatever
对应还有一项赛事
there's a competition or they used to be
过去每年都会举行
a competition that runs every year

Chinese: 
评估各位参赛者在ImageNet上能够获得地最高分类准确率
to see who could get the best accuracy on the ImageNet competition
以及构建出的最佳模型
and the models that did really well
参赛团队会提供最佳模型的参数
people would take those specific values of those parameters
并将这些数据公开到网上
and they would make them available on the internet
以供任何人下载使用
for anybody to download
通过下载这些模型数据
so if you download that
可以构建相应的工程网络结构以及获得训练好的模型
you don't just have an architecture now you have a trained model
该模型已经能够识别图像中上千种类型的事物
you have a model that can recognize a thousand categories of thing in images
可能该分类识别任务不是非常有用
which probably isn't very useful
除非恰巧你也需要同样的模型
unless you happen to want something
能准确识别其中对应的上千种类型的事物
that recognizes those exact thousand categories of thing
但这正好说明你可以
but it turns out you can
将这些权重作为你的模型初始参数值
rather you can start with those weights in your model
然后在自己的数据上训练多轮
and then train some more epochs on your data
最终你会得到一个具有更高准确率的模型
and you'll end up with a far far more accurate model
相比如果不从预训练好的模型开始
than you would if you didn't start with that pre-trained model
我们马上就会知道其中的原因
and we'll see why in just a moment right
而这正是迁移学习的思想方法
um but this idea of transfer learning
这种方法的正确性显而易见
it's kind of it makes intuitive sense right

Japanese: 
より良い分類器を作ろうと努力していました。
そこで作られたモデル
のパラメータはインターネットで公開されていて、今では誰もが使えます。
つまり、それらをダウンロードする時、アーキテクチャではなく学習済みモデルが手に入ります。
そのモデルは写真に写っている1000種類の物体を
識別できます。
これは、たまたまその1000クラスを正確に認識するものが必要な場合を除いては、あまり有用ではないでしょう。
しかし、実際には、
その重みから始めて、新しいデータセットでさらに数エポック訓練すれば、
事前に訓練されたモデルから始めなかった場合よりも
はるかに正確なモデルができあがります。なぜかはすぐに確認します。
この移動学習のアイデアは、直感的に理解できますよね？

English: 
who could get the best accuracy on the ImageNet
competition.
And the models that did really well, people
would take those specific values of those
parameters and they would make them available
on the internet for anybody to download.
So if you download that you don't just have
an architecture now you have a trained model.
You have a model that can recognize a thousand
categories of thing in images.
Which probably isn't very useful unless you
happen to want something that recognizes those
exact thousand categories of thing.
But it turns out you can rather you can start
with those weights in your model and then
train some more epochs on your data and you'll
end up with a far far more accurate model
than you would if you didn't start with that
pre- trained model and we'll see why in just
a moment, right?

Tamil: 
'ImageNetல்' யார் சிறந்த துல்லியத்தை பெற முடியும் என்பதைப் பார்க்க ஒவ்வொரு ஆண்டும் இயங்கும் ஒரு போட்டியாக அவை இருந்தன.
மக்கள், நன்றாகச் செய்த மாதிரிகளின் அளவுருக்களின் குறிப்பிட்ட அந்த மதிப்புகளை எடுத்து
அனைவரும் பதிவிறக்குவதற்கு வழியாக, அவர்கள் அதை இணையத்தில் கிடைக்கச் செய்வார்கள்.
எனவே நீங்கள் அதை பதிவிறக்கம் செய்தால், உங்களிடம் ஒரு கட்டடமைப்பு மட்டுமல்ல, பயிற்சி பெற்ற மாதிரியும் இருக்கும்
படங்களில் ஆயிரம் வகைகளை அடையாளம் காணக்கூடிய மாதிரி உங்களிடம் இருக்கும்
சரியாக அந்த ஆயிரம் வகைகளுள் அடையாளம் காணக்கூடிய ஒன்றை நீங்கள் விரும்பினால் ஒழிய, இது மிகவும் பயனுள்ளதாக இருக்காது
ஆனால் என்ன தெரியவருகிறது என்றால்
உங்கள் மாதிரியில் அந்த எடையுடன் தொடங்கலாம், பின்னர் உங்கள் தரவில் இன்னும் சில சகாப்தங்களை பயிற்றுவிப்பதால்
கிடைக்கும் மாதிரி, முன்கூட்டிய பயிற்சிபெற்ற மாதிரியுடன் தொடங்காதபோது ஒப்பிடுகையில், இன்னும் துல்லியமாக இருக்கும். இன்னும் ஒரு கணத்தில் ஏன் என்று பார்ப்போம்.
ஆனால் பரிமாற்றக் கற்றல் குறித்த இந்த யோசனை உள்ளுணர்வுக்குரியது, இல்லையா?

Spanish: 
en ImageNet
Y los modelos lo hacían realmente bien
La gente obtenía
esos parámetros específicos
y los dejaban disponibles en Internet
para que cualquiera los descargara. Si descargabas eso
no sólo tenías una arquitectura sino un modelo entrenado.
Un modelo que puede reconocer
miles de categorías de cosas
en imágenes.
Lo que probablemente no sea muy útil a menos que
tengas que reconocer esas mismas categorías de cosas
Pero resulta que puedes
empezar con esos pesos en tu modelo
y luego entrenar algunas eras mas
en tus datos, y terminarás con
un modelo mucho mucho mas exacto
que si hubieras empezado sin ese modelo preentrenado.
Y lo veremos en un momento.
Pero la idea de transferencia de aprendizaje es algo,
tiene sentido intuitivamente.

Italian: 
 chi potrebbe ottenere la migliore precisione sulla concorrenza ImageNet. 
 E i modelli che hanno funzionato davvero bene, le persone ne avrebbero preso quei valori specifici 
 parametri e li renderebbero disponibili su Internet per essere scaricati da chiunque. 
 Quindi, se scarichi che non hai solo un'architettura, ora hai un modello addestrato. 
 Hai un modello in grado di riconoscere mille categorie di cose nelle immagini. 
 Il che probabilmente non è molto utile a meno che non ti capiti di volere qualcosa che li riconosca 
 esatte migliaia di categorie di cose. 
 Ma si scopre che puoi piuttosto iniziare con quei pesi nel tuo modello e poi 
 addestra ancora qualche epoca sui tuoi dati e ti ritroverai con un modello molto più accurato 
 di quanto faresti se non avessi iniziato con quel modello pre-addestrato e vedremo perché in appena 
 un momento, giusto? 

Italian: 
 Ma questa idea di trasferire l'apprendimento, in un certo senso, ha un senso intuitivo, giusto? 
 ImageNet ha già alcuni gatti e alcuni cani e sai che può dire che è così 
 un gatto e questo è un cane, ma forse vuoi fare qualcosa che riconosca molte razze 
 che non sono in ImageNet. 
 Bene, per essere in grado di riconoscere i gatti contro i cani contro gli aeroplani contro i martelli 
 deve capire cose come: che aspetto ha il metallo? 
 Che aspetto ha la pelliccia? 
 Che aspetto hanno le orecchie? 
 Sai, quindi si può dire come oh questa razza di animale, questa razza di cane ha orecchie a punta 
 e oh questa cosa è di metallo quindi non può essere un cane. 
 Quindi tutti questi tipi di concetti vengono implicitamente appresi da un modello pre-addestrato. 
 Quindi, se inizi con un modello pre-addestrato, non devi imparare tutte queste funzionalità 
 da zero, quindi trasferire l'apprendimento è la cosa più importante per essere 
 in grado di utilizzare meno dati e meno risorse di calcolo e ottenere una migliore precisione. 

English: 
But this idea of transfer learning, it's kind
of, it makes intuitive sense, right?
ImageNet already has some cats and some dogs
in it and it's you know it can say this is
a cat and this is a dog, but you want to maybe
do something that recognizes lots of breeds
that aren't in ImageNet.
Well, for it to be able to recognize cats
versus dogs versus airplanes versus hammers
it has to understand things like: what does
metal look like?
What does fur look like?
What do ears look like?
You know, so it can say like oh this breed
of animal, this breed of dog has pointy ears
and oh this thing is metal so it can't be
a dog.
So all these kinds of concepts get implicitly
learned by a pre-trained model.
So if you start with a pre-trained model then
you don't have to learn all these features
from scratch, and so transfer learning is
the single most important thing for being
able to use less data and less compute and
get better accuracy.

Spanish: 
Imagenet ya tiene algunos gatos y algunos perros y
puede decir que este es un gato y este es un perro.
Pero tal vez quieras hacer algo que reconozca muchas razas que no son en Imagenet.
Para que sea capaz de reconocer gatos contra perros
contra aviones contra martillos.
Tiene que entender cosas como
¿Qué aspecto tiene el metal? ¿Qué aspecto tiene el pelo?
¿Qué aspecto tiene orejas?
Para poder decir, esta raza de animal, esta raza de perro tiene orejas puntiagudas,
esta cosa es de metal, así que no puede ser un perro.
Así que todo este tipo de conceptos
son aprendidos implícitamente
por un modelo pre-entrenado.
Así que si empiezas con un modelo pre-entrenado entonces
no tienes que aprender todas estas características desde cero,
y por lo tanto el aprendizaje de transferencia
es la cosa más importante
para poder usar menos datos
y menos computación y obtener una mejor precisión.
Así que ese es un enfoque clave para la biblioteca de fastai

Japanese: 
ImageNetにはすでに猫と犬が登録されていて、
これは猫でこれは犬だと言うことができますが、
ImageNetには登録されていない多くの犬種を認識するようなことをしたいと思います。
猫と犬、飛行機とハンマーを認識するためには、
金属はどんな形をしているのか、毛皮はどんな形をしているのか、などを理解する必要があります。ですから、
この犬種は耳が尖っている、これは金属だから犬のはずがないといったことがわかります。
これらの概念はすべて、事前に訓練されたモデルによって暗黙的に学習されます。
ですから、事前に訓練されたモデルから始めれば、これらすべての特徴をゼロから
学習する必要はありません。
少ないデータと計算力でより良いモデルを獲得できるということは非常に重要ですから

Chinese: 
ImageNet 中有一些猫和狗的图像
ImageNet already has some cats and some dogs
并且对于你来说很容易区分猫和狗
and it's you know it can say this is a cat and this is a dog
但你可能需要的是
but you want to maybe do something
区分众多品种的猫和狗而不仅是ImageNet中的一种
that recognizes lots of breeds that aren't an ImageNet
由于预训练模型已经能够识别猫、
well for it to be able to recognize cats
狗、飞机以及锤子工具
versus dogs versus airplanes versus hammers
也能够分辨出
it has to understand things like
金属看起来什么样的
what does metal look like
什么是毛皮以及耳朵长什么样子
what is fur look like what is ear look like
你知道模型是可以分辨出这个种类的动物
you know so it can say like oh this breed of animal
这种长有尖耳朵的狗
this breed of dog has pointy ears
以及分辨出这种事物是金属而不是狗
and oh this thing is metal so it can't be a dog
而所有这些概念
so all these kinds of concepts
都能通过预训练模型隐式学到
get implicitly learned by a pre-trained model
如果你以一个预训练模型开始迭代
so if you start with a pre-trained model
那么你就不必
then you don't it you don't have to
从头开始学习所有这些特性
learn all these features from scratch
并且对迁移学习而言最重要的是
and so transfer learning is the single most important thing
只需要很少的数据
for being able to use less data
很低的算力就可以获得具有较高准确率
and less compute and get better accuracy
这也是fast ai实验室关注的重点
so that's a key focus for the fast ai library

Tamil: 
இமாஜெனெட்டில் ஏற்கனவே சில பூனைகள் மற்றும் சில நாய்கள் உள்ளன,
இது ஒரு பூனை என்றும் இது ஒரு நாய் என்றும் அதனால் சொல்ல முடியும்
ஆனால் இமேஜெனெட்டில் இல்லாத நிறைய இனங்களை அடையாளம் காணும் ஒன்றை நீங்கள் செய்ய விரும்புகிறீர்கள் என்றால் .
பூனைகளை, நாய்களை, விமானங்களை, சுத்தியல்களை அடையாளம் காண, அதற்கு
உலோகம் எப்படி இருக்கும், உரோமம் எப்படி இருக்கும், காதுகள் எப்படி இருக்கும் போன்ற விஷயங்களை இது புரிந்து கொள்ள வேண்டும். அப்படி முடிந்தால்
இது கூர்மையான காதுகள் இந்த நாயின் இனத்தைப் போல உள்ளது. இந்த உலோகம், எனவே அது ஒரு நாயாக இருக்க முடியாது, என்று கணிக்கமுடியும்
எனவே இந்த வகையான கருத்துக்கள் அனைத்தும், முன் பயிற்சி பெற்ற மாதிரியால் மறைமுகமாக கற்றுக்கொள்ளப்படுகின்றன
எனவே நீங்கள் முன் பயிற்சி பெற்ற மாதிரியுடன் தொடங்கினால், இந்த அம்சங்களை நீங்கள் புதிதாகக் கற்றுக்கொள்ள வேண்டியதில்லை
எனவே பரிமாற்ற கற்றல் என்பது
குறைந்த தரவு மற்றும்  கணக்கீட்டைப் பயன்படுத்துவதற்கும் சிறந்த துல்லியத்தைப் பெறுவதற்கும் மிக முக்கியமான ஒற்றை விஷயம்

Italian: 
 Quindi questo è un obiettivo chiave per la libreria fastai e un obiettivo chiave per questo corso. 
 C'è una domanda: sono un po 'confuso sulle differenze tra perdita, errore e metrica. 
 Certo, quindi l'errore è solo un tipo di metrica, quindi ci sono molte etichette possibili diverse 
 potresti avere. 
 Diciamo che stavi cercando di creare un modello in grado di prevedere quanti anni ha un cane o un gatto. 
 Quindi la metrica che potresti usare è: in media, quanti anni sei stato fuori? 
 Quindi sarebbe una metrica. 
 D'altra parte, se stai cercando di prevedere se questo è un gatto o un cane, la tua metrica 
 sarebbe: quale percentuale di volte sbaglio? 
 Quindi quest'ultima metrica è chiamata tasso di errore. 
 Va bene, quindi l'errore è una metrica particolare. 

Spanish: 
y un enfoque clave para este curso.
Hay una pregunta:
Estoy un poco confundido
sobre las diferencias entre pérdida, error y métrica.
Claro,
así que el error es sólo un tipo de métrica,
hay muchas etiquetas posibles
que podrías tener. Digamos que intentabas crear
un modelo que pudiera predecir
la edad de un gato o un perro.
 
Así que la métrica que podrías usar es
en promedio, ¿cuántos años te faltaron?
Así que eso sería una métrica.
Por otra parte, si estás tratando de predecir
si se trata de un gato o un perro,
tu métrica sería:
¿qué porcentaje de tiempo me equivoco?
Esta última métrica se llama la tasa de error.
Entonces el error es una métrica en particular.

Japanese: 
FastAIライブラリとこのコースは転移学習にフォーカスしています。
質問です。誤差率とメトリクスの違いを説明してください。
わかりました。
誤差率は
メトリクスの1つです。ラベルの候補はたくさんあります。例えば、犬と猫の年齢などです。
この場合、
メトリクスは、予測と実際の年齢のズレでしょう。
これがメトリクスになるでしょうが、一方で犬と猫の識別を行う場合、
メトリクスは
誤分類の割合になるでしょう。

English: 
So that's a key focus for the fastai library
and a key focus for this course.
There's a question: I am a bit confused on
the differences between loss, error, and metric.
Sure, so error is just one kind of metric
so there's lots of different possible labels
you could have.
Let's say you were trying to create a model
which could predict how old a cat or dog is.
So the metric you might use is: on average,
how many years were you off by?
So that would be a metric.
On the other hand if you're trying to predict
whether this is a cat or a dog your metric
would be: what percentage of the time am I
wrong?
So that latter metric is called the error
rate.
Okay so error is one particular metric.

Chinese: 
同时也是该课程的重点
and a key focus for this course
我有一个问题并且有点困惑
there's a question and I am a bit confused
请问损失误差和度量指标的的区别是什么
on the differences between loss error and metric
误差也是一种度量指标
sure so error is just one kind of metric
假设你有很多种不同的类别
so there's lots of different possible labels you could have
假如你期望构建出一个模型
let's say you are trying to create a model
能够预测猫或狗的年龄
which could predict how old a cat or dog is
那么可以使用的度量指标是
so the metric you might use
死亡平均相差多少年
is on average how many years were you off by
这就是一种度量指标
so that would be a metric
另外如果你期望预测的
on the other hand if you're trying to predict
是否为一只猫或者狗
whether this is a cat or a dog
那么指标可以是模型出错的百分比
your metric would be what percentage of the time am I wrong
对应后一种指标就叫做误差率
so that latter metric is called the error rate
因此误差就是一种特殊的度量指标而已
okay so error is one particular metric

Tamil: 
இதுதான்  'FastAI' நூலகத்திற்கும் மற்றும் இந்த பாடநெறிக்கான முக்கிய கவனம்
ஒரு கேள்வி உள்ளது - இழப்பு பிழை மற்றும் அளவீடு இடையே உள்ள வேறுபாடுகள் குறித்து நான் சற்று குழப்பமடைகிறேன்
நிச்சயமாக,
பிழை என்பது ஒருவிதமான
அளவீடு வகை. எனவே உங்களிடம் பல வேறுபட்ட சிட்டைகள் இருக்கலாம் .
எடுத்துக்காட்டாக, பூனை அல்லது நாய் எவ்வளவு வயது என்று கணிக்கக்கூடிய ஒரு மாதிரியை உருவாக்க முயற்சிக்கிறீர்கள் என வைத்துக்கொள்வோம்
உங்கள் கணிப்புகள் சராசரியாக எத்தனை 'ஆண்டுகள்' வேறுபடுகின்றன - என்பதை அளவீடாக பயன்படுத்தலாம்
அது ஒரு அளவீடாகும். மறுபுறம் இது ஒரு பூனை அல்லது நாய் என்பதை நீங்கள் கணிக்க முயற்சிக்கிறீர்கள் என்றால்
உங்கள் அளவீடு -
எவ்வளவு சதவீதம், நான் தவறு செய்கிறேன்? - என்பதாகும்

Spanish: 
Es una cosa que mide
lo bien que lo haces
y debería ser lo que más te importa.
Escribes una función o usas una de las predefinidas de fastai
que mide lo bien que lo estás haciendo.
 
La pérdida
es lo que hablamos en la primera lección.
Haré un resumen rápido pero vuelve a la primera lección si no lo recuerdas.
Arthur Samuel habló de cómo
un modelo de aprendizaje automática necesita alguna medida de rendimiento
que podemos observar cuando
ajustamos nuestros parámetros hacia arriba o hacia abajo
¿esa medida de rendimiento mejora o empeora?
Como mencioné antes,
 
algunas métricas
posiblemente no cambien en absoluto
si mueves los parámetros hacia arriba y hacia abajo sólo un poco.
Así que no se pueden usar para este propósito
de ajustar los parámetros para encontrar una mejor medida de rendimiento.
Así que muy a menudo necesitamos usar

Japanese: 
今説明したものが誤差率です。誤りは1つのメトリクスです。それは、
モデルがどの程度できるかを測り、私たちが一番気にするものです。
ですから、メトリクスとはfastaiが提供しているものを使うか自分で定義してください。
損失は
前回のレッスンで説明しましたが、簡単におさらいしましょう。
もし覚えてなかったら前回のレッスンを確認してください。
アーサー・サミュエルは、機械学習モデルにはパフォーマンスの指標が必要で、
それは私たちがパラメータを調整した時にパフォーマンスがどう変化したか確認できるものとしています。
先ほど申し上げましたが、
中には
パラメータが変わっても全く変わらないメトリクスもありますが、 それはメトリクスとしては不適切です。
なぜなら、パラメータを調整してより良いパフォーマンスのものを見つけるのが目的ですから。
よく異なる関数を使います。

Chinese: 
也是一种测试模型好坏的概念
it's a thing that measures how well you're doing
同时它也因该是一种你最关心的度量指标
and it's like it should be the thing that you most care about
通过构建相应的评估函数
so you you write a function
或者使用fast ai预定义的众多指标
or use one of fast ai's predefined ones
你就能够评估出模型的优良程度
which measures how well you're doing
损失则是我们先前在Lesson one中提到的
loss is the thing that we talked about in Lesson one
我会快速的对Lesson one进行回顾和总结
so I'll give a quick summary but go back to lesson one
如果你不记得Arthur Samuel说过的
if you don't remember Arthur Samuel talked about
关于机器学习如何选择一些性能指标的内容
how a machine learning model needs some measure of performance
那么可以看看当我们调整参数大小的时候
which we can look at when we adjust our parameters up and down
会促使模型表现的更好还是更糟
does that measure of performance get better or worse
正如我之前提到的
and as I mentioned earlier
一些度量指标可能不会随之变化
some metrics possibly won't change at all
如果你对超参的大小只是调节一点点
if you move the parameters up and down just a little bit
因此这种方法无法用于通过调节超参
so they can't be used for this purpose of adjusting the parameters
而得到具有更佳效果的模型
to find a better measure of performance
通常我们需要使用一种不同的函数
so quite often we need to use a different function

Italian: 
 È una cosa che misura quanto bene stai andando ed è come dovrebbe essere la cosa 
 a cui tieni di più. 
 Quindi scrivi una funzione o usi una di quelle predefinite di fastai che misura quanto sei bravo 
 facendo. 
 La perdita è la cosa di cui abbiamo parlato nella lezione uno, quindi farò un breve riassunto ma 
 torna alla lezione uno se non ricordi. 
 Arthur Samuel ha parlato di come un modello di apprendimento automatico necessiti di una certa misura delle prestazioni che 
 possiamo guardare: quando regoliamo i nostri parametri su o giù, quella misura delle prestazioni 
 migliorare o peggiorare? 
 E come ho detto prima, alcune metriche probabilmente non cambieranno affatto se sposti i parametri 
 su e giù solo un po '. 
 Quindi non possono essere utilizzati per questo scopo di regolare i parametri per trovarne uno migliore 
 misura delle prestazioni. 

Tamil: 
எனவே பிந்தைய அளவீடு பிழை வீதம் என்று அழைக்கப்படுகிறது. எனவே பிழை ஒரு குறிப்பிட்ட அளவீடு ஆகும். இது அளவிடும் விஷயம்
'நீங்கள் எவ்வளவு சிறப்பாகச் செய்கிறீர்கள்' என்பதே. இதுதான் நாம் மிகவும் அக்கறை கொள்ளும் விஷயமாக இருக்க வேண்டும்
நீங்கள் ஒரு செயல்பாட்டை எழுதலாம் அல்லது 'FastAI'யின் முன் வரையறுக்கப்பட்ட ஒன்றைப் பயன்படுத்தி
'நீங்கள் எவ்வளவு சிறப்பாகச் செய்கிறீர்கள்' - என்பதை அளக்கலாம்.
இழப்பு
என்பது பாடம் ஒன்றில் நாம் பேசிய விஷயம், எனவே விரைவான சுருக்கத்தை தருகிறேன்
உங்களுக்கு ஞாபகம் இல்லையென்றால் பாடம் ஒன்றிற்குச் செல்லுங்கள்
ஆர்தர் சாமுவேல் ஒரு இயந்திர கற்றல் மாதிரிக்கு எவ்வாறு செயல்திறன் தேவை என்பதைப் பற்றி பேசினார்
நாம் அளவுருக்களை மேலே அல்லது கீழ் சரிசெய்யும்போது, செயல்திறன் சிறப்பாகவோ அல்லது மோசமாகவோ இருப்பதை நாம் பார்ப்பதற்காக இருக்கும் ஒன்று
நான் முன்பு குறிப்பிட்டது போல
சில அளவீடுகள்
நாம் அளவுருக்களை சிறிது சிறிதாக மேலே அல்லது கீழே நகர்த்தினால் அவை மாறாது, எனவே அவற்றை
செயல்திறனின் சிறந்த அளவைக் கண்டறிய அளவுருக்களை சரிசெய்யும் நோக்கத்திற்காக பயன்படுத்த முடியாது. எனவே அடிக்கடி
நாம் வேறு செயல்பாட்டைப் பயன்படுத்த வேண்டும்

English: 
It's a thing that measures how well you're
doing and it's like it should be the thing
that you most care about.
So you write a function or use one of fastai's
predefined ones which measures how well you're
doing.
Loss is the thing that we talked about in
Lesson One so I'll give a quick summary but
go back to lesson one if you don't remember.
Arthur Samuel talked about how a machine learning
model needs some measure of performance which
we can look at: when we adjust our parameters
up or down does that measure of performance
get better or worse?
And as I mentioned earlier, some metrics possibly
won't change at all if you move the parameters
up and down just a little bit.
So they can't be used for this purpose of
adjusting the parameters to find a better
measure of performance.

Spanish: 
una función diferente que llamamos la función de pérdida
y la función de pérdida es la medida de rendimiento que el algoritmo usa para tratar de mejorar los parámetros
y es algo que debería  seguir
muy de cerca la métrica que te interesa.
pero es algo que, a medida que cambias los parámetros un poco,
la pérdida siempre debería cambiar
un poco. Así que hay mucho movimiento de manos
porque tenemos que mirar algo de las matemáticas
de cómo funciona eso y lo haremos en las próximas lecciones.
Gracias por sus buenas preguntas.
El ajuste fino
es una técnica particular de aprendizaje de transferencia
en la que
(sigues mostrando tu imagen y no las diapositivas)
 
El ajuste fino es una técnica de aprendizaje de transferencia
donde los pesos (no es exactamente la palabra correcta deberíamos decir los parámetros)

English: 
So quite often we need to use a different
function we call this the loss function and
the loss function is the measure of performance
that the algorithm uses to try to make the
parameters better and it's something which
should kind of track pretty closely to the
the metric you care about but it's something
which, as you change the parameters a bit,
the loss should always change a bit.
And so there's a lot of hand waving there
because we need to look at some of the math
of how that works and we'll be doing that
in the next couple of lessons.
Thanks for their great questions.
Okay so fine tuning is a particular transfer
learning technique where the -- oh and you're
still showing your picture and not the slides.
So fine-tuning is a transfer learning technique
where the weights (this is not quite the right

Tamil: 
இதை நாம் இழப்பு செயல்பாடு என்று அழைக்கிறோம்
இழப்பு செயல்பாடு என்பது அளவுருக்களை சிறந்ததாக்க முயற்சிக்க வழிமுறை பயன்படுத்தும் செயல்திறனின் அளவீடு ஆகும்
இது நீங்கள் விரும்பும் அளவீடுடன் மிக நெருக்கமாக கண்காணிக்க வேண்டிய ஒன்று
ஆனால் இது அளவுருக்களை நீங்கள் சற்று மாற்றும்போது, இழப்பும் சற்று மாறும்
அதனால்
இங்கே நிறைய தோராயங்கள் உள்ளன
ஏனென்றால் அது எவ்வாறு இயங்குகிறது என்பதற்கான கணிதத்தில் சிலவற்றை நாம் பார்க்க வேண்டும், வரும்  பாடங்களில் அதைச் செய்வோம்
அந்த சிறந்த கேள்விகளுக்கு நன்றி
'நுண் திருத்தம்' என்பது ஒரு குறிப்பிட்ட பரிமாற்ற கற்றல் நுட்பமாகும்
நீங்கள் இன்னும் உங்கள் படத்தைக் காட்டுகிறீர்கள், படவில்லைகளை அல்ல
எனவே நுண் திருத்தம் ஒரு பரிமாற்ற கற்றல் நுட்பமாகும், அதில் எடைகள், இது சரியான சொல் அல்ல

Japanese: 
それは損失関数というもので、
パフォーマンスの指標で、アルゴリズムがより良いパラメータを見つけるのに使う関数です。
損失関数はメトリクスに似たもので、
どんな微小なパラメータの変化をも検知する必要があります。
ですので、
損失関数がどうなっているかを
知るためには数学を勉強しなければならないので、次回以降のレッスンで教えます。
素晴らしい質問をありがとう。
fine tuningは転移学習のテクニックで、
スライドじゃなく、写真を見せている時に、
fine tuningは転移学習のテクニックで、これは、重み、これは厳密には不正確で

Chinese: 
我们称之为损失函数
we call this the loss function
损失函数是一种模型效果度量算法
and the loss function is the measure of performance
该算法会使得模型的中的参数趋于最优值
that the algorithm uses to try to make the parameters better
并且它的变化会与你追踪和
and it's something which should kind of track
关注的度量指标极为一致
pretty closely to the metric you care about
并且当你对超参值作稍微调整时
but it's something which as you change the parameters a bit
损失也只会有些微的改变
the loss should always change a bit
此处可能有很多文字描述的地方
and so there's a lot of hand waving there
因为我们会通过数学原理来解释是如何实现的
because we need to look at some of the math of how that works
在接下来的几节课中我们会对这部分作具体讲解
and we'll be doing that in the next couple of lessons
非常感谢提出的这些问题
thanks to their great questions
微调一种特殊的迁移学习技术
okay so fine tuning is a particular transfer learning technique
画外音：此处显示的是你的图像而非幻灯片
where the when you're still showing your picture and not the slides
微调一种迁移学习技术
so fine-tuning is a transfer learning technique
权重可能不是十分恰当的词
where the weights this is not quite the right word
此处应该称之为参数
we should say the parameters

Italian: 
 Quindi molto spesso abbiamo bisogno di usare una funzione diversa che chiamiamo funzione di perdita e 
 la funzione di perdita è la misura delle prestazioni che l'algoritmo utilizza per provare a creare il file 
 parametri migliori ed è qualcosa che dovrebbe seguire abbastanza da vicino il 
 la metrica a cui tieni ma è qualcosa che, modificando un po 'i parametri, 
 la perdita dovrebbe sempre cambiare un po '. 
 E quindi c'è molta mano che saluta lì perché abbiamo bisogno di guardare un po 'di matematica 
 di come funziona e lo faremo nelle prossime due lezioni. 
 Grazie per le loro ottime domande. 
 Va bene, quindi la messa a punto è una particolare tecnica di apprendimento del trasferimento in cui - oh e tu sei 
 mostrando ancora la tua foto e non le diapositive. 
 Quindi la messa a punto è una tecnica di apprendimento del trasferimento in cui i pesi (questo non è del tutto corretto 

English: 
word we should say the parameters) where the
parameters of a pre-trained model are updated
by training for additional epochs using a
different task to that used for pre-training.
So pre-training the task might have been ImageNet
classification and then our different task
might be recognizing cats versus dogs.
So the way by default fastai does fine tuning
is that we use one epoch, which, remember,
is one looking at every image in the data
set once.
One epoch to fit just those parts of the model
necessary to get the particular part of the
model that's especially for your data set
working.
And then we use as many epochs as you asked
for to fit the whole model.
And so this is more if you for those people
who might be a bit more advanced we'll see
exactly how this works later on in the lessons.
So why does transfer learning work, and why
does it work so well?

Italian: 
 parola dovremmo dire i parametri) dove vengono aggiornati i parametri di un modello pre-addestrato 
 allenandosi per epoche aggiuntive utilizzando un compito diverso da quello utilizzato per il pre-allenamento. 
 Quindi il compito di pre-formazione potrebbe essere stato la classificazione ImageNet e quindi il nostro compito diverso 
 potrebbe riconoscere i gatti rispetto ai cani. 
 Quindi il modo in cui fastai di default esegue la messa a punto è che usiamo un'epoca, che, ricordate, 
 è uno che guarda ogni immagine nel set di dati una volta. 
 Un'epoca per adattare solo quelle parti del modello necessarie per ottenere la parte particolare del 
 modello specifico per il funzionamento del set di dati. 
 E poi usiamo tutte le epoche che hai richiesto per adattarsi all'intero modello. 
 E quindi questo è di più se tu per quelle persone che potrebbero essere un po 'più avanzate vedremo 
 esattamente come funziona più avanti nelle lezioni. 
 Allora perché il transfer learning funziona e perché funziona così bene? 

Spanish: 
donde los parámetros de un modelo pre-entrenado se actualizan entrenando para épocas adicionales
usando una tarea diferente a la usada para el pre-entrenamiento.
Así que el pre-entrenamiento de la tarea podría haber sido la clasificación ImageNet
y luego nuestra tarea diferente
podría ser el reconocimiento de los gatos contra los perros.
Así que la forma
en que el fastai por defecto
hace el ajuste fino es que usamos una época,
que, recuerde, es una
mirando cada imagen en el conjunto de datos una vez.
Una época para ajustar sólo las partes del modelo necesarias
para
que funcione la parte particular del modelo que es especialmente para el conjunto de datos.
que es especialmente para el conjunto de datos.
Y luego usamos tantas épocas
como pediste para ajustar todo el modelo.
Y esto es más si para aquellas personas que pueden ser un poco más avanzadas
veremos exactamente cómo funciona esto más adelante
en las lecciones.
Entonces, ¿por qué funciona la transferencia de aprendizaje, y por qué funciona tan bien?
 

Japanese: 
パラメータと言うべきですが、事前学習済みモデルのパラメータが追加の数エポックの学習で更新します。
この時は事前学習とは違うタスクのデータセットを使います。
今回は事前学習はImageNetで私たちのタスクは犬か猫を認識するものです。
標準では、fastaiはこの微調整を1エポックのみ行います。
つまり、データセットの画像を全て見て、事前学習済みモデルを部分的に調整して
パフォーマンスを改善します。このモデルは
新たなデータセットで機能するものです。
その後、
好きなだけモデル全体を更新しますが、
これは少し発展的なものです。
これがどう機能するかは今後のレッスンで説明します。
さて、転移学習はなぜうまくいくのでしょうか？

Chinese: 
预训练模型的参数
where the parameters of a pre-trained model
通过额外的训练轮数来更新
are updated by training for additional epochs
该过程中的训练任务不同于预训练的目的
using a different task to that used for pre-training
这些预先训练的原有任务可以是ImageNet上的分类问题
so pre-training the tasks that have been ImageNet classification
而我们的任务可能是识别各种猫或者狗
and then our different tasks might be recognizing cats versus dogs
在fast.ai默认方法中
so the way by default fast.ai
微调就是通过一轮训练记录数据集中
does fine tuning is that we use one epoch which remember is one..
每一幅图像的内容
looking at every image datasets once
每一轮模型训练中  拟合的是模型的一部分内容
one epoch to fit just those parts of the model necessary
以学习到模型提取特定图像特征的能力
to get the particular part of the model that's
合适(目标领域)的实例
specially for your dataset working
设置所需要的时期数
and then we use as many epochs as you asked for
然后开始训练你的模型
to fit the whole model
有能力的同学可以深入了解一下这部分
and so this is more for those people who might be a bit more advanced
后面我们会继续了解它内部的机制
we'll see exactly how this works later on in the lessons
所以  为什么迁移学习起作用
so why does transfer learning work
并且效果还不错呢
and why does it work so well
我的建议是
the best way in my opinion to

Tamil: 
நாம் அளவுருக்கள் சொல்ல வேண்டும். பயிற்சி பெற்ற மாதிரியின் அளவுருக்கள் கூடுதல் பயிற்சி சகாப்தங்களினால் புதுப்பிக்கப்படும்
முன் பயிற்சிக்கு பயன்படுத்தப்படும் பணியுடன் ஒப்பிடும்போது வேறு பணியைப் பயன்படுத்தி செய்வதாகும்
எனவே 'முன் பயிற்சி' பணிகள் 'ImageNet' வகைப்பாடாக இருக்கலாம் மற்றும் வேறு பணி - பூனைகளையும்  நாய்களையம் அடையாளம் காணும் பணியாக இருக்கலாம்
எனவே
நாம் ஒரு சகாப்தத்தைப் பயன்படுத்தி,' நுண் திருத்தம்' செய்வதே, 'FastAI'யின் இயல்புநிலை முறை. அதாவது
அதாவது தரவு தொகுப்பில் உள்ள ஒவ்வொரு படத்தையும் ஒரு முறை பார்ப்பது
ஒரு சகாப்தம் என்பது புதியவற்றை சரியாக வேலை செய்யத் தேவையான,
மாதிரியின் அந்த பகுதிகளுக்கு,
நம்முடைய தரவுத்தொகுப்புடன், பொருந்த பயன்படுத்தப்படுகிறது.
பின்னர்
முழு மாதிரியையும் பொருத்துவதற்கு தேவைப்படுகிற பல சகாப்தங்களை நாம் பயன்படுத்துகிறோம்
எனவே இது இன்னும் கொஞ்சம் உயர்நிலை பயனர்களுக்கானது
வரும் பாடங்களில் இது எவ்வாறு செயல்படுகிறது என்பதைப் பார்ப்போம்.
'பரிமாற்ற கற்றல்' ஏன் வேலை செய்கிறது, அது ஏன் நன்றாக வேலை செய்கிறது? என்றால்

Japanese: 
2012年のImageNetコンペティションの優勝者であるZeilerとFurgusの論文を
チェックしましょう。
興味深いことに、
彼らの考えは、モデル内部の可視化に基づいています。可視化はしばしば
素晴らしい結果を得る上で非常に重要です。
彼らができたことは、resnet34は34層ありますが、
彼らは
7層からなり、当時はそれだけで巨大とされていましたが、ImageNetのチャンピオンモデルであるAlexNetを見ました。
著者らは、最初の層のパラメータは
どのようなものかを疑問に思い、可視化する方法を編み出しました。
最初の層に対応する図は
沢山あるのですが、ここには9つ載せてあり、

Spanish: 
La mejor manera, en mi opinión, de ver esto es de ver este artículo
de Zeiler y Fergus, quienes fueron en realidad
 
en 2012 ganadores de ImageNet
e interesantemente sus ideas clave vinieron de su capacidad de visualizar
lo que está pasando dentro de un modelo.
La visualización muy a menudo resulta ser súper importante para obtener grandes resultados.
Lo que pudieron hacer fue
¿recuerdas que te dije que un resnet 34 tiene 34 capas?
 
Miraron algo llamado AlexNet
que fue el anterior ganador del concurso, que sólo tenía siete capas.
En ese momento eso se consideró enorme
y entonces tomaron el modelo de siete capas y dijeron
¿a qué parece la primera capa de parámetros?
Y se dieron cuenta de cómo hacer un dibujo de ellos,
 
La primera capa tenía
muchísimas características,
pero aquí hay nueve de ellas,
 

Chinese: 
大家最好读读Zeiler和Fergus写的这篇文章
look at this is to see this paper by Zeiler and Fergus
他们是2013年ImageNet竞赛的第一名(Jeremy口误)
who were actually 2012 ImageNet winners
有意思的是  他们的最大贡献在于
and interestingly  their key insights came from their ability
利用可视化技术揭示模型的内部机理
to visualize what's going on inside a model
事实证明  可视化对于模型获得良好结果
so visualization very often turns out to be super important
是十分重要的
to getting great results
他们做的工作是
What they were able to do was they looked
还记得我曾经说过ResNet-34有34层吗
remember I told you like ResNet-34 has 34 layers
他们研究了AlexNet
they looked at something called AlexNet
AlexNet是2012年ImageNet竞赛的冠军
which was the previous winner of the competition
尽管它只有7层
which only had seven layers
但这在当时被认为是大型网络
at the time that was considered huge
他们提出这样的疑问  这个七层的网络中
and so they took the seven-layer model
第一层网络的参数是长什么样子的
and they said what is the first layer of parameters look like
并且他们找到了把这些参数可视化的方法
and they figured it out how to draw a picture of them
第一层有很多很多特征
and so the first layer had lots and lots of features
这是其中的9个特征
but here are nine of them
1  2  3  4  5  6  7  8  9
one  two   three   four  five  six  seven  eight  nine

Tamil: 
இதைப் பார்ப்பதற்கான எனது சிறந்த வழி, உண்மையில் ஜெய்லர் மற்றும் ஃபர்கஸ் எழுதிய இந்தக் கட்டுரையைப் பார்ப்பது
அவர்கள் 2012 இல் 'ImageNet' வெற்றியாளர்களாக இருந்தனர்
மற்றும் சுவாரஸ்யமாக
அவர்களின் முக்கிய நுண்ணறிவுகள், மாதிரியின் உள்ளே என்ன நடக்கிறது என்பதைக் காண்பிக்கும் திறனில் இருந்து வந்தன, எனவே நம் காட்சிப்படுத்தல்
என்பது, சிறந்த முடிவுகளைப் பெறுவதற்கு மிக முக்கியமானது
நான் சொன்னதுபோல 'ResNet-34', 34 அடுக்குகளைக் கொண்டது. அவர்களால் என்ன செய்ய முடிந்தது என்றால்,
அவர்கள் AlexNet என்று அழைக்கப்பட்ட ஒன்றைப் பார்த்தார்கள்,
இது போட்டியின் முந்தைய வெற்றியாளராக இருந்தது, அதில் ஏழு அடுக்குகள் மட்டுமே இருந்தன, அது மிகப்பெரியதாக கருதப்பட்டது
ஏழு அடுக்கு மாதிரியை எடுத்துக் கொண்டு, 'அளவுருக்களின் முதல் அடுக்கு எப்படி இருக்கும்?' என்று அவர்கள் பார்த்தார்கள்
அடுக்குகளின் படத்தை எவ்வாறு வரையலாம் என்பதை அவர்கள் கண்டுபிடித்தார்கள்
எனவே முதல் அடுக்கு
நிறைய அம்சங்களைக் கொண்டிருந்தது, ஆனால் அவற்றில் ஒன்பது இங்கே 1, 2, 3, 4, 5, 6, 7, 8, 9 மற்றும்

English: 
The best way in my opinion to look at this
is to see this paper by Zeiler and Fergus,
who were actually 2012 ImageNet winners and
interestingly their key insights came from
their ability to visualize what's going on
inside a model.
And so visualization very often turns out
to be super important to getting great results.
What they were able to do was they looked
-- remember I told you like a resnet 34 has
34 layers?
They looked at something called AlexNet which
was the previous winner of the competition,
which only had seven layers.
At the time that was considered huge and so
they took the seven layer model and they said
what does the first layer of parameters look
like?
And they figured it out how to draw a picture
of them right?
And so the first layer had lots and lots of
features but here are nine of them one two
three four five six seven eight nine.

Italian: 
 Il modo migliore, secondo me, di guardare a questo è vedere questo articolo di Zeiler e Fergus, 
 che erano effettivamente i vincitori di ImageNet 2012 e, cosa interessante, le loro intuizioni chiave provenivano da 
 la loro capacità di visualizzare cosa sta succedendo all'interno di un modello. 
 E così la visualizzazione molto spesso si rivela estremamente importante per ottenere grandi risultati. 
 Quello che sono stati in grado di fare è stato che sembravano - ricorda che ti ho detto come ha fatto un resnet 34 
 34 strati? 
 Hanno guardato qualcosa chiamato AlexNet che era il precedente vincitore del concorso, 
 che aveva solo sette strati. 
 A quel tempo era considerato enorme e così hanno preso il modello a sette strati e hanno detto 
 che aspetto ha il primo livello di parametri? 
 E hanno capito come disegnare loro un'immagine, giusto? 
 E quindi il primo livello aveva molte, molte caratteristiche, ma qui ce ne sono nove uno due 
 tre quattro cinque sei sette otto nove. 

Italian: 
 Ed ecco come sono nove di quelle immagini. 
 Uno di loro era qualcosa che poteva riconoscere le linee diagonali da in alto a sinistra a in basso a destra. 
 Uno di loro potrebbe trovare linee diagonali da in basso a sinistra a in alto a destra. 
 Uno di loro potrebbe trovare gradienti che andavano dalla parte superiore dell'arancio alla parte inferiore del blu. 
 Alcuni di loro erano in grado, sai, uno di loro era specificamente per trovare cose che erano 
 verde e così via a destra. 
 Quindi, per ciascuno di questi nove, vengono chiamati filtri o funzionalità. 
 Quindi qualcosa di veramente interessante che hanno fatto è stato guardare ognuno di questi, 
 ognuno di questi filtri, ognuna di queste funzionalità e impareremo in modo matematico 
 su cosa significano effettivamente nelle prossime lezioni, ma per ora, riconosciamo solo 
 loro e dicendo oh c'è qualcosa che guarda le linee diagonali e qualcosa che 
 esamina i gradienti e hanno trovato nelle immagini reali in imagenet esempi specifici di parti 
 di foto che corrispondono a quel filtro. 

Chinese: 
这是这9个特征可视化后的结果
and here's what nine of those pictures look like
其中一个能识别出
one of them was something that could recognize
从左上到右下的对角线
diagonal lines from top left to bottom right
还有一个能识别出
one of them could find
从左下到右上的对角线
diagonal lines from bottom left to top right
这个能识别出
one of them could find gradients
从上到下由橙至蓝的渐变体
that went from the top of orange to the bottom of blue
其中有一些能够...
some of them were able you know
其中一个能专门用来
one of them was specifically for
识别绿色的物体  诸如此类
finding things that were green and so forth
我们视这9个特征为
so for each of these nine
所谓的滤波器
they're called filters they are all features
他们做了一些非常有意思的事情
so then something really interesting they did was
他们可视化了每个滤波器
they looked at for each one of these filters
或者说  每个特征
each one of these features
在接下来的课程中  我们将学习一些数学知识
and we'll learn kind of mathematically
来了解以上内容的实际含义
about what these actually mean in the coming lessons
但现在我们只需要认得这些滤波器
but for now let's just recognize them
知道有些看起来像对角线
and saying oh there's something that looks like diagonal lines
有些看起来像是渐变体
and something that looks like gradients
他们发现在ImageNet数据集中
and they found in the actual images in ImageNet
一些图片的局部能够和对应的滤波器相匹配
specific examples of parts of photos that match that filter
对左上角这个滤波器来说
so for this top left filter

Tamil: 
அந்த அம்சங்களில் ஒன்பது படங்கள் எப்படி இருக்கும் என்பது இங்கே காணலாம்
அவற்றில் ஒன்று, மேல் இடமிருந்து கீழ் வலதுபுறம் மூலைவிட்ட கோடுகளை அடையாளம் காணக்கூடிய ஒன்று
அவற்றில் ஒன்று, கீழே இடதுபுறத்தில் இருந்து மூலைவிட்ட கோடுகளை அடையாளம் காண முடியும்.
அவற்றில் ஒன்று ஆரஞ்சு நிறத்தில் இருந்து நீலத்தின் அடிப்பகுதிக்குச் சென்ற சாய்வுகளை அடையாளம் காண முடியும்
அவற்றில் ஒன்று குறிப்பாக பச்சை நிறங்களைக் கண்டுபிடிப்பதற்காக இருந்தது
மற்றும் பல. எனவே இந்த ஒன்பது ஒவ்வொன்றும்
வடிப்பான்கள் அல்லது அம்சங்கள் என்று அழைக்கப்பட்டன
எனவே அவர்கள் செய்த மிகவும் சுவாரஸ்யமான ஒன்று என்னவென்றால், இந்த வடிப்பான்களில் ஒவ்வொன்றையும்
அம்சங்கள் ஒவ்வொன்றையும் அவர்கள் பார்த்தார்கள். அவை உண்மையில் எதைக் குறிக்கின்றன என்பதைப் பற்றி கணித ரீதியாக
வரும் பாடங்களில் கற்றுக்கொள்வோம், ஆனால் இப்போதைக்கு
மூலைவிட்ட கோடுகளைப் பார்க்கும் ஏதோ ஒன்று மற்றும் சாய்வுகளைப் பார்க்கும் ஒன்று இருப்பதாகக் கூறி அவற்றை அடையாளம் காண்போம்
அந்த வடிகட்டியுடன் பொருந்தக்கூடிய புகைப்படங்களின் குறிப்பிட்ட எடுத்துக்காட்டுகளை, 'ImageNet'யிலிருந்து அவர்கள் கண்டறிந்தனர்.
எனவே இந்த மேல் இடது வடிப்பானுக்கு

English: 
And here's what nine of those pictures look
like.
One of them was something that could recognize
diagonal lines from top left to bottom right.
One of them could find diagonal lines from
bottom left to top right.
One of them could find gradients that went
from the top of orange to the bottom of blue.
Some of them were able you know, one of them
was specifically for finding things that were
green, and so forth right.
So for each of these nine, they're called
filters or features.
So then something really interesting they
did was they looked at each one of these,
each one of these filters, each one of these
features, and we'll learn kind of mathematically
about what these actually mean in the coming
lessons but for now, let's just recognize
them and saying oh there's something that
looks at diagonal lines and something that
looks at gradients and they found in the actual
images in imagenet specific examples of parts
of photos that match that filter.

Japanese: 
それぞれどんな見た目かがわかります。
1つは左上から右下にかけての斜め線を認識しています。
また別のものは左下から右上への線を見つけます。
また別のものは、上のオレンジから下の青に向かう勾配を見つけます。
そして、また別のものは緑色のものに反応します。
それぞれは、
フィルターと呼ばれますが、特徴を抽出します。
彼らが行ったことでもっとも興味深いことは、彼らが9つそれぞれを良く見たことです。
私たちはこれらの実態を数学的に学ぶ予定です。
ここでは、
このことを認識して、これは斜め線が見ている、や、これは勾配を見ているということを確認し、
ImageNetの画像でもこれらがあることを知っておいてください。

Spanish: 
Y aquí está cómo se ven nueve de esas imágenes.
Uno de ellos era algo que podía reconocer líneas diagonales desde arriba a la izquierda hasta abajo a la derecha.
Uno de ellos podía encontrar líneas diagonales desde abajo a la izquierda hasta arriba a la derecha.
Una de ellas podía encontrar gradientes que iban desde la parte superior de naranja
a la inferior de azul.
 
Algunos de ellos fueron capaces de
uno de ellos fue específicamente para encontrar cosas que eran verdes
y así sucesivamente.
Así que para cada uno de estos nueve
se llaman filtros o características.
Entonces algo realmente interesante que hicieron
fue mirar cada uno de estos, cada uno de estos filtros
cada una de estas características
y aprenderemos algo de matemáticas sobre lo que significan realmente
en las próximas lecciones, pero por ahora,
vamos a reconocerlos y decir que hay algo que mira las líneas diagonales
y algo que mira los gradientes y que se encuentran
en las imágenes reales en ImageNet
 
ejemplos específicos de partes de fotos
que coinciden con ese filtro. Así que para este filtro de la parte superior izquierda

English: 
So for this top left filter here are nine
actual patches of real photos that match that
filter and as you can see they're all diagonal
lines.
And so here's the for the green one here's
parts of actual photos that match the green
one.
So layer one is super super simple and one
of the interesting things to note here is
that something that can recognize gradients
and patches of color and lines is likely to
be useful for lots of other tasks as well
not just imagenet.
So you can kind of see how something that
can do this might also be good at many many
other computer vision tasks as well.
This is layer 2, layer 2 takes the features
of layer 1 and combines them.
So it can not just find edges that can find
corners or repeating curving patterns or semi
circles or full circles.

Italian: 
 Quindi per questo filtro in alto a sinistra qui ci sono nove patch effettive di foto reali che corrispondono a quello 
 filtro e come puoi vedere sono tutte linee diagonali. 
 E quindi ecco per quello verde qui parti di foto reali che corrispondono al verde 
 uno. 
 Quindi il livello uno è semplicissimo e una delle cose interessanti da notare qui è 
 è probabile che lo faccia qualcosa che può riconoscere sfumature e macchie di colore e linee 
 essere utile anche per molte altre attività, non solo per imagenet. 
 Quindi puoi vedere come qualcosa che può fare questo potrebbe anche essere buono per molti molti 
 anche altre attività di visione artificiale. 
 Questo è il livello 2, il livello 2 prende le caratteristiche del livello 1 e le combina. 
 Quindi non può solo trovare bordi che possono trovare angoli o ripetere modelli di curve o semi 
 cerchi o cerchi completi. 

Japanese: 
左上のフィルターにはそのフィルターにマッチする実際の写真の９つのパッチがあります。
そして、ここには4つの緑のフィルターがあり、緑のフィルターにマッチした写真の一部があります。
第一層は単純です。ここで注目すべきは、
グラデーションや色や線のパッチを認識できるものは、imagenetだけでなく
他の多くのタスクにも使える可能性があるということです。
こういうことができると
ImageNet以外のタスクもこなせる可能性があるのです。
これが第二層で、
第一層で得た特徴を受け取り、組み合わせて
エッジだけでなく、角や
カーブの繰り返す、半円や円を見つけます。例えば、ここには

Chinese: 
这里是9张可以和这个滤波器
Here are nine actual patches of real photos
相匹配的图片的局部特征
that match that filter
可以看到这些图片中都有对角线
and as you can see they're all diagonal lines
这个是筛选绿色色块的滤波器
and so here's the filter for the green one
这些是和绿色滤波器相匹配的局部特征
here's parts of actual photos that match the green one
第一层非常简单
so layer one is super  simple
另外 这里要说明的一点是
and one of the interesting things to note here is that
这些能识别渐变体
something that can recognize gradients
颜色块和线条的滤波器
and patches of color and lines
也可以应用到其他的任务中去
is likely to be useful for lots of other tasks as well
而不仅仅限于ImageNet
not just ImageNet
能够处理这个任务的一些方法
so you can kind of see how something that can do this
也可能很好地处理
might also be good at
其他计算机视觉任务
many many other computer vision tasks as well
这是第二层
this is layer two
第二层获取了第一层的特征  并将它们结合在一起
layer two takes the features of layer one and combines them
第二层不仅能发现边缘
so it can not just find edges
还能发现包含边角或重复弯曲图形的图片
that can find corners or repeating curving patterns
以及包含半圆形或圆形的图片
or semi-circles or full circles
大家看这些示例
and so you can see for example here's a

Tamil: 
அந்த வடிப்பானுடன் பொருந்தக்கூடிய உண்மையான புகைப்படங்களின் ஒன்பது உண்மையான இணைப்புகள் இங்கே உள்ளது
நீங்கள் பார்ப்பதுபோல என அவை அனைத்தும் மூலைவிட்ட கோடுகள்.
இந்த நான்கு பச்சை நிறங்கள் உள்ளன, பச்சை நிறத்துடன் பொருந்தக்கூடிய உண்மையான புகைப்படங்களின் பகுதிகள் இங்கே உள்ளன
எனவே அடுக்கு 1 மிகவும் எளிதானது.
இங்கே கவனிக்க வேண்டிய ஒரு சுவாரஸ்யமான விஷயம் - சாய்வு, வண்ணம் மற்றும் கோடுகளின் திட்டுகளை அடையாளம் காணக்கூடிய ஒன்று
மற்ற பணிகளுக்கும் பயனுள்ளதாக இருக்கும்
'ImageNet' மட்டுமல்ல.
எனவே இதைச் செய்யக்கூடிய ஒன்று பல கணினி பார்வை பணிகளையும் எவ்வாறு செய்யலாம் என்பதை நீங்கள் காணலாம்
இது அடுக்கு 2, அடுக்கு
2, அடுக்கு 1 இன் அம்சங்களை எடுத்து அவற்றை ஒருங்கிணைக்கிறது.
எனவே இது விளிம்புகளை மட்டுமல்ல, மூலைகளையும்
தொடர்ச்சியாக வரும் வளைவு வடிவங்களையும்,  அரை வட்டங்களையும், முழு வட்டங்களையும்  கண்டுபிடிக்க முடியும்.
எனவே நீங்கள் உதாரணமாக பார்க்கலாம், இங்கே ஒரு

Spanish: 
aquí hay nueve parches
de fotos reales que coinciden con ese filtro
y como puedes ver son todas líneas diagonales.
Y aquí está el de la verde, aquí hay partes de fotos reales
que coinciden con la verde.
Así que la capa uno es súper simple
una de las cosas interesantes a tener en cuenta aquí es que algo que puede recononcer
gradientes y parches de color y líneas es probable
que sea útil para muchas otras tareas también,
no solamente ImageNet. Así que puedes ver cómo algo
que puede hacer esto podría ser bueno en
muchas otras tareas de visión por ordenador también.
Esta es la capa 2, la capa 2
toma las características de la capa 1 y las combina.
Así que no sólo puede encontrar bordes pero pueden
encontrar esquinas.
o patrones de curvas repetidas o
o semicírculos o círculos completos.
Y para que puedas ver, por ejemplo, aquí está un

Spanish: 
es un poco difícil visualizar exactamente estas
 
capas después de la capa 1. Tienes que mostrar
ejemplos de cómo se ven los filtros.
Pero aquí puedes ver ejemplos de partes de fotos
en las que este filtro circular de la capa 2 se ha activado.
 
Y como puedes ver, ha encontrado cosas, con círculos.
Así que, curiosamente, este tipo de
gradiente de manchas parece ser muy bueno para encontrar puestas de sol.
 
Y este patrón vertical repetitivo es muy bueno para encontrar
cortinas y campos de trigo y cosas así.
Así que cuanto más lejos lleguemos, la capa tres
combina todo tipo de características en la capa dos.
Y recuerden que sólo estamos viendo aquí
doce de las características pero en realidad hay probablemente cientos de ellos,
no recuerdo exactamente en Alex Net, pero hay muchos.
Pero cuando llegamos a la capa tres
combinando características de la capa dos ya tiene algo

Chinese: 
第一层之后的层就不那么容易被可视化了
it's kind of hard to exactly visualize these layers after layer 1
你得举例说明
you kind of have to show examples
滤波器长什么样子
of what the filters look like
这里你能看到这些包含圆形的图片
but here you can see examples of parts of photos
被第二层的圆形滤波器激活之后的效果
that this layer two circular filter has activated on
如你所见  圆形滤波器能找出包含圆形的图片
and as you can see,it's found things with circles
有趣的是
so interestingly
这种斑点状的渐变体
this one which is this kind of blotchy gradient
似乎很会筛选日落的图片
seems to be very good at finding sunsets
而这种重复的竖纹
and this repeating vertical pattern
则很擅长筛选窗帘和麦田之类的图片
is very good at finding like curtains and wheat fields and stuff
接下来是第三层
so the further we get layer three
它将第二层的各种特征结合在一起
then gets to combine all the kinds of features in layer two
注意  我们在这里看到的只是
and remember we're only seeing here
其中的12个特征
are twelve of the features
实际上特征可能有几百个
but actually there's probably hundreds of them
我不记得Alexnet中具体有多少特征了  但确实有很多
I don't remember exactly in AlexNet but there's lots
在第三层
but by the time we get to layer three
通过结合第二层的特征
by combining features from layer two

Italian: 
 E così puoi vedere, ad esempio, ecco un, è un po 'difficile visualizzare esattamente questi livelli 
 dopo lo strato 1. 
 Devi mostrare esempi di come appaiono i filtri. 
 Ma qui puoi vedere esempi di parti di foto che questi, questo filtro circolare di livello 2 
 si è attivato. 
 E come puoi vedere ha trovato cose, con cerchi. 
 È interessante notare che questo che è questo tipo di gradiente macchiato sembra essere molto buono 
 a trovare i tramonti. 
 E questo motivo verticale ripetuto è molto bravo a trovare, come tende e campi di grano 
 e cose. 
 Quindi, più andiamo avanti, il livello tre combina tutti i tipi di elementi nel livello 
 Due. 
 E ricorda che stiamo vedendo solo quindi qualsiasi cosa qui sono dodici delle caratteristiche, ma in realtà 
 probabilmente ce ne sono centinaia. 
 Non ricordo esattamente in alex net ma ce ne sono molti. 
 Ma quando arriviamo al livello tre combinando le caratteristiche del livello due, ha già qualcosa 

English: 
And so you can see for example here's a, it's
kind of hard to exactly visualize these layers
after layer 1.
You kind of have to show examples of what
the filters look like.
But here you can see examples of parts of
photos that these, this layer 2 circular filter
has activated on.
And as you can see it's found things, with
circles.
So interestingly this one which is this kind
of blotchy gradient seems to be very good
at finding sunsets.
And this repeating vertical pattern is very
good at finding, like curtains and wheat fields
and stuff.
So the further we get, layer three then gets
to combine all the kinds of features in layer
two.
And remember we're only seeing so anything
here are twelve of the features but actually
there's probably hundreds of them.
I don't remember exactly in alex net but there's
lots.
But by the time we get to layer three by combining
features from layer two it already has something

Tamil: 
அடுக்கு 1 க்குப் பிறகு, இந்த அடுக்குகளை சரியாகக் காண்பது கடினம்
வடிப்பான்கள் எப்படி இருக்கும் என்பதற்கான எடுத்துக்காட்டுகளை நீங்கள் காட்ட வேண்டும்
அடுக்கு 2 வட்ட வடிப்பான் செயல்படுத்தப்பட்ட புகைப்படங்களின் பகுதிகளின் எடுத்துக்காட்டுகளை இங்கே காணலாம்
நீங்கள் பார்ப்பதுபோல, இது வட்டங்களுடன் இருக்கும் விஷயங்களைக் கண்டறிந்துள்ளது
மிகவும் சுவாரஸ்யமாக, இந்த வகையான மங்கலான சாய்வு, சூரிய அஸ்தமனம் கண்டுபிடிப்பதில் மிகவும் நல்லதாக உள்ளது
இந்த தொடர்ச்சியான செங்குத்து முறை திரைச்சீலைகள், கோதுமை வயல்கள் போன்ற பொருட்களைக் கண்டுபிடிப்பதில் மிகவும் நல்லதாக உள்ளது
எனவே நாம் மேலும் செல்லும்போது, அடுக்கு 3 பின்னர் அடுக்கு 2 இல் உள்ள அனைத்து வகையான அம்சங்களையும் இணைக்கிறது
நினைவில் கொள்ளுங்கள், நாம் இங்கு பன்னிரண்டு அம்சங்களை
மட்டுமே காண்கிறோம், ஆனால் உண்மையில் அவற்றில் நூற்றுக்கணக்கானவை இருக்கலாம்.
அலெக்ஸ்நெட்டில் எவ்வளவு என்று எனக்கு சரியாக நினைவில் இல்லை, ஆனால் நிறைய இருக்கிறது.
அடுக்கு 2 இலிருந்து அம்சங்களை இணைப்பதன் மூலம் நாம் 3 வது அடுக்குக்கு வரும்போது,

Japanese: 
第二層以降を正確に可視化するのは
難しいと思います。
しかし、第二層のフィルターが写真のどんな部分に発火しているかの例があります。
そして、ご覧の通り、円のようなものを見つけていて、
興味深いことにこのぼやけたようなグラデーションは夕日を見つけるのに非常に適しているようです。
そして、この繰り返しの縦のパターンは、カーテンや小麦畑などを見つけるのに非常に適しています。
このようにして、レイヤー3をさらに進めると、レイヤー2にあるすべての種類の特徴を組み合わせることができるようになります。
ここでは12種類の特徴しか見ていませんが、実際には数百個の特徴があるでしょう。
AlexNetが実際にいくつの特徴があるか覚えていませんが、AlexNetにはたくさんの特徴があります。

Japanese: 
しかし、第二層の要素を組み合わせて第三層に到達することには、
テキストを見つけることができて、この特徴は画像のテキストを見つけられます。
これはすでに
幾何学的な繰り返しを見つけることができます。お分かりのとおり、
特定のピクセルパターンとのマッチングではありません。
これは意味的な概念のようなもので，円、四角形、六角形の繰り返しを見つけられます。
素晴らしいですね。これが計算で、ただのテンプレートマッチング
ではりません。ニューラルネットワークは計算可能な任意の関数を解けることを覚えておいてください。確かにこういった計算ができます。
第4層は第3層のフィルタを
一度にすべて組み合わせることができます。そして第4層では、例えば犬の顔を見つけることができるものができます。
そして、このように、
各レイヤーでは、より応用的に洗練された機能が得られるようになっています。

Italian: 
 che sta cercando del testo. 
 Quindi questa è una caratteristica che può trovare frammenti di immagine che contengono testo. 
 Ha già qualcosa che può trovare motivi geometrici ripetuti. 
 E vedi che questo non è solo come un modello di pixel specifico corrispondente. 
 Questo è come un concetto semantico. 
 Può trovare cerchi ripetuti o quadrati ripetuti o esagoni ripetuti. 
 Grande. 
 Quindi è davvero come il computer, non si tratta solo di abbinare un modello. 
 E ricorda che sappiamo che le reti neurali possono risolvere qualsiasi possibile funzione calcolabile. 
 Quindi può certamente farlo. 
 Quindi il livello quattro riesce a combinare tutti i filtri del livello tre comunque contemporaneamente. 
 E così al quarto livello abbiamo qualcosa che può trovare facce di cani, per esempio. 
 Quindi puoi vedere come ogni livello diventa più applicativamente più sofisticato 

Tamil: 
அது ஏற்கனவே உரையைக் கண்டுபிடிக்கும் தன்மை கொண்டுள்ளது
எனவே இது உரையை உள்ளடக்கிய படத்தின் பகுதிகளைக் கண்டறியக்கூடிய ஒரு அம்சமாகும்
இது தொடர்ச்சியான வடிவியல் வடிவங்களைக் கண்டறியக்கூடிய ஒன்றாக உள்ளது
இது பொருந்தக்கூடிய குறிப்பிட்ட பிக்சல் வடிவங்களைப் போல அல்ல என்பதை நீங்கள் காண்கிறீர்கள்.
இது ஒரு சொற்பொருள் கருத்து போன்றது, இது மீண்டும் மீண்டும் வரக்கூடிய வட்டங்களை, சதுரங்களை அறுகோணங்களைக் கண்டுகொள்ளும்
இது உண்மையில் கணிப்பணி போன்றது. இது ஒரு வார்ப்புருவை பொருத்துவது மட்டுமல்ல
நரம்பியல் வலையமைப்புகள் எந்தவொரு கணக்கிடக்கூடிய செயல்பாட்டையும் தீர்க்க முடியும் என்பதை நாம் அறிவோம். எனவே அது அதை நிச்சயமாக  தீர்க்க முடியும்
அடுக்கு 4 அடுக்கு 3 இலிருந்து அனைத்து வடிப்பான்களையும் ஒரே நேரத்தில் இணைக்கிறது
எனவே நான்காவது அடுக்கு மூலம், நாய் முகங்களைக் காணக்கூடிய ஒன்று நம்மிடம்  உள்ளது
உதாரணமாக
அதனால், நீங்கள் இங்கே பார்க்கக்கூடியது 
எனவே ஒவ்வொரு அடுக்கு மூலமாகவும், நாம் மிகவும் சிக்கலான அதிநவீன அம்சங்களை எவ்வாறு பெறுகிறோம் என்பதை நீங்கள் காணலாம்

Chinese: 
网络经可以找到图片中的文本了
it already has something which is finding text
这个特征能够找出
so this is a feature which can find
包含文本的图片
bits of image  that contain text
而且  网络已经有能找出
it's already got something
重复几何图形的方法了
which can find repeating geometric patterns
这并不只是
and you see this is not just like
一种匹配特定像素的模式
a matching specific pixel patterns
它像是一个语义概念  能找到
this is like a semantic concept it can find
重复的圆、重复的方块或重复的六边形
repeating circles or repeating squares or repeating hexagons
或者  它更像是一种运算函数
so it's it's really like computing
而不仅仅是一个匹配的模板
it's not just matching a template
我们知道
and remember we know that
神经网络（理论上）可以拟合任何函数
neural networks  can solve any possible computable function
这个函数当然也不在话下
so it can certainly do that
第四层又一次性
so layer four gets to combine
把第三层所有的滤波器结合了起来
all the filters from layer three anyway at once
到了第四层  网络可以筛选出(更复杂的事物)
and by layer four  we have something that can find
比如  狗脸
dog faces for instance
大家可以看到  每一层
so you can kind of see how……each layer

English: 
which is finding text.
So this is a feature which can find bits of
image that contain text.
It's already got something which can find
repeating geometric patterns.
And you see this is not just like a matching
specific pixel patterns.
This is like a semantic concept.
It can find repeating circles or repeating
squares or repeating hexagons.
Great.
So it's really like computing, it's not just
matching a template.
And remember we know that neural networks
can solve any possible computable function.
So it can certainly do that.
So layer four gets to combine all the filters
from layer three anyway at once.
And so by layer four we have something that
can find dog faces for instance.
So you can kind of see how each layer we get
like more applicatively more sophisticated

Spanish: 
que está encontrando
texto.
Este es una característica que puede encontrar trozos de imagen que contienen texto.
Ya tiene algo que puede encontrar
patrones geométricos repetidos.
Y como ves, esto no es sólo como
una coincidencia de patrones de píxeles específicos. Esto es como
un concepto semántico. Puede encontrar círculos que se repiten
o cuadrados que se repiten o hexágonos que se repiten.
Así que es realmente como haciendo computaciones
no es sólo coincidir con una plantilla.
 
Y recuerden que sabemos que las redes neuronales pueden resolver
cualquier función computable posible. Así que ciertamente puede hacer eso.
La capa 4 consigue combinar
todos los filtros de la capa 3 como quiere
entonces en la capa 4 tenemos algo que puede encontrar
caras de perro, por ejemplo.
Así que se puede ver como
cada capa nos da

Japanese: 
これがニューラルネットワークを強力たらしめている要因です。
それはまた、転移学習が非常にうまく機能する理由でもあります。なぜなら、
もし本を見つけたいとしても、本はImageNetにはないと思いますが、
学習済みモデルはすでに本を見つけるのに必要なフィルターを獲得しているからです。
もしかしたら図書館や本棚のカテゴリーはあるかもしれません。
ですから、転移学習では事前に学習した
特徴や既存の特徴の組み合わせを使うことができるのです。
これが、従来のアプローチに比べて、転移学習が高速かつ少データで機能する理由です。
ここで重要なことは、コンピュータビジョンのためのこれらの技術は写真を認識するのが得意なだけではないということです。

Chinese: 
我们都会得到更复杂、更具体的特征
we get like more applicatively more sophisticated features
这也解释了深度神经网络为何
and so that's why these deep neural networks
会如此不可思议地强大
can be so incredibly powerful
同时  这也能解释为何迁移学习很好使
it's also why transfer learning can work so well
如果我们想要网络识别书本
because if we wanted something that can find books
然而  ImageNet数据集中没有书本类图片
and I don't think there's a book category in ImageNet
但此时网络中已经有一个训练好的
well it's actually already got something
能识别文字的滤波器了
that can find text as an earlier filter
这个滤波器就可以用来找
which I guess it must be using to find
图书馆（藏书）或者书架之类的图片
maybe there's a category for library or a bookshelf
因此  当使用迁移学习时
so when you use transfer learning
你可以利用所有这些预先学习好的特征
you can take advantage of all of these pre-learned features
把它们组合一下然后发现新的事物
to find things that are combinations of these existing features
这也是为什么  和传统方法相比
that's why transfer learning can be done
迁移学习能够训练得更快
s so much more quickly and so much less data
并且满足于更少的数据
than traditional approaches
还要注意的一件事是
one important thing to realize then
这些用于计算机视觉领域的技术
is that these techniques for computer vision
不仅仅擅长图像识别
are not just good at recognizing photos
有各种各样的事物可以转化为图像的形式
there's all kinds of things you can turn into pictures

Italian: 
 Caratteristiche. 
 Ed è per questo che queste reti neurali profonde possono essere così incredibilmente potenti. 
 È anche il motivo per cui il transfer learning può funzionare così bene. 
 Perché se volessimo qualcosa che possa trovare libri. 
 E non credo che ci sia una categoria di libri in imagenet. 
 Bene, in realtà ha già qualcosa che può trovare il testo come un filtro precedente che io 
 immagino che debba essere usato per trovare forse c'è una categoria per la biblioteca o qualcosa del genere o uno scaffale. 
 Quindi, quando usi il transfer learning puoi trarre vantaggio da tutti questi pre-appresi 
 caratteristiche per trovare cose che sono come combinazioni di queste o di caratteristiche esistenti. 
 Ecco perché il trasferimento di apprendimento può essere fatto molto più rapidamente e con molto meno dati di 
 approcci tradizionali. 
 Una cosa importante da rendersi conto quindi è che queste tecniche per la visione artificiale non lo sono 
 solo bravo a riconoscere le foto; ci sono tutti i tipi di cose che puoi trasformare in immagini, 

Spanish: 
características más sofisticadas desde el punto de vista de la aplicación.
Y es por eso que estas redes neuronales profundas pueden ser tan increíblemente
poderosas.
También es por eso que
la transferencia de aprendizaje puede funcionar tan bien.
Porque si quisiéramos algo que pudiera encontrar
libros, no creo que haya una categoría de libros en ImageNet,
en realidad ya tiene algo que puede encontrar texto.
Tiene un filtro anterior,
que supongo que debe estar utilizando para encontrar tal vez una categoría para la biblioteca
o algo así o una estantería.
Cuando usas el aprendizaje por transferencia
puedes aprovechar todas estas características de aprendizaje previo
para encontrar cosas
que son como combinaciones de estas o características existentes.
Es por eso que el aprendizaje por transferencia puede hacerse
mucho más rápidamente y con muchos menos datos
que los enfoques tradicionales.
Una cosa importante que hay que tener en cuenta es que estas
técnicas de visión por ordenador no sólo son buenas
para reconocer fotos; hay todo tipo de cosas
que se pueden convertir en imágenes, por ejemplo,

English: 
features.
And so that's why these deep neural networks
can be so incredibly powerful.
It's also why transfer learning can work so
well.
Because like, if we wanted something that
can find books.
And I don't think there's a book category
in imagenet.
Well it's actually already got something that
can find text as an earlier filter which I
guess it must be using to find maybe there's
a category for library or something or a bookshelf.
So when you use transfer learning you can
take advantage of all of these pre-learnt
features to find things that are as combinations
of these or existing features.
That's why transfer learning can be done so
much more quickly and so much less data than
traditional approaches.
One important thing to realize then is that
these techniques for computer vision are not
just good at recognizing photos; there's all
kinds of things you can turn into pictures,

Tamil: 
அதனால்தான் இந்த ஆழமான நரம்பியல் வலையமைப்புகள் நம்பமுடியாத அளவிற்கு சக்திவாய்ந்ததாக இருக்கிறது
பரிமாற்ற கற்றல் ஏன் சிறப்பாக செயல்பட முடியும் என்பதற்கு இதுதான் காரணம்
ஏனென்றால் புத்தகங்களைக் கண்டுபிடிக்கக்கூடிய ஒன்றை நாம் விரும்பினால்,
'ImageNetல்' ஒரு புத்தக வகை இருப்பதாக நான் நினைக்கவில்லை
சரி, இது ஏற்கனவே முந்தைய வடிப்பானாக உரையைக் கண்டுபிடிக்கக்கூடிய ஒன்றைப் பெற்றுள்ளது,
இது நூலகத்திற்காக ஒரு வகை அல்லது ஏதாவது அல்லது புத்தக அலமாரியைக் கண்டுபிடிக்க அதைப் பயன்படுத்தலாம் என்று நினைக்கிறேன்.
நாம் பரிமாற்றக் கற்றலைப் பயன்படுத்தும்போது,
இந்த முன் கற்றுக்கொண்ட அனைத்து அம்சங்களையும் நீங்கள் பயன்படுத்திக் கொள்ளலாம்
ஏற்கனவே இருக்கும் அம்சங்களின் அல்லது அதன் கலவையாக இருக்கும் விஷயங்களைக் கண்டறிய பயன்படுத்தலாம்
அதனால்தான் பரிமாற்றக் கற்றல் பாரம்பரிய அணுகுமுறைகளை விட மிக விரைவாகவும் மிகக் குறைந்த தரவிலும் செய்ய முடியும்
உணர வேண்டிய ஒரு முக்கியமான விஷயம் - கணினி பார்வைக்கான இந்த நுட்பங்கள்
புகைப்படங்களை அடையாளம் காணுவதில் மட்டும் சிறந்தவை அல்ல என்பதுதான்
நீங்கள் படங்களாக மாற்றக்கூடிய பல வகையான விஷயங்களும் உள்ளன.

Italian: 
 per esempio questi sono suoni che sono stati trasformati in immagini rappresentandone 
 frequenze nel tempo e si scopre che se converti un suono in questo tipo di 
 immagini è possibile ottenere risultati sostanzialmente all'avanguardia nel rilevamento del suono semplicemente utilizzando il 
 lo stesso studente resnet che abbiamo già visto. 
 Dobbiamo sottolineare che è 945 quindi se vuoi prenderti una pausa presto? 
 Un esempio davvero fantastico dal nostro primo anno di esecuzione di fastai; uno dei nostri studenti 
 hanno creato immagini, hanno lavorato in Splunk nella lotta antifrode e hanno creato immagini degli utenti 
 muovendo il mouse e, se non ricordo male mentre muovevano il mouse, in pratica disegnava 
 un'immagine di dove si muoveva il mouse e il colore dipendeva dalla velocità con cui si muovevano e 

Tamil: 
எடுத்துக்காட்டாக, இவை
காலப்போக்கில் அவற்றின் அதிர்வெண்களைக் குறிப்பதன் மூலம் படங்களாக மாற்றியமைக்கப்பட்ட ஒலிகள்
இந்த வகையான படங்களாக நீங்கள் ஒரு ஒலியை மாற்றினால்,
ஒலி கண்டறிதலில் நீங்கள் அதிநவீன முடிவுகளைப் பெறலாம்.
நாம் ஏற்கனவே பார்த்த அதே 'ResNet
Learner' ஐப் பயன்படுத்துவதன் மூலம் இதை பெறலாம்
இப்போது மணி 9:45 ஆகிறது. நீங்கள் விரும்பினால், விரைவில் ஒரு இடைவெளி எடுத்துக் கொள்ளுங்கள்
மிகவும் அருமையான உதாரணம்
இது 'FastAI' யின்  முதல் ஆண்டிலிருந்து வந்தது என்று நினைக்கிறேன். எங்கள் மாணவர்களில் ஒருவர்,
மோசடி எதிர்ப்பு பிரிவில் Splunk-ல் பணிபுரிந்தவர், பயனர்கள் தங்கள் சுட்டியை நகர்த்தும் படங்களை உருவாக்கினர்.
அவர்கள் சுட்டியை நகர்த்தும்போது, அது எங்கு சென்றது என்பதற்கான ஒரு படத்தை அவர் வரைந்தார்,
மேலும் அவை எவ்வளவு விரைவாக நகர்ந்தன என்பதைப் பொறுத்து நிறம் அமைந்தது,
மேலும் இந்த வட்டக் குமிழ்கள் அவர்கள் இடது அல்லது வலது சுட்டி பொத்தானைக் கிளிக் செய்த இடமாகும்.

English: 
for example these are sounds that have been
turned into pictures by representing their
frequencies over time and it turns out that
if you convert a sound into these kinds of
pictures you can get basically state-of-the-art
results at sound detection just by using the
exact same resnet learner that we've already
seen.
We need to highlight that it's 945 so if you
want to take a break soon?
A really cool example from I think our very
first year of running fastai; one of our students
created pictures, they worked at Splunk in
anti-fraud, and they created pictures of users
moving their mouse and, if I remember correctly
as they moved their mouse he basically drew
a picture of where the mouse moved and the
color depended on how fast they moved and

Chinese: 
举个栗子
for example these are example
通过描绘声谱图
these are sounds that have been tuned into pictures
我们可以把声音转化为图像
by representing their frequencies over time
事实证明
and it turns out that
如果用声谱图记录声音（然后用神经网络训练）
if you convert a sound into these kinds of pictures
基本上可以得到
you can get basically
最先进的声音检测结果
state-of-the-art results at sound detection
只需要用我们熟知的Resnet学习器
just by using the exact same ResNet learner
进行训练就行
that we've already seen
Rachel:九点四十五了
Rachel: we need to highlight that it's 9:45
是否要小小休息一下
so if you want to take a break soon
举个很酷的例子
A really cool example
这个例子来自于我们第一年讲fast.ai课程的时候
from I think this is our very first year of running fast.ai
一名学生创建了这些图片
one of our students created pictures
他们在Splunk从事反欺诈工作
they worked at Splunk  in anti-fraud
这些图片记录了用户鼠标的移动轨迹
and they created pictures of users moving their mouse
如果我没记错的话  当用户移动鼠标时
and if I remember correctly,as they moved their mouse
他基本上可以绘制出鼠标的行进轨迹
he basically drew a picture of where the mouse moved
不同颜色表征不同的移动速度
and the color would depended on how fast they moved
这些圆形的斑点
and these circular blobs is where they clicked
是用户点击时鼠标的位置
the left or the right mouse button

Spanish: 
estos son sonidos
que se han convertido en imágenes
al representar sus frecuencias a lo largo del tiempo.
Resulta que si se convierte un sonido
en este tipo de imágenes
se pueden obtener resultados básicamente de vanguardia
en la detección de sonidos simplemente utilizando
exactamente el mismo aprendiz de ResNet
que ya hemos visto.
(Tenemos que destacar que es el 9:45, así que si quieres tomarte un descanso pronto...)
Un ejemplo realmente genial de
nuestro primer año de fastai;
uno de nuestros estudiantes creó imágenes
trabajó en Splunk en la lucha contra el fraude,
y creó imágenes de los usuarios moviendo su ratón
y, si recuerdo correctamente, como movían su ratón,
básicamente dibujó un cuadro de donde se movía el ratón
el color dependía de lo rápido que se movían
y estas manchas circulares es donde hacían clic
en el botón izquierdo o derecho del ratón.

Japanese: 
画像で表現できるものは多くあります。例えば、これらは
時間の経過とともに周波数を表現して画像化した音です。
そして、音をこのような画像に変換すれば、
音検知の最高精度を達成できるのです。
単に既に見てきたのと同様ResNetと
learnerを使うことでできるのです。
9:45ですが、休憩しますか？
転移学習の非常に良い例は
、これは1年目のFastAIの生徒がやったことだと思いますが、
Splunkでの仕事ですが、ユーザのマウスの動きを写真にして、詐欺対策を行いました。
私の記憶が正しければ、彼らはマウスの動くを画像にして、
その動きの速さに応じて色分けしました。
丸は左もしくは右クリックを表します。

Japanese: 
それから、彼が実際にコースのプロジェクトとして行ったことは、
作成した画像に対して転移学習が使えるかどうかを確認しました。
レッスン1で詐欺行為防止モデルを作り、それが動くことを見ましたが、
Splunkは転移学習を活用したプロダクトで特許を取得しています。
そして、このことについてのブログが公開されており、このアプローチが
私たちの優秀で創造的な受講生がレッスン1の後に思いついたものに基づいていることも書いてあります。
もう一つの素晴らしい例は、様々な
ウイルスを調べて、
同様に画像に変換したものです。これは論文からの引用ですが、
本を参照してください。
彼らは、VB80と呼ばれるウイルスのサンプルを3つと、

Chinese: 
事实上他在Splunk
and at Splunk what he did actually
做了与这节课相关的项目
for the course as a project
他尝试对这些图片
is he tried to see whether he could use these pictures
运用我们在第一课中看到的方法做相同处理
with exactly the same approach we saw in lesson one
来搭建一个反欺诈侦测模型
to create an anti-fraud model
这个模型的效果非常好
and it worked so well that
Splunk还为这个技术申请了专利
Splunk ended up patenting a new product based on this technique
你可以找到这个模型的有关信息
and you can actually check it out
网络上有与之相关的博客
There's a blog post about it on the internet
介绍了这个突破性的反欺诈监测方法
where they describe this breakthrough anti-fraud approach
而这个成果是由我们课程当中一位
which literally came from one of our
非常聪明并且富有创造性的学生
amazing and brilliant and creative students
在学习了第一课后实现的
after lesson one of the course.
另一个非常酷的例子是
Another cool example of this is
观察不同的病毒
looking at different viruses
并且用图像展示出来
and again turning them into pictures
这样就可以解释为什么他们采用这种方式
and you can kind of see how they've got here.
这个例子来自一篇论文
This is from a paper.
从书中的索引材料可以找到相关内容
Check out the book for the citation.
这里有三个病毒的例子  一个是VB.AT
They've got three examples of a particular virus called VB.AT

Tamil: 
ஸ்ப்ளங்கில், பின்னர் அவர்  பாடத்தில் என்ன செய்தார் என்றால்
மோசடி எதிர்ப்பு மாதிரியை உருவாக்க இந்த படங்களுடன்,
பாடம் 1 இல் நாம் பார்த்த அதே அணுகுமுறையுடன்,  அவர் பயன்படுத்த முடியுமா என்று முயன்றார்.
இது மிகவும் நன்றாக வேலை செய்தது, ஸ்ப்ளங்க் இந்த நுட்பத்தின் அடிப்படையில் ஒரு புதிய தயாரிப்புக்கு காப்புரிமை பெற்றது. நீங்கள் அதை
பற்றி, இணையத்தில் ஒரு வலைப்பதிவு இடுகையில் பார்க்கலாம். அதில் அவர்கள் இந்த திருப்புமுனை மோசடி எதிர்ப்பு அணுகுமுறையை விவரிக்கிறார்கள்.
எங்கள் மிகவும் அற்புதமான, புத்திசாலித்தனமான, ஆக்கபூர்வமான மாணவர், பாடம் ஒன்றிற்குப் பிறகு செய்த 
திட்டத்திலிருந்து வந்தது
இதற்கு மற்றொரு சிறந்த எடுத்துக்காட்டு வெவ்வேறு வைரஸ்களைப் பார்த்து
அவற்றை படங்களாக மாற்றுவதோடு அவை எவ்வாறு இங்கு வந்துள்ளன என்பதை நீங்கள் காணலாம். இது ஒரு கட்டுரையிலிருந்து எடுக்கப்பட்டது .
மேற்கோளுக்கு புத்தகத்தைப் பாருங்கள்

Spanish: 
En Splunk lo que hizo en realidad
para el curso,
como un proyecto para el curso,
es que trató de ver si podía utilizar estas imágenes con exactamente el mismo
el mismo enfoque que vimos en la lección 1 para crear
un modelo antifraude.
Funcionó tan bien que Splunk terminó
patentando un nuevo producto basado en esta técnica.
Puedes realmente comprobarlo, hay una entrada en el blog
en Internet donde se describe este enfoque innovador contra el fraude
que, literalmente, vino de
uno de nuestros estudiantes realmente increíble y brillante y creativa
después de la lección 1 del curso.
Otro ejemplo interesante de esto es viendo
diferentes virus
y convertiendolos en imágenes
y puedes ver cómo han llegado hasta aquí: esto es de un artículo,
mira el libro para la cita,
tienen tres ejemplos de un virus particular

English: 
these circular blobs is where they clicked
the left or the right mouse button.
At Splunk what he did actually for the course,
as a project for the course, is he tried to
see whether he could use this these pictures
with exactly the same approach we saw in lesson
1 to create an anti-fraud model, and it worked
so well that Splunk ended up patenting a new
product based on this technique and you can
actually check it out there's a blog post
about it on the internet where they describe
this breakthrough anti-fraud approach which
literally came from one of our really amazing
and brilliant and creative students after
lesson one of the course.
Another cool example of this is looking at
different viruses and again turning them into
pictures and you can kind of see how they've
got here this is from a paper, check out the
book for the citation, they've got three examples
of a particular virus called VB.AT and another

Italian: 
 questi blob circolari è dove hanno fatto clic con il pulsante sinistro o destro del mouse. 
 A Splunk quello che ha fatto effettivamente per il corso, come progetto per il corso, è che ha cercato di farlo 
 vedere se poteva usare queste immagini con esattamente lo stesso approccio che abbiamo visto in lezione 
 1 per creare un modello antifrode, e ha funzionato così bene che Splunk ha finito per brevettarne uno nuovo 
 prodotto basato su questa tecnica e puoi effettivamente verificarlo c'è un post sul blog 
 a riguardo su Internet dove descrivono questo rivoluzionario approccio antifrode che 
 dopo è letteralmente venuto da uno dei nostri studenti davvero fantastici, brillanti e creativi 
 lezione uno del corso. 
 Un altro ottimo esempio di ciò è esaminare diversi virus e trasformarli nuovamente in 
 immagini e puoi vedere come sono arrivati ​​qui questo è da un giornale, controlla il 
 libro per la citazione, hanno tre esempi di un particolare virus chiamato VB.AT e un altro 

Tamil: 
'VB.AT' மற்றும் 'Fakerean' எனப்படும் ஒரு குறிப்பிட்ட வைரஸின் மூன்று எடுத்துக்காட்டுகள் இங்கு உள்ளன.
ஒவ்வொரு வழக்கையும் படங்கள் அனைத்தும் ஒரே மாதிரியாக இருப்பதைக் காணலாம்.
அதனால்தான், மீண்டும்
அவர்கள் வைரஸ் கண்டறிதலில் அதிநவீன முடிவுகளைப் பெற்றார்கள்.
அதாவது, அதை நிரல் கையொப்பங்களை படங்களாக மாற்றி, 'பட அடையாள' மாதிரிகளை பயிற்றுவிபத்தின் மூலம் அப்படி முடிந்தது.
புத்தகத்தில் நீங்கள் இதுவரை கண்ட மிக முக்கியமான, அனைத்து  சொற்களின் பட்டியலையும், பொருளும் இங்கு காணலாம்.
நான் இப்போது அவற்றைப் படிக்கப் போவதில்லை.
ஆனால் நீங்கள் தயவுசெய்து அவற்றைப் படிக்க வேண்டும் என்று நான் விரும்புகிறேன். ஏனென்றால் இவை இனிமேல் நாம் பயன்படுத்தப் போகும் சொற்கள்.
அவை என்னவென்று நீங்கள் தெரிந்து கொள்ள வேண்டும்
இதை படிக்கவில்லையென்றால் , நீங்கள் உண்மையிலேயே குழப்பமடையப் போகிறீர்கள்,
ஏனென்றால் நான் சிட்டைகள், கட்டமைப்புகள், மாதிரிகள் மற்றும் அளவுருக்கள் பற்றி பேசுவேன்
அவை மிகவும் குறிப்பிட்ட துல்லியமான அர்த்தங்களைக் கொண்டுள்ளன,
நான் அந்த சரியான அர்த்தங்களைப் பயன்படுத்துவேன். எனவே இதை மதிப்பாய்வு செய்யவும்
எனவே உங்களுக்கு நினைவூட்டுவதற்காக, நாங்கள் இதுவரை சென்றது இதுதான்

English: 
example of a particular virus called Fakerean
and you can see in each case the pictures
all look kind of similar and that's why again
they can get state-of-the-art results in virus
detection; by turning the program signatures
into pictures and putting it through image
recognition.
So in the book you'll find a list of all of
the terms, all of the most important terms,
we've seen so far and what they mean I'm not
going to read through them but I want you
to please because these are the terms that
we're going to be using from now on and you've
got to know what they mean because if you
don't you're going to be really confused because
I'll be talking about labels and architectures
and models and parameters and they have very
specific exact meanings and I'll be using
those exact meanings, so please review this.

Chinese: 
另一个病毒的例子是Fakerean
and another example of a particular virus called Fakerean
你可以看到这里每个图片看起来都差不多
and you could see each case the pictures all look kind of similar
这就是为什么
That's why again
研究者可以获得病毒检测的最新结果
they can get state-of-the-art results in in virus detection
他们用图片来描述病毒的特征
by turning the program signatures into pictures
然后将图片运用到图像识别模型中
and putting it through image recognition.
因此在这本书中
So in the book
你可以看到这样的一个术语列表
you'll find a list of all of the terms
列表有到目前为止的重要术语
all of the most important terms we've seen both so far
以及他们的具体含义
and what they mean
我就不在这里读了
I'm not going to read through them
但我希望你们一定要阅读
but I want you to please
因为这些术语
because these are the terms
从现在开始我们就会用到它们
that we're going to be using from now on
因此你们必须清楚它们的具体含义
and you've got to know what they mean
因为如果你们不理解  那么后续的学习你们就会比较困惑
because if you don't you're going to be really confused
因为我会讨论关于标签和架构
because I'll be talking about labels and architectures
模型和参数
and models and parameters
这些术语都有确切的含义
and they have very specific exact meanings
后面我会用到它们
and I'll be using those exact meanings
所以你们一定要阅读这个列表
so please review this
这里提醒一下  我们使用的是
So to remind you, this is where we've got to

Japanese: 
fake rienと呼ばれるウイルスの例をもってきて、画像に変換しました。
これによって
彼らは、プログラムシグナルのようなものを画像に変換し、画像認識を行うことで、
ウイルス検知の最高精度を達成しました。
本には、これまでに紹介してきた最も重要な単語のリスト
がその意味と一緒に掲載されています。ここでは読み上げませんが、
みなさんはチェックしてください、というのもここに載っている単語は今後使いますし、
意味も含めて把握してください。
というのも、これから説明するラベル、アーキテクチャ、モデル、パラメータ
には特定の意味があり、その意味で使われるからです。
確認ですが、ここまでがアーサー・サミュエルのアプローチに関して、学んだことで、

Spanish: 
llamado VB.AT y otro ejemplo de un virus particular
lamado Fakerean, y puedes ver que en cada caso
las imágenes se parecen.
Por eso pueden obtener resultados de vanguardia
en la detección de virus,
convirtiendo las firmas del programa en imágenes
y sometiéndolas a reconocimiento de imágenes.
En el libro encontrarás una lista de todos los términos,
todos los términos más importantes ,que hemos visto hasta ahora
y lo que significan. No voy a leerlos pero quiero que tu lo haces.
Porque estos son los términos
que vamos a utilizar a partir de ahora
y tienes que saber lo que significan.
Si no lo haces vas a estar muy confundido
porque voy a estar hablando de etiquetas y arquitecturas y modelos
y parámetros y tienen significados exactos muy específicos
y voy a utilizar esos significados exactos.
Así que, por favor, revisa esto.
Para recordaros, aquí es donde llegamos

Italian: 
 esempio di un particolare virus chiamato Fakerean e puoi vedere in ogni caso le immagini 
 sembrano tutti un po 'simili ed è per questo che ancora una volta possono ottenere risultati all'avanguardia nei virus 
 rilevamento; trasformando le firme del programma in immagini e inserendole nell'immagine 
 riconoscimento. 
 Quindi nel libro troverai un elenco di tutti i termini, tutti i termini più importanti, 
 abbiamo visto finora e cosa significano non li leggerò ma voglio te 
 per piacere perché questi sono i termini che useremo d'ora in poi e tu 
 devi sapere cosa significano perché se non lo fai sarai davvero confuso perché 
 Parlerò di etichette, architetture, modelli e parametri e hanno molto 
 significati esatti specifici e userò quei significati esatti, quindi per favore rivedi questo. 

Japanese: 
彼の用語を私たちの用語に置き換えると、アーキテクチャというものがあり、
それは、パラメータとデータを入力として受け取ります。
つまり、アーキテクチャはモデルのパラメータと、
データを受け取って予測を計算します。
予測は損失関数によってラベルと比較され、損失関数はパラメータの更新に使われます。
この処理は損失が小さくなまで何回も繰り返されます。
ここまでがfast bookの第一章です。
そして、クイズに答えてみることを強くお勧めします。なぜなら、クイズは、みなさんが
その章から私たちが理解してほしいことをちゃんと学んだかを確認するためにあり、
不確かなものについてはその章に説明があるので、

Tamil: 
ஆர்தர் சாமுவேல்ஸ் ஒட்டுமொத்த அணுகுமுறையுடன் நாம் முடித்தோம்
அவருடைய விதிமுறைகளை நம் விதிமுறைகளுடன் மாற்றினோம்.
எனவே அளவுருக்கள் மற்றும் தரவை உள்ளீடுகளாகக் கொண்ட ஒரு கட்டமைப்பு நம்மிடம் உள்ளது
எனவே கட்டமைப்பு, மாதிரியின் அளவுருக்கள்,
உள்ளீடுகளுடன் நாம் கணிப்புகளைக் கணக்கிடப் பயன்படுத்திகிறோம்
அவை இழப்பு செயல்பாடு கொண்ட சிட்டைகளுடன் ஒப்பிடப்படுகின்றன
மற்றும் அந்த இழப்பு செயல்பாடு அளவுருக்களைப் புதுப்பிக்க பல முறை பயன்படுத்தப்படுகிறது.
இழப்பு நன்றாகவும், மிகக் குறைவாகவும் இருக்கும் வரை இது அளவுருக்களை மேலும் மேலும் சிறப்பாக ஆக்குகிறது.
எனவே இது புத்தகத்தின் 1 ஆம் அத்தியாயத்தின் முடிவு
கேள்வித்தாளைப் பார்ப்பது மிகவும் முக்கியம்
ஏனென்றால் கேள்வித்தாள் மூலம்தான்
இந்த அத்தியாயத்திலிருந்து, நாங்கள் உங்களுக்கு தேவை என்று என்னும் விஷயங்களை நீங்கள் புரிந்துகொண்டீர்களா என்றும் சரிபார்க்கமுடியும்.
எனவே அதை முழுமையாகப் படியுங்கள்.
உங்களுக்கு உறுதியாக தெரியாத அனைத்திற்கும் பதில் உரையில் உள்ளது

Italian: 
 Quindi, per ricordarti questo è dove siamo arrivati; abbiamo finito con l'approccio generale di Arthur Samuels 
 e abbiamo sostituito i suoi termini con i nostri termini così abbiamo un'architettura che contiene parametri 
 come input, i parametri del pozzo ei dati come input in modo che l'architettura più i parametri 
 sono il modello, con gli input utilizzati per calcolare le previsioni, vengono confrontati 
 le etichette con una funzione di perdita e quella funzione di perdita viene utilizzata per aggiornare i parametri 
 molte volte per renderli sempre migliori fino a quando la perdita diventa piacevole e super bassa. 
 Quindi questa è la fine del capitolo 1 del libro. 
 È molto importante guardare il questionario perché il questionario è la cosa dove 
 puoi controllare se hai tolto da questo libro, da questo capitolo le cose che 
 speriamo tu abbia. 
 Quindi esaminalo e tutto ciò di cui non sei sicuro, la risposta è nel testo 

Spanish: 
terminamos con el enfoque general de Arthur Samuels
y reemplazamos sus términos por los nuestros,
de modo que tenemos una arquitectura que contiene parámetros
como entradas, parámetros y los datos como entradas,
de modo que la arquitectura más los parámetros son el modelo,
con las entradas que usaron para calcular las predicciones,
se comparan con las etiquetas
con una función de pérdida y esa función de pérdida
se usa para actualizar los parámetros muchas veces
para hacerlos cada vez mejores hasta que la pérdida sea buena y súper baja.
Este es el final del capítulo 1 del libro.
Es realmente importante mirar el cuestionario
porque el cuestionario es la cosa en la que puedes comprobar
si has llevado contigo, de este libro,
este capítulo las cosas que esperamos que sí.
Repásalo
cualquier cosa de la que no estés seguro,
la respuesta está en el texto,

English: 
So to remind you this is where we got to;
we ended up with Arthur Samuels overall approach
and we replaced his terms with our terms so
we have an architecture which contains parameters
as inputs, well parameters and the data as
inputs so that the architecture plus the parameters
are the model, with the inputs they used to
calculate predictions, they are compared to
the labels with a loss function and that loss
function is used to update the parameters
many many times to make them better and better
until the loss gets nice and super low.
So this is the end of chapter 1 of the book.
It's really important to look at the questionnaire
because the questionnaire is the thing where
you can check whether you have taken away
from this book, this chapter the stuff that
we hope you have.
So go through it and anything that you're
not sure about, the answer is in the text

Chinese: 
Arthur Samuels提出的综合方法作为结尾
we ended up with Arthur Samuels overall approach
用我们的术语来描述的话就是这样
and we replaced his terms with our terms
这里是模型的架构
so we have an architecture
包括输入和参数
which contains parameters as inputs
参数以及数据作为输入
(more parameters) and the data as inputs
这样一来就可以利用参数构建模型
so that the architecture press the parameters of the model
用输入的数据算出预测值
with the inputs they used to calculate predictions
之后用损失函数与真实的标签进行比较
they are compared to the labels with a loss function
损失函数的结果会更新参数
and the loss function is used to update the parameters
随着迭代次数的增加  模型的表现越来越好
many many times to make them better and better
当误差非常小且准确度很高的时就可以终止模型训练
until the loss gets nice and super low
这就是第一章的全部内容
so this is the end of chapter 1 of the book
请大家一定要思考章节结尾的问题  这很重要
it's really important to look at the questionnaire
因为这些问题
because the questionnaire is the thing
可以检查你是否
where you can check whether you
按照我们的要求理解了本章节的内容
have taken away from this book of this chapter the stuff that we hope you have
因此请仔细阅读复习
so go through it and
如果有任何你觉得不明白的地方
anything that you're not sure about
答案就在前面
the answer is in the text so just go back

Italian: 
 quindi torna indietro all'inizio del libro e nel capitolo troverai le risposte. 
 C'è anche un'ulteriore sezione di ricerca dopo ogni questionario, per la prima coppia di 
 i capitoli sono in realtà piuttosto semplici, si spera che siano piuttosto divertenti e interessanti; Loro sono 
 cose a cui rispondere alla domanda non è sufficiente guardare nel capitolo, in realtà 
 devi andare a pensare e sperimentare, cercare su Google e così via. 
 Nei capitoli successivi alcune di queste ulteriori ricerche sono progetti piuttosto significativi 
 potrebbero volerci alcuni giorni o addirittura settimane, quindi dai un'occhiata perché si spera che lo saranno 
 un ottimo modo per espandere la tua comprensione del materiale. 
 Quindi qualcosa che Sylvain sottolinea nel libro è che se vuoi davvero fare il 
 la maggior parte di questo poi, dopo ogni capitolo, prenditi il ​​tempo per sperimentare con il tuo 
 progetto e all'interno dei libri che forniamo e poi vediamo se riesci a rifare i taccuini 
 un nuovo set di dati. 

Tamil: 
புத்தகத்தில் முந்தையதற்குச் செல்லுங்கள், அத்தியாயத்தில் பதில்களை அங்கு காண்பீர்கள்
ஒவ்வொரு வினாத்தாளுக்கும் பிறகு ஒரு 'Further Research' பகுதியும் உள்ளது. முதல் இரண்டு அத்தியாயங்களுக்கு, அவை உண்மையில் மிகவும் எளிமையானவை.
அவை மிகவும் வேடிக்கையாகவும் சுவாரஸ்யமாகவும் இருக்கும் என்று நினைக்கிறன்.
அந்த கேள்விக்கு பதிலளிக்க வேண்டிய விஷயங்கள், அத்தியாயத்தில் பார்த்தால் மட்டும் கிடைக்காது.
நீங்கள் உங்கள் சொந்த சிந்தனை, பரிசோதனை மற்றும் கூகிள் செய்ய வேண்டியிருக்கும்
பிற்கால அத்தியாயங்களில், இந்த பகுதியில் வரும் விஷயங்களில்
சில குறிப்பிடத்தக்க திட்டங்களாக இருக்கும். இவற்றை முடிக்க சில நாட்கள் அல்லது வாரங்கள் கூட ஆகலாம்.
அதனால்
அவற்றைப் பாருங்கள், ஏனென்றால்,
பொருள் குறித்த உங்கள் புரிதலை விரிவுபடுத்துவதற்கான சிறந்த வழியாக அவை இருக்கும்
சில்வைன் புத்தகத்தில் சுட்டிக்காட்டும் ஒன்று என்னவென்றால்,
நீங்கள் உண்மையிலேயே இதைப் பயன்படுத்த விரும்பினால், ஒவ்வொரு அத்தியாயத்திற்கும் பிறகும்
தயவுசெய்து உங்கள் சொந்த திட்டத்துடனும், நாங்கள் வழங்கும் குறிப்பேடுகளுடனும் பரிசோதனை செய்ய நேரம் ஒதுக்குங்கள்,
பின்னர் புதிய தரவு தொகுப்பில் குறிப்பேடுகளை மீண்டும் செய்ய முடியுமா என்று பாருங்கள்
ஒருவேளை அத்தியாயம் 1ற்கு

English: 
so just go back to earlier in the book and
in the chapter you will find the answers.
There's also a further research section after
each questionnaire, for the first couple of
chapters they're actually pretty simple hopefully
they're pretty fun and interesting; they're
things where to answer the question it's not
enough to just look in the chapter, you actually
have to go and do your own thinking and experimenting
and googling and so forth.
In later chapters some of these further research
things are pretty significant projects that
might take a few days or even weeks and so
check them out because hopefully they'll be
a great way to expand your understanding of
the material.
So something that Sylvain points out in the
book is that if you really want to make the
most of this then after each chapter please
take the time to experiment with your own
project and within the books we provide and
then see if you can redo the notebooks on
a new dataset.

Spanish: 
vuelve al principio del libro y en el capítulo
encontrarás las respuestas.
También hay una sección de investigación adicional
después de cada cuestionario, para el primer par de capítulos
son en realidad bastante simples, esperemos que sean bastante divertidos e interesantes
son cosas en las que para responder a la pregunta
no basta con mirar el capítulo,
sino que hay que pensar y experimentar
buscar en Google etc.
En capítulos posteriores, algunas de estas cosas
de investigación son proyectos bastante significativos
que pueden llevar unos días o incluso semanas.
Compruébelos
porque esperamos que sean una gran manera
de ampliar su comprensión del material.
Algo que Sylvain señala en el libro es que
si realmente quieres sacar el máximo provecho de esto,
entonces después de cada capítulo, por favor, tómate el tiempo para experimentar
con tu propio proyecto y con los cuadernos que proporcionamos
y luego ver si puedes rehacer
los cuadernos en un nuevo conjunto de datos.

Chinese: 
翻到这本书的该章节你就会发现
to earlier in the book and in the chapter
你想要的答案
and you will find the answers
书里还有一个更深入的探索部分
there's also a further research section
在前两个章问题的后面
after each questionnaire for the first couple of chapters
他们其实非常简单
they are actually pretty simple
(我)希望你们很感兴趣
hopefully they're pretty fun and interesting
要回答这些问题
they're things were to answer the question
光阅读该章节的内容是不够的
it's not enough to just look in the chapter
你需要对这些问题进行更多地思考
you actually have to go and do your own thinking and
尝试以及Google搜索  如此反复
experimenting and googling and so forth
在后面一些章节的探索部分
in later chapters some of these further research things
事实上是重要的项目
are pretty significant projects that
要完成它们可能需要几天甚至几周的时间
might take a few days or even weeks
所以尽量花时间去看一下
and so yeah you know check them out
因为这是一个很好的方法
because hopefully they'll be a great way to
帮助你加深对所学内容的理解
expand your understanding of the material
此外本书还指出
so something that still have to point out in the book
如果你希望充分利用本书
is that if you really want to make the most of this
那么在学习每章内容后多花些时间
then after each chapter please take the time to
尝试用你自己的项目做些实验
experiment with your own project
借助我们课程提供的笔记
and within the notebooks we provide
看看你能不能重现上课的内容
and then see if you can redo
在改变了数据集的情况下
the notebooks on a new data set

Japanese: 
少し戻って、答えを見つけてください。
そして、はじめのいくつかの章に関しては発展的なリサーチの節もありますが、非常に単純です。
それらは、興味深く楽しめるものと思って書きました。ただ本を読むだけでは答えがわからず、
自分で検索したり、実験しないと答えはでないと思います。
さらに後の方の章ではこういったリサーチは重たくなってくるので、数日、場合によっては数週間かかるかもしれません。
はい、それらは、きっと理解の助けになるので必ずトライしてみてください。
もう一つ、この本を最大限活用する上でのポイントは章を読み終えるごとに、
少し時間をとって、その章の知識で自分のプロジェクトに取り組むことです。
つまり、ノートブックの内容を新しいデータで再実行するのです。

Spanish: 
Quizás para el capítulo 1 eso puede ser un poco difícil
porque no hemos mostrado realmente cómo cambiar las cosas, pero para el capítulo 2.
que vamos a empezar a continuación, serás absolutamente capaz de hacer eso.
Bien, tomamos un descanso de 5 minutos
y regresaremos a las 9:55
hora de San Francisco.
Bienvenidos de vuelta a todos.
Creo que tenemos un par de preguntas para empezar, así que Rachel, por favor,
adelante. Claro.
¿Son los filtros independientes?
Es decir, si los filtros están pre-entrenados,
podrían volverse menos buenos y detectar características de imágenes anteriores
cuando se afinen?
Esa es una gran pregunta.
 
Asumiendo que entiendo la pregunta correctamente,
si empiezas con digamos un modelo ImageNet y
y luego lo afinas en perros contra
gatos por unas cuantas épocas
y obtienes algo que es muy bueno en el reconocimiento de perros contra gatos
va a ser mucho menos bueno
como un modelo ImageNet después de eso.

Japanese: 
第一章でこれをするのは少々難しいかもしれませんが、
第二章以降ではできるようになると思います。
それでは、9:55まで休憩をとりましょう。
さて、再開しましょう。次に進む前に質問に答えましょう。Rachel、お願いします。
モデルは再学習した場合、
事前学習でのデータセットに対するパフォーマンスが悪化するのでしょうか？
素晴らしい質問ですね。
質問の内容は、ImageNetで訓練したモデルを犬と猫のデータセットで
fine tuningすると、犬と猫を認識するのには優れているが、
ImageNetのデータセットに対してはそれほど優れていないのではないか？ということです。

English: 
Perhaps for chapter one that might be a bit
hard because we haven't really shown how to
change things but for chapter two, which we're
going to start next, you'll absolutely be
able to do that.
Okay so let's take a 5 minute break and we'll
come back at 9:55 San Francisco time.
Okay so welcome back everybody and I think
we've got a couple of questions to start with
so Rachel please take it away.
Sure, are filters independent by that I mean
if filters are pre-trained might they become
less good and detecting features of previous
images when fine-tuned?
Oh that is a great question, so assuming I
understand the question correctly, if you
start with say an imagenet model and then
you fine-tune it on dogs versus cats for a
few epochs and you get something that's very
good at recognizing dogs versus cats it's
going to be much less good as an imagenet
model after that, so it's not going to be

Chinese: 
对于第一章你们可能会觉得有一定的难度
perhaps for chapter one that might be a bit hard
因为我们还没有演示如何做出调整
because we haven't really shown how to change things
但当我们稍后进入到第二章之后
But for chapter two which we're going to start next
你应该完全有能力这样做
you'll absolutely be able to do that
好了，我们现在休息5分钟
Okay so let's take a 5 minute break
在旧金山时间9:55回来
and we'll come back at 9:55 San Francisco time
好欢迎大家回来
okay so welcome back everybody
我想我们这里收集到几个问题
I think we've got a couple of questions
Rachel你可以开始提问了
to start with so Rachel please take it away
(Rachel) 好的，filter(滤波器)是独立的吗？
sure are filters independent?
我的意思说如果滤波器是预先训练好的
by that I mean if filters are pre-trained
那么它们的检测精度会不会下降
might they become less good
如果微调后再去检测先前的图片特征
at detecting features of previous images when fine-tuned
这是一个很好的问题
oh that is a great question
假设我对这个问题理解正确的话
so assuming I understand the question correctly
如果你有一个ImageNet模型
if you start with, say, an ImageNet model
然后你对它进行微调
and then you fine-tune it on
使用狗和猫的数据微调几个epoch（时期）
dogs versus cats for a few epochs
那么你会得到一个能很好地
and you get something that's very good at
识别狗和猫(的模型)
recognizing dogs versus cats
但由于做了微调所以没有调整前的ImageNet模型好
it's got to be much less good as an ImageNet model after that

Italian: 
 Forse per il capitolo uno potrebbe essere un po 'difficile perché non abbiamo davvero mostrato come farlo 
 cambia le cose ma per il capitolo due, che inizieremo dopo, lo sarai assolutamente 
 in grado di farlo. 
 Ok, prendiamoci una pausa di 5 minuti e torneremo alle 9:55, ora di San Francisco. 
 Ok, quindi bentornati a tutti e penso che abbiamo un paio di domande con cui iniziare 
 quindi Rachel, per favore, portalo via. 
 Certo, i filtri sono indipendenti con questo intendo dire che se i filtri sono pre-addestrati potrebbero diventarlo 
 meno buono e rileva le caratteristiche delle immagini precedenti una volta ottimizzate? 
 Oh, questa è un'ottima domanda, quindi supponendo che io abbia capito correttamente la domanda, se tu 
 inizia con un modello di imagenet e poi lo metti a punto su cani contro gatti per un 
 poche epoche e ottieni qualcosa che è molto bravo a riconoscere i cani rispetto ai gatti 
 sarà molto meno valido come modello di imagenet dopo, quindi non lo sarà 

Tamil: 
இது சற்று கடினமாக இருக்கலாம்,
ஏனென்றால் விஷயங்களை எவ்வாறு மாற்றுவது என்பதை நாங்கள் உண்மையில் காட்டவில்லை
ஆனால் இரண்டாம் அத்தியாயத்திற்கு
(நாம் அடுத்ததாக பார்க்கப்போவது) உங்களால் அதை செய்ய முடியும்
சரி, 5 நிமிட இடைவெளி எடுத்துக்கொள்வோம், நாங்கள் சான் பிரான்சிஸ்கோ நேரத்தில் 9:55 மணிக்கு வருவோம்
எனவே அனைவரையும் மீண்டும் வரவேற்கிறோம், தொடங்குவதற்கு சில கேள்விகள் கிடைத்துள்ளன என்று நினைக்கிறேன். எனவே ரேச்சல், தயவுசெய்து அதை எடுத்துச் செல்லுங்கள். நிச்சயம்
தொடங்குவதற்கு சில கேள்விகள் கிடைத்துள்ளன என்று நினைக்கிறேன். எனவே ரேச்சல், தயவுசெய்து அதை எடுத்துச் செல்லுங்கள். நிச்சயம்
வடிப்பான்கள் சுயாதீனமானவையா? அதாவது
வடிப்பான்கள் முன்பே பயிற்சியளிக்கப்பட்டிருப்பதால்,
'நுண் திருத்தம்' செய்யும்போது, முந்தைய படங்களின் அம்சங்களைக் கண்டறியும் தன்மை குறையுமா?
அது ஒரு நல்ல கேள்வி
எனவே கேள்வியை நான் சரியாக புரிந்து கொண்டேன் என்று வைத்துக் கொள்ளுங்கள்
உதாரணமாக, நீங்கள் ஒரு 'ImageNet' மாதிரியுடன் தொடங்கி,
அதை ஒரு சில சகாப்தங்களுக்கு நாய்களையும்  பூனைகளையும் அடையாளபடுத்த  'நுண் திருத்தம்'  செய்தால்
நாய்களையும்  பூனைகளையும் நன்றாக அடையாளபடுத்த ஒரு மாதிரி கிடைக்கும்
அதற்குப் பிறகு ஒரு 'ImageNet' மாதிரியைவிட இது மிகவும் குறைவாக இருக்கும்

Chinese: 
不能很好地识别
so it's not going to be very good at recognizing
飞机或者锤子或者其他什么
airplanes or hammers or whatever
这就叫做灾难性遗忘(catastrophic forgetting)
this is called catastrophic forgetting
文献中这个术语的意思是
in the literature the idea that
当模型使用了很多不同的图片用来训练
as you see more images about different things
那些一开始用来训练的
to what you saw earlier
照片被模型遗忘
that you start to forget what the things you saw earlier
因此如果你想对模型进行微调
so if you want to fine-tune something
让它能更好适应新的任务
which is good at a new task
并且对之前的任务依然有很好的效果
but also continues to be good at the previous task
那么你在微调时需要同时给模型输入之前任务的数据
you need to keep putting in examples of the previous task as well
（学生提问）参数和超参数有什么区别
and what are the differences between parameters and hyperparameters
如果我给模型输入一张狗的图片
if I am feeding an image of a dog as an input
然后修改模型的超参数batch size（批大小）
and then changing the hyper parameters of batch size in the model
那么这里的参数具体是什么呢
what would be an example of a parameter?
参数这个概念在第一课中讲过
so the parameters are the things that are described in lesson one
Arthur Samuel将它描述为
that Arthur Samuel described as being

Italian: 
 molto bravo a riconoscere aeroplani o martelli o altro. 
 Questo si chiama oblio catastrofico in letteratura, l'idea che come vedi di più 
 immagini su cose diverse da ciò che hai visto prima che inizi a dimenticare cosa 
 le cose che hai visto prima lo sono. 
 Quindi, se vuoi mettere a punto qualcosa che è buono per un nuovo compito ma che continua a farlo 
 essere bravo nell'attività precedente è necessario continuare a inserire esempi dell'attività precedente come 
 bene. 
 Quali sono le differenze tra parametri e iperparametri? 
 Se sto alimentando un'immagine di un cane come input e quindi modifico i parametri iper di 
 dimensione del lotto nel modello quale sarebbe un esempio di parametro? 
 Quindi i parametri sono le cose che vengono descritte nella lezione uno che Arthur Samuel 

Spanish: 
No va a ser muy bueno en el reconocimiento de aviones o martillos,
o lo que sea.
 
Esto se llama olvido catastrófico
en la literatura, la idea de que a medida que
ves más imágenes sobre cosas diferentes a las que viste antes
empiezas a olvidar lo que son las cosas que viste antes.
Si quieres
afinar algo que es
es bueno en una nueva tarea pero que también sigue siendo
bueno en la tarea anterior, tienes que seguir poniendo
ejemplos de la tarea anterior también.
¿Cuáles son las diferencias entre los parámetros y los hiperparámetros?
Si estoy alimentando una imagen de un perro como entrada y luego cambiando
los hiper parámetros del tamaño del lote en el modelo,
¿cuál  sería un ejemplo de un parámetro?
Los parámetros son las cosas
que se describen en la primera lección
que Arthur Samuel describió como siendo

Japanese: 
確かに、飛行機やハンマーを認識するのはそれほど上手ではないでしょうし、これは
破滅的忘却と呼ばれるものです。
考えは、事前に見たデータセットと異なるものを見れば見るほど
事前に見たものを忘れていくというものです。
もしこの破滅的忘却を防ぎたければ、つまり、
新たなタスクと以前のタスクの両方で優れているモデルを作りたければ、
fine tuningを行う際に、事前のタスクで使ったサンプルも与える必要があります。
パラメータとハイパーパラメータの違いはなんですか？
入力として犬の画像を与え、ハイパーパラメータであるバッチサイズやモデルを変えた場合、
何がパラメータですか？
パラメータは、
レッスン1で伝えたように、アーサー・サミュエルによれば、

English: 
very good at recognizing aeroplanes or hammers
or whatever.
This is called catastrophic forgetting in
the literature, the idea that as you see more
images about different things to what you
saw earlier that you start to forget what
the things you saw earlier are.
So if you want to fine-tune something which
is good at a new task but also continues to
be good at the previous task you need to keep
putting in examples of the previous task as
well.
What are the differences between parameters
and hyper parameters?
If I am feeding an image of a dog as an input
and then changing the hyper parameters of
batch size in the model what would be an example
of a parameter?
So the parameters are the things that are
described in lesson one that Arthur Samuel

Tamil: 
விமானங்கள், சுத்தியல்கள், மற்றவைகளை  அடையாளபடுத்துவதில் மிகச் சிறந்ததாக இருக்காது
இலக்கியத்தில், இது பேரழிவு மறத்தல் என்று அழைக்கப்படுகிறது
அதாவது நீங்கள் முதலில் பார்த்ததை ஒப்பிடும்போது வெவ்வேறு விஷயங்களைப் பற்றிய கூடுதல் படங்களை நீங்கள் காணும்போது,
நீங்கள் முதலில் பார்த்த விஷயங்களை மறக்கத் தொடங்குகிறீர்கள்.
எனவே, உங்க மாதிரி ஒரு புதிய பணியோடு முந்தைய பணியிலும் நன்றாக இருக்க 'நுண் திருத்தம்' செய்ய விரும்பினால்,
பயிற்றுவிக்கும்போது முந்தைய பணியின் எடுத்துக்காட்டுகளையும் நீங்கள் வைக்க வேண்டும்.
அளவுருக்களுக்கும்,  மீ-அளவுருக்களுக்கும் இடையிலான வேறுபாடுகள் என்ன?
நான் ஒரு நாயின் படத்தை உள்ளீடாகப் பயன்படுத்தி, தொகுதி அளவு மற்றும் மாதிரியின் மீ-அளவுருக்களை மாற்றினால்
அளவுருவின் எடுத்துக்காட்டு என்னவாக இருக்கும்?
எனவே அளவுருக்கள் என்பது
ஆர்தர் சாமுவேலால் கூறப்பட்டதாக, பாடம் ஒன்றில் விளக்கியதுபோல

Japanese: 
それは、
モデルがすることやアーキテクチャがすることを変えるものです。私たちは、無限に柔軟な関数から始め、
それこそがニューラルネットワークですが、それはなんでもできるものですが、
実際にニューラルネットワークができることを調整するのがパラメータです。
パラメータは関数に渡す数値です。関数に渡す数字は2種類あります。
1つは入力データ、例えば犬の写真のピクセルを表す数字でもう1つは学習で得られた
パラメータです。
ニューラルネットワーク以外の例としては、アーサー・サミュエルが60年代に
使ったかもしれないチェッカープログラムがあるでしょう。そのパラメータは
もしあれば、
ピースをとるか、ボードの端まで進むかの確率を表していたでしょう。

English: 
described as being the things which change
what the model does, what the architecture
does.
So we start with this infinitely flexible
function, the thing called a neural network,
that can do anything at all and the way you
get it to do one thing versus another thing
is by changing its parameters.
They are the numbers that you pass into that
function so there's two types of numbers you
pass into the function: there's the numbers
that represent your input, like the pixels
of your dog, and there's the numbers that
represent their learnt parameters.
So in the example of something that's not
a neural net, but like a checkers playing
program like Arthur Samuel might have used
back in the early 60s and late 50s, those
parameters may have been things like: if there
is a opportunity to take a piece versus an

Tamil: 
கட்டடமைப்பும் மாதிரியும் என்ன செய்கிறது என்பதை பொறுத்து மாறும் விஷயம்.
எதையும் செய்யக்கூடிய ஒரு நரம்பியல் வலையமைப்பு எனப்படும் எல்லையற்ற நெகிழ்வான செயல்பாட்டில் தொடங்குவோம்
அதன் அளவுருக்களை மாற்றுவதன் மூலம் - ஒரு காரியத்தை மற்றொரு காரியத்திற்கு எதிராகச் செய்கிறீர்கள்.
அந்த செயல்பாட்டில் நீங்கள் உள்ளீடு செய்யும் எண்கள் அவை.
எனவே செயல்பாட்டில் நீங்கள் உள்ளீடு செய்யும் இரண்டு வகையான எண்கள் உள்ளன
உங்கள் உள்ளீட்டைக் குறிக்கும் எண்கள் உள்ளன, அது உங்கள் நாயின் படப்புள்ளிகள்.
மற்றும் கற்றுக்கொண்ட அளவுருக்களைக் குறிக்கும் எண்கள் உள்ளன
உதாரணமாக, நரம்பியல் வலையமைப்பு போல இல்லாமல், ஒரு செக்கர்ஸ் விளையாடும் நிரல்
ஆர்தர் சாமுவேலை 50 களிலும் 60 களிலும் இடபட்டநேரத்தில் பயன்படுத்தியது போன்றது இருக்கலாம்.
அந்த அளவுருக்கள்,
ஒரு பொருளை எடுக்க வாய்ப்புக்கு மாறாக
விளையாட்டு-பலகையின் முடிவுக்குச் செல்வதற்கான வாய்ப்பு இருப்பதுபோல, இருக்கலாம்

Italian: 
 descritto come le cose che cambiano ciò che fa il modello, ciò che l'architettura 
 fa. 
 Quindi iniziamo con questa funzione infinitamente flessibile, la cosa chiamata rete neurale, 
 che può fare qualsiasi cosa e il modo in cui lo fai fare una cosa contro un'altra cosa 
 è cambiando i suoi parametri. 
 Sono i numeri che passi a quella funzione, quindi ci sono due tipi di numeri per te 
 passare alla funzione: ci sono i numeri che rappresentano il tuo input, come i pixel 
 del tuo cane, e ci sono i numeri che rappresentano i parametri appresi. 
 Quindi nell'esempio di qualcosa che non è una rete neurale, ma come un gioco di dama 
 programma come Arthur Samuel potrebbe aver utilizzato all'inizio degli anni '60 e alla fine degli anni '50, quelli 
 parametri potrebbero essere stati cose come: se c'è un'opportunità di prendere un pezzo contro un 

Spanish: 
las cosas que cambian lo que hace el modelo,
lo que hace la arquitectura.
Empezamos con esta función infinitamente flexible,
la cosa llamada red neuronal,  que puede hacer cualquier cosa.
 
La forma de conseguir que haga una cosa frente a otra
es cambiando sus parámetros.
Son los números que pasas a esa función.
Hay dos tipos de números que pasas a la función.
Están los números que representan tu entrada,
como los píxeles de tu perro, y están los números
que representan sus parámetros aprendidos.
En el ejemplo de algo que no es una red neuronal, pero como
un programa de juego de damas como el que Arthur Samuel
pudo haber usado a principios de los 60
y finales de los 50, esos parámetros pueden haber sido cosas como:
si hay una oportunidad de tomar una pieza contra
contra una oportunidad de llegar al final de un tablero,

Chinese: 
具有改变模型的作用
the things which change what the model does
模型的架构
what the architecture does
我们从一个非常灵活的函数开始
so we start with this infinitely flexible function
它叫做神经网络并且可以做任何事情
the thing called a neural network that can do anything at all
让这个函数完成某一件任务
and the way you get it to do one thing
而不是另一个任务  就是通过改变它的参数
versus another thing is by changing its parameters
这个参数就是你传入函数的数字
they are the numbers that you pass into that function
也就是说你会给函数传入两种数据
so there's two types of numbers you pass into the function
一类是你的输入
there's the numbers that represent your input
比如代表你的狗的像素数据
like the pixels of your dog
另一类数据是模型的学习参数
and there's the numbers that represent their learnt parameters
因此对于不是神经网络的模型
so in the example of something that's not a neural net
比如下棋的程序
like a checkers playing program
像Arthur Samuel可能使用过的
like Arthur Samuel might have used
在上世纪50年代末60年代初的时候
back in the early 60s and late 50s
那些参数可能就是
those parameters may have been things like
如果有机会占领棋盘的一部分
if there is an opportunity to take a piece
相较于有机会将棋子移动到对方底线
versus an opportunity to get to the end of a board

Japanese: 
どちらの選択肢をより多くとるようにするかというものです。
例えば、一方より他方が2倍、3倍重要であるというものです。
ニューラルネットワークにおいては
パラメータはより抽象的なもので、詳しく理解するのは次回か次次回のレッスンになるでしょう。
ですが、基本的なアイディアは同じで、それは、
モデルが何か認識する動作を変更する数字であるということです。
悪性腫瘍であったり、犬か猫、カラー写真か白黒写真を認識するというようなものです。
一方で、ハイパーパラメータは
次のようなものに関する選択です。
例えば、関数を調整する際、どのようなプロセスを経るかといったものです。
このコースの進度が気になります。本の内容は全てカバーするのでしょうか？

Chinese: 
我的选择相较于一个  是不是更有价值
how much more value should I consider one versus the other
并且你知道是两倍还是三倍的价值
you know it's twice as important or three times as important
这里数字2和3就是一个超参数的例子
that two versus three that would be an example of a parameter
在神经网络中
in a neural network
参数是个更抽象的概念
parameters are a much more abstract concept
关于参数的详细讲解
and so a detailed understanding of what they are
会出现在后面的课程中
will come in the next lesson or two
但基本的理论是相同的
but it's the same basic idea
这些数字对模型功能起决定性作用
they are the numbers which change what the model does
比如模型识别
to be something that recognizes
恶性肿瘤或识别猫狗
malignant tumors versus cats versus dogs
还有上色的黑白图片
versus colorized just black-and-white pictures
然而超参数的作用  是决定
whereas the hyper-parameter is the choices about what
你要传递什么样的数据给函数
what numbers do you pass to the function
这是你在运行实际的拟合函数时要做的
when you act the actual fitting function
超参数用于决定拟合如何发生
to decide how that fitting process happens
(Rachel)我对这门课的进度很好奇
(Rachel)And there's a question "I'm curious about the pacing of this course
(Rachel)我担心它可能没有涵盖所有的内容
(Rachel)I'm concerned that all the material may not be covered"

Italian: 
 opportunità per arrivare alla fine di una tavola quanto più valore dovrei considerare uno rispetto a 
 l'altro. 
 Sai che è due volte più importante o tre volte più importante: due contro tre 
 - questo sarebbe un esempio di parametro. 
 In una rete neurale, i parametri sono un concetto molto più astratto e quindi una comprensione dettagliata 
 di quello che sono verranno nelle prossime lezioni o due, ma è la stessa idea di base: lo sono 
 i numeri che cambiano ciò che il modello fa per essere qualcosa che riconosce maligno 
 tumori, contro i gatti contro i cani contro colora le immagini in bianco e nero. 
 Considerando che l'iperparametro è le scelte su quali numeri passare alla funzione, 
 alla funzione di adattamento effettiva per decidere come avviene il processo di adattamento. 
 C'è una domanda: "Sono curioso di conoscere il ritmo di questo corso. 
 Temo che tutto il materiale possa non essere coperto. " 

Tamil: 
ஒன்றுக்கு மாறாக மற்றொன்றுக்கு எவ்வளவு அதிக மதிப்பை நாம் கருத்தில் கொள்ள வேண்டும்?
இது இரு மடங்கு முக்கியமானது அல்லது இரண்டுக்கும் மூன்றுக்கும் இடையில் மூன்று மடங்கு முக்கியமானது,
இதுவே ஒரு அளவுருவின் எடுத்துக்காட்டு
ஒரு நரம்பியல் வலையமைப்பில்
அளவுருக்கள் மிகவும் சுருக்கமான கருத்தாகும்,
எனவே அவை என்ன என்பது பற்றிய விரிவான புரிதல் அடுத்த பாடங்களில் பார்ப்போம்
ஆனால் அதே அடிப்படை யோசனைதான்,
இங்கு எண்கள் உள்ளன
அவை மாதிரிகளின் செயலை மாற்றும்
அதன் செயல் - வீரியம் மிக்க கட்டிகளை அடையாளப்படுத்தலாம்,
அல்லது நாய்களும் பூனைகளும் அடையாளப்படுத்தலாம்,
அல்லது கருப்பு வெள்ளை படங்களை வண்ணமயம் ஆக்கலாம்
அதேசமயம் மீ-அளவுரு
என்பது
உண்மையான பொருத்துதல் செயல்பாட்டிற்கு அனுப்பப்பட்ட எண்களைப் பற்றிய தேர்வுகள்
இது அந்த பொருத்துதல் செயல்முறை எவ்வாறு நிகழ்கிறது என்பதை தீர்மானிக்கிறது.
ஒரு கேள்வி இருக்கிறது.
இந்த பாடத்திட்டத்தின் வேகத்தை பற்றி நான் ஆர்வமாக உள்ளேன்.
எல்லா பகுதியும் முடிக்கப்படாமல் போகலாம் என்று நான் கவலைப்படுகிறேன்.

Spanish: 
¿cuánto más valor debería considerar uno contra el otro?
¿Es el doble o el triple de importante? que dos contra tres,
eso sería un ejemplo de un parámetro.
En una red neuronal,
los parámetros son un concepto mucho más abstracto.
Una comprensión detallada de lo que son vendrá
en la próxima lección o dos, pero es
la misma idea básica: son los números que
cambian lo que el modelo hace
para ser algo que reconoce
tumores malignos, versus gatos versus perros
versus colorea imágenes en blanco y negro.
Mientras que el hiperparámetro es
la elección de los números que se pasan
a la función, a la función de ajuste real para decidir cómo se produce ese proceso de ajuste.
Hay una pregunta, "Tengo curiosidad por el ritmo
de este curso. Me preocupa que todo el material pueda no estar cubierto".

English: 
opportunity to get to the end of a board how
much more value should I consider one versus
the other.
You know it's twice as important or it's three
times as important -- that two versus three
-- that would be an example of a parameter.
In a neural network, parameters are a much
more abstract concept and so a detailed understanding
of what they are will come in the next lesson
or two, but it's the same basic idea: they’re
the numbers which change what the model does
to be something that recognizes malignant
tumors, versus cats versus dogs versus colorizes
black and white pictures.
Whereas the hyperparameter is the choices
about what numbers do you pass to the function,
to the actual fitting function to decide how
that fitting process happens.
There's a question, “I'm curious about the
pacing of this course.
I'm concerned that all the material may not
be covered.”

Spanish: 
Depende de lo que quieras decir con todo el material.
Ciertamente no cubriremos todo en el mundo.
Cubriremos lo que podamos. Cubriremos lo que podamos en siete lecciones
Ciertamente no cubriremos todo el libro
si eso es lo que te preguntas.
El libro entero será cubierto en dos o tres cursos.
En el pasado, generalmente habian dos cursos para cubrir la cantidad de cosas en el libro.
Veremos cómo va, porque el libro es bastante grande... 500 páginas.
Cuando dices dos cursos, ¿te refieres a catorce lecciones?
Catorce, sí, sería como 14 o 21 lecciones para recorrer todo el libro.
Aunque, dicho esto, al final de la primera lección
esperamos que haya suficiente impulso y comprensión
para que la lectura independiente del libro
sea más útil, y también habrás
ganado una comunidad de gente en los foros con la que podrás pasar el rato y hacer preguntas y demás.
En este segunda parte del curso

Chinese: 
这取决于你说的“所有内容”是什么意思
depends what you mean by "all the material"
我们的内容当然不可能涵盖世界上所有的东西
we certainly won't cover everything in the world
所以
so yeah
在这7节课里  我们会尽可能讲解到需要讲的内容
we'll cover what we can in seven lessons
我们不可能涵盖到整本书的方方面面
we're certainly not covering the whole book
如果这是你想知道的
if that's what you're wondering
整本书的内容将涵盖到两至三门课程
the whole book will be covered in either two or three courses
之前  通常是两门课程
in the past it's generally been two courses
能涵盖到整本书中的内容
to cover about the amount of stuff in the book
但这次我们会看看进展如何
but we'll see how it goes
因为这本书比较厚  有500多页
because the book's pretty big 500 pages
(Rachel)你说的两门课程  也就是14节课的意思吧
(Rachel)When you say two courses you mean 14 lessons
14节 是的 大概14到21节课能涵盖整本书的内容
14 lessons, yes so it would be like 14 or 21 lessons to get through the whole book
在第一节课的末尾我说过
although having said that by the end of the first lesson
希望大家能有足够的动力
hopefully there'll be kind of like enough momentum
和独立阅读理解能力
and understanding that the reading the book independently
这会很有用
will be more useful learned
你在论坛上也认识了一些社区成员
you've also kind of gained a community of folks on the forums
你可以和他们交流  问一些问题等等
that you can hang out with and ask questions of and so forth

English: 
Depends what you mean by all the material.
We certainly won't cover everything in the
world, so yeah we'll cover what we can.
We’ll cover what we can in seven lessons;
we're certainly not covering the whole book
if that's what you're wondering.
The whole book will be covered in either two
or three courses.
In the past it's generally been two courses
to cover about the amount of stuff in the
book but we'll see how it goes, because the
book’s pretty big -- 500 pages.
So when you say two courses, you mean fourteen
lesson?
Fourteen, yes it would be like 14 or 21 lessons
to get through the whole book.
Although having said that, by the end of the
first lesson hopefully there'll be kind of
like enough momentum and understanding that
reading the book independently will be more
useful and you'll have also kind of gained
a community of folks on the forums that you
can hang out with and ask questions of and
so forth.

Italian: 
 Dipende da cosa intendi con tutto il materiale. 
 Certamente non copriremo tutto nel mondo, quindi sì copriremo quello che possiamo. 
 Tratteremo quello che possiamo in sette lezioni; di certo non stiamo coprendo l'intero libro 
 se è questo che ti stai chiedendo. 
 L'intero libro sarà trattato in due o tre corsi. 
 In passato sono stati generalmente due corsi per coprire la quantità di cose nel file 
 libro ma vedremo come va, perché il libro è piuttosto grande - 500 pagine. 
 Quindi quando dici due portate, intendi quattordici lezioni? 
 Quattordici, sì, sarebbero come 14 o 21 lezioni per completare l'intero libro. 
 Anche se detto questo, si spera che alla fine della prima lezione ci sarà una specie di 
 come abbastanza slancio e comprensione che leggere il libro in modo indipendente sarà di più 
 utile e avrai anche guadagnato una specie di comunità di persone sui forum che tu 
 può uscire e fare domande su e così via. 

Japanese: 
答えは全ての内容として、何を意味するかに依りますが、本当に全てをカバーするのは無理でしょう。
実際には7回のレッスンでカバーできるものをカバーします。
つまり、本全体をカバーすることはできないでしょう。本全体をカバーするには、例年だと、
追加で2もしくは3つのコースが必要でした。通常はコース2つで本全体ですね。
ですが、どうなるかはわかりません。というのもこの本は500ページもありますから。
コース2つというのは、レッスン14回ということですか？
はい、14か21回で本が終わると思います。
先週の授業でお伝えした通り、
授業と独立して読み進めるのも理解の助けにはなると思います。
そして、コミュニティ、
つまり、フォーラムに参加して、質問を投稿したり回答することも有用です。

Tamil: 
எல்லா பொருட்களாலும் நீங்கள் எதைக் குறிக்கிறீர்கள் என்பதைப் பொறுத்தது.
உலகில் உள்ள அனைத்தையும் நாங்கள் நிச்சயமாக முடிக்க மாட்டோம்
எனவே ஆம்,
ஏழு பாடங்களில், எங்களால் முடிக்க முடிந்ததை முடிப்போம்
நீங்கள் எதிர்பார்ப்பது போல நாம் நிச்சயமாக முழு புத்தகத்தையும் முடிக்க மாட்டோம்.
முழு புத்தகமும் இரண்டு அல்லது மூன்று படிப்புகளில் முடிக்கப்படும்
முன்பு, பொதுவாக இது புத்தகத்தில் உள்ள தகவல்களின் அளவைப் முடிக்க இரண்டு படிப்புகள் தேவைப்பட்டது.
அது எவ்வாறு செல்கிறது என்பதைப் பார்ப்போம்,
ஏனென்றால் புத்தகம் மிகவும் பெரியது, சுமார் 500 பக்கங்கள் கொண்டது
எனவே நீங்கள் இரண்டு படிப்புகளைச் சொல்லும்போது 14 பாடங்கள் என்று பொருள்
ஆம், முழு புத்தகத்தையும் பெற 14 அல்லது 21 பாடங்கள் தேவைப்படும்
சரி, அதைச் சொல்லி, முதல் பாடத்தின் முடிவில்
போதுமான வேகமும் புரிதலும் இருக்கும் என்று நம்புகிறேன்.
எனவே புத்தகத்தை சுயாதீனமாக வாசிப்பது மிகவும் பயனுள்ளதாக இருக்கும்.
மன்றங்களில், உள்ள சமூகத்தினரை நீங்கள் அறிந்து கொள்வீர்கள்
அவர்களிடம் நேரம் செலவழிக்கலாம் மற்றும் பல கேள்விகளைக் கேட்கலாம்

Italian: 
 Quindi nella seconda parte del corso parleremo di come inserire delle cose 
 produzione e quindi, per farlo, dobbiamo capire quali sono le capacità e i limiti 
 di apprendimento profondo? 
 Quali sono i tipi di progetti che ha senso provare a mettere in produzione? 
 E sai una delle cose chiave che dovrei menzionare nel libro e in questo corso è 
 che le prime due o tre lezioni e capitoli, ci sono molte cose che non sono progettate 
 solo per i programmatori ma per, per tutti. 
 Ci sono molte informazioni su quali sono le cose pratiche che devi sapere per fare 
 lavoro di apprendimento profondo. 
 E quindi una di queste cose che devi sapere è "beh, cos'è l'apprendimento profondo in realtà 
 bravo in questo momento? " 
 Quindi riassumerò ciò che il libro dice su questo, ma ci sono quattro aree chiave 
 che abbiamo come applicazioni in Fastai: visione artificiale, testo, tabulare e quello che ho chiamato 

Tamil: 
எனவே இப்போது, உற்பத்தியில் மாதிரிகளைப் பயன்படுத்துவது பற்றி பேசப் போகிறோம்.
அதை செய்ய, ஆழ்ந்த கற்றலின் திறன்களையும் வரம்புகளையும் நாம் புரிந்து கொள்ள வேண்டும்
எந்த வகையான திட்டங்கள், உற்பத்தியில் பயன்படுத்த கூடியவை  என்பதையும் புரிந்து கொள்ள வேண்டும்
இந்த புத்தகத்திலும், படிப்பிலும் குறிப்பிடவேண்டிய முக்கியமான விஷயம் -
முதல் 2-3 அத்தியாயங்கள்
நிரலர்களுக்கு மட்டும் இல்லாமல் அனைவருக்கும் தேவையான பல விஷயங்கள் உள்ளன
ஆழ்ந்த கற்றல் வேலையைச் செய்ய நீங்கள் தெரிந்து கொள்ள வேண்டிய நடைமுறை விஷயங்கள் என்ன என்பதைப்பற்றி
எனவே நீங்கள் தெரிந்து கொள்ள வேண்டிய விஷயங்களில் ஒன்று,
இந்த நேரத்தில் ஆழ்ந்த கற்றல் உண்மையில் எதற்கு நல்லது என்பதுதான்
இதைப் பற்றி புத்தகம் என்ன சொல்கிறது என்பதை சுருக்கமாகக் கூறுகிறேன்
'FastAI'இல் பயன்பாடுகளாக நான்கு முக்கிய பகுதிகள் உள்ளன
கணினி பார்வை, உரை, அட்டவணை மற்றும் பரிந்துரை அமைப்பு.

Chinese: 
在本课程的第二部分
So in the second part of the course
我们将讨论实际应用
we're going to be talking about putting stuff in production
在那之前我们需要了解
and we're so to do that we need to understand like
深度学习的优点和局限性
what are the capabilities and limitations of deep learning
有哪些项目是值得
what are the kinds of projects that even makes sense
投入应用的
to try to put in production
在我们的课程上  关于这本书
and you know one of the key thing I should mention
我应该提到的关键一点是
in the book and in this course
就在前两到三节课  书的章节里
is that the first two or three lessons and chapters
有很多东西不是只为程序员设计的
there's a lot of stuff which is designed not just for the coders
也是为所有人设计的
but for everybody
这里有很多知识是关于
there's lots of information about like
让深度学习有效工作的实用技巧
what are the practical things you need to know to make deep learning work
其中你需要知道的是
and so one of things you need to know is like
深度学习目前真正擅长的是什么
well what's deep learning actually good at, at the moment
我会总结一下书上是怎么说的
So I'll summarize what the book says about this
有四个关键领域
but there are the kind of four key areas
我们将fast.ai应用其中
that we have as applications in fast.ai
计算机视觉  文本  表格
computer vision, text, tabular
还有我提到的Recsys这样的推荐系统
and what I've called here Recsys stands for recommendation systems

Spanish: 
vamos a hablar de poner cosas en producción.
Para ello, tenemos que entender como ¿cuáles son
las capacidades y limitaciones del
aprendizaje profundo? ¿Cuáles son los tipos de proyectos
que incluso tienen sentido para tratar de poner en producción?
Una de las cosas clave que debería mencionar en el libro
y en este curso es que el primer dos o tres lecciones
y capítulos, hay un montón de
cosas que están diseñadas no sólo para los programadores pero para
todo el mundo. Hay mucha información sobre
cuáles son las cosas prácticas que necesitas saber para hacer que el aprendizaje profundo funcione.
Una de ellas, las cosas que necesitas saber es
¿En qué es el aprendizaje profundolo realmente bueno en este momento?
Resumiré lo que el libro dice sobre esto,
hay cuatro áreas clave que tenemos como aplicaciones en fastai:
visión por computador, texto, tabular, y lo que he llamado aquí "Recsys", para sistemas de recomendación

English: 
So in in the second part of the course we're
going to be talking about putting stuff in
production and so to do that, we need to understand
like what are the capabilities and limitations
of deep learning?
What are the kinds of projects that even make
sense to try to put in production?
And you know one of the key things I should
mention in the book and in this course is
that the first two or three lessons and chapters,
there's a lot of stuff which is designed not
just for the coders but for, for everybody.
There's lots of information about, what are
the practical things you need to know to make
deep learning work.
And so one of them, things you need to know
is, “well what's deep learning actually
good at at the moment?”
So I'll summarize what the book says about
this, but there are the kind of four key areas
that we have as applications in Fastai: computer
vision, text, tabular, and what I've called

Japanese: 
このコースの第二部では、作成したモデルをどうプロダクションに載せるかについても話します。
ですので、深層学習の限界や能力について理解することも
必要になってきます。
例えば、どんなプロジェクトが本番環境に載せるのに適しているかといったことですね。
そして、このコースと本の中で言及すべき大事なことは、
最初の2〜3回もしくは章では、
コーダだけでなく、全ての人が対象の
内容、例えば深層学習を動かすのに必要なものも含まれています。
例えば、それらは、深層学習が現時点で得意とするものです。
ですから、本に書いてあることをまとめました。
4つの分野があります。
この分野はfastaiのapplicationモジュールにあるもので、

Tamil: 
குறிப்பாக,கடந்த வாரம் நாம் சுருக்கமாகக் கண்ட கூட்டு வடிகட்டுதல் எனப்படும் ஒரு நுட்பம்
மன்னிக்கவும், மற்றொரு கேள்வி மற்றும் ImageNet-லிருந்து தவிர வேறு ஏதேனும் முன் பயிற்சி பெற்ற எடைகள் கிடைக்குமா?
ஆம் எனில், நாம் எப்போது மற்றவர்களைப் பயன்படுத்த வேண்டும், எப்போது 'ImageNet' பயன்படுத்த வேண்டும்?
ஓ, இது ஒரு நல்ல கேள்வி
ஆம், முன் பயிற்சி பெற்ற மாதிரிகள் நிறைய உள்ளன
அவற்றைக் கண்டுபிடிக்க ஒரு வழி. நீங்கள் தற்போது உங்கள் படத்தை காட்டுகிறீர்கள்
இப்போது அவற்றைக் கண்டுபிடிக்க ஒரு சிறந்த வழி - 'Model Zoo' என்பதை தேடுவது
இது ஒரு இடத்திற்கான பொதுவான பெயர், அதில் பல்வேறு மாதிரிகள் உள்ளன.
எனவே இங்கே 'Model Zoo'-கல்  நிறைய உள்ளன. அல்லது நீங்கள் 'Pretrained Models' என தேடலாம்
எனவே, அவற்றில் சில உள்ளன. ஆனால் துரதிர்ஷ்டவசமாக
நான் விரும்பும் அளவுக்கு பரந்த அளவில் இல்லை,

Japanese: 
コンピュータビジョン、テキスト，テーブル、そして推薦システムのための協調フィルタリングです。
質問です。ImageNet以外の事前学習済みモデルで利用可能なものはありますか？
いつImageNet以外のものを使うべきかというのは良い質問です。
たくさんの事前学習済みモデルがあります。
いくつか探し方がありますが、良い探し方は、
つまり、最初に見るべきは、
model zooです。
これは多種多様なモデルがある場所で，
あなたが探しているもの、特に事前学習済みモデルなら
見つけられます。
たくさんありますが、ここには残念なことに、

Italian: 
 qui "Recsys", per sistemi di raccomandazione e nello specifico una tecnica chiamata collaborativa 
 filtraggio che abbiamo visto brevemente ... 
 Scusate un'altra domanda, sono disponibili pesi pre-addestrati diversi da quelli di 
 Imagenet che possiamo usare? 
 Se sì, quando dovremmo usare gli altri e quando Imagenet? 
 Oh, è davvero un'ottima domanda. 
 Quindi sì, ci sono molti modelli pre-addestrati e un modo per trovarli .. 
 E inoltre ci stai solo mostrando .. 
 Ok fantastico. 
 Un ottimo modo per trovarli è cercare modelli di zoo che è un nome comune per i luoghi 
 che hanno molti modelli diversi. 
 E quindi ecco un sacco di modelli di zoo. 
 Oppure puoi cercare modelli pre-addestrati. 
 E quindi sì, ce ne sono un bel po ', sfortunatamente non così ampia come vorrei 

English: 
here “Recsys”, for recommendation systems
and specifically a technique called collaborative
filtering which we briefly saw...
Sorry another question, are there any pre-trained
weights available other than the ones from
Imagenet that we can use?
If yes, when should we use others and when
Imagenet?
Oh that's a really great question.
So yes there are a lot of pre-trained models,
and one way to find them..
And also you're currently just showing us..
Ok great.
One great way to find them is you can look
up models zoo which is a common name for places
that have lots of different models.
And so here's lots of models zoos.
Or you can look for pre-trained models.
And so yeah, there's quite a few, unfortunately
not as wide a variety as I would like that

Chinese: 
具体来说  是一种叫做协同过滤的技术
and specifically a technique called collaborative filtering
上周我们简单地了解了一下
which we briefly saw last week
(Rachel)不好意思  还有个问题
(Rachel)Sorry another question
除了那些Imagenet训练来的权重参数
is "are there any pre-trained weights available
还有其他的预训练权重参数可供使用吗
other than the ones from Imagenet that we can use?
如果有的话  可以将其用在Imagenet上吗
if yes when should we use others in one Imagenet?"
这是个很好的问题
Oh that's a really great question
是的  有很多预训练模型
So yes there are a lot of pre-trained models
找到它们的一种方法是
and one way to find them
(Rachel)来演示给大家看一下吧
(Rachel)and also you're currently just showing that
(Jeremy)嗯我在切换页面  (Rachel)好的
(Jeremy)Yeah I've been switching that (Rachel)Okay great
寻找预训练模型的一个好办法是  搜索Model Zoo
then one great way to find them is you can look up Model Zoo
这是一类网站的通称
which is a common name for like places
这些网站上有很多不同的模型
that have lots of different models
这里可以看到很多model zoo
and so here's lots of model zoos
或者你可以搜索  预训练模型
or you can look for pre-trained models
这儿有不少
and so yeah there's quite a few
但没有我们想的那么多
unfortunately not as wide a variety as I would like

Spanish: 
y específicamente una técnica llamada filtrado colaborativo que vimos brevemente la semana pasada.
Perdón otra pregunta,
"¿Hay otros pesos pre-entrenados disponibles además de los de Imagenet que podamos usar?
Si es así, ¿cuándo deberíamos usar otros y cuándo Imagenet?"
Esa es una gran pregunta.
Sí, hay un montón de modelos pre-entrenados.
Una forma de encontrarlos
(Y además, actualmente nos estás mostrando... Sí, estoy cambiandolo. OK)
Una gran manera de encontrarlas es buscar 'Model Zoo',
que es un nombre común para los lugares que tienen muchos modelos diferentes.
Aquí hay muchos 'Model Zoos'.
O puedes buscar modelos pre-entrenados.
Sí, hay bastantes, desafortunadamente
no tan variados como me gustaría.

Italian: 
 la maggior parte è ancora su Imagenet o simili foto generali. 
 Ad esempio, le immagini mediche non ce ne sono quasi. 
 Ci sono molte opportunità per le persone di creare modelli pre-addestrati specifici del dominio 
 è ancora un settore che è molto poco approfondito perché non ci sono abbastanza persone che lavorano al trasferimento 
 apprendimento. 
 Ok, quindi mentre stavo menzionando, abbiamo queste quattro applicazioni di cui abbiamo parlato 
 un po 'e l'apprendimento profondo è carino, sai, abbastanza bravo con tutti quei tabulari 
 dati come fogli di calcolo e tabelle di database sono un'area in cui il deep learning non è sempre presente 
 la scelta migliore ma è particolarmente utile per cose che coinvolgono variabili di cardinalità elevata, 
 ciò significa variabili che hanno tanti e tanti livelli discreti come il codice postale o il prodotto 
 ID o qualcosa del genere. 

Chinese: 
其中大部分仍在Imagenet
that most is still on Imagenet
或类似的普通照片上
or similar kinds of general photos
医学成像领域的图片  几乎没有
for example Medical Imaging there's hardly any
人们有很多机会  去建立特定领域的预训练模型
there's a lot of opportunities for people to create domain-specific pre-trained models
这仍然是一个很不成熟的领域
it's still an area that's really underdone
因为研究迁移学习的人还不够多
because not enough people are working on transfer learning
正如我提到的
Okay so as I was mentioning
之前我们讨论过的这四个应用
we've kind of got these four applications that we've talked about a bit
是深度学习非常擅长的
and deep learning is pretty you know pretty good at all of those
表格数据  如电子表格和数据库表
tabular data like spreadsheets and database tables
一般不是深度学习非常擅长的
is an area where deep learning is not always the best choice
但它特别适合于
but it's particularly good for things
涉及到高基数变量的情况
involving high cardinality variables
这意味着变量有很多离散层
that means variables that have like lots and lots of discrete levels
比如邮政编码  产品ID等等
like zip code or product ID or something like that
深度学习非常擅长这些
deep learning is really pretty great for those in particular

Spanish: 
La mayoría esté todavía en Imagenet
o en tipos similares de fotos generales.
Por ejemplo, las imágenes médicas apenas existen.
Hay muchas oportunidades para que la gente cree modelos pre-entrenados específicos de un dominio.
Es un área que todavía está poco desarrollada
porque no hay suficiente gente trabajando en la transferencia de aprendizaje.
Como mencioné, tenemos estas
cuatro aplicaciones de las que hablamos un poco.
El aprendizaje profundo es bastante bueno en todos.
Datos tabulares como hojas de cálculo y tablas de bases de datos
es un área donde el aprendizaje profundo no siempre es
la mejor opción, pero es particularmente bueno para
las cosas que implican variables de alta cardinalidad.
Eso significa variables que tienen como montones y montones de niveles discretos como
el código postal o la identificación del producto o algo así.
El aprendizaje profundo es realmente muy bueno para aquellos en particular.

Tamil: 
பெரும்பாலானவை இன்னும் 'ImageNet' அல்லது இதே போன்ற பொதுவான புகைப்படங்களின் அடிப்படையில் உள்ளன
எடுத்துக்காட்டாக மருத்துவ படங்கள் எந்த முன் பயிற்சி பெற்ற மாதிரிகள் இல்லை
குறிப்பிட்ட-களத்திற்கு முன் பயிற்சி பெற்ற மாதிரிகளை உருவாக்க மக்களுக்கு நிறைய வாய்ப்புகள் உள்ளன,
பரிமாற்றக் கற்றலில் போதுமான மக்கள் வேலை செய்யாததால், இது இன்னும் அதிகம் பார்க்கப்படாத  ஒரு பகுதி
சரி, நான் குறிப்பிட்டதுபோல, நம்மிடம் நான்கு பயன்பாடுகள் உள்ளன
அதைப்பற்றி நாம் சிறிது பேசினோம்
ஆழ்ந்த கற்றல் அந்த எல்லாவற்றிலும் மிகவும் நன்றாக செயல்படுகிறது
விரிதாள் மற்றும் தரவுத்தள அட்டவணைகள் போன்ற அட்டவணை தரவில், ஆழ்ந்த கற்றல் எப்போதும் சிறந்த தேர்வாக இருந்ததில்லை
ஆனால் உயர் எண்ணளவை மாறிகள் சம்பந்தப்பட்ட விஷயங்களுக்கு இது மிகவும் நல்லது
அதாவது பல தனித்துவமான நிலைகளைக் கொண்ட மாறிகள். எடுத்துக்காட்டாக, பின்கோட்
தயாரிப்பு அடையாளங்காட்டல் அல்லது அது போன்ற ஏதாவது
குறிப்பாக  அது போன்றதற்கு, ஆழ்ந்த கற்றல் மிகவும் நன்றாக செயல்படுகிறது

English: 
most is still on Imagenet or similar kinds
of general photos.
For example medical imaging there's hardly
any.
There's a lot of opportunities for people
to create domain-specific pre-trained models
it's it's still an area that's really underdone
because not enough people are working on transfer
learning.
Okay, so as I was mentioning we've kind of
got these four applications that we've talked
about a bit and deep learning is pretty, you
know, pretty good at all of those tabular
data like spreadsheets and database tables
is an area where deep learning is not always
the best choice but it's particularly good
for things involving high cardinality variables,
that means variables that have like lots and
lots of discrete levels like zip code or product
ID or something like that.

Japanese: 
それほど多様ではなく、多くはImageNetやそれに類似したもので
医用画像のものはほとんどありませんね。
ドメイン固有の事前学習済みモデルを作る機会は多くあると思いますが、
十分多くの人が転移学習に取り組んでいるようではないのですね。
さて，4つのアプリケーションがあると話しました、そして、
深層学習はこれら全てにおいて非常に優れていますが、
スプレッドシートやデータベースのテーブルにおいては深層学習が最善とは限りません。
しかし、深層学習は高濃度変数が含まれる場合に有効です。
高濃度とは、郵便番号やプロダクトIDのように非常に多くのカテゴリ
をもつ変数のことです。
深層学習はそれを除けば大変素晴らしく、例えば

Chinese: 
对于文本数据  它非常擅长分类和翻译
for text it's pretty great at things like classification and translation
但在交流对话上表现很差
it's actually terrible for conversation
所以这是它
so that's been something
让很多公司失望的地方
that's been a huge disappointment for a lot of companies
因为这些公司想做聊天机器人
that tried to create these like conversation bots
但实际上  深度学习并不擅长
but actually deep learning isn't good at
提供准确的信息
providing accurate information
它擅长提供
it's good at providing things
那些听起来准确和令人信服的东西
that sound accurate and sound compelling
但是我们没有很好的方法
but that we don't really have great ways
来确保它是正确的
yet of actually making sure it's correct
推荐系统  协同过滤的一大问题是
One big issue for recommendation systems collaborative filtering
深度学习虽然专注于预测
is that deep learning is focused on making predictions
但这并不意味着
which don't necessarily actually mean
它会提供有用的建议
creating useful recommendations
我们马上就会知道这是什么意思
We'll see what that means in a moment
深度学习还擅长多模式学习
Deep learning is also good at multi-modal
这意味着你有
that means things where you've got
多种不同类型的数据
multiple different types of data
你可能有一些表格数据
so you might have some tabular data

Spanish: 
Para el texto es bastante bueno en cosas como la clasificación y la traducción.
En realidad es terrible para la conversación.
Eso es algo que ha sido una gran decepción para muchas empresas.
Intenté crear estos robots de conversación,
pero en realidad el aprendizaje profundo no es bueno
para proporcionar información precisa,
Es bueno para proporcionar cosas que suenan precisas y convincentes,
pero todavía no tenemos grandes maneras de asegurarnos de que son correctas.
Un gran problema para los sistemas de recomendación -
el filtrado colaborativo - es que
el aprendizaje profundo se centra en hacer predicciones
que no necesariamente significan crear
recomendaciones útiles. Veremos lo que eso significa en un momento.
El aprendizaje profundo también es bueno en lo multimodal,
Es decir, en cosas en las que se tienen múltiples tipos de datos diferentes,

Tamil: 
உரையைப் பொறுத்தவரை வகைப்பாடு மற்றும் மொழிபெயர்ப்பு போன்ற விஷயங்களில் இது மிகவும் சிறந்தது
இது உண்மையில் உரையாடலுக்கு மிக மோசமானது.
அதனால் அது நிறைய நிறுவனங்களுக்கு பெரும் ஏமாற்றமாக இருந்தது.
அவை உரையாடல் தானியங்கிகளை உருவாக்க முயற்சித்தது
ஆனால் உண்மையில் ஆழ்ந்த கற்றல் துல்லியமான தகவல்களை வழங்குவதில் சிறந்ததல்ல
துல்லியமான மற்றும் கட்டாயமாக உணரும் விஷயங்களை வழங்குவதில் இது நல்லது, ஆனால்
அது சரியானது என்பதை உறுதிப்படுத்த இன்னும் சிறந்த வழிகள் நம்மிடம் இல்லை
பரிந்துரை அமைப்புகள் அல்லது கூட்டு வடிகட்டலுக்கான ஒரு பெரிய பிரச்சினை என்னவென்றால்
ஆழமான கற்றல் கணிப்புகளைச் செய்வதில் கவனம் செலுத்துகிறது
இது உண்மையில் பயனுள்ள பரிந்துரைகளை உருவாக்குகிறது என்று அர்த்தமல்ல.
இதன் அர்த்தம் என்ன என்பதை ஒரு கணத்தில் பார்ப்போம்
பல-முகட்டு தரவிலும் ஆழமான கற்றல் நல்லது
அதாவது பல வகையான தரவுகளை நீங்கள் பெற்றுள்ளீர்கள்,

Japanese: 
自然言語処理においては、分類や翻訳で良いパフォーマンスを発揮しています。
しかし、会話は苦手ですし、このことは多くの企業をがっかりさせてきました。
以前、作ろうとしたこともありますが、
深層学習は会話において、
正確な情報を提供するのが苦手なのです。
でもそれっぽく聞こえるものを返すのは得意です。
しかし、返答の正確性を正しいことを確認する方法がありません。
また、推薦システムにおける問題点の一つは
真相学習は予測に注力していることで、
予測というのは必ずしも良い推薦をすることを意味しません。すぐにどういうことか確認します。
深層学習はまた、マルチモーダルも得意です。
マルチモーダルとは、

Italian: 
 L'apprendimento profondo è davvero fantastico per quelli in particolare. 
 Per il testo è molto utile per cose come la classificazione e la traduzione. 
 In realtà è terribile per la conversazione e quindi è stato qualcosa che è stato 
 una grande delusione per molte aziende, ho provato a creare queste conversazioni simili 
 bot, ma in realtà il deep learning non è bravo a fornire informazioni accurate, è buono 
 nel fornire cose che suonano accurate e convincenti ma che in realtà non sono 
 hanno ancora ottimi modi per assicurarsi che sia corretto. 
 Un grosso problema per il filtraggio collaborativo dei sistemi di raccomandazione è che il deep learning è focalizzato 
 fare previsioni che non significano necessariamente creare raccomandazioni utili. 
 Vedremo cosa significa tra un attimo. 
 L'apprendimento profondo è utile anche nel multimodale, il che significa cose in cui hai più cose diverse 

English: 
Deep learning is really pretty great for those
in particular.
For text it's pretty great at things like
classification and translation.
It's actually terrible for conversation and
so that's that's been something that's been
a huge disappointment for a lot of companies
I tried to create these like conversation
bots, but actually deep learning isn't good
at providing accurate information it's good
at providing things that sound accurate and
sound compelling but that we don't really
have great ways yet of actually making sure
it's correct.
One big issue for recommendation systems collaborative
filtering is that deep learning is focused
on making predictions which don't necessarily
actually mean creating useful recommendations.
We'll see what that means in a moment.
Deep learning is also good at multimodal that
means things where you've got multiple different

Spanish: 
por lo que se pueden tener algunos datos tabulares, incluyendo una columna de texto y una imagen
y luego algunos datos de filtrado en colaboración.
La combinación de todos ellos es algo en lo que el aprendizaje profundo es realmente bueno.
Por ejemplo, poner pies de foto
es algo en lo que el aprendizaje profundo es bastante bueno, aunque
de nuevo, no es muy bueno para ser preciso.
Podría decir que es una foto de dos pájaros cuando en realidad es una foto de tres pájaros.
Luego en esta 'otra' categoría
hay montones y montones de cosas
que puedes hacer con el aprendizaje profundo siendo creativo
sobre el uso de este tipo de otros
enfoques basados en aplicaciones, por ejemplo un enfoque
que desarrollamos para el procesamiento del lenguaje natural
llamado ULMFit que aprenderemos en el curso.
Resulta que también es fantástico
haciendo análisis de proteínas. Si piensas en las diferentes proteínas
como si fueran palabras diferentes

Chinese: 
包括文本列和图像
including a text column and an image
然后是一些协同过滤数据
and some collaborative filtering data
把它们结合起来
and combining that all together
就是深度学习真正擅长的
is something that deep learning is really good at
比如
So for example
给照片标说明
putting captions on photos
就是深度学习所擅长的
is something which deep learning is pretty good at
尽管它表达得不够准确
although again it's not very good at being accurate
比如它说一张照片里有两只鸟
so, you know, might say this is a picture of two birds
但实际上有三只鸟
when it's actually a picture of three birds
还有这个”其他“种类
and then this Other category
这里有很多事情可以通过深度学习做到
there's lots and lots of things that you can do with deep learning
通过创造性地使用这些基础应用方法
by being creative about the use of these kinds of other application based approaches
比如我们之前开发了一种方法
For example an approach that we developed
用来做自然语言处理  叫ULMFiT
for natural language processing called ULMFiT
这些你都会在这门课程上学到
they're all you're learning in the course
事实证明  深度学习做蛋白质分析也是很棒的
it turns out that it's also fantastic you could do protein analysis
如果你把不同的蛋白质看做不同的单词
if you think of the different proteins as being different words
它们在一个
and they're in a sequence

Italian: 
 tipi di dati quindi potresti avere alcuni dati tabulari tra cui una colonna di testo e un'immagine, 
 poi un po 'di filtraggio collaborativo dei dati e combinarli tutti insieme è qualcosa che 
 il deep learning è davvero bravo. 
 Quindi, ad esempio, inserire didascalie sulle foto è qualcosa che l'apprendimento profondo è carino 
 bravo in, anche se ancora una volta, non è molto bravo ad essere accurato. 
 Quindi quello che sai potrebbe dire che questa è una foto di due uccelli quando in realtà è un'immagine 
 di tre uccelli e poi quest'altra categoria ci sono tante, tante cose che puoi 
 fare con l'apprendimento profondo essendo creativi sull'uso di questo tipo di altre applicazioni 
 approcci basati, ad esempio un approccio che abbiamo sviluppato per l'elaborazione del linguaggio naturale 
 chiamato ULMFit che impareremo durante il corso. 
 Si scopre che è anche fantastico che tu stia facendo analisi delle proteine. 
 Se pensi alle diverse proteine ​​come parole diverse e sono in una sequenza 

English: 
types of data so you might have some tabular
data including a text column and an image,
then some collaborative filtering data and
combining that all together is something that
deep learning is really good at.
So for example putting captions on photos
is something which deep learning is pretty
good at, although again, it's not very good
at being accurate.
So what you know might say this is a picture
of two birds when it's actually a picture
of three birds and then this other category
there's lots and lots of things that you can
do with deep learning by being creative about
the use of these kinds of other application
based approaches, for example an approach
that we developed for natural language processing
called ULMFit that we will be learning in
the course.
It turns out that it's also fantastic you're
doing protein analysis.
If you think of the different proteins as
being different words and they're in a sequence

Japanese: 
数種類のデータを入力とするものです。例えば、テキストとの列を含むテーブルデータと画像、
そして、協調フィルタリングのデータ、
の組み合わせからなるデータなどが深層学習が得意とするものです。
例えば、
写真のキャプション生成は深層学習が大変得意としているものですが、
正確であるというのは不得意です。
ですから、実際には3羽の鳥が映っている写真に対して2羽の鳥であると言うといったものです。
そして、
他にも、
深層学習でできる想像的なことは沢山ありますし
Application based approaches for example an approach that we developed for natural language processing called you LM fit
これらはどれもコースで説明します。
例えば、タンパク質分析も素晴らしいです。もし、様々なタンパク質を異なる単語ととらえれば、

Tamil: 
எனவே உரை நெடுவரிசை மற்றும் படம் உள்ளிட்ட சில அட்டவணை தரவுகளை நீங்கள் கொண்டிருக்கலாம்
மற்றும் சில கூட்டு வடிகட்டுதல் தரவு
இவை அனைத்தையும் ஒன்றாக இணைப்பது ஆழ்ந்த கற்றல் மிகவும் நல்லது
உதாரணமாக
புகைப்படங்களில் தலைப்புகளை வைப்பது ஆழ்ந்த கற்றல் மிகவும் நல்லது.
இருப்பினும் இது துல்லியமாக இருப்பது இல்லை
உண்மையில் மூன்று பறவைகள் இருந்தாலும் இது இரண்டு பறவைகளின் படம் என்று சொல்லும்
பின்னர் இந்த மற்ற வகை
ஆழ்ந்த கற்றலுடன் நீங்கள் செய்யக்கூடிய நிறைய விஷயங்கள் நிறைய உள்ளன
இந்த வகையான பிற பயன்பாட்டு அடிப்படையிலான அணுகுமுறைகளைப் பயன்படுத்துவதில் ஆக்கப்பூர்வமாக இருக்கலாம்
எடுத்துக்காட்டாக,
ULMFit எனப்படும் இயற்கை மொழி செயலாக்கத்திற்கான அணுகுமுறையை நாங்கள் உருவாக்கியுள்ளோம்
வரவிருக்கும் பாடங்களில் நீங்கள் அதைப் பற்றி அறிந்து கொள்வீர்கள்
இது புரத பகுப்பாய்வு செய்வதற்கும் அருமையாக இருக்கிறது என்று தெரியவருகிறது.
வெவ்வேறு புரதங்களை வெவ்வேறு சொற்களாக நீங்கள் நினைத்தால்

English: 
which has some kind of state and meaning it
turns out that ULMFit works really well for
protein analysis.
So often it's about kind of being being creative.
So to decide like for the product that you're
trying to build is deep learning gonna work
well for it, in the end you kind of just have
to try it and see but if you if you do a search
you know hopefully you can find examples about
the people that have tried something similar
even if you can't that doesn't mean it's not
going to work.
So for example I mentioned the collaborative
filtering issue where a recommendation and
a prediction are not necessarily the same
thing.
You can see this on Amazon for example quite
often.
So I bought a Terry Pratchett book and then
Amazon tried for months to get me to buy more
Terry Pratchett books.
Now that must be because their predictive
model said that people who bought one particular

Spanish: 
y están en una secuencia que tiene algún tipo de estado y significado,
resulta que ULMFit funciona muy bien para el análisis de proteínas.
A menudo se trata de ser creativo.
Para decidir
para el producto que estás tratando de construir es un aprendizaje profundo que va a funcionar bien para él.
Al final sólo tienes que probarlo y ver
Si haces una búsqueda con suerte puedes encontrar ejemplos de
personas que han intentado algo similar, incluso si
no puedes, eso no significa que no vaya a funcionar.
Por ejemplo mencioné el tema del filtrado colaborativo
en el que una recomendación y una predicción no son
necesariamente lo mismo. Puedes ver esto en
Amazon, por ejemplo, bastante a menudo.
Así que compré un libro de Terry Pratchett y luego
Amazon intentó durante meses que comprara más libros de Terry Pratchett.
Eso debe ser porque
su modelo de predicción decía que la gente que compraba
un libro de Terry Pratchett en particular es probable que también

Chinese: 
有某种状态和意义的序列中
which has some kind of state and meaning
事实证明  ULMFiT在蛋白质分析方面非常有效
it turns out that ULMFiT works really well for protein analysis
所以它通常具有创造力
so often it's about kind of being creative
对于你想要创造的产品来说
so to decide like..for the product that you're trying to build
深度学习是否有用是非常具有决定性的
is deep learning going to work well for it
最后  你只要试一下就知道了
in the end you kind of just have to try it and see
但是如果你搜索一下
but if you do a search you know
你可能找到一些例子
hopefully you can find examples
是人们做过相似的
about the people that have tried something similar
即使你不会做
even if you can't
这并不意味着它不会起作用
that doesn't mean it's not going to work
例如  我之前提到了协同过滤的问题
so for example I mentioned the collaborative filtering issue
推荐和预测
where a recommendation and a prediction
不一定是一回事
are not necessarily the same thing
你可以经常在亚马逊上看到
you can see this on Amazon for example quite often
我买了一本Terry Pratchett的书
so I bought a Terry Pratchett book
然后亚马逊在下几个月的时间里
and then Amazon tried for months
让我多买Terry Pratchett的书
to get me to buy more Terry Pratchett books
这一定是因为他们的预测模型认为
now that must be because their predictive model said
那些买了Terry Pratchett某本书的人
that people who bought one particular Terry Pratchett book

Tamil: 
அவை ஒருவித நிலை மற்றும் பொருளைக் கொண்ட ஒரு வரிசையில் உள்ளன என்று புரிந்துகொண்டால்
புரத பகுப்பாய்விற்கு 'ULMFit' நன்றாக வேலை செய்கிறது. எனவே பெரும்பாலும் இது ஒரு வகையான படைப்பாற்றல் பற்றியது.
எனவே நீங்கள் உருவாக்க முயற்சிக்கும் தயாரிப்புக்கு ஆழ்ந்த கற்றல் செயல்படுமா என்பதை தீர்மானிக்க
இறுதியில் நீங்கள் அதை முயற்சி செய்து பார்க்க வேண்டும்
ஆனால் நீங்கள் ஒரு தேடலைச் செய்தால், இதேபோன்ற ஒன்றை முயற்சித்த நபர்களைப் பற்றிய உதாரணங்களை நீங்கள் காணலாம்
நீங்கள் கண்டுபிடிக்க முடியாவிட்டாலும், அது வேலை செய்யப் போவதில்லை என்று அர்த்தமல்ல
எனவே, எடுத்துக்காட்டாக,
ஒத்துழைப்பு வடிகட்டுதல் சிக்கலை நான் குறிப்பிட்டுள்ளேன், அங்கு ஒரு பரிந்துரையும் கணிப்பும் ஒன்றாக இருக்க அவசியமில்லை
அமேசானில் இதை நீங்கள் அடிக்கடி காணலாம்
நான் ஒரு டெர்ரி ப்ராட்செட் புத்தகத்தை வாங்கினேன்
பின்னர் பல மாதங்களாக அமேசான் என்னை மேலும் டெர்ரி ப்ராட்செட் புத்தகங்களை வாங்க வைக்க முயற்சித்தது
ஏனெனில், அவர்களின் முன்கணிப்பு மாதிரி இப்படி சொல்லியிருக்கும்

Italian: 
 che ha una sorta di stato e significato per cui risulta che ULMFit funziona davvero bene 
 analisi delle proteine. 
 Così spesso si tratta di essere creativi. 
 Quindi, decidere come per il prodotto che stai cercando di costruire è che l'apprendimento profondo funzionerà 
 bene per questo, alla fine devi solo provarlo e vedere, ma se fai una ricerca 
 sai, si spera che tu possa trovare esempi di persone che hanno provato qualcosa di simile 
 anche se non puoi, ciò non significa che non funzionerà. 
 Quindi, ad esempio, ho menzionato il problema del filtro collaborativo in cui una raccomandazione e 
 una previsione non è necessariamente la stessa cosa. 
 Puoi vederlo su Amazon, ad esempio, abbastanza spesso. 
 Così ho comprato un libro di Terry Pratchett e poi Amazon ha cercato per mesi di convincermi a comprarne di più 
 Libri di Terry Pratchett. 
 Ora deve essere perché il loro modello predittivo diceva che le persone che hanno acquistato un particolare 

Japanese: 
それらは列の中である種の状態や意味をもち、
ULMFitがタンパク質分析に使えることが分かったのです。
ですので、あなたが作ろうと思ったものに深層学習が使えるかもしれませんし、
実際に試してみるのも良いでしょう。
そして、検索してみれば、似たようなことに挑戦した人々を見つけられるかもしれません。
また、見つからないからうまく行かないと言うことではありません。
協調フィルタリングの弱点に言及しましたが、それは、推薦と予測は同じではないと言うことです。
この例はアマゾンで
よく起きています。私がTerry Pratchettの本を買った後、
アマゾンは数ヶ月に渡ってTerry Pratchettの本を推薦していましたが、

Chinese: 
也可能会买Terry Pratchett的其他书
are likely to also by other Terry Pratchett books
但是从类似于下面这样的角度考虑
but from the point of view of like
这会改变我的购买行为吗
will this gonna change my buying behavior
可能不会 是吧
probably not right
比如我喜欢那本书 我就已经知道了我喜欢那个作者
like if I liked that book I already know I like that author
那么我也就知道了
and I already know that like
他们可能会写其他的书籍
they probably wrote other things
那么我都会去买的
so I'll go and buy it anyway
那这就是一个例子
so this would be an example of like
说明了亚马逊在这方面可能没有那么智能
Amazon probably not being very smart up here
事实上 它在向我展示
they're actually showing me
协同过滤算法的预测
collaborative filtering predictions
而不是真的解决了如何在推荐上进行优化的问题
rather than actually figuring out how to optimize a recommendation
所以一个最优化的推荐系统应该是
so an optimized recommendation would be something
更像你们当地的人工售书所能做到的那样
more like your local human bookseller might do
他们可能会说 哦 你喜欢Terry Pratchett
where they might say oh you like Terry Pratchett
对了 我来告诉你其他的一些
well let me tell you about other kind of
喜剧科幻作者也有类似的文风或性情
comedy fantasy sci-fi writers on the similar vein
但是你之前或许从未听说过
who you might not have heard about before
所以推荐和预测之间的区别
so the difference between recommendations and predictions
是很重要的
is super important
接下来我想讲一下
so I wanted to talk about a really important issue
有关解释模型的重要的事情
around interpreting models
作为就此的一个学习案例
and for a case study for this

English: 
Terry Pratchett book are likely to also buy
a other Terry Pratchett books.
But from the point of view of like well is
this going to change my buying behavior: probably
not, right, like if I liked that book I already
know I like that author and I already know
that like they probably wrote other things
so I'll go and buy it anyway.
So this would be an example of like Amazon
probably not being very smart, up here they're
actually showing me collaborative filtering
predictions rather than actually figuring
out how to optimize a recommendation.
So an optimized recommendation would be something
more like your local human bookseller might
do, where they might say, “Oh! you like
Terry Pratchett, well let me tell you about
other kind of comedy fantasy sci-fi writers
on the similar vein who you might not have
heard about before”.
So the difference between recommendations
and predictions is super important.
So I wanted to talk about a really important
issue around interpreting models and for a

Spanish: 
compre otros libros de Terry Pratchett.
Pero desde el punto de vista de si esto va a cambiar
mi comportamiento de compra: probablemente no.
Si me gusto ese libro ya sé que me gusta ese autor
y ya sé que probablemente escribó otras cosas,
así que iré a comprarlo de todas formas. Este sería un ejemplo de que Amazon
probablemente no siendo muy inteligente,
aquí arriba me están mostrando predicciones de filtrado en colaboración
en lugar de averiguar cómo optimizar una recomendación.
Una recomendación optimizada sería algo más parecido
a lo que podría hacer tu librero humano local
donde podrían decir, "¡Oh! te gusta Terry Pratchett,
déjame contarte sobre otro tipo de escritores de comedia
fantástica de ciencia ficción en la misma línea
de los que quizás no hayas oído hablar antes".
La diferencia entre recomendaciones y predicciones es super importante.
Quería hablar de un tema
realmente importante sobre la interpretación de los modelos.
Para un caso de estudio para esto pensé

Italian: 
 È probabile che il libro di Terry Pratchett comprerà anche un altro libro di Terry Pratchett. 
 Ma dal punto di vista del like, questo cambierà il mio comportamento d'acquisto: probabilmente 
 no, giusto, come se quel libro mi piacesse lo so già quell'autore mi piace e lo so già 
 che probabilmente hanno scritto altre cose quindi andrò a comprarlo comunque. 
 Quindi questo sarebbe un esempio di come Amazon probabilmente non è molto intelligente, qui lo sono 
 effettivamente mostrandomi previsioni di filtraggio collaborativo piuttosto che calcolare effettivamente 
 come ottimizzare una raccomandazione. 
 Quindi una raccomandazione ottimizzata sarebbe qualcosa di più simile al tuo venditore di libri umano locale 
 fare, dove potrebbero dire: "Oh! ti piace Terry Pratchett, beh lascia che te lo dica 
 altri tipi di scrittori di fantascienza fantasy commedia sulla stessa linea che potresti non avere 
 sentito parlare prima ”. 
 Quindi la differenza tra raccomandazioni e previsioni è molto importante. 
 Quindi volevo parlare di una questione davvero importante sull'interpretazione dei modelli e per un 

Japanese: 
それはアマゾンの予測モデルがTerry Patcherの本を買った人はまた買うと言っているからでしょう。
しかし，推薦というのは購買行動を多少左右するべきでしょう？
おそらく、ある本が好きだったら、
私がその著者が好きで、その著者の別の本が好きであることも分かっているでしょう。
ですから、そういった本は買うでしょう。
これはアマゾンの例ですがあまり賢くないですね。単に私に
推薦システムの最適化を行うのではなく協調フィルタリングの予測結果をただ見せているだけなのです。
最適化された推薦システムというのは、どちらかというと最寄りの書店の
店員のように振舞うものでしょう。あなたはTerry Pratchettが好きなんですね、
なら、コメディ、ファンタジー、SFなどから同じようなテイストで聞いたことがないかもしれない本を教えましょう。
この推薦と予測の違いは大変重要です。
ですので、モデル解釈とこのような重要な問題について話したいのです。

Tamil: 
ஒரு குறிப்பிட்ட டெர்ரி பேட்சர் புத்தகத்தை வாங்கியவர்கள் மற்ற டெர்ரி ப்ராட்செட் புத்தகங்களாலும் வாங்கக்கூடும் என்று.
இது எனது வாங்கும் நடத்தையை மாற்றுமா? என்ற கண்ணோட்டத்தில் பார்தால்..
இல்லை, எனக்கு அந்த புத்தகம் பிடித்திருந்தால்,அந்த எழுத்தாளரை நான் விரும்புகிறேன் என்று எனக்கு
முன்பே தெரியும். அவர்களும் மற்ற விஷயங்களை எழுதினார்கள் என்பதும் எனக்கு முன்பே தெரியும்
எனவே நான் போய் எப்படியும் வாங்குவேன். எனவே இது ஒரு எடுத்துக்காட்டு, அமேசான்
இங்கே மிகவும் புத்திசாலித்தனமாக நடக்கவில்லை. ஒரு பரிந்துரையை எவ்வாறு மேம்படுத்துவது என்பதைக்
கண்டுபிடிப்பதை விட, கூட்டு வடிகட்டுதல் கணிப்புகளை அவர்கள் எனக்குக் காட்டுகிறார்கள்.
எனவே உகந்த பரிந்துரை என்பது, உங்கள் உள்ளூர் புத்தக விற்பனையாளர் சொல்வதைப் போன்றது.
"ஓ, நீங்கள் டெர்ரி ப்ராட்செட்டை விரும்புகிறீர்கள், சரி, இதேபோன்ற சிந்தனையின் பிற வகையான நகைச்சுவை
கற்பனை அறிவியல் புனைகதை எழுடிய நீங்கல் கெல்விப்படாத எழுத்தாளர்களைப் பற்றி நான் உங்களுக்குச் சொல்கிறேன்." என்று காட்ட வேண்டும்
எனவே பரிந்துரைகளுக்கும் கணிப்புகளுக்கும் இடையிலான வேறுபாடு மிக முக்கியமானது.
மாதிரிகளை புரிந்த்துகொல்வதில்   உள்ள ஒரு முக்கியமான சிக்கலைப் பற்றி பேச விரும்பினேன்

Italian: 
 caso di studio per questo Ho pensato che scegliamo qualcosa di veramente molto importante 
 in questo momento che è un modello in questo documento. 
 Una delle cose che proveremo a fare in questo corso è imparare a leggere i giornali. 
 Quindi ecco un documento che vorrei che tutti leggessero chiamato temperatura elevata 
 e l'umidità elevata riducono la trasmissione di COVID-19. 
 Questa è una questione molto importante perché se l'affermazione di questo articolo è vera, allora è così 
 significherebbe che questa sarà una malattia stagionale e se questa è una malattia stagionale 
 e avrà enormi implicazioni politiche. 
 Quindi proviamo a scoprire come questo è stato modellato e capire come interpretare questo modello. 
 Quindi questa è un'immagine chiave del giornale e quello che hanno fatto qui è che ne hanno scattata una 
 centinaia di città in Cina e hanno tracciato la temperatura su un asse, in gradi Celsius e 
 R sull'altro asse, dove R è una misura di trasmissibilità. 

Tamil: 
இதற்கான ஒரு வழக்கு ஆய்வுக்காக, இப்போது மிக முக்கியமான ஒன்றை இப்போது தேர்ந்தெடுப்போம் என்று நினைத்தேன்
அதாவது, இந்த கட்டுரையில் உள்ள ஒரு மாதிரி
இந்த பாடத்திட்டத்தில் நாம் முயற்சிக்கப் போகும் ஒரு விஷயம்...
கட்டுரைகளை எவ்வாறு படிக்க வேண்டும் என்பதைக் கற்றுக் கொள்வது
இங்கே ஒரு கட்டுரை உள்ளது, இது எல்லோரும் படிக்க வேண்டும் என்று  விரும்புகிறேன்
அதாவது, "அதிக வெப்பநிலை மற்றும் அதிக ஈரப்பதம் கோவிட்-19 இன் பரவலைக் குறைக்கிறது" என்னும் கட்டுரை.
இப்போது இது ஒரு மிக முக்கியமான பிரச்சினை
ஏனெனில் இந்த கட்டுரையின்  கூற்று உண்மை என்றால்
இது ஒரு பருவகால நோயாக இருக்கும் என்று அர்த்தம்.
இது ஒரு பருவகால நோயாக இருந்தால், அது பாரிய கொள்கை தாக்கங்களை ஏற்படுத்தும்
இது எவ்வாறு மாதிரியாக செய்யபட்டத்து என்பதைப் பார்ப்போம்
இந்த மாதிரியை எவ்வாறு விளக்குவது என்பதைப் புரிந்துகொள்வோம்
எனவே, இது கட்டுரையிலிருந்து ஒரு முக்கிய படம்.
அவர்கள் இங்கு செய்திருப்பது என்னவென்றால், அவர்கள் சீனாவில் நூறு நகரங்களை எடுத்துள்ளனர்
மேலும் அவர்கள் ஒரு அச்சில் வெப்பநிலையையும் (செல்சியஸில்) மற்ற அச்சில் R மதிப்பையும் வரைவித்துள்ளார்கள்
அங்கு R என்பது பரிமாற்றத்தின் அளவீடு ஆகும். இந்த நோய் உள்ள ஒவ்வொரு நபருக்கும்,

Japanese: 
ケーススタディとして、今非常に重要なことを取りあげましょう。
この論文におけるモデルはどちらでしょう？
このコースで挑戦することの1つは論文の読み方を学ぶことです。
というわけで、皆さんに読んでいただきたいのがこちらの論文です。
高温多湿がCOVID-19の感染を減少させるという論文で、これは非常に重要な問題です.
もしこの論文の主張が本当ならば、
これは季節性の病気であることを意味し、
もしこれが季節性の病気であれば、大規模な政策的な意味合いを持つことになります。
これがどのようにモデル化されたのかを調べて、このモデルをどのように解釈するかを理解しましょう。
これが
論文からの重要な図です。
彼らは中国の100の都市の気温を1つの軸に摂氏でプロットし

Chinese: 
我想 就让我们找一些当下比较重要的话题吧
I thought we let's pick something that's actually super important right now
是这篇论文里的一个模型
which is a model in this paper
我们要在这门课里尝试去做的一个事情
one of the things we're going to try and do in this course
是学习如何阅读文章或者论文
is learn how to read papers
这有一篇论文是我希望每个人去读的
so here is a paper which you I would love for everybody to read
题目叫做“高温度与高湿度降低了新冠状病毒肺炎的传播”
called High Temperature and High Humidity Reduce the Transmission of COVID-19
这是一个非常关键的问题 因为如果这篇论文里所称的是正确的
now this is a very important issue because if the claim of paper is true
那么这将意味着新冠肺炎将会成为一个季节病
then that would mean that this is gonna be a seasonal disease
如果新冠肺炎成为了季节病 这会产生巨大的政治影响
and if this is a seasonal disease it's gonna have massive policy implications
那么让我们一起看一下这个模型是如何建立起来的
emm so let's try and find out how this was modeled
然后去弄明白怎样解释或者诠释这个模型
and understand how to interpret this model
这是这篇论文里比较关键的一张图片
so this is a key picture from the paper
他们在这里所做的呢 是利用了中国的一百个城市
and what they've done here is they've taken a hundred cities in China
他们在x轴上用摄氏度呈现了这些城市的温度
and they've plotted the temperature on one axis in Celsius
在y轴上呈现R R是衡量传播性的一个估量
and R on the other axis where R is a measure of transmissibility

English: 
case study for this I thought we let's pick
something that's actually super important
right now which is a model in this paper.
One of the things we're going to try and do
in this course is learn how to read papers.
So here is a paper which you I would love
for everybody to read called high temperature
and high humidity reduce the transmission
of COVID-19.
Now this is a very important issue because
if the claim of this paper is true then that
would mean that this is going to be a seasonal
disease and if this is a seasonal disease
and it's going to have massive policy implications.
So let's try and find out how this was modeled
and understand how to interpret this model.
So this is a key picture from the paper and
what they've done here is they've taken a
hundred cities in China and they've plotted
the temperature on one axis, in Celsius, and
R on the other axis, where R is a measure
of transmissibility.

Spanish: 
que vamos a elegir algo que es súper importante en este momento,
que es un modelo en este documento.
Una de las cosas que vamos a intentar hacer en este curso es aprender a leer artículos.
Aquí hay un artículo que me encantaría que todos leyeran
llamado "La alta temperatura y la alta humedad reducen la transmisión de COVID-19".
Este es un tema muy importante porque
si la afirmación de este trabajo es cierta, entonces eso significaría
que esta será una enfermedad estacional y si es una
enfermedad estacional y tendrá enormes implicaciones políticas.
Vamos a tratar de averiguar cómo se modeló esto
y entender cómo interpretar este modelo.
Esta es una imagen clave del artículo.
Lo que han hecho aquí es que han tomado
un centenar de ciudades en China.
Han trazado la temperatura en un eje, en Celsius, y R
en el otro eje, donde R es una medida
de la transmisibilidad. Dice que por cada persona que tiene

Tamil: 
சராசரியாக
எத்தனை பேருக்கு தொற்று ஏற்படும் என்று
கூறுகிறது. R 1க்கு கீழ் இருந்தால் நோய் பரவாது. மாறாக
ஆர் 2 ஐ விட அதிகமாக இருந்தால் அது நம்பமுடியாத அளவிற்கு விரைவாக பரவப்போகிறது
ஆர்-இன் எந்த உயர் மதிப்பும் ஒரு அடுக்குக்குறி பரிமாற்ற தாக்கத்தை உருவாக்கப் போகிறது
இந்த வழக்கில் நீங்கள் காணலாம். அவர்கள் இங்கே ஒரு சிறந்த பொருத்தம்
வரியைத் வரைந்துள்ளனர்
ஒரு சூத்திரத்தின் அடிப்படையில் சில குறிப்பிட்ட உறவு இருப்பதாக அவர்கள் கூறியுள்ளனர்
ஆர் = (1.99 - 0.023) * வெப்பநிலை
அதனால்
இந்த படத்தை பார்த்தால் நமக்கு மிகவும் வெளிப்படையான கவலை வரும்.
இது சீரற்றதாக இருக்கலாம்.  எந்த உறவும் இல்லாமல் இருக்கலாம்,  ஆனால் நீங்கள் ஒரு நூறு நகரங்களை
சீரற்ற முறையில் தேர்ந்தெடுத்தால், அவை சில சமயங்களில் இந்த அளவிலான உறவைக் காட்டுகின்றன

Italian: 
 Per ogni persona che ha questa malattia si dice quante persone in media infetteranno. 
 Quindi, se R è inferiore a 1, la malattia non si diffonderà. 
 Se R è maggiore di 2, si diffonderà incredibilmente rapidamente. 
 Fondamentalmente R sta per, sai, qualsiasi R alto creerà una trasmissione esponenziale 
 impatto. 
 E puoi vedere in questo caso che hanno tracciato una linea di adattamento migliore qui. 
 Poi hanno affermato che esiste una relazione particolare in termini di formula 
 che R è 1,99 meno 0,023 volte la temperatura. 
 Quindi la preoccupazione molto ovvia che avrei guardando questa foto è che potrebbe essere solo 
 casuale, forse non c'è alcuna relazione, ma solo se scegliessi un centinaio di città a 

Spanish: 
esta enfermedad,
¿cuántas personas infectarán en promedio?
Así que si R es menor de 1, entonces la enfermedad no se propagará.
Si R es superior a 2 se va a propagar increíblemente rápido.
Básicamente cualquier R alta va a crear un impacto de transmisión exponencial.
Puedes ver que en este caso han trazado una línea de mejor ajuste aquí.
Luego han afirmado que hay una relación particular en términos de una fórmula
en la que R es 1,99 menos 0,023 veces la temperatura.
Así que la preocupación más obvia que tendría al ver esta imagen
es que esto podría ser sólo aleatorio, tal vez no hay ninguna relación en absoluto,
pero si eliges cien ciudades al azar
tal vez a veces muestran este nivel de relación.

Chinese: 
它表示的是 对于每一个被感染的人
it says for each person that has this disease
他们平均会传染给多少人
how many people on average will they infect
如果R的值小于1 那么这个疾病就不会传播开
so if R is under 1 then the disease will not spread
如果R大于 比如2的话 这个疾病就会扩散的特别快
is of R is higher than like 2 it's gonna spreading incredibly quickly
基本上 如你所知 R将会
basically R is going to you know
任何比较高的R值都会产生以指数传播开来的影响
any high R is gonna create an exponential transmission impact
在这个例子里 如你所见
and you can see in this case
他们在这里画了一条拟合线
they have plotted a best fit line through here
然后他们断定变量间存在一些特定的关系
emm and then they've made a claim that there're some particular relationship
可以用一个公式来表示
in terms of a formula that
R=1.99-0.023*Temperature
R is 1.99 minus 0.023 times temperature
观察这个图，我会有一个很明显的疑问
so emm a very obvious concern I would have looking at this picture
那就是 这个关系可能是随机的
is that emm this might just be random
可能变量之间根本就不存在任何关系
maybe there's no relationship at all
可能仅仅是你随机挑选了100个城市
but just if you picked a hundred cities at random
也许在有的情况下它们就会呈现出这样的关系
perhaps they will sometimes show this level of relationship

English: 
It says for each person that has this disease
how many people on average will they infect.
So if R is under 1, then the disease will
not spread.
If R is higher than like 2 it's going to spread
incredibly quickly.
Basically R is going to, you know, any high
R is going to create an exponential transmission
impact.
And you can see in this case they have plotted
a best fit line through here.
Then they've made a claim that there's some
particular relationship in terms of a formula
that R is 1.99 minus 0.023 times temperature.
So very obvious concern I would have looking
at this picture is that this might just be
random, maybe there's no relationship at all
but just if you picked a hundred cities at

Japanese: 
もう1つの軸にはRをプロットしました。 Rは感染性の尺度です。各人がこの病気に感染した場合
平均で何人を感染させるかを表しています。
つまり、Rが1以下であれば、この病気は広まりません。
もしＲが２より高ければ 信じられないほど早く広がります。
基本的に、Rが高くなると、指数関数的に感染が拡大します。
このケースでは、ここに最適な線をプロットしています。
そして、彼らは、
Rは1.99から0.023かける温度を引いたものであるという公式に基づいて、ある特定の関係があると主張しています。
ここで
この図を見ていて私が懸念しているのは、
これは単なるランダムなものかもしれない、もしかしたら全く関係がないのかもしれない、ということです。
100の都市をランダムに選ぶと、この程度の関係性を示すことがあるのかもしれません。

English: 
random perhaps they were sometimes show this
level of relationship.
So one simple way to kind of see that would
be to actually do it in a spreadsheet.
So here is a spreadsheet.
What I did was I kind of eyeballed this data
and I guessed what is the mean degrees centigrade.
I think it's about 5.
What about the standard deviation of centigrade.
I think it's probably about 5 as well.
And then I did the same thing for R. I think
the mean R looks like it's about 1.9 to me.
And it looks like the standard deviation of
R is probably about 0.5.
So what I then did was I just jumped over
here and I created a random normal value,
so a random value from a normal distribution,
so a bell curve, with that particular mean
and standard deviation of temperature and
that particular mean and standard deviation

Chinese: 
那有一种简单的方法去看它们之间的关系
so one simple way to kind of see that
是利用电子表格
would be to actually do it in a spreadsheet
这是一个电子表格
so here's here is a spreadsheet
我做的事情就是盯着这些数据看
where what I did was I kind of eyeball this data
然后我去猜测主要的温度是多少
and I guessed about what is the main degrees centigrade
我感觉大概是5
I think it's about five
然后摄氏温度的标准差是多少
and what's about the standard deviation of centigrade
我想大概也是5
think it's probably about five as well
然后我对于R做同样的事情
emm and then I did the same thing for R
我感觉对我来说 R的平均值大概在1.9
I think a mean R looks like it's about 1.9 to me
R的标准差看起来大概是0.5
and it looks like the standard deviation of R is probably about 0.5
那我接下来要做的就是移动到这里
so what I then did was I just jumped over here
我生成一个随机值
and I created a random normal value
一个服从正态分布的随机值
so a random value from a normal distribution
服从正态分布
from a normal distribution
所以是一个钟形曲线 有之前提到的温度的那个均值和标准差
so a bell curve with that particular mean and standard deviation of temperature
以及R的均值和标准差
and that particular mean and standard of R

Tamil: 
எனவே அதைப் பார்க்க ஒரு எளிய வழி, ஒரு விரிதாளில் செய்வது
அதனால்
இங்கே ஒரு விரிதாள் உள்ளது,
நான் இங்கு செய்தது - இந்த தரவை நான் கண்மூடித்தனமாகப் பார்த்தேன்,
இதில் முக்கிய டிகிரி சென்டிகிரேட் எது என்று யூகித்தேன்.
ஐந்து என்று நான் நினைக்கிறேன் .. சென்டிகிரேட்டின் நிலையான விலகல் என்ன?
நான் அநேகமாக ஐந்து என்று நினைக்கிறேன்
பின்னர் நான் அதையே ஆர்-இற்கு செய்தேன்.
முக்கியமான R 1.9 ஆக இருப்பதாகத் தோன்றுகிறது,
மேலும்  R இன் நிலையான விலகல் 0.5 ஆக இருக்கும் என்று தெரிகிறது
எனவே நான் என்ன செய்தேன் என்றால்
நான் இங்கு வந்து,
நான் ஒரு சீரற்ற இயல்பான மதிப்பை உருவாக்கினேன்,
எனவே ஒரு சாதாரண விநியோகத்திலிருந்து ஒரு சீரற்ற மதிப்பு.
ஒரு மணி வடிவ வளைகோடு
வெப்பநிலையின் சராசரி மற்றும் நிலையான விலகல்,
ஆர் இன் சராசரி மற்றும் நிலையான விலகல் உடையது
இந்த தரவு

Spanish: 
Una forma sencilla de verlo sería hacerlo en una hoja de cálculo.
Aquí está una hoja de cálculo.
Lo que hice fue observar estos datos
y adivinar cuál es el promedio de grados centígrados.
Creo que son unos 5.
¿Qué es la desviación estándar del grado centígrado. Creo que probablemente también es alrededor de 5.
Luego hice lo mismo para R.
Creo que la R media me parece que es alrededor de 1,9.
Y parece que la desviación estándar de R es probablemente alrededor de 0,5.
Entonces lo que hice fue saltar aquí y crear
un valor normal aleatorio,
un valor aleatorio de una distribución normal, una curva en forma de campana,
con esa media particular y la desviación estándar de la temperatura
y esa media particular y la desviación estándar de R.

Japanese: 
それを確かめる簡単な方法としては、実際にスプレッドシートを使ってみるという方法があります。
これがスプレッドシートです。 ここで私がやったのは、このデータを見て、平均気温が何度かを推測してみました。
約5度だと思います。 摂氏の標準偏差は？　たぶん同じように5くらいだと思います。
そして、Rについても同じことをしました。平均Rは私には
1.9くらいに見えます。 そして、Rの標準偏差はおそらく0.5くらいだと思います。
そこで、私はここにジャンプして、
ランダムな
正規値、つまり正規分布からのランダムな値を作成しました。
つまり温度の特定の平均と標準偏差とRの特定の平均と標準偏差の
ベルカーブです。 これは架空の

Italian: 
 a caso forse a volte mostravano questo livello di relazione. 
 Quindi un modo semplice per vedere che sarebbe farlo effettivamente in un foglio di calcolo. 
 Quindi ecco un foglio di calcolo. 
 Quello che ho fatto è stato di tenere d'occhio questi dati e ho indovinato quali sono i gradi centigradi medi. 
 Penso che siano circa 5. 
 E la deviazione standard dei gradi centigradi. 
 Penso che probabilmente siano anche 5. 
 E poi ho fatto la stessa cosa per R. Penso che la media R mi sembra che sia circa 1,9. 
 E sembra che la deviazione standard di R sia probabilmente di circa 0,5. 
 Quindi quello che ho fatto è stato semplicemente saltando qui e ho creato un valore normale casuale, 
 quindi un valore casuale da una distribuzione normale, quindi una curva a campana, con quella particolare media 
 e la deviazione standard della temperatura e quella particolare media e deviazione standard 

Chinese: 
那这可能就是来自于这个包含100个城市的数据集
and so this would be an example of a city
的一个城市的例子
that might be in this dataset of a hundred cities
温度是9摄氏度 R值为1.1的某个城市
something with 9 degrees Celsius and an R of 1.1
那么温度是9摄氏度 并且R是1.1
so that would be 9 degrees Celsius and R of 1.1
是位于这里的点
so something about here
那么我只要仿照这个公式100次
emm and so then I just copied that formula down 100 times
这里可能就会有100个来自中国的城市 对吗
so here are a hundred cities that could be in China, right
这是基于一个假设 那就是
where this is assuming that
温度和R之间不存在任何关系 对吧
there is no relationship between temperature and R, right
它们仅仅是随机的数字
they're just random numbers
那么我每重新计算一次
emm and so each time I recalculate that
如果我按control和等于键 它会重新计算 对吧
so if I hit control equals it will just recalculate it right
我得到不同的数字 因为它们是随机的
I get different numbers okay because they're random
所以你可以看到 在上面这里
and so you can see at the top here
我得到了所有的温度的平均值
I've then got the average of all of the temperatures
和所有的R的平均值
and the average of all of the Rs

English: 
of R. And so this would be an example of a
city that might be in this data set of a hundred
cities.
Something with 9 degrees Celsius and R of
1.1; so that would be 9 degrees Celsius and
R of 1.1, something about here.
So then I just copied that formula down 100
times.
So here are a hundred cities that could be
in China right, where this is assuming that
there is no relationship between temperature
and R right.
They are just random numbers and so each time
I recalculate that so if I hit control equals
it will just recalculate it right.
I get different numbers okay because they're
random.
And so you can see at the top here I've then
got the average of all of the temperatures

Spanish: 
Y este sería un ejemplo de una ciudad
que podría estar en este conjunto de datos de cien ciudades. Algo con 9 grados centígrado
y R de 1,1; así que serían 9 grados centígrados
y R de 1,1, algo por aquí.
Entonces copié esa fórmula 100 veces.
Aquí hay un centenar de ciudades
que podrían estar en China
donde esto es asumiendo que no hay relación
entre la temperatura y R.
Son sólo números aleatorios.
Cada vez que recalculo eso
Si le doy a "control igual", lo recalcula.
Obtengo diferentes números porque son aleatorios.
Como puedes ver en la parte superior, tengo el promedio de
todas las temperaturas y el promedio de todas las R

Tamil: 
ஒரு நகரத்தின் ஒரு எடுத்துக்காட்டு.
இந்த தரவுத் தொகுப்பில் உள்ள நூறு நகரங்களின்
வெட்பம் 9 டிகிரி செல்சியஸ் மற்றும் R மதிப்பு 1.1 ஆகும் ..
எனவே அது 9 டிகிரி செல்சியஸ்
மற்றும் R மதிப்பு 1.1 ஆக இருக்கும். எனவே அது இங்கே உள்ளது
அதனால் நான் அந்த சூத்திரத்தை
100 முறை நகலெடுத்தேன்
எனவே சீனாவில் இருக்கக்கூடிய நூறு நகரங்கள் இங்கே உள்ளன,
அங்கு வெப்பநிலைக்கும் R க்கும் இடையில் எந்த உறவும் இல்லை என்று கருதப்படுகிறது
அவை ஒரு சீரற்ற எண்கள்
மேலும்
எனவே ஒவ்வொரு முறையும் நான் அதைக் கணக்கிடுகிறேன்..
நான் "ctrl =" அழுத்தினால் அது மீண்டும் கணக்கிடும்
நான் வெவ்வேறு எண்களைப் பெறுகிறேன்
ஏனென்றால் அவை சீரற்றவை, எனவே நீங்கள் இங்கே மேலே காணலாம்
எல்லா வெப்பநிலைகளின் சராசரி
மற்றும் அனைத்து 'R'களின் சராசரியையும்

Japanese: 
100の都市の
データセットの中にあるかもしれない都市の例です。摂氏9度、Rが1.1の都市。
摂氏9度、Rが1.1で、このあたりになります。
だから、この式を100回
コピーしました。
ここに中国にあるかもしれない
100の都市がありますが、これは気温とRの間に
関係がないと仮定した、ただのランダムな数値です。
そして
だから再計算するたびに（コントロール・イコールを押すと再計算されます）
ランダムなので、違う数字が出てきます。
上の方には、
全温度の平均と
全Rの平均。全ての温度の

Italian: 
 di R. E quindi questo sarebbe un esempio di una città che potrebbe essere in questo set di dati di cento 
 città. 
 Qualcosa con 9 gradi Celsius e R di 1,1; quindi sarebbe 9 gradi Celsius e 
 R di 1.1, qualcosa qui. 
 Quindi ho semplicemente copiato quella formula 100 volte. 
 Quindi qui ci sono un centinaio di città che potrebbero essere proprio in Cina, dove questo presume 
 non esiste alcuna relazione tra temperatura e R a destra. 
 Sono solo numeri casuali e quindi ogni volta lo ricalcolo quindi se premo il controllo è uguale 
 lo ricalcolerà appena correttamente. 
 Ottengo numeri diversi perché sono casuali. 
 E così puoi vedere qui in alto che ho poi la media di tutte le temperature 

Chinese: 
所有温度的平均值...是不同的
and the average of all the temperatures emm...varies
所有R的平均值也是不同的
and the average of all of the Rs varies as well
接下来我做的就是 我把所有的随机数复制到这里
so then emm..I what I did was I copied those random numbers over here
让我们真实操作一下
let's actually do it
那么我复制这100个随机数值 然后粘贴到这里 这里 这里 这里
so I'll go copy these 100 random numbers and paste them here here here here
现在我得到了1 2 3 4 5 6
and so now I've got one two three four five six
我得到了6组100个城市 对吧
I've got 6 kind of groups of 100 cities all right
以防这些数字再随机变化
and so let's stop those from randomly changing anymore
我们把它们固定在这
by just fixing them in stone there
现在我已经把它们粘贴过来了
okay so now that I've pasted them in

Spanish: 
El promedio de todas las temperaturas
varía y el promedio de todas las R varía también.
Lo que hice fue copiar esos números aleatorios
hasta aquí.
Hagámoslo. Voy a copiar
estos 100 números aleatorios y pegarlos
aquí,
aquí,
aquí,
aquí. Ahora tengo
1, 2, 3, 4, 5, 6,
tengo 6 como grupos de 100 ciudades.
Paramos de cambiarlos al azar, fijándolos en piedra.

Tamil: 
நான் பெற்றுள்ளேன்.எல்லா வெப்பநிலைகளின் சராசரிகளும் மாறுபடும்
மற்றும் அனைத்து  R களின் சராசரிகளும் மாறுபடும். பிறகு,
அந்த சீரற்ற எண்களை இங்கே நகலெடுத்தேன்
இதை மறுபடியும் செய்வோம்,
எனவே நான் இந்த 100 சீரற்ற எண்களை நகலெடுத்து இங்கே
ஒட்டுகிறேன்
இங்கே இங்கே இங்கே. அதனால் இப்போது எனக்கு
1 2 3 4 5 6 கிடைத்துள்ளது..
100 நகரங்களில் 6 வகையான குழுக்கள் கிடைத்துள்ளன
சரி
இது தோராயமாக மாற்றுவதை நிலைப்படுத்தி தடுப்போம்

Italian: 
 e la media di tutte le R e la media di tutte le temperature varia e la media 
 anche di tutta la R varia. 
 Quindi quello che ho fatto è stato copiare quei numeri casuali qui. 
 facciamolo davvero. 
 Quindi copierò questi 100 numeri casuali e li incollerò qui qui qui qui. 
 E così ora ho 1 2 3 4 5 6 ho 6 tipi di gruppi di 100 città. 
 Va bene, quindi impediamo a quelli di cambiare ancora a caso semplicemente fissandoli nella pietra 
 Là. 

English: 
and the average of all of the R and the average
of all the temperatures varies and the average
of all of the R varies as well.
So then what I did was I copied those random
numbers over here.
let's actually do it.
So I'll go copy these 100 random numbers and
paste them here here here here.
And so now I've got 1 2 3 4 5 6 I've got 6
kind of groups of 100 cities.
All right and so let's stop those from randomly
changing any more by just fixing them in stone
there.

Japanese: 
平均値が変化し、Rも同様に変化します。そこで
私がしたのはこれらの乱数をここに
コピーしたことです。
実際にやってみましょう。100個の乱数をコピーして
ここと、
ここと、 ここと、 こことに貼り付けます。これで
1 2 3 4 5 6 100個の都市のグループが６つできました。
これでこれ以上
ランダムに変化しないように固定しておきます。

Spanish: 
Bien, ahora que los he pegado, tengo 6 ejemplos
de cómo se verían cien ciudades si no hubiera ninguna relación
entre la temperatura y R.
Tengo su temperatura media y R
en cada uno de esos seis ejemplos. Lo que he hecho,
es que puedes ver aquí, al menos para el primero, es que lo he trazado.
Puedes ver, en este caso, que en realidad hay
una ligera pendiente positiva.
He calculado
la pendiente
de cada uno, usando la función de pendiente en Microsoft Excel.
Puedes ver que en este caso en particular es aleatorio,
cinco veces ha sido negativo,
y es aún más negativo que su 0,023.
Es una especie de coincidencia con nuestra intuición aquí,
que es que la pendiente de la línea que tenemos aquí, es

Italian: 
 Ok, quindi ora che li ho incollati, ho 6 esempi di ciò che potrebbero fare cento città 
 sembra che non ci fosse alcuna relazione tra la temperatura e R. Ho la loro 
 temperatura media e R in ciascuno di questi sei esempi. 
 Quello che ho fatto, puoi vedere qui, almeno per il primo, l'ho tracciato, giusto? 
 Puoi vedere, in questo caso, in realtà c'è una leggera pendenza positiva. 
 In realtà ho calcolato la pendenza per ciascuno, semplicemente usando la funzione pendenza in Microsoft 
 Eccellere. 
 Puoi vedere che in realtà, in questo caso particolare, è solo casuale - cinque volte lo è stato 
 negativo, ed è ancora più negativo del loro 0,023. 
 Quindi ti può piacere, è un po 'abbinare la nostra intuizione qui, che è la pendenza di 

Chinese: 
我得到了100个城市大概是什么样子的六组例子
I've got six examples of what a hundred cities might look like
前提是如果温度和R之间没有任何关系
if there was no relationship at all between temperature and R
同时我也得到了这六组例子里面相对应的温度和R的平均值
and I've got their mean temperature and R in each of those six examples
我所做的 至少对于第一组 你可以看到
and what I have done is you can see here at least for the first one
我把它们画出来了
is I've plotted it out
在这个例子下 你会看到
okay and you can see in this case
实际上这里有一个轻微的正的斜率
there's actually a slight positive slope
事实上 我已经计算出了每一组的斜率
and I've actually calculated the slope for each
就是通过Microsoft Excel的斜率公式
just by using the slope function in Microsoft Excel
实际上 你可以发现
and you can see that actually
在这个特定的例子里 它们都是随机的
in this particular case it's just random
有五次都是负的值
five times it's been negative
甚至比论文里面的-0.023还要小
and it's even more negative than their 0.023
所以你可以发现这和我们最初的直觉是一致的
emm and so you can like it's kind of matching our intuition here
那就是在这的这条拟合线的斜率
which is that the slope of the line that we have here

Tamil: 
எனவே இப்போது நான் அவற்றை ஒட்டியுள்ளதால், என்னிடம்
நூறு நகரங்கள் எப்படி இருக்கும் என்பதற்கு 6 எடுத்துக்காட்டுகள் கிடைத்துள்ளன
அதில் வெப்பநிலைக்கும் R க்கும் இடையில் எந்த உறவும் இல்லாதது போல இருக்கும்
அந்த ஆறு எடுத்துக்காட்டுகளில் ஒவ்வொன்றிலும் அவற்றின் சராசரி வெப்பநிலை மற்றும் R கிடைத்துள்ளன
நான் என்ன செய்தேன் என்றால்
முதல் ஒன்றை இங்கே நீங்கள் காணலாம், நான் அதை வரைவித்துள்ளேன்
சரி, இந்த விஷயத்தில் நீங்கள் பார்க்கலாம். உண்மையில் ஒரு
சிறிய நேர்மறை சாய்வு உள்ளது
நான் உண்மையில்
ஒவ்வொன்றிற்கான சாய்வையும்
விரிதாளில், சாய்வு செயல்பாட்டைப் பயன்படுத்துவதன் மூலம்கணக்கிடுகிறேன்.
உண்மையில் பார்த்தால்
இந்த குறிப்பிட்ட வழக்கில் சீரற்றதாக இருக்கிறது
ஐந்து முறையும் எதிர்மறையாக இருப்பதை நீங்கள் காணலாம்.
இது அவர்களின் 0.023 ஐ விட
எதிர்மறையானது
இது இங்கே எங்கள் உள்ளுணர்வுடன் பொருந்துகிறது
இது இங்கே நம்மிடம் இருக்கும் வரியின் சாய்வு என்பது

English: 
Okay, so now that I've pasted them in, I've
got 6 examples of what a hundred cities might
look like if there was no relationship at
all between temperature and R. I've got their
mean temperature and R in each of those six
examples.
What I've done, is you can see here, at least
for the first one, is I've plotted it, right?
You can see, in this case, there's actually
a slight positive slope.
I've actually calculated the slope for each,
just by using the slope function in Microsoft
Excel.
You can see that actually, in this particular
case, is just random - five times it's been
negative, and it's even more negative than
their 0.023.
So you can like, it's kind of matching our
intuition here, which is that the slope of

Japanese: 
さて、これで貼り付けました。
気温とRの関係が全くないとしたら、100の都市はどのようになるのか、6つの例が出てきました。
これら6つの例の平均温度とRはここにあります。
私がした事は、これを見て下さい、最初の例をプロットしました。
この場合、実際には
若干、プラスの傾きがあります。
私は実際に、
それぞれの傾きを
Microsoft Excelの傾き関数を使って計算しました。見ての通り、
この特定のケースでは、 ただランダムであることがわかります。
5回は
負の値を示しています。そして、それは彼らの
0.023よりもさらに負の値を示しています。
このように、私たちの直感と一致しています。
つまり、この線の傾きは、完全に

Chinese: 
是完全可能偶然产生的
is something that absolutely can often happen totally by chance
它似乎并不能表明
it doesn't seem to be indicating
这里存在着任何关系
any kind of real relationship at all
如果我们想让这个斜率 怎么讲 更有说服力
emm if we wanna that slope to be like more confident
我们需要观察更多的城市
we would need to look at more cities
比如在这里 我得到了3,000个随机生成的数
so like here I've got 3,000 randomly generated numbers
可以看到这个斜率是 0.0002
and you can see here the slope is 0.0002, right
几乎接近于零
it's almost exactly zero
（这个数字）正是我们预期的
which is what we'd expect, right
表示 C 和 R 无关
when there's actually no relationship between C and R
这个例子中  它们不相关  都是随机的
and in this case, there isn't, they're all random
如果观察足够多的随机数据
then if we look at lots and lots of randomly generated cities
我们会说  没错  确实没有斜率
then we can say oh yeah there's there's no slope
如果我们只观察 100 个结果
but when you only look at a hundred
比如这里
as we did here
我们会发现
you're going to see relationships
纯属巧合的相关性  出现地非常非常频繁
totally coincidentally very very often, all right
这类关系就需要我们量化
so that's something that we need to be able to measure

Spanish: 
algo que absolutamente a menudo puede suceder totalmente por casualidad.
No parece estar indicando ningún tipo de relación real en absoluto.
Si quisiéramos que esa pendiente
fuera más segura,
tendríamos que mirar más ciudades.
Aquí tengo
3.000 números generados al azar.
y puedes ver aquí, que la pendientes es 0.0002, es casi extactamentes cero, que es
lo que esperaríamos cuando en realidad no hay relación entre C y R
y en este caso no hay, todos son aleatorios, entonces si miramos montones y montones
de ciudades generadas al azar, entonces podemos decir: "oh si, no hay pendiente", pero
cuando solo miras cien, como lo hicimos aquí, vas a ver
relaciones totalmente casuales muy muy a menudo, así que eso es

Japanese: 
偶然に起こることが多いということです。 実際の関係を示しているようには見えません。
もし、この傾きを
もっと自信を持って示したいのであれば、もっと多くの都市を 調べる必要があります。
ここに3,000個のランダムに生成された数字があります。この傾きは
0.00002であるのがわかりますね？これは我々の期待通りほぼ0です。実際にCとRの間には関係がない場合、
これらはランダムに生成された数字で関係がありません。
そして、ランダムに生成されたたくさんの都市のデータを見てみると、「ああ、そうだ、傾きはない」と言えるでしょう。
しかし、今回のように１００個の都市だけを見た場合には、非常に多くの場合、
全く偶然に関係性があることがわかります。だから、それを測定する必要があります。

Tamil: 
பெரும்பாலும் தற்செயலாக நிகழக்கூடிய ஒன்று.
இது எந்தவிதமான உண்மையான உறவையும் குறிப்பதாகத் தெரியவில்லை
அந்த சாய்வு அதிக நம்பிக்கையுடன் இருக்க வேண்டுமென்றால்,
நாம் அதிகமான நகரங்களைப் பார்க்க வேண்டும்.
எனவே இங்கே
தோராயமாக உருவாக்கப்பட்ட 3,000 எண்கள் கிடைத்துள்ளன, நீங்கள் இங்கே பார்க்கலாம்.
அதன் சாய்வு 0.0002 ஆகும்.
இது கிட்டத்தட்ட சரியாக பூஜ்ஜியமாகும்,
எதிர்பார்த்தது போல
இது உண்மையில் சி மற்றும் R இடையே எந்த உறவும் இல்லாதபோது இப்படித்தான் இருக்கும்
இந்த விஷயத்தில் அவை அனைத்தும் சீரற்றவை
நாம் நிறைய மற்றும் தோராயமாக உருவாக்கப்பட்ட நகரங்களைப் பார்த்தால்,
ஓ, ஆமாம், சாய்வு இல்லை என்று சொல்லலாம்
ஆனால் நீங்கள் நூறு மட்டுமே பார்க்கும்போது, ​​நீங்கள் உறவைப் பார்க்கப் போகிறீர்கள்
இது முற்றிலும் தற்செயலாக மிக அடிக்கடி நிகழலாம், இது நாம் அளவிட வேண்டும்

English: 
the line that we have here, is something that
absolutely can often happen totally by chance.
It doesn't seem to be indicating any kind
of real relationship at all.
If we wanted that slope to be more confident,
we would need to look at more cities.
Here I've got 3,000 randomly generated numbers.
You can see here the slope is 0.00002, right?
It's almost exactly zero, which is what we'd
expect, when there's actually no relationship
between C and R, and in this case there isn't
- they're all random . Then if we look at
lots and lots of randomly generated cities,
then we can say, oh yeah, there's no slope.
But when you only look at a hundred, as we
did here, you're going to see relationships
totally coincidentally, very, very often.
So that's something that we need to be able
to measure.

Italian: 
 la linea che abbiamo qui, è qualcosa che assolutamente spesso può accadere totalmente per caso. 
 Non sembra indicare alcun tipo di relazione reale. 
 Se volessimo che quella pendenza fosse più sicura, avremmo bisogno di guardare più città. 
 Qui ho 3.000 numeri generati casualmente. 
 Puoi vedere qui che la pendenza è 0,00002, giusto? 
 È quasi esattamente zero, che è quello che ci aspetteremmo, quando in realtà non c'è relazione 
 tra C e R, e in questo caso non c'è - sono tutti casuali. Quindi se guardiamo 
 un sacco di città generate casualmente, quindi possiamo dire, oh sì, non c'è pendenza. 
 Ma quando guardi solo un centinaio, come abbiamo fatto qui, vedrai le relazioni 
 del tutto casualmente, molto, molto spesso. 
 Quindi è qualcosa che dobbiamo essere in grado di misurare. 

Spanish: 
algo que necesitamos poder medir y una forma de medir eso
es que usamos algo llamado el "valor p"
entonces el el "valor p", asi es como funciona:
comenzamos con algo llamado la "hipótesis nula" y la "hipótesis nula" es
basicamente ¿cuál es nuestra suposición de punto de partida?, así que nuestra suposición de punto de partida podría ser
"oh, no hay relación entre temperatura y R"
y luego, reunimos algo de data
"¿Has explicado qué es R?"
Si lo hice, R es la transmisibildad del virus.
Entonces, luego recopilamos datos de variables independientes y dependientes
en este caso la variable independiente es la cosa que pensamos
podría causar la variable dependiente, asi que aquí
la variable independiente seria "temperatura", la variable dependiente sería "R".
Asi que aquí hemos recopilado datos, son los datos que se recopiló para este ejemplo.
Entonces decimos ¿qué porcentaje del tiempo veríamos este nivel de relación,
que es una pendiente de 0.023, por casualidad
y como hemos visto, una manera de hacer eso

English: 
One way to measure that is we use something
called a p-value.
A p-value, here's how a p-value works: we
start out with something called a null hypothesis.
The null hypothesis is basically what's our
starting point assumption.
Our starting point assumption might be, oh
there's no relationship between temperature
and R. And then we gather some data and (Rachel:
have you explained what R is?)
I have, yes.
R is the transmissibility of the virus.
So then we gather data of independent and
dependent variables - in this case the independent
variable is the thing that we think might
cause the dependent variable.
Here the independent variable would be temperature,
the dependent variable would be R. So here
we've gathered data - there's the data that
was gathered in this example, and then we
say what percentage of the time would we see
this amount of relationship, which is a slope
of 0.023 by chance?

Japanese: 
これを測定する一つの方法は、p値と呼ばれるものを使うことです。
p値、ここではp値がどのように機能するかを説明します。
まず帰無仮説と呼ばれるものから始めます。帰無仮説とは、基本的には出発点の
仮定のことです。 例えば我々の出発点の仮定は、
温度とRの間には何の関係もないというものかもしれません。そして、いくつかのデータを集めて、（レイチェル：Rとは何か説明してくれましたか？ ジェレミー：はい、しました)
Rはウイルスの透過性です。
そして、独立変数と従属変数のデータを収集します。 この場合、独立変数とは、
従属変数を引き起こすと思われるものです。ここでは、独立変数は温度で、従属変数はRです。ここでデータを収集しました。
この例で収集したデータはこれです。
そして、何％の割合でこれくらいの関連性を偶然で見ることがあるでしょうか？
ここでは0.023の傾きです。

Tamil: 
எனவே அதை அளவிட ஒரு வழி P-மதிப்பைப் பயன்படுத்துவதாகும்
P-மதிப்பு இவ்வாறு இயங்குகிறது
நாம் ஒரு பூஜ்ய கருதுகோளுடன் தொடங்குகிறோம்.
பூஜ்ய கருதுகோள் அடிப்படையில் உங்கள் தொடக்க புள்ளி அனுமானமாகும்.
இங்கு தொடக்க புள்ளி அனுமானம் வெப்பநிலைக்கும் R க்கும் எந்த உறவும் இல்லை என்பதாகும்.
பின்னர் நாம் சில தரவுகளை சேகரிக்கிறோம்.
R என்றால் என்ன என்பதை விளக்கினீர்களா? ஆம்
R-வைரஸின் பரவுதல் எவ்வாறு உள்ளது என்பதை குறிக்கிறது
எனவே நாம் சுயாதீன மற்றும் சார்பு மாறிகளின் தரவை சேகரிக்கிறோம்.
இங்கு சுயாதீன மாறி சார்பு மாறியை ஏற்படுத்தக்கூடும் என்று நாம் நினைக்கிறோம்.
இங்கே சுயாதீன மாறி வெப்பநிலையாக இருக்கும் சார்பு மாறி ஆர்.
இந்த எடுத்துக்காட்டில் சேகரிக்கப்பட்ட தரவு இங்கு உள்ளது
இந்த உறவை நாம் எந்த அளவுக்கு காண்போம் என்று சொல்கிறோம்
இது தற்செயலாக 0.023 இன் சாய்வு
நாம் பார்த்துள்ளபடி,

Italian: 
 Un modo per misurarlo è che usiamo qualcosa chiamato valore p. 
 Un valore p, ecco come funziona un valore p: iniziamo con qualcosa chiamato ipotesi nulla. 
 L'ipotesi nulla è fondamentalmente qual è il nostro presupposto di partenza. 
 La nostra ipotesi di punto di partenza potrebbe essere, oh non c'è relazione tra la temperatura 
 e R. E poi raccogliamo alcuni dati e (Rachel: hai spiegato cos'è R?) 
 Sì, sì. 
 R è la trasmissibilità del virus. 
 Quindi raccogliamo dati di variabili indipendenti e dipendenti, in questo caso l'indipendente 
 variabile è la cosa che pensiamo possa causare la variabile dipendente. 
 Qui la variabile indipendente sarebbe la temperatura, la variabile dipendente sarebbe R. Quindi qui 
 abbiamo raccolto i dati - ci sono i dati che sono stati raccolti in questo esempio, e poi noi 
 diciamo quale percentuale di tempo vedremmo questa quantità di relazione, che è una pendenza 
 di 0,023 per caso? 

Chinese: 
其中一种衡量方法
and so one way to measure that
就是借助一个叫 p-value 的值
is we use something called a p-value
那么我们来讲讲 p-value 如何应用
so a p-value, here's how p-value works
我们先选择一个零假设
we start out with something called a null hypothesis
这个零假设
and the null hypothesis
是我们的初始假设
is basically what's what's our starting point assumption
我们的初始假设可能是
so our starting point assumption might be
温度和 R 不相关
oh there's no relationship between temperature and R
然后我们收集了一些数据
and then we gather some data
（助手）您有解释 R 是什么吗
(assistant) and have you explained what R is
（老师）我解释过了
(Jeremy) I have, yes
R 的可传递性如何呢
how is the transmissibility of the R's
接下来我们又收集了自变量和因变量的数据
so then we gather data of independent and dependent variables
在这个例子里
so in this case
我们认为自变量
the independent variable is the thing that we think
可能影响了因变量
might cause the dependent variable
所以此处的自变量是温度
so here the independent variable would be temperature
因变量是 R
the dependent variable would be R
这里我们收集到了数据
so here we've gathered data
这些数据就是从例子里收集的
there's the data that was gathered in this example
那么有多大的概率
and then we say what percentage of the time
可以随机观测到这组相关性
would we see this amount of relationship
也就是 0.023 这个斜率
which is a slope of 0.023 by chance
正如我们所见
and as we've seen
其中一种方式就是
one way to do that is by

Tamil: 
அதைச் செய்வதற்கான ஒரு வழி  - பாவிப்பு உருவாக்குவது
100 ஒருதன்மையான ஜோடி சீரற்ற எண்களை சில முறை உருவாக்குவதன் மூலம். எத்தனை
முறை இந்த உறவை நீங்கள் பார்க்கிறீர்கள் என்பதனை கண்டறிய வேண்டும்
நாம் அதை செய்ய வேண்டியதில்லை,
உண்மையில் நாம் பயன்படுத்தக்கூடிய ஒரு எளிய சமன்பாடு உள்ளது.
இந்த எண்ணுக்கு நேராக கண்டுபிடிக்கலாம்,
அந்த உறவை எத்தனை முறை தற்செயலாகப் பார்ப்போம் என கூறும் எண் அது
அது பார்ப்பதர்கு இப்படித்தான் இருக்கும்
நம்மிடம் பெரும்பாலும் அவதானிப்பு உள்ளது
இங்கு வெப்பநிலைக்கும் R க்கும் இடையில் எந்த உறவும் இல்லை என்றால்,
பெரும்பாலும் சாய்வு பூஜ்ஜியமாக இருக்கும்
சில நேரங்களில் நீங்கள் நேர்மறையான சரிவுகளை தற்செயலாகப் பெறுவீர்கள், சில
சமயங்களில் நீங்கள் சிறிய சிறிய சரிவுகளைப் பெறுவீர்கள், சில சமயங்களில்
நீங்கள் பெரிய எதிர்மறை சரிவுகளை தற்செயலாகப் பெறுவீர்கள்
பெரிய எண்ணாக இருந்தால், அது நடக்கும் வாய்ப்பு குறைவு,

Japanese: 
これまで見てきたように、これを行う1つの方法は、いわゆる
シミュレーションと呼ばれるもので、乱数を生成して、100組の乱数のペアを何回か繰り返して、この関係がどのくらいの頻度で
見られるかを計測するというものです。
しかし、実際にそれをする必要はありません。実際には、
which is what percent of the time would we see that relationship by chance?
この数値を求めるのに使える簡単な方程式があります。ここ言えば、その関係性を偶然見てしまうのは何％なのかです。
そして
これは基本的にはこのようになります。ここに「最も可能性の高い観測」がありますが、
この場合、温度との間に関係がなければ、
最も可能性の高い傾きはゼロという事。
偶然、正の傾きが得られることもあれば、
かなり小さな傾きが得られることもあり、
また時には大きな負の傾きが得られます。
このように、

Spanish: 
es lo que llamariamos una simulación
que mediante la generación aleatoria de números, 100 pares de números aleatorios
varias veces y viendo con que frecuencia ves esta relación.
Nosotros en realidad no tenemos por que hacer esto, existe una ecuación simple
que podemos usar, para obtener directamente este número
que es "el porcentaje de tiempo que vemos esta relación, por casualidad"
Y esto es básicamente como se parece.
Tenemos la observación más probable,
que en este caso sería si no hubiera relación entre temperatura y R
entonces la pendiente más probable sería cero
y a veces, obtienes pendientes positivas por azar
y otras veces obtienes pendientes bastante pequeñas
y otras veces obtienes pendientes bastante negativas, por casualidad.

Italian: 
 E come abbiamo visto, un modo per farlo è quello che chiameremmo, una simulazione, che è 
 generando numeri casuali - un set di 100 coppie di numeri casuali, un mucchio di volte e vedendo 
 quante volte vedi questa relazione. 
 In realtà non dobbiamo farlo però. 
 In realtà c'è una semplice equazione che possiamo usare per saltare direttamente a questo numero, che 
 ovvero, quale percentuale di volte vedremmo quella relazione per caso? 
 E questo è fondamentalmente quello che sembra. 
 Abbiamo l'osservazione più probabile, che in questo caso sarebbe se non ci fosse una relazione 
 tra la temperatura. 
 Quindi la pendenza più probabile sarebbe zero e talvolta si ottengono pendenze positive per caso, 
 ea volte si ottengono pendii piuttosto piccoli, a volte si ottengono grandi pendii negativi 
 per caso. 
 E quindi, maggiore è il numero, meno è probabile che accada, sia che sia positivo 

English: 
And as we've seen, one way to do that is by,
what we would call, a simulation, which is
by generating random numbers - a 100 set pairs
of random numbers, a bunch of times, and seeing
how often you see this relationship.
We don't actually have to do it though.
There's actually a simple equation we can
use to jump straight to this number, which
is, what percent of the time would we see
that relationship by chance?
And this is basically what that looks like.
We have the most likely observation, which
in this case would be if there is no relationship
between temperature.
Then the most likely slope would be zero,
and sometimes you get positive slopes by chance,
and sometimes you get pretty small slopes,
and sometimes you get large negative slopes
by chance.
And so, the larger the number, the less likely
it is to happen, whether it be on the positive

Chinese: 
使用数据模拟
what we would call a simulation
生成随机数字
which is by generating random numbers
比如一百对随机数
100 set pairs of random numbers
多搞几次
a bunch of times
然后看看观察到这个数值的频率有多大
and seeing how often you see this relationship
这次我们不需要用到数据模拟
we don't actually have to do with that
而可以利用一个简单的方程式
though there's actually a simple equation
直接得到这个数字
we can use to jump straight to this number
那就是  我们有多大的几率
which is what percent of the time
会偶然遇到这种关系
would we see that relationship by chance
它的概率密度图基本上就长这样子
and this is basically what that looks like
这里有一个最大概率观测值
we have the most likely observation
在这个例子中它指的是
which in this case would be
如果温度与自变量 R 没有关系
if there is no relationship between temperature and R
则概率密度图的斜率为0
then the most likely slope would be zero
有时你会得到正斜率
and sometimes you get positive slopes by chance
有时斜率非常小
and sometimes you get pretty small slopes
还有的情况下
and sometimes you get
你会得到(绝对值)比较大的负值斜率
large negative slopes by chance
随着 possible results 的数目增大
and so the you know the larger the number
其相应的出现概率会越小
the less likely it is to happen

Spanish: 
Entonces, cuanto más grande el número, son menos las probabilidades que esto suceda, ya sea en el lado positivo o negativo
En nuestro caso, nuestra pregunta era
¿Con qué frecuencia vamos a obtener menos de -0.023?
sería en algun lugar aquí abajo, de hecho copié esto de Wikipedia
donde estaban buscando números positivos
asi que han coloreado esta zona encima del número.
Así que este es el valor p y entonces puedes,
no nos preocupa la matemática, pero existe esta simple ecuación que puedes usar
para calcular directamente este número "el valor p"
a partir de los datos.
Así que esto es como casi todos los tipos de resultado en investigación médica tiende a mostrarse
y la gente realmente se enfoca en esta idea de los "valores p" y de hecho en este estudio en particular,
como veremos en un momento, ellos reportaron  "valores p"
Quiza muchos de vosotros han visto "valores p" en sus vidas anteriores,
surgen en una gran variedad de dominios

Chinese: 
不管它是在正斜率侧还是负斜率侧
whether it be on the positive side or the negative side
所以  在我们这个例子中  问题在于
and so in our case our question was
我们得到小于 -0.023 值的几率是多少
how often are we going to get less than negative 0.023
从图上来看  它应当在这一块区域
so it would actually be somewhere down here
实际上这张图是我从维基百科复制来的
and I actually copy this from Wikipedia
它用于寻找正值
where they were looking for positive numbers
所以在数字上方这个区域上了色
and so they've colored in this area above the number
这块就是 p-value
so this is the p-value
我们不关心具体的数学定义
and so you can.. we don't care about the math
但是有个简单的公式
but there's a simple little equation
可以直接用它来算出
you can use to directly figure out
这个数字  也就是数据的 p-value
this number, the p-value from the data
几乎所有的
So this is kind of how nearly all kind of
医学研究结论都用这种方式展现
medical research results tend to be shown
研究者们非常重视 p-values 的概念
and folks really focus on this idea of p-values
在这个研究中也确实是这样的
and indeed in this particular study
待会儿我们可以看看它是怎么描述 p-values 的
that's we'll see in a moment, they reported p-values
有不少同学应该见过 p-values
So probably a lot of you have seen p-values in your previous lives
它们出现在很多研究领域中
they come up in a lot of different domains

Italian: 
 lato o il lato negativo. 
 Nel nostro caso, la nostra domanda era: quanto spesso avremo un valore inferiore a 0,023 negativo? 
 In realtà sarebbe da qualche parte quaggiù. 
 In realtà lo copio da Wikipedia, dove stavano cercando numeri positivi, e 
 quindi hanno colorato in quest'area sopra il numero. 
 Questo è il valore p e non ci interessa la matematica, ma c'è una piccola equazione semplice 
 è possibile utilizzare per calcolare direttamente questo numero, il valore p, dai dati. 
 Questo è il modo in cui tendono ad essere mostrati quasi tutti i tipi di risultati della ricerca medica, e gente 
 concentrarsi davvero su questa idea di valori p. 
 E infatti, in questo particolare studio, come vedremo tra poco, hanno riportato valori p. 
 Probabilmente molti di voi hanno visto valori p nelle vite precedenti. 
 Vengono fuori in molti domini diversi. 

Tamil: 
நேர்மறையான அல்லது எதிர்மறையான பக்கத்திலோ இருந்தாலும் கூட அப்படியே
எனவே இந்த விஷயத்தில் எங்கள் கேள்வி என்னவென்றால்,
எதிர்மறை 0.023 ஐ விட எத்தனை முறை குறைவாகப் பெறப் போகிறோம், எனவே அது உண்மையில் இங்கே எங்காவது இருக்கும்
நான் இதை விக்கிபீடியாவிலிருந்து நகலெடுக்கிறேன்,
அங்கு அவர்கள் நேர்மறை எண்களைத பார்த்தார்கள்
எனவே அவர்கள் இந்த பகுதியில் எண்ணுக்கு மேலே வண்ணம் பூசியுள்ளனர்
எனவே இதுதான் P-மதிப்பு.
நாம்  கணிதத்தைப் பற்றி கவலைப்படவில்லை
நாம் எளிய சிறிய சமன்பாடை பயன்படுத்தி
தரவிரிலிருந்து P-மதிப்பை நேரடியாகக் கண்டுபிடிக்க முடியும்
எனவே இது கிட்டத்தட்ட எல்லா வகையான மருத்துவ ஆராய்ச்சி
முடிவுகளும் எவ்வாறு காட்டப்படுகின்றன என்பதே
P-மதிப்புகள் குறித்த இந்த யோசனையில் எல்லோரும் உண்மையில் கவனம் செலுத்துகிறார்கள்.
உண்மையில் இந்த குறிப்பிட்ட ஆய்வில்
நாம் ஒரு கணத்தில் பார்ப்போம், அவர்கள் P-மதிப்புகளைத் தெரிவித்தனர்.
அனேகமாக நம்மில் பெரும்பாலோர், ஏற்கனவே P-மதிப்புகளை பார்த்திருக்கலாம்
அவை பல்வேறு களங்களில் வருகின்றன

Japanese: 
数字が大きくなるほど、それが正の側であろうと負の側であろうと、その可能性は低くなります。
私たちの場合、疑問だったのは
どのくらいの頻度で0.023以下の負の値を得ることができるのか。それは実際にはこの辺のどこかになるでしょう。
実はこれをウィキペディアからコピーしたのですが、正の数字を探していたので、
数字の上のこの部分に色をつけています。
これがp値です。数学は気にしていませんが、この数値、つまりp値を
データから直接計算するのに使える
簡単な小さな方程式があります。
これは、ほとんどすべての
医学研究の結果がこのような形で示される傾向があり、
人々はこのp値という考えに注目します。実際に、この特定の研究でも、
後ほどご紹介するように、p値が報告されています。
おそらく、多くの人が以前p値を見たことがあるでしょう。それらは様々な分野で出てきます。

English: 
side or the negative side.
In our case, our question was - how often
are we going to get less than negative 0.023?
It would actually be somewhere down here.
I actually copy this from Wikipedia, where
they were looking for positive numbers, and
so they've colored in this area above the
number.
This is the p-value, and we don't care about
the math but there's a simple little equation
you can use to directly figure out this number
- the p-value - from the data.
This is kind of how nearly all kind of medical
research results tend to be shown, and folks
really focus on this idea of p-values.
And indeed, in this particular study as we’ll
see in a moment, they reported p-values.
Probably a lot of you have seen p-values in
your previous lives.
They come up in a lot of different domains.

Italian: 
 Ecco il punto: sono terribili. 
 Quasi sempre non dovresti usarli. 
 Non fidarti solo di me. 
 Fidati dell'American Statistical Association. 
 Sottolineano sei cose sui valori p e quelli includono: i valori p non misurano 
 la probabilità che l'ipotesi sia vera o la probabilità che i dati siano stati prodotti 
 solo per scelta casuale. 
 Ora lo sappiamo perché lo abbiamo appena visto, se usiamo più dati, se campioniamo tremila 
 città casuali anziché cento, otteniamo un valore molto inferiore. 
 Quindi i valori p non ti dicono solo quanto è grande una relazione, ma in realtà lo dicono 
 su una combinazione di questo e quanti dati hai raccolto. 
 Quindi non misurano la probabilità che l'ipotesi sia vera. 
 Pertanto, le conclusioni e le decisioni politiche non dovrebbero essere basate sull'eventuale approvazione di un valore p 

Japanese: 
ここからが問題なのですが、
これはひどいものです。使うべきではありません。
私だけを信用しないでください。アメリカ統計協会を信じて下さい。
彼らはp値について6つのことを指摘しています。
その中には次のようなものがあります。p値は仮説が真である確率を測るものでも、
あるいはデータがランダムな選択だけで作られた確率を測るものでもない、ということです。
これは今学んだように、より多くのデータを使用した場合、
100の都市ではなく3000の都市を無作為にサンプリングした場合、
得られる値ははるかに小さくなるのです。つまり、p値は関係性の大きさを教えてくれるだけではなく、
実際にはそれらを組み合わせて、どれだけのデータを収集したかを教えてくれるのです。
つまり、仮説が真である確率を測定するものではないのです。
したがって、結論や政策決定は、P値がある閾値を通過したかどうかに基づいて行われるべきではありません。

Chinese: 
实际上  p-values 效果很差
here's the thing, they are terrible
同学们应该尽量避免使用
you almost always shouldn't be using them
这不是我说的  是美国统计协会说的
don't just trust me, trust the American Statistical Association
他们指出了 p-values 的 6 个问题
they point out six things about p-values
这些问题包括
and those include
p-values 不能用于衡量
p-values do not measure
假设成立的概率
the probability that the hypothesis is true
还有种概率
or the probability
数据只通过随机选择产生  p-values 也不适用
that the data were produced by random choice alone
之所以下上述结论  是因为我们观察到
ow we know this because we just saw
如果我们加入更多的数据
that if we use more data, right
比如我们随机抽样三千个城市
so if we sample three thousand random cities
而不是 100 个
rather than 100
我们就能获得一个更小的 p-value
we get a much smaller value, right?
所以 p-values 不只揭示了
So p-values don't just tell you about
数据相关性有多大
how big a relationship is
它们实际上揭示了复合性的信息
but they actually tell you about a combination of that
包括采集的数据量有多少
and how much data did you collect, right
所以说它们不能衡量
So they don't measure
假设成立的概率
that the probability the hypothesis is true
因此  做结论和决策时不能根据
so therefore conclusions and policy decisions should not be based on

Tamil: 
இங்கே விஷயம் என்னவென்றால், அவை மோசமானவை,
நீங்கள் கிட்டத்தட்ட எப்போதுமே அவற்றைப் பயன்படுத்தக்கூடாது
என்னை மட்டுமே நம்ப வேண்டாம், அமெரிக்க புள்ளிவிவர சங்கத்தை நம்புங்கள்
அவர்கள் P-மதிப்புகள் பற்றி ஆறு விஷயங்களை சுட்டிக்காட்டுகின்றனர்
அவற்றில் P-மதிப்புகள், ஆய்வு செய்யப்பட்ட கருதுகோள் உண்மை,
அல்லது தரவு சீரற்ற தேர்வால் மட்டுமே தயாரிக்கப்பட்டதற்கான, நிகழ்தகவுகளை அளவிடாது, என்பதும் ஒன்றாகும்
இப்போது நாம் இதை அறிந்திருக்கிறோம், ஏனென்றால் நாம் அதிகமான தரவைப் பயன்படுத்துவதைப்
பார்த்தோம், ஆகவே 100 ஐ விட 3000 சீரற்ற நகரங்களை மாதிரி செய்தால் மிகச் சிறிய மதிப்பைப் பெறுகிறோம்,
இல்லையா? எனவே P-மதிப்புகள் ஒரு உறவு எவ்வளவு பெரியது என்பதைப் பற்றி மட்டுமில்லாமல்
ஆனால் அவை உண்மையில்
அதன் கலவையைப் பற்றியும்
நீங்கள் எவ்வளவு தரவைச் சேகரித்தீர்கள் என்பதையும் சொல்கின்றன,
சரி, எனவே கருதுகோள் உண்மை என்று நிகழ்தகவை அது அளவிடவில்லை.
எனவே
முடிவுகளும் கொள்கை முடிவுகளும்,

English: 
Here's the thing - they are terrible.
You almost always shouldn't be using them.
Don't just trust me.
Trust the American Statistical Association.
They point out six things about p-values,
and those include: p-values do not measure
the probability that the hypothesis is true,
or, the probability that the data were produced
by random choice alone.
Now we know this because we just saw that,
if we use more data, if we sample three thousand
random cities rather than a hundred, we get
a much smaller value.
So p-values don't just tell you about how
big a relationship is, but they actually tell
you about a combination of that, and, how
much data did you collect.
So they don't measure the probability that
the hypothesis is true.
So therefore, conclusions and policy decisions
should not be based on whether a p-value passes

Spanish: 
Esta es la problema, son terribles.
Casi siempre no deberías usarlos.
No confíes sólo en mí. Confía en la Asociación Americana de Estadística.
Ellos señalan 6 cosas acerca de los "valores p"
y estas incluyen:
los "valores p" no miden la probabilidad de que la hipótesis sea cierta
o la probabilidad de que los datos fueran producidos solo de manera aleatoria.
Ahora, sabemos esto porque acabamos de ver que si usamos más datos
por ejemplo, si tomamos muestras 3000 ciudades aleatorias en lugar de 100
obtendriamos un valor mucho mas pequeño, cierto?
Entonces los "valores p" no solo te dicen cuán grande es una relación, sino que
en realidad te dicen una combinacion de eso y cuantos datos recogiste.
Por lo tanto, no miden la probabilidad de que la hipótesis sea cierta.

English: 
some threshold.
P-value does not measure the importance of
a result, because, again, it could just tell
you that you collected lots of data, which
doesn't tell you that the results are actually
of any practical import.
By itself, it does not provide a good measure
of evidence.
Frank Harrell, who is somebody whom I read
his book, and it's a really important part
of my learning.
He's a professor of biostatistics, has a number
of great articles about this.
He says null hypothesis testing and p-values
have done significant harm to science.
He wrote another piece called “null hypothesis
significance testing never worked”.
I've shown you what p-values are so that you
know why they don't work, not so that you
can use them.

Spanish: 
Entonces, conclusiones y decisiones políticas no deberian basarse en si un "valor p" supera un cierto valor.
Los "valores p" no miden la importancia de un resultado
porque de nuevo, podría decirte solo que recopilaste muchos datos.
Esto no te dice que los resultados tengan alguna relevancia práctica.
Por sí mismo, no proporcionan una buena medida de evidencia.
Frank Harrell, que es alguien a quien leí su libro, y es una parte muy importante de mi aprendizaje.
es un profesor de bioestadística, tiene un gran número de artículos sobre el tema.
El dice que las puebras de hipótesis nulas y los valores p han hecho un daño significativo a la ciencia.
Escribió otro artículo llamado "La prueba de significación de la hipótesis nula nunca funcionó".
Te he mostrado que son los "valores p"
para que sepas por qué no funcionan
no para que puedas usarlos. Son una parte muy importante del aprendizaje automático,

Tamil: 
P-மதிப்பு சில வரம்பைக் கடக்கிறதா என்பதை அடிப்படையாகக் கொண்டு இருக்கக்கூடாது.
P-மதிப்பு ஒரு முடிவின் முக்கியத்துவத்தை அளவிடாது
ஏனென்றால், நீங்கள் ஏராளமான தரவை மட்டுமே சேகரித்தீர்கள் என்று கூறக்கூடும்,
இது எந்த நடைமுறை உள்ளீட்டின் முடிவுகளையும் உங்களுக்குக் கூறாது.
தானாகவே இது ஒரு நல்ல அளவிலான ஆதாரங்களை வழங்கவில்லை
இது ஃபிராங்க் ஹாரெல்,
நான் அவருடைய புத்தகத்தைப் படித்தேன்,
இது எனது கற்றலின் மிக முக்கியமான பகுதியாகும்.
அவர் உயிர் புள்ளிவிவரங்கள் பேராசிரியர்,
இதைப் பற்றி பல சிறந்த கட்டுரைகள் எழுதியுள்ளார்
பூஜ்ய கருதுகோள், சோதனை மற்றும் P-மதிப்புகள்
அறிவியலுக்கு குறிப்பிடத்தக்க தீங்கு செய்துள்ளன என்று அவர் கூறுகிறார்
மேலும் அவர் "கருதுகோள் முக்கியத்துவ சோதனை ஒருபோதும் செயல்படவில்லை" என்று மற்றொரு பகுதியை எழுதினார்
அதனால்
P-மதிப்புகள் என்ன என்பதை நான் உங்களுக்குக் காட்டியது.
அவை ஏன் வேலை செய்யவில்லை என்பது உங்களுக்குத் தெரிவதற்காகத்தான்
அவற்றைப் பயன்படுத்துவதற்காக இல்லை. ஆனால் அவை மிகவும் முக்கியமானவை
அதாவது இயந்திரக் கற்றல் பொறுத்தவரையில்.

Chinese: 
p-values 是否超过某个阈值
whether a p-value passes some threshold
p-value 也无法衡量某个结论的显著性
p-value does not measure the importance of a result, right
再强调一次  因为 p-value 只能告诉你
because again it could just tell you
你收集到了足够多的数据
that you collected lots of data
并不能告诉你这个结论
which doesn't tell you that the results
到底有多显著
actually of any practical important
从它自身来讲
and so by itself
p-value 并未提供一个有效的衡量手段
it does not provide a good measure of evidence
于是 Frank Harrell
so Frank Harrell
我读过这个人的书
who is somebody who I read his book
他的书对我的研究生涯至关重要
and it's a really important part of my learning
他是生物统计学的教授
he's a professor of biostatistics
在这个领域有一系列优秀的文章
has a number of great articles about this
他说零假设和 p-values
he says null hypothesis testing and p-values
严重伤害了科学研究
have done significant harm to science
他另有一篇文章名叫
and he wrote another piece called

Null Hypothesis Significance Testing Never Worked
我已经讲了 p-values 是什么
so I've shown you what p-values are
同学们也知道了为什么 p-values 无效
so that you know why they don't work
它们并非随处可用
not so that you can use them, right
但是它们对机器学习却非常重要
but they're a super important part of machine learning

Italian: 
 qualche soglia. 
 Il valore P non misura l'importanza di un risultato, perché, ancora una volta, potrebbe semplicemente dire 
 tu che hai raccolto molti dati, il che non ti dice che i risultati sono effettivamente 
 di qualsiasi importanza pratica. 
 Di per sé, non fornisce una buona misura di prova. 
 Frank Harrell, che è qualcuno a cui ho letto il suo libro, ed è una parte davvero importante 
 del mio apprendimento. 
 È un professore di biostatistica, ha una serie di ottimi articoli su questo. 
 Dice che test di ipotesi nulle e valori p hanno causato danni significativi alla scienza. 
 Ha scritto un altro pezzo chiamato "il test di significatività dell'ipotesi nulla non ha mai funzionato". 
 Ti ho mostrato cosa sono i valori p in modo che tu sappia perché non funzionano, non così per te 
 possono usarli. 

Japanese: 
P値は結果の重要性を
測定するものではありません。
なぜなら、繰り返しになりますが、P値は、あなたが多くのデータを収集したことを教えてくれるだけで、
結果が実際に実用的なものであることを教えてくれるわけではないからです。それは証拠の良い尺度にはなりません。
フランク・ハレルという人がいますが、私は彼の本を読みました。本当に大切な学習の一部です。
彼は生物統計学の教授で、このことについて多くの素晴らしい記事を書いています。
彼は
帰無仮説検定とp値が科学に大きな害を与えていると言っています。
彼は「帰無仮説有意性検定は全く機能しなかった」という別の記事も書いています。
という事で、
私はp値が何であるかを示したのは、
なぜ機能しないのかを知るためであって、それを使えるようにするためではありません。しかし、それらは機械学習の超重要な部分で、

Spanish: 
porque aparecen todo el tiempo cuando gente toman decisiones.
Por ejemplo cuando la gente dice "así es como decidimos si
un medicamento funcionó o si hay
una relación epidemiológica o lo que sea."
De hecho los "valores p" aparecen en este estudio.
En el estudio, muestran los resultados
de una regresión lineal múltiple.
y ponen 3 estrellas junto a cualquier relación que tenga un valor p de 0,01 o menos.
Hay algo útil que decir acerca de un "valor p" pequeño (0,01 o menos)
que es: lo que estamos viendo probablemente no pasó de manera aleatoria.
El mayor error estadístico que la gente comete todo el tiempo
es que cuando ve un valor p no menor a 0,05
llegan a la conclusión errónea de que

English: 
But they're a super important part of machine
learning because they come up all the time.
When people are saying, this is how we decide
whether your drug worked, or whether there
is an epidemiological relationship, or whatever.
And indeed, p-values appear in this paper.
In the paper, they show the results of a multiple
linear regression.
They put three stars next to any relationship
which has a p-value of 0.01 or less.
There is something useful to say about a small
p-value, like 0.01 or less.
Which is the thing that we're looking at did
not, probably did not happen by chance, right?
The biggest statistical error people make
all the time is that they see that a p-value
is not less than 0.05 and then they make the
erroneous conclusion that no relationship

Japanese: 
それはいつも出てきます。「この薬が効くのかどうか」とか、
「疫学的な関係があるかどうか」などと、
判断するために度々取り上げられます。
そしてこの論文にもp値が出てきます。
この論文では、多重線形回帰の結果が
示されています。
彼らは、p値が0.01以下の関係の隣に
3つの星をつけています。
さて、
0.01以下のような小さなp値については、何か役に立つことがあります。
それは、私たちが見ているものは、おそらく偶然起こったのでないという事です。
人々がいつも犯している
最大の統計的ミスは、p値が0.05以下ではないことを見て
関係が存在しないという誤った結論を

Tamil: 
ஏனென்றால், இதன் அடிப்படையில் தான் நாங்கள் தீர்மானிப்போம் என்று மக்கள் கூறும்போதெல்லாம்
அதாவது மருந்து செயல்பட்டதா அல்லது ஒரு தொற்றுநோயியல் உறவு உள்ளதா
என்றெல்லாம் சொல்லும்போது
p-மதிப்புகள் இந்த இந்த கட்டுரையிலும் வருகிறது.
எனவே கட்டுரையில், அவை பல நேரியல் பின்னடைவின் முடிவுகளைக் காட்டுகின்றன
மூன்று நட்சத்திரங்களை கொண்டு
0.01 அல்லது அதற்கும் குறைவான P-மதிப்பைக் கொண்ட எந்த உறவுக்கும் அடையாளப்படுத்திகிரறார்கள்
எனவே
ஒரு சிறிய P-மதிப்பைப் (0.01 அல்லது அதற்கும் குறைவான) பற்றிச் சொல்ல ஏதாவது பயனுள்ளதாக இருக்கிறது
நாம் பார்த்துக்கொண்டிருக்கும் விஷயம் அநேகமாக தற்செயலாக நடக்கவில்லை
மக்கள் எப்போதுமே செய்யும் மிகப்பெரிய புள்ளிவிவர பிழை என்னவென்றால்
ஒரு P-மதிப்பு 0.05 க்கும் குறைவாக இல்லை ,  என்பதை அவர்கள் காண்கிறார்கள்
பின்னர் அவர்கள் எந்த உறவும் இல்லை என்ற

Italian: 
 Ma sono una parte estremamente importante dell'apprendimento automatico perché emergono continuamente. 
 Quando le persone dicono, è così che decidiamo se il tuo farmaco ha funzionato o se c'è 
 è una relazione epidemiologica, o qualsiasi altra cosa. 
 E infatti, i valori p appaiono in questo documento. 
 Nel documento, mostrano i risultati di una regressione lineare multipla. 
 Mettono tre stelle accanto a qualsiasi relazione che abbia un valore p di 0,01 o inferiore. 
 C'è qualcosa di utile da dire su un valore p piccolo, come 0,01 o inferiore. 
 Qual è la cosa che stiamo guardando non è accaduta, probabilmente non è accaduta per caso, giusto? 
 Il più grande errore statistico che le persone commettono continuamente è che vedono che un valore p 
 non è inferiore a 0,05 e quindi fanno l'errata conclusione che nessuna relazione 

Chinese: 
因为 p-values 一直以来都有用
because they come up all the time in making
众所周知 p-values 可以
just you know when people saying this is
用来检测药品是否有效
how we decide whether your drug worked
也可以用于确定流行病学关系
or whether there is a epidemiological relationship
以及其他各类应用
or whatever
p-values 确实被用到了这篇论文里
and indeed p-values appear in this paper
这篇论文展示了
so in the paper they show the results of
多元线性分析的统计结果
a multiple linear regression
论文中在某些相关性之后标注了三个星号
and they put three stars next to any relationship
它们对应 0.01 或者更小的 p-value 值
which has a p-value of 0.01 or less
我们至少可以说
so there is something useful to say about
一旦出现像 0.01 或者更小的 p-value 值
a small p-value like 0.01 or less
那么我们期待发现的数据关系
which is the thing that we're looking at
很有可能不是随机发生的
did not probably did not happen by chance, right
人们一直以来都会
the biggest statistical error
犯的统计误差就是
people make all the time is that
只要发现 p-value 小于 0.05
they see that a p-value is not less than 0.05
就推出错误的结论说
and then they make the erroneous conclusion

Chinese: 
数据没有显著的统计关系存在
that no relationship exists, right
这显然不合理
which doesn't make any sense
这就像  我们这么说吧
because like let's say
假设只有三个数据点
you only had like three data points
几乎可以肯定这些数据不足以
then you almost certainly won't have enough data
获得任何一个 p-value 少于 0.05 的假设
to have a p-value of less than 0.05 for any hypothesis
通过这种方式
so like the way to check
回过来说
is to go back and say
如果我正好用了完全相反的零假设
what if I picked the exact opposite null hypothesis
而这个零假设是
what if my null hypothesis was
温度和 R 之间有统计关系
there is a relationship between temperature and R
那我有足够的数据
then do I have enough data
来推翻这个零假设
to reject that null hypothesis, right
如果答案是否
and if the answer is no
那么你没有充足的数据
then you just don't have enough data
来下任何结论
to make any conclusions at all, all right
这个例子中  人们没有充分的数据
so in this case they do have enough data
确信
to be confident that there is
温度和 R 有相关性
a relationship between temperature and R
这就非常诡异了
now, that's weird
因为我们刚看了图表
because we just looked at the graph
我们在
and we did a little back of (a bit of)
Excel 中做了个粗略的统计
a back-of-the-envelope in Excel
我们认为这就是随机的
and we thought this is, could well be random

English: 
exists, right?
Which doesn't make any sense because like
let's say you only had like three data points
then you almost certainly won't have enough
data to have a p-value of less than 0.05 for
any hypothesis.
So like the way to check, is to go back and
say, what if I picked the exact opposite null
hypothesis?
What if my null hypothesis was there is a
relationship between temperature and R?
Then do I have enough data to reject that
null hypothesis, alright?
And if the answer is no, then you just don't
have enough data to make any conclusions at
all, alright?
So in this case they do have enough data to
be confident that there is a relationship
between temperature and R. Now that's weird
because we just looked at the graph, and we
did a little back of a bit of a back-of-the-envelope
in Excel and we thought this is, could it,
could well be random.

Japanese: 
下してしまうことです
それは意味不明です。なぜなら、3つのデータポイントしかなかったとすると、
どの仮説に対してもp値が0.05未満になるような十分なデータはほぼ確実に得られないからです。
そこで、確認する方法としては、戻って、「もし私が全く逆の帰無仮説を選んだとしたらどうだろうか？」と考えるのです。
もし私の帰無仮説が、「温度とRの間に関係がある」だったとしたらどうでしょうか？
その帰無仮説を棄却するのに十分なデータがあるでしょうか？
答えがノーなら、
それは
どの結論を出すのにも十分なデータがないだけですよね？
この場合、彼らは温度とRの間に関係があると確信するのに
十分なデータを持っています。
これは変です。
なぜならたった先ほど、グラフを見て、エクセルで手早く計算して、これは、
ランダムかもしれないという結論に至ったからです。

Spanish: 
no existe relación.
Lo que no tiene ningun sentido, porque digamos ,por ejemplo que
sólo tienes 3 puntos de datos, entonces es casi seguro
que no tendras suficientes datos
para tener un valor p menor a 0,05 para cualquier hipótesis.
La forma de verificarlo, es volver atras y preguntarse
¿Qué pasaría si escogiera la hipótesis nula exactamente opuesta?
¿Qué pasaría si mi hipótesis nula fuera que hay una relación entre temperatura y R?
Entonces, ¿tengo suficientes datos para rechazar esa hipótesis nula?
Si la respuesta es no, entonces no tienes suficientes datos para sacar ninguna conclusión.
En este caso tienen suficientes datos para estar seguros de que
hay una relación entre la temperatura y R.
Eso es extraño porque acabamos de mirar el gráfico
y hicimos un cálculo aproximado en Excel
y pensamos que esto podría ser al azar.

Italian: 
 esiste, vero? 
 Il che non ha alcun senso perché diciamo che hai solo tre punti dati 
 allora quasi certamente non avrai dati sufficienti per avere un valore p inferiore a 0,05 per 
 qualsiasi ipotesi. 
 Quindi, come il modo per controllare, è tornare indietro e dire, e se avessi scelto l'esatto opposto nullo 
 ipotesi? 
 E se la mia ipotesi nulla fosse che ci fosse una relazione tra temperatura e R? 
 Allora ho abbastanza dati per rifiutare quell'ipotesi nulla, va bene? 
 E se la risposta è no, semplicemente non hai dati sufficienti per trarre conclusioni 
 tutto a posto? 
 Quindi in questo caso hanno dati sufficienti per essere sicuri che ci sia una relazione 
 tra la temperatura e R. Ora è strano perché abbiamo appena guardato il grafico e noi 
 ha fatto un po 'di back-of-the-buste in Excel e abbiamo pensato che fosse, potrebbe, 
 potrebbe essere casuale. 

Tamil: 
தவறான முடிவை எடுக்கிறார்கள்.
அப்படி எந்த அர்த்தமும் இல்லை, ஏனென்றால்
உங்களிடம் மூன்று தரவு புள்ளிகள் மட்டுமே இருந்தன என வைத்துக்கொள்வோம்
எந்தவொரு கருதுகோளுக்கும் 0.05 க்கும் குறைவான P-மதிப்பைக் கொண்டிருக்க போதுமான தரவு உங்களிடம் இருக்காது
சரிபார்க்கும் வழி, திரும்பிச் சென்று,
சூனிய எடுகோளுக்கு நேர் எதிரான கருதுகோளை எடுத்தால் என்ன என்பது தான்
சூனிய எடுகோள் "வெப்பநிலைக்கும் R க்கும் இடையில் ஒரு உறவு உள்ளது" என்று எடுத்துக்கொண்டால்
நம்மிடம் இருக்கும் தரவைக்கொண்டு
இந்த சூனிய எடுகோளை நிராகரிக்க முடியமா? பதில் "இல்லை" என்றால்
எந்தவொரு முடிவுகளையும் எடுக்க நம்மிடம் போதுமான தரவு இல்லை
எனவே இந்த விஷயத்தில்,
வெப்பநிலைக்கும் R க்கும் இடையில் ஒரு உறவு இருப்பதாக நம்புவதற்கு போதுமான தரவு அவர்களிடம் உள்ளது
இது வித்தியாசமானது, ஏனென்றால்
நாம் வரைபடத்தையும் , விரிதாளில் கணக்குகளையும் பார்த்து,
இது சீரற்றதாக இருக்கக்கூடும் என்று நாம் நினைத்தோம்

Japanese: 
問題はここにあります。
このグラフは、一変量関係と呼ばれるものを示しています。一変量関係は、
1つの独立変数と1つの従属変数の間の関係を示します。それが普通のグラフに表示できるものです。
しかし、このケースでは、
多変量モデルを用いて、気温、
湿度、
一人当たりGDP、
人口密度を調べました。
そして、それらをすべてモデルに入れると、温度と湿度について統計的に有意な結果が得られることになります。
なぜそうなるのでしょうか？なぜこのようなことが起こるのかというと、
青い点のこれらのすべての変化は無作為ではないのです。
異なっているのには理由がありますよね？その理由としては、
例えば、密度の高い都市ほど透過率が高いでしょう。
湿度の高い都市ほど透過率は低くなります。

English: 
So here's where the issue is.
The graph shows what we call a univariate
relationship.
A univariate relationship shows the relationship
between one independent variable and one dependent
variable, and that's what you can normally
show on a graph.
But in this case they did a multivariate model
in which they looked at temperature, and humidity,
and GDP per capita, and population density,
and when you put all of those things into
the model then you end up with statistically
significant results for temperature and humidity.
Why does that happen?
Well the reason that happens is because all
these variations in the blue dots, is not
random.
There's a reason they're different, right?
And the reasons include, denser cities are
going to have higher transmission, for instance,
and probably more humid will have less transmission.

Tamil: 
இங்கே பிரச்சினை என்னவென்றால்,
வரைபடம் நாம் 'தனித்துவமான உறவு' என்று அழைக்கப்படும் ஒன்றை காட்டுகிறது
ஒரு தனித்துவமான உறவு
ஒரு சுயாதீன மாறிக்கும், ஒரு சார்பு மாறிக்கும் இடையிலான உறவைக் காட்டுகிறது,
பொதுவாக ஒரு வரைபடத்தில் அதுவே காட்ட முடியும்
ஆனால் இந்த விஷயத்தில்
அவர்கள் ஒரு பன்முக மாதிரியைச் செய்தனர்,
அதில் அவர்கள் வெப்பநிலை மற்றும் ஈரப்பதம்
மற்றும் தனிநபர் மொத்த உள்நாட்டு உற்பத்தி
மற்றும் மக்கள் அடர்த்தி ஆகியவற்றைப் பார்த்தார்கள்
இவை அனைத்தும் மாதிரியில் வைக்கும்போது,
​​வெப்பநிலை மற்றும் ஈரப்பதத்திற்கான புள்ளிவிவரரீதியான குறிப்பிடத்தக்க முடிவுகளுடன் முடிவடையும்
அது ஏன் நடக்கிறது? ஏனென்றால்
நீல புள்ளிகளில் இந்த மாறுபாடுகள் அனைத்தும் சீரற்றவை அல்ல
அவை வேறுபட்டவை என்பதற்கு ஒரு காரணம் இருக்கிறது. அதற்கான மற்ற காரணங்கள்,
அடர்த்தியான நகரங்களில் அதிக பரவலைக் கொண்டிருக்கின்றன (உதாரணமாக)
மற்றும் அதிக ஈரப்பதம் குறைவான பரிமாற்றத்தைக் கொண்டிருக்கலாம்.

Italian: 
 Quindi ecco dov'è il problema. 
 Il grafico mostra ciò che chiamiamo relazione univariata. 
 Una relazione univariata mostra la relazione tra una variabile indipendente e una dipendente 
 variabile, ed è quello che normalmente puoi mostrare su un grafico. 
 Ma in questo caso hanno fatto un modello multivariato in cui hanno esaminato la temperatura e l'umidità, 
 e PIL pro capite e densità di popolazione, e quando mettete tutte queste cose in 
 il modello quindi si finisce con risultati statisticamente significativi per temperatura e umidità. 
 Perché succede? 
 Ebbene, la ragione che accade è perché tutte queste variazioni nei punti blu non lo sono 
 casuale. 
 C'è una ragione per cui sono diversi, giusto? 
 E le ragioni includono, le città più dense avranno una trasmissione più elevata, ad esempio, 
 e probabilmente più umido avrà meno trasmissione. 

Chinese: 
所以这就是问题所在
so here's where the issue is
该图显示了我们所说的单变量关系
the graph shows what we call a univariate relationship
单变量关系表示
a univariate relationship shows the relationship between
一个自变量和一个因变量之间的关系
one independent variable and one dependent variable
这通常是在图表上所显示的内容
and that's what you can normally show on a graph
但在这个例子中
but in this case
他们做了一个多元模型  在这个模型中他们观察了
they did a multivariate model in which they looked at
温度、湿度、人均GDP和人口密度
temperature and humidity and GDP per capita and population density
当你把这些东西都放进模型里
and when you put all of those things into the model
然后你得到了
then you end up with
对温度和湿度有显著统计意义的结果
statistically significant results for temperature and humidity
为什么会这样呢
why does that happen
发生的原因是
the reason that happens is because
所有蓝点的这些变化不是随机的
all these variation in the blue dots is not random
他们不一样是有原因的
there's a reason they're different
原因包括
and the reasons include
例如 人口稠密的城市将有更高的传播率
denser cities are going to have higher transmission for instance
而传播率较低的城市可能会更潮湿
and probably more humid who have less transmission

Spanish: 
Aquí es donde está el problema.
El gráfico muestra lo que llamamos una relación univariante.
Una relación univariante muestra la relación entre una variable independiente y una variable dependiente
Eso es lo que normalmente se puede mostrar en un gráfico
Pero en este caso hicieron un modelo multivariante en el que miraron la temperatura,
y la humedad, y el PIB per cápita,
y la densidad de población.
Cuando pones todas esas cosas en el modelo, entonces terminas
con resultados estadísticamente significativos para
la temperatura y la humedad. ¿Por qué sucede eso?
Bueno, la razón por la que sucede es porque
todas estas variaciones en los puntos azules,
no son aleatorias. Hay una razón por la que son diferentes.
Y las razones incluyen,
las ciudades más densas van a tener una mayor transmisión
por ejemplo, y probablemente las más húmedas
tendrán menos transmisión.

Tamil: 
எனவே நீங்கள் ஒரு பன்முக மாதிரியைச் செய்யும்போது,
உங்கள் முடிவுகளைப் பற்றி அதிக நம்பிக்கையுடன் இருக்க இது உங்களை அனுமதிக்கிறது, இல்லையா?
ஆனால் P-மதிப்பு (அமெரிக்க புள்ளிவிவர சங்கம் குறிப்பிட்டுள்ளபடி)
நடைமுறையில் முக்கியத்துவம் வாய்ந்ததா என்று சொல்வதில்லை.
நமக்கு நடைமுறையில் முக்கியத்துவம் வாய்ந்தது என்பதை குறிப்பது
இதன் சாய்வு, என்று நினைக்கிறன்
எனவே இந்த விஷயத்தில்
அவர்கள் கொண்டு வரும் சமன்பாடு என்னவென்றால்,
R = 3.968 - 0.0383 *வெப்பநிலை - 0.0224 * ஒப்பு ஈரப்பதம்
இது தான் அந்த சமன்பாடு.
இது நடைமுறையில் முக்கியமா? சரி, நாம் மீண்டும் ஒரு சிறிய பரிசோதனை செய்யலாம்
அதை எக்செல் இல் வைப்பதன் மூலம் ...
உதாரணமாக ஒரு இடத்தில் 10 சென்டிகிரேட் வெப்பநிலை,
மற்றும் நாற்பது ஈரப்பதம் இருந்தால்,

English: 
So when you do a multivariate model, it actually
allows you to be more confident of your results,
right?
But the p-value as noted by the American Statistical
Association does not tell us whether this
is of practical importance.
The thing that tells us if this is of practical
as importance, is the actual slope that's
found.
And so in this case the equation they come
up with is that R = three point nine six eight
minus three point O point O three eight by
temperature minus point zero two four by relative
humidity this is this equation is this practically
important.
Well we can again do a little back of the
envelope here, by just putting that into Excel.
Let's say there was one place it had a temperature
of ten centigrade and a humidity of forty,

Japanese: 
多変量モデルを使うと結果に自信が持てるようになります。
しかし、アメリカ統計協会が指摘しているように、p値は、これが実際に重要かどうかを教えてくれるものではありません。
これが実用的に重要かどうかを教えてくれるのは、グラフの傾きです。
この場合、
彼らが出してきた方程式は R = 3.968から0.0383かける温度を引き、
それから0.0224かける相対湿度を引いたものです。
これはこの方程式です。これは実用的に重要でしょうか？ ここでまた、手早く
エクセルに入力してみましょう。
温度が10℃で湿度が40％の場所があったとします。

Italian: 
 Quindi, quando crei un modello multivariato, in realtà ti consente di essere più sicuro dei tuoi risultati, 
 giusto? 
 Ma il valore p come rilevato dall'American Statistical Association non ci dice se questo 
 è di importanza pratica. 
 La cosa che ci dice se questo è di importanza pratica quanto importante, è l'effettiva pendenza che è 
 trovato. 
 E quindi in questo caso l'equazione che escono è che R = tre virgola nove sei otto 
 meno tre punto O punto O tre otto per temperatura meno punto zero due quattro per parente 
 umidità questa è questa equazione è questo praticamente importante. 
 Bene, possiamo di nuovo fare un po 'indietro della busta qui, semplicemente inserendolo in Excel. 
 Diciamo che c'era un posto in cui aveva una temperatura di dieci gradi centigradi e un'umidità di quaranta, 

Spanish: 
Cuando haces un modelo multivariado,
te permite tener más confianza en tus resultados.
Pero el valor p
como lo señala la Asociación Estadística Americana no nos dice
si esto es de importancia práctica.
Lo que nos dice si esto es de importancia práctica, es la pendiente real que se calcula.
En este caso,
la ecuación que se obtiene
es que R=3,968 - 0,383 x temperatura - 0,0224 x humedad relativa
Esta es esta ecuación. ¿Esto es importante en la práctica?
Podemos volver a hacer un cálculo aproximado aquí
con sólo poner eso en Excel.
Digamos que hay un lugar que tiene una temperatura de 10 centígrados y una humedad de 40,

Chinese: 
所以当你做多元模型时
so when you do a multivariate model
这实际上让你
it actually allows you
对模型的结果更有信心
to be more confident of your results
但是美国统计协会指出 p值
but the p-value as noted by the American Statistical Association
并没有告诉我们这是否具有实际重要性
does not tell us whether this is a practical importance
它告诉我们的是
the thing that tells us is
求得的有实际重要性的斜率
this is practical as importance is the actual slope that's found
在这种情况下
and so in this case
他们求得的方程是
the equation they come up with is that
R = 3.968 - 0.0383Temperature - 0.0224 RelativeHumidity
方程在这里
this is this equation
这个方程式是否有实际重要性呢？
is this practically important
我们可以在这里初略统计一下
we can again do a little back-of-the-envelope here
通过放入Excel的方式
by just putting that into Excel
假设有一个城市
let's say there was one place
城市的气温是10℃
it had a temperature of ten centigrade
湿度是40%
and a humidity of forty

Chinese: 
如果这个方程正确的话  R大约是2.7
then if this equation is correct R would be about 2.7
当一个城市温度是35℃
somewhere with the temperature of 35 centigrade
湿度是80%
and a humidity of 80
R大约是0.8
R will be about point eight
所以这真的很重要吗?
so is this practically important
天哪 是的!
oh my god yes right
气候不同的两个城市
two different cities with different climates
如果它们在其他方面都是一样
can be if they're the same in every other way
并且这个模型是正确的话
and this model is correct
那么有一个城市不会出现疾病的传染
then one city would have no spread of disease
因为 R<1
because R < 1
如果是1的话就会有指数爆炸式的传播
1 would have massive exponential explosion
所以我们可以从这个模型中了解到
so we can see from this model
假定模型是正确的话
that if the modeling is correct
那么这是一个非常有实际意义的结果
then this is a highly practically significant result
所以这就是你如何确定
so this is how you determine
模型的实际意义
practical significance of your models
不是由p值
it's not with p-values
而是由实际结果而定
but with looking at kind of actual outcomes
那么你是如何看待模型的实际重要性
so how do you think about the practical importance of a model
你是如何将建立的预测模型
and how do you turn a predictive model

Spanish: 
entonces si esta ecuación es correcta R sería alrededor de 2,7.
Algún lugar con la temperatura de 35 centígrados y una humedad de 80 será alrededor de 0.8.
¿Así que esto es prácticamente importante? Oh, Dios mío, ¡sí!
¿verdad?
Dos ciudades diferentes, con climas diferentes
pueden ser, si son iguales en todos los demás sentidos, y este modelo es correcto
entonces una ciudad no tendría propagación de enfermedades (porque R es menos de 1)
uno tendría una explosión exponencial masiva.
Podemos ver en este modelo que si el modelado es correcto,
entonces este es un resultado muy significativo en la práctica.
Así es como se determina la importancia práctica de los modelos
no con valores p, sino mirando el tipo de resultados reales.

Japanese: 
この式が正しいとすると Rは約2.7になります。
温度が35℃で湿度が80％の場所では
約0.8になります。
これは実質的に重要でしょうか？何てことでしょう、そうです。
異なる気候を持つ２つの異なる都市は、
もし他のすべての点で同じであって、このモデルが正しければ、
１つの都市では病気が広がらず（Rが1より小さいので）、１つの都市では大規模な指数関数的爆発が起こるでしょう。
ですから、
もしこのモデルが正しければ、これは非常に実用的に重要な結果であることがわかります。
このように、モデルの実用的な重要性を判断する方法は、p値ではなく、
実際の結果を見て判断することです。
ですから、モデルの実用的な重要性を
どのように考え、

Tamil: 
பின்னர் இந்த சமன்பாடு சரியாக இருந்தால், R,2.7 ஆக இருக்கும்
வேறொருஇடத்தில்  35 சென்டிகிரேட் வெப்பநிலை மற்றும் 80 ஈரப்பதம்
ஆர் 0.8 ஆக இருக்கும்
எனவே இது நடைமுறையில் முக்கியமா? கடவுளே. ஆமாம்,
வெவ்வேறு தட்பவெப்பநிலைகளைக் கொண்ட இரண்டு வெவ்வேறு நகரங்கள் அவை மற்ற
எல்லா வழிகளிலும் ஒரே மாதிரியாக இருந்து, இந்த மாதிரியும் சரியாக இருந்தால்
ஒரு நகரத்திற்கு நோய் பரவாது, R,1 க்கும் குறைவாக இருப்பதால்.
மற்றொரு நகரத்தில் பாரிய அடுக்குக்குறி வெடிப்பு இருக்கும்
ஆகவே
இந்த மாதிரியிலிருந்து என்ன பார்க்க முடிகிறது என்றால்
மாதிரி சரியாக செய்ந்திருந்தால்,
இது மிகவும் நடைமுறையில் குறிப்பிடத்தக்க முடிவாக இருக்கும்
எனவே உங்கள் மாதிரிகளின் நடைமுறை முக்கியத்துவத்தை இப்படி தீர்மானிக்கலாம்,
P-மதிப்புகளை கொண்டு அல்லாமல்
உண்மையான விளைவுகளை மட்டுமே பார்த்து தீர்மானிக்க வேண்டும்
ஒரு மாதிரியின் நடைமுறை முக்கியத்துவத்தைப் பற்றி நாம் எப்படி யோசிக்கலாம்

Italian: 
 allora se questa equazione è corretta R sarebbe circa due virgola sette da qualche parte con la temperatura 
 di 35 gradi centigradi e un'umidità di ottanta saranno circa il punto otto. 
 Quindi questo è praticamente importante? 
 Oh mio dio si, giusto? 
 Possono esserlo due città diverse, con climi diversi, se sono uguali l'una nell'altra 
 modo, e questo modello è corretto, una città non avrebbe diffusione di malattie (perché R 
 è inferiore a 1), si avrebbe una massiccia esplosione esponenziale. 
 Quindi possiamo vedere da questo modello che se la modellazione è corretta, allora questo è altamente 
 risultato praticamente significativo. 
 Quindi è così che determini il significato pratico dei tuoi modelli non con valori p ma con 
 guardando al tipo di risultati effettivi. 
 Allora come pensi all'importanza pratica di un modello e come trasformare un predittivo 

English: 
then if this equation is correct R would be
about two point seven somewhere with the temperature
of 35 centigrade and a humidity of eighty
will be about point eight.
So is this practically important?
Oh my god yes, right?
Two different cities, with different climates
can be, if they're the same in every other
way, and this model is correct then one city
would have no spread of disease (because R
is less than 1), one would have massive exponential
explosion.
So we can see from this model that if the
modeling is correct, then this is a highly
practically significant result.
So this is how you determine practical significance
of your models is not with p-values but with
looking at kind of actual outcomes.
So how do you think about the practical importance
of a model and how do you turn a predictive

Spanish: 
¿Cómo piensas sobre la importancia práctica de un modelo y cómo conviertes un modelo predictivo en algo útil en la producción?
Pasé muchos años pensando en esto,
y de hecho creé,
con otras grandes personas, de hecho creé un documento sobre ello.
"Diseñando Productos Geniales de Datos"
Esto se basa en gran medida
en diez años de trabajo que hice en una compañía que fundé llamada
Optimal Decisions Group.
Optimal Decisions Group se centró en la cuestión
de ayudar a las compañías de seguros a determinar qué precios establecer.
Las compañías de seguros hasta ese momento se habían centrado en el modelado predictivo.
Los actuarios, en particular, dedicaban su tiempo a tratar de averiguar
qué tan probable es que vas a chocar su coche
y si lo hace cuánto daño podría tener
y luego, basándose en eso, tratar de averiguar qué precio
deberían fijar para su póliza.
Así que para esta compañía, lo que hicimos

Tamil: 
மற்றும் ஒரு முன்கணிப்பு மாதிரியை உற்பத்தியில் பயனுள்ள ஒன்றாக மாற்றுவது எப்படி?
எனவே இதைப் பற்றி யோசித்து பல வருடங்கள் செலவிட்டேன்,
உண்மையில் இதைப் பற்றி (வேறு சில பெரிய நபர்களுடன்) ஒரு காகிதத்தை கட்டுரை எழுதியுள்ளேன்
"டிசைனிங் கிரேட் டாட்டா ப்ரோடுக்ட்ஸ்" என்பது அதன் பெயர்
மேலும்
இது பெரும்பாலும்
பத்து வருடங்களாக, ஒரு நிறுவனத்தில், நான் செய்த வேலைகளை அடிப்படையாக கொண்டது
அது என்னால் நிறுவப்பட்ட நிர்வாணம், அதன் பெயர் - "ஆப்டிமல் டெஸிஸின்ஸ் குரூப்"
"ஆப்டிமல் டெஸிஸின்ஸ் குரூப்" -
காப்பீட்டு நிறுவனங்கள், என்ன விலைகளை நிர்ணயிக்க வேண்டும் என்பதில் கவனம் செலுத்தியது
மேலும்
அதுவரை, காப்பீட்டு நிறுவனங்கள், குறிப்பாக முன்கணிப்பு மாதிரிகளின்
காப்பீட்டுக் கணிப்பாளர்கள் குறிப்பாக,
தங்கள் நேரத்தை,
உங்கள் கார் விபத்துக்குள்ளாகும் வாய்ப்பை கணிப்பதில், செலவிட்டனர்
அப்படி செய்தால் உங்களுக்கு எவ்வளவு சேதம் ஏற்படக்கூடும்?
அதன் அடிப்படையில்
காப்பீட்டிற்கு, எந்த விலையை நிர்ணயிக்க வேண்டும் என்பதைக் கண்டுபிடிக்க முயற்சிக்கிறார்கள்
எனவே இந்த நிறுவனத்திற்கு

English: 
model into something useful in production.
So I spent many many years thinking about
this, and I actually created a with some other
great folks actually created a paper about
it.
"Designing Great Data Products" And this is
largely based on ten years of work I did at
a company I founded called Optimal Decisions
Group.
And Optimal Decisions Group was focused on
the question of helping insurance companies
figure out what prices to set.
And insurance companies up until that point
had focused on predictive modeling.
Actuaries, in particular, spent their time
trying to figure out how likely is it that
you're going to crash your car and if you
do how much damage might you have and then
based on that try to figure out what price
they should set for your policy.

Chinese: 
转化为生产中有用的东西
into something useful in production
我花了很多年的时间思考这个问题
so I spent many many years thinking about this
实际上我和一些厉害的朋友一起
and I actually created with some other great folks
完成了一篇关于这个问题的论文
actually created a paper about it
《设计实用的数据产品》
Designing great data products
文章内容主要是基于
and this is largely based on
在我成立的公司工作十年的经历
ten years of work I did at a company I founded called
公司名为"最优决策集团"
optimal decisions group
"最优决策集团"所关注的问题是
and optimal decisions group was focused on a question
帮助保险公司解决定价的问题
of helping insurance companies figure out what prices to set
在此之前  保险公司一直
and insurance companies up until that point
专注于预测建模
had focused on predictive modeling
特别是精算师花时间试图弄清楚
actuaries in particular spent their time trying to figure out
你撞车的可能性有多大
how likely is it that you're going to crash your car
如果你这样做你会有多大的损失
and if you do how much damage might you have
然后以此为基础  他们尝试计算出
and then based on that try to figure out
应该为你的保单定价多少
what price they should set for your policy
对于这家公司  我们所做的就是
so for this company what we did was

Italian: 
 modello in qualcosa di utile nella produzione. 
 Quindi ho passato molti anni a pensarci, e in realtà ne ho creato un con qualcun altro 
 persone fantastiche hanno effettivamente creato un articolo al riguardo. 
 "Progettazione di ottimi prodotti per dati" E questo si basa in gran parte su dieci anni di lavoro che ho svolto 
 una società che ho fondato chiamata Optimal Decisions Group. 
 E Optimal Decisions Group si è concentrato sulla questione di aiutare le compagnie di assicurazione 
 capire quali prezzi impostare. 
 E le compagnie di assicurazione fino a quel momento si erano concentrate sulla modellazione predittiva. 
 Gli attuari, in particolare, hanno passato il loro tempo a cercare di capire quanto fosse probabile ciò 
 stai per schiantare la tua macchina e se lo fai quanti danni potresti avere e poi 
 in base a ciò, cerca di capire quale prezzo dovrebbero impostare per la tua politica. 

Japanese: 
予測モデルをどのようにして生産に役立つものに変えていけばいいのでしょう。
私はこのことについて何年も考えてきました。
そして
実際に他の素晴らしい人たちと一緒に論文を作成しました。
「優れたデータ製品の設計」
これは
私が設立した
オプティマル・ディシジョン・グループという会社で
10年に渡って行ってきた仕事に基づいています。オプティマル・ディシジョンズ・グループは
保険会社がどのような価格を設定すべきかを把握することに重点を置いていました。
それまで
保険会社は、予測モデリングに重点を置いていました。特にアクチュアリーは、
Spent their time trying to figure out
車を衝突させる可能性がどの程度あるのか、また衝突した場合の損害はどの程度なのかを把握し、
それに基づいて保険会社がどのような価格を設定すべきかを考えることに時間を費やしていました。

Japanese: 
この会社の場合は、別のアプローチ、
つまりここで説明したドライブトレインアプローチというものを使って、
保険の価格を設定だけではなく他にもいろいろなことに活用してきました。保険の例で言うと、
保険会社の目的は、いかにして
5年間の利益を
最大化するかということです。
そのために、どのようなインプットをコントロールすることができるでしょか。私はこれをレバーと呼びます。
この場合、それは設定する価格です。
そして、データは、レバーを変えることで目的がどう変わるかを知ることのできるデータです。
例えば、車を衝突させる可能性の高い人たちの価格を上げれば、そういう人たちの数は減り、
コストは減りますが、同時に収入も減ることになります。

Spanish: 
fue decidir usar un enfoque diferente
que terminé llamando el enfoque del tren motriz
que se describe aquí para
fijar los precios de los seguros y, de hecho, para hacer
todo tipo de otras cosas. Para el ejemplo del seguro,
el objetivo sería para una compañía de seguros sería
cómo maximizar mi, digamos, beneficio a cinco años.
Y luego, qué entradas podemos controlar
lo que yo llamo palancas
así que en este caso sería qué precio puedo fijar.
Entonces los datos son datos que
que pueden decirle a medida que cambie sus palancas
cómo cambia eso su objetivo. Así que si empiezo a aumentar
mi precio a las personas que probablemente choquen su coche
tendremos menos de ellos,
lo que significa que tenemos menos costes
pero al mismo tiempo, también tendremos menos ingresos entrando,
por ejemplo. Así que para vincular los palancas al objetivo

Chinese: 
决定采用不同的方法
we decided to use a different approach
这个方法最后我称之为Drivetrain方法
which I ended up calling the drivetrain approach
像这里所描述的
which is described here
是为了确定保险价格
to just set insurance prices
也可以完成各式各样的任务
and indeed to do all kinds of other things
那么关于保险的例子
and so for the Insurance example
目标将为 如果是一家保险公司的话
the objective would be if an insurance company would be
如何使公司的五年期利润最大化
how do I maximize my let's say five-year profit
我们可以控制哪些输入 我称这为Levers
and then what inputs can we control which what I call levers
在这个例子中  就是我能定多少价格
so in this case it would be what price can I set
数据  它可以告诉你
and then data is data which can tell you
当你改变Levers时
as you change your levers
它将如何影响你的目标
how does that change your objective
所以如果我开始提高价格
so if I start increasing my price
对于那些可能撞车的人
to people who are likely to crash their car
那么这样的用户会更少 也就意味着我们损失更小
then will get less of them which means we have less costs
但同时我们的营收也会减少
but at the same time we'll also have less revenue coming in
这是一个例子
for example
所以把这些Levers和目标联系起来
so to link up there kind of the levers to the objective
通过我们收集的数据
via the data we collect
我们建立模型来描述
we build models that described

English: 
So for this company, what we did was we decided
to use a different approach which I ended
up calling the drivetrain approach which is
described here to set insurance prices and
indeed to do all kinds of other things.
And so, for the Insurance example, the objective
would be for an insurance company would be
how do I maximize my, let's say, five-year
profit.
And then, what inputs can we control can we
control which what I call levers - so in this
case it would be what price can I set.
And then data is data which can tell you as
you change your levers how does that change
your objective.
So if I start increasing my price to people
who are likely to crash their car, then we
will get less of them which means we have
less costs, but at the same time, we'll also
have less revenue coming in, for example.
So to link up there kind of the levers to
the objective via the data we collect, we

Tamil: 
நாங்கள் செய்தது வேறு அணுகுமுறையைப் பயன்படுத்த முடிவு செய்தோம்
'DriveTrain அணுகுமுறை' என்று நான் அழைத்தேன்,
இது இங்கே விவரிக்கப்பட்டுள்ளது
காப்பீட்டு தொகை நிர்ணயிக்க மற்றும் எல்லா வகையான பிற விஷயங்களையும் செய்ய
இந்த காப்பீடு உதாரணத்திற்கு,
காப்பீடு நிர்வனங்களுக்கான குறிக்கோள்
அடுத்த ஐந்தாண்டு லாபத்தை எப்படி அதிகரிப்பது என்பதாக இருக்கும்.
என்ன உள்ளீட்டை
அதை நான் நெம்புகோல்கள் என்று குறிப்பிடுகிறேன், கட்டுப்படுத்த முடியும்?
இந்த விஷயத்தில், என்ன விலை நிர்ணயிப்பது என்பதாகும்
தரவு என்பது
நெம்புகோல்களை மாற்றுவதைபோருது நோக்கம் எவ்வாறு மாறுகிறது என்பதை சொல்கிறது
இப்பொது நான்,
தங்கள் காரை விபத்துக்குள்ளாக அதிக வாய்ப்பை பெற்றவர்களின் தொகயை அதிகப்படுத்தினால்
அவர்களில் குறைவானவர்களே சேர்வார்கள்
இதன் பொருள் நம் செலவுகள் குறையும்
ஆனால் அதே நேரத்தில் நம் வருவாயும் குறையும்.
எனவே, நெம்புகோல்களை குறிக்கோளுடன்,
நாம் சேகரிக்கும் தரவுகளின் மூலம் இணைக்க
மாதிரிகளை உருவாக்குகிறோம்

Italian: 
 Quindi per questa azienda, quello che abbiamo fatto è stato decidere di utilizzare un approccio diverso che ho concluso 
 chiamando l'approccio di trasmissione che è descritto qui per impostare i prezzi dell'assicurazione e 
 anzi per fare ogni genere di altre cose. 
 E così, per l'esempio delle assicurazioni, l'obiettivo sarebbe per una compagnia di assicurazioni 
 come posso massimizzare il mio profitto, diciamo, quinquennale. 
 E poi, quali input possiamo controllare, possiamo controllare ciò che chiamo leve, quindi in questo 
 caso sarebbe quale prezzo posso impostare. 
 E poi i dati sono dati che possono dirti mentre cambi le leve come cambia 
 il tuo obiettivo. 
 Quindi, se inizio ad aumentare il prezzo per le persone che rischiano di far schiantare la loro auto, allora noi 
 ne avremo meno, il che significa che abbiamo meno costi, ma allo stesso tempo lo faremo anche 
 avere meno entrate in entrata, ad esempio. 
 Quindi, per collegare lì tipo di leve all'obiettivo tramite i dati che raccogliamo, noi 

Japanese: 
そこで、収集したデータを介して、目的とレバーを結びつけるために、レバーがどのように目的に影響を与えるかを説明する
モデルを構築しました。
このように言うと、当たり前のことのように思えますが、
私たちが1999年にオプティマル・ディシジョンズの仕事を始めたときには、保険業界では誰もこのようなことをしていませんでした。
保険業界では誰もが予測モデルを使って 車を衝突させる可能性を推測していました。
そして価格設定は20％とか何かを追加して設定するなど、非常にナイーブな方法で行われていました。
私がしたことは、
この基本的なプロセスを何年にもわたって、多くの企業が予測モデルを行動に移すために、このプロセスをどのように使うかを理解する
手助けをしてきたことです。
特定のモデルで
実際に価値を得るための出発点は、自分が何をしようとしているのかを考えることであり、
自分がしようとしていることの価値の源泉は何かを知ることです。

English: 
build models that described how the levers
influence the objective.
And this is all like it seems pretty obvious
when you say it like this but when we started
work with Optimal Decisions in 1999, nobody
was doing this in insurance, Everybody in
insurance was simply doing a predictive model
to guess how likely people were to crash their
car, and then pricing was set by like adding
20% or whatever.
It was just done in a very kind of naive way.
So what I did is I, you know, over many years
took this basic process and tried to help
lots of companies figure out how to use it
to turn predictive models into actions.
So the starting point in like actually getting
value in a particular model is thinking about
what is it you're trying to do, and you know
what are the sources of value in that thing
you're trying to do.
The levers - what are the things you can change?

Italian: 
 costruire modelli che descrivono come le leve influenzano l'obiettivo. 
 E tutto questo sembra abbastanza ovvio quando lo dici in questo modo, ma quando abbiamo iniziato 
 lavorare con Optimal Decisions nel 1999, nessuno lo faceva nelle assicurazioni, Tutti in 
 l'assicurazione stava semplicemente elaborando un modello predittivo per indovinare la probabilità che le persone avessero il loro 
 auto, e quindi il prezzo è stato fissato aggiungendo il 20% o altro. 
 È stato fatto in un modo molto ingenuo. 
 Quindi quello che ho fatto è che, sai, per molti anni ho preso questo processo di base e ho cercato di aiutare 
 molte aziende capiscono come usarlo per trasformare i modelli predittivi in ​​azioni. 
 Quindi il punto di partenza per ottenere effettivamente valore in un particolare modello sta pensando 
 che cosa stai cercando di fare e sai quali sono le fonti di valore in quella cosa 
 stai cercando di fare. 
 Le leve: quali sono le cose che puoi cambiare? 

Tamil: 
நெம்புகோல்கள் குறிக்கோளை எப்படி பாதிக்கின்றன என்பதை விவரிக்க, மாதிரிகள் உதவுகின்றன
இப்படி கூறுவதானால் இது மிகவும் தெளிவாக தெரிகிறது. ஆனால்
1999 இல் நாங்கள் ஆப்டிமல் டெஸிஷியன்ஸில் பணிபுரியத் தொடங்கியபோது, ​​
காப்பீடு துறையில் யாரும் இப்படிச் செய்யவில்லை.
அனைவருமே முன்கணிப்பு மாதிரிகளை கொண்டு
காரை விபத்துக்குளாக்க யாருக்கு அதிக வாய்ப்பிருக்கும் என்று யூகித்தது கொண்டுஇருந்தனர்
அந்த தொகையோடு 20% ஐ சேர்த்து விலையை நிர்ணயிக்கப்பட்டது
இது ஒரு ஒழுங்கற்ற வழியில் செய்யப்பட்டது.
எனவே
நான் செய்தது என்னவென்றால்
பல ஆண்டுகளாக இந்த அடிப்படை செயல்முறையை எடுத்து,
பல நிறுவனங்களுக்கு, இதை பயன்படுத்தி
முன்கணிப்பு மாதிரிகள் செயல்களாக எப்படி மாற்றவேண்டும் என்று உதவினோம்
எனவே முன்கணிப்பு மாதிரியில் மதிப்பைப் பெறுவதற்கான தொடக்கப் புள்ளி
நீங்கள் என்ன செய்ய முயற்சிக்கிறீர்கள் என்பதைப் பற்றி சிந்திப்பதாகும்.
நீங்கள் செய்ய முயற்சிக்கும் விஷயத்தில் மதிப்பின் ஆதாரங்கள் என்ன என்பதைப்பொறுத்தது
நெம்புகோல்கள், நீங்கள் மாற்றக்கூடிய விஷயங்கள் யாவை?

Chinese: 
Levers是如何影响目标的
how the levers influence objective
这一切看起来好像显而易见
and this is all like  it seems pretty obvious like this
但是当我们在1999年开始研究最优决策时
but when we started work with optimal decisions in 1999
保险行业没有人研究过
nobody was doing this an insurance
任何在保险行业的人只是简单地
everybody in insurance was simply
构建一个预测模型
doing a predictive model
去猜测人们撞车的可能性有多大
to guess how likely people were to crash their car
然后再追加比如20%的价格
and then pricing was set by like adding 20%
用一种非常缺乏经验的方式去实现
whatever it was just done in a very kind of naive way
我所做的就是
so what I did is
一直坚持这个基本流程
I you know over many years took this basic process
并尝试帮助许多公司
and tried to help lots of companies
利用该流程  去找到使预测模型行之有效的方法
figure out how to use it to turn predictive models into actions
所以在一个特定的模型中
so the starting point in like
获得价值的出发点
actually getting value in a particular model
是思考你想做什么
is thinking about what is it you're trying to do
并且你知道你做的事情价值所在
and you know what are the sources of value in that thing
并且你知道你做的事情价值所在
you're trying to do
Levers是你能做出改变的事情
the levers what are the things you can change
比如 思考预测模型要完成的目标是什么
like what's the point of a predictive model

Spanish: 
a través de los datos que recogemos, construimos modelos que describen cómo las palancas
influyen en el objetivo. Y todo esto
parece bastante obvio cuando lo dices así,
pero cuando empezamos a trabajar
con Optimal Decisions en 1999, nadie estaba haciendo esto
en los seguros, Todos en los seguros simplemente
hacían un modelo predictivo para adivinar
la probabilidad de que la gente chocara su coche, y luego
el precio se fijaba añadiendo un 20% o lo que fuera.
Se hizo de una manera muy ingenua.
Lo que hice es que, durante muchos años,
tomé este proceso básico y traté
de ayudar a muchas empresas a averiguar cómo usarlo para convertir
los modelos predictivos en acciones.
El punto de partida para obtener valor en un modelo particular
es pensar en qué es lo que intentas hacer, cuáles son las fuentes
de valor en esa cosa que intentas hacer.
Las palancas...¿cuáles son las cosas que puedes cambiar?

Japanese: 
レバーとは、私たちが何を変えることができるのか？何もできないのであれば、予測モデルの意味はないでしょう。
自分が持っていないデータを見つける方法や、適切なデータ、利用可能なデータを見つけ出し、
その上でどのようなアプローチでアナリティクスに取り組むかを考えます。
そして超重要なのは、
その変更を実際に実行できるかどうかです。そして、環境の変化に合わせて
実際にどのように変化させていくかということも非常に重要です。
興味深いことに、これらのことの多くは、学術的な研究があまり行われていない分野です。少しはありますが。
「メンテナンス」に関する論文の中には、機械学習モデルがまだ大丈夫かどうかをどうやって判断するのか、
どうやって更新して行ったらいいのか、などがあります。たくさんの引用がありましたが、
多くの人が数学に集中しているため、あまり頻繁には出てきませんでした。
そして、「この全体にはどんな制約があるのか」という全体的な質問があります。

English: 
Like what's the point of a predictive model
if you can't do anything about it, right?
Figuring out ways to find what data you, you
don't have, which ones suitable, what's available,
then thinking about what approaches to analytics
you can then take.
And then super important, like well, can you
actually implement, you know, those changes.
And super super important how do you actually
change things as the environment changes.
And, you know, interestingly a lot of these
things are areas where there's not very much
academic research.
There's a little bit.
And some of the papers that have been particularly
around “maintenance” of like; How do you
decide when your machine learning model is
kind of still okay?
How do you update it over time?
Have had like many many many many citations,
but they don't pop up very often because a
lot of folks are so focused on the math.
You know.
And then there's the whole question of like
“What constraints are in place across this
whole thing?”

Spanish: 
Cuál es el objectivo de un modelo predictivo si no puedes hacer nada al respecto, ¿verdad?
Averiguar las formas de encontrar qué datos no tienes,
cuáles son adecuados, cuáles están disponibles; luego pensar en qué
enfoques de análisis puedes tomar.
Luego, lo más importante, ¿puedes realmente implementar esos cambios.
Y súper importante, ¿cómo cambias las cosas a medida que cambia el entorno?
Es interesante que muchas de estas cosas son áreas donde no hay mucha investigación académica.
Hay un poco.
Algunos de los artículos que han sido particularmente sobre "mantenimiento".
¿Cómo decides cuando tu modelo de aprendizaje de la máquina
todavía está bien? ¿Cómo lo actualizas con el tiempo?
Han tenido como muchas, muchas, muchas citas,
pero no aparecen muy a menudo porque
mucha gente está tan centrada en las matemáticas.
Y luego está toda la cuestión de
"¿Qué restricciones hay en todo esto?"
Lo que encontrarás en el libro, es que hay un apéndice completo

Chinese: 
当你没有头绪的时候
if you can't do anything about it right
想办法找出
figuring out ways to find
你所没有的数据
what data you don't have
哪些数据合适 哪些数据有效
which ones suitable what's available
然后思考
then thinking about
你可以采取什么样的分析方法
what approaches to analytics you can then take
很重要的一步是
and then super important like
你真的能实施这些调整吗
can you actually implement you know those changes
更重要的是
and super super important
你是如何随着环境的变化而进行调整的
how do you actually change things as the environment changes
有意思的是  在这些领域\中
and you know interestingly a lot of these things areas
学术研究并不多
where there's not very much academic research
是有一点学术理论
there's a little bit
像一些关于运维的文章
some of the papers that have been particularly around maintenance
比如你如何决定你的机器学习模型
of like how do you decide when your machine learning model
依然有效
is kind of still okay
如何随着时间推移更新
how do you update it over time
我会加入很多引文
I've had like many many many many citations
但是不经常出现
but they don't pop up very often
因为很多人都太专注于数学了
because a lot of folks are so focused on the math
还有一个问题就是
and then there's the whole question of like
贯穿整个流程中有什么约束
what constraints are in place across this whole thing
所以你会在书中找到
so what you'll find in the book
一个完整的附录
is there is a whole appendix

Tamil: 
முன்கணிப்பு மாதிரியை வைத்து எதுவும் செய்ய முடியாவிட்டால், அதன் பயன் என்ன?
நம்மிடம் இல்லாத தரவு என்ன என்பதைக் கண்டுபிடிப்பதற்கான வழிகளைக் கண்டுபிடிப்பது,
எது பொருத்தமானது, எது கிடைக்கிறது என்பதற்கு
ஏற்ப, பகுப்பாய்வுகளுக்கு என்ன அணுகுமுறை எடுக்க வேண்டும் என்று சிந்திக்க வேண்டும்
முக்கியமாக
அந்த
மாற்றங்களை செயல்படுத்த முடியுமா என்று பார்க்கவேண்டும்.
அதைவிட முக்கியமானது என்னவென்றால்
சூழல் மாறும்போது நீங்கள் உண்மையில் விஷயங்களை எவ்வாறு மாற்றுவது ஆகும்
இதில் சுவாரஸ்யமான விஷயம் எனவென்றால்,
இந்த பகுதிகளில் நிறைய கல்வி ஆராய்ச்சி அதிகம் இல்லை, ஆனால் ஒரு சில உள்ளன
பராமரிப்பைச் சுற்றியுள்ள சில ஆவணங்கள் உள்ளன.
இயந்திர கற்றல் மாதிரி இப்போதும் பொருத்தமாக உள்ளதா என, எவ்வாறு முடிவு செய்வீர்கள்.
காலப்போக்கில் அதை எவ்வாறு புதுப்பிப்பது?
இவைகளுக்கு பல பல மேற்கோள் உள்ளன
ஆனால் அவர்களைப் பற்றி யாரும் அடிக்கடி பேசுவதில்லை, ஏனென்றால்
நிறைய பேர் கணிதத்தில் கவனம் செலுத்துகிறார்கள்.
இந்த முழு விஷயத்திலும் என்ன தடைகள் உள்ளன, என்பது போன்ற கேள்வியும் உள்ளது
புத்தகப் பின்னிணைப்பில்,

Italian: 
 Ad esempio, qual è lo scopo di un modello predittivo se non puoi farci niente, giusto? 
 Trovare modi per trovare quali dati non si hanno, quali sono adatti, cosa è disponibile, 
 quindi pensare a quali approcci all'analisi puoi adottare. 
 E poi molto importante, come beh, puoi davvero implementare, sai, quei cambiamenti. 
 E super importantissimo come puoi effettivamente cambiare le cose man mano che cambia l'ambiente. 
 E, sai, è interessante notare che molte di queste cose sono aree in cui non c'è molto 
 ricerca accademica. 
 C'è un po '. 
 E alcuni dei documenti che sono stati particolarmente intorno alla "manutenzione" di simili; Come 
 decidere quando il tuo modello di machine learning va ancora bene? 
 Come lo aggiorni nel tempo? 
 Ho avuto molte molte molte citazioni, ma non compaiono molto spesso perché a 
 molte persone sono così concentrate sulla matematica. 
 Sai. 
 E poi c'è l'intera questione del tipo "Quali sono i vincoli in atto in tutto questo 
 l'intera cosa?" 

Italian: 
 Quindi quello che troverai nel libro, è che c'è un'intera appendice che effettivamente passa attraverso 
 ognuna di queste sei cose. 
 E ha un intero elenco di esempi. 
 Quindi questo è un esempio di come pensare al valore. 
 E molte domande che aziende e organizzazioni possono usare per cercare di pensare, sai, 
 tutti questi diversi pezzi del vero puzzle di mettere le cose in produzione e 
 in realtà in un prodotto efficace. 
 Abbiamo una domanda. 
 Certo, solo un momento. 
 Quindi stavo per dire, quindi dai un'occhiata a questa appendice perché in realtà è originariamente apparso 
 come post sul blog e penso che, ad eccezione dei miei post covid-19 che ho fatto con Rachel, sia 
 in realtà il post sul blog più popolare che abbia mai scritto. 
 Ha avuto centinaia di migliaia di visualizzazioni. 
 E in un certo senso rappresenta come 20 anni di intuizioni conquistate a fatica su come realmente 
 ottieni valore dall'apprendimento automatico, dalla pratica e da ciò che devi effettivamente chiedere. 

Tamil: 
இந்த ஆறு விஷயங்களில் ஒவ்வொன்றிற்கும் விளக்கம் உள்ளது
அதன் உதாரங்களிற்கான முழு பட்டியலும் உள்ளது
மதிப்பை பற்றி யோசிப்பதற்கான உதாரணம் இது
மற்றும் பல கேள்விகள் உள்ளன
இதை பயன்படுத்தி நிறுவனங்கள்
பல பாகங்களை பற்றி, அதாவது உற்பத்தியில் பயன்படும் மாதிரிகளை உருவாக்குவது,
பயனுள்ள பொருட்களை தயாரிப்புது போன்றவற்றை யோசிப்பதற்கு உதவும்
ஒரு கேள்வி இருக்கிறது. நிச்சயமாக... ஒரு கணம் காத்திருங்கள்.
எனவே நான் சொல்வது போல், இந்த பிற்சேர்க்கையைப் பாருங்கள்,
ஏனெனில் இது உண்மையில் ஒரு வலைப்பதிவு இடுகையாகத் தோன்றியது.
ரேச்சலுடன் செய்த எனது கோவிட் 19 இடுகைகளைத் தவிர,
நான் எழுதியதில் மிகவும் பிரபலமான வலைப்பதிவு இடுகை என்று நினைக்கிறேன்.
இது நூறாயிரக்கணக்கான பார்வைகளைக் கொண்டிருந்தது.
மற்றும் என்னுடைய 20 வருட நுண்ணறிவை இது வர்ணிக்கிறது
அதாவது நடைமுறையில் உள்ள இயந்திர கற்றல் மூலம் எவ்வாறு மதிப்பை எப்படிப்பெறலாம்,
மற்றும்  'என்ன கேள்விகள் கேட்பது' என்பதை சொல்கிறது
எனவே, தயவுசெய்து அதைப் பாருங்கள், ஏனென்றால் உங்களுக்கு உதவியாக இருக்கும்

English: 
So what you'll find in the book, is there
is a whole appendix which actually goes through
every one of these six things.
And has a whole list of examples.
So this is an example of how to like think
about value.
And lots of questions that companies and organizations
can use to try and think about, you know,
all of these different pieces of the actual
puzzle of getting stuff into production and
actually into an effective product.
We have a question.
Sure, just a moment.
So I was going to say, so do check out this
appendix because it actually originally appeared
as a blog post and I think, except for my
covid-19 posts that I did with Rachel, it's
actually the most popular blog post I've ever
written.
It’s had hundreds of thousands of views.
And it kind of represents like 20 years of
hard won insights about like how you actually
get value from machine learning and practice
and what you actually have to ask.

Spanish: 
que realmente pasa por cada una
de estas 6 cosas. Y tiene toda una lista
de ejemplos. Así que este es
un ejemplo de cómo pensar en el valor.
Y muchas preguntas
que las empresas y organizaciones pueden usar para tratar
de pensar en
todas estas diferentes piezas del
rompecabezas real de conseguir cosas en la producción y en realidad en un producto eficaz.
(Tenemos una pregunta.) Por supuesto, un momento.
Mire este apéndice porque originalmente apareció como una entrada en un blog
y creo que, excepto por las entradas
del Covid-19 que hice con Rachel,
es la entrada más popular que he escrito.
Ha tenido cientos de miles de visitas.  Y representa
20 años de conocimientos ganados con esfuerzo
sobre cómo se obtiene el valor
del aprendizaje automático en la práctica
y qué es lo que realmente tienes que preguntar.  Así que, por favor, compruébalo porque espero que lo encuentres útil.

Chinese: 
它实际上贯穿了
which actually goes through
这六件事中的每一件
every one of these six things
并且写了一大堆例子
and has a whole list of examples written
这是一个例子关于如何
so this is an example of how to like
看待价值  以及许多问题
think about value and lots of questions
公司和组织可以利用这个来
that companies and organizations can use to
尝试和思考
try and think about you know
所有这些不同的实际难题
all of these different pieces of the actual puzzle
即如何将产品投入生产
of getting stuff into production
并且是实际有效的产品
and actually into an effective product
我们有个问题  请稍等
we have a question sure just a moment
正如刚才所说  我们来看下这个附录
as I say so do check out this appendix
因为它最初是以博客的形式出现的
because it actually originally appeared as a blog post
我觉得  除去我写的19条
and I think except for my covered 19 posts
那是我和瑞秋一起写的
that I did with Rachel
这的确是我写过的最火的一篇博客
it's actually the most popular blog post I've ever written
它表达了各种各样的观点
it said hundreds of thousands of views  and kinds of represents
好像20年磨一剑  
like 20 years of hard one 
比如你怎样在机器学习中
insights about like how you actually get value
获取知识和经验
from machine learning and practice
或者你该问什么问题 所以  大家可以看一看
and what you actually have to ask so please check it out
它八成不会让你失望
because hopefully you'll find it helpful

Japanese: 
この本の中には、この６つのことを一つ一つ解説した付録がついています。
そして、例のリストがあります。
これは、価値について考える方法の一例です。
また、企業や組織が実際の生産に向けて、効果的な製品にするために、
これらの異なるパズルの
すべての部分について考えてみるために使える質問もたくさんあります。質問があります。はい、ちょっと待ってください。
だから私が言おうとしていたので、この付録をチェックしてみてください。なぜならこの付録は実は元々ブログ記事として登場したもので、
私がレイチェルと一緒に書いたcovid-19の記事を除けば、
実は今まで書いたブログ記事の中で最も人気のあるもので、数十万回の閲覧数を誇ります。そしてそれは、
20年間の苦労して勝ち取った
実際にどのように機械学習から価値を得るのか、
そして実際に何を尋ねなければならないのかという洞察のようなものです。ぜひチェックしてみてください。参考になれば幸いです。

Italian: 
 Quindi per favore dai un'occhiata perché si spera che lo troverai utile. 
 Quindi, quando pensiamo allo stesso modo, pensateci per la domanda su come dovrebbero pensare le persone 
 sulla relazione tra stagionalità e trasmissibilità del covid-19, gentile 
 del bisogno di scavare davvero in profondità nelle domande su come oh non solo cosa cos'è che cosa 
 sono quei numeri nei dati, ma che aspetto hanno davvero. 
 Quindi una delle cose nel documento che mostrano sono le mappe reali, a destra della temperatura 
 e umidità e R a destra. 
 E puoi vedere come, non a caso, l'umidità e la temperatura in Cina sono ciò che è 
 chiameremmo auto-correlato. 
 Vale a dire che luoghi vicini tra loro, in questo caso geograficamente, 
 hanno temperature e umidità simili. 

Spanish: 
Cuando pensamos en esto
para la pregunta de cómo debería pensar la gente
sobre la relación entre la estacionalidad y la transmisibilidad de la Covid-19,
es necesario profundizar en las preguntas sobre
no sólo lo que son esos números en los datos,
sino lo que realmente parece.
Una de las cosas en el artículo que muestran son mapas reales
de la temperatura
y la humedad y R.
Se puede ver como, no es sorprendente,
que la humedad y la temperatura en China son
lo que llamaríamos auto-correlacionados.
Es decir que los lugares que están cerca unos de otros,
en este caso geográficamente, tienen temperaturas y humedades similares.
Esto pone en duda los valores p que tienen.

Chinese: 
当我们想到类似于
so when we think about like
比如
think about this for the question of
人们应该如何理解
how should people think about the relationship
新冠病毒的传播性和季节之间的关系
between seasonality and transmissibility of COVID-19
你需要深入的研究这个问题
you kind of need to dig really deeply into the questions about
我们不仅要知道数据中包含了什么数字
like oh not just  what are those numbers in the data
还要知道数据是如何分布的
but what does it really look like right
从论文中我们可以看到
so one of the things in the paper that they show
关于温度、湿度和R值的地图
is actual maps right of temperature and humidity and R right
我们可以毫不奇怪的发现
and you can see like not surprisingly that
在中国
humidity and temperature in China
温度和湿度的分布是顺序相关的
what we would call are order correlated
也就是说
which is to say that places
地图上这些地理位置相近的地方
that are close to each other in this case geographically
会有相近的温度和湿度
have similar temperatures and similar humidities
然后  问题来了
and this actually puts into the question
事实上这里有很多的P值
the a lot the p values that they have right

Tamil: 
எனவே நாம்,
பருவநிலை மற்றும் பரிமாற்றத்தன்மைக்கு இடையிலான உறவைப் பற்றி,
கோவிட்-19 பொறுத்தவரை, ​​மக்கள் எவ்வாறு சிந்திக்க வேண்டும் என்ற கேள்விக்கு,
இவை போன்ற கேள்விகளை ஆழமாக செல்ல வேண்டும்.
அதாவது தரவுகளில் உள்ள எண்கள் என்ன என்பதைவிட
அவை உண்மையில் எப்படி இருக்கும் என்பதை பற்றி கேட்கவேண்டும்
எனவே கட்டுரையில் அவர்கள் உண்மையான வரைபடத்தை காட்டுகிறார்கள்
அதில் வெப்பநிலை, ஈரப்பதத்தின் மற்றும் R இன் மதிப்புகளை வகுத்தார்கள்
ஆச்சரியப்படுவதற்கில்லாமல், ஈரப்பதம் மற்றும்  வெப்பநிலை
சீனாவை பொறுத்தவரை, சீரான தொடர்போடு இருக்கிறது
இங்கு புவியியல் ரீதியாக ஒன்றிற்கொன்று நெருக்கமான இடங்கள்
அதாவது, இவற்றில் ஒரே ஒருவகையான வெப்பநிலை, ஈரப்பதம் உள்ளது

English: 
So please check it out because hopefully you'll
find it helpful.
So when we think about like think about this
for the question of how should people think
about the relationship between seasonality
and transmissibility of covid-19, you kind
of need to dig really deeply into the questions
about like oh not just what what's that what
are those numbers in the data, but what does
it really look like right.
So one of the things in the paper that they
show is actual maps, right of temperature
and humidity and R right.
And you can see like, not surprisingly, that
humidity and temperature in China are what
we would call auto-correlated.
Which is to say that places that are close
to each other, in this case geographically,
have similar temperatures and similar humidities.

Japanese: 
季節性とcovid-19の伝染性の関係について
人々はどのように考えるべきか、という質問について考えるときには、
データの中の数字が何なのかだけでなく、
実際にはどのように見えるのか、という質問を深く掘り下げる必要があります。
論文の中で、彼らが示しているものの一つは、実際の地図です。
温度と
湿度とRの地図です。
驚くことではありませんが、
中国の湿度と気温は、
私たちが自動相関と呼んでいるものです。つまり、地理的に近い場所では、
気温も湿度も似ています。
このように、
彼らが示したp値に疑惑が出てきます。

Chinese: 
因为你真的无法想象
because you can't really think of
这是100个分散的城市
these are a hundred totally separate cities
那些离得近的城市
because the ones that are close to each other
可能会有非常相似的表现
probably have very close behavior
你可以视它们为
so maybe you should think of them like
一小撮城市数据集
a small number of sets of cities
也就是大一些的地理空间
you know a kind of larger geographies
这些事情
so these are the kinds of things that
就是当你仔细观察一个模型时所要考虑的
when you look actually into a model
你要思考一下  它们的局限性是什么
you need to like think about what are the limitations
然后决定
but then to decide like
它有什么意义  可以做哪些改进
what does that mean what do I do about that
思考一下
you need to think of
如果从实用性的角度来看整个过程
if from this kind of utility point of view this kind of end to end
我们应该采取什么措施
what are the actions I can take
结果是什么
what are the results point of view
而不仅仅是凭空假设
not just null hypothesis testing
对这个模型来说
so in this case for example
这里有四种可能的结果
there are basically four possible key ways this could end up
结果可能是
it could end up that
温度和R值之间真的存在关系
there really is a relationship between temperature and R

Italian: 
 E così in questo modo in realtà mette nella domanda molto i valori p che hanno ragione. 
 Perché non puoi davvero pensare a queste come a cento città completamente separate. 
 Perché quelli che sono vicini l'uno all'altro probabilmente hanno un comportamento molto vicino, quindi forse 
 dovresti pensare a loro come a un piccolo numero di insiemi di città, sai di tipo più grande 
 geografie. 
 Quindi questi sono i tipi di cose che quando guardi effettivamente in un modello devi 
 come pensare a cosa sono, quali sono i limiti? 
 Ma poi decidere bene, cosa significa? 
 Cosa devo fare a riguardo? 
 Bisogna pensarci da questo tipo di punto di vista dell'utilità, questo tipo di fine 
 fine, quali sono le azioni che posso intraprendere? 
 Qual è l'ordine dal punto di vista dei risultati? 
 Non solo verifica di ipotesi nulle. 
 Quindi in questo caso, ad esempio, ci sono fondamentalmente quattro possibili modi chiave in cui questo potrebbe finire. 

Spanish: 
No se puede pensar en estos como 100 ciudades totalmente separadas.
Porque las que están cerca unas de otras probablemente tienen un comportamiento muy cercano.
Tal vez deberías pensar en ellas como un pequeño número de
conjuntos de ciudades
de geografías más grandes.
Este es el tipo de cosas que cuando miras un modelo
necesitas pensar en lo que son
¿cuáles son las limitaciones? Pero entonces para decidir, ¿qué significa eso?
¿Qué hago con eso?
Necesitas pensar en ello desde este tipo de punto de vista de utilidad,
este de extremo a extremo,
¿Cuáles son las acciones que puedo tomar? ¿Cuáles son los resultados punto de vista?
No sólo la prueba de hipótesis nulas
Así que en este caso, por ejemplo,
hay básicamente cuatro posibles
formas clave en las que esto podría terminar.  Podría terminar
que realmente hay una relación entre la temperatura y R,

Tamil: 
எனவே இது அவர்களிடம் உள்ள P-மதிப்புகளை கேள்விக்குள்ளாக்குகிறது, ஏனெனில் இவை
முற்றிலும் நூறு தனித்தனியான நகரங்களாக உண்மையில் நாம் நினைக்க முடியாது.
ஏனென்றால், ஒன்ருக்குஒன்று நெருக்கமாக இருக்கும் நகரங்கள் மிக நெருக்கமான நடத்தைகளைக் கொண்டிருக்கலாம்
ஆகவே, அவற்றை ஒரு சிறிய எண்ணிக்கையிலான நகரங்களின் தொகுப்பு
பெரிய புவியியல் இருப்பதை போல என்ன வேண்டும்
ஆகவே
உண்மையில் ஒரு மாதிரியைப் பார்க்கும்போது நீங்கள் சிந்திக்க விரும்பும் விஷயங்கள் இவை.
வரம்புகள் என்ன .. அதன் அர்த்தம் என்ன? அதைப் பற்றி நான் என்ன செய்ய விரும்புகிறேன்?
இப்படி பயன்பாட்டுக் கண்ணோட்டத்தில் இதைப் பற்றி சிந்திக்க வேண்டும்
முழு செயல்முறையில் , நான் என்ன நடவடிக்கைகள் எடுக்க முடியும்.
முடிவுகளை பார்வையின் அடிப்படையில் வரிசை செய்யுங்கள்
சூனிய எடுகோள் சோதனையை  மட்டும் எடுத்துக்கொள்ளாதீர்கள்.
எனவே இந்த விஷயத்தில், எடுத்துக்காட்டாக
நான்கு சாத்தியமான முக்கிய வழிகள் இது முடிவடையலாம்.
வெப்பநிலைக்கும் R-கும் இடையில் உண்மையில் ஒரு உறவு இருக்கிறது என்று அது

Japanese: 
なぜなら、これらの都市を100個の全く別の都市とは考えられないからです。
互いに近接している都市は、おそらく非常に似たような傾向が見られ、
これらを少数の「都市の集合体」のようなものと
考えるべきかもしれません。大地域のような。
このように実際にモデルを検討する際には、何が限界なのかを考える必要があります。
そして、それが何を意味するのか？それについてどうすればいいのか？
このようなユーティリティ（実用性）の観点から考える必要があります。
最初から最後まで、私にできる行動は何か、それによってどんな結果になるのか。
ただの帰無仮説検定ではありません。このケースでは、
基本的にここでは4つの主な結果が考えられます。
一つ目の可能性は「温度とRの間には実際に関係がある」です。

English: 
And so like this actually puts into the question
a lot the p values that they have right.
Because you can't really think of these as
a hundred totally separate cities.
Because the ones that are close to each other
probably have very close behavior so maybe
you should think of them as like a small number
of sets of cities, you know of kind of larger
geographies.
So these are the kinds of things that when
you look actually into a model you need to
like think about what are, what are the limitations?
But then to decide like well, what does that
mean?
What do I what do about that?
You need to think of it from this kind of
utility point of view, this kind of end to
end, what are the actions I can take?
What are the order the results point of view?
Not just null hypothesis testing.
So in this case for example there are basically
four possible key ways this could end up.

Italian: 
 Potrebbe finire che c'è davvero una relazione tra temperatura e R, o così è ma 
 il lato destro è. 
 Oppure non esiste una relazione reale tra temperatura e R. E potremmo agire in base a un'ipotesi 
 che c'è una relazione. 
 Oppure potremmo agire partendo dal presupposto che non ci sia una relazione. 
 E quindi vorresti guardare a ciascuna di queste quattro possibilità e dire bene 
 quali sarebbero le conseguenze economiche e sociali? 
 E sai che ci sarà un'enorme differenza nelle vite perse e sai che le economie stanno crollando 
 e qualsiasi altra cosa - sai per ciascuno di questi quattro. 
 Il documento che effettivamente conosci ha mostrato, se il loro modello è corretto, qual è la probabilità 
 Valore R a marzo per come ogni città del mondo. 
 E il probabile valore R a luglio per ogni città del mondo. 
 E così, ad esempio, se guardi al New England e a New York, la previsione qui 

Chinese: 
就像右上角这种情况
or so that's the right hand side is
或者是  温度和R值之间不存在关系
or there is no real relationship between temperature and R
同时  我们会做一些假设
and we might act on the assumption that
比如  两者之间存在关系
there is a relationship
或者
or we might act on the assumption that
假设两者之间没关系
there isn't a relationship
你可以考虑
and so you can want to look at
各种可能的结果
each of these four possibilities
并预想
and say like well
这种结果可能带来的经济和社会效应
what would be the economic and societal consequences
而这些效应带来的后果可能关乎人类命运
and you know there's gonna be a huge difference in lives lost
甚至会导致经济崩盘等等
and you know economy is crashing
就是这四种结果之一造成的
and whatever else you know for each of these four
从论文中可以看出
the paper actually you know has shown
如果模型正确  3月份的时候
if the model is correct  what's the likely R value in March
各个城市的R值大概是多少
feel like every city in the world
这个是7月份世界上各个城市的R值分布
and the likely R value  in July for every city in the world
举个例子
and so for example
如果你仔细看新英格兰和纽约
if you look at New England and New York
模型的预测是
the prediction here is
可以看到 这两个地方都毗邻西海岸
and also you know they are very close to the west coast

Tamil: 
முடிவுக்கு வரக்கூடும், எனவே அதுதான் வலதுபுறத்தில் உள்ளது
அல்லது வெப்பநிலைக்கும் R-கும் இடையில் உண்மையான உறவு இல்லை
மேலும் ஒரு உறவு இருக்கிறது என்ற அனுமானத்தின் அடிப்படையில் நாம் செயல்படலாம்
அல்லது ஒரு உறவு இல்லை என்ற அனுமானத்தின் அடிப்படையில் நாம் செயல்படக்கூடும்,
எனவே நீங்கள் இந்த நான்கு சாத்தியக்கூறுகள் ஒவ்வொன்றையும் பார்த்து
பொருளாதார மற்றும் சமூக விளைவுகள் என்னவாக இருக்கும் என்று சிந்திக்க வேண்டும்
இந்த நான்கிலும் ஒவ்வொன்றிக்ற்கும், உயிர் இழப்பு  மற்றும் நொறுங்கிய பொருளாதாரம்
ஆகியவற்றில் ஒரு பெரிய வித்தியாசமாக இருக்கும்
இந்த கட்டுரையில், அவர்களின் மாதிரி சரியாக இருந்தால்,
மார்ச் மாதத்தில், R-இன் தோராயமான மதிப்பை காண்பித்திருக்கிறார்கள்
ஜூலை மாதத்தில் R-இன் தோராயமான மதிப்பை
இது உலகெங்கும் உள்ள நகரங்களிற்கு காட்டியுள்ளார்கள்
உதாரணமாக நியூ-இங்கிலாந்து மற்றும் நியூயார்க்
மேலும் மேற்கு கடற்கரையின் முடிவு, இவற்றின்

Japanese: 
それはこの右側です。あるいは、温度とRの間には実際には関係がないということです。
そして、関係があると仮定して行動するかもしれません。
あるいは、関係がないと仮定して行動するかもしれません。
だから、４つの可能性をそれぞれ見て、
経済的、社会的な結果はどうなるのかと考える必要があります。
それぞれ大きな違いがあります。
失われた命の数や、経済の崩壊、その他何でもあります。
その四つの一つ一つに。
この論文の中には、もし彼らのモデルが正しければ、
3月の世界の全ての都市のR値はどうなるかを示しています。そして、世界の全ての都市の7月のR値はどうなるか。
例えば、ニューイングランドやニューヨークを見てみましょう。

English: 
It could end up that there really is a relationship
between temperature and R, or so that's but
the right hand side is.
Or there is no real relationship between temperature
and R. And we might act on the assumption
that there is a relationship.
Or we might act on the assumption that there
isn't a relationship.
And so you kind of want to look at each of
these four possibilities and say like well
what would be the economic and societal consequences?
And you know there's gonna be a huge difference
in lives lost and you know economies crashing
and whatever else - you know for each of these
four.
The paper actually you know has shown, if
their model is correct, what's the likely
R value in March for like every city in the
world.
And the likely R value in July for every city
in the world.
And so for example if you look at kind of
New England and New York, the prediction here

Spanish: 
Eso es lo que es el lado derecho.
O no hay una relación real entre la temperatura y R.
Y podríamos actuar bajo la suposición de que
hay una relación. O podríamos actuar bajo
la suposición de que no hay una relación.
Quieres mirar cada una de estas cuatro posibilidades
y decir, ¿cuáles serían las consecuencias económicas y sociales?
Va a haber una gran diferencia en
las vidas perdidas y las economías colapsando y lo que sea
para cada una de estas 4.
El artículo ha mostrado,
si su modelo es correcto, cuál es
el valor probable de R en marzo para
cada ciudad del mundo. Y el valor probable de R
en julio para cada ciudad del mundo.
Y así, por ejemplo, si nos fijamos en Nueva Inglaterra y Nueva York,

Spanish: 
la predicción aquí es y también en la costa oeste es que en julio
la enfermedad dejará de propagarse.
Ahora si eso sucede, si están en lo cierto
eso será un desastre porque creo
que es muy probable que en América
y también en el Reino Unido, la gente dirá
"Oh, resulta que esta enfermedad no es un problema,
realmente no despegó en absoluto.
Los científicos se equivocaron." La gente volverá a su vida cotidiana anterior
y podremos ver lo que pasó en 1918
con el virus de la gripe en la segunda vuelta.
Cuando el invierno golpea
podría ser mucho peor que el comienzo.
Hay enormes impactos políticos potenciales dependiendo de si esto es verdadero o falso.
Para pensar en ello...
¿Sí?
También quería decir que sería muy
muy irresponsable pensar
"Oh, el verano lo va a resolver.  No necesitamos actuar ahora."

English: 
is and also West, the other the very coast
of the west coast is that in July the disease
will stop spreading.
Now you know if that happens, if they're right
then, that's gonna be a disaster because I
think it's very likely in America and also
the UK, that people will say “Oh turns out
this disease is not a problem you know.
It didn't really take off at all.
The scientists were wrong.”
People will go back to their previous day-to-day
life and we could see what happened in 1918
flu virus of like the second go around.
When winter hits could be much worse than
the start right.
So like there's these kind of like huge potential
policy impacts depending on whether this is
true or false.
And so to think about it.
Yes?
I also just wanted to say that it would be
it would be very irresponsible to think “oh
summer’s gonna solve it.
We don't need to act now.”

Chinese: 
模型预测 到7月COVID-19会停止传播
is that in July the disease will stop spreading
那么 如果模型预测准确
now you know if that happens if they're right
届时  那里就会有一场灾难
then that's gonna be a disaster
这在美国并不罕见  在英国亦是如此
because I think it's very likely in America and also the UK
到时候人们就会说
that people will say
噢 原来这个病不是什么问题
Oh turns out this disease is not a problem
（它静静的来了)不带走一片云彩
you know it didn't really take off at all
科学家们搞错了
the scientists were wrong
人们还会和往常一样生活
people will go back to their previous day-to-day life
我们知道  1918年的大流感带来了什么后果
and we could see what happened in 1918
这年冬天  流感又爆发了一波
flu virus of like the second go around when winter hits
第二波比第一波还凶险
it could be much worse than than the start right
因此  模型预测的准确与否将会产生重大的政治影响
so like there's huge potential policy impacts
将会产生重大的政治影响
depending on whether this is true or false
现在  我们来看
and so to think about it
（我想说
（Q：I also just wanted to say that
如果我们认为在夏天COVID-19会没有威胁性
it would be very irresponsible
而此时无动于衷的话  这是很不负责任的
to think summers gonna solve it we don't need to act now

Tamil: 
கணிப்பைப் பார்த்தால், ஜூலை மாதத்தில்  பரப்பு நின்றுவிடும் என்று தெரிகிறது
இப்போது, ​​அது நடந்தால், அவர்கள் சரியாக இருந்தால்,
அது ஒரு பேரழிவாக இருக்கும். ஏனென்றால்
அமெரிக்காவிலும் இங்கிலாந்திலும்
இந்த நோய் ஒரு பிரச்சனையல்ல என்று மக்கள் கூறுவார்கள்.
"அது உண்மையில் அதிகமாக பரவவில்லை. விஞ்ஞானிகள் தவறாக சொன்னார்கள்,"
என்று மக்கள் தங்கள் முந்தைய அன்றாட வாழ்க்கைக்குச் செல்வார்கள்
மற்றும் 1918 யில் குளிர்காலத்தின்போது, காய்ச்சல் வைரஸில் இரண்டாவது சுழற்சி
முதல் விட மோசமாக இருந்ததை நம்மால் காண முடிந்தது,
இதில் மிகப்பெரிய, சாத்தியமான கொள்கை தாக்கங்கள் உள்ளன
இது உண்மையா அல்லது பொய்யா என்பதைப் பொறுத்து
ஆம். நான் கூறவிரும்பவது என்னவென்றால் , இந்த சிந்தனை அதாவது, "கோடைக்காலம்
அதை சரி செய்துவிடும், இப்பொது எதுவும் செய்ய வேண்டாம் " என்பது பொறுப்பற்றது

Japanese: 
この予測では、西海岸の海岸線も含めて、7月には
病気が広がらなくなると予測されています。
もしそうなったら、もし彼らの予測が正しければ、
それは大惨事になります。なぜならアメリカやイギリスでは、
「ああ、この病気は問題ではないことがわかった」と言われる可能性が高いと思います。
「実際には全く流行しなかった」とか「科学者は間違っていた」などと。
人々は以前の日常生活に戻ります。
1918年に起こったように,冬時期のインフルエンザウイルスの第2波は
最初よりもずっと悪い状態に
なりました。これが真か偽かによって、
政策に大きな影響を与える可能性があります。考えてみましょう。
はい？私が言いたかったのは、「夏になれば解決する」と考えるのは非常に無責任だということです。
「今すぐに行動する必要はない」と。

Italian: 
 è e anche ad ovest, l'altra la costa stessa della costa occidentale è quella di luglio della malattia 
 smetterà di diffondersi. 
 Ora sai se succede, se hanno ragione allora, sarà un disastro perché io 
 penso che sia molto probabile in America e anche nel Regno Unito che la gente dirà "Oh si scopre 
 questa malattia non è un problema sai. 
 Non è davvero decollato affatto. 
 Gli scienziati si sbagliavano. " 
 Le persone torneranno alla loro vita quotidiana precedente e potremmo vedere cosa è successo nel 1918 
 virus influenzali come il secondo andare in giro. 
 Quando l'inverno colpisce potrebbe essere molto peggio del giusto inizio. 
 Quindi come se ci fosse questo tipo di enormi potenziali impatti politici a seconda che lo sia 
 vero o falso. 
 E quindi a pensarci bene. 
 Sì? 
 Volevo anche solo dire che sarebbe stato molto irresponsabile pensare "oh 
 l'estate lo risolverà. 
 Non abbiamo bisogno di agire adesso. " 

Chinese: 
我只是想说  如果我们无动于衷
I'm just in that this is something growing exponentially
灾难性后果只会成倍增长）
and could do a huge amount of damage )
对  你说得对  这是有可能的
yeah yes okay it could be possible by anyway
如果你假设它是季节性的
if you assume that there will be seasonality
并且能在夏天就能消失的话
and that summer will fix things
那它就不会无情地对人类造成伤害了
then it couldn't beat you to be apathetic now
如果你假设它不是季节性的
if you assume that there's no seasonality
或者
and then there is
最后你可以想象出
you could end up
一个更糟糕的结果
creating a larger level of expectation of destruction
而且  它最终真的发生在老百姓身上
that actually happens and end up with your population
甚至比你想象的更残酷
being even more apathetic you know
所以  如果预测错了则全盘皆输
so that you know being wrong in any direction in a problem
通常  我们解决这个问题的办法之一就是
so one of the ways we tend to deal with this kind of modeling
我们试图参考已有的经验或事实
is we try to think about priors
我们所依据的这些事情
so our priors are basically things
并非空口无凭
where we you know rather than just having a null hypothesis
我们从一个假设开始
we try and start with a guess
并使这个假设尽量合理
as to like well what's more likely right
就这个例子来说  如果我没记错的话
so in this case if memory serves correctly I think

English: 
Just in that this is something growing exponentially
and could do a huge huge amount of damage.
Yeah yes okay.
It already has done by the way.
If you assume that there will be seasonality
and that summer will fix things then it could
lead you to be apathetic now.
If you assume there's no seasonality and then
there is, then you could end up kind of creating
a larger level of expectation of destruction
that actually happens and end up with your
population being even more apathetic you know
so that they're you know.
Being wrong in any direction could be a problem.
So one of the ways we tend to deal with this,
with with this kind of modeling is we try
to think about priors.
So our priors are basically things where we,
you know rather than just having a null hypothesis,
we try and start with a guess as to like well
what's what's more likely?
Right so in this case if memory serves correctly
I think we know that like flu viruses become

Spanish: 
Sólo en que esto es algo que crece exponencialmente
y podría hacer una enorme cantidad de daño. Sí, sí, de acuerdo.
Ya lo ha hecho. Podría ser un problema en los dos sentidos.
Si asumes que habrá estacionalidad y que
el verano arreglará las cosas, entonces podría llevarte a ser apático ahora.
Si asumes que no hay estacionalidad
y luego sí la hay, entonces podrías terminar creando
un mayor nivel de expectativa
de destrucción que realmente ocurre
y terminar con tu población siendo aún más apática
Estar equivocado en cualquier dirección podría ser un problema.
Una de las formas en que tendemos a tratar esto,
con este tipo de modelación es tratar de pensar en los antecedentes.
Antecedentes son básicamente cosas en las que,
en lugar de tener una hipótesis nula,
tratamos de empezar con una suposición
de qué es lo más probable.
En este caso,
si la memoria no me falla, creo que sabemos que como los virus de la gripe

Italian: 
 Solo in questo è qualcosa che cresce in modo esponenziale e potrebbe causare un'enorme quantità di danni. 
 Sì, sì, va bene. 
 A proposito, l'ha già fatto. 
 Se presumi che ci sarà la stagionalità e che l'estate risolverà le cose, allora potrebbe 
 ti portano ad essere apatico adesso. 
 Se presumi che non ci sia stagionalità e poi c'è, potresti finire per creare 
 un livello più ampio di aspettativa di distruzione che effettivamente accade e finisce con il tuo 
 la popolazione è ancora più apatica che tu sappia in modo che tu lo sappia. 
 Sbagliare in qualsiasi direzione potrebbe essere un problema. 
 Quindi uno dei modi in cui tendiamo ad affrontare questo, con questo tipo di modellazione è che ci proviamo 
 pensare a priori. 
 Quindi i nostri precedenti sono fondamentalmente cose in cui noi, sai piuttosto che avere solo un'ipotesi nulla, 
 proviamo e iniziamo con un'ipotesi di piacere che cosa è più probabile? 
 Giusto quindi in questo caso se la memoria funziona correttamente penso che sappiamo che i virus influenzali diventano simili 

Japanese: 
これは指数関数的に成長しているものであり、膨大な被害をもたらす可能性があるということだけです。被害はすでに起きているのですが。
どっちにしても問題です。
もし季節性があると仮定して、夏が解決すると仮定したら、
今は無関心になるかもしれません。逆にもし季節性がないと仮定したものの、
季節性があった場合、滅亡への予想が実際に起こるよりも大きくなり、
国民がさらに無関心になることになるかもしれない
どの方向に間違っても問題になります。
ですから、この種のモデリングを行う際の対処法の1つは、prior(事前)について考えてみることです。
prior(事前)とは、基本的には、帰無仮説を持つのではなく、
何がより可能性が高いのかを推測することです。 この場合、

Tamil: 
இது அடுக்கேற்றமாக வளர்ந்து வரும் ஒன்று
மற்றும் ஒரு பெரிய அளவு சேதத்தை செய்ய முடியும்.
ஆம். சரி, அது ஏற்கனவே செய்துவிட்டது
மேலும்
பருவநிலை இருக்கும் என்றும், கோடைக்காலம் விஷயங்களை சரிசெய்யும் என்றும் நீங்கள்
கருதினால், அது இல்லாவிட்டால், அது அக்கறையின்மைக்கு உங்களை காயப்படுத்தக்கூடும். இந்த வைரஸ்
பருவநிலையற்றது என்று நீங்கள் எண்ணி பின்னர் அது இருந்தால்,  நீங்கள் இப்பொழுதை விட  ஒரு பெரிய அளவிலான அழிவை
எதிர்பார்ப்பதை உருவாக்கி இருப்பீர்கள். மேலும் உங்கள் மக்கள் தொகை இன்னும் அக்கறையற்றதாக இருக்கும்
எனவே எந்த திசையிலும் தவறாக இருப்பது ஒரு பிரச்சினையாக இருக்கும்.
நாங்கள் மாதிரிகளை உருவாக்கும்போது, இதை சமாளிக்கும் வழிகளில் ஒன்று -
முன் நிகழ்வுகளை பார்ப்பது
முன் நிகழ்வுகள் என்பது, சூனிய எடுகோளைக் கொண்டிருப்பதை விட
என்ன நடக்க வாய்ப்புள்ளது என்ற யூகத்துடன் தொடங்க முயற்சிப்பது.
எனவே இந்த விஷயத்தில்
நான் சரியாக நினைவில் வைத்திருந்தால்

Chinese: 
流感病毒在27℃时就会失去活性
we know that flu viruses become inactive at 27 centigrade
而1918年的冠状病毒是季节性的
we know that the cold coronaviruses are seasonal in 1918
1918年的流感被公认是季节性的
the 1918 flu epidemic was seasonal in every country and city
这个问题被研究了很长时间
that's been studied so far
类似于这样的研究有很多
there's been quite a few studies  like this
迄今为止  他们一直在寻找流感和气候之间的关系
they've always found climate relationships so far
于是
so maybe we'd say
我们已知的条件就是  流感有可能是季节性的
what prior belief is that this thing is probably seasonal
因此可以说
and so they would say well
这篇论文增加了这个论断的可信性
this particular paper adds some evidence to that
所以  同志们
so it shows like
真正实践一个模型是很复杂滴
how incredibly complex it is to use a model in practice
就这个例子来说
for in this case
可能牵扯到像政府讨论或组织决策这样的事情
policy discussions but also for like organizational decisions
这类事情一向错综复杂
because you know there's always complexities
并且飘忽不定
there's always uncertainties
所以  在真正做之前
and so you actually have to think about the
要考虑应用的实用性 尽可能做好假设
the utility you know and your best guesses
并倾你所能
and try to combine everything together as best as you can

Tamil: 
காய்ச்சல் வைரஸ்கள் 27 சென்டிகிரேடில் செயலற்றவை என்பதை நாம் அறிவோம்
(சளி) கொரோனா வைரஸ்கள் பருவகாலமானது என்பதை நாம் அறிவோம்
1918 காய்ச்சல் தொற்று பருவகாலமானது
இதுவரை ஆய்வு செய்யப்பட்ட ஒவ்வொரு நாட்டிலும் நகரத்திலும்,
நடந்து சில ஆய்வுகள் அனைத்தும், காலநிலைக்கான  உறவைக் கண்டறிந்தது.
இவை முன் நம்பிக்கையாக கூட இருக்கலாம். இந்த விஷயம் அநேகமாக
பருவகாலமானது. எனவே இந்த குறிப்பிட்ட கட்டுரை அதற்கு சில
ஆதாரங்களை சேர்க்கிறது
அது எவ்வளவு சிக்கலானது என்பதை இது காட்டுகிறது
அதாவது நடைமுறையில் மாதிரியின் பயன்பாடு என்பது
இங்கு , கொள்கை விவாதங்களுக்கும், நிறுவன முடிவுகளை செய்வதுற்கும்  சிக்கலானது
ஏனெனில் நிச்சயமற்ற தன்மைகளும் மற்றும் சிக்கல்களும் எப்போதும் இருக்கும் .
நீங்கள் பயன்பாடுகள் மற்றும் சிறந்த யூகங்களைப் பற்றி சிந்தித்து
எல்லாவற்றையும் உங்களால் முடிந்தவரை ஒன்றாக இணைக்க முயற்சிக்கவேண்டும்

Spanish: 
se vuelven inactivos a 27 grados centígrados.
sabemos que un resfriado, los coronavirus del resfriado son estacionales.
La pandemia de gripe de 1918 fue estacional.
En cada país y ciudad que se ha estudiado hasta ahora,
ha habido bastantes estudios como este. Siempre han encontrado relaciones climáticas hasta ahora.
Tal vez diríamos: "La creencia previa es que esta cosa es probablemente estacional".
Y entonces decíamos:
"Bueno, este documento en particular añade algunas pruebas a eso".
Demuestra lo increíblemente complejo que es
utilizar un modelo en la práctica
para, en este caso, los debates de política pero también
para las decisiones de la organización.
Porque, siempre hay complejidades,
siempre hay incertidumbres.
Por lo que realmente tienes que pensar
en la utilidad y hacer tus mejores conjeturas

English: 
inactive at 27 centigrade we know that like
cold, the cold coronaviruses are seasonal.
The 1918 flu pandemic was seasonal.
In every country and city that’s been studied
so far, there's been quite a few studies like
this.
They've always found climate relationships
so far.
So maybe we'd say: “Well prior belief is
that this thing is probably seasonal.”
And so then we’d say: “Well this particular
paper adds some evidence to that.”
So it shows how incredibly complex it is to
use a model in practice for in this case policy
discussions but also for organizational decisions.
Because, you know, there's always complexities,
there's always uncertainties.
And so you actually have to think about the
utilities, you know.

Japanese: 
記憶が正しければ、インフルエンザウイルスが27℃で不活性化することがわかっています。
そして風邪のコロナウイルスは
季節性があることがわかっています。1918年のインフルエンザの
大流行は季節性でした。
これまでに研究された全ての国や都市で
今のところほとんどは常に気候との関係を発見しています。
だから私たちの事前の推測は多分これは季節的なもので、
so maybe we'd say well prior belief is that this thing is probably
そしてこの論文は、それにいくつかの
証拠を加えているということになるでしょう。
このように、
モデルを実際に使用して、
この場合の政策議論だけでなく、組織的判断などに使用することがいかに複雑であるかわかると思います。
なぜなら、ご存じのように、
常に複雑さや不確実性があるからです。だから、実際には
ユーティリティと自分の最善の推測を考えて、できる限りすべてを組み合わせるようにしなければなりません。

Italian: 
 inattivo a 27 gradi centigradi sappiamo che, come il freddo, i coronavirus freddi sono stagionali. 
 La pandemia influenzale del 1918 era stagionale. 
 In ogni paese e città che è stato studiato finora, ci sono stati parecchi studi come 
 Questo. 
 Finora hanno sempre trovato relazioni climatiche. 
 Quindi forse potremmo dire: "Beh, la convinzione precedente è che questa cosa sia probabilmente stagionale". 
 E quindi allora diremmo: "Bene, questo particolare documento aggiunge alcune prove a questo". 
 Quindi mostra quanto sia incredibilmente complesso utilizzare un modello in pratica per la politica in questo caso 
 discussioni ma anche per decisioni organizzative. 
 Perché, sai, ci sono sempre complessità, ci sono sempre incertezze. 
 E quindi devi davvero pensare alle utilità, sai. 

English: 
And your best guesses and try to combine everything
together as best as you can.
Okay.
So with all that said.
It's still nice to be able to get our models
up and running even if, you know - even just
a predictive model is sometimes useful on
its own.
Sometimes it's useful to prototype something,
and sometimes it's got to be part of some
bigger picture.
So rather than try to create some huge end-to-end
model here.
We thought we would just show you how to get
your Pytorch FastAI model up-and-running.
In as raw a form as possible.
So that from there, you can kind of build
on top of it, as you like.
So to do that; we are going to download and
curate our own dataset.
And you're going to do the same thing.
You're going to train your own model, on that
dataset, and then you're going to create an

Tamil: 
சரி
சொன்ன எல்லாவற்றையும் கொண்டு,
இருந்தாலும்கூட மாதிரிகளை உருவாக்கி இயங்குவது நன்றாக இருக்கிறது.
முன்கணிப்பு மாதிரி சில நேரங்களில் தனியாகவே பயனுள்ளதாக இருந்தாலுமே
சில நேரங்களில் ஏதாவது முன்மாதிரி செய்வது பயனுள்ளதாக இருக்கும்.
சில நேரங்களில்
அது சில பெரிய படத்தின் ஒரு பகுதியாக இருக்கும்.
எனவே இங்கே பெரிய மாடலை உருவாக்க முயற்சிப்பதை விட,
நாங்கள் உங்களுக்கு காண்பிக்க விருப்புவது என்னவென்றால், உங்களுடைய
பைட்டோர்ச் ஃபாஸ்ட்ஏஐ மாதிரியை
எவ்வாறு உருவாக்கி இயக்குவது (முடிந்தவரை அதன் மூல வடிவத்தில்)  என்பதைத்தான்.
ஏனென்றால் அங்கிருந்து நீங்கள் மேலே கட்டலாம்
எனவே இதைச் செய்ய
நாம் நம்முடைய சொந்த தரவுத் தொகுப்பைப் பதிவிறக்கி நிர்வகிக்கப் போகிறோம்,
அதையே நீங்கள் செய்யப் போகிறீர்கள்
அந்த தரவுத் தொகுப்பில் உங்கள் சொந்த மாதிரியைப் பயிற்றுவிக்க வேண்டும்,

Japanese: 
そう言ったところで
それでもやっぱり
モデルを
稼働させることができたらいいなと思います。ただ予測モデルであっても、
それ自体が有用な場合もありますし、何かをプロトタイプ化することが役立つこともあります。
時には、何か大きなものの一部になることもあります。だから、ここでは巨大なエンドツーエンドのモデルを作ろうとするのではなく、
私たちは、どのようにして
Pytorchと
FastAIのモデルを
稼働させるかを説明することにしました。
可能な限り生の状態で。そこから、あなたの好きなように、その上に構築することができます。
そのためには、
自分のデータセットを
ダウンロードし、キュレーションする必要があります。そして、あなたも同じことをします。
そのデータセットを使って自分のモデルを学習し、

Chinese: 
OK  话虽如此
okay so with all that said
但如果我们的模型能跑起来  那很棒！
it's still nice to be able to get our models up and running
有时候  尽管只有一个模型
even if you know even just a predictive model
也能准确预测
is sometimes useful of its own
有时候  做一个原型是很有必要的
sometimes it's useful to prototype something
有时候  它只是全局预测的一部分
and sometimes it's just got to be part of some bigger picture
其实  我们不是想在这里建立一个很强大的模型
so rather than try to create some huge into end model here
而是想要告诉你
we thought we would just show you how to
如何运行封装了PyTorch功能的fastai模型
get your PyTorch fastai model up and running
它很容易实现  因此从这里开始
it's a roll foremost possible so that from there
你可以在这个基础上继续添加新的东西
you can kind of build on top of it as you like
在这之前
so to do that
我们要下载和整理所需要的数据集
we are going to download and curate our own dataset
你要按照这个步骤来
and you're going to do the same thing
然后在这个数据集上训练你的模型
you've got to train your own model on that dataset

Italian: 
 E le tue ipotesi migliori e cerca di combinare tutto insieme nel miglior modo possibile. 
 Va bene. 
 Quindi con tutto ciò che è stato detto. 
 È comunque bello poter far funzionare i nostri modelli anche se, sai, anche solo 
 un modello predittivo a volte è utile da solo. 
 A volte è utile creare un prototipo di qualcosa, a volte deve farne parte 
 quadro più ampio. 
 Quindi, piuttosto che provare a creare un enorme modello end-to-end qui. 
 Abbiamo pensato di mostrarti solo come rendere operativo il tuo modello Pytorch FastAI. 
 Nella forma più grezza possibile. 
 In modo che da lì, puoi costruirci sopra, come preferisci. 
 Quindi per farlo; scaricheremo e cureremo il nostro set di dati. 
 E farai la stessa cosa. 
 Addestrerai il tuo modello, su quel set di dati, e poi creerai un file 

Spanish: 
y tratar de combinar todo lo mejor posible.
Con todo eso dicho,
aún así es bueno poder poner en marcha nuestros modelos
incluso si un modelo predictivo es a veces útil por sí solo.
A veces es útil para hacer un prototipo de algo
a veces va ser parte de un proyecto más grande.
Así que en lugar de tratar de crear un enorme modelo de extremo a extremo aquí,
pensamos en mostrarte cómo
poner en marcha tu modelo PyTorch FastAI en una forma tan cruda como sea posible.
Así que desde ahí, puedes construir encima de él, como quieras.
Para ello, vamos a
descargar y crear nuestro propio conjunto de datos.
Tú vas a hacer lo mismo. Vas a entrenar tu propio modelo,
en ese conjunto de datos, y luego vas a

English: 
application, and then you're going to host
it.
Right?
Now, there're lots of ways to curate an image
dataset; you might have some photos on your
own computer, there might be stuff at work
you can use.
One of the easiest though, is just to download
stuff off the internet.
There’s lots of services for downloading
stuff off the internet.
We're going to be using Bing Image Search
here.
Because they're super easy to use.
A lot of the other kind of easy to use things
require breaking the Terms of Service of websites.
So we're not going to show you how to do that.
But there’s lots of examples that do show
you how to do that.
So you can check them out as well, if you
want to.
Bing Image Search is actually pretty great
at least at the moment.
These things change a lot, so keep an eye
on our website to see if we've changed our
recommendation.

Tamil: 
பின்னர் நீங்கள் ஒரு பயன்பாட்டை உருவாக்கப் போகிறீர்கள்,
பின்னர் நீங்கள் புரவ போகிறீர்கள்
இப்போது
ஒரு பட தரவு தொகுப்பை நிர்வகிக்க நிறைய வழிகள் உள்ளன.
உங்கள் சொந்த கணினியில் சில புகைப்படங்கள் உங்களிடம் இருக்கலாம்,
நீங்கள் பயன்படுத்தக்கூடிய வேலையில் விஷயங்கள் இருக்கலாம்
இணையத்தில் இருந்து பதிவிறக்குவது எளிதான ஒன்று.
இணையத்தைப் பதிவிறக்குவதற்கு நிறைய சேவைகள் உள்ளன
பிங் படத் தேடலை நாம் இங்கு பயன்படுத்தப் போகிறோம்,
ஏனெனில் அவை பயன்படுத்த எளிதானவை.
பிற வகையான சுலபமான சேவைகளைப் பயன்படுத்த
வலைத்தளங்களின் சேவை விதிமுறைகளை மீறவேண்டியிருக்கும்
எனவே அதை எப்படி செய்வது என்று நாங்கள் உங்களுக்குக் காட்டப் போவதில்லை,
ஆனால் அதை எப்படி செய்வது என்பதைக் காட்டும் பல எடுத்துக்காட்டுகள் உள்ளன
எனவே நீங்கள் விரும்பினால் அவற்றைப் பார்க்கலாம்
பிங் படத் தேடல் உண்மையில் குறைந்தபட்சம் இந்த நேரத்தில் மிகவும் சிறந்தது.
இந்த விஷயங்கள் நிறைய மாறுகின்றன, எனவே எங்கள் பரிந்துரையை நாங்கள்
மாற்றியுள்ளோமா என்பதைப் பார்க்க எங்கள் வலைத்தளத்தைப் பாருங்கள்
பிங் படத் தேடலின் மிகப்பெரிய சிக்கல் என்னவென்றால்,

Spanish: 
crear una aplicación,
y luego vas a alojarla.
Hay muchas maneras de
de crear un conjunto de datos de imágenes;
puede que tengas algunas fotos en tu propio ordenador,
puede que haya cosas en el trabajo que puedas usar.
Una de las más sencillas, sin embargo, es simplemente descargar cosas de Internet.
Hay muchos servicios para descargar cosas de Internet.
Vamos a usar Bing Image Search aquí
Porque son muy fáciles de usar.
Muchos de las otras cosas fáciles de usar
requieren romper los Términos de Servicio de los sitios web.
No vamos a mostrarte cómo hacerlo.
Pero hay muchos ejemplos
que sí te muestran cómo hacerlo. Así que
también puedes verlos, si quieres. Bing Image Search
es realmente muy buena, al menos por el momento. Estas cosas cambian mucho,
así que echa un vistazo a nuestro sitio web para ver si
hemos cambiado nuestra recomendación.
El mayor problema de Bing Image Search

Italian: 
 l'applicazione e poi la ospiterai. 
 Destra? 
 Ora, ci sono molti modi per curare un dataset di immagini; potresti avere delle foto sul tuo 
 proprio computer, potrebbero esserci cose al lavoro che puoi usare. 
 Uno dei metodi più semplici, però, è semplicemente scaricare materiale da Internet. 
 Ci sono molti servizi per scaricare materiale da Internet. 
 Utilizzeremo Bing Image Search qui. 
 Perché sono super facili da usare. 
 Molte altre cose facili da usare richiedono la violazione dei Termini di servizio dei siti web. 
 Quindi non ti mostreremo come farlo. 
 Ma ci sono molti esempi che ti mostrano come farlo. 
 Quindi puoi controllare anche loro, se vuoi. 
 Bing Image Search è in realtà piuttosto eccezionale almeno per il momento. 
 Queste cose cambiano molto, quindi tieni d'occhio il nostro sito web per vedere se abbiamo cambiato il nostro 
 raccomandazione. 

Japanese: 
アプリケーションを作成して、それを公開するのです。
さて，
画像データセットを作成する方法はたくさんあります。自分のパソコンに写真があるかもしれませんし
職場であるものを使うかもしれません。
しかし、最も簡単な方法は、インターネットから画像をダウンロードすることです。 インターネットからダウンロードできるサービスはたくさんあります。
ここではBing Image Searchを使います。とても使いやすいからです。
他の多くのサービスはサイトの利用規約違反を犯す必要があります。
そのため、ここではその方法をお見せしません。
しかし、その方法を示す例はたくさんあります。
だから、どうしても知りたかったら、あなたはそれらを調べることができます。
Bingの画像検索は、今のところとても良いです。こういったものは頻繁に変わり、
おすすめが変わることもあるので、
ウェブサイトで確認してみてください。

Chinese: 
最后再创建一个应用程序
and then you're going to create an application
然后你就可以进一步完善它了
and then you're going to host it
创建图像数据集的方法有很多种
Now there's lots of ways to create an image data set
在你自己的电脑上也许就有很多照片(可以使用)
you might have some photos on your own computer
工作中遇到的一些可能也有用
there might be stuff at work you can use
不过最简单的方法之一就是  从互联网上下载
One of the easiest though is just to download stuff of the Internet
有很多服务可以用来下载互联网上的东西
there's lots of services for downloading stuff of the Internet
这里我们要用的是Bing Image Search(必应图片搜索)服务
we're going to be using Bing Image Search here
因为它非常简单实用
because they're super easy to use
还有其他一些非常简单实用的服务
A lot of the other kind of easy to use things
(想要使用它们)可能要违反网站服务条款
require breaking the Terms of Service of Websites
这里我们就不给大家演示怎么做了(笑)
so like we're not going to show you how to do that
不过(其他地方)会有很多例子教你怎么去做
but there's lots of examples that do show you how to do that
你要是想的话  可以去看看
so you can check them out as well if you want to
其实Bing Image Search还是很好用的  至少现在可以这么说
Bing Image Search is actually pretty great at least at the moment
它们会经常变化
these things change a lot
所以请大家多关注一下我们的网站
so keep an eye on our website
看看我们是否更改了建议使用的图片搜索服务
to see if we've changed our recommendation
Bing Image Search存在的最大问题是
The biggest problem with Bing Image Search is that

Spanish: 
es que el proceso de inscripción es una pesadilla,
al menos por el momento.
Una de las partes más difíciles de este libro es simplemente registrarse en su maldita API.
Lo que requiere pasar por Azure. Se llama Cognitive Services
Azure Cognitive Services.
Aseguraremos de que toda esa información esté en el sitio web
para que puedas seguir sólo cómo inscribirte.
Vamos a empezar asumiendo
que ya te has inscrito.
Pero puedes encontrarla, sólo tienes que ir: Bing,
Bing Image Search API.
Por el momento te dan siete días
con una cuota bastante alta de forma gratuita.
Después de eso, puedes
seguir usándolo todo el tiempo que quieras,
pero lo limitan a unas 3
transacciones por segundo o algo así. Lo cual sigue siendo suficiente.
Todavía puedes hacer miles gratis,
así que por el momento es bastante genial incluso gratis.

Tamil: 
பதிவுபெறும் செயல்முறை ஒரு கொடுங்கனவு
குறைந்தபட்சம் இந்த நேரத்தில்,
இந்த புத்தகத்தின் கடினமான பகுதிகளில் ஒன்று
அவற்றின் மோசமான API இல் பதிவு பெறுவது என எண்ணுகிறேன்
இதற்கு 'Azure' வழியாக செல்ல வேண்டும்.
இது 'Azure Copgnitive Services' என்று அழைக்கப்படுகிறது
இந்த அனைத்தும் தகவல்கள் இணையதளத்தில் இருப்பதை உறுதிசெய்வோம்
எனவே நீங்கள் ஏற்கனவே பதிவுசெய்துள்ளீர்கள் என்ற
அனுமானத்திலிருந்து தொடங்கப் போகிறோம்
ஆனால் நீங்கள் அதை கண்டுபிடிக்க முடியும்.
பிங் படத் தேடல் API க்குச் செல்லுங்கள், இந்த நேரத்தில் அவர்கள் உங்களுக்கு ஏழு நாட்களை
மிக அதிகமான ஒதுக்கீட்டில் இலவசமாகக் கொடுக்கிறார்கள்,
அதன்பிறகு
நீங்கள் விரும்பும் வரை அதைப் பயன்படுத்தலாம்,
அவை வினாடிக்கு மூன்று பரிவர்த்தனைகளைப்  பதிவிறக்குவதற்கு வரம்பிடுகின்றன
இது ஏராளமானது தான்
நீங்கள் இன்னும் ஆயிரக்கணக்கானவற்றை இலவசமாக பதிவிறக்கம் செய்யலாம்.
எனவே இப்படி இலவசமாக  இருந்தாலும் கூட இது மிகவும் சிறந்தது,
எனவே

Chinese: 
注册过程非常磨人
the sign up process is a nightmare
至少现在是这样
at least at the moment
我都觉得在这本书里最难的地方是
I feel like one of the hardest parts of this book is
在他们那个烦人的应用接口(API)上注册信息
just signing up to their damn API
注册过程需要你
which requires going through
确保将它所谓的认知服务作为你的(默认)认知服务
assure it's called cognitive services as your cognitive services
我们会确保把你在注册过程中需要了解的信息
So we'll make sure that all that information is on the website
放到我们的网站上
for you to follow through just how to sign up
现在我们就假设
So we're going to start from the assumption
你已经注册好了信息开始
that you've already signed up
你可以去Bing的网站
but you can find it just go Bing
搜索Bing Image Search API
Bing Image Search API
目前这个接口可以有7天
and at the moment they give you seven days
非常高的免费配额
with a pretty high quota for free
在这之后  你可以一直使用它
and then after that you can keep using it
不管多久都可以
as long as you like
但他们会每秒钟限制3笔交易左右
but they kind of limit it to like three transactions per second or something
不过这依然算很多的
which is still plenty
你仍然可以免费使用几千次
you can still do thousands for free
所以目前来看  这样的服务已经很棒了而且还是免费的
so it's at the moment it's pretty great even for free

Japanese: 
Bing Image Searchの最大の問題点は、登録手続きが悪夢のようだということです。
今のところは。この本の最も難しい部分の1つは、彼らのAPIにサインアップすることのような気がします。
それにはAzureを経由する必要があります。それは Azure Cognitive Services と呼ばれていて
だから、私たちは、サインアップする方法がわかるように、すべての情報がウェブサイト上にあることを確認しておきます。
ということで、すでにサインアップされているという前提で
話を進めていきます。
Bing Image Search APIで検索
今のところ、7日間あまり制限なく
無料で利用できます。その後も
無料で利用できますが、
1秒間に処理3回などの制限が加されています。それでも十分な量です。
無料でも数千件の検索ができるので、今のところとてもいいオプションです。
さて、

English: 
The biggest problem with Bing Image Search
is that the signup process is a nightmare,
at least at the moment.
One of the hardest parts of this book is just
signing up to their damn API.
Which requires going through Azure.
It's called Cognitive Services - Azure Cognitive
Services.
So we'll make sure that all that information
is on the website for you to follow through
just how to sign up.
So we're going to start from the assumption
that you've already signed up.
But you can find it, just go: Bing, Bing Image
Search API.
And at the moment they give you seven days
with a pretty high quota for free.
And then after that, you can keep using it
as long as you like but they kind of limit
it to like three transactions per second or
something.
Which is still plenty.
You can still do thousands for free so it's
at the moment it's pretty great even for free.

Italian: 
 Il problema più grande con Bing Image Search è che il processo di registrazione è un incubo, 
 almeno al momento. 
 Una delle parti più difficili di questo libro è semplicemente iscriversi alla loro dannata API. 
 Che richiede di passare attraverso Azure. 
 Si chiama Servizi cognitivi - Servizi cognitivi di Azure. 
 Quindi ci assicureremo che tutte queste informazioni siano sul sito Web affinché tu possa seguirle 
 solo come registrarsi. 
 Quindi partiremo dal presupposto che ti sei già registrato. 
 Ma puoi trovarlo, basta andare: Bing, Bing Image Search API. 
 E al momento ti danno sette giorni gratis con una quota piuttosto alta. 
 E poi, puoi continuare a usarlo per tutto il tempo che desideri, ma in qualche modo limitano 
 piace tre transazioni al secondo o qualcosa del genere. 
 Che è ancora abbastanza. 
 Puoi ancora farne migliaia gratuitamente, quindi al momento è abbastanza grande anche gratuitamente. 

Italian: 
 Quindi quello che succederà è quando ti iscrivi a Bing Image Search, o qualsiasi altro tipo di 
 services, ti daranno una chiave API. 
 Quindi sostituisci semplicemente "XXX" qui con la chiave API che ti danno. 
 Ok, quindi ora verrà chiamata "chiave". 
 In effetti, facciamolo qui. 
 Ok, quindi inserirai la tua chiave e poi c'è una funzione che abbiamo creato chiamata search_images_bing 
 che è solo una minuscola funzione. 
 Come puoi vedere, sono solo due righe di codice: stavo solo cercando di salvare un po ' 
 di tempo, che richiederà alcuni prendere la tua chiave API e alcuni termini di ricerca e restituire un elenco 
 di URL che corrispondono a quel termine di ricerca. 
 Come puoi vedere per utilizzare questo particolare servizio devi installare un particolare pacchetto, 

Chinese: 
当你注册Bing Image Search的时候
So what will happen is
会发生什么呢
when you sign up for Bing Image Search
或者说你在注册类似的服务
or any of these kind of services
他们会给你一个API秘钥
they'll give you an API key
所以这里直接把XXX换成他们给你的
so just replace the XXX here
API秘钥就可以了
with the API key that they give you okay
这个秘钥我们就称之为key
so that's now going to be called key
让我们从这里开始做
Okay let's do it over here
你把秘钥设置好了后
Okay so you'll put in your key
在这儿我们创建了一个函数叫search_images_bing()
and then there's a function we've created called search_images_bing()
它是个非常非常简单的函数
which is just a super tiny little function
你可以在这看到  只有两行代码
as you can see it's just two lines of code
因为我(编写的时候)想节省一下时间
I just tried to save a little bit of time
它的输入
which will take some
包括你的API秘钥  以及一些搜索关键词
take your API key and some search term
返回结果是  符合搜索关键词的一些URL(链接)
and return a list of URLs that match that search term
你会发现  在使用这个服务时
As you can see for using this particular service
你需要安装一个比较特别的包
you have to install a particular package
我们也会演示如何在网站上做到这一点
so we show you how to do that on the site as well

Tamil: 
என்ன நடக்கும் என்பது நீங்கள் பிங் படத் தேடலுக்காக அல்லது இந்த வகையான
சேவைகளுக்கு பதிவுபெறும்போது, ​​அவை உங்களுக்கு ஒரு API விசையை வழங்கும்
எனவே இங்கே xxx ஐ அவர்கள் உங்களுக்கு வழங்கும் API  விசையுடன் மாற்றவும்
சரி, அது இப்போது 'Key' என்று அழைக்கப்படும்
உண்மையில், அதை இங்கே செய்வோம்
சரி, எனவே உங்கள் 'Key' யில் வைப்பீர்கள்
நாங்கள் உருவாக்கிய ஒரு செயல்பாடு உள்ளது (search_images_bing),இது நீங்கள் பார்க்கக்கூடிய ஒரு சிறிய செயல்பாடு, இது
இரண்டு வரிகளின் நிரல். சிறிது நேரத்தைச் சேமிக்க முயற்சிசெய்ந்திருக்கிறோம்,
இது உங்கள் API விசையையும்  தேடல் வார்த்தையையும் எடுத்து அந்த தேடல்
அதனுடன் பொருந்தக்கூடிய யு.ஆர்.எல் -களின் பட்டியலைத் தரும்.
நீங்கள் பார்பதைபோல
இந்த குறிப்பிட்ட சேவையைப் பயன்படுத்துவதற்கு
நீங்கள் ஒரு குறிப்பிட்ட தொகுப்பை நிறுவ வேண்டும்.
அதை எப்படி செய்வது என்பதை நாங்கள் உங்களுக்கு இணையதளத்தில் காண்பிப்போம்

Spanish: 
Lo que sucederá es que
cuando te inscribas en Bing Image Search, o en cualquiera
de estos servicios, te darán una clave de la API.
Sólo tienes que sustituir el "XXX" de aquí
por la clave de API que te den.
Eso se llamará ahora "key".
De hecho, hagámoslo aquí.
Bien, pondrás tu clave
y luego hay una función que hemos creado
llamada search_images_bing que es una función muy pequeña.
Como puedes ver, son sólo dos líneas de código.
Sólo estaba tratando de ahorrar un poco de tiempo.
Cual tomará  tu clave de la API
y algún término de búsqueda y devolver una lista de URLs que coincidan con ese término de búsqueda.
Como puedes ver para usar
este servicio en particular
tienes que instalar un paquete en particular,
te mostramos cómo hacerlo en el sitio también.

English: 
So what will happen is when you sign up for
Bing Image Search, or any of these kind of
services, they'll give you an API key.
So just replace the ‘XXX’ here with the
API key that they give you.
Okay, so that's now going to be called “key”.
In fact, let's do it over here.
Okay, so you'll put in your key and then there's
a function we've created called search_images_bing
which is just a super tiny little function.
As you can see, it's just two lines of code
-- I was just trying to save a little bit
of time, which will take some take your API
key and some search term and return a list
of URLs that match that search term.
As you can see for using this particular service
you have to install a particular package,

Japanese: 
Bing画像検索などのサービスに登録すると、
APIキーが発行されます。
ここにある「XXX」を発行されたAPIキーに置き換えてください。
これを「キー」と呼びます。
ここでやってみましょう。
キーを入力して、
search_images_bingという関数を作成しました。ご覧のように、
たった2行のコードですが、少しでも時間を節約しようと思って。
そして、
APIキーと検索語を入力して、その検索語にマッチするURLのリストを返します。
ご覧のように
この特定のサービスを利用するには特定のパッケージをインストールする必要があります。
このやり方もウェブサイトで紹介しておきます。

Japanese: 
そうすれば、これを実行することができるようになり、
デフォルトで150のURLが返ってくると思います。
さて、fast.aiにはdownload_url関数がついていますので、
画像をダウンロードして確認してみましょう。
それで何をしたかというと、「グリズリーベア」で検索し、グリズリーベアの写真をダウンロードしました。
そこで私が言ったのは、
グリズリーベアと黒クマとテディベアを 認識できるモデルを作ってみようということです。
それを使ってキャンプ場の近くに
ビデオ認識システムを設置して
クマの警告をするようにしますが、
もしテディベアが来たら警告したり、私を起こしたりはしません。怖くないからです。
そこで、この３種類のクマをそれぞれ、
グリズリー、クロクマ、

Spanish: 
Una vez que lo hayas hecho podrás ejecutar esto
eso te devolverá por defecto creo
150 URLs
Fastai viene con una función download_url,
así que vamos a descargar una de esas imágenes
sólo para comprobar y abrirla.
Lo que hice fue buscar "oso grizzly"
y aquí tengo un oso grizzly.
Entonces lo que hice fue decir, bien, vamos a tratar
de crear un modelo que pueda reconocer los osos grizzly  contra
los osos negros contra los osos de peluche.
Podría averiguarlo, podría instalar un sistema de reconocimiento de video
cerca de nuestro camping cuando salgamos a acampar
que me dé advertencias de oso
pero si es un oso de peluche que viene entonces no me advierte y me despierta
porque eso no daría ningún miedo.
Entonces voy a pasar cada uno de esos tres tipos de osos,
crear un directorio con el nombre
del oso grizzly o negro o el oso de peluche, buscar en Bing

English: 
so we show you how to do that on the site
as well.
So once you've done so you'll be able to run
this and that will return by default I think
150 URLs.
Okay, so fast.ai comes with a download_url
function, so let's just download one of those
images just to check and open it up.
And so what I did was I searched for “grizzly
bear” and here I have a grizzly bear.
So then what I did was I said, okay, let's
try and create a model that can recognize
grizzly bears versus black bears versus teddy
bears, so that way I can find out.
I could set up some video recognition system
near our campsite when we're out camping that
gives me bear warnings, but if it's a teddy
bear coming then it doesn't warn me and wake
me up, because that would not be scary at
all.
So then I just go through each of those three
bear types, create a directory with the name

Chinese: 
你做好前面的工作后  就可以运行这个单元了
so once you've done so you'll be able to run this
这里会返回符合条件的URL  我记得默认是返回150条
and that will return by default I think 150 URLs
fastai库里带有下载URL的功能
okay so fastai comes with a download URL functions
现在我们下载其中一张
so let's just download one of those images
然后打开来看看
just to check and open it up
刚刚我是搜索了灰熊的图片
and so what I did was I searched for grizzly bear
这儿就有了一张灰熊的图片
and here I have a grizzly bear
然后我就说
so then what I did
好  让我们试着创建一个模型
was I said okay let's try and create a model
让它可以识别灰熊  黑熊  还有泰迪熊
that can recognize grizzly bears versus black bears versus teddy bears
这样我就可以找出..
so that way I can find out..
我可以在野营时  在营地周围放一些
I could set up some video recognition system near our campsite
音频识别系统
when we're out camping
如果有熊来了  可以发出警报
that gives me bear warnings
但如果是泰迪熊来了
but if it's a teddy bear coming
系统不会发出警报叫醒我
then it doesn't warn me and wake me up
因为泰迪熊一点也不可怕
because that would not be scary at all
在这里  我遍历了每个熊种类
so then I just go through each of those three bear types
根据它们的种类  分别创建了路径
create a directory with the name of grizzly or black or teddy bear

Tamil: 
எனவே நீங்கள் செய்தவுடன் இதை இயக்க முடியும்
அது இயல்பாகவே 150 URL-களை கொடுக்கும் நினைக்கிறேன்
'FastAI' ஒரு download_url செயல்பாட்டுடன் வருகிறது
எனவே அதைச் சரிபார்த்து திறக்க அந்த படங்களில் ஒன்றை பதிவிறக்கம் செய்வோம்
அதனால் நான் என்ன செய்தேன் என்றால்
நான் இங்கே கிரிஸ்லி கரடியைத் தேடினேன். என்னிடம் ஒரு கிரிஸ்லி கரடி உள்ளது
அதன் பிறகு என்ன செய்தேன் என்றால்
டெடி பியர்களும், கருப்பு கரடிகளும், கிரிஸ்லி கரடிகளும்  அடையாளம் காணக்கூடிய ஒரு மாதிரியை உருவாக்க முயற்சிப்போம்
ஆகவே, எங்கள் முகாமுக்கு அருகில் சில வீடியோ அங்கீகார முறையை அமைக்க முடியும்
நாங்கள் முகாமுக்கு வெளியே இருக்கும்போது எனக்கு கரடி
எச்சரிக்கைகளைத் தரும்
ஆனால் அது ஒரு டெட்டி கரடி என்றால் அது என்னை எச்சரிக்காது, எழுப்பாது,
ஏனென்றால் அதை பார்த்தல் பயமாக இருக்காது
எனவே நான் அந்த மூன்று கரடி வகைகளில் ஒவ்வொன்றையும் கடந்து செல்கிறேன்,
ஒரு கோப்பகத்தை உருவாக்கவும் தேடப்பட்ட கிரிஸ்லி அல்லது கருப்பு அல்லது டெடி பியர்

Italian: 
 quindi ti mostriamo come farlo anche sul sito. 
 Quindi, una volta fatto, sarai in grado di eseguirlo e credo che tornerà per impostazione predefinita 
 150 URL. 
 Ok, so fast.ai viene fornito con una funzione download_url, quindi scarichiamone solo uno 
 immagini solo per controllarlo e aprirlo. 
 E così quello che ho fatto è stato cercare "orso grizzly" e qui ho un orso grizzly. 
 Allora quello che ho fatto è stato dire, ok, proviamo a creare un modello che possa riconoscere 
 orsi grizzly contro orsi neri contro orsacchiotti, così posso scoprirlo. 
 Potrei impostare un sistema di riconoscimento video vicino al nostro campeggio quando siamo in campeggio 
 mi dà avvertimenti sugli orsi, ma se è in arrivo un orsacchiotto, non mi avvisa e non si sveglia 
 me up, perché non sarebbe affatto spaventoso. 
 Quindi esamino ciascuno di questi tre tipi di orso, creo una directory con il nome 

Spanish: 
ese término de búsqueda en particular
junto con oso
y descargar. download_images es una función fastai también.
Después de eso puedo llamar a get_image_files
que es una función fastai
que devolverá recursivamente todos los archivos de imagen dentro de esta ruta.
Puedes ver que me ha dado bears/black/ y luego muchos números.
Una de las cosas con las que tienes que tener cuidado es
que muchas de las cosas que descargues resultarán ser
no imágenes en absoluto y se romperán.  Puedes llamar
a verify_images para comprobar que todos
estos nombres de archivo son imágenes reales.
En este caso
no tenía ninguno fallado, así que está vacío.
Pero si tuvieras alguno, entonces llamarías a
Path.unlink para desacoplar.
Path.unlink es parte de la biblioteca estándar de Python
y elimina un archivo.  Y map

Italian: 
 di grizzly, nero o orsacchiotto ha cercato in Bing quel particolare termine di ricerca 
 con orso e download. 
 E quindi download_images è anche una funzione fast.ai. 
 Quindi dopo posso chiamare get_image_files che è una funzione fast.ai che tornerà 
 ricorsivamente tutti i file di immagine all'interno di questo percorso. 
 E puoi vedere che mi ha dato orsi / neri / e poi molti numeri. 
 Quindi una delle cose a cui devi stare attento è che molte delle cose che scarichi 
 risulterà essere come non immagini e si romperà. 
 Quindi puoi chiamare verify_images per verificare che tutti questi nomi di file siano immagini reali. 
 E in questo caso non ho fallito, quindi è vuoto. 
 Ma se ne avessi qualcuno, chiameresti Path.unlink per scollegarlo. 
 Path.unlink fa parte della libreria standard Python e cancella un file. 

Chinese: 
然后去Bing上搜索熊类的关键词
searched Bing for that particular search term along with bear
下载下来
and download
download_images也是fastai库中的一个函数
and so download_images is a fastai function as well
然后我可以调用get_image_files()函数
so after that I can call get_image_files()
它是fastai库中的一个函数
which is a fastai function
它会递归地返回所有图像文件
that will just return recursively all of the image files
这些文件都是在这个path指定的路径中的
inside this path
这里的结果你可以看到  它输出了bears/black/
and you can see it's giving me bears / black /
最后是一串数字编号
and then lots of numbers
你必须要注意的一件事是
so one of the things you have to be careful of
你从网上下载下来的一些图片可能会
is that a lot of the stuff you download will turn out to be like
不是图像或者是损坏的文件
not images at all and will break
这时候你可以调用verify_images()函数
so you can call verify_images()
检查一下这些文件名是不是都是正常的图像
Bto check that all of these file names are actual images
在我们的例子里没有出现这样的情况
and in this case I didn't have any failed
所以这儿是空的
so it's empty
但如果你那里真的出现了这种问题
but if you did have some
你可以调用Path.unlink函数
then you would call Path.unlink
Path.unlink是Python标准函数库中的函数
unlink.. Path.unlink is part of the Python standard library
它可以对文件进行删除
and it deletes a file

English: 
of grizzly or black or teddy bear searched
Bing for that particular search term along
with bear and download.
And so download_images is a fast.ai function
as well.
So after that I can call get_image_files which
is a fast.ai function that will just return
recursively all of the image files inside
this path.
And you can see it's given me bears/black/
and then lots of numbers.
So one of the things you have to be careful
of is that a lot of the stuff you download
will turn out to be like not images at all
and will break.
So you can call verify_images to check that
all of these file names are actual images.
And in this case I didn't have any failed,
so there's it's empty.
But if you did have some, then you would call
Path.unlink to unlink.
Path.unlink is part of the Python standard
library and it deletes a file.

Tamil: 
என்பதை தேடல் சொல்லாக கொண்டு
'கரடி' என்ற சொல்லுடன் பிங் இல் தேடுங்கள்
"download_images", ஒரு 'FastAI' செயல்பாட்டைப் பயன்படுத்தி பதிவிறக்கவும்
அதற்குப் பிறகு நான் 'get_image_files' -ஐ  அழைக்கலாம்,
இது ஒரு 'FastAI' செயல்பாடு,
இது அனைத்து படக் கோப்புகளையும் சுழல்நிலையாக  தரும்
இந்த பாதையின் உள்ளே  கரடிகள்/கருப்பு/நிறைய எண்களில் கொடுக்கப்பட்டுள்ளன
எனவே
நீங்கள் கவனமாக இருக்க வேண்டிய ஒரு விஷயம்
என்னவென்றால்,  நீங்கள் பதிவிறக்கும் நிறைய விஷயங்கள் படங்கள்
அல்ல, சரியான கோப்புகள். எனவே 'verify_images' பயன்படுத்தி
இந்த கோப்பு பெயர்கள் அனைத்தும் உண்மையான படங்கள் என்பதை சரிபார்க்கவும்
இந்த விஷயத்தில், எனக்கு எதுவும் தோல்வியடையவில்லை.
எனவே அது காலியாக உள்ளது.
ஆனால் உங்களிடம் சில இருந்தால் "Path.unlink'கை அழைக்க வேண்டும்
Unlink என்பது பைதான் நிலையான நூலகத்தின் ஒரு பகுதியாகும்,
மேலும் இது ஒரு கோப்பை நீக்குகிறது

Japanese: 
テディベアという名前のフォルダを作り、Bingで
クマと一緒にそれらの検索語を検索して
ダウンロードします。download_imagesもfast.ai関数です。
この後にget_image_filesを呼び出すことができます。
これはfast.ai関数で、このパスの中にあるすべての画像ファイルを再帰的に返してくれます。
そして見ての通り、 bears/black/　そしてたくさんの数字。
さて、
注意しなければならないことの一つは、ダウンロードしたものの多くが画像ではなく、
エラーを起こしてしまうということです。そこで verify_images を呼び出して、
これらのファイル名がすべて実際の画像であるかどうかを確認します。
で、今回の場合は失敗したものがなかったので、空になっています。 しかし、もしあったのであれば、
Path.unlinkを呼び出してリンクを解除します。Path.unlinkはPython標準ライブラリの一部で、ファイルを削除してくれます。

Spanish: 
es algo que llamará a esta función
para cada elemento de esta colección.
Esto es parte de una clase especial de fastai llamada "L".
Básicamente es una mezcla entre
la clase de 'list' de la biblioteca estándar de Python
y una clase de NumPy array.
Más adelante en este curso aprenderemos más sobre ella,
pero básicamente trata de hacer más fácil
la programación estilo funcional en Python.
En este caso va a desvincular todo
lo que está en la lista de 'failed', que es probablemente lo que queremos.
Porque son todas las imágenes que no se pueden verificar.
Ahora tenemos
una ruta que contiene un montón de imágenes
y están clasificadas según
negras, grises o de peluche, en base a la carpeta en la que están.
Así que vamos a crear un modelo.
Para crear un modelo

Chinese: 
map()的作用是
and map() is something that will call this function
使得Path.unlink函数可以应用于此数据集的每张图片上
for every element of this collection
它属于fastai库中一种叫L的类
this is part of the special fastai class called L
它基本上算是个Python标准库中列表类
it's basically, it's kind of a mix between the Python standard library list class
和numpy数组类之间的混合体
and a numpy array class
关于它的知识  以后我们会在课程里学到更多
then we'll be learning more about it later in this course
但基本上  它使得在Python中
but it basically tries to make it super easy to do
做函数式风格的编程变得非常容易
kind of more functional style programming in Python
在这个例子里它会把问题图像列表中的
So in this case it's going to unlink
所有图像取消链接
every thing that's in the failed list
这也是我们想要的结果
which is probably what we want
因为这些问题图像都无法进行验证
now because there are all the images that failed to verify
好  现在我们得到了
Alright so we've now got
一个含有很多图像的路径
a path that contains a whole bunch of images
这些图片根据
and they're classified according to
所在的文件夹是哪种熊类  被分好了类
black grizzly or teddy based on what folder they're in
接下来我们要建立模型了
and so to create.. so we're going to create a model
想要建立模型
and so to create a model

Italian: 
 E map è qualcosa che chiamerà questa funzione per ogni elemento di questa raccolta. 
 Questo fa parte di una speciale classe fast.ai chiamata "L". 
 Fondamentalmente è una specie di mix tra la classe dell'elenco di librerie standard Python e 
 una classe di array numpy, quindi ne impareremo di più più avanti in questo corso, ma 
 fondamentalmente cerca di rendere super facile fare un tipo di programmazione più funzionale 
 in Python. 
 Quindi in questo caso scollegherà tutto ciò che è nell'elenco degli errori, che probabilmente lo è 
 quello che vogliamo adesso, perché ci sono tutte le immagini che non riescono a verificare. 
 Va bene, quindi ora abbiamo un percorso che contiene un intero gruppo di immagini e sono classificate 
 secondo black, grizzly o teddy, in base alla cartella in cui si trovano. e quindi per creare 
 quindi creeremo un modello. 

Japanese: 
そしてmapは、このコレクションの各要素に対して
この関数を呼び出すものです。
これは "L "と呼ばれる
特別な
fast.aiクラスの一部です。基本的には
Python標準ライブラリのリストクラスと
numpy配列クラスをミックスしたようなものです。
このコースでは後ほど詳しく説明しますが、
基本的にはPythonでより関数型のプログラミングが簡単にできるようにするものす。
この場合、失敗したリストにある
すべての画像のリンクを解除します。
検証に失敗した画像だからです。これで、
たくさんの画像が含まれたパスができました。ブラック、グリズリー、テディと、
どのフォルダに入っているかによって分類されています。

Tamil: 
மேப் என்பது இந்த தொகுப்பின் ஒவ்வொரு
உறுப்புக்கும் இந்த செயல்பாட்டை அழைக்கும் ஒன்று
இது "L" என்று அழைக்கப்படும் ஒரு சிறப்பு 'FastAI' வகுப்பின் ஒரு பகுதியாகும்.
இது அடிப்படையில், இது பைதான் நிலையான நூலகத்திற்கு இடையிலான கலவையாகும்.
"பட்டியல் வகுப்பு" மற்றும் Numpy "வரிசை வகுப்பு"
பின்னர் இந்த பாடத்திட்டத்தில் இதைப் பற்றி மேலும் அறிந்து கொள்வோம்.
ஆனால் இது அடிப்படையில் பைத்தானில் அதிக செயல்பாட்டு பாணி நிரலாக்கத்தை எளிதாக்க முயற்சிக்கிறது.
எனவே இந்த விஷயத்தில், தோல்வியுற்ற பட்டியலில் உள்ள அனைத்தையும் இது இணைப்பை நீக்கு போகிறது
இது தான் நமக்கு தேவையானது
ஏனெனில், இந்த பட்டியலில், சரிபார்க்கத் தவறும் அனைத்து படங்களும் உள்ளன.
நம்மிடம் படங்களின் மொத்த தொகுப்பைக் கொண்ட ஒரு பாதை உள்ளது
அவை வகைப்படுத்தப்படுகின்றன, அதாவது
"கருப்பு கரடி" / "டெடி" யாக
எந்தக் கோப்புறையில் உள்ளத்தின் படி பிரிக்கப்பட்டுள்ளன.
எனவே நாம் ஒரு மாதிரியை உருவாக்கப் போகிறோம்,
ஒரு மாதிரியை உருவாக்க வேண்டுமென்றால்,

English: 
And map is something that will call this function
for every element of this collection.
This is part of a special fast.ai class called
“L”.
It’s basically it's kind of a mix between
the Python standard library list class and
a numpy array class, Then we'll be learning
more about it later in this course, but it
basically tries to make it super easy to do
kind of more functional-style programming
in Python.
So in this case it's going to unlink everything
that's in the failed list, which is probably
what we want now, because there are all the
images that fail to verify.
All right, so we've now got a path that contains
a whole bunch of images and they're classified
according to black, grizzly, or teddy, based
on what folder they're in. and so to create
so we're going to create a model.

Spanish: 
lo primero que tenemos que hacer es
decirle a fast.ai
qué tipo de datos tenemos y cómo están estructurados.
En la Lección 1 del curso
lo hicimos usando lo que llamamos
un método de fábrica, que es que simplemente decimos
image_data_loaders.from_name
y lo hizo todo por nosotros.
Esos métodos de fábrica están bien para los principiantes, pero ahora estamos en la Lección 2.
Ya no somos principiantes, así que vamos a mostraros
la forma súper flexible de usar los datos
en el formato que queráis, y se llama API de DataBlock.
La API de DataBlock tiene este aspecto.
Aquí está la API de DataBlock.
Le dices a fastai
cuál es tu variable independiente
y cuál es tu variable dependiente.
Cuáles son tus etiquetas y cuáles son tus datos de entrada.

Tamil: 
நாம் முதலில் "FastAI" விற்கு நம்மிடம் என்ன வகையான தரவு உள்ளது,
அது எவ்வாறு கட்டமைக்கப்பட்டுள்ளது? என்று சொல்லவேண்டும்.
பாடம் 1 இல்
நாம் 'Factory Method' என்று ஒன்றை பயன்படுத்தி அதைச் செய்தோம்.
"ImageDataLoaders.from_name_func" என்று நாங்கள் சொன்னோம்,
அது நமக்கு அனைத்தையும் செய்தது.
அந்த தொழிற்சாலை முறைகள் ஆரம்பநிலைக்கு நல்லது,
நாம் பாடம் 2 இருக்கிறோம். நாம்  இப்பொழுது ஆரம்பத்தில் இல்லை.
நாங்கள் ஒரு மிக நெகிழ்வான வழியைக் காட்டப் போகிறோம்
அது நீங்கள் விரும்பும் எந்த வடிவத்திலும் தரவைப் பயன்படுத்துவதற்கு உதவும்
அது "DataBlock API" என்று அழைக்கப்படுகிறது.
எனவே "DataBlock API"  இது போல் இருக்கும்.
நீங்கள் 'FastAI' விற்கு
உங்கள் சுயாதீன மற்றும் உங்கள் சார்பு மாறியை சொல்கிறீர்கள்
உங்கள் சிட்டைகள் என்ன, உங்கள் உள்ளீட்டு தரவு என்ன என்று

Chinese: 
要做的第一件事就是
the first thing we need to do
告诉fastai我们的数据是什么样子的
is to tell fastai what kind of data we have
它的结构如何
and how it's structured
在我们课程的第一课中
Now in lesson 1 of the course
我们通过使用所谓的工厂方法来做到这一点
we did that by using what we call a factory method
也就是使用ImageDataLoaders.from_name()函数
which is we just said ImageDataLoaders.from_name()
它会帮我们把要做的都完成
and it did it all for us
那些工厂方法对新手非常友好
those factory methods are fine for beginners
但现在我们是第二课了
but now we're into lesson two
已经不算新手了
we're not quite beginners anymore
所以我们将向你展示一种非常灵活的方式
so we're going to show you the super super flexible way
以你想用的任何格式使用数据
to use data in whatever format you like
它叫做DataBlock API(程序接口)
and it's called the DataBlock API
DataBlock API
and so the DataBlock API
长这样
looks like this
这个就是
here's the DataBlock
你告诉fastai库  你的自变量是什么
you tell fastai what your independent variable is
因变量是什么
and what your dependent variable is
标签是什么  输入的数据是什么
so what your labels are and what your input data is

English: 
and so to create a model the first thing we
need to do is to tell fast.ai what kind of
data we have and how it’s structured.
Now in part in Lesson 1 of the course we did
that by using what we call a factory method
which is we just said image_data_loader start
from name, and it did it all for us.
Those factory methods are fine for beginners,
but now we're into Lesson 2.
We're not quite beginners anymore, so we're
going to show you the super super flexible
way to use data in whatever format you like,
and it's called the DataBlock API.
And so the DataBlock API 
looks like this.
Here's the DataBlock API.
You tell fast.ai what your independent variable
is and what your dependent variable is.
So what your labels are and what your input
data is.

Italian: 
 e quindi per creare un modello la prima cosa che dobbiamo fare è dire a fast.ai di che tipo 
 dati che abbiamo e come sono strutturati. 
 Ora, in parte, nella Lezione 1 del corso, lo abbiamo fatto utilizzando quello che chiamiamo metodo factory 
 che è che abbiamo appena detto che image_data_loader inizia dal nome, e ha fatto tutto per noi. 
 Quei metodi di fabbrica vanno bene per i principianti, ma ora siamo alla Lezione 2. 
 Non siamo più dei principianti, quindi ti mostreremo il super super flessibile 
 modo di utilizzare i dati in qualsiasi formato ti piaccia, e si chiama DataBlock API. 
 E quindi l'API DataBlock ha questo aspetto. 
 Ecco l'API DataBlock. 
 Dici a fast.ai qual è la tua variabile indipendente e qual è la tua variabile dipendente. 
 Quindi quali sono le tue etichette e quali sono i tuoi dati di input. 

Japanese: 
ということで、モデルを作成します。 モデルを作成するにはまず、
fast.aiに
どのようなデータがあり、どのように構造化されているかを伝える必要があります。
レッスン1では、ファクトリーメソッドと呼ばれるものを使用して、
ImageDataLoaders.from_nameと言っただけで、それがすべての処理をしてくれました。
これらのファクトリメソッドは初心者には良いのですが、
でも今はレッスン２に入っています 私たちはもう初心者ではありません
そこで、あなたの好きなフォーマットでデータを使用する超柔軟な方法をお見せしましょう。
これはDataBlock APIと呼ばれるものです。
これがDataBlock APIです。
fast.aiに独立変数と従属変数を指定します。

Spanish: 
En este caso nuestros datos de entrada son imágenes
y nuestras etiquetas son categorías.
La categoría va a ser o grizzly,
o black
o teddy
Eso es lo primero que se dice.  Ese es el parámetro del bloque.
Luego lo cuentas... ¿cómo obtienes una lista de todos los,
en este caso nombres de archivos. Y acabamos de ver
cómo hacerlo porque acabamos de llamar a la función nosotros mismos.
La función se llama get_image_files.
Así que le decimos qué función usar para obtener esa lista de elementos.
Luego le decimos - cómo dividir los datos
conjunto de validación y un conjunto de entrenamiento.
Entonces vamos a usar algo llamado RandomSplitter
que simplemente lo divide al azar. Vamos a poner el 30%
de ellos en el conjunto de validación.   También vamos a
establecer la semilla aleatoria
que asegura que cada vez que lo ejecutamos, el conjunto de validación será el mismo.
Luego dices, bien, ¿cómo se etiquetan los datos?
Este es el nombre de una función llamada parent_label.
Eso va a buscar cada

Tamil: 
எனவே இந்த விஷயத்தில் எங்கள் உள்ளீட்டு தரவு 'படங்கள்'
மற்றும் நம் சிட்டைகள் 'பிரிவுகள்'. எனவே வகை 'கிரிஸ்லி' அல்லது 'கருப்பு'
அல்லது 'டெடி' ஆக இருக்கலாம்.
எனவே அதை தான் முதலில் கூறுகிறீர்கள்
அதுவே தொகுதியின் அளவுரு,
பின்னர் சொல்லவேண்டியது
கோப்பு பெயர்களின் பட்டியலை எவ்வாறு பெறுவேண்டும் என்பது
அதை எப்படி செய்வது என்று பார்த்தோம், ஏனெனில் இப்போது தான்
செயல்பாட்டை நாமே அழைத்தோம். அதன் பெயர் 'get_image_files'
கோப்புகளின் பட்டியலைப் பெற எந்த செயல்பாடை பயன்படுத்த வேண்டும், என சொல்கிறோம்
பிறகு , தரவை சரிபார்ப்பு தொகுப்பு மற்றும் பயிற்சி தொகுப்பாக எவ்வாறு பிரிப்பது - எனவும் சொல்கிறோம்
எனவே நாம் "RandomSpiltter" என்று அழைக்கப்படும் ஒன்றைப் பயன்படுத்தப் போகிறோம்,
இது தோராயமாக பிரிக்கும்,
நாம் அதில் 30% சரிபார்ப்பு தொகுப்பில்
சீரற்ற விதைகளையும் நாம் பொருத்துப் போகிறோம்,
இது ஒவ்வொரு முறையும் நாம் இயக்கும் போது சரிபார்ப்பு தொகுப்பு ஒரே மாதிரியாக இருக்கும் என்பதை உறுதி செய்கிறது.
தரவை எவ்வாறு பெயரிடுவது? இது 'பரென்ட்  லேபிள்' எனப்படும் ஒரு செயல்பாட்டின் பெயர்.

Chinese: 
在我们的例子里  输入数据就是图像
so in this case our input data are images
标签是熊的种类
and our labels are categories
具体来说就是灰熊  黑熊  或者泰迪熊
so category is going to be either grizzly or black or teddy
这是你首先要告诉fastai库的
so that's the first thing you tell it
这个是模块的参数
now that's the block's parameter
然后你告诉它
and then you tell it
你要如何获取所有文件名的列表
how do you get a list of all of the.. in this case, file names, right?
刚刚我们看过是怎么做的了
and we just saw how to do that
因为我们自己之前调用过这个函数
because we just called the function ourselves
这个函数的名字叫get_image_files
the function is called get_image_files
所以这里我们是在告诉它  使用什么函数来获取数据
so we tell it what function to use to get that list of items
然后你要告诉fastai的是
and then you tell it
你想怎么把数据
how do you split the data 
分成验证集与训练集
into a validation set and a training set
在这里我们要使用的函数叫 RandomSplitter()
so we're going to use some we call it RandomSplitter()
它会对数据集进行随机分割
which will split it randomly
我们这次把数据集的30%分给验证集
and we're going to put 30% of it into the validation set
还需要设置一下random seed(随机种子)的值
we're also going to set the random seed
我们在每次跑程序时  它能够保证验证集都是一样的
which ensures that every time we run this, the validation set will be the same
这时候你会问  那如何标记数据呢
and then you say, okay how do you label the data
这儿有一个函数  叫parent_label
and this is the name of a function called parent_label

English: 
So in this case our input data are images
and our labels are categories.
So category is going to be either grizzly,
or black, or teddy.
So that's the first thing you tell it.
Now that's the block's parameter.
And then you tell it - how do you get a list
of all of the, in this case file names, right.
And we just saw how to do that because we
just called the function ourselves.
The function is called get_image_files.
So we tell it what function to use to get
that list of items and then you tell it - how
do you split the data into a validation set
and a training set.
And so we're going to use something called
a RandomSplitter which just splits it randomly.
And we're going to point 30% of it into the
validation set.
We're also going to set the random seed which
ensures that every time we run this, the validation
set will be the same.
And then you say, okay, how do you label the
data.
And this is the name of a function called
parent_label.

Japanese: 
つまり、ラベルと入力データを指定します。 この場合の入力データは画像で、
ラベルはカテゴリです。カテゴリーはグリズリーかブラックか
テディになります。
これが最初に伝えることです。
これがブロックのパラメータです。そして、すべてのファイル名のリストを取得する方法を伝えます。
その方法は見たばかりです。なぜなら、さっきその関数を呼んだからです。関数は get_image_files と呼ばれています。
なのでこのリストを取得するためにどのような関数を使うかを指定します。
それからデータを検証セットとトレーニングセットにどうやって分けるかを指定します。
そこで、RandomSplitterと呼ばれるものを使って、データをランダムに分割します。
そして、そのうちの30%を検証セットに振り分けます。
また、ランダムシードを設定して、これを実行するたびに検証セットが同じになるようにします。
そして、データにラベルを付けるにはどうすればいいかを設定。これがその関数の名前、parent_labelです。
これは親フォルダの名前を見てラベルを判断します。

Italian: 
 Quindi in questo caso i nostri dati di input sono immagini e le nostre etichette sono categorie. 
 Quindi la categoria sarà grizzly, nera o orsacchiotto. 
 Quindi questa è la prima cosa che gli dici. 
 Questo è il parametro del blocco. 
 E poi lo dici: come si ottiene un elenco di tutti i nomi di file, in questo caso, giusto. 
 E abbiamo appena visto come farlo perché abbiamo chiamato la funzione noi stessi. 
 La funzione si chiama get_image_files. 
 Quindi gli diciamo quale funzione usare per ottenere quell'elenco di elementi e poi gli diciamo come 
 dividi i dati in un set di convalida e un set di addestramento. 
 Quindi useremo qualcosa chiamato RandomSplitter che lo divide in modo casuale. 
 E ne indicheremo il 30% nel set di convalida. 
 Inoltre, imposteremo il seme casuale che garantisce che ogni volta che lo eseguiamo, la convalida 
 il set sarà lo stesso. 
 E poi dici, okay, come etichetti i dati. 
 E questo è il nome di una funzione chiamata parent_label. 

Japanese: 
この画像のラベルは黒クマになります。
これは、画像データセットを表現する最も一般的な方法で、
異なる画像をラベルにしたがってフォルダに入れていくのです。
そして
最後にiアイテムトランスフォーム（item_tfms）と呼ばれるものがあります。
変換（トランスフォーム）についてはもう少し詳しく説明しますが、
これらは基本的に各画像に適用される関数です。この場合、それぞれの画像が128×128の正方形に
リサイズされます。
DataBlock APIについては近日中に詳しく説明する予定です。
しかし、基本的なプロセスはこのようになります。はじめに何らかのget_itemsを呼び出します（ここでは画像ファイルのリスト）。
そして get_x, get_y を呼び出します。この場合は get_x はありませんが、親ラベルの　get_y　があります。
そして、これらの2つのもののcreateメソッドを呼び出します。
画像を作成し、カテゴリを作成します。

Italian: 
 E quindi cercherà ogni elemento al nome del genitore. 
 Quindi questo, questo in particolare diventerebbe un orso nero. 
 Ora questo è come il modo più comune per rappresentare i set di dati di immagini, è che ottengono 
 mettere le diverse immagini ottenere i file vengono inseriti nella cartella in base alla loro etichetta. 
 E poi finalmente qui abbiamo qualcosa chiamato item_tfms. 
 Tra un momento impareremo molto di più sulle trasformazioni. 
 Che queste sono fondamentalmente funzioni che vengono applicate a ciascuna immagine. 
 Quindi ogni immagine verrà ridimensionata a 128 x 128 quadrati. 
 Quindi presto impareremo di più sull'API DataBlock. 
 Ma fondamentalmente il processo sarà - chiamerà qualunque cosa sia get_items, che 
 è un elenco di file di immagine. 
 E poi chiamerà get_x, get_y quindi in questo caso non c'è get_x ma lì 
 è un get_y quindi è solo l'etichetta principale. 
 E poi chiamerà il metodo create per ciascuna di queste due cose: sta andando 
 per creare un'immagine e creerà una categoria. 

Tamil: 
இது ஒவ்வொரு பொருளின் மூல-கோப்புறையின்  பெயரை தேடப் போகிறது,
எனவே இந்த குறிப்பிட்ட ஒன்று இப்போது கருப்பு கரடியாக மாறும்
பட தரவுத்தொகுப்புகள் குறிப்பிடப்படுவதற்கான பொதுவான வழி இது.
வெவ்வேறு படங்களின் சிட்டைப்படி அவற்றின் கோப்புறையில் வைக்கப்படுகின்றன.
பின்னர் இறுதியாக இங்கே 'Item Transformers' என்று உள்ளது
இதைப் பற்றி நாம் இன்னும் நிறைய கற்றுக்கொள்வோம்
இவை ஒவ்வொரு படத்திற்கும் பயன்படுத்தப்படும் செயல்பாடுகள்.
எனவே ஒவ்வொரு படமும் 128x128 சதுரத்திற்கு மறுஅளவாக்கப்படுகிறது
எனவே விரைவில் "DataBlock API" பற்றி மேலும் அறியப் போகிறோம்
அடிப்படையில் 'get_items' இல் உள்ளதை அழைக்கிறது,
இது படக் கோப்புகளின் பட்டியல்.
பிறகு நான் 'get_x' 'get_y' என்று அழைக்கப் போகிறேன்.
இந்த விஷயத்தில், 'get_x' இல்லை, ஆனால்  'get_y' உள்ளது
எனவே இது "parent_label"
இந்த இரண்டு விஷயங்களுக்கும் ஒவ்வொன்றையும் "Create" முறைமையை அழைக்கிறது
இது ஒரு படத்தை உருவாக்கப் போகிறது, அது ஒரு வகையை உருவாக்கப் போகிறது

Spanish: 
elemento en el nombre del 'parent',
este en particular se convertiría en un oso negro.
Esta es la forma más común de
representar los conjuntos de datos de imágenes.
Se ponen las diferentes imágenes, se ponen los archivos en una carpeta de acuerdo con su etiqueta.
Finalmente aquí tenemos algo llamado item_tfms.
Aprenderemos mucho más sobre las transformaciones en un momento.
Estas son básicamente funciones que se aplican a cada imagen.
Cada imagen va a ser redimensionada
a un cuadrado de 128 por 128.
Pronto aprenderemos más sobre la API de DataBlock.
Pero básicamente el proceso va a ser... va a llamar a
a lo que sea get_items, que es una lista de archivos de imágenes.
Luego va a llamar a get_x, get_y.
En este caso no hay get_x, pero hay un get_y, así que es sólo parent_label.
Luego va a llamar
al método .create para cada una de estas dos cosas,
va a crear una imagen y va a crear una categoría.

Chinese: 
它让你可以根据每个数据的父目录去查看它们
and so that's going to look for each item  at the name of the parent
比如现在看到的这个数据  就指的是一只黑熊
so this particular one would become a black bear
这其实是表达图像数据集最普遍的方法
and this is like the most common way for image datasets to be represented
他们将不同的图像
is that they get put the different images
根据它们不同的标签  放到不同的文件夹里
the files get put into folder according to their label
最后这里我们使用了一个叫 item_tfms的函数
and then finally here we've got something called item transforms
很快我们就会学到更多关于transforms的知识
we'll be learning a lot more about transforms in a moment
基本来讲  它们是能够应用于每张图像上的函数
that these are basically functions that get applied to each image
在这个函数里  每张图片会被调整为128*128平方大小
and so each image is going to be resized to 128*128 square
很快我们就会学到更多关于DataBlock()模块接口的知识
so we're going to be learning more about DataBlock API soon
但基本上它的流程就是  调用get_items函数
but basically the process is going to call whatever is get_items
接收一系列图像文件
which is a list of image_files
然后调用get_x和get_y函数
and then I'm going to call get_x get_y
这个例子中没有get_x  只有get_y函数
so in this case there's no get_x but there is a get_y
get_y的值为数据的父标签
so it's just parent_label
接下来就是对这两个Block调用create方法
and then it's going to call the create method for each of these two things
这个会创建一张图像  这个会创建一个类别
it's going to create an image and it's going to create a category

English: 
And so that's going to look for each item
at the name of the parent.
So this, this particular one would become
a black bear.
Now this is like the most common way for image
datasets to be represented, is that they get
put the different images get the files get
put into folder according to their label.
And then finally here we've got something
called item_tfms.
We'll be learning a lot more about transforms
in a moment.
That these are basically functions that get
applied to each image.
And so each image is going to be resized to
128 by 128 square.
So we're going to be learning more about DataBlock
API soon.
But basically the process is going to be -- it's
going to call whatever is get_items, which
is a list of image files.
And then it’s going to call get_x, get_y
so in this case there's no get_x but there
is a get_y so it's just parent label.
And then it's going to call the create method
for each of these two things - it's going
to create an image and it's going to create
a category.

Spanish: 
Entonces voy a llamar al item_tfms, que es Resize().
Luego lo siguiente que hace
es ponerlo en algo llamado un DataLoader.
Un DataLoader es algo que toma unas pocas imágenes a la vez
(creo que por defecto es 64)
y las pone todas en una sola, se llama un 'batch'.
Simplemente toma 64 imágenes y las pega todas juntas.
La razón por la que lo hace es que luego las pone todas
en la GPU a la vez para que pueda
pasarlas todas al modelo
a través de la GPU de una sola vez.
Eso va a permitir que la GPU vaya mucho más rápido, como vamos a aprender.
Finalmente (no usamos ninguno aquí),
podemos tener algo llamado batch_tfms, de las que hablaremos más adelante.
Luego en algún lugar en el medio, por aquí
conceptualmente está el 'splitter'
que es la cosa que se divide en el conjunto de entrenamiento
y el conjunto de validación.  Esta es una forma súper flexible
de decirle a fastai
cómo trabajar con sus datos.

Japanese: 
そして、item_tfmsを呼び出してサイズを変更します。
次にそれをデータローダと呼ばれるものに入れます。
データローダとは、一度に数枚の画像を取得して、
（デフォルトでは64枚だと思います）それらを一つにまとめるものです。
これはバッチと呼ばれていて、64枚の画像を取得して、それらをすべて一つにまとめます。
なぜそうするかというと、すべての画像を一度にGPU上に配置して、
GPUを介してモデルに
一度にすべての画像を渡すことができるようにするためです。
これによりGPUの処理速度が格段に向上します。
そして最後に（ここでは何も使いませんが）、
これについては後ほど説明しますが、バッチ変換と呼ばれるものができます。そして、ここの真ん中辺りに
概念的にはスプリッタと呼ばれるものがありますが、これは学習セットと検証セットに分割するものです。
これはfast.aiにデータをどのように扱うかを指示するための

Chinese: 
然后调用item_tfms函数  这里用到的是Resize()
and then it's going to call the item transforms, which is Resize()
接下来它所做的是  把这些图像数据集传入一个叫DataLoader的类里
and then the next thing it does is it puts it into something called a DataLoader
DataLoader类能够一次性抓取一些图像
a DataLoader is something that grabs a few images at a time
我记得默认是64张
I think by default is 64
然后把它们放到一个单独的batch中
and puts them all into a single.. it's called a batch
它抓取64张图像  然后把它们都放在一起
it just grabs 64 images and sticks them all together
之所以这样做  是因为想把这些图像一次性传入到GPU中
and the reason it does that is  it then puts them all onto the GPU at once
然后就可以通过GPU 把它们一次性传入模型中
so it can pass them all to the model through the GPU in one go
这样GPU会运行的更快
and that's going to let the GPU go much faster
以后我们会详细讲到的
as we'll be learning about it
最后这个函数也是本次例子里没用到的
and then finally we don't use any here
叫做batch_tfms
we can have something called batch transforms
我们会很快讲到
which we will talk about later
在这两个中间还有个功能
and then somewhere in the middle about here
从概念上讲就是个分割器
conceptually is the Splitter
把数据分割为训练集和验证集
which is the thing that splits into the training set and the validation set
这个流程图可以非常灵活地
So this is a super flexible way to
告诉fastai库如何处理你的数据
tell fastai how to work with your data

English: 
And so I'm going to call the item_tfms, which
is resize.
And then the next thing it does is it puts
it into something called a data loader.
A data loader is something that grabs a few
images at a time (I think by default it’s
64) and puts them all into a single, it's
called a batch.
It just grabs 64 images and sticks them all
together.
And the reason it does that is it then puts
them all onto the GPU at once so it can pass
them all to the model through the GPU in one
go.
And that's going to let the GPU go much faster,
as we'll be learning about.
And then finally (we don't use any here),
we can have something called batch transforms,
which we will talk about later.
And then somewhere in the mineral about here
conceptually is the splitter which is the
thing that splits into the training set and
the validation set.
So this is a super flexible way to tell fast.ai
how to work with your data.

Tamil: 
அதற்கு பதிலாக, நான் "Item Transformers" அழைக்கப் போகிறேன், அதாவது "Resize"
பின்னர் அடுத்த விஷயம், அதை "DataLoader"ல்  வைக்கிறது.
"DataLoader" என்பது ஒரே நேரத்தில் சில படங்களை எடுக்கும் ஒன்று
முன்னிருப்பாக 64 நினைக்கிறேன், அனைத்தையும் ஒரே 'Batch' இல் வைக்கிறது
இது 64 படங்களை எடுத்து
ஒன்றாக ஒட்டிவைக்கிறது
ஏனெனில் அது அனைத்தையும் ஒரே நேரத்தில் GPU-வில் வைக்கிறது
எனவே அவை அனைத்தையும் ஒரே நேரத்தில் "GPU" மூலம் மாதிரியை அனுப்ப முடியும்,
மேலும் இது "GPU" வை மிக வேகமாக செல்ல அனுமதிக்கும்.
பின்னர் இறுதியாக, நாம் இங்கே எதையும் பயன்படுத்தவில்லை
இங்கு "Batch Transformers" என்கிற ஒன்றை வைக்கலாம்
அதைப் பற்றி பின்னர் பேசுவோம். பின்னர் இங்கே எங்காவது நடுவில்
கருத்தியல் ரீதியாக இது 'Splitter' என்று அழைக்கப்படுகிறது
இது தரவை பயிற்சி தொகுப்பு மற்றும் சரிபார்ப்பு தொகுப்பாக பிரிக்கிறது
எனவே இதுதான் 'FastAI' விற்கு சிறந்த நெகிழ்வான,
உங்கள் தரவுடன் எப்படி பணிபுரியவேண்டும் என்று சொல்லக்கூடிய வழி

Italian: 
 E quindi chiamerò item_tfms, che è resize. 
 E poi la prossima cosa che fa è inserirla in qualcosa chiamato caricatore di dati. 
 Un caricatore di dati è qualcosa che acquisisce poche immagini alla volta (penso che per impostazione predefinita sia 
 64) e li mette tutti in un unico, si chiama batch. 
 Cattura solo 64 immagini e le incolla tutte insieme. 
 E il motivo per cui lo fa è che poi li mette tutti sulla GPU in una volta in modo che possa passare 
 tutti al modello tramite la GPU in una volta. 
 E questo permetterà alla GPU di andare molto più velocemente, come vedremo. 
 E poi finalmente (non ne usiamo nessuno qui), possiamo avere qualcosa chiamato trasformazioni batch, 
 di cui parleremo più avanti. 
 E poi da qualche parte nel minerale qui intorno c'è concettualmente lo splitter che è il 
 cosa che si divide in training set e validation set. 
 Quindi questo è un modo super flessibile per dire a fast.ai come lavorare con i tuoi dati. 

Chinese: 
最终
and so at the end of that
它会返回一个类型为DataLoaders的对象
it returns an object of type DataLoaders
这也是我们把它缩写为dls的原因
that's why we always call these things dls right
Dataloaders类中含有验证和训练要用到的DataLoader
so DataLoaders has a validation and a training DataLoader
DataLoader类  就是我刚刚提到的
and a DataLoader as I just mentioned
可以一次性抓取一个batch量的数据
is something that grabs a batch of a few items at a time
然后存入GPU中
and puts it on the GPU for you
这些基本上就是DataLoaders类的全部代码了
so this is basically the entire code of DataLoaders
里面的这些细节先略过
so the details don't matter
我想指出的是
I just wanted to point out that
对于在fastai库中出现的这些概念
like a lot of these concepts in fastai
当你真正去探究它们到底是什么时
when you actually look at what they are
会发现它们的一切都非常简单
they're incredibly simple at all things
实际上你只需要
it's literally something which you just
传入一些DataLoaders类数据进去
pass in a few DataLoaders to
然后把它们存储在self.loaders属性里
and then store some in an attribute
第一个值返给DataLoaders的train
and pass and gives you the first one back is .train
第二个值返给ataLoaders的valid
and the second one back is .valid
要创建DataLoaders
So we can create our DataLoaders
首先要创建DataBlock模块
by first of all creating the DataBlock

Japanese: 
非常に柔軟な方法です。そして最後に
タイプがDataLoadersのオブジェクトを返します。
これをいつもDLと呼ぶのはそのためです。
DataLoadersには検証用とトレーニング用の
DataLoaderがあります。
先ほど言ったデータローダとは、いくつかのもののバッチを一度に取得して
GPU上に配置するものです。
これが基本的にデータローダのコード全体です。
細かいことは重要ではありませんが、指摘しておきたかったのは、
fast.aiの多くの概念は、実際に見てみると、
信じられないほどシンプルで小さなものです。
文字通り、いくつかのデータローダを渡すと、属性に保存されます。
すると、最初のものは.trainとして、2番目のものは.validとして返されます。
つまり、
まずDataBlockを作成して

Tamil: 
அதனால், முடிவில்,
இது "DataLoaders" வகையின் ஒரு பொருளை வழங்குகிறது
அதனால்தான் இவை அனைத்தையும் "dls" என்று அழைக்கிறோம்
"DataLoaders" களிடம் ஒரு சரிபார்ப்பு மற்றும் ஒரு பயிற்சி "DataLoader" உள்ளது
நான் குறிப்பிட்டுள்ளபடி "DataLoader"  என்பது
ஒரே நேரத்தில் சில உருப்படிகளின் Batch-சைப் பிடித்து நமக்காக GPU-வில் வைக்கிறது
இது "DataLoaders" யின் முழு நிரலாகும்
எனவே விவரங்கள் ஒரு பொருட்டல்ல.
நான் சுட்டிக்காட்ட விரும்பியது -
'FastAI' இல் உள்ள கருத்துக்கள் உண்மையில் நம்பமுடியாத அளவிற்கு எளிமையானவை
உண்மையில் சில "DataLoaders"ஸை அனுப்பி
சில பண்புகளைத் மாற்றுகிறோம்
இது பயிற்சித் தரவை முதலிலும், சரிபார்ப்பு தரவை இரண்டாவதாகவும் திருப்பி தருகிறது

English: 
And so at the end of that it returns an object
of type DataLoaders.
That's why we always call these things DLs,
right.
So, DataLoaders has a validation and a training
DataLoader.
And a DataLoader as I just mentioned is something
that grabs a batch of a few items at a time
and puts it on the GPU for you.
So this is basically the entire code of DataLoaders.
So the details don't matter, I just wanted
to point out that like a lot of these concepts
in fast.ai, when you actually look at what
they are, they’re incredibly simple little
things.
It's literally something that you just pass
in a few data loaders to and it stores them
in an attribute.
And pass and gives you the first one back
as .train and second one back as .valid.
So we can create our DataLoaders by first
of all creating the DataBlock ,and then we

Italian: 
 E così alla fine restituisce un oggetto di tipo DataLoaders. 
 Ecco perché chiamiamo sempre queste cose DL, giusto. 
 Quindi, DataLoaders ha una convalida e un DataLoader di addestramento. 
 E un DataLoader come ho appena menzionato è qualcosa che afferra un lotto di pochi elementi alla volta 
 e lo mette sulla GPU per te. 
 Quindi questo è fondamentalmente l'intero codice di DataLoaders. 
 Quindi i dettagli non contano, volevo solo sottolineare che come molti di questi concetti 
 in fast.ai, quando guardi davvero cosa sono, sono incredibilmente semplici 
 cose. 
 È letteralmente qualcosa a cui passi solo alcuni caricatori di dati e li memorizza 
 in un attributo. 
 E passa e ti restituisce il primo come .train e il secondo come .valid. 
 Quindi possiamo creare i nostri DataLoader creando prima il DataBlock, e poi noi 

Spanish: 
Al final de eso
devuelve un objeto de tipo
DataLoaders.  Es por eso que siempre llamamos a estas cosas 'dls'.
DataLoaders tienen
un DataLoader de validación y un DataLoader de entrenamiento.
Un DataLoader, como acabo de mencionar,
es algo que coge un lote de
unos cuantos objetos a la vez y lo pone en la GPU por ti.
Esto es básicamente todo el código de los DataLoaders
Los detalles no importan, solo quería señalar que como muchos de estos
conceptos en fastai, cuando realmente miras lo que son
son pequeñas cosas increíblemente simples.
Es literalmente algo que sólo pasas en unos pocos DataLoaders
y los almacena en un atributo,
y te devuelve el primero como .train
y el segundo como .valid.
Así que podemos crear nuestros
DataLoaders creando primero

Chinese: 
然后我们调用dataloaders()  并传入文件路径
and then we call the dataloaders() passing in our path
得到dls值
to create dls
接下来你可以对dls调用show_batch()函数
and then you can call show_batch() on that
你几乎可以在fastai的任何地方调用show_batch()来查看数据
you can call show_batch() pretty much anything in fastai to see your data
来看看吧  这儿有一些灰熊  还有个泰迪熊
and look we've got some grizzlies  we've got a teddy
最后这还是一个灰熊
we've got a grizzly
这样你可以明白了吧
so you get the idea right
下周我们会学习数据增强的相关知识
I'm going to look at data augmentation next week
所以今天先跳过这些内容
so I'm going to skip over data augmentation
我们直接进入训练模型环节
and let's just jump straight into training your model
在得到dls值后
so once we've got dls
我们可以直接像第一课里讲到的那样
we can just like in Lesson one
调用cnn_learner()函数  搭建一个resnet网络
call cnn_learner() to create a resnet
这次我们建个小一点的resnet网络  resnet18
we're going to create a smaller resnet this time  a resnet18
再让它计算出错误率
again asking for error_rate
接下来调用fine_tune()函数进行微调
we can then call .fine_tune() again
你会发现  这些代码都是我们之前见过的
so you see it's all the same lines of code we've already seen
可以看到  错误率从0.09降到了0.01
and you can see our error rate goes down from nine to one
因此我们的错误率为1%
so we've got 1% error
这是在训练了大约25秒后得到的结果
and after training for about 25 seconds

Tamil: 
முதலில் தரவுத் தொகுதியை உருவாக்குவதன் மூலம் எங்கள் தரவு ஏற்றியை உருவாக்க முடியும், பின்னர் ஒப்பந்தங்களை உருவாக்க எங்கள் பாதையில் செல்லும் தரவு ஏற்றி என்று அழைக்கிறோம், பின்னர் நீங்கள் அதைக் காண்பிக்கும் தொகுப்பை அழைக்கலாம்.
"show_batch" நீங்கள் அழைக்கலாம், இது 'FastAI' உங்கள் தரவைக் காணலாம் மற்றும் எங்களுக்கு சில பெரிய கரடி கிடைத்துள்ளன
எங்களுக்கு ஒரு டெடி கிடைத்துள்ளது, எங்களுக்கு ஒரு பெரிய கரடி கிடைத்துள்ளது
எனவே நீங்கள் யோசனையை சரியாகப் பெறுவீர்கள் அல்லவா ?
இவற்றை நான் வித்தியாசமாகப் பார்க்கப் போகிறேன். நான் அடுத்த வாரம் தரவு பெருக்கத்தைப் பார்க்கப் போகிறேன்
எனவே நான் தரவு நோக்குநிலையைத் தவிர்க்கப் போகிறேன், உங்கள் மாதிரியைப் பயிற்றுவிப்பதற்கு நேராக செல்லலாம்
ஆகவே, எங்களுக்கு டி.எல்.எஸ் கிடைத்ததும், சி.எஸ்.என் கற்றவரை ஒரு ResNetடை உருவாக்க அழைக்கலாம்
இந்த நேரத்தில் ஒரு சிறிய ResNet அல்லது ResNet18 ஐ உருவாக்க உள்ளோம்
மீண்டும் பிழை வீதத்தைக் கேட்கும்போது, மீண்டும் "fine_tune" என்று அழைக்கலாம். எனவே இது எல்லாவற்றையும் ஒரே குறியீடாகக் காணலாம்
நாம்  ஏற்கனவே பார்த்துள்ளோம்,
நம் பிழை விகிதம் ஒன்பதில் இருந்து ஒன்றிற்குக்
குறைவதை நீங்கள் காணலாம். எனவே நமக்கு ஒரு சதவீதம் பிழை ஏற்பட்டுள்ளது

English: 
call the DataLoaders, passing in our path
to create DLs.
And then you can call show_batch on that.
You can call show_batch pretty much anything
in fast.ai to see your data.
And look, we've got some grizzlies, we've
got a teddy, we've got a grizzly.
So you get the idea right.
I'm going to look at these different, I'm
going to look at data augmentation next week
so, I'm going to skip over data augmentation
and let's just jump straight into trading
your model.
So once we've got DLs, we can just like in
Lesson 1, call cnn_learner to create a ResNet.
We’'re going to create a smaller ResNet
this time, a ResNet18.
Again, asking for error rate, we can then
call .fine_tune again.
So you see it's all the same lines of code
we've already seen.
And you can see our error rate goes down from
nine to one, so we've got 1% error and after
training for about 25 seconds.

Spanish: 
el DataBlock y luego llamamos a los DataLoaders, pasando en
nuestra ruta para crear 'dls'.
Luego puedes llamar a show_batch en eso.
Puedes llamar a show_batch sobre casi cualquier cosa en fastai para ver tus datos.
Y mira, tenemos algunos grizzly, tenemos un osito de peluche, tenemos un grizzly.
¿Coges la idea, no?
Voy a mirar estos diferentes,
voy a mirar el aumento de datos la próxima semana, así que, voy a saltar
el aumento de datos y vamos a saltar directamente
al entrenamiento de tu modelo.
Una vez que tengamos 'dls', podemos, como en
la Lección 1, llamar a cnn_learner
para crear una ResNet.
Vamos a crear un ResNet más pequeño esta vez, un ResNet18.
De nuevo, pidiendo la tasa de error, podemos llamar
.fine_tune() de nuevo.  Ya ves que son las mismas líneas de código
que ya hemos visto.
Puedes ver que nuestra tasa de error baja de 9 a
1, así que tenemos un 1% de error y
después de entrenar durante unos 25 segundos.

Japanese: 
DataLoadersを呼び出し、DLを作成するためのパスを渡すことでDataLoadersを作成することができます。
そして、show_batchを呼び出すことができます。
fast.aiではほとんどのものでshow_batchを呼び出して、データを見ることができます。見てください、グリズリーがいます。
テディがいて、グリズリーがいます。
わかりましたか？
データ拡張をは来週見ることにします。
なのでこれらは飛ばして、モデルのトレーニングをします。
さて、DLができたら、
レッスン１と同じように cnn_learner を呼び出して
ResNet を作成します。今回は小さめの ResNet18 を作成します。
ここでもエラー率を求めて、.fine_tune を呼びます。これまでに見てきたコードと
同じものを使っています。
誤差率が９から１に下がっているのがわかります。誤差は1%です。

Italian: 
 chiamare i DataLoaders, passando nel nostro percorso per creare DL. 
 E poi puoi chiamare show_batch su quello. 
 Puoi chiamare show_batch praticamente qualsiasi cosa in fast.ai per vedere i tuoi dati. 
 E guarda, abbiamo dei grizzly, abbiamo un orsacchiotto, abbiamo un grizzly. 
 Quindi hai l'idea giusta. 
 Guarderò questi diversi, guarderò all'aumento dei dati la prossima settimana 
 quindi, salterò l'aumento dei dati e passiamo direttamente al trading 
 il tuo modello. 
 Quindi, una volta che abbiamo i DL, possiamo proprio come nella Lezione 1, chiamare cnn_learner per creare una ResNet. 
 Questa volta creeremo una ResNet più piccola, una ResNet18. 
 Ancora una volta, chiedendo il tasso di errore, possiamo quindi chiamare di nuovo .fine_tune. 
 Quindi vedi che sono tutte le stesse righe di codice che abbiamo già visto. 
 E puoi vedere il nostro tasso di errore scende da nove a uno, quindi abbiamo un errore dell'1% e dopo 
 allenamento per circa 25 secondi. 

Italian: 
 Quindi puoi vedere che abbiamo solo 450 immagini che abbiamo addestrato per ben meno di un file 
 minuto e dobbiamo solo guardare la matrice di confusione in modo da poter dire: "Voglio 
 creare una classe di interpretazione della classificazione; Voglio esaminare la matrice di confusione " 
 e la matrice di confusione, come puoi vedere, è qualcosa che dice “per cose che 
 sono in realtà orsi neri, quanti si prevede siano orsi neri contro orsi grizzly contro 
 orsacchiotti?" 
 Quindi, le diagonali sono quelle corrette e quindi sembra che ne abbiamo due 
 errori. 
 Abbiamo un grizzly che si prevedeva fosse nero e uno nero che era previsto 
 essere grizzly. 
 Un metodo super, super utile è "trama perdite superiori" e questo mi mostrerà effettivamente cosa 
 i miei errori sembrano effettivamente. 
 Quindi, questo qui era previsto per essere un orso grizzly, ma l'etichetta era "orso nero". 

English: 
So you can see you know we've only got 450
images we've trained for well less than a
minute and we only have let's look at the
confusion matrix so we can say, “I want
to create a classification interpretation
class; I want to look at the confusion matrix”
and the confusion matrix, as you can see,
it's something that says “for things that
are actually black bears, how many are predicted
to be black bears versus grizzly bears versus
teddy bears?”
So, the diagonal are the ones that are all
correct and so it looks like we've got two
errors.
We've got one grizzly that was predicted to
be black and one black that was predicted
to be grizzly.
A super, super useful method is “plot top
losses” and that'll actually show me what
my errors actually look like.
So, this one here was predicted to be a grizzly
bear but the label was “black bear”.

Tamil: 
அதுவும் சுமார் 25 விநாடிகள் பயிற்சியளித்த பிறகு. நம்மிடம் 450 படங்களே உள்ளன
நாம் ஒரு நிமிடத்திற்கும் குறைவாக பயிற்சியை  கொடுத்துள்ளோம்
நம்மிடம் இது மட்டுமே உள்ளது, எனவே குழப்ப அளவீடுயைப்   பார்ப்போம்.
எனவே ஒரு வகைப்பாடு விளக்கம் வகுப்பை உருவாக்க விரும்புகிறேன்.
நான் குழப்ப அளவீடுயை  பார்க்க விரும்புகிறேன்
இது உண்மையில் கருப்பு கரடிகள் என்று சொல்லும் ஒன்று
கருப்பு கரடி, மற்றும் பெரிய கரடி, மற்றும் டெடி கரடிகள் என எத்தனை கரடிகள் கணிக்கப்படுகிது?
எனவே மூலைவிட்டம்தான் அனைத்தும் சரியானவை.
நமக்கு இரண்டு பிழைகள் இருப்பது போல் தெரிகிறது
ஒரு கிரிஸ்லி, கருப்பு கரடியாகவும், ஒரு கருப்பு, கிரிஸ்லி கரடியாகவும் கணிக்கப்பட்டதாக நமக்கு கிடைத்துள்ளது
அருமையானப்  பயனுள்ள முறை "plot_top_losses" ,
அது உண்மையில் என் பிழைகள் எப்படி இருக்கும் என்பதைக் காண்பிக்கும்
எனவே இங்கே இது ஒரு கிரிஸ்லி கரடி என்று கணிக்கப்பட்டது, ஆனால் இது கருப்பு கரடி

Japanese: 
約２５秒のトレーニングの後です。 見ての通り、たった450枚の画像で
1分にも満たないトレーニングで、混乱マトリックスを見てみましょう。
「分類解釈クラスを作りたい、混乱マトリックスを見たい」というと、ご覧のように、
「実際に黒クマであるものについて、
黒クマと予想じたのはいくつで
それに対して、
グリズリーベアやテディベアと予測したのはどれくらいでしょうか？」というような表です。
で、対角線上にあるのが全部正解で、2つの誤差があったようです。
黒クマだと予測されていたグリズリーが１匹とグリズリーだと予測されていた黒クマが１匹です。
超、超便利なメッソッドが
「トップの損失をプロットする」で、これは実際に私の誤差がどのように見えるかを教えてくれます。
これはグリズリーだと予測されていましたがラベルは「黒クマ」でした。

Chinese: 
你可以发现  在我们只有450张图片的情况下
so you can see  you know we've only got 450 images
训练时间远少于一分钟
we've trained for well less than a minute
来看一下混淆矩阵的结果
and we only have.. let's look at the confusion matrix
首先  我要创建一个ClassificationInterpretation类
so we can say I want to create a ClassificationInterpretation class
还想查看一下混淆矩阵表示的结果
I want to look at the confusion matrix
你可以看到
and the confusion matrix as you can see
它表达的意思是  对于一张实际上是黑熊的图片
it's something that says for things that are actually black bears
预测结果有多少为黑熊  灰熊  和泰迪熊
how many are predicted to be black bears versus grizzly bears versus teddy bears
对角线上的数值代表预测结果正确的个数
so the diagonal are the ones that are all correct
可以看到  预测值里有两个是错误的
and so it looks like we've got two errors
一个实际是灰熊  被预测成了黑熊
we've got one grizzly that was predicted to be black
另一个实际是黑熊  被预测成了灰熊
one black that was predicted to be grizzly
一个非常有用的方法是plot_top_losses()
super super useful method is plot_top_losses()
它会可视化信息  告诉我错误到底是怎样的
that'll actually show me what my errors actually look like
比如这张图片里的熊  被预测为灰熊
so this one here was predicted to be a grizzly bear
但它的标签为(实际为)黑熊
but the label was black bear
这一个的预测值为黑熊
this one was the one that's predicted to be a black bear

Spanish: 
Puedes ver que sólo tenemos 450 imágenes
que hemos entrenado durante menos de un minuto
y sólo tenemos, miramos la matriz de confusión
para poder decir, "Quiero crear
una clase de ClassificationInterpretation; quiero mirar la
confusión_matrix()". La matriz de confusión,
como puedes ver, es algo que dice "para las cosas
que son realmente osos negros,
¿cuántos se predice que sean osos negros frente
a osos grizzly frente a osos de peluche?"
Las diagonales son las correctas.
Parece que tenemos 2 errores. Tenemos un grizzly
que se predijo que era negro y un negro que se predijo que era grizzly.
Un método súper, súper útil
es 'plot_top_losses'
y eso me mostrará
cómo son mis errores en realidad. Este de aquí fue
predicho como un oso grizzly
pero la etiqueta era "oso negro".

Chinese: 
但它的标签为(实际为)灰熊
and the label was grizzly bear
这三张其实没有错误
these ones here are not actually wrong
预测值为黑熊  真实值也是黑熊
this is predicted to be black and it's actually black
之所以出现在了这里  是因为
but the reason they appear in this is because
对这几张的预测结果  模型的置信度最低
these are the ones that the model was the least confident about it
下周我们会学到关于ImageClassifierCleaner()的知识
Okay so we're going to look at the ImageClassifierCleaner() next week
让我们专注于如何去应用它
Let's focus on how we then get this into production
想要有效应用它
so to get it into production
我们需要先导出训练的网络模型
we need to export the model
导出模型的过程具体是做了什么呢
so what exporting the model does
创建一个新文件  默认名字为export.pkl
is it creates a new file which by default is called export.pkl
文件里包含模型的结构  以及其所有的参数
which contains the architecture and all of the parameters of the model
这样你就可以把这些信息复制一下  到其他服务器上使用
so that is now something that you can copy over to a server somewhere
把它当做一个已经预设好的程序去训练
somewhere and treat it as a predefined program right

Italian: 
 Questo era quello che si prevede fosse un orso nero e l'etichetta era "grizzly 
 orso". 
 Questi qui non sono effettivamente sbagliati. 
 Si prevede che sia "nero" e in realtà è nero. 
 Ma il motivo per cui compaiono in questo è perché questi sono quelli su cui era il modello 
 meno fiducioso. 
 Ok, quindi la prossima settimana esamineremo il programma di pulizia del classificatore di immagini. 
 Concentriamoci su come portarlo in produzione. 
 Quindi, per metterlo in produzione, dobbiamo esportare il modello. 
 Quindi, ciò che fa l'esportazione del modello è che crea un nuovo file, che per impostazione predefinita è 
 chiamato "export.pkl", che contiene l'architettura e tutti i parametri di 
 il modello. 
 Quindi, ora è qualcosa che puoi copiare su un server da qualche parte e trattarlo come 
 un programma predefinito, giusto? 

English: 
This one was the one that's predicted to be
a black bear and the label was “grizzly
bear”.
These ones here are not actually wrong.
This is predicted to be “black” and it's
actually black.
But, the reason they appear in this is because
these are the ones that the model was the
least confident about.
Okay, so we're going to look at the image
classifier cleaner next week.
Let's focus on how we then get this into production.
So, to get it into production, we need to
export the model.
So, what exporting the model does is that
it creates a new file, which by default is
called “export.pkl”, which contains the
architecture and all of the parameters of
the model.
So, that is now something that you can copy
over to a server somewhere and treat it as
a predefined program, right?

Japanese: 
これは黒クマと予測されていましたがラベルは「グリズリーベア」でした。
こちらのものは実は間違っていません。
これは「黒」と予測されていて、実際には黒なのです。 しかし、この中に出てくるのは、これらがモデルが
最も自信を持っていなかったものだからです。
さて、画像分類器のクリーナーは来週見ることにします。
これをどうやって本番環境にに移すかに焦点を当ててみましょう。
本番環境に導入するためには、
モデルを
エクスポートする必要があります。モデルをエクスポートすると、新しいファイルが作成されます。デフォルトでは 「export.pkl」という名前で、
モデルのアーキテクチャと
すべてのパラメータが含まれています。
これで、どこかのサーバーにコピーして、
定義済みのプログラムとして

Tamil: 
எனவே இங்கே இது ஒரு கிரிஸ்லி கரடி என்று கணிக்கப்பட்டது, ஆனால் அந்த பெயரிடல் கருப்பு கரடி என்றுயுள்ளது .
இங்கே இது உண்மையில் தவறில்லை
இது கருப்பு கரடி என்று கணிக்கப்பட்டுள்ளது, இது உண்மையில் கருப்பு கரடி தான்,
அவை இதில் தோன்றுவதற்கான காரணம், ஏனெனில் இவைதான் மாதிரியின் குறைந்த நம்பிக்கை கொண்டது
எனவே அடுத்த வாரம் பட வகைப்பாடை  சுத்தம் செய்வதைப் பார்க்கப் போகிறோம்
இதை எவ்வாறு உற்பத்தியில் சேர்ப்பது என்பதில் கவனம் செலுத்துவோம்
எனவே அதை உற்பத்திக்கு கொண்டு வர, நாம் மாதிரியை ஏற்றுமதி செய்ய வேண்டும்.
மாதிரியை ஏற்றுமதி செய்வது என்றால்,
இது ஒரு புதிய கோப்பை உருவாக்குகிறது,
இது முன்னிருப்பாக 'export.pkl' என்று அழைக்கப்படுகிறது
இது கட்டடமைப்பு மற்றும் மாதிரியின் அனைத்து அளவுருக்களையும் கொண்டுள்ளது
எனவே நீங்கள் அதை வழங்கனில் நகலெடுத்து
ஒரு முன் வரையறுக்கப்பட்ட நிரலாகக் கருதலாம்

Spanish: 
Este fue el que se predicho que sería un oso negro y la etiqueta era "oso grizzly".
Estos de aquí no están realmente equivocados. Este se predice que
es "negro" y en realidad es negro. Pero, la razón por la que aparecen en esto
es porque estos son los que
el modelo estaba menos seguro.
Vamos a ver el ImageClassifierCleaner() la semana que viene
Centrémonos en cómo llevamos esto a la producción.
Para llevarlo a la producción, necesitamos
exportar el modelo.
Lo que hace la exportación del modelo es
que crea un nuevo archivo,
que por defecto se llama "export.pkl",
que contiene la arquitectura
y todos los parámetros del modelo.
Por lo tanto, eso es algo que ahora se puede copiar
a un servidor en algún lugar
y tratarlo como un programa predefinido.

Japanese: 
扱うことができます。そこで、学習したモデルを本番環境で
新しいデータに使用するプロセスを「推論」と呼びます。
ここでは、ラーナーを再びロードして推論ラーナーを作成しています。
明らかにノートに保存した後にすぐ隣で行うのは意味がありません。
しかし、これはどのように機能するかをお見せしているだけです。これはサーバー上で行う推論です。
一度モデルを学習したら、プログラムとして扱うことができることを覚えておいてください。
これが私たちのプログラムです。
これが私たちのクマの予測器です。これで 「predict」を呼び出して画像を渡すと、
ご覧の通り
99.999%の確率で
「グリズリー」であることを教えてくれます。
今日の授業はここまで。
来週は

Spanish: 
El proceso de usar su modelo entrenado
en nuevos datos en producción se llama "inferencia".
Aquí he creado un aprendiz de inferencia
cargando ese aprendiz de nuevo.
Obviamente no tiene sentido hacerlo después
de haberlo guardado en un cuaderno,
pero, sólo te estoy mostrando cómo funcionaría.
Esto es algo que harías en tu servidor de inferencia.
Recuerda que
una vez que has entrenado un modelo, puedes tratarlo
como un programa, puedes pasarle entradas.
Así que, este es ahora nuestro programa.  Este es nuestro predictor de osos.
Ahora puedo llamar .predict() en él
y puedo pasarle una imagen
y me dirá
aquí está 99.999% seguro, que este es un "oso grizzly".
Creo que lo que vamos a hacer aquí es
paranos aquí.
La semana que viene terminaremos

Chinese: 
然后  你使用这些已经提前训练过的模型
so then, so the the process of using your trained model
来处理新的数据
on new data kind of in production
这个过程叫做inference
is called inference
所以在这我创建了一个inference learner对象
so here I've created an inference learner
把我们之前输出的那个模型加载回来
by loading that learner back again right
显然现在这么做是没有意义的
and so obviously it doesn't make sense to do it right
因为我之前把它保存在notebook中了
next to after I've saved it in a notebook
所以我只是给你演示一下它是怎么工作的
but I'm just showing you how it work right
这个load的过程就是你要在你的服务器上做的事
so this is something that you would do on your server in inference
要记住的是  一旦你开始训练模型了
and remember that once you have trained a model
你可以把它当做一个程序来训练
you can just treat it as a program
你可以往里输入一些数据
you can pass inputs to it
那么这个现在就是我们的程序了
so this is now our our program
这是我们的熊类预测器
this is our bear predictor
我就可以对它调用predict()函数来进行预测
so I can now call predict() on it
传入一张图像作为参数给它
and I can pass it an image
然后它的预测结果是  有99.999%的把握认为图片里的是灰熊
and it will tell me here is it is 99.999% sure that this is a grizzly
我觉得我们要准备
So I think what we're going to do here is
在这里结束今天的课程了
we're going to wrap it up here

Italian: 
 Quindi, il processo di utilizzo del modello addestrato su nuovi tipi di dati in produzione è 
 chiamato "inferenza". 
 Quindi, qui ho creato uno studente di inferenza caricandolo di nuovo, d'accordo, 
 e quindi ovviamente non ha senso farlo subito dopo averlo salvato 
 un taccuino. 
 Ma ti sto solo mostrando come funzionerebbe bene. 
 Quindi, questo è qualcosa che faresti sulla tua inferenza del server. 
 Ricorda che una volta che hai addestrato un modello, puoi semplicemente trattarlo come un programma, puoi farlo 
 passare gli input ad esso. 
 Quindi, questo è ora il nostro programma. 
 Questo è il nostro predittore dell'orso. 
 Quindi, ora posso chiamare "predire" su di esso e posso passargli un'immagine e mi dirà- 
 qui è sicuro al 99,999% che si tratta di un "grizzly". 
 Quindi, penso che quello che faremo qui sarà concludere qui e la prossima settimana 

English: 
So, then the process of using your trained
model on new data kind of in production is
called “inference”.
So, here I've created an inference learner
by loading that learner back again, all right,
and so obviously it doesn't make sense to
do it right next to after I've saved it in
a notebook.
But, I'm just showing you how it would work
right.
So, this is something that you would do on
your server- inference.
Remember that once you have trained a model,
you can just treat it as a program- you can
pass inputs to it.
So, this is now our program.
This is our bear predictor.
So, I can now call “predict” on it and
I can pass it an image and it will tell me-
here it is 99.999% sure- that this is a “grizzly”.
So, I think what we're going to do here is
we're going to wrap it up here and next week

Tamil: 
எனவே உங்கள் பயிற்சி பெற்ற மாதிரியைப் பயன்படுத்துவதற்கான செயல்முறை
எனவே உற்பத்தியில் புதிய தரவு, அனுமானம் என்று அழைக்கப்படுகிறது
இங்கே அந்த "Learner" மீண்டும் ஏற்றுவதன் மூலம் ஒரு "learn_inf" ஐ உருவாக்கியுள்ளேன்
அதனால் அதை ஒரு குறிப்பேடுள் சேமித்த பிறகு இதைச் செய்வதில் அர்த்தமில்லை
ஆனால் அது எவ்வாறு இயங்குகிறது என்பதை நான் உங்களுக்குக் காட்டுகிறேன்.
எனவே இது உங்கள் வழங்கனில் நீங்கள் செய்ய வேண்டிய ஒன்று
ஞாபகமிருக்கட்டும், நீங்கள் ஒரு மாதிரியைப் பயிற்றுவித்தவுடன்,
அதை உள்ளீடுகளை அனுப்பக்கூடிய ஒரு நிரலாக நீங்கள் கருதலாம்
எனவே இது இப்போது நம் நிரல்
இதுதான் நம் கரடி முன்கணிப்பு மாதிரி,
எனவே நான் இப்போது ஒரு படத்தை கணிக்க அழைக்கிறேன்
அது என்னிடம் சொல்லும்
இதோ அது
99.999% இது ஒரு கிரிஸ்லி கரடி என்பது உறுதி செய்கிறது
எனவே நாம் இங்கே முடித்துக்கொள்ளலாம்.
அடுத்த வாரம் நாம் முடிக்கும்போது

Spanish: 
creando un interfaz gráfico
para nuestro clasificador de osos.
Mostraremos cómo
ejecutarlo de forma gratuita en un servicio llamado "Binder".
Luego creo que
estaremos listos para sumergirnos en algunos de los detalles
de lo que está pasando entre bastidores.
¿Alguna pregunta o algo más antes de terminar, Rachel?
No. Vale, genial.
Muy bien, gracias a todos.
Creo que a partir de aquí
hemos cubierto la mayoría de las claves de las cosas fundamentales
desde el punto de vista del aprendizaje automático que vamos a tener que cubrir.
Podremos estar listos para sumergirnos en detalles de bajo nivel

Tamil: 
கரடி வகைப்படுத்தலுக்கான மாதிரிக்கு ஒரு "GUI" உருவாக்கிருப்போம்
பைண்டரில் இதை எவ்வாறு இலவசமாக இயக்குவது என்பதைக் காண்போம்.
திரைக்குப் பின்னால் என்ன நடக்கிறது என்பதை  குறித்த சில விவரங்களைப் பெற நாம் தயாராக இருப்போம் என்று நினைக்கிறேன்
நாங்கள் முடிப்பதற்கு முன் உங்களிடம் ஏதேனும் கேள்விகள் அல்லது வேறு ஏதாவது இருக்கிறதா ரேச்சல் ?
அனைவருக்கும் நன்றி.
எந்திரக் கற்றல் பார்வையில் இருந்து தேவையான அடிப்படையான விஷயங்களை
நாம் பார்த்துள்ளோம்.
திரைக்குப் பின்னால் ஆழ்ந்த கற்றல் எவ்வாறு செயல்படுகிறது என்பதற்கான கீழ்-நிலை விவரங்களை தெரிந்துகொள்ள இப்பொது நாம் தயாராக உள்ளோம்.

English: 
we'll finish off by creating an actual GUI
for our bear classifier.
We will show how to run it for free on a service
called “Binder” and, yeah, and then I
think we'll be ready to dive into some of
the details of what's going on behind the
scenes.
Any questions or anything else before we wrap
up, Rachel?
No.
Okay, great.
All right, thanks everybody.
So, we hopefully, yeah, I think from here
on we've covered, you know, most of the key
kind of underlying foundational stuff from
a machine-learning point of view that we're
going to need to cover.
So, we'll be able to, ready to dive into lower-level
details of how deep learning works behind

Japanese: 
クマ分類器の
実際のGUIを作成して
終わりにしましょう。
「Binder」というサービスを使って
無料で実行する方法を
紹介します。
それから、
そうすれば、裏で何が起こっているのかの詳細に飛び込む準備ができると思います。
レイチェル、質問や他に何かありますか？
ないです。オーケー。 All right. 皆さん、ありがとうございます。
ここまでで、
機械学習の観点からの
基礎となる重要な部分はほとんどカバーできたと思います。
ディープラーニングがどのように裏で機能しているのか、
低レベルの詳細に飛び込んでいく準備ができました。

Italian: 
 finiremo creando una vera GUI per il nostro classificatore di orsi. 
 Mostreremo come eseguirlo gratuitamente su un servizio chiamato "Binder" e, sì, e poi io 
 penso che saremo pronti a immergerci in alcuni dettagli di ciò che sta accadendo dietro 
 scene. 
 Hai domande o altro prima di concludere, Rachel? 
 No. 
 Va bene, fantastico. 
 Va bene, grazie a tutti. 
 Quindi, si spera, sì, penso che da qui in poi abbiamo coperto, sai, la maggior parte della chiave 
 una specie di roba fondamentale sottostante dal punto di vista dell'apprendimento automatico che siamo 
 avrà bisogno di coprire. 
 Quindi, saremo in grado di, pronti a immergerci nei dettagli di livello inferiore su come funziona il deep learning 

Chinese: 
下周我们会讲  为我们的熊类分类器创建一个真正的图形用户界面
and next week we'll finish off by creating an actual GUI for our bear classifier
学习如何在Binder服务器上免费运行它
we will show how to run it for free on a service call Binder
是的  我觉得我们要准备好
and yeah and then I think we'll be ready to
深入学习一下背后的一些细节了
dive into some of the some of the details of what's going on behind the scenes
在结束前  还有什么问题或者什么事要说的吗  Rachel
any questions or anything else before we wrap up Rachel
(Rachel)没有了
(Rachel)No
好的
Okay  great
谢谢大家
All right thanks everybody
到现在为止
So we hopefully yeah I think from here on
我们已经讲解过大多数机器学习中
we've covered you know most of the key kind of underlying foundational stuff
需要掌握的基础知识
from a machine-learning point of view that we're going to need to cover
所以我们要准备好深入学习
so we'll be able to ready to dive into
深度学习背后的一些底层细节
lower-level details of how deep learning works behind the scenes

English: 
the scenes and I think that'll be starting
from next week.
So, see you then.

Spanish: 
de cómo funciona el aprendizaje profundo entre bastidores.
Creo que eso será a partir de la próxima semana.
Así que, nos vemos entonces.

Tamil: 
நான் அடுத்த வாரம் முதல் அதை தொடங்குவேன்.
எனவே மீண்டும் சந்திப்போம்.அனைவருக்கும் நன்றி. வணக்கம்

Japanese: 
それは来週から始まると思います。それでは、その時にお会いしましょう。

Chinese: 
我想我们下周就要开始了
and I think that'll be starting from next week
我们下周见~
So see you then

Italian: 
 le scene e penso che inizieranno dalla prossima settimana. 
 Allora, ci vediamo allora. 
