
English: 
Classification lets us pick one or the other or some small number of labels for our data
The problem is that real life doesn't fit into these neat little categories
When we have label data there isn't yes or no or a B or C or some labels?
Right, then we have what we call a regression problem. We're actually trying to predict actual outputs, right so given these inputs
What's the temperature at which something will occur or?
Given this movie on a streaming site and the attributes and the people that have watched it
What amount of action is it right because that informs who should watch that movie
There's lots of times when you don't want to say--but sees this and isn't this you want to say it's a little bit of this
And a little bit of this
and that's what regression is for and some of the algorithms we use for regression are actually quite similar to
Classify. So for example, you can regress using a support vector machine or support vector of aggressor, right?

Turkish: 
Sınıflandırma, verilerimiz için birini veya diğerini veya az sayıda etiketi seçmemize olanak sağlar
Sorun şu ki, gerçek hayat bu temiz küçük kategorilere uymuyor
Etiket verilerimiz olduğunda, evet veya hayır veya B veya C veya bazı etiketler yok mu?
Tamam, o zaman bir regresyon problemi olarak adlandırdığımız şeye sahibiz. Aslında gerçek çıktıları tahmin etmeye çalışıyoruz, tam da bu girdiler göz önüne alındığında
Bir şeyin oluşacağı sıcaklık nedir veya?
Bu filmi akışlı bir sitede, nitelikleri ve izleyen kişilerde verilen
Ne tür bir eylem doğrudur, çünkü bu filmi kimin izlemesi gerektiği konusunda bilgi verir.
Söylemek istemediğiniz birçok zaman var - ama bunu görüyor ve bunu söylemek istemiyorsunuz.
Ve bundan biraz
ve bunun için regresyon nedir ve regresyon için kullandığımız bazı algoritmalar aslında buna oldukça benzer.
Sınıflandırmak. Mesela, bir destek vektör makinesini kullanarak ya da saldırganın destek vektörünü kullanarak gerileyebilirsiniz, değil mi?

English: 
But we also use other ones like so we're more likely to use things like linear regression and things like this
So let's start off with perhaps for simplest form of regression. That's linear regression, right?
It might not occur to people who use linear regression for actually what you're doing is machine learning
But you are let's imagine we have just data that's got one input
so one attribute attribute one and
Our output which is why this is our table of data just like before and this is our instance data
So we've got one two, three four like this
so what we want to do is we want to input attribute one and
We want to output Y which instead of being a yes or no is going to be some number on a scale
Let's say between Norton one. So really what we're trying to do is we've got our graph here of our input variable
Attribute one and we've got our Y output and these are our data points in our training set
So here like this and they sort of go up like this
what we're going to do using linear regression is fit a line through this data and a line is of the form y
equals MX plus C

Turkish: 
Ama aynı zamanda diğerlerini de kullanıyoruz, bu nedenle doğrusal regresyon gibi şeyleri ve bunun gibi şeyleri kullanma olasılığımız daha yüksek
Öyleyse, belki de en basit regresyon şekli ile başlayalım. Bu doğrusal regresyon, değil mi?
Yaptığınız şey aslında makine öğrenmesi için doğrusal regresyon kullanan insanlar için gerçekleşmeyebilir.
Ancak, bir girişe sahip sadece verilere sahip olduğumuzu düşünelim.
yani bir özellik bir özellik ve
Çıktımız, bu nedenle bu bizim daha önce olduğu gibi veri tablosumuzdur ve bu da bizim örnek verilerimizdir.
Demek ki bunun gibi bir iki üç tane var.
öyleyse yapmak istediğimiz şey bir özellik girmek istiyoruz ve
Evet ya da hayır yerine, bir ölçekte bir sayı olacak olan Y çıktısını almak istiyoruz.
Diyelim ki Norton biri arasında. Yani gerçekten yapmaya çalıştığımız şey, grafiğimizi burada giriş değişkenimizde görüyoruz.
Birini seçin ve Y çıktımızı aldık ve bunlar eğitim setimizdeki veri noktalarımız.
Yani burada böyle ve onlar böyle gider
Doğrusal regresyon kullanarak yapacağımız şey, bu veriler üzerinden bir çizgiye sığdırmak ve bir çizgi de y biçimindedir.
MX artı C'ye eşittir

Turkish: 
bu durumda M, çizgimizin gradyanı olacak ve C bu durumda B engellemesi olacak.
Vaka sanırım bu gibi düz çizgiler boyunca bir şey var
Yani eğer bizim M bu durumda M ise
Birine eşit veya belki biraz daha ilginç hale getirmek için bir nokta iki'ye eşittir ve sonra bizim C diyelim.
Naught noktası bunlara değinmedi, lineer regresyon kullanarak öğreneceğimiz değerler.
Peki, böyle bir şeyi nasıl eğitiriz?
Yapacağımız şey, bilinmeyenlerimiz için M ve C olan değerleri bulmak istiyoruz.
Çok sayıda x ve y çifti verildi, değil mi?
Böylece burada x ve y çiftlerimiz var ve bu değerleri, bu veri seti için en uygun değerleri tahmin etmek istiyoruz.
Öyleyse M ve C için değerler bulacağız, burada bu uzaklık tahmin hatası en iyi şekilde en aza indirilir.
Bu çizgi, buradaki burada bittiğinde ortalama tahmin hatasının düşeceği
Çok büyük bir hata olacak. Öyleyse umut şu ki, bunu doğru tahmin edersek M
Ve biz bir C var sonra yeni bir gelince
Tahmin etmeye çalıştığımız değer, onu bu formülden geçirebiliriz. 1.2 ile çarpıp ekleyebiliriz.

English: 
so in this case M is going to be the gradient of our line and C is going to be B intercept so in this
Case I guess something along the lines of this straight up like this
So if our M was one in this case M
Equals one or maybe equals one point two to make it slightly more interesting and then our C is going to be let's say C
His naught point naught to these are the values that we're going to learn using linear regression
So, how do we train something like this?
What we're going to do is we want to find the values for our unknowns which are M and C
Given a lot of x and y pairs, right?
So we've got our x and y pairs here and we want to predict these values the optimal values for this data set
So we're going to find values for M. And C where this distance the prediction error is minimized the better fit
This line is the average prediction error is going to go down if this line is over here
It's going to be a huge error. And so the hope is that if we predict this correctly and we have an M
And we have a C then when we come up with a new
Value that we're trying to predict we can pass it through this formula. We can multiply it by 1.2 and then add

English: 
0.02 and that will produce our prediction for y and hopefully that would be quite close to what it is
So for example, let's imagine. We have a new value for attribute 1. Let's come in here
We're gonna look up here and this is going to be the prediction for our Y and that's the output of our aggressor
So this linear regression is capable of producing
Predictions based on its attribute now if we have more than one attribute
This is called multivariate linear regression and the principle is exactly the same is this we're going to have lots of these multiplier ends
We could say something like Y is
m1 x1 plus
m2 x2 and so on for all of our different attributes
so it's going to be a linear combination a bit like PCA a linear combination of
These different attributes and it's obviously going to be multi-dimensional
So one interesting thing about linear regression is but what it's going to do is predict us a straight line
regardless of how many dimensions we've got now sometimes if we want to use this for a classification
Purpose we still can all right
Now I'm supposed to be talking about regression not classification

Turkish: 
0.02 ve bu y için öngörümüzü üretecek ve umarım ne olduğuna çok yakın olurdu
Mesela, hadi düşünelim. Nitelik 1 için yeni bir değerimiz var.
Buraya bakacağız ve bu bizim Y'nin öngörüsü olacak ve bu da saldırganımızın çıktısı olacak.
Yani bu doğrusal regresyon üretme yeteneğine sahiptir
Birden fazla özelliğe sahipsek şimdi özelliğine dayalı tahminler
Buna çok değişkenli doğrusal regresyon denir ve bu prensip tam olarak aynıdır, bu çoğul çarpan uçlarına sahip olacağız.
Y gibi bir şey söyleyebiliriz
m1 x1 artı
m2 x2 vb. farklı özelliklerimiz için
bu yüzden PCA gibi bir doğrusal bir kombinasyon olacak bir doğrusal bir kombinasyon olacak
Bu farklı nitelikler ve belli ki çok boyutlu olacak.
Doğrusal regresyonla ilgili ilginç bir şey, yapacağı şey, bize düz bir çizgi tahmin etmektir.
Şimdi ne kadar boyut aldığımıza bakılmaksızın, bazen bunu bir sınıflandırma için kullanmak istiyorsak
Amaç hala iyi olabiliriz
Şimdi sınıflandırma değil, gerileme hakkında konuşmam gerekiyordu.

Turkish: 
Ama kısaca beni şımartırsanız, bu işlevi lojistik işlev adı verilen bir şeyden veya sigmoid eğrisinden geçirebiliriz
Ve onu bir şeye ezebiliriz. Bu şekil var
Ve şimdi yaptığımız şey, değerlerimizi 1'e ve aşağıya itiyoruz.
Doğru ve bu bizim 1 ile 0 arasındaki sınıflamamızdır.
Böylece gerçekleştirmek için bu ek lojistik işlevi kullanarak doğrusal regresyon yapmak mümkündür
Sınıflandırma ve buna lojistik regresyon denir. ben
Bahsettiğim şey bu, ancak bazı verilerde yapıldığını göreceğiniz şey
Şimdi biraz daha güçlü bir şey hakkında konuşalım
Bu yapay sinir ağları
şimdi
AI terimini gördüğünüz anda medyadaki herhangi bir zamanda gerçekte konuştukları şey makine öğrenmesi ve konuştukları şeydir.
Hakkında bazı büyük sinir ağı. Şimdi. Biraz daha küçük tutalım
Diyelim ki yapmak istediğimiz, nitelikler için öğeyi almak ve onları bir miktar gerilemeye değer tahmin etmekle eşleştirmek, değil mi?
Bunu nasıl yapacağız?
Peki, yapabileceğimiz şey aslında bazı lineer olmayan fonksiyonlar aracılığıyla birçok farklı lineer regresyonu gerçekten güçlü bir hale getirebiliriz.

English: 
But just briefly if you indulge me we can pass this function through something called a logistic function or in the sigmoid curve
And we can squash it into something. There's this shape
And now what we're doing is we're pushing our values up to 1 and down to 0
Right and that is our classification between 1 and 0
So it is possible to perform linear regression using this additional logistic function to perform
Classification and this is called logistic regression. I
Just what I mention, but that's something you will see being done on some data
So let's talk a little bit about something more powerful
That's artificial neural networks
now
Anytime in the media at the moment when you see the term AI what they're actually talking about is machine learning and what they're talking
About is some large neural network. Now. Let's keep it a little bit smaller
Let's imagine what we want to do is take item for attributes and map them to some prediction some regressed value, right?
How are we going to do this?
Well, what we can do is we can essentially combine a lot of different linear regressions through some nonlinear functions into a really powerful

Turkish: 
Regresyon algoritması, doğru. Diyelim ki üç girişi olan bazı verilerimiz var.
Böylece örneklerimiz var ve özelliklerimizde B ve C var. Girdilerimiz B ve C.
Sonra New Orleans’a doğru bir şeyler sakladık ve birazdan bir nöron açıkladım.
Öyleyse ele almak istediğimiz bir çıktı değerimiz var. Bu, değeri tahmin etmeye çalıştığımız yer.
Yani, bir şeyin ne kadar hastalığa sahip olduğunu biliyorsunuz, niteliklerimize bağlı olarak bu tür şeyler ne kadar sıcak?
Burası B'ye koyduğumuz yer, B'ye koyduğumuz yer ve C'ye koyduğumuz yer
Sonra bu nöronların her biri için tüm bu şeylerin ağırlıklı toplamını yaparız.
Mesela, bu nöronlar, buradaki üçünden üç girdi alacaktır ve bu da bir ağırlığa sahip olacak.
Bu ağırlık olacak - bu ağırlık üç olacak
Ve lineer regresyonda olduğu gibi ağırlıklı bir toplam yapacağız
Yani bir kere artı iki kere kilo iki kere B artı kiloyu üç kere yapacağız c
birlikte onları ve sonra biz istediğimiz herhangi bir önyargı ekleyeceğiz, bu yüzden bu artı bir önyargı olacak
Bize bu nöron için bir değer vereceğiz, ki bu onu doğru bir şekilde saklamak istiyoruz çünkü bu genel olarak konuşur

English: 
Regression algorithm, right. So let's imagine that we have some data which has got three inputs
So we've got our instances and we've got our attributes a B and C. Our inputs are a B and C
And then we have some hidden New Orleans right and I explained a neuron in a moment
Then we have an output value that we'd like to address. This is where we're trying to predict the value
So, you know how much disease does something have how hot is it these kind of things depending on our attributes?
this is where we put in a this is where we put in B and this is where we put in C and
Then we perform a weighted sum of all of these things for each of these neurons
So for example this neurons going to have three inputs from these three here and this is going to have weight one
This is going to be weight - this is going to be weight three
And we're gonna do a weighted sum just like in linear regression
So we're going to do weight one times a plus weight two times B plus weight three times c add
them together and then we're going to add any bias that we want to so this is going to be plus some bias and that's
Going to give us a value for this neuron, which let's call it hidden want right because this is generally speaking

Turkish: 
Bu değerlere bakmıyoruz. Bu çok önemli değil. Bunun için farklı bir miktar yapacağız
Bu yüzden hepsine farklı renklerde gidiyorum, böylece kafamız karışmaz. Yani bu üç ağırlığa sahip
Yani bu farklı bir yol olacak
Bu başka bir ağırlığa sahip olacak
Ve biz bunu bu kadar çok kez artı yapacağız. Bu kadar çok kez B artı bu kadar çok kez C
Hepsini ekle artı bir önyargı ekleyin ve gizleneceğiz - ve aynı şeyi yapacağız
Bunlarla burada olanlar böyle
Bu gizli beş için gizli üç olacak ve gitmeyi sevdiğimiz kadarıyla devam edecek
Tamam
şimdi
Bununla ilgili güzel şey, bunların her biri için farklı ağırlıklı bir toplamı hesaplayabilmemizdir.
O zaman olan şey aslında bir dizi doğrusal regresyon elde etmemiz.
Tamam
çünkü bu sadece çok değişkenli doğrusal regresyondur ve sonunda
Algoritma iyi bir sonuç çıkarmaz mı? Birden fazla doğrusal işlevi birlikte birleştirirseniz, sadece farklı bir doğrusal işlev elde edersiniz.
bu yüzden tüm bu gizli değerleri bir sigmoid veya

English: 
We don't look at these values. It's not too important. We're going to do a different sum for this one
So I'm going to all them in different colors so we don't get confused. So this has got three weights
So this is going to be a different way
This is going to have another different weight
And we're going to do this much times a Plus this much times B plus this much times C
Add them all up add a plus a bias and we're going to get hidden - and we're going to do the same thing
With these ones here like this
This is going to be hidden three hidden for hidden five and so on for as far as we like to go
All right
now
the nice thing about this is for each of these can calculate a different weighted sum now the problem is that if we just did
This then what happens is we actually get a series of linear regressions
All right
because this is just multivariate linear regression and in the end our
Algorithm doesn't end up any good right? If you combine multiple linear functions together, you just get one different linear function
so we pass all of these hidden values through a nonlinear function like a sigmoid or

Turkish: 
Tan bu yüzden bir sigmoid naught ve 1 arasında gider bu yüzden bu 1 ve bir tan değil
Hiperbolik tanjant eksi 1 ile 1 arasında olacak
Bunun gibi şeyler ve yapacaklar yeterince karmaşık bir şey eklemek.
İşlev, hepsini bir araya getirdiğimizde
Aslında bu kadar güçlü bir algoritma elde edebiliriz ki bu işe yarar B ve C harfleri.
Bu fonksiyonlarla tüm ağırlıklı toplamları gizli birimlerimizde hesaplıyoruz ve daha sonra bir başka ağırlıklı toplamlar hesaplıyoruz
öyleyse, nihai çıktımız olmak için bir araya getirin ve bu da son çıktı tahminimiz olacak.
abc için değerlerin olduğu çok ve çok sayıda test verisi koyacağız ve bunun ne olduğunu biliyoruz
Çıktı ağ üzerinden geçiyor olmalıydı ve sonra diyoruz ki, aslında biraz kapalı kaldık
Yani tüm bu ağırlıkları değiştirebilir miyiz, böylece bir dahaki sefere doğru cevaba biraz daha yakınız ve hadi devam edelim
bu, tekrar tekrar gradyan iniş denilen bir işlemde tekrar tekrar
Bir B ve C'yi koyduğumuzda, çoğunlukla, ağırlıkları yavaşça yerleştirin.
Şimdi diğer taraftan ne istiyorsak onu alırız, mükemmel olması pek mümkün değil

English: 
Tan so a sigmoid goes between naught and 1 so this is not than 1 and a tan
Hyperbolic tangent will go between minus 1 and 1
Things like this and what that will do is add a sufficiently complex
Function that when we combined them all together
We can actually get quite a powerful algorithm the way this works is we put in a B and C
We calculate all the weighted sums through these functions into our hidden units and then we calculate another series of weighted sums
so add together to be our final output and this will be our final output prediction Y now the way we train this is
we're going to put in lots and lots of test data where we have the values for a b c and we know what the
Output should have been we go through the network and then we say, well actually we were a little bit off
So can we change all of these weights so that next time we're a little bit closer to the correct answer and let's keep doing
this over and over again in a process called gradient descent and
Slowly settle upon some weights where for the most part when we put in our a B and C
We get what we want out the other side now, it's unlikely to be perfect

English: 
but just like with the other machine learning as we've talked about we're going to be trying to make our
Prediction on our testing set as good as possible
All right
So we've put in a lot of training data and hopefully when we take this network and apply it to some new data it also
Performs. Well, let's look at an example
We looked at credit checks in the previous video and we will classify whether or not someone should be given credit
Well something that we cut we often calculate is credit rating
which is a value from let's say naught to 1 of
How good your credit score is so a could be how much money you have in your bank B could be whether you have any
Loans and C could be whether you own a car and obviously there's going to be more of these because you can't make a decision
On this those three things. So what we do is we get a number of people that we've already made decisions about right?
so we know the person a has a bank account balance of five thousand two thousand in loans, and he does own a car and
He has a credit rating of 75 or Northpoint 75 whatever your scale is
So we put this in we sieze wait
So but this is the correct

Turkish: 
ama tıpkı konuştuğumuz gibi diğer makinelerin öğrendiği gibi bizim de yapmaya çalıştığımız
Test kümemizin öngörüsü mümkün olduğunca iyi
Tamam
Bu yüzden birçok eğitim verisi koyduk ve umarım bu ağı kullanıp bazı yeni verilere uyguladığımızda
Gerçekleştirir. Peki, bir örneğe bakalım
Önceki videodaki kredi kontrollerine baktık ve birine kredi verilip verilmeyeceğini belirleyeceğiz
Sıklıkla hesapladığımız bir şey kredi notu
Diyelim ki bu değer 1’den birine
Kredi puanınız ne kadar iyi, bu nedenle bankanızda B ne kadar paranız olursa olsun
Krediler ve C, bir araba sahibi olup olmamanız olabilir ve açıkçası bunlardan daha fazlası olacak çünkü bir karar veremezsiniz
Bunun üzerine bu üç şey. Peki yaptığımız şey, doğru kararlar vermiş olduğumuz çok sayıda insana ulaşmak mı?
bu nedenle, bir kişinin kredi hesaplarında beş bin iki bin banka hesap bakiyesi olduğunu biliyoruz.
Ölçeğiniz ne olursa olsun, 75 veya Northpoint 75 kredi derecesine sahiptir.
Yani bunu koyduk, bekledik
Yani ama bu doğru

Turkish: 
Tahmin ve sonra umarım başka bir kişi farklı değişkenlerle birlikte geldiğinde kendileri için doğru olanı tahmin eder
Böylece bu ağı istediğiniz kadar derin veya büyük yapabilirsiniz. Biz tipik
Çok katmanlı algılayıcılar veya yapay sinir ağları, bunun gibi çok derin olmayacak
belki bir iki üç gizli ünite belki derin ama literatürde gösterilenler aslında
Yeterli sayıda gizli üniteniz varsa
Temelde bu gibi herhangi bir işlevi, oluşturmak için yeterli eğitim verisine sahip olduğunuz sürece modelleyebilirsiniz.
O halde tekrar Weka'yı kullanacağız.
çünkü Weka’da çok fazla
yapay sinir ağları gibi yerleşik regresyon algoritmaları
Ve doğrusal regresyon. Öyleyse bir veri seti açalım. Bu sefer kullanacağız
Bu yüzden, elimizde süper iletkenlikle ilgili bir veri seti olduğunu söylediler.
Açıkçası fizik bilgim ortalama mı demeliyiz?
Fakat bir süper iletken, kritik bir sıcaklığa ulaştığınızda dirençsiz hale geldiği bir şeydir.
Elektrik devreleri için çok faydalı olan doğru
Ve bu, malzemenin özellikleri ve kritik sıcaklık nedir hakkında bir veri setidir?
Bir süper iletken olacak aşağıda

English: 
Prediction and then hopefully when another person comes along with a different set of variables will predict the right thing for them
So you can make this network as deep or as big as you want. We're typically
Multi-layer perceptrons or artificial neural networks, like this won't be very deep
one two three hidden units deep maybe but what's been shown in the literature is but actually
If you have a sufficient number of hidden units
You can basically model any function like this right as long as you've got sufficient training data to create it
So we're going to use Weka again
because Weka has lots of
regression algorithms built-in like artificial neural networks
And linear regression. So let's open up a data set. We're going to use this time
So they said we've got is a data set on superconductivity right now
Obviously my knowledge of physics is should we say average?
But a superconductor is something that when you get it to a critical temperature it becomes it has no resistance
Right, which is very useful for electrical circuits
And so this is a data set about what are the properties of material and what is the critical temperature?
Below, which it will be a superconductor

Turkish: 
Şimdi, yorumlarımda söylediklerimin bazı alanlarına işaret edebilecek bazı fizikçiler olacağına eminim
Ama devam edeceğiz. Yani bir dosya okuyoruz. Bu oldukça büyük bir veri seti
Böylece çok sayıda girdi özelliğimiz var ve sonunda bunu tahmin etmeye çalıştığımız kritik sıcaklık var.
Bu histograma bakarsak sıcaklık 0 dan
185 Eğer diğer bazı şeylere bakarsak, örneğin, bu entropi atomik yarıçapına sahibiz;
Bunun ne olduğunu biliyorum, ki bu naught'dan dört noktaya iki noktaya gidiyor. İyi mi?
Doğru, yapacağımız şey, kullanmaya başlayacağımız.
Bu kritik sıcaklığı, bu giriş özelliklerinin bir kombinasyonu olarak denemek ve tahmin etmek için çok değişkenli doğrusal regresyon
Bu yüzden sınıflandırmaya gideceğim. Regresyon için bile tek bir gizli sekme var
Aynı yüzde bölücülerimizi daha önce% 70 kullanacağız ve
Bunun için basit bir doğrusal regresyon işlevi kullanacağız.
Hadi gidelim
Bu yüzden, lineer regresyonumuzu eğittik ve şimdi yapmak istediğimiz, test setimizde işe yarayıp yaramadığına bakmak.
Değişkenleri aldık. Y'yi istedik ve Y hat tahmini yapılan değişkenleri elde ettik.

English: 
Now, I'm sure there's going to be some physicists in the comments that might point out some areas of what I just said
But we'll move on. So we're reading a file. This is quite a big data set
So we have a lot of input attributes and then at the end we have this critical temperature that we're trying to predict this
temperature if we look at this histogram goes from 0 to
185 if we look at some of the other things so for example, we've got this entropy atomic radius, which I can pretend
I know what that is, which goes from naught to two point one four. Is that good?
Right, what we're going to do is we're going to start by using
Multivariate linear regression to try and predict this critical temperature as a combination of these input features
So I'm going to go to classify. There's just one classified tab even for regression
we're going to use our same percentage splitters before so 70% and
We're going to use a simple linear regression function for this
Let's go
So we've trained our linear regression and what we want to do now is work out whether it's worked or not on our testing set
We've got the variables. We wanted Y and we've got the variables that have been predicted Y hat and

Turkish: 
Umarım tam olarak aynılarsa tam olarak aynıdırlar, o zaman bunun gibi düz bir çizgi üzerinde olacaklar
Bu yüzden buraya neden bir sebep bulacağımızı umuyorduk ve şimdi biz de tabi ki bu gerçekleşmeyecek.
Ne olacak, bu şaraplar Y'lerden biraz daha farklı.
Biz bekliyorduk bu yüzden merkez çevresinde bu tür biraz gürültü görebilirsiniz ve
Normalde bunu ölçmemizin yolu, ortalama mutlak hata ya da ortalama kare hatası ya da kök ortalama kare hatası olarak adlandırılan bir şeydir.
Hepsi aynı şeyi ölçmek için çok benzer yollar
İstediklerimiz ile elde ettiklerimiz arasındaki ortalama mesafenin ne olduğunu ölçmek
öyleyse eğer North Point'ten kurtulmayı umuyorduk - ama aslında bizim için bir North Point Y var.
Hata, çok yüksek noktaya gelmediğimizdi.
Test setimizdeki her örnek için elimizdeki tüm alanları toplayabilir ve çalışabiliriz.
Ortalama hata neydi doğru. Test setimizde yüzlerce kişi var.
Hataları özetliyoruz ve yüze bölüyoruz ve bu da demek istediğim, hatanın belirli bir miktar olduğunu söylüyor.

English: 
Hopefully they're exactly the same if they're exactly the same then they're going to be on a straight line like this
So we were hoping to get a why down here and we it now, of course this won't actually happened
What will happen is these wines are ever so slightly different than the Y's
we were expecting so you might see a bit of noise around the center like this and
The way we would normally measure this is something called mean absolute error or mean squared error or root mean squared error
Which all very similar ways to measure the same thing
It's to measure what is the average distance between what we wanted and what we got
so if we were hoping to get away of North Point - but we actually got a Y of North Point for then our
Mistake was we were not point to too high
And so for every single instance in our test set we can sum up all of the areas we've got and we can work out
What the average error was right. So we have a hundred in our test set
We sum up the errors and we divide by a hundred and that tells us I mean error was a certain amount

English: 
What will sometimes happen is your predictions will be above or below right?
and so your actual mean error might be zero because half a time you predicted too high half a time you predicted too low and
So on average, you've got it exactly right. Obviously, that's not correct
So what we tend to do is calculate something called mean absolute error
So essentially if you're too small, we just remove the minus sign and call call it an error of that amount
All right
So if your mean absolute error is nour point four then what that's saying is but on average you're naught point far away
Live above or below than where you were hoping to be
It's also quite common to see similar measures like root mean squared error for every instance
We take our error we square it we sum them all up and then right at the end
We take a square root, right?
And again, this is a very similar measure to mean absolute error like the squaring. We move our negative symbols for us
It's also quite common particularly in
fields like biology and medicine to see something called R squared or the R squared coefficient and this is essentially the
Correlation squared it's a measure of how well or how tightly correlated our

Turkish: 
Bazen ne olacak, öngörüleriniz sağ üstünde veya altında mı olacak?
ve böylece gerçek ortalama hatanız sıfır olabilir, çünkü çok yüksek bir süre tahmin ettiğiniz zamanın yarısı çok düşük
Yani ortalama olarak, tam olarak doğru yaptın. Açıkçası, bu doğru değil
Yani yapmaya meyilli olduğumuz şey ortalama mutlak hata denilen bir şeyi hesaplamak.
Yani aslında çok küçükseniz, sadece eksi işaretini kaldırır ve bu tutarın bir hata olduğunu söyleriz.
Tamam
Yani, eğer ortalama mutlak hatanız dördüncü nokta nour ise, o zaman ne söyleyeceğinizi söyleyin ama ortalama olarak uzak noktaya değineceksiniz.
Beklediğiniz yerin üstünde veya altında yaşamak
Her durum için kök ortalama kare hatası gibi benzer önlemler görmek de oldukça yaygındır
Hatamızı alıyoruz, hepsini karıştıracağız ve sonra en sonunda toplayacağız
Karekök alıyoruz, değil mi?
Ve yine, bu kare gibi mutlak hata anlamına gelmek için çok benzer bir ölçüdür. Negatif sembollerimizi bizim için taşırız
Ayrıca özellikle oldukça yaygındır.
biyoloji ve tıp gibi alanlar R kare veya R kare katsayısı denilen bir şey görmek için bu esasen
Korelasyon karesi, bizim ne kadar iyi veya ne kadar sıkı bir ilişki içinde olduğumuzun bir ölçütüdür.

Turkish: 
Örneğin tahminler ve temel gerçeğimiz
Bu, eğer bu gibi noktalarımız ve bu gibi noktalarımız olsaydı, belki sekizinci noktaya bakmazsa ya da dokuzuncu noktaya değiniyorsa, oldukça iyi bir ilişki olurdu.
Kesinlikle. Mükemmel. Noktalarımız her yerde olsaydı, bu bir R karesi olurdu.
Bu 0 r karesi olacak ve söylediğim şey 0 ile 1 arasında bir değer olduğunu
Sıfırı ne kadar iyi tahmin ettiğimiz, temelde hiçbir şey tahmin etmediğiniz anlamına gelir
Tamamen rastgele çıktıydı, biri her şeyi tam olarak tahmin ettiğin anlamına gelir, doğru
Şimdi, elbette böyle bir şey olma ihtimali ya da bir test seti
Bulacağınız şey, bir sayı almayı ümit edersiniz, ancak nokta yedi nokta sekiz civarında bir yerde, değil mi?
Ancak bu, probleminizin ne kadar zor çözüleceğine bağlı olacaktır.
Belki de gerçekten zor bir problemde 0,5'lik bir kare aslında oldukça iyidir, değil mi?
Yani sadece duruma bağlı olacak. Öyleyse doğrusal regresyonumuzu geliştirdik
Korelasyon katsayısının 0,85 olduğunu biliyoruz. Örneğin ortalama mutlak hatanın 13 derece olduğunu biliyoruz.
Yapmadığımız şey kisti görselleştirmek, bazen yapmak için basitleştirmek.

English: 
Predictions and our ground truth were for example
This would be a pretty good correlation if maybe naught point eight or nor point nine if these were our points like this and were
Absolutely. Perfect. That would be an R squared of one if our points were everywhere
That will be an R squared of 0 and what I saying is it's a value between 0 and 1 that tells
How well we predicted zero means you basically didn't predict anything at all
It was completely random output one means you predicted everything exactly, correct
Now, of course that's unlikely to happen or a test set
What you'll find is you'll hope to get some number but somewhere around point seven point eight, right?
But it will depend on how difficult your problem is to solve
So maybe on a really difficult problem an r-squared of 0.5 is actually pretty good, right?
So it's just going to depend on the situation. So we've got our linear regression trained up
We know that the correlation coefficient is 0.85. We know that the mean absolute error for example is 13 degrees
What we haven't done is visualize cyst sometimes a simplify to do

English: 
This is just to plot a scatter plot of what we wanted and what we actually got from our predictor
So I'm going to right click on linear regression. I'm going to say visualize
classify errors
it's going to be a scatter plot of the
Expected value and the prediction we actually got from our networks so you can see generally speaking. It's not too bad
Obviously the data set is quite bunched up in some of these areas which means that it's sometimes harder to predict
But we've got a general upward trend which is exactly what we wanted
You can see that the prediction around zero is not good at all
The x-axis in this instance is the actual critical temperature of that particular substance
The y-axis is what the linear regression actually predicted
You can see that the range here is from about zero to about
136 on our actual values and the predicted values are from about minus 30 which doesn't really make sense to 131, but they're pretty close
most of the ones that caused a problem with a very low values right because you've essentially got lots and lots of values that have
a very small critical temperature on this scale, but different attributes that's been hard to fit a line to

Turkish: 
Bu sadece istediklerimize ve gerçekte tahmincimizden ne elde ettiğimize dair bir dağılım grafiği çizmek için.
Bu yüzden lineer regresyona sağ tıklayacağım. Görselleştirmek diyeceğim
hataları sınıflandırmak
bir dağılım grafiği olacak
Beklenen değer ve gerçekte ağımızdan aldığımız öngörü, böylece genel konuşmayı görebilirsiniz. Çok kötü değil
Açıkçası, veri seti bu alanların bazılarında oldukça yığılıyor, bu da tahmin etmenin bazen zor olduğunu gösteriyor
Fakat tam olarak istediğimiz gibi genel bir yükseliş eğilimi var.
Sıfırın etrafındaki tahminin hiç iyi olmadığını görebilirsiniz.
Bu örnekteki x ekseni, söz konusu maddenin gerçek kritik sıcaklığıdır.
Y ekseni, doğrusal regresyonun gerçekte tahmin ettiği şeydir.
Buradaki aralığın yaklaşık sıfır ila yaklaşık arasında olduğunu görebilirsiniz.
136 bizim gerçek değerlerimize dayanarak tahmin edilen değerler eksi 30'dan 131'e kadar anlam ifade etmiyor ancak oldukça yakınlar.
Çok düşük değere sahip bir soruna neden olanların çoğu doğru çünkü çok sayıda ve çok değerli
Bu ölçekte çok küçük bir kritik sıcaklık, ancak bir çizgiye uyması zor olan farklı özellikler

English: 
something more powerful for example a
Multi-layer perceptron, you know an artificial neural network might do a better job of those kind of instances
But you can see that there's a general
Upward slope in this particular scatter plot be larger X's represent a larger error so you can see this is of a line
We're actually trying to fit here down here with all these small X's and there's quite a few of them on there
So actually for a lot of these substances the prediction even by linear regression has been pretty good
regression algorithms
Let us predict real scalar data out of our input variables and then this can be really useful in a huge array of different
Situations where we want to predict some it doesn't fit neatly into a yes-or-no answer or an ABC category label
We've looked at linear regression and artificial neural networks, and obviously neural networks get pretty deep these days
But these are a great starting point, so
Thanks very much for watching. I hope you enjoyed this series on data analysis something a little bit different from computerphile
I wanted to thank my colleague. Dr. Mercedes Torres Torres for helping me design the content

Turkish: 
örneğin daha güçlü bir şey
Çok katmanlı algılayıcı, yapay bir sinir ağının bu tür durumlarda daha iyi bir iş çıkarabileceğini biliyorsunuz.
Ama bir general olduğunu görebiliyorsun.
Bu belirli dağılım grafiğindeki yukarı doğru eğim daha büyük olmalı X'ler daha büyük bir hatayı temsil ediyor, böylece bunun bir çizgide olduğunu görebilirsiniz
Aslında buraya tüm bu küçük X'lerle sığmaya çalışıyoruz ve bunlardan birkaçı var.
Yani aslında bu maddelerin birçoğu için doğrusal regresyonda bile öngörü oldukça iyi olmuştur.
regresyon algoritmaları
Girdi değişkenlerimizden gerçek skaler verileri tahmin edelim ve bu farklı bir dizi dizide gerçekten faydalı olabilir.
Bazılarını tahmin etmek istediğimiz durumlar evet veya hayır cevabına veya bir ABC kategori etiketine tam olarak uymuyor
Doğrusal regresyona ve yapay sinir ağlarına baktık ve açıkçası sinir ağları bugünlerde oldukça derinleşiyor
Ama bunlar harika bir başlangıç ​​noktası.
İzlediğiniz için çok teşekkürler. İnşallah bu diziyi bilgisayar analizinden biraz farklı bir şey veri analizinde beğenmişsinizdir.
Meslektaşıma teşekkür etmek istedim. Mercedes Torres Torres, içeriği tasarlamama yardım ettiği için

English: 
Please let us know what you liked what you didn't like let us know in the comments what you'd like to see more of
And we'll see you back again next time

Turkish: 
Lütfen neyi beğenmediğinizi neyi sevdiğinizi bize bildirin. Yorumlarda daha fazla neyi görmek istediğinizi bize bildirin.
Ve bir dahaki sefere tekrar görüşürüz
