
Korean: 
안녕하세요, 저는 Carrie Anne입니다. 
컴퓨터 과학 특강에 오신 것을 환영합니다!
우리가 이 시리즈에서 여러 번 언급한 것처럼,
컴퓨터는 방대한 양의 데이터를 저장하고 정리하며, 
가져오고 처리합니다.
컴퓨터는 방대한 양의 데이터를 저장하고 정리하며, 
가져오고 처리합니다.
이는 수백만 개의 아이템을 판매하는 
웹 사이트의 전자상 거래나
의사가 신속하게 접근할 수 있는 수십억 건의 건강 기록 저장과 같은 작업에 이상적입니다.
그러나 우리가 단지 컴퓨터에서 데이터를 가져와서 
표시하는 데에만 사용하지 않고
데이터에 관한 결정을 내릴 수 있다면 어떨까요?
이것이 기계 학습의 본질입니다.
컴퓨터에게 데이터로부터 배울 수 있는 능력을 주고 
그에 대한 예측 및 결정을 내릴 수 있는 알고리즘.
이 능력을 가진 컴퓨터 프로그램은 극도로 유용해서 
다음과 같은 질문에 대답할 수 있습니다.
이 이메일은 스팸일까요?
사람의 심장에 부정맥이 있습니까?
YouTube에서 이 동영상 뒤에 
어떤 동영상을 추천해야하나요?
이러한 프로그램들은 유용하지만, 우리는 이를 인간의 지능과 같은 방식으로 똑똑하다고 설명하진 않을 것입니다.
이러한 프로그램들은 유용하지만, 우리는 이를 인간의 
지능과 같은 방식으로 똑똑하다고 설명하진 않을 겁니다.
따라서 용어가 종종 바뀔지라도,
대부분의 컴퓨터 과학자들은 기계 학습이 인공 지능이라는 더욱 야심찬 목표에 놓인 일련의 기술이라고 말합니다.
또는 줄여서 AI라고 합니다.

Arabic: 
مرحبا، أنا كاري آن، ومرحبا بكم في دورة علوم الحاسوب!
كما  تطرقنا عدة مرات في هذه السلسلة،
إن أجهزة الكمبيوتر خارقة  في تخزين وتنظيم و
جلب ومعالجة كميات ضخمة من البيانات.
وهذا مثالي لأمور مثل مواقع التجارة الإلكترونية
 مع الملايين من السلع المعروضة للبيع،
ولتخزين المليارات من السجلات الصحية
للوصول السريع من قبل الأطباء.
ولكن ماذا لو أردنا استخدام أجهزة الكمبيوتر ليس فقط
لجلب البيانات وعرضها، ولكن في الواقع ل
اتخاذ قرارات بشأن البيانات؟
هذا هو جوهر خوارزميات -التعلم الآلي
التي تعطي أجهزة الكمبيوتر القدرة على التعلم من
البيانات، ومن ثم تقديم تنبؤات وقرارات.
إن برامج الكمبيوتر مع هذه القدرة
مفيدة جداً في الإجابة على أسئلة مثل هل البريد الالكتروني
بريد مؤذي؟
هل لدى الشخص عدم انتظام في ضربات القلب؟
ما الفيديوالذي يجب على يوتيوب أن يوصي به بعد
هذا؟
بينما هي مفيدة، ربما لن نصف
هذه البرامج بأنها "ذكية"
بنفس الطريقة التي نفكر من الذكاء البشري.
إذن، على الرغم من أن المعايير غالبا ما تختلف،
فإن معظم علماء الكمبيوتر يقولون أن
التعلم الآلي هو مجموعة من التقنيات التي تنتمي لهدف أكثر طموحا من الذكاء الاصطناعي
أو AI اختصاراً.

Turkish: 
Merhaba, ben Carrie Anne ve Crash’e hoş geldiniz.
Ders Bilgisayar Bilimi!
Bu dizide defalarca değindiğimiz gibi,
bilgisayarlar depolama, düzenleme konusunda inanılmaz
büyük miktarda veriyi almak ve işlemek.
E-ticaret gibi şeyler için mükemmel
milyonlarca öğenin satıldığı web siteleri,
ve milyarlarca sağlık kaydının saklanması için
doktorlar tarafından hızlı erişim için.
Ama ya bilgisayarları kullanmak istiyorsak, sadece
veri toplamak ve görüntülemek, ancak gerçekte
veriler hakkında kararlar almak?
Makine öğrenmenin özü budur - algoritmalar
Bu bilgisayarlara öğrenmek için yeteneği verir
veri ve sonra tahmin ve kararlar verin.
Bu yeteneğe sahip bilgisayar programları son derece
gibi soruları yanıtlarken kullanışlıdır
istenmeyen e?
Bir kişinin kalbinin aritmi var mı?
Youtube'un önerdiği video ne olmalı
Bu?
Yararlı olsa da, muhtemelen tarif etmiyoruz
Bu programlar "akıllı" olarak
İnsan zekasını düşündüğümüz gibi.
Yani, terimler sık ​​sık birbiriyle değiştirilse bile,
çoğu bilgisayar bilimcisi bu makineyi söylerdi
öğrenme oturan bir dizi tekniktir
Yapay'ın daha iddialı hedefi içinde
İstihbarat veya kısaca AI.

English: 
Hi, I’m Carrie Anne, and welcome to Crash
Course Computer Science!
As we’ve touched on many times in this series,
computers are incredible at storing, organizing,
fetching and processing huge volumes of data.
That’s perfect for things like e-commerce
websites with millions of items for sale,
and for storing billions of health records
for quick access by doctors.
But what if we want to use computers not just
to fetch and display data, but to actually
make decisions about data?
This is the essence of machine learning – algorithms
that give computers the ability to learn from
data, and then make predictions and decisions.
Computer programs with this ability are extremely
useful in answering questions like Is an email
spam?
Does a person’s heart have arrhythmia?
What video should youtube recommend after
this one?
While useful, we probably wouldn’t describe
these programs as “intelligent” in the
same way we think of human intelligence.
So, even though the terms are often interchanged,
most computer scientists would say that machine
learning is a set of techniques that sits
inside the even more ambitious goal of Artificial
Intelligence, or AI for short.

English: 
INTRO
Machine Learning and AI algorithms tend to
be pretty sophisticated.
So rather than wading into the mechanics of
how they work, we're going to focus on what
the algorithms do conceptually.
Let’s start with a simple example: deciding
if a moth is a Luna Moth or an Emperor Moth.
This decision process is called classification,
and an algorithm that does it is called a
classifier.
Although there are techniques that can use
raw data for training – like photos and
sounds – many algorithms reduce the complexity
of real world objects and phenomena into what
are called features.
Features are values that usefully characterize
the things we wish to classify.
For our moth example, we’re going to use
two features: “wingspan” and “mass”.
In order to train our machine learning classifier
to make good predictions, we’re going to
need training data.
To get that, we’d send an entomologist out
into a forest to collect data for both luna
and emperor moths.

Arabic: 
INTRO
التعلم الآلي وخوارزميات AI تميل إلى
أن تكون متطورة جدا.
وذلك بدلا من الخوض في آليات
كيف تعمل، سنقوم بالتركيز على ما
تفعله الخوارزميات من الناحية النظرية.
دعونا نبدأ مع مثال بسيط: اتخاذ قرار
إذا كانت فراشة هي فراشة لونا أو فراشة الإمبراطور.
وتسمى عملية القرار هذه بالتصنيف،
وتسمى الخوارزمية التي تقوم به
بالمصنف.
بالرغم من وجود التقنيات التي يمكنها استخدام
البيانات الخام للتدريب - مثل صور و
أصوات - العديد من خوارزميات تقلل من التعقيد
من الأشياء في العالم الحقيقي والظواهر إلى ما
يدعى الميزات.
الميزات هي القيم التي تميز بشكل مفيد
الأشياء التي نريد أن نصنفها.
في مثالنا عن الفراشة، نحن في طريقنا لاستخدام
ميزتين: "الجناحين" و "الكتلة".
من أجل تدريب مصنف تعلم الآلة الخاص بنا
لجعل التوقعات جيدة، سنحتاج
إلى بيانات التدريب.
للحصول عليها، سنرسل خبير في علم الحشرات
إلى الغابة لجمع البيانات لكل من فراشات لونا
والإمبراطور.

Korean: 
 
기계 학습 및 인공 지능 알고리즘은
꽤 정교한 경향이 있습니다.
그래서 기계가 어떻게 작동하는지를 헤집기보다는, 알고리즘이 개념적으로 무엇을 하는지에 집중할 것입니다.
그래서 기계가 어떻게 작동하는지를 헤집기보다는, 알고리즘이 개념적으로 무엇을 하는지에 집중할 것입니다.
나방이 루나 나방인지 나방 황제 인지를 결정하는 
간단한 예제부터 시작해 보겠습니다.
이 결정 과정을 분류라고 하며,
이를 수행하는 알고리즘은 분류자라고 합니다.
이 결정 과정을 분류라고 하며,
이를 수행하는 알고리즘은 분류자라고 합니다.
사진이나 소리와 같은 원시 데이터를 사용해 
훈련시킬 수 있는 기술이 있지만
많은 알고리즘은 현실세계의 
사물과 현상의 복잡성을 줄입니다.
이를 Features라고 합니다.
Feature는 우리가 분류하고 싶은 것들을 
유용하게 특징화하는 값을 말합니다.
나방 예를 들자면 두 가지 특징을 사용할 수 있습니다
"날개 폭"과 "질량"
좋은 예측을 하는 기계 학습 분류자를 훈련하기 위해서는
훈련 데이터가 필요합니다.
좋은 예측을 하는 기계 학습 분류자를 훈련하기 위해서는
훈련 데이터가 필요합니다.
그것을 얻기 위해, 우리는 곤충 학자를 숲으로 보내 루나와 황제 나방에 대한 데이터를 수집하도록 했습니다.
그것을 얻기 위해, 우리는 곤충 학자를 숲으로 보내 루나와 황제 나방에 대한 데이터를 수집하도록 했습니다.

Turkish: 
GİRİŞ
Makine Öğrenmesi ve AI algoritmaları
oldukça karmaşık ol.
Yani, mekaniğine sığmak yerine
nasıl çalıştıklarını, neye odaklanacağız
algoritmalar kavramsal olarak yapar.
Basit bir örnekle başlayalım: karar vermek
bir güve Luna Güve veya bir İmparator Güve ise.
Bu karar sürecine sınıflandırma denir,
ve bunu yapan bir algoritma
sınıflandırıcı.
Kullanabilecek teknikler olsa da
eğitim için ham veriler - fotoğraf ve benzeri
sesler - birçok algoritma karmaşıklığı azaltır
gerçek dünyadaki nesnelerin ve olayların neye
özellikler denir.
Özellikler, yararlı bir şekilde karakterize eden değerlerdir.
sınıflandırmak istediklerimiz.
Güve örneğimiz için kullanacağız
iki özellik: “kanat açıklığı” ve “kütle”.
Makine öğrenme sınıflandırıcımızı eğitmek için
iyi tahminler yapmak için gidiyoruz
Eğitim verisine ihtiyacım var.
Bunu almak için bir entomolog gönderirdik
her iki luna için veri toplamak için bir ormana
ve imparator güveler.

English: 
These experts can recognize different moths,
so they not only record the feature values,
but also label that data with the actual moth
species.
This is called labeled data.
Because we only have two features, it’s
easy to visualize this data in a scatterplot.
Here, I’ve plotted data for 100 Emperor
Moths in red and 100 Luna Moths in blue.
We can see that the species make two groupings,
but….
there’s some overlap in the middle… so
it’s not entirely obvious how to best separate
the two.
That’s what machine learning algorithms
do – find optimal separations!
I’m just going to eyeball it and say anything
less than 45 millimeters in wingspan is likely
to be an Emperor Moth.
We can add another division that says additionally
mass must be less than .75 in order for our
guess to be Emperor Moth.
These lines that chop up the decision space
are called decision boundaries.
If we look closely at our data, we can see
that 86 emperor moths would correctly end
up inside the emperor decision region, but
14 would end up incorrectly in luna moth territory.
On the other hand, 82 luna moths would be
correct, with 18 falling onto the wrong side.

Korean: 
이 전문가들은 다른 나방을 인식해서 
특징 값을 기록 할 뿐 아니라,
실제 나방에 라벨을 붙여 데이터를 수집할 수 있습니다.
이를 분류된 데이터라고 합니다.
두 가지 특징만 있기 때문에
산점도에서 이 데이터를 쉽게 시각화할 수 있습니다.
여기 100마리 황제 나방(빨강)과 100마리의 루나 나방
(파랑)에 대한 데이터를 표시했습니다.
우리는 이 종들이 두 그룹으로 
나뉘는 것을 볼 수 있습니다. 하지만
중간에 약간 겹침이 있어서 둘을 분리하는 최상의 방법은 전체적으로 명확하지 않습니다.
중간에 약간 겹침이 있어서 둘을 분리하는 최상의 방법은 전체적으로 명확하지 않습니다.
그것이 기계 학습 알고리즘입니다.
- 최적의 구분을 찾는 것!
저는 그저 눈으로 보고 날개 길이 45 밀리미터 미만의 어떤 것이 황제 나방이 될 가능성이 있다고 말할 것입니다.
저는 그저 눈으로 보고 날개 길이 45 밀리미터 미만의 어떤 것이 황제 나방이 될 가능성이 있다고 말할 것입니다.
추가적으로 다른 분할을 추가 할 수 있습니다. 우리의 
추측이 황제 나방이려면 질량이 0.75 이하여야 합니다.
추가적으로 다른 분할을 추가 할 수 있습니다. 우리의 
추측이 황제 나방이려면 질량이 0.75 이하여야 합니다.
의사 결정 공간을 꽉 막는 이러한 선들을
의사 결정 경계라고 부릅니다.
데이터를 자세히 보면 86마리의 황제 나방은 정확하게 
황제 결정 지역 안에 있지만
14마리의 황제나방은 루나 나방 지역에서 
부정확하게 머무를 것입니다.
반면 82마리의 루나 나방은 옳은 지역에, 
18마리는 잘못된 공간에에 떨어져 있습니다.

Turkish: 
Bu uzmanlar farklı güveleri tanıyabilir,
bu yüzden sadece özellik değerlerini kaydetmezler,
aynı zamanda bu verileri gerçek güve ile de etiketleyin
Türler.
Buna etiketli veri denir.
Çünkü sadece iki özelliğimiz var.
bir dağılım grafiğinde bu verileri görselleştirmek kolaydır.
Burada 100 İmparator için veri çizdim
Kırmızı güveler ve mavi 100 Luna Güveler.
Türlerin iki gruplama yaptığını görebiliriz.
fakat….
Ortada bir miktar örtüşme var ...
En iyi nasıl ayrılacağı tamamen belli değil
iki.
Makine öğrenmesi algoritmaları budur
yapmak - optimal ayrımları bulun!
Sadece onu gözleyeceğim ve bir şey söyleyeceğim
kanat açıklığında 45 milimetreden az olması muhtemeldir
İmparator Güve olmak.
Ek olarak yazan başka bir bölüm ekleyebiliriz.
bizim için kütle 0,75'ten az olmalıdır
İmparator Güve olduğunu tahmin et.
Karar alanını parçalayan bu çizgiler
karar sınırları denir.
Verilerimize yakından bakarsak, görebiliriz.
86 imparator güve doğru sona erecekti
İmparator karar bölgesi içinde, ama
14, luna güve bölgesinde yanlış biterdi.
Öte yandan, 82 luna güve olur
doğru, 18 yanlış tarafa düşüyor.

Arabic: 
يمكن لهؤلاء الخبراء التعرف على الفراشات المختلفة،
فهم لا يسجلون فقط قيم الميزات،
ولكن أيضا يقومون بتسمية هذه البيانات مع مواصفات الفراشة
وهذا ما يسمى البيانات المسماة.
بسبب إنه ليس لدينا سوى اثنين من الميزات، فمن السهل تصور هذه البيانات في مخطط التشتت.
هنا، لقد رسمت بيانات ل 100 فراشة إمبراطور
 باللون الأحمر و 100 فراشة لونا بالأزرق.
يمكننا أن نرى أن الأنواع تشكل مجموعتين،
لكن….
هناك بعض التداخل في الوسط ... لذلك
ليس واضحاً تماما كيفية فصل
الاثنان بالشكل الأفضل.
هذا ما تقوم به خوارزميات تعلم الآلة
- تجد الفصل الأمثل!
سأقوم بفصلها نظرياً وأعتبر أن أي شيء
أقل من 45 ملم في الجناحين من المرجح
أن يكون فراشة الإمبراطور.
ويمكننا أن نضيف قسم آخر يعتبر بالإضافة إلى ذلك
أنه يجب أن تكون الكتلة أقل من 0.75 من أجل
أعتقادنا أن الفراشة هي امبراطور.
هذه الخطوط التي تقطع فضاء القرار
تسمى حدود القرار.
إذا أمعنا النظر في البيانات المتوفرة لدينا، يمكننا أن نرى
أن 86 فراشة إمبراطور تنتمي بشكل صحيح
الى داخل منطقة قرار الامبراطور، ولكن
14 تنتمي بشكل غير صحيح إلى مكان فراشة لونا.
من ناحية أخرى، فإن 82 فراشة لونا تكون
صحيحة، مع 18 تقع على الجانب الخطأ.

English: 
A table, like this, showing where a classifier
gets things right and wrong is called a confusion
matrix... which probably should have also
been the title of the last two movies in the
Matrix Trilogy!
Notice that there’s no way for us to draw
lines that give us 100% accuracy.
If we lower our wingspan decision boundary,
we misclassify more Emperor moths as Lunas.
If we raise it, we misclassify more Luna moths.
The job of machine learning algorithms, at
a high level, is to maximize correct classifications
while minimizing errors
On our training data, we get 168 moths correct,
and 32 moths wrong, for an average classification
accuracy of 84%.
Now, using these decision boundaries, if we
go out into the forest and encounter an unknown
moth, we can measure its features and plot
it onto our decision space.
This is unlabeled data.
Our decision boundaries offer a guess as to
what species the moth is.
In this case, we’d predict it’s a Luna Moth.
This simple approach, of dividing the decision
space up into boxes, can be represented by
what’s called a decision tree, which would
look like this pictorially or could be written
in code using If-Statements, like this.

Korean: 
분류자가 옳고 그름을 어디에서 얻을지를 보여주는 
이러한 테이블을 오차 행렬이라고 합니다.
Matrix Trilogy의 마지막 두 영화 제목이기도합니다!
Matrix Trilogy의 마지막 두 영화 제목이기도합니다!
100 % 정확도를 제공하는 선을 그릴 수 없다는 것을 
주목하십시오.
만약 날개 폭 결정 경계를 낮추면,
황제 나방을 루나처럼 잘못 분류합니다.
경계을 키우면, 루나 나방을 잘못 분류합니다.
기계 학습 알고리즘의 작업은 높은 수준에서 오류를 
최소화하면서 정확한 분류를 최대화하는 것입니다.
기계 학습 알고리즘의 작업은 높은 수준에서 오류를 
최소화하면서 정확한 분류를 최대화하는 것입니다.
훈련 데이터에서 얻은 168개의 일치하는 나방 수와 
32개의 불일치하는 나방 수로
평균 분류 정확도는 84 %입니다.
이제 이러한 결정 경계를 사용하여
숲으로 나가서 알려지지 않은 것을 나방을 만난다면,
그것의 특징을 측정하고 
우리의 의사 결정 공간에 표시할 수 있습니다.
이것은 이름이 지정되지 않은 데이터입니다.
우리의 결정 경계는 나방은 어떤 종인지 
묻는 것에 대한 추측을 제공합니다.
이 경우 루나 나방이라고 예측할 수 있습니다.
의사 결정 공간을 상자로 나누는 이 간단한 접근법은 
결정 트리로 나타낼 수 있으며
보이는 화면처럼 그려지고 ,
코드로는 if문을 사용하여 화면과 같이 쓰여집니다.
보이는 화면처럼 그려지고 ,
코드로는 if문을 사용하여 화면과 같이 쓰여집니다.

Arabic: 
جدول، مثل هذا، يبين فيه أين يحصل المصنف
على الأمور في نصابها الصحيح والخطأ يطلق عليه
مصفوفة الارتباك ... والتي ربما ينبغي أن تكون أيضا
عنوان اثنين من أفلام مشاركة في
Matrix Trilogy!
لاحظ أن ليس هناك أي وسيلة بالنسبة لنا لرسم
الخطوط التي تعطينا 100٪ من الدقة.
إذا خفضنا حدودنا لقرار الجناحين،
سنسيء تصنيف المزيد من فراشات الإمبراطور مثل Lunas.
إذا رفعناها، فإننا سنسيء تصنيف المزيد من فراشات لونا.
وظيفة خوارزميات التعلم الآلي،
على مستوى عال، هو تعظيم التصنيفات الصحيحة
مع التقليل من الأخطاء
على بيانات التدريب لدينا، حصلنا على 168 فراشة صحيحة،
و32 فراشة خطأ، من أجل متوسط
دقة تصنيف 84٪.
الآن، باستخدام حدود القرار هذه، اذا كنا ننوي
الخروج إلى الغابة ونصادف فراشة
مجهولة، يمكننا قياس ميزاته ورسمها
ووضعها على مساحة قرارنا.
هذه هي البيانات غير المسماة.
حدود قرارنا تقدم تخمين ل
ما هي أنواع الفراشات.
في هذه الحالة، نتوقع انها فراشة لونا.
هذا النهج بسيط، تقسيم مساحة القرار
إلى صناديق، يمكن أن يُمثل
بما يسمى شجرة القرار، التي
تبدو كما بهذه الصور أو يمكن أن تكون مكتوبة
في التعليمات البرمجية باستخدام If-Statements، مثل هذا.

Turkish: 
Sınıflandırıcının nerede olduğunu gösteren bir tablo
her şeyi doğru yapar ve yanlış bir karışıklık denir
matris ... ki muhtemelen de olması gereken
'daki son iki filmin adı oldu.
Matrix Üçlemesi!
Dikkat çekmemizin bir yolu olmadığına dikkat edin.
% 100 doğruluk veren çizgiler.
Kanat açıklığı karar sınırımızı düşürürsek,
daha çok imparator güvelerini Lunas olarak yanlış sınıflandırırız.
Eğer onu yükseltirsek, daha fazla Luna güve sınıfını karıştırırız.
Makine öğrenmesi algoritmalarının işi
yüksek düzeyde, doğru sınıflandırmaları en üst düzeye çıkarmaktır
hataları en aza indirirken
Eğitim verilerimizde, 168 ay doğru alıyoruz,
ve ortalama bir sınıflandırma için 32 ay yanlış
% 84 doğruluğu.
Şimdi, bu karar sınırlarını kullanarak
ormana gitmek ve bilinmeyen bir karşılaşma
güve, özelliklerini ölçebilir ve arsa
karar alanımız üzerine.
Bu etiketsiz veridir.
Karar sınırlarımız,
güvenin türü nedir.
Bu durumda, bunun bir Luna Moth olduğunu tahmin ediyoruz.
Bu basit yaklaşım, kararın bölünmesi
kutulara kadar boşluk, tarafından temsil edilebilir
buna karar ağacı denir, ki
resimli olarak görünüyorsun ya da yazılabilir
If-İfadeleri kullanan kodda, böyle.

Arabic: 
خوارزمية تعلم الآلة التي تنتج
أشجار القرار يجب أن تختار ما الميزات
التي تقوم بتقسيمها ... وبعد ذلك لكل من هذه
الميزات، ما هي القيم لاستخدام لتقسيم.
أشجار القرار هي مجرد مثال واحد أساسي
من تقنية التعلم الآلي.
هناك المئات من الخوارزميات في علم الكمبيوتر
اليوم.
وأكثر من ذلك يجري نشرها في كل وقت.
ووحتى هناك عدد قليل من الخوارزميات تستخدم العديد من أشجار القرار
تعمل معا لتعطي تنبؤ.
علماء الكمبيوتر قاموا بتسميتها بشكل متعجرف بالغابات ...
لأنها تحتوي على الكثير من الأشجار.
وهناك أيضا النهج القائمة على "غير شجرة"،
مثل Support Vector Machines، والتي في جوهرها
تقطع مساحة القرار باستخدام خطوط 
تعسفية.
وهذه الخطوط ليس من الضروري أن تكون خطوط مستقيمة.
يمكن أن تكون متعددة الحدود أو
دالة رياضية أخرى.
كما كان من قبل، انها وظيفة تعلم آلة الخوارزمية
لمعرفة أفضل خطوط لتوفير
حدود القرار الأكثر دقة.
حتى الآن، كانت الأمثلة التي ذكرتها فقط تملك اثنين من الميزات،
وذلك سهل بما فيه الكفاية لبشر
ليعرفها.
إذا أضفنا ميزة ثالثة، دعنا نقول، طول
من الهوائيات، ثم خطوط 2D  يصبح مستويات 3D،
تقوم بصنع حدود القرار في ثلاثة أبعاد.
هذه المستويات ليس من الضروري أن تكون مستقيم فقط.

Korean: 
결정 트리를 생성하는 기계 학습 알고리즘은 
무엇이 특징인지를 선택하고 나누어야 합니다.
그리고 그 각각의 특징에 대해 
분할하는 데에 사용할 값이 필요합니다.
의사 결정 트리는 기계 학습 기술의 단지 
하나의 기본 예시일 뿐입니다.
컴퓨터 과학 문헌에는 수백 가지 알고리즘이 있습니다.
그리고 더 많은 것들이 늘 출판되고 있습니다.
몇 가지 알고리즘은 많은 의사 결정 트리를 
작업에 함께 사용해 예측합니다.
컴퓨터 과학자들은 트리를 많이 갖고 있기 때문에
그 숲을 매우 자부합니다.
또한 서포트 벡터 머신과 같은 트리 기반이 아닌 
접근 방식도 있으며, 근본적으로
임의의 선으로 의사 결정 공간을 분할합니다.
그리고 이들은 직선일 필요는 없습니다. 
다항식이나 다른 멋진 수학 함수가 될 수도 있습니다.
그리고 이들은 직선일 필요는 없습니다. 
다항식이나 다른 멋진 수학 함수가 될 수도 있습니다.
전과 마찬가지로, 기계 학습 알고리즘의 일은 가장 정확한 의사 결정 경계선을 찾아내는 것 입니다.
전과 마찬가지로, 기계 학습 알고리즘의 일은 가장 정확한 의사 결정 경계선을 찾아내는 것 입니다.
이제까지 저의 예제에는 사람이 이해 가능한 
두 가지 기능만이 있었지만,
이제까지 저의 예제에는 사람이 이해 가능한 
두 가지 기능만이 있었지만,
세 번째 특징을 추가해서 그것을 길이를 가정하면
2D 라인은 3D 평면이 되고,
결정 차원을 3차원으로 생성합니다.
이 면들은 곧을 필요는 없습니다.

English: 
A machine learning algorithm that produces
decision trees needs to choose what features
to divide on…and then for each of those
features, what values to use for the division.
Decision Trees are just one basic example
of a machine learning technique.
There are hundreds of algorithms in computer
science literature today.
And more are being published all the time.
A few algorithms even use many decision trees
working together to make a prediction.
Computer scientists smugly call those Forests…
because they contain lots of trees.
There are also non-tree-based approaches,
like Support Vector Machines, which essentially
slice up the decision space using arbitrary
lines.
And these don’t have to be straight lines;
they can be polynomials or some other fancy
mathematical function.
Like before, it’s the machine learning algorithm's
job to figure out the best lines to provide
the most accurate decision boundaries.
So far, my examples have only had two features,
which is easy enough for a human to figure
out.
If we add a third feature, let’s say, length
of antennae, then our 2D lines become 3D planes,
creating decision boundaries in three dimensions.
These planes don’t have to be straight either.

Turkish: 
Üreten bir makine öğrenme algoritması
karar ağaçları hangi özellikleri seçmeli
bölmek için… ve sonra her biri için
özellikleri, bölme için hangi değerleri kullanacağınızı
Karar Ağaçları sadece bir temel örnek
Bir makine öğrenme tekniği.
Bilgisayarda yüzlerce algoritma var
bilim edebiyatı bugün.
Ve daha fazlası her zaman yayınlanıyor.
Birkaç algoritma birçok karar ağacı bile kullanır
Bir öngörüde bulunmak için birlikte çalışmak.
Bilgisayar bilim adamları bu ormanları gizlice çağırıyorlar…
çünkü çok fazla ağaç içeriyorlar.
Ağaç temelli olmayan yaklaşımlar da var.
Aslında Destek Vektör Makineleri gibi
keyfi kullanarak karar alanını genişletmek
çizgiler.
Ve bunların düz çizgiler olması gerekmez;
polinomlar veya başka bir fantezi olabilirler
matematiksel işlev
Daha önce olduğu gibi, makine öğrenme algoritması
En iyi hatları bulmak için iş
en doğru karar sınırları.
Şimdiye kadar örneklerim sadece iki özelliğe sahipti.
bir insanın anlayabileceği kadar kolay olan
dışarı.
Üçüncü bir özellik eklersek, diyelim ki uzunluk
antenlerin, sonra 2B hatlarımız 3B uçaklar olur.
üç boyutta karar sınırları oluşturmak.
Bu uçakların da düz olması gerekmez.

Korean: 
게다가, 정말로 유용한 분류자는
많은 다른 나방 종들을 다룰 것입니다.
이제 여러분이 직접 알아내기에는 매우 복잡해져 간다는 것에 동의한다고 생각됩니다.
그러나 이것조차 매우 기본적인 예입니다. 
단지 세 가지 특징과 다섯 종의 나방만이 있습니다.
그러나 이것조차 매우 기본적인 예입니다. 
단지 세 가지 특징과 다섯 종의 나방만이 있습니다.
이 3D 산점도에서는 여전히 이를 시각화 할 수 있습니다.
불행히도, 한 번에 네 가지 특징 또는 20개의 특징을 시각화 할 수 있는 좋은 방법은 없습니다.
수 백 또는 수 천 가지 기능은 말할 것도 없습니다.
그러나 그것은 실제로 많은 기계
학습이 직면한 문제입니다.
수천 차원의 의사 결정 공간에서 졸졸 흐르는 초평면의 
방정식을 알아내는 것을 상상할 수 있습니까?
수천 차원의 의사 결정 공간에서 졸졸 흐르는 초평면의 
방정식을 알아내는 것을 상상할 수 있습니까?
아마도 아닙니다. 그러나 영리한 기계를 갖춘 컴퓨터
학습 알고리즘은 할 수 있고,
Google, 페이스 북, 마이크로 소프트 및 아마존과 같은 곳의 컴퓨터들에서 하루 종일 합니다.
의사 결정 트리나 서포트 벡터 머신과 같은 기술은
데이터를 사용하여 자신있게 의사 결정을 내린 
통계학에 깊은 뿌리를 두고 있습니다.
컴퓨터가 존재하기 전에 오래 전부터 있었죠.
널리 사용되는 통계적 기계 학습 기술의 
매우 큰 클래스가 있지만,
통계학에 기원이 없는 접근법도있습니다.
가장 주목할 만한 것은 우리 두뇌의 뉴런에서 
영감을 얻은 인공 신경망입니다.

English: 
Plus, a truly useful classifier would contend
with many different moth species.
Now I think you’d agree this is getting
too complicated to figure out by hand…
But even this is a very basic example – just three features
and five moth species.
We can still show it in this 3D scatter plot.
Unfortunately, there’s no good way to visualize
four features at once, or twenty features,
let alone hundreds or even thousands of features.
But that’s what many real-world machine
learning problems face.
Can YOU imagine trying to figure out the equation for a hyperplane rippling through a thousand-dimensional
decision space?
Probably not, but computers, with clever machine
learning algorithms can… and they do, all
day long, on computers at places like Google,
Facebook, Microsoft and Amazon.
Techniques like Decision Trees and Support
Vector Machines are strongly rooted in the
field of statistics, which has dealt with
making confident decisions, using data, long
before computers ever existed.
There’s a very large class of widely used
statistical machine learning techniques, but
there are also some approaches with no origins
in statistics.
Most notable are artificial neural networks,
which were inspired by neurons in our brains!

Turkish: 
Ayrıca, gerçekten faydalı bir sınıflandırıcı mücadele eder
birçok farklı güve türüyle.
Şimdi bunun başladığını kabul edersin.
elle anlamak için çok karmaşık ...
Ancak bu bile çok basit bir örnek - sadece üç özellik
ve beş güve türü.
Hala bu 3B dağılım grafiğinde gösterebiliriz.
Ne yazık ki, görselleştirmek için iyi bir yol yok
aynı anda dört özellik veya yirmi özellik
yüzlerce hatta binlerce özellik bile olsa.
Ama bu gerçek dünyadaki birçok makine
öğrenme problemleriyle karşı karşıya.
Binlerce boyutlu dalgalanan bir hiper uçağın denklemini anlamaya çalışmayı hayal edebiliyor musunuz?
karar alanı?
Muhtemelen değil, ama akıllı makineli bilgisayarlar
öğrenme algoritmaları yapabilir… ve yaparlar, hepsi
Google gibi yerlerde bilgisayarlarda gün boyu,
Facebook, Microsoft ve Amazon.
Karar Ağaçları ve Destek gibi Teknikler
Vektör Makineleri şiddetle köklü
ele aldığı istatistik alanı
emin kararlar vermek, verileri kullanmak, uzun
bilgisayarlar hiç var olmadan önce.
Yaygın olarak kullanılan çok büyük bir sınıf var.
istatistiksel makine öğrenme teknikleri, ancak
kökenleri olmayan bazı yaklaşımlar da var
İstatistikler
En dikkat çekici yapay sinir ağları,
beynimizdeki nöronlardan ilham almış!

Arabic: 
بالإضافة إلى ذلك، فإن المصنف المفيد حقا يتعامل
مع العديد من أنواع الفراشات المختلفة.
الآن أعتقد أنك تتفق معي بأن ذلك يصبح
معقد للغاية لمعرفته باليد ...
ولكن حتى هذا هو مثال بسيط جدا - ثلاث ميزات فقط
وخمسة أنواع فراشات.
لا يزال بوسعنا أن نظهره في هذا الرسم البياني المبعثر 3D.
للأسف، لا توجد طريقة جيدة لتصور
أربعة ميزات في وقت واحد، أو عشرين الميزات،
افترض مئات أو حتى آلاف من الميزات.
ولكن هذا ما تواجهه العديد من آلات العالم الحقيقي
من مشاكل.
هل يمكنك أن تتخيل محاولة معرفة معادلة لمساحة تمتد عبر آلاف الأبعاد
من مساحة القرار؟
ربما لا، ولكن أجهزة الكمبيوتر، مع خوارزميات 
تعلم الآلة الذكية تستطيع ذلك... وأنها تفعل كل
يوم طويل، على أجهزة الكمبيوتر في أماكن مثل جوجل،
الفيسبوك، ومايكروسوفت وأمازون.
تقنيات مثل أشجار القرار وSupport Vector Machines
متجذرة بقوة في
مجال الإحصاءات، التي تعاملت مع
اتخاذ قرارات واثقة، وذلك باستخدام البيانات،
قبل وجود أجهزة الكمبيوتر أصلا.
هناك فئة كبيرة جدا من تقنيات التعلم الالي
الإحصائية المستخدمة على نطاق واسع، ولكن
هناك أيضا بعض النهج مع عدم وجود أصول
في الإحصاءات.
أبرزها هي الشبكات العصبية الاصطناعية،
والتي كانت مستوحاة من الخلايا العصبية في أدمغتنا!

Korean: 
생물학적 뉴런 뇌관의 경우
여기에 우리의 세 부분으로 된 개요가 나와 있지만,
기본적으로 뉴런은 처리하고 전기 및 화학 신호를 
사용하는 메시지를 전달하는 세포입니다.
그들은 다른 세포에서 하나 이상의 입력을 받아 
신호를 처리 한 다음 자신의 신호를 방출합니다.
그들은 다른 세포에서 하나 이상의 입력을 받아 
신호를 처리 한 다음 자신의 신호를 방출합니다.
이 거대하게 상호 연결된 네트워크 형태는 
복잡한 정보를 처리할 수 있습니다.
이 youtube 비디오를 보는 여러분의 두뇌처럼요.
인공 뉴런은 매우 비슷합니다.
각각은 일련의 입력을 받아서 결합하고,
신호를 내보냅니다.
전기 또는 화학 신호가 아닌, 인공 뉴런은 숫자를 가지고 입력을 받고 숫자를 뱉어냅니다.
전기 또는 화학 신호가 아닌, 인공 뉴런은 숫자를 가지고 입력을 받고 숫자를 뱉어냅니다.
그들은 링크에 의해 연결되어 있는 계층으로 조직되어 
뉴런의 네트워크를 형성합니다.
그것을 따 이름지었습니다.
신경망이 분류에 어떻게 사용될 수 있는지 
보기 위해 나방 예시로 돌아가 보겠습니다.
첫 번째인 입력단계는
분류가 필요한 한 마리 나방의 데이터를 제공합니다.
다시, 질량과 날개 길이를 사용합니다.
다른 끝에는 출력 단계로 
하나는 황제 나방, 하나는 루나 나방입니다.
다른 끝에는 출력 단계로 
하나는 황제 나방, 하나는 루나 나방입니다.
가장 흥분된 뉴런은 우리의 결정 분류자일 것입니다.

Arabic: 
لفهم الخلايا العصبية البيولوجية، تحقق
من مراجعتنا العامة من ثلاثة أجزاء هنا، ولكن أساسا
الخلايا العصبية هي خلايا تقوم بتحويل ونقل
الرسائل باستخدام الإشارات الكهربائية والكيميائية.
أنها تأخذ واحدة أو أكثر من المدخلات من الخلايا الأخرى،
وتعالج تلك الإشارات، ومن ثم تصدر
إشارتها الخاصة.
وهي تنتمي إلى شبكات مترابطة ضخمة
التي تكون قادرة على معالجة المعلومات المعقدة.
تماما مثل عقلك الذي يشاهد هذا 
الفيديو.
الخلايا العصبية الاصطناعية متشابهة جدا.
يأخذ كل منها سلسلة من المدخلات، ويجمع بينهما،
وتنبعث إشارة.
بدلا من الإشارات الكهربائية أو الكيميائية،
تأخذ الخلايا العصبية الاصطناعية الأرقام لداخلها، وتطلق
أرقام للخارج.
يتم تنظيمها في طبقات ترتبط
بواسطة وصلات، مشكلةً شبكة من الخلايا العصبية، مما يوصلنا إلى
الاسم.
دعونا نعود إلى مثال الفراشة لنرى
كيف يمكن للشبكات العصبية أن تُستخدم للتصنيف.
لدينا الطبقة الأولى - طبقة الإدخال - تقدم
بيانات من فراشة واحدة تحتاج إلى تصنيف.
مرة أخرى، سنستخدم كتلة وجناحين.
في الطرف الآخر، لدينا طبقة الإخراج،
مع اثنين من الخلايا العصبية: واحدة لفراشة الامبراطور
وأخرى لفراشة لونا.
الخلايا العصبية الأكثر إثارة هي قرار التصنيف.

English: 
For a primer of biological neurons, check
out our three-part overview here, but basically
neurons are cells that process and transmit
messages using electrical and chemical signals.
They take one or more inputs from other cells,
process those signals, and then emit their
own signal.
These form into huge interconnected networks
that are able to process complex information.
Just like your brain watching this youtube
video.
Artificial Neurons are very similar.
Each takes a series of inputs, combines them,
and emits a signal.
Rather than being electrical or chemical signals,
artificial neurons take numbers in, and spit
numbers out.
They are organized into layers that are connected
by links, forming a network of neurons, hence
the name.
Let’s return to our moth example to see
how neural nets can be used for classification.
Our first layer – the input layer – provides
data from a single moth needing classification.
Again, we’ll use mass and wingspan.
At the other end, we have an output layer,
with two neurons: one for Emperor Moth and
another for Luna Moth.
The most excited neuron will be our classification
decision.

Turkish: 
Biyolojik nöronların primer için, kontrol
Üç bölümden genel bakışımızı burada, ancak temel olarak
nöronlar işleyen ve ileten hücrelerdir
elektriksel ve kimyasal sinyaller kullanarak mesajlar.
Diğer hücrelerden bir veya daha fazla girdi alırlar,
bu sinyalleri işleyin ve sonra
kendi sinyaliniz.
Bunlar birbirine bağlı büyük ağlara dönüşür.
Bu karmaşık bilgiyi işleyebilmektedir.
Tıpkı beyninin bu youtube'u izlemesi gibi
video.
Yapay Nöronlar çok benzer.
Her biri bir dizi girdi alır, birleştirir,
ve bir sinyal yayar.
Elektriksel veya kimyasal sinyaller olmaktansa,
Yapay nöronlar sayıları alır ve tükürürler.
sayılar.
Bağlanan katmanlar halinde düzenlenirler
linklerle, bir nöron ağı oluşturarak, dolayısıyla
isim.
Görmek için güve örneğimize geri dönelim
Sinir ağlarının sınıflandırma için nasıl kullanılabileceği.
İlk katmanımız - giriş katmanı - sağlar
sınıflandırmaya ihtiyaç duyan tek bir güveden elde edilen veriler.
Yine, kütle ve kanat açıklığını kullanacağız.
Diğer taraftan, bir çıktı katmanımız var.
İki nöron ile: bir tane İmparator Güve ve
Luna Güve için başka.
En heyecanlı nöron bizim sınıflamamız olacak
karar.

Turkish: 
Arada, dönüştüren gizli bir katmanımız var.
girdilerimiz çıktılara girdi ve
sınıflandırma işi.
Bunun nasıl yapıldığını görmek için, yakınlaştıralım
Gizli katmandaki bir nöron.
Bir nöronun yaptığı ilk şey çarpmaktır.
girdilerinin her biri belirli bir ağırlığa göre
ilk girişi için 2.8, bunun için .1
ikinci giriş
Ardından, bu ağırlıklı girdileri bir araya toplar.
Bu durumda olan, büyük bir toplam
9.74.
Nöron daha sonra bu sonuca bir önyargı uygular
- başka bir deyişle, bir sabit ekler veya çıkarır
değer, örneğin eksi altı, yeni bir değer için
3.74.
Bu önyargı ve girdi ağırlıkları başlangıçta
Bir sinir ağı olduğunda rastgele değerlere ayarlamak
yaratıldı.
Sonra bir algoritma girer ve ince ayarlamaya başlar
sinir ağını eğitmek için tüm bu değerleri,
Eğitim ve test için etiketli verilerin kullanılması.
Bu, yavaş yavaş birçok etkileşimin üzerinde gerçekleşir.
doğruluğu artırmak - çok fazla işlem
İnsan öğrenmesi gibi.
Son olarak, nöronların bir aktivasyon işlevi vardır
Ayrıca bir transfer işlevi denir.
çıktıya uygulanan, final yapılması
sonuçta matematiksel değişiklik.
Örneğin, değeri bir aralıkla sınırlamak
negatif olandan ve pozitif olandan veya ayardan

Arabic: 
في الوسط، لدينا طبقة مخفية، التي تحول
المدخلات إلى مخرجات، وتقوم بالعمل
الصعب من التصنيف.
لنرى كيف يتم ذلك، دعونا تقترب من
عصبون في طبقة مخفية.
أول شيء يفعله نيورون هو ضرب كل من المدخلات بوزن معين، دعونا
نقول 2.8 لأول مدخلاته، و0.1
للإدخال الثاني.
ثم، فإنه يجمع هذه المدخلات الموزونة معا،
وهو في هذه الحالة، المجموع الكلي لل
9.74.
ثم يطبق النيورون انحياز إلى هذه النتيجة
- وبعبارة أخرى، فإنه يضيف أو ينقص
قيمة ثابتة، على سبيل المثال، ناقص ستة، لقيمة جديدة
من 3.74.
هذا النحياز والمدخلات الموزونة تكون مبدئيا
قيم عشوائية عند إنشاء الشبكة
العصبية.
ثم، تعمل خوارزمية ، وتبدأ بتغيير وتبديل
كل تلك القيم لتدريب الشبكة العصبية،
باستخدام البيانات المسمى للتدريب والاختبار.
يحدث هذا عدة مرات، تدريجيا
تحسن الدقة - وهي عملية تشبه
كثيراً التعلم الإنساني.
وأخيرا، الخلايا العصبية لديها وظيفة التنشيط،
وتسمى أيضا دالة النقل، التي يتم
تطبيقها على الخرج، مؤديةً
تعديل رياضي نهائي وصولاً الى النتيجة.
على سبيل المثال، تحديد قيمة مجال
من واحد سلبي وإيجابي، أو جعل

English: 
In between, we have a hidden layer, that transforms
our inputs into outputs, and does the hard
work of classification.
To see how this is done, let’s zoom into
one neuron in the hidden layer.
The first thing a neuron does is multiply
each of its inputs by a specific weight, let’s
say 2.8 for its first input, and .1 for it’s
second input.
Then, it sums these weighted inputs together,
which is in this case, is a grand total of
9.74.
The neuron then applies a bias to this result
- in other words, it adds or subtracts a fixed
value, for example, minus six, for a new value
of 3.74.
These bias and inputs weights are initially
set to random values when a neural network
is created.
Then, an algorithm goes in, and starts tweaking
all those values to train the neural network,
using labeled data for training and testing.
This happens over many interactions, gradually
improving accuracy – a process very much
like human learning.
Finally, neurons have an activation function,
also called a transfer function, that gets
applied to the output, performing a final
mathematical modification to the result.
For example, limiting the value to a range
from negative one and positive one, or setting

Korean: 
그 사이에는 숨겨진 층이 있어, 입력을 출력으로 전환하는 어려운 분류 작업을 합니다.
그 사이에는 숨겨진 층이 있어, 입력을 출력으로 전환하는 어려운 분류 작업을 합니다.
이 작업이 어떻게 수행되는지 확인하려면,
숨겨진 층의 한 뉴런을 확대해 봅시다.
뉴런이 하는 첫 번째 일은 각각의 입력에 
특정 가중치를 곱하는 것 입니다.
첫 번째 입력에 대해 2.8, 두 번째 입력에 대해 0.1을 
곱한다고 가정해 봅시다.
그리고 가중 입력을 더하는데 이 경우에는
총 합이 9.74입니다.
그리고 가중 입력을 더하는데 이 경우에는
총 합이 9.74입니다.
그런 다음 뉴런은 이 결과에 바이어스를 적용합니다.
- 즉, 고정 된 값(예 : 마이너스 6)을 더하거나 뺍니다.
이제 새 값인 3.74를 얻습니다.
이러한 바이어스 및 입력 가중치는 초기에
신경망이 만들어질 때 무작위 값으로 설정됩니다.
이러한 바이어스 및 입력 가중치는 초기에
신경망이 만들어질 때 무작위 값으로 설정됩니다.
그런 다음 알고리즘이 들어가서 신경망을 훈련시키는 
모든 값들을 변경하기 시작합니다.
이 때 훈련 및 테스트를 위해 
분류 된 데이터를 사용합니다.
이것은 많은 상호 작용에서 점차적으로
 정확도를 향상시키며 발생합니다.
인간의 학습 과정과 매우 닮아 있습니다.
마지막으로 뉴런에는 전달 함수라고도 불리는 
활성화 함수가 있습니다. 이것이 출력에 적용되면
결과를 위한 최종 수학적인 수정이 수행됩니다.
예를 들어 음수 1에서 양수 1으로 범위를 제한하거나 
음의 값을 0으로 설정합니다.

Turkish: 
0 negatif değeri.
Kullanacağımız bir doğrusal transfer işlevi kullanacağız.
değeri değişmeden geçer, yani 3.74
3.74 olarak kalır.
Yani bizim örneğimiz için nöron, girdiler verilen
55 ve 82, çıkış 3.74 olacaktır.
Bu sadece bir nöron, ama bu süreç
ağırlıklandırma, toplama, ağırlık verme ve uygulama
Bir aktivasyon fonksiyonu herkes için hesaplanır
tabakadaki nöronlar ve değerler yayılır
Şebekede ileri, her seferinde bir katman.
Bu örnekte, çıkış nöronu ile
en yüksek değer bizim kararımızdır: Luna Güve.
Önemli olarak, gizli katmanın
sadece bir katman olmak… birçok katman olabilir
derin.
İşte burası derin öğrenme terimi
dan.
Bu daha karmaşık ağların eğitimi almak
çok daha fazla hesaplama ve veri.
Sinir ağlarının olduğu gerçeğine rağmen
elli yıl önce icat edildi, derin sinirsel
ağlar sadece son zamanlarda pratikti.
güçlü işlemciler sayesinde, ancak daha fazlası
böylece, hızlı hızlı GPU'lar.
Demek istediğin için çok teşekkür ederim.
ipeksi pürüzsüz framerate hakkında!
Birkaç yıl önce, Google ve Facebook
bulabilecek derin sinir ağları gösterdi

Arabic: 
أي قيمة سلبية إلى 0.
سنستخدم دالة تحويل خطية التي
تمرر القيمة من خلالها دون تغيير، لذلك 3.74
يبقى كما 3.74.
إذن من أجل مثالنا، وبالنظر إلى المدخلات
.55 و 82، يكون الإخراج 3.74.
هذا هو مجرد عصبون واحد، ولكن هذه العملية
من الوزن، والجمع، والإزاحة وتطبيق
دالة التفعيل يتم تطبيقها لجميع
الخلايا العصبية في طبقة، والقيم تنتشر
إلى الأمام في الشبكة، طبقة واحدة في كل مرة.
في هذا المثال، عصبون الخرج ذو
أعلى قيمة هي قرارنا: فراشة لونا.
الأهم من ذلك، الطبقة المخفية ليس من  الضروري أن
تكون طبقة واحدة فقط ... يمكن أن تكون عديد من طبقات
عميقة.
من هنا يأتي التعلم العميق.
تدريب هذه الشبكات الأكثر تعقيدا يأخذ
حساب وبيانات أكثر بكثير.
على الرغم من أن الشبكات العصبية كانت
قد اخترعت منذ أكثر من خمسين عاما، فإن الشبكات العصبية
العميقة أصبحت قيد العمل مؤخراً،
بفضل معالجات قوية، وأكثر من ذلك،
وحدات معالجة الرسومات السريعة.
لذلك، شكرا لكم أيها اللاعبين لمطالبتكم 
الشديدة بإطارات أكثر سلاسة!
قبل بضعة سنوات مضت، أظهرت جوجل والفيسبوك
شبكات عصبية عميقة التي يمكن أن تجد

English: 
any negative values to 0.
We’ll use a linear transfer function that
passes the value through unchanged, so 3.74
stays as 3.74.
So for our example neuron, given the inputs
.55 and 82, the output would be 3.74.
This is just one neuron, but this process
of weighting, summing, biasing and applying
an activation function is computed for all
neurons in a layer, and the values propagate
forward in the network, one layer at a time.
In this example, the output neuron with the
highest value is our decision: Luna Moth.
Importantly, the hidden layer doesn’t have
to be just one layer… it can be many layers
deep.
This is where the term deep learning comes
from.
Training these more complicated networks takes
a lot more computation and data.
Despite the fact that neural networks were
invented over fifty years ago, deep neural
nets have only been practical very recently,
thanks to powerful processors, but even more
so, wicked fast GPUs.
So, thank you gamers for being so demanding
about silky smooth framerates!
A couple of years ago, Google and Facebook
demonstrated deep neural nets that could find

Korean: 
예를 들어 음수 1에서 양수 1으로 범위를 제한하거나 
음의 값을 0으로 설정합니다.
우리는 값을 변경하지 않고 전달하는 
선형 전달 함수를 사용할 것입니다.
그러므로 3.74는 3.74로 유지됩니다.
따라서 예제 뉴런의 경우, 입력이 0.55와 82이면 
출력은 3.74가 됩니다.
이것은 단지 하나의 뉴런이지만, 이 가중, 합산, 
바이어스 및 활성화 함수를 적용하는 이 과정은
모든 레이어의 뉴런에 대해 계산되며, 그 값은 네트워크에서 한 번에 하나의 레이어로 전달됩니다.
모든 레이어의 뉴런에 대해 계산되며, 그 값은 네트워크에서 한 번에 하나의 레이어로 전달됩니다.
이 예제에서 출력 뉴런의 가장 큰 값은 
우리의 결정을 루나 나방으로 내립니다.
중요하게도, 숨겨진 레이어는 단 하나의 층이 아니라 
아주 깊고 많은 층이 될 수 있습니다.
중요하게도, 숨겨진 레이어는 단 하나의 층이 아니라 
아주 깊고 많은 층이 될 수 있습니다.
이것이 바로 "딥러닝"이라는 용어의 기원입니다.
이러한 복잡한 네트워크에 대한 훈련은
더 많은 계산 및 데이터를 취합니다.
신경 네트워크가 50년 전에 발명된 사실에도 불구하고,
깊은 신경망은 최근에야 강력한 프로세스 덕분에 
실용적이게 되었고, 훨씬 더 빠른 GPU 덕입니다.
깊은 신경망은 최근에야 강력한 프로세스 덕분에 
실용적이게 되었고, 훨씬 더 빠른 GPU 덕입니다.
그래서 게이머들의 부드럽고 매끄러운 프레임률에 관한 너무나 까다로운 요구에 감사드립니다.

Korean: 
몇 년 전, 구글과 페이스북은 인간 뿐만 아니라 사진에서 
얼굴을 찾을 수 있는 신경망을 보여주었습니다.
사람은 이것에 매우 능숙하죠!
이는 거대한 이정표였습니다.
이제 깊은 신경망이 자동차를 운전하고, 인간의 언어를 번역하고, 건강 상태를 진단하며 훨씬 더 많은 일을 합니다.
이제 깊은 신경망이 자동차를 운전하고, 인간의 언어를 번역하고, 건강 상태를 진단하며 훨씬 더 많은 일을 합니다.
이러한 알고리즘은 매우 정교하지만 그들이 "지능적"이라고 기술되어야 하는지에 대해서는 명확하지 않습니다.
이러한 알고리즘은 매우 정교하지만 그들이 "지능적"이라고 기술되어야 하는지에 대해서는 명확하지 않습니다.
그들은 정말로 나방 분류, 얼굴 찾기, 언어 번역과 같은 
하나의 일을 할 수 있습니다.
이 유형의 AI는 약인공지능 또는 
Narrow AI 라고 불립니다.
이는 특정 업무에만 지능적입니다.
그러나 이것이 유용하지 않다는 게 아닙니다.
진단을 내릴 수있는 의료 기기와
자신을 스스로 주행시킬 수있는 차는 훌륭합니다!
그러나 음악을 작곡하고 자유시간에 맛있는 음식을 찾아보는 그런 컴퓨터가 우리에게 필요할까요?
그러나 음악을 작곡하고 자유시간에 맛있는 음식을 찾아보는 그런 컴퓨터가 우리에게 필요할까요?
아마도 그렇지 않을 겁니다.
그것은 다소 멋져 보일 수 있지만
진정으로 똑똑하고 인간처럼 다재다능한 범용인공지능은  Strong AI라고 불립니다.
진정으로 똑똑하고 인간처럼 다재다능한 범용인공지능은  Strong AI라고 불립니다.
아직까지 아무도 인간 수준의 인공 지능 가까이에 
아무 것도 시연하지 않았습니다.
어떤 사람들은 불가능하다고 주장하지만, 많은 사람들이
Wikipedia 기사, 웹 페이지 및 Youtube 비디오와 같은 
디지털화된 지식의 폭발을
Strong AI에 완벽하게 불태우라고 지적합니다.

Turkish: 
fotoğraflarda olduğu kadar insanlarda da - ve
insanlar bu konuda gerçekten çok iyi!
Çok büyük bir dönüm noktasıydı.
Şimdi derin sinir ağları araba kullanıyor, tercüme ediyor
insan konuşması, tıbbi durumların teşhisi
ve daha fazlası.
Bu algoritmalar çok karmaşık ama
tanımlanmaları gerekip gerekmediği daha az açık
“akıllı” olarak.
Gerçekten sınıflandırmak gibi bir şey yapabilirler
güveler, yüzleri bulmak veya dilleri tercüme.
Bu AI türüne Zayıf AI veya Dar denir
AI.
Sadece belirli görevlerde akıllıdır.
Ancak bu kullanışlı olmadığı anlamına gelmez;
Teşhis edebilecek tıbbi cihazlar demek istiyorum.
ve kendilerini sürdürebilecek arabalar harika!
Fakat bu bilgisayarları oluşturmaya ihtiyacımız var mı?
müzik ve onların lezzetli tarifleri aramak
boş zaman?
Muhtemelen değil.
Her ne kadar bu biraz havalı olurdu.
Gerçekten genel amaçlı AI, akıllı ve akıllı
bir insan olarak çok yönlü, Güçlü denir
AI.
Kimse yakın bir şey göstermedi
Henüz insan düzeyinde yapay zeka.
Bazıları imkansız olduğunu iddia ediyor ama birçok insan
sayısallaştırılmış bilginin patlamasına dikkat çekmek
- Wikipedia makaleleri, web sayfaları ve
Youtube videoları - mükemmel tutuşma
Güçlü AI için.

Arabic: 
الوجوه في الصور فضلا عن البشر - و
البشر هم حقا جيدون في هذا!
كان معلما كبيرا.
حالياً الشبكات العصبية العميقة وقيادة السيارات، وترجمة
خطاب الإنسان، وتشخيص الحالات الطبية
وأكثر بكثير.
هذه الخوارزميات هي متطورة جدا، ولكن
انها أقل وضوحاً ما إذا كان ينبغي أن توصف
بأنها "ذكية".
يمكن لها حقا فقط تفعل شيئا واحدا مثل تصنيف
الفراشات، والعثور على وجوه، أو ترجمة لغات.
ويسمى هذا النوع من AI بـ Weak AI أو Narrow AI.
انها ذكية فقط في مهام محددة.
ولكن هذا لا يعني انها ليست مفيدة؛
أعني الأجهزة الطبية التي يمكن أن تقوم بالتشخيص،
والسيارات التي يمكن أن تقود نفسها أنها مدهشة!
ولكن هل نحن بحاجة إلى تلك الحواسيب لنؤلف
الموسيقى ونبحث عن وصفات لذيذة في
وقت فراغهم؟
على الاغلب لا.
على الرغم من أنه سيكون ظريفا نوعا ما.
الذكاء الصنعي للأغراض العامة، ذكي و
ومشابه بشكل جيد لإنسان، يسمى
Strong AI.
لا أحد أثبت أن هناك أي شيء قريب من
المستوى البشري في الذكاء الاصطناعي حتى الان.
ويرى البعض أنه من المستحيل، لكن الكثير من الناس
أشار إلى انفجار المعرفة الرقمية
- مثل مثالات ويكيبيديا، وصفحات الويب، و
أشرطة فيديو يوتيوب - بأن ذلك هو كمال جيد
لAI قوي.

English: 
faces in photos as well as humans – and
humans are really good at this!
It was a huge milestone.
Now deep neural nets are driving cars, translating
human speech, diagnosing medical conditions
and much more.
These algorithms are very sophisticated, but
it’s less clear if they should be described
as “intelligent”.
They can really only do one thing like classify
moths, find faces, or translate languages.
This type of AI is called Weak AI or Narrow
AI.
It’s only intelligent at specific tasks.
But that doesn’t mean it’s not useful;
I mean medical devices that can make diagnoses,
and cars that can drive themselves are amazing!
But do we need those computers to compose
music and look up delicious recipes in their
free time?
Probably not.
Although that would be kinda cool.
Truly general-purpose AI, one as smart and
well-rounded as a human, is called Strong
AI.
No one has demonstrated anything close to
human-level artificial intelligence yet.
Some argue it’s impossible, but many people
point to the explosion of digitized knowledge
– like Wikipedia articles, web pages, and
Youtube videos – as the perfect kindling
for Strong AI.

Turkish: 
En fazla 24 saat izleyebilmenize rağmen
bir saat youtube, bir bilgisayar izleyebilir
milyonlarca saat.
Örneğin, IBM’in Watson’ı danışır ve sentezler.
200 milyon sayfa içerikten bilgi,
Wikipedia'nın tam metni dahil.
Güçlü bir AI olmasa da, Watson oldukça akıllıdır,
ve Jeopardy'deki insan rekabetini ezdi
2011 yılında geri döndü.
AI'lar yalnızca büyük miktarlarda artışa neden olmaz
bilgi, ancak onlar da öğrenebilirsiniz
zaman, genellikle insanlardan çok daha hızlı.
2016'da Google, Dar bir AlphaGo'yu piyasaya sürdü
İnanılmaz derecede karmaşık tahtayı oynayan AI
oyunu Git.
O kadar iyi ve başarmanın yollarından biri
en iyi insan oyuncuları yenmek, oynayarak oldu
milyonlarca klonu ve milyonlarca
zamanlar.
Neyin işe yarayıp yaramadığını öğrendi.
ve yol boyunca başarılı stratejiler keşfetti
tek başına.
Buna Güçlendirme Öğrenme denir ve
bu süper güçlü bir yaklaşım.
Aslında, insanlara nasıl çok benzer
öğrenirler.
İnsanlar sadece sihirli bir şekilde değil
yürüme yeteneği ... binlerce saat sürer
Bunu denemek için deneme yanılma.
Bilgisayarlar şimdi öğrenmenin zirvesinde
deneme yanılma ve birçok dar sorun için

Arabic: 
بينما يمكنك مشاهدة فقط كحد أقصى 24
ساعة من يوتيوب في اليوم، يمكن لجهاز كمبيوتر مشاهدة
الملايين من ساعة.
على سبيل المثال، IBM’s Watson يتشاور ويجمع
المعلومات من 200 مليون صفحة من المحتوى،
بما في ذلك النص الكامل لويكيبيديا.
وإن لم تكن AI قوي، واتسون ذكي جدا،
وسحق المنافسة البشرية في Jeopardy
في 2011.
لا تقتصر إمكانية الذكاء الصنعي على تخزين كميات كبيرة من
المعلومات، ولكن يمكنها أيضا التعلم
خلال الوقت، وغالبا أسرع بكثير من البشر.
في عام 2016، أظهرت غوغل لأول مرة AlphaGo، وهو Narrow AI
يلعب اللعبة المعقدة جدا
لعبة Go.
واحدة من الطرق التي جعلته جيد جداً وقادر على
التغلب على أفضل لاعبي البشر، كان من خلال
استنساخ اللعب مع نفسه لملايين والملايين من
مرات.
لقد تعلم مما عمل وما لم يعمل،
وعلى طول الطريق، اكتشف استراتيجيات ناجحة
كلها بنفسه.
وهذا ما يسمى التعلم المعزز، و
هي نهج قوية جدا.
في الواقع، انها تشبه الى حد بعيد كيف 
يتعلم البشر.
لا يكتسب الناس القدرة على المشي
بشكل سحري ... يستغرق ذلك آلاف الساعات
من التجربة والخطأ لمعرفة ذلك.
أجهزة الكمبيوتر الآن على أعتاب التعلم
عن طريق التجربة والخطأ، وبالنسبة لكثير من المشاكل الضيقة،

Korean: 
여러분은 하루에 Youtube를 최대 24 시간까지만 볼 수 있지만, 컴퓨터는 수백만시간을 볼 수 있습니다.
여러분은 하루에 Youtube를 최대 24 시간까지만 볼 수 있지만, 컴퓨터는 수백만시간을 볼 수 있습니다.
예를 들어, IBM의 Watson은 Wikipedia의 전문을 포함한 
2억 페이지의 콘텐츠 정보를 참고하고 통합하여
예를 들어, IBM의 Watson은 Wikipedia의 전문을 포함한 
2억 페이지의 콘텐츠 정보를 참고하고 통합하여
Strong AI는 아니지만 꽤 영리합니다.
2011년 Jeopardy에서 인간과 경쟁을 무너 뜨렸습니다.
Strong AI는 아니지만 꽤 영리합니다.
2011년 Jeopardy에서 인간과 경쟁을 무너 뜨렸습니다.
AI는 엄청난 양의 정보를 먹어치울 수 있을 뿐 아니라,
시간을 거쳐 인간보다 훨씬 빠르게 배울 수 있습니다.
AI는 엄청난 양의 정보를 먹어치울 수 있을 뿐 아니라,
시간을 거쳐 인간보다 훨씬 빠르게 배울 수 있습니다.
2016년 Google은 극도로 복잡한 보드게임을 하는 Narrow AI인 AlphaGo를 데뷔시켰습니다.
2016년 Google은 극도로 복잡한 보드게임을 하는 Narrow AI인 AlphaGo를 데뷔시켰습니다.
최고의 인간 선수를 능가하는 방법 중 하나는 수백만 번의 자가 복제를 사용하는 것이었습니다.
최고의 인간 선수를 능가하는 방법 중 하나는 수백만 번의 자가 복제를 사용하는 것이었습니다.
효과가 있는 방법과 그렇지 않은 것을 배웠고,
그리고 그 방법을 따라 성공적인 전략을 발견했습니다.
모두 저절로 말이죠.
이를 강화 학습이라고 하며,
 매우 강력한 접근 방식입니다.
사실, 그것은 인간이 배우는 방식과 매우 흡사합니다.
사람들은 마법으로 걷는 능력을 얻지 않습니다. 
그것을 알아내는 데에 수천 시간의 시행착오가 걸립니다.
사람들은 마법으로 걷는 능력을 얻지 않습니다. 
그것을 알아내는 데에 수천 시간의 시행착오가 걸립니다.
컴퓨터는 이제 시행 착오를 통한 
학습의 끝부분에 놓여 있습니다.

English: 
Although you can only watch a maximum of 24
hours of youtube a day, a computer can watch
millions of hours.
For example, IBM’s Watson consults and synthesizes
information from 200 million pages of content,
including the full text of Wikipedia.
While not a Strong AI, Watson is pretty smart,
and it crushed its human competition in Jeopardy
way back in 2011.
Not only can AIs gobble up huge volumes of
information, but they can also learn over
time, often much faster than humans.
In 2016, Google debuted AlphaGo, a Narrow
AI that plays the fiendishly complicated board
game Go.
One of the ways it got so good and able to
beat the very best human players, was by playing
clones of itself millions and millions of
times.
It learned what worked and what didn’t,
and along the way, discovered successful strategies
all by itself.
This is called Reinforcement Learning, and
it’s a super powerful approach.
In fact, it’s very similar to how humans
learn.
People don’t just magically acquire the
ability to walk... it takes thousands of hours
of trial and error to figure it out.
Computers are now on the cusp of learning
by trial and error, and for many narrow problems,

Turkish: 
Takviye öğrenme zaten yaygın olarak kullanılmaktadır.
Görmek ilginç olacak, eğer bunlar
öğrenme teknikleri türleri uygulanabilir
daha geniş anlamda, insan benzeri, Güçlü
Çocukların nasıl öğrendiği gibi öğrenen AI'ler
süper hızlarda.
Bu olursa, oldukça büyük var.
insanlık deposundaki değişiklikler - bir konu
daha sonra tekrar ziyaret edeceğiz.
İzlediğiniz için teşekkürler.
Haftaya görüşürüz.

English: 
reinforcement learning is already widely used.
What will be interesting to see, is if these
types of learning techniques can be applied
more broadly, to create human-like, Strong
AIs that learn much like how kids learn, but
at super accelerated rates.
If that happens, there are some pretty big
changes in store for humanity – a topic
we’ll revisit later.
Thanks for watching.
See you next week.

Arabic: 
فقد استخدم التعلم المعزز على نطاق واسع.
ما سيكون من المثير أن نراه، هو ما إذا كانت
أنواع تقنيات التعلم هذه يمكن تطبيقها
أكثر على نطاق واسع، لصنع مثيل-للإنسان، ذكاء صنعي قوي الذي يتعلم بشكل مشابه إلى حد كبير الطريقة التي يتعلم بها الأطفال، ولكن
في معدلات متسارعة جداً.
إذا حدث ذلك، هناك بعض التغييرات الكبيرة جدا
في مخزن البشرية - موضوع
سوف نعيد النظر فيه وقت لاحق.
شكرا للمشاهدة.
اراك الاسبوع القادم.

Korean: 
그리고 많은 정밀한 문제들에 대해
강화 학습은 이미 널리 사용됩니다.
기대할 수 있는 흥미로운 것은, 
학습 기술의 유형을 광범위하게 적용시켜서
아이가 배우는 것과 같이 배우지만 초고속으로 배우는 
인간과 같은 강력한 인공지능을 만드는 것입니다.
아이가 배우는 것과 같이 배우지만 초고속으로 배우는 
인간과 같은 강력한 인공지능을 만드는 것입니다.
그런 일이 발생한다면, 
인간성에 대한 커다란 변화가 있을 것입니다.
- 이 주제는 다시 한번 다뤄보도록 하겠습니다.
봐 주셔서 감사합니다.
다음 주에 만나요.
