
English: 
Hi, I’m Jabril, and welcome to CrashCourse
AI!
In the supervised learning episode, we taught
John Green-bot to learn using a perceptron,
a program that imitates one neuron.
But our brains make decisions with 100 billion
neurons, which have trillions of connections
between them!
We can actually do a lot more with AI if we
connect a bunch of perceptrons together, to
create what’s called an artificial neural
network.
Neural networks are better than other methods
for certain tasks like, image recognition.
The secret to their success is their hidden
layers, and they’re mathematically very
elegant.
Both of these reasons are why neural networks
are one of the most dominant machine learning
technologies used today.
[INTRO]
Not that long ago, a big challenge in AI was
real-world image recognition, like recognizing

Korean: 
안녕하세요, Jabril입니다.
CrashCourse AI에 오신 것을 환영합니다!
지도 학습에서 우리는 존 그린 봇에게 하나의 뉴런을 
모방하는 퍼셉션(지각)을 사용하도록 가르쳤습니다.
지도 학습에서 우리는 존 그린 봇에게 하나의 뉴런을 
모방하는 퍼셉션(지각)을 사용하도록 가르쳤습니다.
그러나 우리의 두뇌는 그들 사이에 수 조 개의 연결이
있는 천억개의 뉴런이 결정을 내립니다.
그러나 우리의 두뇌는 그들 사이에 수 조 개의 연결이
있는 천억개의 뉴런이 결정을 내립니다.
인공 신경 네트워크라는 것을 만들기 위해 여러 퍼셉트론을
함께 연결하면 실제로 AI로 더 많은 것을 할 수 있습니다.
인공 신경 네트워크라는 것을 만들기 위해 여러 퍼셉트론을
함께 연결하면 실제로 AI로 더 많은 것을 할 수 있습니다.
신경망은 이미지 인식과 같은 특정한 작업에서
다른 방법보다 낫습니다.
그들의 성공 비결은 숨겨진 레이어들인데,
수학적으로 매우 우아합니다.
그들의 성공 비결은 숨겨진 레이어들인데,
수학적으로 매우 우아합니다.
이 두 가지 이유 때문에 신경망이 오늘날 가장 많이
사용되는 머신 러닝 기술 중 하나입니다.
이 두 가지 이유 때문에 신경망이 오늘날 가장 많이
사용되는 머신 러닝 기술 중 하나입니다.
 
얼마 전까지만 해도, AI의 큰 도전은
인식과 같은 실제 이미지 인식이었습니다.

Arabic: 
شكرا لكريستي ستريم لدعم خدمه البث العامة
للاستوديوهات
مرحبا انا جبريل
مرحبا بكم في كراش كورس للذكاء الاصطناعي
في حلقة التعلم لخاضعة للاشراف
قمنا بتدريس جون غرين-بوت التعلم مستخدام المستقبلات
برنامج يقلد الخلايا العصبيه
لكن عقولنا تتخذ قرارات مع 100 مليار خليه عصبيه
لها تريليونات الروابط بينهم
 AIيمكننا فعل الكثير ب
اذا قمنا بتوصيل مجموعه من الادراك الحسي معا
لانشاء ما يسمى بالشبكة العصبيه الاصطناعيه
 افضل من الطرق الاخرى لمهام معينه AN تعتبر
مثل التعرف على الصور
سر نجاحهم هو طبقاتهم المخفيه
 و هم رياضيات انيقه جدا
 واحده من اكثر تقنيات التعلم الالي AN هؤلاء هم السبب ان
استخداما اليوم

الذكاء الاصطناعي
كراش كورس
من وقت قريب
كبير في الذكاء الاصطناعي AI كان تحدي
هو التعرف على الصور في العالم الحقيقي

English: 
a dog from a cat, and a car from a plane from
a boat.
Even though we do it every day, it’s really
hard for computers.
That’s because computers are good at literal
comparisons, like matching 0s and 1s, one
at a time.
It’s easy for a computer to tell that these
images are the same by matching the pixels.
But before AI, a computer couldn’t tell
that these images are of the same dog, and
had no hope of telling that all of these different
images are dogs.
So, a professor named Fei-Fei Li and a group
of other machine learning and computer vision
researchers wanted to help the research community
develop AI that could recognize images.
The first step was to create a huge public
dataset of labeled real-world photos.
That way, computer scientists around the world
could come up with and test different algorithms.
They called this dataset ImageNet.
It has 3.2 million labeled images, sorted
into 5,247 nested categories of nouns.
Like for example, the “dog” label is nested
under “domestic animal,” which is nested
under “animal.”

Korean: 
예를 들어 개와 고양이, 비행기와 차와 보트 같은 것들이요.
우리는 매일 하고 있지만, 컴퓨터에게는
정말 어려운 일입니다.
이는 컴퓨터가 한 번에 하나씩 0과 1을 일치시키는 것과 
같은 문자 비교에 능숙하기 때문입니다.
이는 컴퓨터가 한 번에 하나씩 0과 1을 일치시키는 것과 
같은 문자 비교에 능숙하기 때문입니다.
컴퓨터에게는 이러한 이미지들을 픽셀에 일치시켜
이미지가 같다는 것을 알려주는 게 더 쉽습니다.
그러나 AI 이전에는, 컴퓨터가 이 이미지들이 같은 개인지
말할 수 없었고,
이 모든 다른 이미지들이 개라고 말할 수
없었습니다.
그래서 Fei-Fei Li라는 교수와, 다른 머신 러닝과
컴퓨터 비전 그룹의 연구자들은
이미지를 인식 할 수있는 AI 개발하는 
연구 커뮤니티를 돕고 싶어했습니다.
첫 번째 단계는 거대하고 대중적인, 레이블된 실제 사진
들의 데이터 세트를 만드는 것이 었습니다.
그렇게 하면 전 세계 컴퓨터 과학자들이
다른 알고리즘을 생각해 내고 테스트할 수 있습니다.
그들은 이 데이터 세트를 '이미지넷'이라고 했습니다.
320만 개의 레이블이있는 이미지가 있으며
5,247 개의 중첩 된 명사 범주로 분류됩니다.
예를 들어, "개" 레이블은 "가축" 아래에 중첩되어 있고,
"동물" 아래에 중첩되어 있습니다.
예를 들어, "개" 레이블은 "가축" 아래에 중첩되어 있고,
"동물" 아래에 중첩되어 있습니다.

Arabic: 
مثل التمييز بين الكلب و القطة
و السيارة من الطائرة من القارب
بالرغم من اننا نقوم بذلك يوميا
الا انه حقا صعب على  اجهزه الكمبيوتر
ذلك لان اجهزه الكمبيوت جيده في المقارنه الحرفيه
 1s 0s  مثل مطابقه
في نفس الوقت
من السهل ان يعرف الكمبيوتر ان هذه الصور هي نفسها
عن طريق مطابقه البيكسلات
AI لكن قبل
لا يستطع الكمبيوتر ان يعرف ان هذه الصور لنفس الكلب
و لا يمكنه ان يقول ان كل هذه الصور المختلفه
كلاب
 لذلك استاذ فاي-فاي لي و مجموعة اخرى من التعلم الالي
و باحثين رؤيه الكمبيوتر
 AI ارادوا مساعده مجتمع البحث لتطوير
الذي يمكنه التعرف على الصور
كانت الخطوه الاولى هي انشاء مجموعه بيانات ضخمه
من صور العالم الحقيقي
و بهذه الطريقه
 علماء الكمبيوتر حول العالم يمكنهم التواصل
الي حلول حيابيه مختلفه و اختبارها
دعوا هذه البيانات بايمدج نت
تحتوي علي 3.2 مليون صورة مصنفه
مصنفه من 5,247 فئه متداخلة من الاسماء
على سبيل المثال يوضع الكلب تحت عنوان حيوان اليف
الذي يوضع تحت عنوان حيوان

Arabic: 
البشر هم الافضل في تصنيف البيانات بشكل موثوق
لكن اذا قام شخص بكل هذا ياخذ 10 ثوان لكل ملصق
بدون نوم او استراحات الوجبات الخفيفه
سيستغرق الامر اكثر من عام
لذك استخدمت ايمدج نت المصادر الجماعيه
و استفادت من قوة الانترنت لتوزيع العمل بثمن بخس
 بين الالاف من الناس
عند وضع البيانات
 بدأ الباحثون مسابقه سنويه في 2010
لتساهم الناس بافضل ما لديهم من حلول للتعرف على الصور
اليكس كريشفسكي الذي كان طالب دراسات عليا
في جامعه تورونتو
في 2012  قرر تطبيق شبكه عصبيه على ايمدج نت
بالرغم من الحلول المماثله
التي لم تنجح في الماضي
المسماه اليكس نت  AN كانت
بضعه ابتكارات تميزها
لقد استخدم الكثير من الطبقات المختفيه
و التي سنصل اليها في دقيقه وحده
استخدم اجهزه اسرع للتعامل مع جميع الرياضيات
 AN التي تقوم بها
تفوقت اليكس نت على افضل الطرق التاليه باكثر من%10
حصلت على 3 من اصل 20 صوره خطأ

Korean: 
데이터를 안정적으로 라벨링하는 것은
인간이 최고로 잘 합니다.
하지만 한 사람이 이 모든 라벨링을 했다면
잠도 안자고, 먹지도 않고 10초에 하나씩 한다고 할 때,
1 년 이상 걸릴 것입니다!
따라서 이미지넷은 크라우드 소싱을 사용하고
인터넷의 힘을 활용하여
수천 명의 사람들에게 작업을 저렴하게 배포했습니다.
데이터가 준비 되면, 연구원들은 2010년에
연례 경쟁을 시작하여
사람들이 이미지 인식에 최고의 솔루션을 제공할 수
있게 했습니다.
토론토 대학에서 졸업한 Alex Krizhevsky를 입력해보세요.
2012년에, 그는 신경망을 적용하기로 결정했습니다.
비록 비슷한 해법이 과거에는 성공하지 못했지만요.
AlexNet이라는 그의 신경망에는
이를 차별화하는 몇 가지 혁신이 있었습니다.
그는 우리가 잠시 후 살펴 볼, 
많은 숨겨진 레이어를 사용했습니다.
그는 또한 더 빠른 계산 하드웨어를 사용하여
신경망이 하는 모든 수학을 다룰 수 있었습니다.
AlexNet은 차기 최고의 접근 방식을 10 % 이상 능가했습니다.
20개의 이미지 중 3개만 틀렸습니다.

English: 
Humans are the best at reliably labeling data.
But if one person did all this labeling, taking
10 seconds per label, without any sleep or
snack breaks, it would take them over a year!
So ImageNet used crowd-sourcing and leveraged
the power of the Internet to cheaply spread
the work between thousands of people.
Once the data was in place, the researchers
started an annual competition in 2010 to get
people to contribute their best solutions
to image recognition.
Enter Alex Krizhevsky, who was a graduate
student at the University of Toronto.
In 2012, he decided to apply a neural network
to ImageNet, even though similar solutions
hadn’t been successful in the past.
His neural network, called AlexNet, had a
couple of innovations that set it apart.
He used a lot of hidden layers, which we’ll
get to in a minute.
He also used faster computation hardware to
handle all the math that neural networks do.
AlexNet outperformed the next best approaches
by over 10%.
It only got 3 out of every 20 images wrong.

Korean: 
학점으로 보면 다른 기술들이 간신히 C-였다면, 
이것은 견고한 B정도였습니다.
학점으로 보면 다른 기술들이 간신히 C-였다면, 
이것은 견고한 B정도였습니다.
2012년부터 신경망 해법은
연례 경쟁을 장악해 왔고,
그 결과는 계속 나아지고 있습니다.
또한 AlexNet은 신경망에 대한 폭발적인 연구를 일으켜
이미지 인식 이외의 많은 분야에 적용하기 시작했습니다.
또한 AlexNet은 신경망에 대한 폭발적인 연구를 일으켜
이미지 인식 이외의 많은 분야에 적용하기 시작했습니다.
신경망이 이러한 분류 문제에 사용되는 방법을 이해하려면,
먼저 아키텍쳐(구성)을 이해해야 합니다.
모든 신경망은 입력 레이어, 출력 레이어 및 그 사이에
있는 수많은 숨겨진 레이어로 구성됩니다.
모든 신경망은 입력 레이어, 출력 레이어 및 그 사이에
있는 수많은 숨겨진 레이어로 구성됩니다.
다른 많은 배열이 있지만, 우리는 예시로
고전적인 다층 퍼셉트론을 사용하겠습니다.
다른 많은 배열이 있지만, 우리는 예시로
고전적인 다층 퍼셉트론을 사용하겠습니다.
입력 레이어는 숫자로 표시된 데이터를 수신하는
신경망이 있는 곳입니다.
각 입력 뉴런은 데이터의 일부 특징인
하나의 특성을 나타냅니다.
특성은 여러분이 도넛에 든 설탕 그램 수를
말하는 것과 같이 간단합니다.
특성은 여러분이 도넛에 든 설탕 그램 수를
말하는 것과 같이 간단합니다.
그러나 실제로는 거의 모든 것이
숫자로 전환 될 수 있습니다.
소리는 음파의 진폭으로 표현 될 수 있습니다.

Arabic: 
Bمن حيث الدرجات كانت تحصل على علامه
C بينما مستوى التقنيات الاخرى كان منخفض
 على المسابقه السنويه AN منذ 2012 استحوذت حلول
و النتائج كانت تتحسن
 AN بالاضافه الى ذلك اليكس نت اثارت انفجار للبحث في
الذي بدأنا في تطبيق الكثير من الاشياء التي تتجاوز التعرف على الصور
لمشاكل التصنيف هذه AN لفهم كيف يمكن استخدام
يجب ان نفهم الهندسه المعماريه اولا
من طبقه ادخال و طبقه اخراج AN تتكون جميع
و اي عدد من الطبقات المختفيه بينهم
هناك العديد من الترتيبات المختلفه
لكننا سنستخدم المدركه الكلاسيكيه متعدده الطبقات
كمثال
بيانات ممثله كالارقام AN طبقه الادخال هي حيث تتلقى
كل الخلايا العصبيه المداخله تمثل ميزه واحده
و هى بعض الخصائص للبيانات
الميزات واضحه اذا كانت تتحدث عن شيء بالفعل رقم
مثل غرام السكر في الدونات
لكن في الحقيقه
يمكن تحويل اي شيء تقريبا الى رقم
يمكن تمثيل الاصوات كانها سعه الموجه الصوتيه

English: 
In grade terms, it was getting a solid B while
other techniques were scraping by with a low
C.
Since 2012, neural network solutions have
taken over the annual competition, and the
results keep getting better and better.
Plus, AlexNet sparked an explosion of research
into neural networks, which we started to
apply to lots of things beyond image recognition.
To understand how neural networks can be used
for these classification problems, we have
to understand their architecture first.
All neural networks are made up of an input
layer, an output layer, and any number of
hidden layers in between.
There are many different arrangements but
we’ll use the classic multi-layer perceptron
as an example.
The input layer is where the neural network
receives data represented as numbers.
Each input neuron represents a single feature,
which is some characteristic of the data.
Features are straightforward if you’re talking
about something that’s already a number,
like grams of sugar in a donut.
But, really, just about anything can be converted
to a number.
Sounds can be represented as the amplitudes
of the sound wave.

English: 
So each feature would have a number that represents
the amplitude at a moment in time.
Words in a paragraph can be represented by
how many times each word appears.
So each feature would have the frequency of
one word.
Or, if we’re trying to label an image of
a dog, each feature would represent information
about a pixel.
So for a grayscale image, each feature would
have a number representing how bright a pixel
is.
But for a color image, we can represent each
pixel with three numbers: the amount of red,
green, and blue, which can be combined to
make any color on your computer screen.
Once the features have data, each one sends
its number to every neuron in the next layer,
called the hidden layer.
Then, each hidden layer neuron mathematically
combines all the numbers it gets.
The goal is to measure whether the input data
has certain components.
For an image recognition problem, these components
may be a certain color in the center, a curve
near the top, or even whether the image contains
eyes, ears, or fur.

Arabic: 
لذلك سيكون لكل ميزه رقم يمثل السعه
في لحظه زمنيه
يمكن تمثيل الكلمات في فقره ب
عدد مرات ظهور كل كلمه
 لذلك سيكون لكل ميزه تردد كلمه واحده
 او اذا كنا نحاول تسميه صوره كلب
فان كل ميزه تمثل امعلومات عن بكسل
لذلك بانسبه لصوره التدرج الرمادي سيكون لكل ميزه رقم
يمثل درجه سطوع البكسل
لكن بالنسبه الصوره الملونه يمكننا تمثيل كل بكسل بثلاثه ارقام
 الاحمر و الاخضر و الازرق
و التي يمكن دمجها لجعل اي لون على شاشه الكمبيوتر
الخاصه بك
بمجرد ان تحتوي الميزات على بيانات
يرسل كل رقم رقمه الى كل خليه عصبيه في الطبقه التاليه
تدعي طبقه خفيه
ثم كل خليه عصبيه مختفيه تجمع رياضيا
 جميع الارقام التي تحصل عليها
الهدف هو قياس اذا كانت بيانات الادخال
تحتوي على مكونات معينه
بالنسبة لمشكله التعرف على الصور
قد تكون هذه المكونات لون معين في المنتصف
، منحني بالقرب من الاعلى
او حتى اذا كانت الصوره تحتوي على عيون
او اذنين او فرو

Korean: 
따라서 각 특성은 순간의 진폭을 나타내는 숫자입니다.
단락의 단어는 각 단어가 몇 번 나타나는지에 따라 표현
될 수 있으므로 각 특성은 하나의 단어 빈도를 갖습니다.
단락의 단어는 각 단어가 몇 번 나타나는지에 따라 표현
될 수 있으므로 각 특성은 하나의 단어 빈도를 갖습니다.
또는 개의 이미지에 라벨을 지정하려는 경우,
각 기능은 픽셀에 대한 정보를 나타냅니다
또는 개의 이미지에 라벨을 지정하려는 경우,
각 기능은 픽셀에 대한 정보를 나타냅니다
회색조 이미지의 경우, 각 특성은
픽셀의 밝기를 나타내는 숫자일 것입니다.
회색조 이미지의 경우, 각 특성은
픽셀의 밝기를 나타내는 숫자일 것입니다.
반면, 컬러 이미지는 세개의 숫자가 있는 픽셀; 빨강,
녹색, 파랑색의 양 각각을 나타낼 수 있습니다.
이들이 섞이면 여러분의 컴퓨터 화면에서 볼 수 있는
어떤 색이든 만들어 냅니다.
특성에 데이터가 있으면, 각 특성은 숨겨진 계층이라고
하는 다음 계층의 모든 뉴런에 해당 수를 보냅니다.
특성에 데이터가 있으면, 각 특성은 숨겨진 계층이라고
하는 다음 계층의 모든 뉴런에 해당 수를 보냅니다.
그런 다음 각 숨겨진 레이어의 뉴런은 그것이 얻는
모든 숫자를 수학적으로 결합합니다.
목표는 입력 데이터가 특정 구성 요소를
갖고 있는지를 측정하는 것입니다.
이미지 인식 문제의 경우, 이러한 구성 요소는
중앙의 특정 색상, 상단 근처의 곡선, 또는
이미지에 눈이나 귀, 털을 포함하고 있는지가 될 수 있습니다.

English: 
Instead of answering yes or no, like the simple
Perceptron from the previous episode, each
neuron in the hidden layer does some slightly
more complicated math and outputs a number.
And then, each neuron sends its number to
every neuron in the next layer, which could
be another hidden layer or the output layer.
The output layer is where the final hidden
layer outputs are mathematically combined
to answer the problem.
So, let’s say we’re just trying to label
an image as a dog.
We might have a single output neuron representing
a single answer - that the image is of a dog
or not.
But if there are many answers, like for example
if we’re labeling a bunch of images, we’ll
need a lot of output neurons.
Each output neuron will correspond to the
probability for each label -- like for example,
dog, car, spaghetti, and more.
And then we can pick the answer with the highest
probability.
The key to neural networks -- and really all
of AI -- is math.
And I get it.
A neural network kind of seems like a black
box that does math and spits out an answer.
I mean, those middle layers are even called
hidden layers!

Korean: 
이전 강의의 퍼셉트론처럼
예 또는 아니오로 대답하는 대신,
숨겨진 층의 각 뉴런은 약간
더 복잡한 수학과 숫자를 출력합니다.
그리고 각 뉴런은 그 숫자를
다음 층의 모든 뉴런에게 보내고, 그 층은
다른 숨겨진 레이어 또는 출력 레이어 일 수 있습니다.
출력 레이어는 마지막의 숨겨진 레이어가 있는 곳으로, 
출력은 문제에 답하기 위해 수학적으로 결합됩니다.
출력 레이어는 마지막의 숨겨진 레이어가 있는 곳으로, 
출력은 문제에 답하기 위해 수학적으로 결합됩니다.
이미지에 개로 라벨을 지정한다고 가정해 보겠습니다.
우리는 이미지가 개인지 아닌지 하나의 답변을 나타내는
단일 출력 뉴런을 가질 수 있습니다.
우리는 이미지가 개인지 아닌지 하나의 답변을 나타내는
단일 출력 뉴런을 가질 수 있습니다.
그러나 답변이 많은 경우, 예를 들어
여러 이미지에 라벨을 붙이고 있다면
더 많은 출력 뉴런이 필요합니다.
각 출력 뉴런은 개, 자동차, 스파게티 등과 같은 
각각의 라벨의 확률에 해당합니다.
각 출력 뉴런은 개, 자동차, 스파게티 등과 같은 
각각의 라벨의 확률에 해당합니다.
그리고 우리는 가장 가능성이 높은 답변을 선택할 수 있습니다.
신경망의 핵심은, 실제 AI의 모든 것은 - 수학입니다.
알겠어요.
신경망은 수학적으로 계산하고 대답을 내뱉는
일종의 블랙박스처럼 보입니다.
제 말은, 중간층이 숨겨진 레이어라고 불린단 거죠!

Arabic: 
بدلا من الاجابه بنعم او لا
مثل التصور البسيط في الحلقه السابقه
كل خليه في الطبقه المختفيه تقوم ببعض الرياضيات الاكثر تعقيدا
و تنتج عددا
بعد ذلك،
 كل خليه عصبيه ترسل رقمها لكل الخلايا العصبيه في الطبقه التاليه
التي يمكن ان تكون طبقه اخرى مختفيه
او طبقه الاخراج
طبقه المخرجات
هي المكان الذي يتم فيه الدمج الرياضي
 لطبقه المخرجات المختفيه النهائيه
 للرد على المشكلات
لذلك دعنا نقول اننا نحاول تسميه
صوره ككلب
قد يكون لدينا خليه من الخلايا العصبيه
تمثل اجابه واحده ان الصوره لكلب ام لا
لكن اذا كان هناك اجابات متعدده مثلا
  اذا كنا نضع مجموعه من الصور
فنحن بحاجه الى الكثير من خلايا المخرجات العصبيه
كل خلايا المخرجات العصبيه
سوف تتوافق مع كل احتمالات التسميه
على سبيل المثال : الكلب ، السياره ،
المعكرونه ، و الكثير
و بعد ذلك يمكننا اختيار الاجابه الصحيحه
باعلى الاحتمالات
AI مفتاح الشبكات العصبيه و كل ال
هي الرياضيات
و انا حصلت عليه
تبدو كمربع اسود AN
يقوم بالرياضيات و يقدم اجابه
اعني ان تلك الطبقات الوسطى ايضا تسمى
بالطبقات المختفيه

English: 
But we can understand the gist of what’s
happening by working through an example.
Oh John Green Bot?
Let’s give John Green-bot a program with
a neural network that’s been trained to
recognize a dog in a grayscale photo.
When we show him this photo first, every feature
will contain a number between 0 and 1 corresponding
to the brightness of one pixel.
And it’ll pass this information to the hidden
layer.
Now, let’s focus on one hidden layer neuron.
Since the neural network is already trained,
this neuron has a mathematical formula to
look for a particular component in the image,
like a specific curve in the center.
The curve at the top of the nose.
If this neuron is focused on this specific
shape and spot, it may not really care what’s
happening everywhere else.

Korean: 
그러나 우리는 예시를 같이 해봄으로써 그안에서
무슨 일이 일어나는지 요점을 이해할 수 있습니다.
존 그린 봇~
존 그린봇에게 회색조 사진에서 개를 인식하도록 훈련된
신경망이 있는 프로그램을 줘 봅시다.
존 그린봇에게 회색조 사진에서 개를 인식하도록 훈련된
신경망이 있는 프로그램을 줘 봅시다.
이 사진을 먼저 보여 주면 모든 특성에는 한 픽셀의
밝기에 해당하는 0과 1 사이의 숫자가 포함됩니다.
이 사진을 먼저 보여 주면 모든 특성에는 한 픽셀의
밝기에 해당하는 0과 1 사이의 숫자가 포함됩니다.
그리고 이 정보를 숨겨진 층에 전달합니다.
이제 하나의 숨겨진 레이어의 뉴런에 초점을 맞추겠습니다.
신경망이 이미 훈련되어 있으므로,
이 뉴런은 수학 공식으로
이미지에서 코 상단의 곡선처럼 중앙의 특정 곡선과 같은
부분적인 구성 요소를 찾습니다.
이미지에서 코 상단의 곡선처럼 중앙의 특정 곡선과 같은
부분적인 구성 요소를 찾습니다.
뉴런이 이 특정 모양과 반점에 초점을 맞추면 다른 곳
에서 일어나는 일을 전혀 신경 쓰지 않을 수 있습니다.
뉴런이 이 특정 모양과 반점에 초점을 맞추면 다른 곳
에서 일어나는 일을 전혀 신경 쓰지 않을 수 있습니다.

Arabic: 
لكن يمكننا فهم خلاصه ما يحدث
عن طريق الامثله
يا جون بوت الاخضر
 AI دعنا نعطي جون بوت الاخضر برنامج مع
الذي تم تدريبه للتعرف على كلب
 في صوره التدرج الرمادي
عندما عرضنا عليه هذه الصوره اولا
كل ميزه تحمل رقم بين 0 الى 1
متشابه مع سطوع بكسل واحد
و سوف يتم نقل هذه المعلومه
الى الطبقه المختفيه
الان دعنا نركز على طبقه عصبيه مختفيه واحده
بالفعل مدربه AN بما ان
لهذه الخليه صيغه رياضيه
 للبحث عن مكون معين في الصوره
مثل منحنى معين في الوسط
المنحنى في الجزء العلوي من الانف
اذا قامت هذه الخليه العصبيه بالتركيز
على الشكل او النقطه المحدده
فقد لا تهتم بالذي يحدث في مكان اخر

English: 
So it would multiply or weigh the pixel values
from most of those features by 0 or close
to 0.
Because it’s looking for bright pixels here,
it would multiply these pixel values by a
positive weight.
But this curve is also defined by a darker
part below.
So the neuron would multiply these pixel values
by a negative weight.
This hidden neuron will add all the weighted
pixel values from the input neurons and squish
the result so that it’s between 0 and 1.
The final number basically represents the
guess of this neuron thinking that a specific
curve, aka a dog nose, appeared in the image.
Other hidden neurons are looking for other
components, like for example, a different
curve in another part of the image , or a
fuzzy texture.
When all of these neurons pass their estimates
onto the next hidden layer, those neurons
may be trained to look for more complex components.
Like, one hidden neuron may check whether
there’s a shape that might be a dog nose.
It probably doesn’t care about data from
previous layers that looked for furry textures,
so it weights those by 0 or close to 0.

Korean: 
따라서 이 대부분의 픽셀 값에 0이나 0과 가까운 값을
곱하거나 가중치를 줍니다.
따라서 이 대부분의 픽셀 값에 0이나 0과 가까운 값을
곱하거나 가중치를 줍니다.
여기에서 밝은 픽셀을 찾고 있기 때문에
이 픽셀 값에 양의 값의 가중치를 곱할 것입니다.
여기에서 밝은 픽셀을 찾고 있기 때문에
이 픽셀 값에 양의 값의 가중치를 곱할 것입니다.
하지만 이 곡선은 더 어두운 부분으로 정의됩니다.
그러므로 뉴런은 이 픽셀 값에 음의 가중치를 곱할 것입니다.
이 숨겨진 뉴런은 모든 가중된 픽셀 값들을 더하고,
0과 1 사이의 결과를 내놓습니다.
이 숨겨진 뉴런은 모든 가중된 픽셀 값들을 더하고,
0과 1 사이의 결과를 내놓습니다.
마지막 숫자는 기본적으로 개 코와 같은 특정 곡선이 
이미지에 나타나는 뉴런 사고의 추측을 나타냅니다.
마지막 숫자는 기본적으로 개 코와 같은 특정 곡선이 
이미지에 나타나는 뉴런 사고의 추측을 나타냅니다.
다른 숨겨진 뉴런은 다른 구성 요소를 찾고 있습니다.
예를 들어, 이미지의 다른 부분에 있는 다른 곡선,
또는 보송보송한 질감 같은 것들이죠.
이 모든 뉴런이 다음의 숨겨진 층으로 추정치를 통과시키면
이 뉴런들은 더 복잡한 구성 요소를 찾도록 훈련할 수 있습니다.
마찬가지로 하나의 숨겨진 뉴런이 
개 코 모양 일 수 있는지 확인할 수 있습니다.
아마도 그것은 보송한 질감의 이전 레이어 데이터에는
신경 쓰지 않을 것입니다.
따라서 0에 가까워 지거나 0의 가중치를 줍니다.

Arabic: 
اذا سيتم مضاعفه قيم البيكسلات او وزنها من معظم الميزات
بمقدار 0 او بالقرب من 0
لانها هنا تبحث عن البيكسلات الساطعه
يمكن مضاعفه قيم هذه البيكسلات
بالوزن الايجابي
لكن يتم تعريف هذا المنحنى ايضا
بالجزء الاغمق في الاسفل
لذلك هذه الخليه العصبيه
سوف تضاغف قيم الميزات بوزن سالب
هذه الخليه العصبيه المختفيه
ستضيف جميع قيم البيكسلات الموزون
من الخلايا المدخله
 و سحق النتيحه بحيث تكون بين 0 و 1
الرقم النهائي
يمثل تفكير هذه الخليه العصبيه في منحنى محدد
ظهر باسم انف الكلب في الصوره
الخلايا العصبيه الاخرى تبحث عن مكزنات اخرى
مثل منحنى مختلف في جزء اخر من الصوره
او نسيج غامض
عندما تنقل الخلايا العصبيه التقديرات
للطبقه المختفيه التاليه
الخلايا العصبيه قد تم تدريبهم
للبحث عن مكونات اكثر تعقيدا
مثل خليه عصبيه مختفيه قد تحقق
اذا كان هناك شكل يمكن ان يكون انف كلب
ربما لا تهتم بالبيانات من الطبقه السابقه
التي بحثت عن نسيج غامض
لذلك يتزن هؤلاء بمقدار 0
او بالقرب من 0

Korean: 
그러나 그것은 실제로는 "코 끝과 바닥", "콧구멍"을 찾은
뉴런에는 관심이 있을 수 있습니다.
그러나 그것은 실제로는 "코 끝과 바닥", "콧구멍"을 찾은
뉴런에는 관심이 있을 수 있습니다.
그것에게는 큰 양수로 가중치를 부여합니다.
다시, 이전 레이어 뉴런에서 온 모든 가중치 값을 더하고,
0에서 1 사이의 값을 짜내서 다음 층으로
이 값을 전달합니다.
그 요점은 숫자로 되어있지만,
우리는 비트로 단순화 합니다.
신경망이 실제로 "코"나 "눈꺼풀"같은 것들을
이해하지 못하는걸 아는 것은 중요합니다.
신경망이 실제로 "코"나 "눈꺼풀"같은 것들을
이해하지 못하는걸 아는 것은 중요합니다.
각 뉴런은 주어진 데이터로 계산하고
빛과 어둠의 특정한 패턴에 표시를 하고 있습니다.
각 뉴런은 주어진 데이터로 계산하고
빛과 어둠의 특정한 패턴에 표시를 하고 있습니다.
숨겨진 레이어를 몇 개 더 지나면
하나의 뉴런으로 출력 레이어에 도달합니다.
따라서 출력 뉴런에서 발생하는 
이전 레이어의 데이터를 한 번 더 가중한 뒤에
이미지가 개라면 네트워크의 추정치가 양호해야합니다.
즉, 존 그린봇은 결정을 내려야 합니다.
출력 뉴런 값 : 0.93입니다.
이것이 개일 확률은 93 %입니다!

English: 
But it may really care about neurons that
looked for the “top of the nose” and “bottom
of the nose” and “nostrils”.
It weights those by large positive numbers.
Again, it would add up all the weighted values
from the previous layer neurons, squish the
value to be between 0 and 1, and pass this
to the next layer.
That’s the gist of the math, but we’re
simplifying a bit.
It’s important to know that neural networks
don’t actually understand ideas like “nose”
or “eyelid.”
Each neuron is doing a calculation on the
data it’s given and just flagging specific
patterns of light and dark.
After a few more hidden layers, we reach the
output layer with one neuron!
So after one more weighted addition of the
previous layer’s data, which happens in
the output neuron, the network should have
a good estimate if this image is a dog.
Which means, John Green-bot should have a
decision.
John Green-bot: Output neuron value: 0.93.
Probability that this is a dog: 93%!

Arabic: 
لكنها تهتم بالخلايا العصبيه التي تبحث عن
قمه و قاع الانف و الخياشيم
انها توزنهم باعداد ايجابيه كبيره
 مره اخرى سوف تضاف كل القيم الموزونه
من الطبقه العصبيه السابقه
و سحق القيمه لتكون بين 0 و 1
و تنقل هذا الى الطبقه الاخرى
هذه هي خلاصه الرياضيات
لكننا نقوم بتبسيط بعض الاشياء
من المهم ان تعرف ان الخليه العصبيه
لا تفهم فعلا افكار مثل الانف او الجفن
كل خليه عصبيه تقوم بحسابه البيانات
التي تقدمها
و فقط الابلاغ عن انماط محدده
من الضوء و الظلام
بعد عدد قليل من الطبقات المختفيه
نصل الي طبقه المخرجات بخلايا عصبيه واحده
لذلك بعد اضافه واحده لبيانات الطبقه السابقه
التي تحدث في خليه الاخراج العصبيه
يجب ان تحصل الشبكه على تقدير جيد
اذا كانت الصورة لكلب
مما يعني ان جون بوت الاخضر
يجب ان يكون له قرار
جون بوت الاخضر : ناتج قيمه الخلايا العصبيه 0.93
احتماليه ان يكون كلب % 93

English: 
Hey John Green Bot nice job!
Thinking about how a neural network would
process just one image makes it clearer why
AI needs fast computers.
Like I mentioned before, each pixel in a color
image will be represented by 3 numbers --- how
much red, green, and blue it has.
So to process a 1000 by 1000 pixel image,
which in comparison is a small 3 by 3 inch
photo, a neural network needs to look at 3
million features!
AlexNet needed more than 60 million neurons
to achieve this, which is a ton of math and
could take a lot of time to compute.
Which is something we should keep in mind
when designing neural networks to solve problems.
People are really excited about using deeper
neural networks, which are networks with more
hidden layers, to do deep learning.
Deep networks can combine input data in more
complex ways to look for more complex components,
and solve trickier problems.

Arabic: 
وظيفه لطيفه يا جون بوت الاخضر
لصوره واحده فقط AN التفكير في كيفيه معالجه
  AI يجعل الامر اكثر وضوحا لماذا يحتاج
الى اجهزه كمبيوتر سريعه
كما ذكرت سابقا
سيتم تمثيل كل بيكسل في صورة ملونه بثلاث ارقام
كم عدد الاحمر و الاخضر و الازرق
ولمعالجه صوره 1000 في 1000 بكسل
التي بالمقارنه لصوره صغيره 3 في 3 بوصه
تحتاج الشبكه العصبيه الى البحث عن 3
 مليون ميزه
احتاجت اليكس نت اكثر من 60 ملون خليه عصبيه
لتحقيق هذا
و هو طن من الرياضيات 
و يمكن ان تاخذ الكثير للحساب
و هذا شيء يجب ان نضعه في عين الاعتبار 
عند تصميم الشبكات العصبيه لحل المشاكل
الناس متحمسون لاستخدام شبكات عصبيه اعمق
و هي شبكات بطبقات مختفيه اكثر 
للقيام بعلم اعمق
يمكن للشبكات العميقه دمج بيانات الادخال 
بطرق اكثر تعقيدا
للبحث عن مكونات اكثر تعقيدا 
و حل المشكلات

Korean: 
헤이 존 그린봇, 잘했어!
신경망이 어떻게 이미지 하나를 처리하는지 생각해보면
왜 AI에게 빠른 컴퓨터가 필요한지가 명확해집니다.
신경망이 어떻게 이미지 하나를 처리하는지 생각해보면
왜 AI에게 빠른 컴퓨터가 필요한지가 명확해집니다.
앞에서 언급했듯, 색상의 각 픽셀
이미지는 3개의 숫자로 표시됩니다.
- 빨강, 초록, 파랑을 얼만큼 갖고 있는지로요.
작은 3 x 3 인치 사진일 때, 
1000 x 1000 픽셀 이미지를 처리하려면
신경망은 3백만개의 특성을 찾을 필요가 있습니다!
AlexNet에는 이를 달성하기 위해 6천만 개 
이상의 뉴런이 필요했습니다.
이는 계산하는 데 어마어마한 수학과 많은 시간이 걸립니다.
우리가 명심해야 할 것은 문제를 해결하기 위해
신경망을 디자인하는 것입니다.
사람들은 딥 러닝을 하기 위해 더 숨겨진 레이어의
더 깊은 신경망을 사용하는 것에 정말 흥분합니다.
사람들은 딥 러닝을 하기 위해 더 숨겨진 레이어의
더 깊은 신경망을 사용하는 것에 정말 흥분합니다.
딥 네트워크는 더 복잡한 구성 요소를 찾기 위해 
더 복잡한 방법으로 입력 데이터를 결합하고
까다로운 문제를 해결합니다.

Korean: 
그러나 우리는 모든 네트워크를 10억 개의 층처럼
깊게 만들 수는 없습니다.
왜냐하면 숨겨진 층이 많을수록, 더 많은 수학과,
더 빠른 컴퓨터가 필요함을 의미하기 때문이죠.
또한 네트워크가 깊어 질수록 우리에게 왜 신경망이 그런
대답을 주는지 이해하기 어려워집니다.
또한 네트워크가 깊어 질수록 우리에게 왜 신경망이 그런
대답을 주는지 이해하기 어려워집니다.
첫 번째 숨겨진 레이어의 각 뉴런은 입력 데이터의
특정 구성 요소를 찾고 있습니다.
그러나 더 깊은 계층에서 이러한 구성 요소는 인간이
동일한 데이터를 설명하는 방식에서 더 추상화됩니다.
그러나 더 깊은 계층에서 이러한 구성 요소는 인간이
동일한 데이터를 설명하는 방식에서 더 추상화됩니다.
이게  큰 문제가 아닌 것 같지만, 예를 들어
신경망이 대출을 거부하는 데 사용 된 경우
우리는 이유를 알고 싶습니다.
어떤 특성이 차이를 만들어 냈습니까?
그들은 최종 답변을 어떻게 평가했습니까?
많은 국가에서 이러한 결정이 된 이유를 이해할 수 있는
법적 권리가 있습니다
많은 국가에서 이러한 결정이 된 이유를 이해할 수 있는
법적 권리가 있습니다
신경망은 우리 삶에 대한 점점 더 많은 결정을 내리는 데
사용되고 있습니다.
예를 들어 대부분의 은행은 신경망을 사용해서
사기를 감지하고 방지합니다.
자궁 경부암의 자궁 경부 세포진 검사와 같은 
많은 암 검사는 신경망을 사용하여
현미경으로 세포의 이미지를 보고 
암 위험이 있는지 여부를 결정합니다.

English: 
But we can’t make all networks like a billion
layers deep, because more hidden layers means
more math which again would mean that we need
faster computers.
Plus, as a network get deeper, it gets harder
for us to make sense of why it’s giving
the answers it does.
Each neuron in the first hidden layer is looking
for some specific component of the input data.
But in deeper layers, those components get
more abstract from how humans would describe
the same data.
Now, this may not seem like a big deal, but
if a neural network was used to deny our loan
request for example, we’d want to know why.
Which features made the difference?
How were they weighed towards the final answer?
In many countries, we have the legal right
to understand why these kinds of decisions
were made.
And neural networks are being used to make
more and more decisions about our lives.
Most banks for example use neural networks
to detect and prevent fraud.
Many cancer tests, like the Pap test for cervical
cancer, use a neural network to look at an
image of cells under a microscope, and decide
whether there’s a risk of cancer.

Arabic: 
و لكن لا يمكننا جعل كل الشبكات
 كمليار طبقه عميقه
لان الزيد من الطبقات امختفيه
تعني المزيد من الرياضيات
التي مره اخرى تعني اننا بحاجه الى 
اجهزه كمبيوتر اسرع
بالاضافه الى ذلك
كلما اصبحت الشبكه اكثر عمقا
اصبح من الصعب علينا فهم لماذا تعطينا هذه الاجابات
كل خليه في الطبقه المختفيه الاولى 
تبحث عن مكونات محدده في بيانات الادخال
لكن في الطبقات الاعمق
تلك المكونات تصبح اكثر تجريدا 
من كيف يوصف البشر نفس البيانات
الان لا تبدوا كمشكله كبيره
لكن اذا استخدمت الشبكه العصبيه لرفض طلب القرض مثلا
فنحن نريد معرفه السبب
ما هي الميزات التي صنعت الفرق؟
و كيف تم وزنها نحو الجواب النهائي؟
في بلاد كثيره لدينا الحق القانوني 
لفهم لماذا صنعت هذه الانواع من القرارات
و تستخدم الشبكات العصبيه 
لاتخاذ المزيد من القرارات في حياتنا
معظم البنوك مثلا تستخدم الشبكات العصبيه 
لاكتشاف و منع الاحتيال
في اختبارات السرطان مثل اختبار سرطان عنق الرحم 
تستخدم الشبكه العصبيه
للنظر على الخلايا في الصوره 
لتحديد اذا كان هناك خطر الاصابه بالسرطان

Arabic: 
الشبكه العصبيه هي كيفيه فهم اليكسا
لتشغيل الاغنيه التي تطلبها منها
و كيف يقترح الفيس بوك العلامات علي صورنا
فهم كيف يحدث كل هذا مهم كونك انسان
سواء كنت ترغب في انشاء شبكتك العصبيه او لا
كل هذه الاشياء كانت صور
 لكن البرنامج الذي قدمناه لجون بوت الاخضر
كان مضرب بالفعل للتعرف على الكلاب
الخلايا العصبيه لديها خوارزميات
 توزن طبقات الادخال
في المره القادمه
سوف نتحدث عن عمليه التعليم
التي تستخدمها الشبكات العصبيه
للوصول الي الاوزان الصحيحه لكل خليه
و لماذا نحتاج الكثير من البيانات
للعمل بشكل جيد
شكرا لكريستي ستريم لدعم خدمه البث العامة
للاستوديوهات
كريستي ستيرم هي خدمه تدفق الاشتراك
التي تقدم افلام وثائقيه و القاب غير خياليه
من مجموعه متنوعه من صناع الافلام
بما في ذلك اصول الفضوليين
مثلا يمكنك التدفق الي العالم الضولي
 و هو اكثر من موسمين
تجيب الحلقات عن اساله مثل
هل يمكن ان يحكم الانسان الالي العالم؟

English: 
And neural networks are how Alexa understands
what song you’re asking her to play and
how Facebook suggests tags for our photos.
Understanding how all this happens is really
important to being a human in the world right
now, whether or not you want to build your
own neural network.
So this was a lot of big-picture stuff, but
the program we gave John Green-bot had already
been trained to recognize dogs.
The neurons already had algorithms that weighted
inputs.
Next time, we’ll talk about the learning
process used by neural networks to get to
the right weights for every neuron, and why
they need so much data to work well.

Korean: 
신경망은 Alexa가 여러분이
그녀에게 어떤 노래를 연주하라고 요청한 것을 이해하고,
Facebook에서 사진 태그를 제안하는 방법입니다.
이 모든 일이 어떻게 일어나는지 이해하는 것이 
지금 세계의 인간에게는 매우 중요합니다.
여러분이 여러분 자신의 신경망을 구축하길 원하든,
원하지 않든지간에요.
이건 큰 그림 이었지만,
우리가 존 그린봇에게 준 프로그램은 이미
개를 인식하도록 훈련되었습니다.
뉴런은 이미 입력된 가중치를 둔 
알고리즘을 가지고있었습니다.
다음에는 신경망이 모든 뉴런에 적합한 
가중치를 얻기 위해 사용하는 학습 프로세스와
이들이 제대로 작동하기 위해 많은 양의 데이터가 필요한
이유에 대해 이야기하겠습니다.

Arabic: 
يمكنك تعلم المزيد عن طريق
curiositystream.com/crashcourse
او اضغط على الرابط في الوصف
  AI يتم انتاج كراش كورس
  للاستوديوهات PBS بالتعاون مع
اذا كنت ترغب في الحفاظ على دوره كراش كورس
مجانيه للجميع و الى الابد
يمكنك الانضمام الى موقعنا
و ذا كنت تريد عرفه المزيد عن الرياضيات
 خلف الشبكه العصبيه
تحقق من هذا الفيديو 
من كراش كورس الاحصائيه عنهم
ترجمة: ميرنا علاءالدين 

English: 
Crash Course Ai is produced in association with PBS Digital Studios.
If you want to help keep all Crash Course
free for everyone, forever, you can join our
community on Patreon.
And if you want to learn more about the math
behind neural networks, check out this video
from Crash Course Statistics about them.

Korean: 
Crash Course Ai는 PBS Digital Studios와 연계하여 제작됩니다.
Crash Course가 모두를 위해 무료일수 있도록
도움을 주시고 싶으면 Paetron 커뮤티에 가입해주세요!
Crash Course가 모두를 위해 무료일수 있도록
도움을 주시고 싶으면 Paetron 커뮤티에 가입해주세요!
그리고 신경망 뒤의 수학에 대해 더 배우고 싶으시다면
크래시 코스 통계에서 배울 수 있습니다.
그리고 신경망 뒤의 수학에 대해 더 배우고 싶으시다면
크래시 코스 통계에서 배울 수 있습니다.
