
Arabic: 
إذاً، قد تكون قد سمعت كثيراً مؤخراً
عن الشبكات العميقة أو الشبكات العصبية
أبنية التعلم العميق. ما هي
هذه؟ وكيف حدثت؟
سنتحدث بشأن هذا، بدءاً من
بداية ما يدعى ببحث الشبكة العصبية
وتتبعه إلى حيث
وصل اليوم، يمكن أن يرجع بحث الشبكة
العصبية الحديث،إلى
العالم النفسي Donald Hebb في أربعينيات القرن الماضي
لقد اقترح Donald Hebb Hk أنّ شبكات
الوحدات البسيطة تتبع قواعد تعلم
بسيطة جداً، يمكن أن تتعلم فهم
وصياغة أنماط معقدة جداً،
أبسط قاعدة اقترحها هي:
إن كان هناك وحدتين فعالتين فقط في نفس
الوقت، نجعل الاتصال بينهم
أقوى قليلاً، وإن لم
يكونا فعّالتين في نفس الوقت،

English: 
so recently you might have heard a lot about
deep networks or neural networks or
deep-learning architectures what are
these and how did they come about we'll
talk about this starting from the
beginning of so-called neural network
research and tracing it to where it has
gotten to today modern neural network
research can be traced back to the
psychologist Donald Hebb in the 1940s
Donald Hebb proposed that networks of
simple units following very simple
learning rules can learn to understand
and model very complicated patterns and
the simplest rule that he proposed is
just if two units are active at the same
time make the network connection between
them a little bit stronger and if
they're not active at the same time make

Arabic: 
نجعله أضعف قليلاً. إذاً، لقد كان
هذا مستوحى بشكلٍ كبير من أفكاره عن
الخلايا العصبية الحيوية، وكيف قد تتعلم
أنماط و منذ ذلك الحين
لقد وجدنا فعلاً أنّ الخلايا العصبية الحيوية
تحمل بعض هؤلاء القواعد البسيطة،
هؤلاء القواعد الذين اقترحهم Donald Hebb
يدعون اليوم بالتعلم الثقيل،
إنّهم مختلفين قليلاً عمّا
استخدم في التعلم المراقب،
إنّهم يلعبون دوراً أكبر في التعلم
المراقب. إذاً، لن نتحدث عنهم بعمق،
لكن لقد كان هذا بداية لمفهومنا
لشبكات الخلابا العصبية، والذي هم
نماذج لوحدات بسيطة
متصلة مع بعضها البعض، والتي تتعلم
من خلال تغيير الأوزان بين
الوحدات، الآن. تنهض الشبكات العصبية
الحديثة من عمل Frank Rosenblatt
والذي كان عالماً نفسياً آخر،
والذي اخترع في خمسينيات القرن الماضي
مايدعى بالمستقبلات. لقد كانت المستقبلات
نموذج حسابي للتعلم ولقد
كان مبنى مراقباً بالفعل.
إذاً كان يستطيع التعلم ليتنبأ الأنماط
المعطاة لها. ولقد برهن

English: 
it a little bit weaker so this was
largely inspired by his ideas about
biological neurons and how they might
learn patterns and since then we've
actually found that biological neurons
do carry out some of these simple rules
these rules that Donald Hebb proposed
are today called heavy and learning
they're a little bit different than
what's used in supervised learning they
play a bigger part in unsupervised
learning so we won't talk in depth about
them but this was the beginning of our
conception of neural networks which are
models of simple units that are
connected to each other and that learn
by changing the weights between the
units now the modern neural network
really arose with the work of Frank
Rosenblatt who was another psychologist
and who in the 1950s invented what he
called the perceptron the perceptron was
a computational model of learning and it
was already a supervisor's architecture
so he could learn to predict patterns
that were given to it and Frank

Arabic: 
Frank Rosenblatt في خمسينيات القرن الماضي
أنّ بإمكانه تدريب المستقبلات لتميّز
أنماط بسيطة كالأحرف، ولقد ولّد هذا
في الواقع الكثير من الإثارة في ذلك الوقت،
لأنّ هذا لم يسبق له مثيل إلى حدٍّ ما.
في أبحاث الذكاء الصنعي.
إذاً، كيف تعمل المستقبلات، حسناً، كما قلت
تتألف المستقبلات من عدة وحدات بسيطة
والتي تدعى خلايا عصبية أو عقد،
ونرى في الرسم البياني هذا، التخطيط
الأساسي. إذاً ها هنا
مايدعى بالخلايا العصبية المدخلة والتي
علّمتها بـ X 1 و X 2.
الآن، إن كنّا نتذكر من مناقشتنا السابقة
لتصنيف شيءٍ ما، كصور
الكلاب والقطط، ولقد رسمناهم بيانياً
ببعدين، سيكون هذان البعدان
الأعداد التي تم إدخالها X 1 و X 2،
لكن بالطبع يعني ذلك أنّه بإمكاننا
الحصول على الكثير من المداخل الإضافية، يمكننا الحصول
على آلاف المداخل إذا أردنا،
لأسباب مفاهيمية، سنبقيها بسيطة
قدر المستطاع. إذاً لدينا خليتين عصبيتين

English: 
Rosenblatt in the 50s demonstrated he
could train the perceptron to recognise
simple patterns like letters and this
generated actually a lot of excitement
at the time because this is pretty
unprecedented in AI research so how does
a perceptron work well a perceptron
consists like I said of several simple
units which are called neurons or nodes
and in this diagram we see the essential
layout so the here the
two so-called input neurons which I have
labeled with X 1 and X 2 now if we
remember our previous discussion of
classifying something like images of
dogs and cats and we plotted them in two
dimensions these two dimensions would be
the numbers that are fed into X 1 and X
2 but of course that means that we can
have many more inputs we could have
thousands of inputs if we wanted for
conceptual reasons we'll keep it as
simple as possible so we have two input

Arabic: 
مدخلتين X 1 و X 2، هاتين مدمموجتين
باستخدام شيئاً ما يدعى المجموع المرجّح.
إذاً، هناك بالأساس وزن لكل خلية عصبية
من هذه الخلايا، ويمكن أن يككون لدى الخليىة العصبية
قيمة معينة، ونضرب تلك القيمة
بالوزن، ومن ثمّ نجمععهم
معاً، كما ترى في الدائرة
الزرقاء بعد ذلك، يمر المجموع المرجّح
عبر شيءٍ ما يدعى
اللاخطية. الآن، اللاخطية هو
دالة غير خطية، وما تستخدمه
المستقبلات، يدعى عتبة
اللاخطية، وتقول بالأساس أنّه
إذا كان المجموع المرجّح تحت عتبة ما،
سأضع صفر، وإذا كان فوق عتبة ما،
سيكون الناتج 1. إذاً، إنّه كاختصار.
الآن، تتضمن خورازمية التعلم
للمستقبلات ضبط الأوزان،
هنا وزن 1 و في الواقع
أيضاً العتبة B. إذاً
بالنسبة لتعلم اقتران معين من الخلية
العصبية المدخلة 0 أو 1، ويمكن أن تكون النواتج
كلب أو قط على سبيل المثال. من الآن فصاعداً

English: 
neurons X 1 and X 2 these are combined
using something called a weighted sum so
essentially for each of these neurons
there's a weight and the neuron can have
a certain value and we multiply that
value by the weight and then we sum them
together that's you see that in the blue
circle and after that the weighted sum
is passed through something called the
non-linearity now non-linearity is just
a nonlinear function and what the
perceptron uses is called a threshold
non-linearity and it basically says if
the weighted sum is below some threshold
I'll put a zero and if it's above some
threshold output a 1 so it's like a
cutoff now the learning algorithm for
perceptrons involves adjusting the
weights here weight 1 and weight - and
actually also the threshold B so as to
learn a certain mapping from the input
neurons to 0 or 1 outputs which could be
for example cat or dog from now on I'll

English: 
represent the weighted sum and the
non-linearity is a combined neuron in
this greenish blue color and this will
show up in later slides now if you
remember before I discussed how a
supervised learning we have some
training data set that has for example
inputs from two classes although it
could be more classes but to keep it
simple two classes and we learn a
surface that separates inputs from one
class and the other class now this kind
of perception that you see here this
surface is a line and we know it's a
line if you remember a little bit from
high school geometry because a weighted
sum essentially defines a line so in
this case we have a way
it's um and then we check whether it's
above or below the threshold and this
actually creates this linear separating
surface where everything on one side of
the line belongs to class 1 let's say
and everything on the other side of the
line belongs to class zero and we using

Arabic: 
سأمثّل المجموع المرجّح
واللاخطية أي خلية عصبية مدمجة
بهذا اللون الأزرق المخضر.
وسيظهر هذا في شرائح لاحقة.
الآن، إن كنت تتذكر، لقد ناقشت سابقاً
كيفية التعلم المراقب. لدينا مجموعة بيانات
تدريبية ، والتي لديها كمثال
مدخلات من صنفين، وعلى الرغم من
أنّه يمكن أن يكون أكثر من صنف ، لكن لنبقيه
بسيطاً، صنفين فقط، ونتعلم
سطحاً يفصل المدخلات من صنف
لآخر. الآن هذا النوع
من المستقبلات، الذي ترونه هنا،
هذا السطح هو خط، ونعلم أنّ خط،
إن كنت تتذكر القليل
من هندسة المرحلة الثانوية، لأنّ المجوع المرجّح
يحدد خط بالأساس .
إذاً، في هذه الحالة، لدينا طريقة
وهي... ومن ثمّ نتحقق فيما إذا كان
فوق أو تحت العتبة، وفي الواقع
يُحدِث هذا السطح الخطي الفاصل هذا،
حيث ينتمي كل شيء في جهة واحدة
من الخط ... دعونا نقول للصنف 1.
وكل شيء في الجهة الأخرى
من الخط، ينتمي إلى الصنف 0.

English: 
the perceptional training algorithm we
can actually learn the kinds of
separating surfaces that you see here
where the training data set is
represented by + as being one class and
minus as being the other class even
though the perceptron comes from the 50s
it actually has almost all the
ingredients of a modern neural network
and so all the research that has come
since has built on this basic
architecture an important development in
the field of neural network research
happened in 1969 when two AI pioneers
miskeen Peppard published a book called
the perceptrons now they were very
interested in the idea that Frank
Rosenblatt proposed and so they did a
lot of mathematical and theoretical
analysis of the perceptron however one
result that they proved essentially
killed neural network research for 20
years and what they proved was that the
kind of perceptron that we saw in
previous slide could not learn to
recognize certain kinds of patterns
now you might already have some idea of
the kinds of patterns that might not be

Arabic: 
نستخدم خوارزمية تدريب إدراكية،
في الواقع يمكننا أن نتعلم نوع
الأسطح الفاصلة الذين تراهم هنا
حيث مجموعة بيانات التدريب،
ممثّلة بواسطة + ، بكونها صنف واحد.
ناقص كونها الصنف الآخر.
وعلى الرغم من أن المستقبلات
تأتي من خمسينيات القرن الماضي
فإنّ لديها في الواقع كل
المكونات للشبكة العصبية الحديثة.
وإذاً، كل الأبحاث الذي نشأت
من ذلك الوقت، لقد بنت على هذا
المبنى الأساسي، تطور مهم
في مجال بحث الشبكة العصبية،
الذي حدث في عام 1969، عندما قام اثنان من رواد الذكاء الصنعي
miskeen Peppard بنشر كتاب يدعى
المستقبلات الآن، لقد كانا
مهتمين جداً بالفكرة التي اقترحها
Frank Rosenblatt . ولذلك لقد قاما
بالكثير من التحليل الرياضي والنظري
للمستقبلات، لكن لقد أوقفت نتيجة
واحدة قد برهنوها أساسياً،
بحث الشبكة العصبية لعشرين عاماً،
وما برهنوه هو أنّ نوع المستقبلات
الذي رأيناه في
شريحة سابقة، لم يتمكن من تعلم
تمييز نوع معين من الأنماط.
قد يكون لديك الآن، فكرة ما
عن أنواع الأنماط هذه، والتي قد لا تكون

English: 
able to recognize but again it's easy to
see visually as I said before for the
perceptron the separating surface is
always aligned now if you provide it
with the training data set like the one
you see in the lower right hand corner
of your screen with members of the plus
and minus class arranged as they are
there's simply no way to separate the
pluses and the minuses using a single
line and this kind of problem is called
a non linearly separable problem because
the members of the different classes
can't be separated by a single line
since the perceptron can only learn
linear separating surfaces there's no
way this kind of perceptron could learn
to properly classify pluses and minuses
arranged in this way at the same time in
this class of problems and then non
linearly separable ones occurs in many
cases it occurs whenever elements of one
class have either one thing or the other
thing but not both
and clearly that occurs in many

Arabic: 
قادرة على التمييز، لكن مجدداً، إنّها سهلة
لترى بصرياً. كما قلت سابقاً
بالنسبة للمستقبلات، فإنّ السطح الفاصل
منحاز دائماً. الآن، إذا زودته
بمجموعة بيانات تدريبية كهذه
التي تراها في الزاوية اليمنى السفلية
للشاشة، مع أطراف معادلات من أصناف
علامات الزائد والناقص، منسقة كما هي.
ببساطة لا يوجد هناك أي طريقة لفصل
علامات الزائد وعلامات الناقص باستخدام
خط واحد، ويدعى هذا النوع من المشاكل
بمشكلة غير خطية قابلة للانفصال، لأنّ
أطراف المعادلة للأصناف المختلفة
لا يمكن فصلها بواسطة خط واحد،
بما أنّ المستقبلات يمكن أن تتعلم
أسطح خطية فقط، فلا يوجد أي
طريقة يمكن لهذا النوع من المستقبلات أن تتعلمه
لتصنف علامات الزائد وعلامات الناقص بدقة،
مرتبة بهذه الطريقة. في نفس الوقت،
في صنف المشكلات هذه.
ومن ثمّ تحدث أسطح غير خطية قابلة للانفصال
في العديد من الحالات، تحدث كلما كان للعناصر
لصنف واحد إمّا شيءً واحد أو الشيء
الآخر لكن ليس كلاهما.
ومن الواضح أنّ ذلك يحدث في العديد

Arabic: 
من الحالات، و سيحب أحدٌ ما أن يكون التعلم
الآلي قادراً على تعلم أنماط
كتلك. إذاً، هذه مشكلة كبيرة
للمستقبلات، ولقد خسر الناس الاهتمام
بهم، وعلى الرغم من أنّهم
لم يقوموا حقاً بأشياء مثيرة للاهتمام حقاً الآن.
لقد تغير هذا الوضع بشكلٍ كبير في منتصف
ثمانينات القرن الماضي عندما نشر عالمان إداركيان
Brahma hood و McClelland
كتاب يدعى معالجة التوزيع
الموازي. الآن، لقد رأيت في الحالة
السابقة، أنّ أبسط شكل
للإدراك، هو أن يكون لدينا مدخلَين أو
عدداً ما من المدخلات، التي لديها
مجموع مرجّح، واللاخطية،
وأنّ النواتج التي ناقشها كتاب معالجة
التوزيع الموازي، كانت مستقبلات
أو شبكات عصبية بصورة عامة، حيث
يوجد الكثير من الطبقات المتداخلة.
إذاً، هناك مجموعة من الخلايا العصبية المدخلة،
تعبر هذه عبر اللالخطية،
لكن ثمّ هناك تعدد من هؤلاء المجاميع
وهذه اللاخطية الخاصة بهم وهذه المقادير
التي يتم حسابها تلعب دور المدخلات
للطبقة التالية، إذاًَ

English: 
situations and one would like machine
learning to be able to learn patterns
like that so this is a big issue for
perceptrons and people lost interest in
them and thought that they couldn't
really do many interesting things now
the situation changed dramatically mid
1980s when two cognitive scientists
Brahma hood and McClelland published a
book called parallel distributed
processing now you saw in the previous
case the the simplest form of the
perceptron we have two inputs or some
number of inputs that have a weighted
sum and a non-linearity and that's the
outputs what parallel distributed
processing discussed was perceptrons or
more broadly neural networks in which
there's many nested layers so there's an
it there's a set of input neurons these
get some and pass through non-linearity
but then there's multiple of these sums
and nonlinearities and these something
on the air these now serve as the inputs
for the next layer so they them their

English: 
outputs are themselves summed and pass
through another non-linearity and so on
in this diagram you see a multi-layer
neural network where there's
neighborhood layer the inputs go to two
different sums and nonlinearities and
those then go to yet a further
Salmonella narrative and we call the
sums and nonlinearities in the middle in
this case a hidden layer
what parallel distributed processing
showed is that you could design such
multi-layer neural networks that there
is a very efficient computationally
efficient learning rule that could train
the weights of these multi-layer neural
networks and that these multi-layer
neural networks could learn patterns
like non linearly separable problems in
fact there's a results showing that with
enough hidden units and hidden layers
they could learn any function at all in

Arabic: 
نتائجهم هي نفسهم، مجموعين، يعبروا
عبر مقدار اللا خطية آخر.
إذاً، ترى في الرسم البياني هذا شبكة عصبية
متعددة الطبقات، حيث هناك
طبقة مجاورة. تذهب المدخلات إلى
مجموعان مختلفان واللاخطية.
وثمّ يذهب هؤلاء إلى قصة
سالمونيلا أبعد حتى، وندعوا
المجاميع واللاخطية في منتصف
هذه الحالة، بالطبقة المخفية.
ما أظهرته معالجة التوزيع الموازي
هو أنّك بإمكانك تصميم
شبكات عصبية متعددة الطبقات كهذه، حيث يوجد
قاعدة تعليمية حسابية فعّالة
جداً يمكنها أن تتدرب
أوزان الشبكات العصبية متعددة
الطبقات هذه، ويمكن أن تتعلم الشبكات
العصبية متعددة الطبقات هذه، أنماط
كالمشاكل غير الخطية القابلة للانفصال،
في الواقع، هناك نتائج تُظهِر أنّه
بوحدات مخفية كافية، وطبقات مخفية
يمكنهم أن يتعلموا أي دالة في العالم على الإطلاق.

English: 
the world he will see how multi-layer
neural networks can actually solve
something like a non linearly separable
problem which was such an issue for the
single layer perceptron so we
know that each of the individual waited
something nonlinearities essentially
defines a linear separating surface so
we can think of each of the weighted
sums and nonlinearities and the hidden
layer as setting up their own linear
separating surfaces so here the top one
for example will say that class 1 is
everything above and to the left of the
red line and the bottom one would say
that class 1 is everything to the bottom
and right of the shifted red line now
interestingly we can represent an
intersection as a weighted sum pasteur
non-linearity imagine setting both of
the incoming weights to 1 and then
saying if the weighted sum is less than
2 output a 0 and if it's 2 or greater
than 2 output a 1 that means that the

Arabic: 
سيرى كيف يمكن للشبكات العصبية
متعددة الطبقات أن تحل
شيئاً ما فعلاً، كمشكلة غير خطية قابلة للانفصال،
والتي كانت مشكلة
بالنسبة للمستقبلات وحيدة الطبقة.
إذاً، نعلم أنّ كلاً من المجاميع المستقلة
الموزونة، اللاخطية تحدد في الأساس
سطح فاصل خطي.
إذاً، يمكننا أن نفكر بكلٍ من المجاميع الموزونة
واللاخطية، والطبقة المخفية
كإنشاء سطوحهم الفاصلة
الخطية خاصتهم. إذاً، ها هنا أعلى واحد
على سبيل المثال، سنقول أنّ الصنف 1 هو
كل شيء فوق ، وعلى يسار الخط الأحمر،
وفي القاع، سيقول أحدٌ ما
أنّ صنف 1 هو كل شيء من
القاع ويمين الخط الأحمر المتحول.
الآن، يمكننا بشكلٍ مثير للاهتمام أن نمثل
تقاطع كمجموع موزون pasteur
غير خطي. تخيل ضبط كِلا
الوزنين الجديدين لـ 1، ومن ثمّ
قول أنّه إذا كان المجموع الموزون أقل
من 2، يكون الناتج 0، وإذا كان 2 أو أكبر
من 2، يكون الناتج 1، يعني ذلك أنّ

English: 
very output neuron will only turn on if
both of the input neurons are turned on
so essentially that's like taking the
intersection of the class 1 regions of
both of the hidden layers and in this
case it's exactly what's needed to solve
the nonlinear least several problem and
separate the minuses from the pluses in
the non linearly separable example we
saw before now as I mentioned the
original perceptron used something
called a threshold non-linearity which
basically turns from a 0 to a 1 as soon
as the weighted sum input passes a
certain threshold in modern neural
network algorithms and including the
ones that were used in the starting from
the 80s we used a differentiable
non-linearity meaning that it's a smooth
function and we could state take its
derivative and minimize the training
error by essentially using the
derivatives of the functions that are
transforming our signals this sounds
complicated but it's pretty easy to

Arabic: 
الخلية العصبية الناتجة ستتنبّه فقط
إذا كان كلتا الخليتين العصبيتيين المدخلتين منبّهتين.
إذاً، أساسياً، ذلك مثل أخذ
مناطق تقاطع الصنف 1
لكِلا الطبقتين المخفيتين،
وفي هذه الحالة، إنّه تماماً ما نحتاجه لنحل
المسألة غير الخطية الأقل عدة
وفصل علامات الزائد عن علامات الناقص
في المثال غير الخطي القابل للانفصال.
الذي رأيناه سابقاً. الآن، كما ذكرت،
المستقبلات الأصلية استخدمت شيئاً ما يدعى
عتبة غير خطية، والتي تحولت
في الأساس من 0 إلى 1، بمجرد
ما يعبر المجموع الموزون المدخل،
عتبة معينة، في خوارزميات شبكة عصبية
حديثة، بما فيهم الخوارزميات
التي كانت تستخدم في البداية،
منذ ثمانينات القرن الماضي، حيث استخدمنا
انعدامات خطية متمايزة، والتي هي
دالة ملساء، ونستطيع في تلك الحالة أخذ
مشتقها وتقليل الخطأ التدريبي
بواسطة استخدام مشتقات
الدوال في الأساس، التي تحول
إشاراتنا. يبدو هذا
معقداً، لكنه سهلٌ جداً

English: 
think about visually if we think about
some functions such as the training
error defined over the values of the
weights that are defined the connections
in our network then this training
algorithm essentially tries to roll down
the hill and change the weights so as to
minimize the training error and because
we have the
motives we know which way to roll this
set of algorithms broadly that follow
the derivatives down so as to minimize
training here little by little are
called gradient descent algorithms you
might also hear very often in modern
machine learning terms like stochastic
gradient descent SGD which is a small
variant of this basic idea and this was
very successful for training
multi-layered neural networks I should
also add that one reason it was
successful was because there was a
certain trick that was discovered to do
gradient descent or neural networks if
you just want to compute which way you

Arabic: 
لنفكر به بصرياً، إذا قكرنا
ببعض الدوال، مثل الخطأ
التدريبي زائد قيم
الأوزان الذين يحددون الارتباطات
في شبكتنا، عندئذٍ تحاول خوارزمية
التدريب في الأساس أن تسقط
عن التل وتغير الأوزان. إذاً
بالنسبة لتقليل الخطأ التدريبي،
ولأنّ لدينا الدوافع،
فإنّنا نعلم أي طريقة ندفع بها
مجموعة الخوارزميات هذه، التي تتبع المشتقات
بصورة عامة. إذاً، أمّا بالنسبة لتقليل
التدريب هنا، شيئاً فشيئاً،
فإنّه يدعى خوارزميات النزول المتدرج.
وكثيراً ما قد تسمع أيضاً، في
مصطلحات التعلم الآلي مثل
النزول المتدرج العشوائي SGD،
والذي هو اختلاف صغير في الفكرة الأساسية هذه،
ولقد كان هذا ناجحاً جداً لشبكات
التدريب العصبية متعددة الطبقات.
يجب أن أضيف أنّه السبب الوحيد،
الذي كان ناجحاً وذلك لأنّه لقد كان هناك
خدعة معينة، والتي اكتُشِفَت لتقوم
بنزول متدرج أو شبكات عصبية،
إذا أردت أن تحسب فقط بأي طريقة

English: 
should change the weight so as to
minimize training air for a large neural
network it's actually very
computationally difficult problem you
might also hear the term back
propagation or back prop which is
essentially a very computationally quick
way to do gradient descent and that
became widely used in 1980s and made
neural networks practical to Train now
starting to the mid 80s and through 2010
or so neural networks generated a lot of
excitement among psychologists and
cognitive scientists they actually seem
to be quite good models of human
perceptual performance and various kinds
of behaviors that people do in
Psychological tasks however for actual
machine learning applications they just
weren't very good
they weren't the state of the art and
other algorithms tended to perform
better the neural networks did at
applied tasks like recognizing images

Arabic: 
يجب أن تغير الوزن. إذاً أمّا بالنسبة
لتقليل التدريب الجوي لشبكة عصبية
كبيرة، في الواقع إنّها
مشكلة صعبة جداً حسابياً.
وقد تسمع أيضاً مصطلح
إعادة النشر أو إعادة النشر التراجعي، والذي هو
في الأساس طريقة حسابية
سريعة جداً لتقوم بنزول متدرج، ولقد
أصبح ذلك مستخدماً بشكلٍ واسع في ثمانينات القرن الماضي،
وجعل الشبكات العصبية عمليةً للتدريب.
الآن، لقد أحدثت الشبكات العصبية منذ البداية
ولمنتصف ثمانينات القرن الماضي
وخلال 2010 أو شيئاً كهذا، الكثير من
الإثارة بين علماء النفس
والعلماء الإدراكيين، في الواقع لقد بدوا
كونهم نماذج جيدة جداً للأداء
الإدراكي للإنسان، وأنواعٍ شتّى
من السلوكيات التي تقوم بها الناس
في المهمات النفسية، ومع ذلك
لم يكونوا جيدين جداً بالنسبة
لتطبيقات التعلّم الآلي الفعلي،
لم يكونوا إمبراطوية الفن.
ولقد اتجهت خوارزميات أخرى
للقيام بشبكات عصبية أفضل مما قاموا بها
في المهمات المطبّقة، مثل تمييز الصور

Arabic: 
وتحديد ما إن كانت قط أو
كلب على سبيل المثال، وبسبب هذا
لقد كان هناك نوع من الشتاء من
بحث الشبكة العصبية المطبّقة، الذي دام
عِقدَين تقريباً أو ربما أكثر
بقليلٍ حتى، حيث لم تأخذ الناس
الشبكات العصبية على محمل الجد،
كحالة من فن خوارزميات
التعلم الآلي. لقد تغيّر هذا على نحوٍ مفاجئ
في بدايات 2010.
ولقد كان هناك خاصةً انفجار
مثير للاهتمام نوعاً ما في الشبكات
العصبية في 2010. إذاً يجب أن أضيف أنّه
هناك الكثير من المنافسات على أساس سنوي،
في مجتمع التعلم الآلي
الأكاديمي، حيث تحاول
مجموعات مختلفة أن تحل
مشاكل التعلم الآلي، ويتنافسون
مع بعضهم البعض، بناءً على كيفية
عمل خوارزمياتهم. لقد كان هناك
مباراة واحدة خصوصاً، والتي تضمنت
تصنيف صور وفقاً لما
يظهر فيهم. إذاً لقد تحدثنا سابقاً
عن تصنيف الصور كونهم إمّا كلب
أو قط. هذه المباراة، والتي تدعى
"شبكة أنترنت صورة" لقد كان لديها في الواقع

English: 
and determining whether it's a cat or
dog for example and because of this
there was a kind of winter of applied
neural network research that lasted for
almost two decades or maybe even a
little bit more where people did not
take neural networks very seriously as
state of the art machine learning
algorithms this changed dramatically in
the early 2010's
and particularly there was a kind of
dramatic explosion of interest in neural
networks in 2012 so I should add that's
on a yearly basis there's many
competitions in the machine learning
academic community where
different groups try to crack machine
learning problems and they compete with
each other based on how well their
algorithms do there's been one
competition in particular which involved
classifying images according to what's
shown in them so we talked earlier about
classifying images as either being a dog
or a cat this competition which is
called image net actually had thousands

English: 
of classes it has classes as you can see
now in this slide things like leopard
and mushroom and mite and all kinds of
stuff so it's a much harder task it's
not just cat or dog it has something
like a thousand on the order of a
thousand classes and the goal was to try
to predict what class the image belonged
to now there have been some improvement
in this task year-on-year maybe the best
performer improved by a percent or two
and in 2012 something very dramatic
happened for the first time a neural
network algorithm won first place in a
competition and it improved dramatically
above any non neural network entry in
particular the neural network entry that
was submitted on won first place beat by
more than 10 percent err the next best
entry which got something like 25
percent error rather than 15 now the

Arabic: 
الآلاف من الأصناف التي يمكنك أن تراها.
الآن، يوجد في هذه الشريحة أشياء
مثل نمر وفطر وعثّة وكل أنواع
الأشياء. إذاً إنّها مهمة أصعب بكثير،
إنّها ليست فقط قط أو كلب، لديها
آلاف إلى حدٍ ما، بناءً على طلب
آلاف الأصناف، ولقد كانت الغاية هي
محاولة التنبؤ لأي صنف تنتمي الصورة له.
الآن، لقد كان هناك بعض التحسن
في هذه المهمة عاماً بعد عام، ربما تحسّن أفضل
أداء بنسبة واحد أو اثنان في المئة،
وفي عام 2012، لد حدث شيءٌ
مفاجئ، لقد فازت خوارزمية شبكة عصبية
في المركز الأول للمرة الأولى،
في مباراة، ولقد تحسّنت بشكلٍ مفاجىء
متقدمةً على أي شبكة غير عصبية مدخلة،
خصوصاً الشبكة العصبية المدخلة التي
قدِّمَت كفائز بالمركز الأول، ربحت
بأكثر من 10 بالمئة خطاً. ثاني أفضل
مدخل، والذي حصل على 25بالمئة خطاً
إلى حدً ما، بدلاً من 15.

Arabic: 
الآن، لقد استخدم تالي أفضل قرن
ميزات تمّ ترميزها يدوياً، والتي تمّ توجيهها لالتقاط
بعض المظاهر الهامة للصور،
والتمييز البصري ، استخدم خوارزميات تم ضبطها باليد
والي كانت في التطوير للكثير من
السنوات، بواسطة بعض الناس الأذكياء جداً،
لكن الشبكة العصبية بدأت أساسياً
من الصفر وتعلمت أن تهزمه
بكثيرٍ من النقاط. إذاً لقد صدم هذا
الناس كثيراً، حيث أنّ الشبكة العصبية
التي لم تكن ذات مجال محدد، ولم تكن
مضبوطة باليد فعلاً، استطاعت
أن تقوم بهذا. حسناً، سنناقش
في الفيديو التالي، ما الذي جعل
الشبكة العصبية تقوم بذلك في هذه
المنافسة، و بدأت حقاً
ماقد ندعوه بثورة التعلم العميق،
الذي يجري الآن.

English: 
next best century it used hand coded
features that were aimed to capture some
important aspects of images and visual
recognition use hand-tuned algorithms
had been in development for many many
years by there some really smart people
but the neural network essentially
started from scratch and learned to beat
it by a lot so this really shocked
people that a neural network that was
kind of a not domain-specific not really
hand tuned could do so well in the next
video we'll discuss what it was that
made the neural network do so on this
competition and really started what we
might call the deep learning revolution
that's going on right now
