
iw: 
בינה מלאכותית חזקה עם
רשת עצבית מלאכותית.
זה אולי נשמע שאפתני, אולי מסתורי,
ברגע שתראו ניסויים עם נוירונים מלאכותיים
תבינו איך ומדוע זה עובד,
מה זה מסוגל לעשות ומה לא.
אני רוצה להראות לכם כמה דוגמאות
ליישומי רשת עצבית.
נתחיל, ראשית, בהמחשה של
תהליך הלמידה של רשת עצבית.
זה גם כיף וגם מאוד חינוכי.
לאחר מכן, נערוך ניסויים
עם רשתות עצביות ב- Weka,
ונראה כיצד המרכיבים השונים ברשת עצבית
משפיעים על יכולת החיזוי שלה.
ונסיים עם הצצה לטכנולוגיה עצבית
מתקדמת יותר - שנקראת Deep Learning -
לצורך אבחון הדמיה רפואית.
אז בואו נתחיל בהמחשה:

Arabic: 
الذكاء الاصطناعي القوي مع شبكة عصبية اصطناعية
قد يبدو الأمر صعباً أو غامضاً، لكنك
عندما ترى طريقة عمله، عندما تقوم بتجربة
الأعصاب المصنعة قليلاً، ستفهم كيفية وسبب عملها، وما تستطيع فعله
وما لا تستطيع
أرغب في أن أريكم بعض الأمثلة حول تطبيقات الشبكة العصبية
سنبدأ أولاً بتمثيل/تصويرعملية التعلم في الشبكة العصبية
إنها ممتعة وتعليمية في ذات الوقت
بعد ذلك سنجرب الشبكات العصبية في
ويكا، ونرى كيف تؤثر مختلف العناصر
في الشبكة العصبية على قدرة التنبؤ
وسننتهي بإلقاء نظرة على التكنولوجيا العصبية
الأكثر تقدماً والتي تُدعى التعلم العميق
للتصوير التشخيصي الطبي
.إذاً دعونا نبدأ بالتصوير

English: 
Strong AI with Artificial Neural Network.
It may sound ambitious, maybe mysterious, but once you see it in action, once you experiment
with artificial neurons a bit, you will understand how and why it works, what it can do, and
what not…
I&#39;d like to show you a few examples of Neural Network applications.
We will begin, first, with visualizing the learning process of a Neural Network.
It’s both fun and very educational.
We will then experiment with Neural Networks in Weka, and see how the different components
in a Neural Network influence its predictive capability.
And we will end with a glimpse on a more advanced neural technology, which is called Deep Learning,
for medical imaging diagnosis.
So, let&#39;s begin with visualization.

English: 
We will use a very strong and successful AI platform, made by Google, called TensorFlow.
This platform requires programming knowledge (not as Weka), however, there’s a nice “Playground”
app, which we can use for simple visualization.
Just go to playground.tensorflow.org.
Here is our first Neural Network.
As you can see, the first layer is the input layer where data comes in first.
Then we have two internal layers (called ‘Hidden Layers’) with four and two neurons, and
finally the output layer.
Here you can select different input datasets, let’s take this one, which is the simplest
one.
We will talk about the other parameters in a minute, but I want to focus now how the
learning is actually done.
In the lecture we talked about the ability of a simple perceptron to make a separation

iw: 
נשתמש בפלטפורמת בינה מלאכותית חזקה
ומוצלחת מאוד, המיוצרת על ידי גוגל,
הנקראת TensorFlow.
פלטפורמה זו דורשת ידע בתכנות -
בשונה מ Weka -
עם זאת, יש אפליקציית "מגרש משחקים" נחמדה,
שניתן להשתמש בה לצורך המחשות פשוטות:
פשוט עיברו אל playground.tensorflow.org.
להלן הרשת העצבית הראשונה שלנו:
כפי שניתן לראות, השכבה הראשונה היא שכבת
הקלט - אליה הנתונים נכנסים ראשונים.
לאחר מכן, יש לנו שתי שכבות פנימיות -
הנקראות שכבות נסתרות -
עם ארבעה ושני נוירונים, ולבסוף שכבת הפלט.
כאן תוכלו לבחור מערכי נתוני-קלט שונים.
בואו ניקח את זה - שהוא הפשוט ביותר:
נדבר על הפרמטרים האחרים בעוד דקה, אך כעת
ברצוני להתמקד על איך מתבצעת הלמידה בפועל.

Arabic: 
سنستخدم منصة ذكاء اصطناعي قوية
للغاية، صنعتها جوجل، وتُدعى تنسور فلو
“Playground” تتطلب هذه المنصة معرفة في مجال
البرمجة(ليس كمنصة ويكا)، على كل حال، يوجد تطبيق
.الرائع والذي يمكننا استخدامه للتصوير البسيط
playground.tensorflow.org.اذهب فقط إلى
هنا شبكتنا العصبية الأولى
كما ترون، الطبقة الأولى هي طبقة
الإدخال حيث يتم إدخال البيانات أولاً
ثم لدينا طبقتان داخليتان (تسمى "الطبقات
المخفية") مع أربع واثنتين من الخلايا العصبية
وأخيراً الطبقة الخارجية
هنا، يمكنك اختيار مجموعات بيانات إدخال
مختلفة، هيا نأخذ هذه، وهي أبسط واحدة
واحد
سنتحدث عن المعيار الآخر خلال دقيقة،
لكنني أرغب في التركيز الآن على
.كيفية حدوث عملية التعلم بالفعل
تحدثنا في المحاضرة عن قدرة الالبيرسيبترون البسيطة على وضع

iw: 
בהרצאה, דיברנו על יכולתה של רשת פשוטה
לייצר קווי הפרדה, במרחב הבעייה.
אז, כאן, לנו שני ממדים, X ו- Y.
בואו נדמיין עכשיו, למשל,
ש- X הוא גלוקוז,
ו- Y הוא כולסטרול, LDL.
אל תחשבו על היחידות בשלב זה.
ניתן לראות שכל נקודות הנתונים
שיש לנו כאן - המרכיבות את קבוצת האימון -
הן משני סוגים בלבד: כתום וכחול.
בואו פשוט נדמיין כרגע כי המטופלים בצבע
כתום הם בריאים, ואלה בצע כחול הם חולים.
ובכן, מהאופן שבו נקודות הנתונים האלה -
המטופלים האלה - ממוקמים במרחב,
ניתן להפריד אותן בקלות,
באמצעות קו הפרדה אחד.
אז, בואו נראה אם הרשת העצבית
תעשה הפרדה זו. מוכנים?
3, 2, 1: ואנחנו מריצים.

Arabic: 
.خط فاصل، أو عدد من الخطوط في موقع المشكلة
إذاً، لدينا هنا بُعدين، س و ص
دعونا مثلاً نتصور أن س هي الجلوكوز و ص
الكوليسترول(نسبة البروتينات الدهنية منخفضة الكثافة)
لا تفكر في الوحدات الآن
نرى أن كافة نقاط البيانات التي لدينا
هنا، والتي تتألف منها مجموعة التدريب
من نوعين فقط- البرتقالي والأزرق
دعونا نتصور الآن أن الحالات باللون
البرتقالي سليمة، وباللون الأزرق
مريضة
حسناً، وفقًا لكيفية انتشار نقاط البيانات
هذه، وهؤلاء المرضى، في هذا الفضاء
يمكن فصلهم بسهولة بواسطة خط فصل واحد
لذا، دعونا نرى ما إذا كانت الشبكة العصبية ستقوم بهذا الفصل.
مستعدون؟
3 2 1
انطلقنا

English: 
line, or a number of lines, in the problem space.
So, here we have two dimensions, X and Y.
Let’s just imagine now, for the example, that X is Glucose, and Y is Cholesterol, LDL.
Don’t think about the units right now.
We see that all the data points we have here, which comprise the training set, are from
only two types – orange and blue.
Let’s just imagine for now that the orange patients are healthy and the blue ones are
ill.
Well, according to how these data points, these patients, are spread in this space,
they can be easily separated by one separation line.
So, let’s see if and Neural Network will make this separation.
Ready?
3 2 1.
And we are running.

English: 
I stopped the process after about 100 epochs, since as you probably noticed, the separation
into two regions happened quite fast.
Soon, it will not be that easy.
What happened here?
The learning process adjusted the synapses between the neurons in such a way that this
separation line emerged.
This process is somewhat similar to other learning processes, such as the one we saw
with Decision Trees.
Here, instead of selecting attributes and threshold values for the nodes of the tree,
we just adjusted the synapses.
But the mode of action is the same.
How is this adjustment actually calculated?
This is more complex mathematical process, which is not so important for now, but as
you have probably figured out, the adjustment was done according to the orange and blue
data points, the training set.
The result of this adjustment, the result of the learning process, is the division of
the space into regions – the orange and the blue ones.

iw: 
הפסקתי את התהליך לאחר כמאה מחזורים - שכן,
כפי שוודאי שמתם לב, ההפרדה לשני אזורים
התרחשה די מהר. בקרוב זה לא יהיה
כל-כך קל. מה קרה כאן?
תהליך הלמידה התאים את הסינפסות בין
הנוירונים באופן כזה שקו-ההפרדה הופיע.
תהליך זה דומה במקצת לתהליכי למידה אחרים -
כמו זה שראינו עם עצי-החלטה.
כאן, במקום לבחור תכונות וערכי סף
לצמתים של העץ, פשוט התאמנו את הסינפסות.
אבל אופן הפעולה זהה.
כיצד מחושבת בפועל ההתאמה הזו?
זהו תהליך מתמטי מורכב יותר שאינו חשוב כרגע.
אך כפי שוודאי הבנתם, ההתאמה נעשתה לפי
 הנתונים הכתומים
והכחולים: סט האימונים.
התוצאה של התאמה זו -
התוצאה של תהליך הלמידה -
היא החלוקה של המרחב לאזורים -
הכתומים והכחולים.

Arabic: 
لقد أوقفت العملية بعد حوالي 100
مرحلة،من المرجح أنك قد لاحظت أن الفصل
بين المنطقتين، حدث بسرعة للغاية
لاحقاً، لن يكون بهذه السهولة
ماذا حدث هنا؟
عدلت عملية التعلم المشابك العصبية بين الخلايا العصبية بطريقة أدت
إلى ظهور الانفصال
تشبه هذه العملية إلى حد ما عمليات
التعلم الأخرى، مثل تلك التي رأيناها
مع شجرات القرار
هنا، بدلاً من تحديد خصائص وقيم العتبة لعُقد الشجرة
قمنا فقد بتعديل المشابك العصبية
لكن نمط العمل ظل نفسه
كيف يتم حساب التعديل بالفعل؟
هذه عملية رياضية أكثر تعقيداً، وهي ليست مهمة في الوقت الحالي،
ولكن كما توصلتم من قبل، فقد تم إجراء التعديل
وفقاً لنقاط البيانات الزرقاء والبرتقالية
مجموعة التدريب
نتيجة هذا التعليم، نتيجة عملية التعليم، هي تقسيم
المكان إلى منطقتين، البرتقالية والزرقاء

English: 
After this division was made, when a new patient comes in with a certain combination of X and
Y (Glucose and Cholesterol), let’s say 3 and 5 respectively, which is this point…
The network will easily classify her as an ill patient.
Notice that the data points we see on screen, and the ones that were used in order to teach
the Neural Network, are only the training set.
When we examine how good this network actually is, we need to run the data points of test
set through this network.
If we click ‘Show test data’ we can see the test set and how nicely it falls in the
colored regions.
The ratio between training and test is determined here.
You can see the success rates, which are actually failure rates, here.
For both the training and test sets.

iw: 
לאחר שבוצעה חלוקה זו, כאשר חולה חדש
נכנס עם שילוב מסוים של X ו- Y -
גלוקוז וכולסטרול: נניח, 3 ו -5 בהתאמה, שזו
הנקודה הזו, הרשת תסווג אותה כמטופלת חולה.
שימו לב שנקודות הנתונים שאנו רואים ע"ג
המסך, ואלה ששימשו לצורך לימוד הרשת העצבית,
הם רק סט האימון. כשבוחנים עד כמה
רשת זו טובה באמת,  עלינו להריץ
את נקודות הנתונים של
סט המבחן דרש רשת זו.
אם נלחץ על 'הצג נתוני בדיקה', נוכל לראות
את מערך הבדיקה, וכמה יפה הוא משתלב
באזורים הצבעוניים.
היחס בין אימון למבחן נקבע כאן.
ניתן לראות את שיעורי ההצלחה -
שהם למעשה שיעורי כישלון - כאן:
הן לסט האימונים והן לסט הבחינות.

Arabic: 
بعد إجراء هذا التقسيم، عندما يأتي
مريض جديد مع مجموعة معينة من س و ص
(الجلوكوز والكولوسترول)دعونا نقل 3 و4 بالترتيب، وهي هذه النقطة
ستصنفها الشبكة بسهولة كمريض
لاحظ أن نقاط البيانات التي نراها على
الشاشة وتلك التي تم استخدامها لتدريب
الشبكة العصبية، هي فقط مجموعة التدريب
عندما ندرس مدى جودة هذه الشبكة في الواقع،
نحتاج إلى تشغيل نقاط بيانات مجموعة الاختبار
.من خلال هذه الشبكة
إذا نقرت على "عرض بيانات الاختبار"، يمكننا
رؤية مجموعة الاختبار ومدى روعتها حين تسقط في
المناطق الملونة
تُحدد النسبة بين التدريب والاختبار هنا.
يمكنك أن ترى هنا معدلات النجاح، التي في الواقع هي معدلات فشل
لكلتا مجموعتي الاختبار والتدريب

English: 
The edges between the neurons represent the strength of the synapse, when blue is a positive
value and orange is a negative value.
If you hover with the mouse on each neuron you will see how it alone divides the space.
The final division is a weighted mixture of all former divisions, where the weights are
the synapses’ strengths.
Actually, for such a simple dataset, for such a simple phenomenon, we don’t need this
mixture.
Even one neuron will be enough.
I will remove the second layer and the other three neurons...
And as you can see, I get the same results.
But what will happen if we study a more complex phenomenon, say, this one.

Arabic: 
تمثل الحواف بين الخلايا العصبية قوة التشابك
العصبي،عندما يكون اللون الأزرق قيمة إيجابية
والبرتقالي قيمة سالبة
إذا مررت بالماوس على كل خلية عصبية،
فسترى كيفية تقسيمها للمساحة بمفردها
القسم النهائي هو خليط مرجح من جميع
التقسيمات السابقة، حيث تمثل الأوزان
نقاط قوة التشابك العصبي
في الواقع، بالنسبة لمجموعة البيانات البسيطة هذه،
بالنسبة لهذه الظاهرة البسيطة، لا نحتاج إلى هذا
الخليط
وحتى الخلية العصبية الواحدة ستكون كافية
سأزيل الطبقة الثانية والخلايا العصبية الثلاث الأخرى...
وكما ترون، حصلت على النتائج نفسها.
ولكن ماذا سيحدث إذا درسنا ظاهرة أكثر
تعقيداً على سبيل المثال، هذه الظاهرة

iw: 
הקשתות בין הנוירונים מייצגים את עצמת
הסינפסה - כאשר כחול הוא ערך חיובי
וכתום הוא ערך שלילי.
אם תרחפו עם העכבר מעל כל נוירון,
תראו איך הוא לבדו מחלק את המרחב.
החלוקה הסופית הינה תערובת משוקללת של כל
החלוקות בעבר, היכן שהמשקולות מהוות
את עצמת הסינפסות.
למעשה, עבור מערך נתונים כה פשוט - לתופעה
כה פשוטה - איננו זקוקים לתערובת הזו.
אפילו נוירון אחד יספיק.
אני אסיר את השכבה השנייה,
ואת שלושת הנוירונים האחרים,
וכפי שניתן לראות, אני מקבל אותן תוצאות.
אבל מה יקרה אם נחקור תופעה
מורכבת יותר - נאמר, את זו:

English: 
I will hide the test data and run it again.
Not surprisingly, one separation line made by one neuron is not enough.
The reason is that, as we saw in the lecture with the XOR example, we need more neurons
in order to make more complex separations.
I’ll add another neuron…
Now I have two lines, but they are still not flexible enough.
Another neuron…
A bit better, but still the error is a bit high.

iw: 
אני אסתיר את נתוני הבדיקה, ואפעיל אותם שוב.
באופן לא מפתיע, קו הפרדה אחד - שנעשה ע"י
נוירון אחד - אינו מספיק.
הסיבה היא - כפי שראינו בהרצאה עם
דוגמת ה- XOR - שאנו זקוקים ליותר נוירונים
על מנת לבצע הפרדות מורכבות יותר.
אני אוסיף נוירון.
עכשיו יש לי שתי שורות,
אך הן עדיין לא מספיק גמישות.
נוירון נוסף:
קצת יותר טוב, אך עדיין השגיאה מעט גבוהה.
אך אם אוסיף שכבה נוספת -

Arabic: 
.سأخفي بيانات الاختبار وأعاود تشغيلها
.وليس من المستغرب أن يكون خط الفصل
الصادر عن خلية عصبية واحدة غير كاف
XOR والسبب وراء ذلك هو أننا نحتاج إلى المزيد من
الخلايا العصبية، كما رأينا في المحاضرة التي تتضمن مثال
نحتاج للمزيد من الخلايا العصبية
للقيام بالمزيد من عمليات الفصل المعقدة
سأضيف خلية عصبية أخرى
الآن لدي خطان، لكنهما ما زالا غير مرنين بما فيه الكفاية
خلية عصبية أخرى
أفضل بقليل، لكن الخطأ ما زال مرتفع قليلاً

iw: 
התוצאה טובה בהרבה.
נראה אם הרשת הזו מספיק טובה על מנת
להתמודד עם עם מערך הנתונים הזה:
לא כל כך.
אולי אם נוסיף שכבה נוספת, ונגדיל את
השכבות האלה, נקבל תוצאות טובות יותר:
הו כן!.
פנטסטי.
אני מקווה שעכשיו תוכלו לראות את הקשר
בין ארכיטקטורת הרשת ליכולות החיזוי שלה.
ישנם עוד פרמטרים רבים באפליקציה הזו.
תוכלו ללמוד עליהם יותר כאן -

Arabic: 
لكن إذا أضف طبقة أخرى
النتيجة أفضل بكثير
دعونا نرى إذا كانت هذه الشبكة جيدة بما
فيه الكفاية لتعالج مجموعة البيانات هذه
ليس كثيراً
ربما إذا أضفنا طبقة أخرى، وزدنا هذه الطبقات، سنحصل على نتائج أفضل
أوه، نعم
رائع
أتمنى أن تستطيع الآن رؤية العلاقة
بين هيكل الشبكة وقدراتها التنبؤية
القدرات
يوجد العديد من المعايير/المحددات الأخرى في هذا التطبيق
يمكنك تعلم المزيد عنها، كما يمكنك تجربة التلاعب بالمحددات

English: 
But if I add another layer…
The result is much better.
Let’s see if this network is good enough to handle also this dataset.
Not so much.
Maybe if we add another layer, and increase these layers, we will get better results.
Oh, yeah.
Fantastic.
I hope now you can see the relationship between the architecture of the network and its predictive
capabilities.
There are many other parameters in this app.
You can learn more about them here, and you can also just try to play with the parameters

iw: 
 ותוכלו גם פשוט לנסות לשחק עם הפרמטרים
ולראות את התוצאות.
בואו עכשיו נראה כיצד ניתן לעשות דברים
דומים עם נתונים אמיתיים ב- Weka.
נשתמש לשם כך שוב במערך ה- UCI
של מחלות לב, שהשתמשנו בו לאחרונה
גם במטלת האלגוריתמים הגנטיים.
לאלו מכם שעדיין לא ביצעו משימה זו,
עיברו אל כתובת זו, ולימדו אודות
מערך הנתונים ותכונותיו השונות.
מערך נתונים זה מאוחסן בפורמט CSV,
ולכן, יש להגדיר ב- Weka את תווית-הקבוצה -
התכונה אותה אנו רוצים לחזות -
כנומינלית ולא מספרית.
הראיתי שדרך אחת לעשות זאת היא כאן -
תחת פילטר: בחרו את התיקייה הבלתי-מפוקחת,

Arabic: 
ورؤية النتائج
دعونا الآن نرى كيف يمكننا أن نقوم بأشياء
مماثلة بالنسبة للبيانات الفعلية في ويكا
الخاصة بمرض القلب، والتي استخدمناها أيضًا
في آخر UCI لذلك سنستخدم مجدداً مجموعة بيانات
مهمة حول الخوارزميات الجينية
بالنسبة إلى الأشخاص الذين لم ينجزوا هذه المهمة
بعد، انتقل إلى هذا العنوان،وتعلم المزيد عن
مجموعة البيانات وخصائصها المختلفة
لذلك، علينا في ويكا تحديد  ، CSV تُخزن مجموعة البيانات هذه بتنسيق
تسمية الصنف، الخاصية التي نرغب في توقعها، رقمية أو اسمية

English: 
and see the results.
Let&#39;s now see how we can make similar things on real data in Weka.
For that we will use again the heart disease UCI dataset that we also used in the last
assignment about Genetic Algorithms.
For those of you who haven&#39;t done this assignment yet, go to this address, and learn about the
dataset and its different attributes.
This dataset is stored in CSV format, and therefore, in Weka we must define the class
label, the attribute that we want to predict, as nominal and not numeric.

Arabic: 
لقد أوضحت أن إحدى الطرق للقيام بذلك هي هنا، أسفل
فلتر، اختر المجلد غير الخاضع للإشراف، الخاصية،
 واختر الخاصية الأخيرNumericToNominal ثم
.وانقر على تطبيق
والآن، كما تعلمنا، نستطيع بسهولة بالغة أن نشغل شجرة القرار
78% وحصلنا على
ولتشغيل شبكة عصبية، سنختار هذه الشبكة من مجلد الوظائف،هنا
أسفل البيرسيبترون متعدد الطبقات/ multilayer perceptron
دعونا نقوم بالتشغيل ونرى النتائج
حصلنا على  77% فقط

English: 
I showed that one way to do so is here, under Filter, choose the Unsupervised folder, Attribute,
NumericToNominal, and select the last attribute.
And click Apply.
Now, as we learned, we can very easily run a decision tree.
And we got 78%.
In order to run a Neural Network, we will choose it from the functions folder, here,
under multilayer perceptron.
Let&#39;s just run it once and see the results.
We received only 77%.

iw: 
NumerToNominal,
ובחרו במאפיין האחרון. ולחץ על החל.
כעת, כפי שלמדנו, נוכל בקלות רבה
להריץ עץ-החלטה: וקיבלנו 78%.
כדי להפעיל רשת עצבית, נבחר אותה מתיקיית
הפונקציות, כאן: תחת רשת רב-שכבתית.

Arabic: 
سننقر على الزر الخفي، حيث يمكننا التحكم بمختلف محددات  الشبكة
الشبكة
يمكنك قراءة المزيد عنها هنا
ونختار .GUI في الوقت الحالي، سنقوم
بتشغيل واجهة المستخدم الرسومية
.ونحدد الطبقة المخفية بثلاث خلايا عصبية
ننقر حسناً، ثم نقوم بالتشغيل
 أرى الشبكة نفسها ،GUIالآن، لأنني قمت بتشغيل خيار
هذه هي طبقة الإدخال، وهذه هي الطبقات
المخفية، علي أن أنقر على البدء
.حتى يبدأ بالتعلم
أنقر على قبول، وكما ترون، هذه المرة حصلت على 94%.و

iw: 
כעת בואו פשוט נריץ אותה פעם אחת,
ונראה את התוצאות: קיבלנו 77% בלבד.
נלחץ על הכפתור הנסתר - אתו נוכל לשלוט
בפרמטרים השונים של הרשת.
תוכלו לקרוא עוד על זה כאן.
לעת עתה, נפעיל את GUI -
ממשק המשתמש הגרפי -
ונבחר בשכבה מוסתרת אחת, עם שלושה נוירונים.
אנו לוחצים על אישור ומריצים אותה.
עכשיו, מכיוון שהפעלתי את אפשרות ה- GUI,
אני רואה את הרשת עצמה.
זו שכבת הקלט, אלה השכבות הנסתרות,
ועלי ללחוץ על התחל בכדי שזה יתחיל ללמוד.
אני מאשר את זה: וכפי שניתן לראות,
הפעם קיבלתי 94%.

English: 
We will click the “hidden button”, where we can control the different parameters of
the network.
You can read more about it here.
For now, we will turn the GUI, the graphical user interface, on… and select one hidden
layer with three neurons.
We click OK, and run it.
Now, because I turned the GUI option on, I see the network itself.
This is the input layer, these are the hidden layers, and I need to press start in order
for it to start learning.
I accept it, and as you can see, this time I got 94%.

Arabic: 
أفضل بكثير من البيرسيبترون ذي الطبقات الأقل، وشجرة القرار
كم هو رائع
ستحصل في هذه المهمة على فرصة أخرى لتجربة الشبكة العصبية على
قواعد بيانات أخرى
لكني أرغب الآن في الانتقال إلى موضوع
آخر، والذي سنستطيع فقط أخذ لمحة عنه
لكننا لن نستطيع ذكره
يُدعى بالتعلم العميق
وهو حيثما تتوسع الشبكات العصبية كثيراً..
وتستخدم العديد من الطبقات والعديد من
الخلايا العصبية، بالإضافة إلى نوع جديد من هيكل الشبكات
وقد أثبتت نجاحها في مجال الإبصار الحاسوبي، وبالتالي
تم تطبيقها في تشخيص التصوير الطبي
هذه دراسة استقصائية رائعة، واسعة جداً ،
حول التعلم العميق في تحليل الصور الطبية
  بوابة الأبحاث/ ResearchGate متاحة للعموم على

iw: 
הרבה יותר טוב מאשר הרשת הפשוטה  שלה פחות
שכבות, ועץ ההחלטה. כמה נחמד.
במשימה, תקבלו הזדמנות נוספת להתנסות
ברשת העצבית במאגרי מידע אחרים.
אך כעת ברצוני לעבור לנושא אחר, שנוכל
רק להביט בו בחטף, אך לא נוכל שלא להזכירו:
זה נקרא למידה עמוקה:
כאשר רשתות עצביות מתרחבות, מאוד,
ומשתמשות בהרבה יותר רבדים ונוירונים,
כמו גם בסוג חדש של ארכיטקטורת-רשת.
זה הוכח כמוצלח ביותר בראייה ממוחשבת,
ולכן הוא גם כן מיושם באבחון הדמיה רפואית.
זהו סקר נפלא, נרחב למדי, של למידה עמוקה
בניתוח הדמיה רפואית.
זה זמין באופן ציבורי ב- ResearchGate.

English: 
Much better than the perceptron with less layers, and the decision tree.
How Lovely.
In the assignment you will get another chance to experiment with the Neural Network on other
databases.
But now I want to move to another subject, which we will only be able to have a glimpse
at, but we cannot not mention it.
This is called Deep Learning.
This is where neural networks scale up… a lot… and use many more layers and many
more neurons, as well as new kind of network architecture.
It has been proven extremely successful in computer vision, and therefore, also it is
applied in medical imaging diagnosis.
This is a wonderful survey, a very extensive one, on Deep Learning in medical image analysis.
It&#39;s publicly available on ResearchGate.

Arabic: 
يمكنك أن ترى أكثر من ألف اقتباس حتى الآن، إنها تشتمل على
أكثر من 300 مرجع
من بين كل الأمثلة الرائعة المذكورة
في هذه الورقة، أريد أن آخذكم في رحلة
.لتروا بعض أفضل الأمثلة
يُستخدم التعلم العميق لتصنيف كتل التصوير
الإشعاعي للثدي، كما ترون في هذه الورقة
وأيضاً، الكشف عن التسرب في انقسام شجرة مجرى التنفس
وقد وصل إلى أداء الخبراء في مجال تصنيف آفة الجلد
وهو مفيد في كبت نقي العظم في الأشعة السينية.
لتصنيفات اعتلال الشبكية السكري
في هذه الحالة، فاز بتحدي اعتلال
الشبكية السكري الكاجالي في عام 2015
وماذا عن تقسيم الآفات في الدماغ؟
حاز على أعلى ترتيب في ثلاثة تحديات مختلفة
PROMISE12 حاز عمل تقسيم البروستات على أعلى المراتب في تحدي

iw: 
ניתן לראות שיש עד כה יותר מאלף ציטוטים,
וכסקר הוא כולל יותר מ -300 הפניות.
מכל הדוגמאות הנהדרות המוזכרות
במאמר זה, אני רוצה לקחת אתכם למסע
לראות כמה מהטובים שבהם:
למידה עמוקה משמשת לסיווג
כמות עצומה של ממוגרפיות, כפי שניתן לראות במאמר זה.
כמו כן, גילוי דליפות 
בדרכי הנשימה.
זה הגיע לביצועים של מומחים אנושיים
 בסיווג נגעי עור.
זה טוב לדיכוי עצם בצילומי רנטגן,
לסיווג רטינופתיה סוכרתית -
במקרה זה, היא גם זכתה באתגר
הרטינופתיה של סוכרת באתר kaggle בשנת 2015.
ומה עם פילוח הנגעים במוח?
קיבל את הדירוג הראשון
בשלושה אתגרים שונים.
עבודת אנליזה של הערמונית הגיעה לדרגה
הגבוהה ביותר באתגר PROMISE12.

English: 
You can see it has more than a thousand citations so far, and as a survey, it includes more
than 300 references.
From all the wonderful examples mentioned in this paper, I want to take you on a journey
to see a few of the best ones.
Deep Learning is used for mammographic mass classification, as you can see in this paper.
Also, leak detection in airway tree segmentation.
It reached human expert performance in skin lesion classification.
It&#39;s good for bone suppression in x-rays.
For diabetic retinopathy classification.
In this case, it also won the Kaggle diabetic retinopathy challenge in 2015.
And what about segmentation of lesions in the brain?
Got top ranking in three different challenges.
A prostate segmentation work got top rank in PROMISE12 challenge.

Arabic: 
أما الكشف عن انتشار سرطان الثذي في العقد
الليمفاوية، فقد حاز على أعلى المراتب و أداء الخبراء
CAMELYON16 في
 LUNA16.في noodle حاز على المرتبة الأولى في تصنيف ال
هذه كلها مجرد أمثلة قليلة، وتتحسن التطبيقات ويزداد عددها
كل أسبوع من الآن
إذاً، آمل أن تكونوا قد استمتعتم بهذا الدرس التدريبي.
والآن، دعونا نقوم به بشكل يدوي في المهمة

iw: 
גילוי גרורות של סרטן השד
בבלוטות הלימפה השיג את הדירוג
הגבוה ביותר וביצועי
מומחים אנושיים ב- CAMELYON16.
וסיווג הקשריות השיג את
הדירוג הראשון ב- LUNA16.
כל אלה רק כמה דוגמאות, ויישומים טובים יותר
ורבים יותר יוצאים כעת מדי שבוע.
אז, אני מקווה שנהניתם מהאימון הזה.
כעת, בואו נעשה זאת בפועל במשימה.

English: 
Breast cancer metastasis detection in lymph nodes got top ranking and human expert performance
in CAMELYON16.
And noodle classification got top ranking in LUNA16.
These are all just a few examples, and more and more, and better and better, applications
are coming up every week now.
So, I hope you enjoyed this practice session.
Now, let&#39;s do it hands-on in the assignment.
