
French: 
Traducteur: Anne-Sophie Matichard
Relecteur: Claire Ghyselen
Qui est enthousiasmé par l'IA parmi vous ?
Oh oui !
Qui est inquiet à propos de l'IA ?
Ok, je vois un peu de tout.
Je ressens les deux, et il y a
une bonne raison à cela.
L'IA est un sujet complexe et controversé,
et nous entendons toutes sortes
de messages contradictoires :
« Les robots tueurs vont nous prendre
notre travail et nous tuer. »
« L'IA va soigner le cancer et annoncer
l'avènement de l'utopie. »
« C'est juste un buzz marketing,
l'IA n'est rien de plus qu'un buzzword. »
Il y a un fond de vérité
dans ces déclarations,
mais la réalité est plus complexe
et plus nuancée.
C'est naturel de penser que
si vous n'êtes pas un génie en maths
ou si vous n'avez pas
de doctorat de Stanford,
vous ne pouvez pas comprendre
ce qu'il se passe,
et encore moins être impliqué.
Je suis ici pour vous dire que c'est faux.

English: 
Transcriber: Pooi Ling Ng
Reviewer: Eunice Tan
So who's excited about AI here?
Oh, yay!
Who's nervous about it?
Okay, I see a mix.
I feel both, and there's good reason.
AI is a complex and controversial topic,
and we're hearing all sorts
of conflicting messages:
"Killer robots are going to take 
all our jobs and murder us."
"AI will cure cancer and usher in utopia."
"This is just marketing hype,
and AI is nothing but a buzzword."
There is a kernel of truth
in all these statements,
but the reality is more 
complex and nuanced.
It's natural to feel like
if you're not a math genius
or you don't have a PhD from Stanford,
that you couldn't possibly hope
to understand what's going on,
much less to get involved.
I'm here to tell you that is false.

Arabic: 
المترجم: Gasser Khaled
المدقّق: Riyad Altayeb
نحن ممتنون للتعاون مع doc.ai
أُجرؤ على أن تعرف
مسرح هربست، 9 اكتوبر 2018
راشيل توماس
حسنا، من هنا متحمس للذكاء الاصطناعي؟
من قلق حياله؟
حسنا، أري أن هنا مزيج من الآراء
لدي الشعورين، وهنالك سبب وجيه.
الذكاء الإصطناعي 
هو موضوع معقد ومثير للجدل،
ونحن نسمع كل الأراء المتضاربة:
"إن الربوتات القاتلة 
سوف تأخذ جميع وظائفنا وتقتلنا. "
"الذكاء الإصطناعي سوف يعالج السرطان
ويوصلنا إلى المثالية."
"هذا ليس إلا عبارة عن ضجيج تسويقي
والذكاء الاصطناعي ليس إلا شعار رنان."
هناك نواة للحقيقة
في كل من هذه التصريحات،
ولكن الحقيقة أكثر تعقيداً وغموضاً.
إنه من الطبيعي أن تشعر بهذا 
إن لم تكن عبقري رياضيات
أو لم تحصل على دكتوراه من استانفورد،
وبالتالي لا يمكنك أن تأمل 
في فهم ماذا يحدث،
أقل بكثير للمشاركة.
أنا هنا لأقول أن هذا خاطئ.

English: 
It is not only possible 
for everyone to get involved with AI,
it is actually crucial that you do so.
I say this as someone
who was an unlikely person
to become an AI researcher,
and we need more 
unlikely people in the field
both to address the harms
that are being caused
as well as to take full advantage
of the positive opportunities.
But first, what is AI?
AI refers to any technique
that allows a computer
to appear to be acting
with some level of intelligence.
AI is in products,
like how Google Photos automatically 
organizes your picture collection.
Here, it's grouped together
temples, skyline, and food
into separate categories.
AI is in Skype Translator,
which lets people
speaking different languages
communicate in real time.
These are both examples
of a particular type of AI
called "deep learning."
In the past couple of years,
deep learning has achieved
better-than-human results

French: 
Non seulement il est possible pour chacun
d'entre nous de s'impliquer dans l'IA,
mais il est même vital
que nous le fassions.
Je le dis et je suis quelqu'un
qui n'était pas destiné
à devenir chercheuse en IA,
et nous avons besoin de plus de personnes
improbables sur le terrain
pour répondre à la fois au mal
qui peut être causé par l'IA
ainsi que pour prendre pleinement avantage
de toutes les possibilités positives.
Mais avant tout, qu'est-ce que l'IA ?
L'IA, c'est n'importe quelle technique
qui permet à un ordinateur
d'agir avec un certain
degré d'intelligence.
L'IA est dans les produits,
comme quand Google Photos organise
automatiquement votre galerie de photos.
Ici, elles sont regroupées par temples,
horizons et nourriture,
dans des catégories différentes.
L'IA est présente dans
le traducteur de Skype,
qui permet à des personnes
parlant différentes langues
de communiquer en temps réel.
Ce sont deux exemples
d'un genre particulier d'IA qu'on appelle
l'apprentissage profond.
Ces dernières années,
il est parvenu à des résultats meilleurs
que ceux de l'homme

Arabic: 
ليس فقط أن في إمكان الجميع
أن يشارك في الذكاء الاصطناعي
بل إنه من المهم أن يشترك الجميع.
أقول هذا كشخص لم يحالفه الحظ
لكي يصبح باحثا في الذكاء الإصطناعي،
ونحتاج المزيد من الناس غير محظوظين 
في هذا المجال
على حد سواء لمعالجة الأضرار التي تحدث
وكذلك للاستفادة الكاملة 
من الفرص الإيجابية.
ولكن في البداية،
ما هو الذكاء الاصطناعي؟
الذكاء الإصطناعي يشار إليه 
في أي تقنية تمكن الحاسوب
أن يتعامل وكأن لدية درجة من الذكاء،
الذكاء الاصطناعي في المنتجات
مثل كيفية صور جوجل تنظم مجموعة صورك آلياً.
هنا، صور معابد وناطحات سحاب 
وطعام مُجمعة معاً
في مجموعات منفصلة.
الذكاء الاصطناعي في مترجم سكايب،
الذي يمكن أُناس يتكلمون لغات مختلفة
أن يتواصلوا معاً.
هذان المثالان من نوع معين من
الذكاء الاصطناعي يعرف ب "التعلم العميق."
في العامين الماضيين،
حقق التعلم العميق نتائج أفضل من البشر،

Arabic: 
في المهام التي اعتدنا على اعتقاد 
أن البشر فقط يمكنهم تنفيذها
مثل التعرف على الصور وفهم الخطابات.
مفهوم خاطئ عن باحثي الذكاء الاصطناعي
هو أننا جميعًا نحاول صناعة دماغ بشري
أو الحصول على حاسوب لديه وعي بشري.
الكثير منا ليسوا كذلك.
الكثير منا، وأنا معهم،
مهتمون بإيجاد حلول عملية للمشاكل في العالم
كتحديد سرطان الرئة 
من خلال الأشعة المقطعية.
سأتحدث أكثرعن بعض 
هذه التطبيقات الإيجابية،
لكن أولاً أريد احدد ثلاثة جوانب 
للذكاء الاصطناعي تقلقني.
الأول هو أن الذكاء الإصطناعي 
يشفر ويزيد من التحيز البشري.
كان أداء رؤية الحاسوب أسوأ 
بشكل متكرر على الأشخاص الملونين.
بحث في وقت سابق من هذا العام 
من جو بولامويني وتيمنت جبرو
تقييم منتجات رؤية الحاسوب
من آي بي ام و ميكروسوفت وأماكن أخرى،
ووجدوا أن هذه المنتجات 
كان أداؤها أسوأ على النساء منها على الرجال

French: 
sur des tâches que nous pensions
faisables uniquement par les humains,
comme reconnaître des images
et comprendre un discours.
Une fausse idée sur les chercheurs en IA
est que nous essayons de recréer
le cerveau humain
ou d'obtenir un ordinateur pour arriver
à la conscience humaine.
Beaucoup d'entre nous ne font pas ça.
Beaucoup d'entre nous, moi y compris,
sommes intéressés à trouver des solutions
pratiques à des problèmes réels,
comme identifier un cancer du poumon
sur un CT scan.
Je reviendrai sur des possibilités
positives dans un moment,
mais tout d'abord je voudrais parler
de trois aspects de l'IA qui m'inquiètent.
Le premier, c'est que l'IA reproduit
et amplifie les préjugés humains.
La vision par ordinateur fonctionne
moins bien sur les personnes de couleur.
Des recherches de Joy Buolamwini
et Timnit Gebru cette année
ont évalué les produits de la vision par
ordinateur d'IBM, Microsoft et autres :
ces produits fonctionnaient moins bien
pour les femmes que pour les hommes,
et sur les personnes ayant
une peau plus sombre

English: 
on tasks that we used to think
only humans could do,
like recognizing pictures 
and understanding speech.
One misconception about AI researchers
is that we're all trying
to recreate a human brain
or to get a computer
to achieve human consciousness.
Many of us are not.
Many of us, including me,
are interested in practical solutions
to real-world problems,
like identifying lung cancer on a CT scan.
I'll talk more about some of these
positive applications in a moment,
but first I want to address
three aspects of AI that worry me.
The first is that AI is encoding
and magnifying human bias.
Computer vision has repeatedly
performed worse on people of color.
Research earlier this year
from Joy Buolamwini and Timnit Gebru
evaluated computer vision products
from IBM, Microsoft, and elsewhere,
and they found that these products
performed worse on women than on men

Arabic: 
أسوأ على الأشخاص ذوي البشرة الداكنة 
مقارنة بالأشخاص ذوي البشرة الفاتحة.
على سبيل المثال،
برنامج رؤية الحاسوب لشركة IBM
كانت دقته 99.7٪ 
على الرجال ذوي البشرة الفاتحة
ودقته 65٪ فقط
على النساء ذوات البشرة الداكنة.
هذا كلام سخيف.
هذا فرق كبير: 34٪.
يتم أيضًا ترميز التحيز في اللغة
في أدوات الترجمة،
مثل ترجمة جوجل.
إذا أعطيت ترجمة Google 
زوجًا من الجمل الإنجليزية -
"هي طبيبة"، "هو ممرض" -
ويترجمهم إلى اللغه التركية،
الذي له ضمير مفرد محايد جنسايا،
ثم العودة إلى اللغة الإنجليزية،
يعودون مع الأجناس المقلوبة
لتناسب الصورة النمطية:
"هو طبيب،"
"هي ممرضة."
وهذا مثال واحد فقط
من العديد من التحيزات 
التي تم ترميزها في ترجمة جوجل.
المجال الثاني الذي يقلقني
هو أن الذكاء الإصطناعي يعمل 
على تعزيز وتحفيز نظريات المؤامرة.

French: 
comparé aux personnes
à la peau plus claire.
Par exemple,
le logiciel de vision par ordinateur d'IBM
était correct sur 99.7 % des hommes
à la peau claire
et seulement 65 % sur les femmes
à la peau foncée.
C'est ridicule.
C'est une différence énorme, 34 %.
Le préjugé est aussi encodé dans les
langages des outils de traduction,
comme Google Traduction.
Si vous donnez des phrases en anglais
à traduire à Google Traduction -
« Elle est médecin »,
« Il est infirmier » -
que vous traduisez en turc,
qui a un pronom singulier neutre en genre,
puis que vous revenez à l'anglais,
les phrases reviennent avec des genres
qui collent aux stéréotypes :
« Il est médecin »,
« Elle est infirmière ».
Et ce n'est qu'un exemple
parmi tant d'autres des préjugés qui sont
encodés dans Google Traduction.
Ma seconde inquiétude
est que l'IA promeut et incite
les théories du complot.

English: 
and worse on people with dark skin
compared to people with light skin.
For instance,
IBM's computer vision software
was 99.7% accurate on light-skinned men
and only 65% accurate
on dark-skinned women.
That's ridiculous.
That's a huge difference: 34%.
Bias is also being encoded
in language in translation tools,
like Google Translate.
If you give Google Translate
a pair of English sentences -
"She is a doctor," "He is a nurse" -
translate those into Turkish,
which has a gender-neutral
singular pronoun,
and then back into English,
they come back with the genders
flipped to fit the stereotype:
"He is a doctor,"
"She is a nurse."
And this is just one example
out of many biases that are encoded
in Google Translate.
Second area that worries me
is that AI is promoting
and incentivizing conspiracy theories.

Arabic: 
يشاهد الأشخاص أكثر من مليار ساعة 
من اليوتيوب يوميًا.
هذا في اليوم الواحد.
هذا هائل.
يرجع جزء من نجاح اليوتيوب 
إلى خوارزمية التوصية الخاصة به.
لذلك عندما تشاهد اليوتيوب،
هناك شريط جانبي يقول "التالي"
ولديه العديد من مقاطع الفيديو 
المحددة بواسطة خوارزمية.
تتضمن هذه التوصيات بشكل غير متناسب
نظريات المؤامرة والمتفوقون البيض.
تم التحقيق في هذه الظاهرة
عن طريق صحيفة وول ستريت 
جورنال والجارديان،
وقد كتب عنه في نيويورك تايمز.
إذن ما الذي يحدث هنا؟
هذه ليست مؤامرة شريرة مقصودة،
لكن خوارزمية يوتيوب
تحاول زيادة الوقت الذي يقضيه 
الأشخاص في مشاهدة يوتيوب
لأنهم يكسبون المزيد من المال 
بهذه الطريقة
ومشاهدي المؤامرات
يشاهدون الكثير من اليوتيوب
من الأشخاص الذين يثقون
بمجموعة متنوعة من مصادر الوسائط.
(ضحك)
الوقت الذي نقضيه على مصادر إعلامية أخرى
سيىء بالنسبة الحد الأدني لليوتيوب.

English: 
People watch over 1 billion hours
of YouTube per day.
That's per day.
That's huge.
Part of YouTube's success is because
of its recommendation algorithm.
So when you're watching YouTube,
there is a sidebar that says "up next"
and has several videos 
selected by an algorithm.
These recommendations
disproportionately include
conspiracy theorists 
and white supremacists.
This phenomenon has been investigated
by The Wall Street Journal
and The Guardian,
and it's been written about
in The New York Times.
So what's going on here?
This is not an intentional evil plot,
but YouTube's algorithm
is trying to maximize how much time
people spend watching YouTube
because they earn more money that way,
and conspiracy theorists
watch way more YouTube
than people that trust
a variety of media sources.
(Laughter)
Time we spend on other media sources
is bad for YouTube's bottom line.

French: 
Les gens regardent YouTube plus
d'un milliard d'heures par jour.
Oui, par jour.
C'est énorme.
Une partie du succès de YouTube vient
de l'algorithme de recommandation.
Donc quand vous regardez YouTube,
il y a une barre sur le côté
qui dit « à suivre »
et qui propose plusieurs vidéos
choisies par un algorithme.
Ces recommandations incluent
de façon disproportionnée
des théories du complot et
des suprémacistes blancs.
Une enquête sur ce phénomène a été menée
par le Wall Street Journal, The Guardian,
et le New-York Times
a aussi écrit à ce sujet.
Que se passe-t-il ?
Ce n'est pas un plan
machiavélique délibéré,
mais l'algorithme de YouTube
essaye de maximiser le temps passé
par les gens à regarder YouTube
parce qu'ainsi, ils gagnent plus d'argent,
et les partisans des théories du complot
regardent bien plus YouTube
que les gens qui font confiance à
une multitude de sources médiatiques.
(Rires)
Le temps passé sur les autres média
est mauvais pour les bénéfices de YouTube.

Arabic: 
لذا فإن جوجل، التي تمتلك موقع يوتيوب،
يكسب الكثير من المال
أثناء ضخ التلوث في بقية المجتمع.
في هذه الحالة، هذا التلوث 
في شكل التأثير السياسي والاجتماعي
لوجود الكثير من الناس الذين 
يعتقدون نظريات المؤامرة
وعدم الثقة في مصادر
وسائل الإعلام الرئيسية،
بالإضافة إلى التحريض على نظريات المؤامرة
للخروج بمواد أكثر تطرفًا
لأن هذا ما يكافأ.
غالبًا ما تبدو المشاكل التي يطرحها
الذكاء الإصطناعي جديدة جدًا.
ولكن في هذه الحالة،
هذه مشكلة ما يجب 
القيام بها عندما تستفيد الشركة
بينما تعوض تكلفتها أي شيء آخر
كان هذا أمر يبحث عنه خبراء 
الاقتصاد والسياسة العامة منذ أمد بعيد،
ويمكننا استخدام مساعدتهم هنا.
وقبل أن أشرح المجال الثالث،
لنبدأ بمشاهدة هذا الفيديو.
سترى بعض المستطيلات
الخضراء والحمراء على اليسار،
وهي تحديد رؤوس وجوه الناس
على الرغم من أن هذا الفيديو على مسافة
وأن هناك عدد كبير من الناس.

English: 
So Google, which owns YouTube,
is earning a lot of money
while pumping pollution
into the rest of society.
In this case, that pollution's in the form
of the political and social impact
of having lots of people
who believe conspiracy theories
and distrust mainstream media sources,
in addition to even
egging on conspiracy theorists
to come out with more extreme material
because that's what's rewarded.
The problems posed by AI
can often feel very new.
But in this case,
this problem of what to do
when a company is profiting
while offsetting its cost
to everyone else -
that's something economists
and public policy experts
have been looking at for ages,
and we could use their help here.
And before I explain the third area,
let's start by watching this video.
So you'll see some green
and red rectangles on the left,
and those are identifying
people's heads and faces
even though this video is at a distance
and the people are in a crowd.

French: 
Donc Google, qui détient YouTube,
gagne beaucoup d'argent
tout en injectant de la pollution
dans le reste de la société.
Dans ce cas, la pollution prend la forme
de l'impact politique et social
lorsqu'on a beaucoup de personnes
qui croient aux théories du complot
et qui doutent des média traditionnels,
surtout lorsque les théories du complot
sont poussées à l'extrême
parce que c'est ce qui attire l'audience.
Les problèmes posés par l'IA donnent
parfois l'impression d'être très nouveaux.
Mais dans le cas présent,
lorsqu'une entreprise fait du profit
tout en redistribuant son coût
sur tout le monde -
c'est ce que les experts économiques
et en politiques publiques
ont cherché pendant des siècles,
et on aurait bien besoin de leur aide ici.
Et avant que j'explique
cette troisième partie,
regardons cette vidéo.
Donc les rectangles verts et rouges
que vous voyez sur la gauche
identifient les têtes et visages
des passants
même si cette vidéo est prise à une
certaine distance et que c'est une foule.

Arabic: 
أجد هذا مخيفاً جداً.
يمكن للحكومات الاستبدادية 
استخدام الذكاء الاصطناعي
للمراقبة.
لذا، حاليًا في الصين،
مليون شخص ينتمون لأقلية عرقية
في معسكرات الاعتقال،
والمراقبة ساعدت على ذلك.
هذا الفيديو من شركة صينية تدعي "ديب جلينت"
عمرها سنتان.
استمرت التقنية في التقدم فقط
منذ ذلك الحين.
العام الفائت،
كان هناك بحث حول كيفية التعرف 
على المتظاهرين في حشد من الناس
حتي إذا كانوا يرتدون قبعات أو أوشحة
لمحاوله إخفاء هوياتهم.
وهذه ليست مجرد مشكلة في الخارج.
في الولايات المتحدة 
في وقت سابق من هذا العام،
تعلمنا أن بالانتير،
وهي شركة تقنية أسسها
الملياردير ومانح ترامب
بيتر ثيل
كان بالانتير يستخدم 
نيو أورليانز كسرير اختبار
لتقنية الشرطة التنبؤية
خلال السنوات الست الفائتة.
كان هذا البرنامج سريا للغاية
أنه حتى أعضاء مجلس المدينة
لم يعرفوا ذلك،

French: 
Je trouve ça assez dérangeant.
L'IA peut être utilisée par
des gouvernements autoritaires
pour la surveillance.
Ainsi en Chine par exemple,
un million de personnes appartenant
à une minorité ethnique,
sont retenues dans des camps,
et la surveillance a aidé à cela.
Cette vidéo a été faite par une
entreprise chinoise, « DeepGlint ».
Ça date d'il y a deux ans.
La technologie n'a cessé
de progresser depuis.
L'an dernier,
une recherche a permis d'identifier
des manifestants dans une foule
même lorsqu'ils portaient des chapeaux ou
des écharpes pour cacher leurs identités.
Et ce problème n'existe pas
qu'à l'étranger.
Aux États-Unis cette année,
nous avons appris que Palantir,
une entreprise fondée par
le milliardaire et supporter de Trump
Peter Thiel -
Palantir a utilisé la Nouvelle-Orléans
comme ville test
pour sa technologie de police prédictive
ces six dernières années.
Ce programme était si secret
que même les membres du conseil municipal
n'en savaient rien,

English: 
I find this pretty creepy.
AI can be used
by authoritarian governments
for surveillance.
So, currently in China,
a million people who are members
of an ethnic minority
are in internment camps,
and surveillance
has helped facilitate that.
This video is from a Chinese company
called "DeepGlint."
It's two years old.
The technology has only continued
to advance since then.
Last year,
there was research on how to identify
protesters in a crowd
even if they're wearing hats or scarves
to try to conceal their identities.
And this is not just a problem abroad.
In the United States earlier this year,
we learned that Palantir,
which is a tech company founded
by billionaire and Trump donor
Peter Thiel -
Palantir had been using
New Orleans as a test bed
for its predictive policing technology
for the last six years.
This program was so secretive
that even city council members
didn't know about it,

English: 
much less have any oversight.
Amazon is already selling
facial recognition software to police,
and this software is in use
by police in Orlando and Oregon
even though the ACLU is raising concerns
about the racial bias
and inaccuracy of Amazon software.
I think the combination
of a total lack of accountability,
transparency, or oversight,
together with racial bias
in existing police data
that will be used
to train these algorithms,
together with the repeated failure
of computer vision on people of color
makes this a really 
frightening combination.
So part of the reason
that we're seeing so many unsettling
and even scary applications of AI
is because of how incredibly narrow
the group of people that's creating it is
and how many of us
are not represented by that group.
Only 12% of machine-learning 
researchers are women.
The numbers are similarly dire

Arabic: 
ناهيك عن الإشراف.
تبيع أمازون بالفعل 
برامج التعرف على الوجه للشرطة،
وهذا البرنامج قيد الاستخدام 
من قبل الشرطة في أورلاندو وأوريغون
على الرغم من أن اتحاد الحريات المدنية
لديه مخاوف
حول التحيز العنصري
وعدم الدقة في برامج أمازون.
أعتقد أن الجمع
بين الافتقار التام للمساءلة 
والشفافية أو الرقابة،
جنبا إلى جنب مع التحيز العنصري
في بيانات الشرطة الموجودة
التي سيتم استخدامها
لتدريب هذه الخوارزميات،
جنبا إلى جنب مع الفشل المتكرر 
للرؤية الحاسوبية على الأشخاص الملونين
يجعل هذا مزيجًا مخيفًا حقًا.
لذا جزء من السبب
أننا نرى الكثير من التطبيقات المقلقة
وحتى المخيفة للذكاء الاصطناعي
هو بسبب مدى ضيق مجموعة قليلة العدد 
من الأشخاص الذين ينشئونها
وكم منا لا يمثلهم تلك المجموعة.
النساء يمثلن 12% فقط 
من الباحثين في تعليم الآلات.
والأرقام رهيبة بالمثل

French: 
et pouvaient encore moins
en avoir le contrôle.
Amazon vend déjà un logiciel
de reconnaissance faciale à la police,
et ce logiciel est actuellement utilisé
par la police d'Orlando et en Oregon
bien que l'Union pour les
libertés civiles se soit interrogée
sur les préjugés raciaux et l'inexactitude
du logiciel d'Amazon.
Je pense que la combinaison
d'un manque total de responsabilité,
de transparence ou de supervision
combiné aux préjugés raciaux dans les
données déjà existantes de la police
qui seront utilisées pour entraîner
ces algorithmes,
combiné à l'échec répété de la vision par
ordinateur sur les personnes de couleur
est une combinaison très inquiétante.
Une des raisons pour lesquelles
nous voyons autant d'applications
d'IA dérangeantes et même effrayantes,
est que le groupe de personnes qui crée
cela est incroyablement étroit,
et combien d'entre nous ne sont pas
représentés dans ce groupe.
Seulement 12 % des chercheurs en
apprentissage profond sont des femmes.
Les chiffres sont tout
autant catastrophiques

English: 
when it comes to race,
geodiversity, and background.
On top of this,
people in tech are often building AI
without any sort of input
or collaboration
from fields like sociology,
psychology, or history
that can help us better understand 
how tech and humans interact.
I've personally experienced
how toxic the environment can be
in academic STEM fields 
and in the tech industry,
and it scares me
that the same people responsible
for creating these toxic environments
are the primary ones
creating powerful AI technology.
I am an AI researcher,
but I'm a very unlikely person
to have become an AI researcher.
And my goal is to help
more unlikely people
find their way into the field.
I felt like an outsider my entire life.
I could never find
the community I was looking for -
not in academia, not in tech.
So I eventually decided
to create that community for myself,

Arabic: 
عندما يتعلق الأمر بالعرق،
التنوع الجغرافي والخلفية.
وعلى رأس ذلك.
غالبًا ما يبني الأشخاص في مجال
تقنية الذكاء الاصطناعي
بدون أي نوع من المدخلات أو التعاون
من مجالات مثل علم الاجتماع،
علم النفس أو التاريخ
والتي يمكنها أن تساعدنا على فهم 
أفضل لكيفية تفاعل التقنية والبشر.
لقد اختبرت شخصيا كيف 
يمكن أن تكون البيئة سامة
في مجالات العلوم والتقنيات
والهندسة والرياضيات وفي صناعة التقنيات،
وهي تخيفني
أن نفس الأشخاص المسؤولين 
عن خلق هذه البيئات السامة
هم الأساسيون الذين يخلقون
تقنية الذكاء الإصطناعي القوية.
أنا باحثة في الذكاء الاصطناعي،
ولكني غير مظوظة بكوني باحثة 
في الذكاء الاصطناعي.
وهدفي هو مساعدة اُناس غير محظوظين
لكي يجدوا طريقهم داخل هذا المجال
شعرت وكأنني غريبة طوال حياتي.
لم يكن ياستطاعتي قط أن أجد 
المجتمع الذي أتطلع إليه
ليس في الأوساط الأكاديمية،
وليس في التقنيات.
لذلك في النهاية قررت أن أصنع مجتمعا لنفسي،

French: 
si on regarde la race, la diversité
géographique et l'origine.
Et en plus,
les personnes dans la tech
construisent parfois l'IA
sans apport ou collaboration
des domaines comme la sociologie,
la psychologie ou l'histoire,
qui peuvent nous aider à mieux comprendre
l'interaction entre les humains
et la technologie.
J'ai personnellement fait l'expérience
d'un environnement toxique
pendant mes études scientifiques
et dans l'industrie de la tech,
et cela m'a fait peur de voir
que les personnes qui étaient responsables
de ces environnements toxiques
sont les mêmes personnes qui créent cette
puissante technologie qu'est l'IA.
Je suis chercheuse en IA,
mais je n'étais pas destinée à le devenir.
Mon but est d'aider les gens improbables
à trouver leur voie.
Toute ma vie, je me suis sentie
comme une étrangère.
Je ne trouvais pas la communauté
que je cherchais -
pas dans le milieu universitaire,
pas dans la tech.
Alors j'ai finalement décidé de créer
cette communauté moi-même,

English: 
for other outsiders,
for people who've been excluded
or who can't afford the resources.
I grew up on the Gulf Coast of Texas
near a cluster of chemical refineries.
I attended a poor, predominantly black
public high school
that was later ranked
in the bottom 2% of Texas schools.
I was pepper-sprayed by police
while I was at school.
And there were some great students
and teachers at my school,
but even as a teenager,
it was clear we did not have
the resources or the opportunities
that wealthier schools had
and we were not treated the same.
Unlikely as it was,
I completed my PhD in math.
I did not fit in.
Like most math PhD programs,
my program was almost entirely male.
I experienced sexism,
harassment and isolation.
I watched several of my female friends
drop out due to the culture.
My thesis advisor even told me
I was too feminine to be successful,

Arabic: 
للغرباء الآخرين،
للأشخاص الذين تم استبعادهم
أو الذين لا يستطيعون تحمل الموارد.
لقد نشأت على ساحل خليج تكساس 
بالقرب من مجموعة من المصافي الكيميائية.
حضرت مدرسة ثانوية 
عامة فقيرة في الغالب سوداء
التي تم تصنيفها لاحقًا في أدنى 2٪ 
من مدارس ولاية تكساس.
لقد تم رشي برذاذ الفلفل 
عندما كنت في المدرسة
وكان هنالك طلاب ومدرسين عظماء في المدرسة
ولكن حتى عندما كنت مراهقًا،
كان من الواضح أنه لم يكن لدينا الموارد
أو الفرص التي لدي المدارس الأكثر ثراءً
ولم نعامل بالمثل.
وعلى غير المعتاد،
اكملت الدكتوراه خاصتي في الرياضيات.
لم يكن يناسبني.
مثل معظم برامج الدكتوراه في الرياضيات،
كان برنامجي من الذكور بالكامل تقريبًا.
لقد عانيت من التحيز الجنسي
والتحرش والعزلة.
شاهدت العديد من صديقاتي 
يتسربن بسبب الثقافة.
وقد أخبرني مشرف رسالتي أني كنت
أتحلى بصفات الأنوثة التي تعيق النجاح

French: 
pour les autres étrangers,
pour les personnes qui ont été exclues
ou qui ne peuvent pas se payer
de telles ressources.
J'ai grandi au Texas, sur la côte,
près de plusieurs usines chimiques.
Je suis allée dans un lycée pauvre,
à majorité noire
qui a plus tard été classé dans les
2 derniers % des écoles du Texas.
J'ai été aspergée de gaz poivré par
la police alors que j'étais à l'école.
Il y avait de bons étudiants et de bons
professeurs dans mon lycée,
mais même adolescente,
c'était clair que nous n'avions pas les
mêmes ressources, opportunités
que des écoles plus riches,
et nous n'étions pas traités
de la même façon.
Mais malgré tout,
j'ai obtenu mon doctorat en maths.
Je ne rentrais pas dans les cases.
Comme souvent en doctorat en maths,
ma promotion était presque
exclusivement masculine.
J'ai souffert de sexisme,
de harcèlement et de solitude.
J'ai vu plusieurs de mes amies abandonner
à cause de cette culture.
Mon directeur de thèse m'a même dit que
j'étais trop féminine pour réussir,

English: 
and he later stopped meeting with me.
It was devastating.
Years later,
I sold my car, my furniture,
and most of what I owned
to move to San Francisco
with just two suitcases
and a new dream
of becoming a data scientist.
I did not know anybody
who worked in tech -
it was not a career option
I'd really been exposed to -
and I felt like people in tech
were speaking a foreign language.
Eventually, I achieved my goal,
and I landed a job as a data scientist
and software engineer
at an up-and-coming startup
that would later go on to become
a multibillion-dollar company
and household name.
Everyone kept telling me I'd made it,
but I was miserable.
Once again, I did not fit in.
The environment was aggressive, 
sexist, and isolating,
and I dreaded going to work each morning.

Arabic: 
وتوقف بعد ذلك عن لقائي.
كانت مدمرة.
بعد سنوات،
بعت سيارتي وأثاثي وتقريبا كل ما أملك
لكي أنتقل لسان فرانسسكوا
بحقيبتين فقط
وحلم جديد أن أكون عالمة البيانات.
لم أجن أعرف أي أحد يعمل في التقنيات
لم يكن خيار عمل قمت بالاحتكاك به من قبل
وشعرت أن الناس في مجال 
التقنيات يتحدثون لغة أجنبية.
في النهاية، حققت هدفي،
وحصلت على وظيفة 
كعالم بيانات ومهندس برمجيات
في شركة ناشئة
التي أصبحت لاحقًا شركة بمليارات الدولارات
واسمً مشهوراً.
استمر الجميع في إخباري بأنني قمت بذلك،
ولكني كنت تعيسة.
مرة أخرى، لم أتأقلم.
كانت البيئة عدوانية وجنسية وعزلة،
وكنت أخشى الذهاب إلى العمل كل صباح.

French: 
et il a même arrêté nos réunions.
J'étais dévastée.
Des années plus tard,
j'ai vendu ma voiture, mes meubles
et presque toutes mes affaires
pour déménager à San Francisco,
avec seulement deux valises
et le rêve nouveau de travailler
dans la science des données.
Je ne connaissais personne
qui travaillait dans la tech,
ce n'était pas vraiment
une option de carrière,
et j'avais l'impression que les personnes
de la tech parlaient un autre langage.
J'ai finalement atteint mon but,
j'ai décroché un travail en tant que
« data scientist » et ingénieur logiciel
dans une start-up montante
qui allait devenir plus tard
une entreprise multimilliardaire
au nom célèbre.
Tout le monde n'arrêtait pas
de me dire que j'avais réussi,
mais j'étais malheureuse.
Une fois de plus, je ne rentrais pas
dans les cases.
Le milieu était agressif, sexiste
et m'isolait,
et tous les matins,
j'allais au travail à reculons.

English: 
During the same period of time, 
I first got interested in deep learning.
In 2012, I read a New York Times article
about an academic group that had 
no expert knowledge of biochemistry
but was using deep learning
to automatically design 
new pharmaceutical drugs.
This is exactly the type
of practical AI I'm interested in.
As I told friends and acquaintances
what I was learning,
many people told me
that they could never understand AI,
that they weren't smart enough
or their brain wasn't wired the right way.
These are all myths.
This is completely false
for a number of reasons.
As I got deeper into the field
and learned the practical techniques
needed to create state-of-the-art models,
I saw that in most cases
the math theory wasn't even necessary
to become a working practitioner.
I also saw that the field 
was unnecessarily exclusive.
In 2013, I went to a talk
that a star in the field was giving,
and I asked him a simple, 
practical question during the Q&A.
He not only didn't answer my question,

Arabic: 
خلال نفس الفترة الزمنية،
اهتممت أولاً بالتعلم العميق.
في عام 2012، قرأت مقالة نيويورك تايمز
عن مجموعة أكاديمية ليس لديها
معرفة متخصصة بالكيمياء الحيوية
لكنها كانت تستخدم التعلم العميق
لتصميم عقاقير دوائية جديدة آلياً.
هذا هو النوع العملي 
في الذكاء الاصطناعي بالضبط الذي اهتم به.
كما أخبرت الأصدقاء والمعارف ما كنت أتعلمه،
أخبرني الكثير من الناس أنهم 
لا يستطيعون فهم الذكاء الاصطناعي،
أنهم لم يكونوا أذكياء بما فيه الكفاية أو
أن دماغهم لم يتم توصيله بالطريقة الصحيحة.
هذه كلها أساطير.
هذا غير صحيح تمامًا لعدد من الأسباب.
كلما تعمقت في هذا المجال
وتعلمت التقنيات العملية 
اللازمة لإنشاء نماذج حديثة،
رأيت ذلك في معظم الحالات
لم تكن نظرية الرياضيات ضرورية 
حتى تصبح ممارسًا عاملاً.
رأيت أيضًا أن المجال كان محصوراً دون داعٍ.
في عام 2013، ذهبت إلى عرض
كان يلقية شخصية بارزه في المجال،
وسألته سؤالا عمليا بسيطا 
أثناء فترة الأسئلة،
لم يكتفي بأنه لم يجيب السؤال،

French: 
Au même moment, j'ai commencé à
m'intéresser à l'apprentissage profond.
En 2012, j'ai lu un article
du New York Times
sur un groupe de chercheurs qui
n'avait aucune expertise en biochimie
mais qui utilisait l'apprentissage profond
pour concevoir automatiquement
de nouveaux médicaments.
C'est exactement le type d'IA pratique
qui m'intéressait.
Lorsque j'ai dit à mes amis
et connaissances ce que j'étudiais,
beaucoup m'ont dit qu'ils ne comprenaient
rien à l'IA,
qu'ils n'étaient pas assez intelligents
ou que leur cerveau n'était pas
fait pour comprendre ça.
Ce ne sont que des mythes.
C'est complètement faux,
et pour plusieurs raisons.
À mesure que j'avançais dans ce domaine,
j'ai appris les techniques nécessaires
pour créer des modèles dernier cri,
je voyais que dans la plupart des cas,
la théorie mathématique n'était pas
nécessaire pour devenir un expert.
J'ai aussi vu que ce domaine
était inutilement exclusif.
En 2013, j'ai assisté à une conférence
donnée par un ponte du domaine,
et je lui ai posé une question
simple et pratique.
Non seulement n'a-t-il pas répondu
à ma question,

French: 
mais il m'a dit que personne
ne connaissait la réponse -
donc des gens comme lui -
et personne ne la notait.
Si vous ne faisiez pas partie de la foule,
bonne chance.
Mais ça n'a pas à être comme ça.
Longtemps,
je pensais que le fait de ne pas rentrer
dans les cases était mal.
J'ai parfois souhaité pouvoir
être quelqu'un d'autre
pour mieux correspondre
à l'environnement toxique où j'évoluais.
Mais en fait, ne pas rentrer
dans les cases est une chance.
Cela m'a permis de trouver une ouverture :
le système actuel, le milieu de la
recherche, de l'IA, la tech
ne sont pas faits pour des gens comme moi.
Ni pour la plupart des gens.
Mon parcours, différent, m'a permis
de créer quelque chose de différent.
Il y a deux ans, je me suis associée
à Jeremy Howard,
qui a fait des études de philosophie,
sans diplôme ni formation
en apprentissage profond.
Nous avons créé un cours pour enseigner
un apprentissage profond d'avant-garde,
qui ne nécessite pas de connaissances
mathématiques.
Et nous l'avons rendu
complètement gratuit.

Arabic: 
ولكن أخبرني أن لا أحد يعرف الأجابة
لذلك الأشخاص أمثاله
لم يكتبه أحد.
إذا لم تكن جزءًا من الحشد الداخلي،
لست محظوظاً.
ولكن لا يجب أن يكون الأمر كذلك.
لكثير من حياتي،
اعتقدت أنها كانت سلبية 
ولم أتمكن من التأقلم.
كنت أتمنى في بعض الأحيان أن أكون شخصًا أخر
حتى أتمكن من التوافق بشكل أفضل 
مع البيئات السامة التي كنت فيها.
ولكن تبين أن الطرق 
التي لا تناسبني لها قيمة.
سمحت لي برؤية فجوة:
أن النظام الحالي والأوساط الأكاديمية وفي
مجال التقنيات وفي مجتمع الذكاء الاصطناعي
ليست مبنية لأشخاص مثلي.
لم يتم بناؤه لمعظمنا.
سمحت لي خلفيتي المختلفة بإنشاء شيء مختلف.
قبل عامين، دخلت في شراكة مع جيريمي هوارد،
من هو رائد في الفلسفة
بدون شهادة دراسات عليا 
أو تدريب رسمي لتعلم الآلة.
وقررنا إنشاء دورة لتدريس 
التعلم العميق المتطور
مع عدم وجود متطلبات الرياضيات المتقدمة.
وجعلنا هذا متاحًا بالكامل مجانًا.

English: 
he told me that nobody
who knew the answer -
so people like him -
nobody was writing it down.
If you weren't part
of the inside crowd, tough luck.
But it doesn't have to be like that.
For much of my life,
I thought it was a negative 
that I didn't and couldn't fit in.
I sometimes even wished
that I could be a different person
so I could better fit
into the toxic environments I was in.
But it turns out the ways 
I don't fit in are valuable.
They allowed me to see a gap:
that the current system and academia 
and in tech and in the AI community
isn't built for people like me.
It's not built for most of us.
My different background allowed me 
to create something different.
Two years ago, I partnered
with Jeremy Howard,
who's a philosophy major
with no graduate degree
and no formal machine-learning training.
And we decided to create a course
to teach state-of-the-art deep learning
with no advanced math prerequisites.
And we made this available
completely for free.

French: 
Notre slogan : « Rendre les réseaux
neuronaux artificiels moins cools »
parce qu'être cool, c'est être exclusif
et c'est le contraire de ce que je veux.
La plupart des gens
qui suivent notre cours
ont un travail différent et font ça
pendant leur temps libre.
Et nous avons des dizaines de milliers
de personnes qui suivent ce cours
et qui appliquent l'apprentissage profond
à leurs problèmes,
que ce soit des associations ou
des entreprises de Fortune 500,
des start-ups en plein lancement
ou gagnant des hackathons.
Malgré ces histoires de réussite,
je continue d'entendre des experts dire
que ce que nous faisons est impossible.
Nous démystifions l'idée
qu'il vous faut l'ordinateur
le plus sophistiqué, le plus cher,
et le parcours le plus accompli
pour faire des travaux d'avant-garde.
Plus tôt cette année,
un groupe de nos étudiants à temps partiel
a rejoint une compétition contre
des ingénieurs de Google et d'Intel.
Et ces équipes de Google et Intel

English: 
Our motto is "Making neural nets uncool"
because being cool
is about being exclusive
and that's the opposite of what I want.
So most people who take our course
are working professionals
doing this in their spare time.
And we've had tens of thousands
of people take the class
and apply deep learning 
to problems they care about,
whether this is at nonprofits
or Fortune 500 companies,
launching start-ups,
or winning hackathons.
Despite these success stories,
I continue to hear from experts saying 
that what we're doing is impossible.
We're disproving the myth
that you need the fanciest,
most expensive computer
and the fanciest,
most prestigious background
to do cutting-edge work.
Earlier this year,
a group of our part-time students
entered a competition against engineers
from Google and Stanford -
sorry, Google and Intel.
And these teams at Google and Intel

Arabic: 
شعارنا هو "جعل الشبكات العصبية غير رائعة"
لأن كونك رائعًا هو أن تكون حصريًا
وهذا عكس ما أردت.
لذلك معظم الملتحقين الدورة
يعملون بشكل محترف في وقت فراغهم.
ولدينا عشرات الآلاف 
من الأشخاص الذين حضروا الفصل
وتطبيق التعلم العميق 
على المشاكل التي تهمهم،
سواء كان ذلك في المؤسسات غير الربحية 
أو شركات فورتشين 500
إطلاق شركات ناشئة،
أو يفوزون في هاكاثون
على الرغم من قصص النجاح هذه،
ما زلت أسمع من الخبراء 
يقولون إن ما نقوم به مستحيل.
نحن ندحض الأسطورة
أنك بحاجة إلى الكمبيوتر الأكثر فخامة وأغلى
والخلفية المرموقة والأبهى
للقيام بعمل متطور.
في وقت سابق من هذا العام،
مجموعة من طلابنا بدوام جزئي
دخلت في مسابقة ضد المهندسين
من جوجل وستانفورد -
آسفة، جوجل وإنتل.
وهذه الفرق في جوجل وإنتل

Arabic: 
لديهم أجهزة الكمبيوتر أكثر تكلفة.
ومع ذلك فاز فريقنا.
(ضحك)
(تصفيق)
شكرا لكم - أنا فخورة بهم.
تم تغطية ذلك في ذا فيرج
ومراجعة تقنية ام اي تي،
ويوضحون أن
أنك لست مضطرًا للعمل في جوجل 
أو أن يكون لديك موارد تشبه جوجل
للقيام بأحدث الأعمال.
الشخص الذي أخذ دورتنا هو ميليسا فابروس.
ميليسا كانت طالبة دكتوراه في الأدب 
الإنجليزي تركز على الشعر الأمريكي
قبل تبديل الوظائف قبل بضع سنوات.
هي الآن مهندسة في مؤسسة كيفا 
غير الهادفة للربح،
مما يتيح للناس تقديم قروض صغيرة
لرواد الأعمال حول العالم.
اكتشفت ميليسا أن برنامج 
الرؤية في الكمبيوتر
لا يمكن التعرف على صور مستخدمي كيفا،
لأن البرنامج تم تدريبه بشكل أساسي 
من قبل الأشخاص البيض.
حصلت ميليسا على منحة مرموقة للمساعدة 
في تمويل مشروعها لمعالجة هذا الأمر.

English: 
had access to way more
expensive computers.
Yet our team won.
(Laughs)
(Applause)
Thank you - I'm so proud of them.
This was covered in The Verge 
and the MIT Technology Review,
and they're showing
that you don't have to work at Google
or have Google-like resources
to do state-of-the-art work.
One person who's taken our course
is Melissa Fabros.
Melissa was an English literature
PhD student focused on American poetry
before switching careers a few years ago.
She's now an engineer
at the microlending nonprofit Kiva,
which lets people make small loans
to entrepreneurs around the world.
Melissa discovered
that computer vision software
couldn't identify pictures of Kiva users,
because the software was primarily 
trained by and on white people.
Melissa won a prestigious grant
to help fund her project to address this.

French: 
avaient accès à des ordinateurs
bien plus chers.
Et pourtant, notre équipe a gagné.
(Rires)
(Applaudissements)
Merci - je suis tellement fière d'eux.
Des articles ont été publiés par The Verge
et le MIT Technology Review,
qui montraient
que vous n'avez pas besoin de travailler
à Google ou avoir les ressources de Google
pour faire des travaux d'avant-garde.
Une des personnes qui a suivi notre cours
s'appelle Melissa Fabros.
Melissa faisait un doctorat en littérature
anglaise, sur la poésie américaine,
avant de changer de carrière
il y a quelques années.
Elle est maintenant ingénieur dans
l'association de micro-crédits Kiva,
qui permet de prêter de l'argent à des
entrepreneurs partout dans le monde.
Melissa a découvert que le logiciel
de vision par ordinateur
n'identifiait pas les photos
des utilisateurs de Kiva ;
le logiciel avait été initialement formé
par et sur des personnes blanches.
Melissa a gagné une bourse prestigieuse
pour l'aider à financer sa solution.

English: 
Another person who's taken
our class is Sara Hooker.
Sara was an economics major
who only learned to code 
a few years before the class.
Sara started Delta Analytics
to pair data scientists with nonprofits.
Sara and a team worked 
with Rainforest Connection,
which puts recycled cell phones
up on trees in endangered rainforests,
streams audio,
and then uses deep learning
to identify chainsaw noises
if someone's illegally 
cutting down the forest.
There are experts who say our students
will never get jobs in the field,
yet Sara now works for Google
and is helping to open
Google's first AI research center
in Africa.
These are just a few stories out of many.
Other people who have taken our class
have helped farmers in India,
created wearable devices
for patients with Parkinson's disease,
invented new styles of artwork and music,
and even had their work
featured on HBO and in Forbes.

French: 
Une autre personne qui a suivi
notre cours s'appelle Sara Hooker.
Elle étudiait l'économie
et n'avait appris à coder que quelques
années avant de suivre notre cours.
Sara a lancé Delta Analytics pour mettre
en contact « data scientists » et ONG.
Sara et son équipe ont travaillé
avec Rainforest Connection,
qui dépose des téléphones recyclés
sur des arbres menacés d'extinction
qui transmettent les sons des forêts
et utilisent l'apprentissage profond pour
identifier les bruits de tronçonneuse,
identifiant les coupes d'arbres illégales.
Des experts disent que nos étudiants
n'auront jamais de travail sur le terrain,
pourtant Sara travaille
maintenant à Google
et participe à l'ouverture du premier
centre de recherche d'IA
en Afrique.
Ce ne sont que quelques histoires
parmi tant d'autres.
D'autres personnes ayant suivi notre cours
ont aidé des fermiers en Inde,
ont créé des appareils portables pour les
personnes ayant la maladie de Parkinson,
ont inventé de nouveaux styles
d'art et de musique,
et ont même eu leur travail présenté
sur HBO et dans Forbes.

Arabic: 
شخص آخر أخذ صفنا هو سارة هوكر.
كانت سارة خبيرة في الاقتصاد
الذتي تعلموا البرمجة فقط 
قبل سنوات قليلة من الفصل.
بدأت سارة برنامج دلتا انلاتيكس لإقران
علماء البيانات مع المنظمات غير الربحية.
عملت سارة وفريق مع راين فورس كونيكشن،
الذي يضع هواتف محمولة معاد تدويرها على 
أشجار بالغابات المطيرة المهددة بالانقراض،
تدفقات الصوت،
ثم يستخدم التعلم العميق
لتحديد ضوضاء المنشار
إذا قام شخص ما بقطع 
الغابة بشكل غير قانوني.
هناك خبراء يقولون إن طلابنا
لن يحصلوا أبدًا على وظائف في هذا المجال،
ومع ذلك، تعمل سارة الآن مع جوجل
وتساعد على فتح أول مركز
أبحاث للذكاء الاصطناعي في جوجل
في افريقيا.
هذه ليست سوى عدد قليل من القصص من كثير.
ساعد الأشخاص الآخرون الذين
أخذوا صفنا المزارعين في الهند،
خلق أجهزة يمكن ارتداؤها 
للمرضى المصابين بمرض باركنسون،
اخترع أنماط جديدة 
من الأعمال الفنية والموسيقى،
وحتى تم عرض عملهم على اتش بي او و فوربيز.

English: 
I was contacted by a Canadian dairy farmer
who wants to use deep learning
to improve the health
of his goats' udders.
I never would have guessed
that AI could be applied to goat udders,
but this is exactly the type 
of person I want to help.
I want to help other
unlikely people, other outsiders.
People sometimes ask me if it's dangerous
to make AI accessible to more people.
What's dangerous is having
an exclusive and homogeneous group
creating technology that impacts us all.
We've seen the harms being caused
by companies like Facebook, Google,
YouTube, Amazon, Palantir, and others.
We need people
from more diverse backgrounds
to try to address those harms.
We need people from communities
that have been disproportionately
targeted with harassment
to help create our technology
because of their understanding
of how tech can be weaponized
against the most vulnerable
and of what safeguards 
we need to put in place.

French: 
J'ai été contactée par un producteur
de lait canadien
qui voulait utiliser
l'apprentissage profond
pour améliorer la santé
des pis de ses chèvres.
Je n'aurais jamais imaginé que l'IA puisse
être appliquée au pis des chèvres,
mais c'est exactement le genre
de personnes que je veux aider.
Je veux aider les personnes improbables,
les exclus.
On me demande parfois si c'est dangereux
de rendre l'IA à la portée de tous.
Ce qui est dangereux, c'est d'avoir
un groupe exclusif et homogène
qui crée une technologie
qui nous touche tous.
Nous avons vu le mal causé
par des entreprises comme Facebook,
Google, YouTube, Amazon, Palantir etc.
Nous avons besoin de personnes
d'horizons différents
pour essayer de répondre à ces maux,
de personnes venant de communautés
qui ont été ciblées par le harcèlement
de façon disproportionnée
pour nous aider à créer une technologie
grâce à leur compréhension
de comment la technologie peut devenir
une arme contre les plus vulnérables
et de quelles protections mettre en place.

Arabic: 
اتصل بي مزارع كندي للألبان
الذي يريد استخدام التعلم العميق
لتحسين صحة ضروع الماعز.
لم أكن لأتوقع أبدًا أنه يمكن تطبيق 
الذكاء الاصطناعي على ضروع الماعز،
ولكن هذا هو بالضبط 
نوع الشخص الذي أريد مساعدته.
أريد أن أساعد أشخاصًا غير مرادين آخرين،
غرباء آخرين.
يسألني الناس أحيانًا إذا كان من الخطر جعل
الذكاء الاصطناعي بمتناول المزيد من الناس.
ما هو خطير هو وجود مجموعة حصرية ومتجانسة
خلق التقنيات التي تؤثر علينا جميعا.
لقد رأينا الأذى الناجم
بواسطة شركات مثل فيسبوك وجوجل
يوتيوب وأمازون وبالانتير وغيرها.
نحن بحاجة إلى الناس من خلفيات أكثر تنوعًا
لمحاولة معالجة تلك الأضرار.
نحن بحاجة إلى أشخاص من المجتمعات
التي تم استهدافها بشكل غير لائق للمضايقة
للمساعدة في إنشاء تقنيتنا
بسبب فهمهم
كيف يمكن استخدام التقنيات 
كسلاح ضد الأكثر ضعفا
وما هي الضمانات التي نحتاج إلى وضعها.

English: 
And we also need more people
who are experts about people,
about human behavior,
human psychology, and human history.
The reason I want everyone
involved with AI
is that you know about problems
nobody else knows about,
and you have skills and a background
that nobody else has.
I didn't know about using old cell phones
to protect the rainforest,
about the suicide rate
for farmers in India,
or about the health of goat udders.
Yet these are all problems 
my students have worked on.
I'm so glad that my students
didn't believe the myth
that AI is only for math prodigies
but that they knew
their perspectives are valuable.
We need journalists, lawyers, 
hospital administrators,
hotel sales managers, sociologists,
CEOs, historians, and more
to understand the capabilities of AI.

Arabic: 
ونحتاج أيضًا إلى المزيد من الأشخاص
الخبراء بشأن البشر،
عن السلوك البشري،
علم النفس البشري، وتاريخ البشرية.
السبب وراء رغبتي في مشاركة 
الجميع في الذكاء الاصطناعي
هو أنك تعرف عن المشاكل 
التي لا يعرفها أحد آخر،
ولديك مهارات وخلفية لا يمتلكها أي شخص آخر.
لم أكن أعرف عن استخدام الهواتف المحمولة
القديمة لحماية الغابات المطيرة،
حول معدل الانتحار للمزارعين في الهند،
أو عن صحة ضرع الماعز.
إلى الآن هذه كلها مشاكل عمل طلابي عليها.
أنا سعيدة للغاية لأن طلابي 
لم يصدقوا الأسطورة
أن الذكاء الاصطناعي مخصص
لعباقرة الرياضيات فقط
لكنهم يعرفون أن وجهات نظرهم ذات قيمة.
نحن بحاجة إلى الصحفيين والمحامين
ومدراء المستشفيات
مدراء مبيعات الفنادق وعلماء الاجتماع
والرؤساء التنفيذيين والمؤرخين والمزيد
لفهم قدرات الذكاء الاصطناعي.

French: 
Et nous avons aussi besoin de plus
de personnes expertes sur les personnes,
sur le comportement humain, la psychologie
et l'histoire humaine.
La raison pour laquelle je veux que chacun
soit impliqué dans l'IA,
c'est que certains problèmes
ne sont connus que de vous,
et vous avez des compétences et
un parcours que personne d'autre n'a.
Je ne savais pas qu'on pouvait utiliser de
vieux téléphones pour protéger la forêt,
je n'avais pas connaissance du taux
de suicide chez les fermiers en Inde,
ni de la santé des pis de chèvres.
Et pourtant ce sont des problèmes sur
lesquels mes étudiants ont travaillé.
Je suis contente que mes étudiants
ne croient pas ce mythe
que l'IA est réservée
aux prodiges en maths,
et qu'ils sachent que leur point de vue
est précieux.
Nous avons besoin de journalistes,
d'avocats, de directeurs d'hôpitaux,
de directeurs d'hôtels, de sociologues,
de PDG, d'historiens et bien plus
pour comprendre les possibilités de l'IA.

English: 
It doesn't matter if you didn't go
to the right school,
if math makes you anxious,
if your friends and colleagues
think you're the last person
they'd ever expect to be working with AI.
AI needs more unlikely people,
and the world needs you involved with AI.
Thank you.
(Applause)

Arabic: 
لا يهم إذا لم تذهب إلى المدرسة الصحيحة،
إذا جعلتك الرياضيات قلق،
إذا كان أصدقائك وزملائك
يعتقدون أنك آخر شخص 
يتوقع أن يعمل مع الذكاء الاصطناعي.
يحتاج الذكاء الاصطناعي 
إلى أشخاص غير متشابهين،
والعالم يحتاجك منخرط في الذكاء الاصطناعي.
شكراً لكم.
(تصفيق)

French: 
Ça n'a pas d'importance si vous n'êtes
pas allé dans la bonne école,
si les maths vous donnent
des sueurs froides,
si vos amis et collègues
pensent que vous êtes la dernière personne
qu'ils verraient travailler sur l'IA.
L'IA a besoin de plus de gens improbables,
et le monde a besoin que
vous vous impliquiez dans l'IA.
Merci.
(Applaudissements)
