
Chinese: 
通过前面的学习 现在我们完全可以讨论一下
神经网络的网络部分相关内容了
现在我们的想法是 我们可以使用这些 Sigmoid 单元
在输入层 (x 的不同分量) 和输出 y 之间
构建一种链接关系
要用到的方法就是 输入层和输出层中间的
其他层
每一个计算的都是前一层的加权求和
再用 sigmoid 函数求值的结果 这些其他单元层通常称为隐藏层
因为你可以看到输入
可以看到输出
这些其他层受限制较少 或者只间接受限制
结果就是 其中的每个单元计算的都是
权值乘以传入的输出结果
再用 sigmoid 函数求解
这就是激活函数 即输出
所以说 很棒的一点就是

Japanese: 
ニューラルネットワークの
ネットワークの部分についてお話しするのに
いい機会がやってきました
これらのシグモイドユニットを使って
異なる特徴からなる入力層xと
出力層yの間に連鎖律を構築できます
どのようになるかというと
間には別の層があり
それぞれが前の層の重み付けされた合計に
シグモイド関数を適用した値を計算します
これらの層はよく隠れ層と呼ばれます
なぜなら入力と出力を確認できるからです
これは制約が少ないか間接的に制約されています
そして何が起きているかというと
これらの各ユニットが実行され
重み付けされて入ってくる値をかけて
シグモイドにつながります
それが活性であり出力です

English: 
Alright so we're now in a great position to talk about what the network part of
the neural network is about. So now the
idea is that we can construct using exactly these
kind of sigmoid units, a chain of relationships between the input
layer, which are the different components of x, with the output.
Y, and the way this is going to happen is, there's u,
other layers of, of units in between. That each
one is computing the weighted sum, signoided, of the
layer before it. These other layers of units are
often referred to as hidden layers, because you can kind
of see the inputs, you can see the outputs.
This, this other stuff is, is less constrained. Or indirectly
constrained. And what's happening is that each of these
units, it's, it's running exactly that kind of, you know,
take the weights, multiply by the things coming into it,
put it through the sigmoid and that's your activation, that's your
output. So, so what's cool about this is, in the case

Portuguese: 
Agora estamos bem posicionados para falar do que trata a parte da rede
da rede neural. A ideia é
que podemos usando exatamente esse tipo de
unidades de sigmoides, uma cadeia de relações entre a camada
de entrada, que são os diferentes componentes de x, e a saída.
Y, e a maneira como vai ocorrer, existe u,
outras camadas de unidades intermediárias. Cada um
está computando a soma ponderada, signoidal, da camada
antes. Essas outras camadas de
unidades são geralmente chamadas de camadas ocultas, porque
você pode ver as entradas e também as saídas.
Essa outra questão é menos restringida. Ou restringida
indiretamente. O que está acontecendo é que cada unidade
está sendo executada com os pesos, multiplicados
que recebe, passa pelo sigmoide e aí está sua
ativação, é a sua
saída. Interessante! No caso em que todas

English: 
Alright so we're now in a great position to talk about what the network part of
the neural network is about. So now the
idea is that we can construct using exactly these
kind of sigmoid units, a chain of relationships between the input
layer, which are the different components of x, with the output.
Y, and the way this is going to happen is, there's
other layers of, of units in between. That each
one is computing the weighted sum, sigmoided, of the
layer before it. These other layers of units are
often referred to as hidden layers, because you can kind
of see the inputs, you can see the outputs.
This, this other stuff is, is less constrained. Or indirectly
constrained. And what's happening is that each of these
units, it's, it's running exactly that kind of, you know,
take the weights, multiply by the things coming into it,
put it through the sigmoid and that's your activation, that's your
output. So, so what's cool about this is, in the case

Arabic: 
‫حسنًا، نحن الآن في وضع مناسب لنتحدث عن الجزء الخاص
‫بالشبكة في مفهوم الشبكة العصبية. الآن، الفكرة
‫هي أنه بإمكاننا أن ننشئ باستخدام هذه
‫الوحدات السيجماوية بالضبط، سلسلة من العلاقات بين طبقة
‫المدخلات، وتتمثل في مختلف عناصر x ، مع المُخرج y
‫والطريقة التي سيحدث بها هذا هي أن هناك
‫طبقات أخرى من الوحدات بينهما تقوم كل
‫منها بحساب المجموع الموزون بعد معالجته بالدالة السيجماوية في
‫الطبقة التي تسبقها. هذه الطبقات الأخرى من الوحدات
‫عادةً ما يشار إليها بالطبقات الخفية، لأنك تستطيع إلى حدٍ ما
‫رؤية الإدخالات وتستطيع رؤية المخرجات.
‫فهذه الأشياء الأخرى أقل تقييدًا. أو مقيدة بشكل
‫غير مباشر. وما يحدث هو أن كلاً من هذه
‫الوحدات، تعمل تمامًا على هذا النحو،
‫تأخذ الأوزان وتضربها في الأشياء التي تدخل إليها،
‫ثم تعالجها في الدالة السيجماوية ويكون ذلك هو التنشيط، أي
‫المُخرج. لذا فالأمر الرائع في ذلك، في الحالة

English: 
where all these are sigmoid units this mapping from input to
output. Is differentiable in terms of the weights, and by saying
the whole thing is differentiable, what I'm saying is that we
can figure out for any given weight in the network how
moving it up or down a little bit is going to
change the mapping from inputs to outputs. So we can
move all those weights in the direction of producing something more
like the output that we want. Even though that there's
all these sort of crazy non linearities in between. And so,
this leads to an idea called back propagation, which is
really just at its heart, a computationally beneficial organization of the
chain rule. We're just computing the derivatives with respect to
all the different weights in the network, all in one convenient
way, that has, this, this lovely interpretation of having information flowing
from the inputs to the outputs. And then error information flowing
back from the outputs towards the inputs, and that tells you
how to compute all the derivatives. And then, therefore how to make
all the weight updates to make, the network produce something more

Portuguese: 
essas são unidades de sigmoides, o mapeamento da entrada para a saída
é diferenciável em termos dos pesos. E ao dizer
que tudo é diferenciável, estou dizendo que podemos saber, para
qualquer peso na rede, como movimentá-los um pouco para
cima ou para baixo mudará o mapeamento
de entradas para saídas. Podemos
mover todos esses pesos no sentido de produzir algo mais como a
saída que queremos. Embora haja todas essas
não linearidades loucas no meio. Isso nos
remete a uma ideia chamada de propagação reversa,
que é realmente em seu cerne, uma organização computacionalmente
benéfica da regra em cadeia. Estamos computando os derivativos em relação
a todos os diversos pesos na rede, tudo de maneira conveniente
que tem esta interpretação interessante do fluxo de informações das
entradas para as saídas. E o fluxo inverso de informações
de erro das saídas em direção às entradas e informa como
computar todos os derivativos. Portanto, como fazer com que
todas as atualizações de pesos façam a rede produzir algo mais próximo

Chinese: 
如果所有单元都是 sigmoid 单元
那么从输入到输出的映射就对权值可微的
整体可微的意思是说
对于网络中任意给定的一个权值
我们可以知道 上下调整一点点
是如何改变输入到输出的映射的
因此我们可以调整所有权值 进而使输出与预期输出更加一致
即使它们之间是非线性关系
同时
这也引入了反向传播这一思想
它的核心思想就是以对计算有益的方式来组织链式法则
我们对网络中的所有权值求导数
使用一个简便的方式解释就是
让信息从输入流到输出
然后误差信息再从输出流回到输入
告诉你你如何计算出所有导数
然后得知该如何调整所有权值
才能使得网络的输出

Arabic: 
‫التي تكون فيها كل هذه وحدات سيجماوية، يكون هذا التحويل من الإدخالات إلى
‫المخرجات قابلاً للاشتقاق من حيث الأوزان، وبقولي
‫إنه بأكمله قابل للاشتقاق، فما أقصده هو أننا
‫نستطيع أن نكتشف بالنسبة لأي وزنٍ معطى في هذه الشبكة كيف
‫سيؤدي تحريكه إلى أعلى أو إلى أسفل بقدر ضئيل إلى
‫تغيير التحويل من الإدخالات إلى المخرجات. وبذلك يمكننا
‫تحريك جميع هذه الأوزان في اتجاه إنتاج شيء
‫أقرب إلى المُخرج الذي نريده على الرغم من وجود
‫كل هذه الصلات اللاخطية العجيبة فيما بينهما. وهذا
‫يقودنا إلى فكرة تعرف بالانتشار الخلفي، وهي
‫في جوهرها تنظيم مفيد حسابيًا من
‫قاعدة السلسلة. ونقوم فقط بحساب المشتقات المتعلقة بجميع
‫الأوزان المختلفة في الشبكة، جميعها بطريقة واحدة
‫ملائمة، والتي لها ذلك التفسير الرائع الخاص بتدفق المعلومات
‫من الإدخالات إلى المخرجات ثم تدفق معلومات الخطأ
‫إيابًا من المخرجات باتجاه الإدخالات، وهذا يخبرك
‫بكيفية حساب جميع المشتقات. ومن ثم كيفية إجراء
‫جميع عمليات تحديث الأوزان لجعل الشبكة تنتج شيئًا أقرب

English: 
where all these are sigmoid units this mapping from input to
output. Is differentiable in terms of the weights, and by saying
the whole thing is differentiable, what I'm saying is that we
can figure out for any given weight in the network how
moving it up or down a little bit is going to
change the mapping from inputs to outputs. So we can
move all those weights in the direction of producing something more
like the output that we want. Even though that there's
all these sort of crazy non linearities in between. And so,
this leads to an idea called back propagation, which is
really just at its heart, a computationally beneficial organization of the
chain rule. We're just computing the derivatives with respect to
all the different weights in the network, all in one convenient
way, that has, this, this lovely interpretation of having information flowing
from the inputs to the outputs. And then error information flowing
back from the outputs towards the inputs, and that tells you
how to compute all the derivatives. And then, therefore how to make
all the weight updates to make, the network produce something more

Japanese: 
すばらしいのは
これらすべてがシグモイドである場合に
入力から出力へのマッピングが
重みに関して微分可能である点です
すべてが微分可能だということは
ネットワークで与えられるあらゆる重みに対して
少し上下に動くことで入力から出力への
マッピングがどう変わるか分かり
必要な出力を生み出す方向に
すべての重みを動かせます
間にこのような非線形があっても可能です
これは誤差逆伝播法と呼ばれる考えにつながります
本来は計算的に有益な連鎖律の組織化です
ネットワークの異なる重みすべてに関して
微分係数を算出します
1つの便利な方法ですべて算出できます
入力から出力へ流れる情報や
出力から入力へ戻る誤差情報を解釈して
すべての微分係数を算出し
すべての重みを更新する方法を教えてくれます
生み出したいものをネットワークで生み出します

English: 
like what you wanted it to produce. So this is where
learning is actually taking place, and it's really neat! You know,
this back propagation is referring to the fact that the errors are
flowing backwards. Sometimes it is even called error back propagation.
>> Nice, so here's a question for you Michael. What happens if I replace
the sigmoid units with some other function and, and let's say that function is
also differentiable. Well, if it's differentiable, then
we can still do this, this basic
kind of trick that says we can
compute derivatives, and therefore we can move weights
around to try to get the network to produce what we want it to produce.
>> Hmm. That's a big win. Does it still act like a preceptron?
>> Well, even this doesn't act exactly
like a preceptron, right? So it's really just
analogous to a preceptron, because we're not really
doing the hard thresholding, we don't have guarantees
of, of convergence in finite time. In
fact, the error function can have many local
optima, and what, what we mean by that is this idea that we're trying to get
the, we're trying to set the weight so that the error

Chinese: 
与预期输出更加一致
这就是实际的学习 实在是太精彩了！
反向传播是指误差回流这一事实
有时这也称为误差反向传播
很好 现在我问你一个问题 Michael
如果我用其他函数替换这些 sigmoid 单元 会怎么样？
假设这个函数也是可微的 如果它是可微的
那么我仍然可以这么做
按照这个基本的技巧
我们可以算出导数 因此可以调整权值
使网络产生我们的预期输出
嗯 我们胜利了 它的行为是否仍与感知器一致呢？
它的行为不完全与感知器一致
它只是与感知器非常类似
因为我们不是求严格的阈值
我们也不能保证在有限的时间内收敛
事实上
误差函数会有很多局部最优解
我说这个的意思是要表达这个思想
即我们想要设置使得误差较小的权值

Japanese: 
まさにここで学習が行われています
すばらしいですね
誤差が逆戻りしていることに言及しているので
誤差逆伝播法と呼ばれています
質問があります
シグモイドユニットを別の関数と
取り換えたらどうなりますか？
その関数も微分可能な場合です
微分可能ならこの基本的な手法を実行できます
微分係数を算出して重みを動かし
欲しいものを生み出すネットワークを
得ることができます
パーセプトロンのように機能しますか？
まったく同じようには機能しません
パーセプトロンに類似しているだけです
ハッキリとした値を取る閾値関数は使わず
有限時間で収束する保証もありません
実際に誤差関数には多くの局所最適があります
つまりこの考えでは
誤差が小さくなるように重みを修正しますが

Arabic: 
‫إلى ما كنت تريده منها. وهذا هو المكان الذي تحدث فيه
‫عملية التعلم، وهذا رائع حقًا! أتعلم،
‫مصطلح الانتشار الخلفي هذا يشير إلى تدفق الأخطاء
‫إلى الخلف. حتى أنه عادةً ما يسمى الانتشار الخلفي للأخطاء.
‫>> جيد، إليك سؤالاً يا Michael. ماذا يحدث إذا قمت بتبديل
‫الوحدات السيجماوية بدالة أخرى، ودعنا نقول إن تلك الدالة
‫أيضًا قابلة للاشتقاق. حسنًا، إذا كانت قابلة للاشتقاق
‫فسيظل بإمكاننا القيام بهذه الحيلة
‫الأساسية التي تقول إنه بإمكاننا حساب
‫المشتقات، ومن ثم يمكننا تحريك الأوزان
‫قليلاً محاولين جعل الشبكة تنتج ما نريد منها إنتاجه.
‫>> اممم. هذا مكسب كبير. هل لا تزال تعمل كبيرسيبترون؟
‫>> حسنًا، حتى هذه لا تعمل بالضبط
‫كبيرسيبترون، صحيح؟ هي حقًا
‫مشابهة تمامًا لوحدة بيرسيبترون، لأننا لا نقوم
‫حقًا بإجراء دالة عتبة صلبة، وليس لدينا ضمانات
‫على حدوث تقارب في وقت محدود. في
‫الواقع، يمكن أن يكون لدالة الخطأ العديد من القيم المثلى
‫المحلية، وما نعنيه بذلك هو فكرة أننا نحاول
‫تعيين الوزن بحيث يكون الخطأ

Portuguese: 
ao que você pretendia produzir. É aí que a aprendizagem
de fato ocorre, o que é incrível! Essa propagação
inversa refere-se ao fato de que os erros fluem em sentido
inverso. Às vezes, chama-se propagação reversa de erros.
>> Tenho uma pergunta para você, Michael. O que acontece se substituo
as unidades de sigmoides por alguma outra função e, digamos, que essa
função também seja diferente. Se for
diferenciável, poderemos fazer isso,
esse tipo de truque básica
que determina que podemos computar derivativos e, portanto,
movimentar os pesos para tentar fazer com que a rede produza o que queremos.
>> Humm. É uma grande vitória. Ainda atua como um preceptron?
>> Nem mesmo isso atua exatamente
como um preceptron, certo? É análogo a um preceptron,
porque não estamos criando a limitação
rígida, não temos garantis de convergência em
tempo finito. A
função de erro pode ter muitos optima
locais, e com essa ideia estamos tentando definir o peso, de modo que o erro
é baixo. E você pode ter acesso a essas situações

English: 
like what you wanted it to produce. So this is where
learning is actually taking place, and it's really neat! You know,
this back propagation is referring to the fact that the errors are
flowing backwards. Sometimes it is even called error back propagation.
>> Nice, so here's a question for you Michael. What happens if I replace
the sigmoid units with some other function and, and let's say that function is
also different Well, if it's differentiable, then
we can still do this, this basic
kind of trick that says we can
compute derivatives, and therefore we can move weights
around to try to get the network to produce what we want it to produce.
>> Hmm. That's a big win. Does it still act like a preceptron?
>> Well, even this doesn't act exactly
like a preceptron, right? So it's really just
analogous to a preceptron, because we're not really
doing the hard thresholding, we don't have guarantees
of, of convergence in finite time. In
fact, the error function can have many local
optima, and what, what we mean by that is this idea that we're trying to get
the, we're trying to set the weight so that the error

Chinese: 
但结果可能是 你无法改变这些权值
而使得误差不变大
或许你会想 不错 那么我们完成任务了
我们尽量减小了误差
但事实上可能是你被困在了局部最优解里
还有更好的办法来设置权值 那就是我们可以一次改变多个权值
来实现这一目的
哦 言之有理
所以如果我们考虑所选的 sigmoid 函数和误差函数的话
误差函数就是误差的平方之和
所以说 在维度比较多的空间中 这像一条抛物线
但当我们将其与此类内容不断合并后
就得到一个误差空间
在这个空间中 有很多地方看起来都是低处
但只是因为你在那个地方看才低
从整体看 这里并不是最低点
完全正确
所以在只有一个单元的情形下 你就能碰到这种情况
如你所说 误差函数就是这个漂亮的小抛物线
你可以沿着梯度下降 当下降到底部时就得到最好的结果了
但现在 当我们把这些网络单元连在一起时
便得到一个误差曲面 它的卡通版可能是这样的 非常疯狂

English: 
is low, but you can get to these situations where none of
the weights can really change without making the error worse. And you'd
like to think, well good, then we're done, we've made the error
as low as we can make it, but in fact it
could actually just be stuck in a local optima, that there's a
much better way of setting the weights It's just we have to
change more than just one weight at a time to get there.
>> Oh so that makes sense, so if we think about
sigmoid the sigmoid and the error function that we picked, right.
The error function was sum of squared errors,
so that looks like a porabola in some
high dimensional space, but once we start combining
them with others like this over, over, and over
again Then we have an error space where there may be lots of places that look
low but only look low if you're standing
there but globally would not be the lowest point.
>> Right, exactly right and so you can get these
situations in just the one unit version where the error
function as you said is this nice little parabola and you can
move down the gradient and when you get down to the bottom you're
done. But now when we start throwing these networks of units together we
can get an error surface that looks just in its cartoon form looks

English: 
is low, but you can get to these situations where none of
the weights can really change without making the error worse. And you'd
like to think, well good, then we're done, we've made the error
as low as we can make it, but in fact it
could actually just be stuck in a local optima, that there's a
much better way of setting the weights It's just we have to
change more than just one weight at a time to get there.
>> Oh so that makes sense, so if we think about
sigmoid the sigmoid and the error function that we picked right.
The error function was sum of squared airs,
so that looks like a porabola in some
high dimensional space, but once we start combining
them with others like this over, over, and over
again Then we have an error space where there may be lots of places that look
low but only look low if you're standing
there but globally would not be the lowest point.
>> Right, exactly right and so you can get these
situations in just the one unit version where the error
function as you said is this nice little parabola and you can
move down the gradient and when you get down to the bottom you're
done. But now when we start throwing these networks of units together we
can get an error surface that looks just in its cartoon form looks

Arabic: 
‫منخفضًا، ولكن من الممكن أن تصل إلى تلك المواقف التي لا يستطيع فيها أيٌ من
‫الأوزان إجراء تغيير دون أن يجعل الخطأ أكثر سوءًا. وقد
‫تظن أن الأمر جيد وأننا قد انتهينا، فقد جعلنا للخطأ أقل قيمة
‫في استطاعتنا الوصول إليها، لكن في الواقع يمكن أن
‫يظل ثابتًا عند قيمة مثلى محلية لذا فهناك طريقة
‫أفضل كثيرًا لتعيين الأوزان وهي أننا علينا
‫تغيير أكثر من وزن واحد في المرة الواحدة للوصول إلى ذلك.
‫>> أووه هذا منطقي، إذن إذا فكرنا في الدالة السيجماوية
‫ودالة الخطأ اللتين اخترتهما
‫فسنجد أن دالة الخطأ كانت مجموع أخطاء مربعة،
‫لذا يبدو هذا شبيهًا بقطع مكافئ في
‫فضاء عالي الأبعاد، لكن بمجرد أن نبدأ في دمج
‫الأخطاء مع أخرى مثل هذه مراتٍ
‫عدة، فسيكون لدينا فضاء من الأخطاء يوجد فيه الكثير من الأماكن التي تبدو منخفضة،
‫لكنها تبدو منخفضة فقط إذا كنت تقف
‫هناك لكنها على المستوى العام لن تكون النقطة الأكثر انخفاضًا.
‫‎>>هذا صحيح تمامًا، بذلك يمكنك الحصول على هذه
‫المواقف فقط في نموذج الوحدة الواحدة حيث تكون دالة
‫الخطأ كما قلت ممثلة في هذا القطع المكافئ الصغير اللطيف ويمكنك
‫التحرك نزولاً على التدرج وعندما تصل إلى القاعدة تكون قد
‫انتهيت من مهمتك. لكن الآن عندما نبدأ في تجميع شبكات الوحدات هذه معًا،
‫يمكن أن نحصل على مسطح من الأخطاء يبدو في رسمه الكاريكاتوري

Portuguese: 
em que nenhum dos pesos pode realmente mudar sem
piorar o erro. E você
gostaria de pensar que, bem, terminamos, conseguimos baixar o erro,
mas poderíamos ter simplesmente
ficado em um optima local, que há uma maneira
bem melhor de definir os pesos. É que temos que mudar mais
de um peso quando estivermos lá.
>> Faz sentido. Pensamos então no sigmoide e
na função de erro que escolhemos.
A função de erro era a soma dos erros ao
quadrado. Parece com uma parábola em
um alto espaço dimensional, mas quando começamos
a combiná-los com outros incessantemente, temos
um espaço de erro, com muitos locais que parecem baixos, mas somente se
você está lá; globalmente não seria o ponto
mais baixo.
>> Isso mesmo. Você pode ter essas situações
em apenas uma versão unitária em que a função de
erro, como você disse, é esta bela e pequena parábola e
você pode mover o gradiente para baixo, e quando chega ao fundo, está
sozinho. Porém agora, quando começamos a reunir essas redes de unidades,
vemos uma superfície de erro em uma forma animada parece

Japanese: 
誤差を広げずに重みを調整することが
できない状況になる可能性があります
できるだけ誤差を小さくできたと思っても
実際は局所最適にはまっているのかもしれません
もっといい重み付け方法があります
目的を達するため
一度に1つ以上の重みを変えるのです
確かにシグモイドと
私たちが選んだ誤差関数について考えてみると
誤差関数は差の平方和だったので
高次元空間では放物線のように見えます
しかしいったんこのように何度も
他と組み合わせ始めると
低く見える所がたくさんありそうな
誤差空間がありますが
低く見えるのはその点にいる場合だけで
全体的には最低点ではありません
まさしくそうですね
1つのユニットバージョンで
これらの状況になります
誤差関数はこの小さい放物線です
勾配を下へ動かし底に達したら完了です
しかしこれらのネットワークユニットを
かき集めると
このようにおかしな誤差曲面になります

English: 
crazy like this, that there's, it's smooth but there's these Place where
it goes down, comes up again and goes down maybe further, comes up
again and doesn't come down as far and you could easily get yourself
stuck at a point like this where you're not at the global minimum.
Your at some local optimum.

Japanese: 
滑らかですが下がったり上がったり
さらに下がってまた上がったりする箇所があります
そしてこのような点で
簡単に動きが取れなくなります
ここは大域的最小値ではなく
局所最適です

English: 
crazy like this, that there's, it's smooth but there's these Place where
it goes down, comes up again and goes down maybe further, comes up
again and doesn't come down as far and you could easily get yourself
stuck at a point like this where you're not at the global minimum.
Your at some local optimum.

Chinese: 
就像这个 非常光滑 但在某些点处会下降
然后又重新上升 也可能下降得更深 然后再上升
之后便不再下降了 你可能会停止在这样的一个点上
但这并不是全局最小值
只是某个局部最优值

Portuguese: 
loucura, mas há estes locais em que ele desce, sobe novamente e desce
ainda mais, sobe de novo e não desce tanto, e você pode
facilmente ficar preso em um ponto como este, onde você não está no mínimo
global.
Você está em algum ótimo local.

Arabic: 
‫جنونيًا كهذا، وهو انسيابي لكن هناك هذه المناطق التي
‫ينخفض فيها ثم يرتفع من جديد ثم ينخفض ربما بشكل أكبر، ثم يرتفع
‫من جديد ولا ينخفض بالقدر نفسه وقد تجد نفسك بسهولة
‫ثابتًا عند نقطة كهذه حيث لن تكون عند القيمة الصغرى الشاملة
‫بل تكون عند قيمة مثلى محلية.
