
Chinese: 
我知道你现在对熵很感兴趣
但我们还是回到决策树
看看实际上熵是如何影响决策树确定其边界的
这涉及到一个新的术语 信息增益
信息增益定义为父节点的熵
减去子节点的熵的加权平均
这些子节点是划分父节点后生成的
决策树算法会最大化信息增益
它通过这种方法来选择进行划分的特征
如果特征可以取多个不同值
该方法将帮助它找出在何处进行划分
总之 它会把信息增益最大化
我们来看一个例子

Japanese: 
それでは意思決定木に戻り、
エントロピーが決定木の境界線に
どのように影響するかを見てみましょう。
”情報ゲイン”という新しい概念を導入します。
情報ゲインは、親のエントロピーから、
その親を分割した場合に生じる子どものエントロピーの
加重平均を引いたものとして定義されます。
決定木アルゴリズムは情報ゲインの最大化を試みつつ、
どの特徴で分割が行うかや、
各特徴にさまざまな値がある場合は、
どの値で分割するかを決めます。
情報ゲインを最大化しながらです。
それでは例を見てみましょう。

Arabic: 
‫أنا متأكدة من أنكم متحمسون جدًا بشأن الإنتروبي الآن،
‫ولكن لنعد إلى شجر القرار
‫ولنر كيف يؤثر الإنتروبي على طريقة وضع شجرة القرار لحدودها.
‫وهذا يتطلب معرفة مصطلح جديد، ألا وهو "الحصول على معلومات".
‫يعرّف "الحصول على معلومات" بأنه الإنتروبي الخاص بالعناصر الأصلية
‫مطروحًا منه المتوسط الترجيحي للإنتروبي الخاص بالعناصر الفرعية
‫التي ستنتج إذا قسمنا هذا العنصر الأصلي.
‫وستقوم خوارزمية شجرة القرار بزيادة الحصول على المعلومات.
‫إذن هذه هي الطريقة التي ستختار بها الميزة التي ستقوم بعملية التقسيم بناءً عليها.
‫وفي الحالات التي يمكن أن تتخذ فيها الميزة قيمًا عديدة مختلفة،
‫سيساعدها ذلك على تحديد موضع هذا التقسيم.
‫وهذا يؤدي إلى محاولة زيادة الحصول على المعلومات.
‫لنأخذ مثالاً.

English: 
While I'm sure you're really excited about entropy right now,
let's take this back to decision trees and
see how entropy actually affects how a decision tree draws its boundaries.
That involves a new piece of vocabulary, information gain.
Information gain is defined as the entropy of the parent
minus the weighted average of the entropy of the children that
would result if you split that parent.
The decision tree algorithm will maximize information gain.
So this is how it will choose which feature to make a split on.
And in cases where the feature has many different values that it can take,
this will help it figure out where to make that split.
It is going to try to maximize the information gain.
Let's do an example.

Portuguese: 
Embora eu tenha certeza de que você está empolgado com a entropia,
vamos voltar às árvores de decisão e
ver como a entropia afeta a maneira como uma árvore de decisão desenha suas fronteiras.
Isso envolve um novo vocabulário: ganho de informações.
O ganho de informações é definido como a entropia do pai
menos a média ponderada da entropia do filho, que
seria resultante se você dividisse esse pai.
O algoritmo de árvore de decisão maximizará o ganho de informações.
É assim que ele escolherá a característica que sofrerá divisão.
E, nos casos em que a característica tem muitos valores diferentes que podem ser obtidos,
isso ajudará a determinar onde fazer a divisão.
Ele tentará maximizar o ganho de informações.
Vejamos um exemplo.
