
Italian: 
Immaginate due macchine:
che generino entrambe messaggi composti da un alfabeto di A, B, C, o D
La Macchina 1 genera i simboli casualmente, ciascuno capita in media il 25% delle volte
La Macchina 2 genera i simboli secondo le seguenti probabilità
Ora, quale delle due macchine genera più informazione?
Claude Shannon ha ingegnosamente rifrasato la domanda nel seguente modo:
Se doveste predire il prossimo simbolo generato da ciascuna delle due macchine
qual'è il numero minimo di domande del tipo 'SI' o 'NO' che dovreste porre?
Cominciamo dalla Macchina 1
Il modo più efficiente è di scegliere una domanda che divida le possibili risposte in due gruppi

English: 
Voiceover: Imagine two machines.
They both output messages
from an alphabet of A, B, C, or D.
Machine One generates
each symbol randomly,
they all occur 25% of the time,
while Machine Two generates symbols
according to the following probabilities.
Which machine is producing
more information?
Claude Shannon cleverly
rephrased the question.
If you had to predict the next symbol
from each machine, what
is the minimum number
of yes or no questions
you would expect to ask?
Let's look at Machine One.
The most efficient way
is to pose a question
which divides the possibilities in half.
For example, our first question,
we could ask if it is any two symbols,

Spanish: 
Imagina dos máquinas.
Ambas escriben mensajes de salida
de un alfabeto formado por las letras A, B, C y D.
La Máquina Uno genera cada símbolo de manera aleatoria,
todos ocurren 25% del tiempo,
mientras que la Máquina Dos genera símbolos
de acuerdo a las siguientes probabilidades.
¿Cuál máquina está produciendo más información?
Claude Shannon replanteó la pregunta de manera muy inteligente.
Si tuvieras que predecir el siguiente símbolo
de cada máquina, ¿cuál sería el número mínimo
de preguntas de sí o no que esperarías hacer?
Veamos la Máquina Uno.
La manera más eficiente es hacer una pregunta
que divida las posibilidades a la mitad.
Por ejemplo, para nuestra primera pregunta,
podríamos preguntar si es cualquiera de los dos símbolos,

Korean: 
두 개의 기계를 상상해보세요
둘 다 메시지를 출력합니다
알파벳 A, B, C, D를 출력합니다
기계1은 각 기호를 
무작위로 만들어냅니다
모두  25%의 확률로 발생합니다
반면에 기계2는 기호를
다음의 확률에 따라서 만들어 냅니다
어떤 기계가
더 많은 정보를 생산할까요?
클로드 섀넌은 이 문제를
바꾸어 묻습니다
만일 각 기계로부터
다음 기호를 예측해야만 한다면
최소로 질문해야할
Yes/No 문제의 질문 수는
몇 개가 될까요?
기계1을 봅시다
가장 효과적인 방법은
확률을 반으로 나누는 질문을
제기하는 것입니다
예를 들면 첫 질문은 A냐 B냐처럼

Portuguese: 
Imagine duas máquinas.
Ambas emitem mensagens de saída
a partir de um alfabeto de A, B, C, ou D.
A máquina um gera cada
símbolo aleatoriamente,
todos ocorrem 25% das vezes,
enquanto a máquina dois gera símbolos
de acordo com as probabilidades a seguir.
Qual máquina está produzindo
mais informação?
Claude Shannon sabiamente
refez a questão.
Se você tivesse que prever
o próximo símbolo
de cada máquina, qual seria
o número mínimo
de perguntas sim ou não
que você espera responder?
Olhemos a máquina um.
O meio mais eficiente
é fazer uma pergunta
a qual divida as possibilidades na metade.
Por exemplo, nossa primeira questão,
poderíamos perguntar se pode
ser qualquer dois símbolos,

Ukrainian: 
Уявіть 2 машини.
Вони обидвоє видають повідомлення
з алфавіту - A, B, C, або D.
Машина Один генерує
кожен символ випадково,
вони всі появляються з ймовірністю 25%,
в той час як Машина Два
генерує символи
згідно з наступними ймовірностями.
Котра з машин продукує
більше інформації?
Клод Шеннон розумно
перефразував це запитання.
Якщо вам треба спрогнозувати
наступний символ
з кожної машини, яке мінімальне
число
"так" чи "ні" питань
ви очікуєте задати?
Давайте поглянемо на Машину Один.
Найбільш ефективним буде
поставити запитання,
що поділить ймовірності на половину.
Наприклад, наше перше запитання,
ми можемо запитати чи
є будь-які два символи ,

Bengali: 
##  আগামী ও গ্রামীণফোন এর সহযোগিতায় অনূদিত ##
মনে করা যাক আমাদের কাছে দুইটি মেশিন আছে।
দুইটি মেশিনই A, B, C অথবা D বর্ণমালাগুলো
ব্যবহার করে কিছু বার্তা আউটপুট হিসেবে প্রদান করে।
মেশিন এক প্রতিটি চিহ্ন দৈবভাবে তৈরি করে,
এই চিহ্নগুলোর প্রতিটির আউটপুট হিসেবে আসার সম্ভাবনা ২৫% করে,
যেখানে মেশিন ২ নিচের
সম্ভাবনা অনুযায়ী চিহ্নগুলো আউটপুট হিসেবে প্রকাশ করে।
তাহলে কোন মেশিনটি সবচেয়ে বেশি তথ্য উপস্থাপন করছে?
ক্লড শ্যানন একটু ভিন্নভাবে এই প্রশ্নটি উপস্থাপন করেছেন।
যদি তোমাকে দুইটি মেশিন থেকে বের হওয়া, পরবর্তী চিহ্ন
অনুমান করতে বলা হয়, তাহলে সর্বনিম্ন
কতগুলো হ্যাঁ এবং না প্রশ্ন তোমাকে করতে হবে বলে তুমি মনে কর?
প্রথমে মেশিন এক এর দিকে দেখা যাক।
সবচেয়ে কার্যকরী পন্থা হল একটি প্রশ্নকে সেই রকমভাবে উপস্থাপন করা
যেটা সম্ভাবনাকে দুইটি আলাদাভাগে ভাগ করে দিবে।
উদাহরণস্বরূপ, আমাদের প্রথম প্রশ্নটি হল,
আমরা এখানে প্রশ্ন করতে পারি, এখানে কোন চিহ্ন দুইটি হতে পারে,

Polish: 
﻿Wyobraźcie sobie dwie maszyny.
Obie generują wiadomości
napisane w alfabecie A-B-C-D.
Maszyna 1
każdy symbol generuje losowo;
każda litera pojawia się
w 25% przypadków.
Maszyna 2 generuje symbole według
określonego prawdopodobieństwa.
Która maszyna wytwarza
więcej informacji?
Claude Shannon inteligentnie
przeformułował pytanie:
gdybyście musieli przewidzieć
następny symbol z każdej maszyny,
to jaką musielibyście zadać minimalną
liczbę pytań typu „tak czy nie”?
Spójrzmy na maszynę 1.
Najskuteczniejszy sposób
to zadać pytanie,
które dzieli możliwości na pół.
Np. pierwsze pytanie
mogłoby dotyczyć

Czech: 
Představte si dva stroje.
Oba produkují zprávy v abecedě složené
z písmen "A", "B", "C" nebo "D".
První stroj generuje každý znak náhodně. 
Všechny se vyskytují s pravděpodobností 25%.
Naproti tomu druhý stroj generuje
symboly podle následujících pravděpodobností.
Který ze strojů produkuje více informace?
Claude Shannon chytře přeformuloval otázku.
Jestliže máte odhadnout
následující znak z každého stroje,
na kolik nejméně otázek, na které je odpověď
ano nebo ne, se musíme zeptat?
Podívejme se na první stroj.
Nejefektivnější je položit otázku,
která rozdělí pravděpodobnosti na půl.

Bulgarian: 
Представи си две машини.
И двете показват съобщения
от азбука, съставена от буквите А, В, С и D.
Първата машина генерира всеки символ случайно,
всички символи се появяват през 25% от времето,
а втората машина генерира символи
според следните вероятности.
Коя машина произвежда повече информация?
Клод Шанън перифразира въпроса:
ако трябва да предскажеш следващия символ
от всяка машина, колко най-малко въпроса
с "да" или "не" ще очакваш да зададеш?
Да разгледаме първата машина.
Най-ефективният начин е да зададем въпрос,
който разделя възможностите наполовина.
Например нашият първи въпрос
може да пита дали е някой от два символа,

Vietnamese: 
Hãy tưởng tượng ta có 2 máy
2 máy đều có mẫu tin xuất ra
từ các chữ cái A, B, C, D
Máy 1 tạo ra mỗi kí tự một cách ngẫu nhiên,
mỗi chữ có xác xuất xuất hiện 25%
trong khi đó, máy 2 tạo ra các kí tự
theo tỉ lệ sau
máy nào sẽ tạo ra nhiều thông tin hơn ?
Claude Shannon khéo léo dịch lại câu hỏi như sau.
Nếu bạn phải đoán kí tự tiếp theo
từ cái máy, thì ít nhất
số câu hỏi có/không bạn sẽ hỏi là bao nhiêu ?
Hãy nhìn vào máy 1
Các hiệu quả nhất để đặt ra câu hỏi này là
chia các khả năng ra làm hai phần bằng nhau
Ví dụ, trong câu hỏi đầu tiên
ta có thể hỏi rằng kí tự tiếp theo có phải là một trong hai kí tự

Georgian: 
წარმოიდგინეთ ორი ხელსაწყო,
ორივე გამოსცემს შეტყობინებას
ანბანის A,B,C ან D ასოებით.
პირველი ხელსაწყო სიმბოლოებს
შემთხვევითობის პრინციპით არჩევს,
ისინი ყველანი 25%იანი თანაფარდობით
ჩნდებიან,
მაშინ, როცა, მეორე მანქანა მათ
გენერირებას
შემდეგი თანაფარდობებით ახდენს.
რომელი მანქანა გადმოსცემს მეტ
ინფორმაციას?
კლოდ შენონმა შეკითხვას ჭკვიანური
პერიფრაზი გაუკეთა.
თუ თქვენ გსურთ გამოიცნოთ 
მომდევნო სიმბოლო
თითოეული მანქანიდან, რა იქნება
მინიმალური რიცხვი
კი/არა შეკითხვებისა, რომლების 
დასმასაც ელით?
მოდი შევხედოთ პირველ მანქანას.
ყველაზე ეფექტური გზა
იმ შეკითხვების დასმაა,
რომლებიც ორად ყოფს შესაძლებლობებს.
მაგალითად, ჩვენი პირველი შეკითხვა
შეგვეძლო გვეკითხა არის თუ არა 
რომელიმე ორი სიმბოლო,

Portuguese: 
tal como "é A ou B?",
já que existe 50% de chance de ser A ou B
e 50% de chance de ser C ou D.
Depois de ter a resposta,
podemos eliminar
metade das possibilidades,
e ficaremos com apenas dois símbolos,
ambos igualmente prováveis.
Então apenas perguntamos "é A?",
e depois da segunda resposta,
teremos corretamente
identificado o símbolo.
Podemos dizer que a incerteza
da máquina um
é de duas questões por símbolo.
E a máquina dois?
Assim como com a máquina um,
podemos fazer duas perguntas
para determinar o próximo símbolo.
No entanto, dessa vez,
a probabilidade de cada símbolo
é diferente, então faremos
diferentes perguntas.
Aqui A tem 50% de chance de ocorrer,
E todas as outas juntas tem os outros 50%.
Podemos inciar perguntando: "é A?",
se for A muito bom,
apenas uma questão nesse caso.

English: 
such as "is it A or B?",
since there is a 50% chance of A or B
and a 50% chance of C or D.
After getting the answer,
we can eliminate half
of the possibilities,
and we will be left with two
symbols, both equally likely.
So we simply pick one, such as "is it A?",
and after this second question,
we will have correctly
identified the symbol.
We can say the uncertainty of Machine One
is two questions per symbol.
What about Machine Two?
As with Machine One,
we could ask two questions
to determine the next symbol.
However this time, the
probability of each symbol
is different, so we can ask
our questions differently.
Here A has a 50% chance of occurring,
and all other letters add to 50%.
We could start by asking "is it A?",
if it is A we are done,
only one question in this case.

Bengali: 
যেমন- " এটা কি A অথবা B?",
যেহেতু এখানে A অথবা B আসার ৫০% সম্ভাবনা আছে
এবং একই সাথে C অথবা D আসার ৫০% সম্ভাবনা আছে।
উত্তরটি পাবার পরে আমরা,
অর্ধেক সম্ভাবনা বাদ দিয়ে দিতে পারি,
এবং আমাদের কাছে তাহলে দুইটি চিহ্ন থাকবে আর চিহ্ন দুইটি আসার সম্ভাবনা সমান।
সুতরাং আমরা একদম সাধারনভাবে একটি চিহ্ন নির্বাচন করতে পারি, যেমন- " এটা কি A?",
এবং এই দ্বিতীয় প্রশ্নটি করার পরে আমরা
সঠিকভাবে চিহ্নটি চিহ্নিত করতে সক্ষম হব।
তাহলে আমরা এখন বলতে পারি, মেশিন এক এর ক্ষেত্রে অনিশ্চয়তার মাত্রা হল
প্রতি চিহ্নের জন্য দুইটি প্রশ্ন করে।
এখন মেশিন দুই এর ক্ষেত্রে তাহলে কি হবে?
মেশন এক এর ক্ষেত্রে আমরা যেটা করেছি সেটা হল
পরবর্তী চিহ্নটি কি হবে তা নির্ধারণ করার জন্য
আমরা দুইটি প্রশ্ন করতে পেরেছি।
যেহেতু এইবার প্রতিটি চিহ্ন আসার সম্ভাবনা ভিন্ন ভিন্ন,
তাই একটু ভিন্নভাবে আমরা এখানে প্রশ্ন করতে পারি।
এখানে A চিহ্নটি আসার সম্ভাবনা আছে ৫০%,
এবং বাকি চিহ্ন বা অক্ষরগুলো যোগ করে সেগুলো আসার সম্ভাবনা সব মিলিয়ে ৫০%।
তাহলে আমরা এখানে এই প্রশ্নটি দিয়ে শুরু করতে পারি "এটা কি A?",
উত্তরটি যদি A হয় তাহলে আমাদের কাজ হয়ে গেল,
আমাদের এখানে শুধুমাত্র একটি প্রশ্ন করতে হল।

Bulgarian: 
например "Дали е А или В?",
тъй като има 50% възможност за А или В
и 50% възможност за С или D.
След като получим отговора,
можем да елиминираме половината възможности
и ще останем с два символа, двата еднакво вероятни.
Тогава просто избираме един, 
например "Дали е А?",
а след този втори въпрос
ще сме идентифицирали правилно символа.
Можем да кажем, че неопределеността
на първата машина 
е два въпроса за символ.
Ами втората машина?
Както при първата,
можем да зададем два въпроса,
за да определим следващия символ.
Този път обаче, вероятността за всеки символ е различна,
затова можем да зададем въпросите си по различен начин.
Тук има 50% вероятност за А,
а сумата за всички останали символи е 50%.
Можем да започнем като попитаме "Дали е А?",
и ако е А, сме готови,
в този случай само с един въпрос.

Spanish: 
como: "¿es A o es B?,
ya que hay una probabilidad del 50% para A o B
y una probabilidad del 50% para C o D.
Después de obtener la respuesta,
podemos eliminar la mitad de las posibilidades,
y nos quedaremos con dos símbolos, ambos igualmente probables.
Así que simplemente escogemos uno, como: "¿es A?",
y después de esta segunda pregunta,
habremos identificado el símbolo de manera correcta.
Podemos decir que la incertidumbre de la Máquina Uno
es de dos preguntas por símbolo.
¿Qué hay de la Máquina Dos?
Como con la Máquina Uno,
podríamos hacer dos preguntas
para determinar el siguiente símbolo.
Esta vez, sin embargo, la probabilidad de cada símbolo
es diferente, así que tenemos que hacer nuestras preguntas de manera diferente.
Aquí A tiene una probabilidad del 50% de ocurrir,
y todas las demás letras suman 50%.
Podríamos empezar por preguntar: "¿es A?",
y si es A, ya terminamos.
Solo una pregunta en este caso.

Georgian: 
როგორიცაა, "არის ეს A ან B"?
რადგან, აქ A და B-ს 50% იანი შანსი აქვთ,
და ასევე 50% იანი შანსი აქვთ C ან D-ს.
პასუხის მიღების შემდეგ,
ჩვენ შეგვიძლია გამოვრიცხოთ
ხდომილობათა ნახევარი,
და ჩვენ დაგვრჩება ორი, ერთნაირად
მოსალოდნელი სიმბოლო.
ასე რომ, ჩვენ უბრალოდ ავარჩევთ ერთს და 
ვიკითხავთ, "არის ეს A?"
და ამ მეორე კითხვის შემდეგ,
ჩვენ სწორად გამოვიცნობთ სიმბოლოს.
შეგვიძლია ვთქვათ, რომ პირველი მანქანის
განუსაზღვრელობაა
ორი სიტყვა ერთ სიმბოლოზე.
რა შეგვიძლია ვთქვათ მეორე ხელსწაყოზე?
როგორც პირველი ხელსწყოს 
შემთხვევაში,
შეგვიძლია დავსვათ კითხვები
მომდევნო სიმბოლოს განსასაზღვრად.
თუმცა,აქ,თითოეული სიმბოლოს
მოსვლის ალბათობა განსხვავებულია,
ჩვენ შეგვიძლია კითხვა მეორენაირად დავსვათ.
აქ A-ს 50% აქვს გამოჩენის შანსი,
და ყველა სხვა სიმბოლოს ჯამში ასევე
50%.
შეგვიძლია დავიწყოთ შეკითხვით:
"არის ეს A?"
თუ ეს A არის, ჩვენ მოვრჩით.
ანუ დაგვჭირდა მხოლოდ ერთი შეკითხვა,

Vietnamese: 
ví dụ như hỏi thế này "có phải kí tự tiếp theo là A hoặc B ? "
Bởi vì có 50% khả năng A hoặc B
và 50% khả năng C hoặc D
Sau khi có câu trả lời
ta có thể loại phân nữa các trường hợp
và ta sẽ còn lại 2 kí tự, có xác xuất như sau.
Vì vậy, ta sẽ chọn kí tự để hỏi, như là "có phải nó là A ?"
và sau câu hỏi thứ 2 này,
ta sẽ có được chính xác kí tự tiếp theo
ta có thể nói rằng tính bất định của máy 1
là 2 câu hỏi mỗi kí tự
Còn máy 2 thì sao ?
cũng như máy 1
ta có thể hỏi 2 câu
để xác định kí tự tiếp theo
Tuy nhiên lần này, xác xuất của mỗi kí tự
là khác nhau, nên ta có thể hỏi khác
A có xác xuất 50% xuất hiện
và các kí tự khác là 50% phần còn lại
và ta có thể hỏi là "có phải đó là A ?"
nếu nó là A thì ta xong,
và chỉ cần 1 câu hỏi trong trường hợp này

Czech: 
Například naše první otázka - můžeme se zeptat, 
jestli je to jeden ze dvou znaků, například A nebo B.
Je zde 50% šance, že půjde o A nebo B
a 50% šance, že půjde o C nebo D.
Získáním odpovědi eliminujeme polovinu možností
a zbudou nám dva znaky. Oba se stejnou pravděpodobností.
Jednoduše zvolíme jeden z nich.
Třeba: Je to A?
Po této druhé otázce budeme
mít znak správně určen.
Můžeme tedy říct, že neurčitost
stroje je dvě otázky na znak.
Nyní druhý stroj.
Jako u prvního stroje se můžeme ptát
na dvě otázky k určení následujícího znaku,
nicméně tentokrát je pravděpodobnost
každého znaku jiná, takže můžeme naše otázky položit rozdílně.
Zde má A pravděpodobnost výskytu 50%
a pravděpodobnost všech dalších znaků se sčítá do 50%.
Můžeme tedy začít položením otázky: Jde o A?
Pokud ano, máme hotovo. Pouze jedna otázka v tomto případě.

Korean: 
아무 두 기호인지
물을 수 있죠
A 또는 B가 될 확률이
50% 이니까요
그리고 C 나 D가 될
기회도 50% 고요
답을 얻은 후에는
우리는 확률의 반을
제거할 수 있습니다
그리고 나면
두 개의 기호가 남습니다
그래서 간단히 하나를 뽑습니다
이렇게 묻죠, A 입니까?
그리고 이 두 번째 질문 후엔
기호를 정확하게
판별할 수 있을 겁니다
기계 1의 불확실성은
기호 하나에 
질문 두 개라고 볼 수 있습니다
기계 2는 어떨까요?
기계 1처럼
다음 기호를 파악하기 위한
질문 2개를 할 수 있습니다
하지만 이번에는
각 기호의 확률이 다릅니다
따라서 다르게 질문해야 합니다
여기 A는 50%의 발생 기회가 있습니다
그리고 A를 뺀 다른 나머지
알파벳들이 될 확률도 50% 입니다
A입니까? 질문으로 시작해보죠
A라면 하나의 질문으로
우리의 할 일은 다 끝난 것이고

Ukrainian: 
такі як "це А чи В"?,
в такому випадку є 50% шанс
випадання А або В
і 50% шансу випадання
C або D.
Після отримання відповіді,
ми можемо знехтувати половиною
ймовірностей,
і ми можемо залишити 2 символи,
обидва однаково вірогідні.
Ми просто вибираємо один,
наприклад, "це А"?
і після цього питання
ми маємо правильно
ідентифікувати символ.
Ми можемо сказати, що 
похибка Машини Один
це 2 запитання на символ.
Як на рахунок Машини Два?
Як із Машиною Один,
ми можемо задати 2 питання,
щоб визначити наступний символ.
Проте цього разу,
ймовірність кожного символу
є різною, тому ми можемо задати
наші питання по-іншому.
Тут А має 50% шанс появи,
а всі інші літери додати до 50%.
Ми можемо почати 
запитуючи "чи це А"?,
якщо так, то ми закінчили,
лише одне запитання в цьому випадку.

Italian: 
Per esempio, potremmo chiedere se è uno dei simboli A o B
C'è una probabilità del 50% che sia o A o B oppure che sia o C o D
La risposta ci consentirà di eliminare la metà delle possibilità
resteranno due simboli, equiprobabili
Ne scegliamo uno, arbitrariamente, e chiediamo: si tratta di A?
Con la seconda domanda avremo identificato correttamente il simbolo
Diciamo che l'incertezza della Macchina 1 è di due domande per simbolo
Cosa dire invece della Macchina 2?
Come nel caso della Macchina 1 potremmo porre due domande per trovare il simbolo successivo
ma stavolta la probabilità di ciascun simbolo è diversa, quindi potremmo porre una domanda differente
A ha da sola la probabilità del 50%, quanto tutte le altre lettere prese insieme
Possiamo iniziare col domandare: "È 'A' ?"
Se si tratta di A siamo arrivati. Una sola domanda è stata sufficiente

Polish: 
dwóch dowolnych symboli:
„Czy to A lub B?”.
Ponieważ jest 50% szans
wystąpienia AB
i 50% szans wystąpienia CD.
Po uzyskaniu odpowiedzi
eliminujemy połowę możliwości
i zostają nam dwa symbole,
równie prawdopodobne.
Po prostu wybieramy jeden,
np. „Czy to A?”.
I po tym drugim pytaniu
poprawnie zidentyfikujemy symbol.
Możemy więc powiedzieć,
że niepewność maszyny 1
- to dwa pytania na symbol.
Co z maszyną drugą?
Podobnie jak przy pierwszej,
moglibyśmy zadać dwa pytania,
aby określić następny symbol,
ale tu prawdopodobieństwo
wystąpienia każdego symbolu jest inne,
pytania będziemy więc stawiać inaczej.
Tutaj prawdopodobieństwo,
że wypadnie A, wynosi 50%,
a pozostałe litery dają 50% łącznie.
Możemy więc zacząć od pytania:
„Czy to jest A?”.
Jeśli tak, to skończyliśmy.
Wystarczyło jedno pytanie.

Polish: 
W przeciwnym razie
uzyskujemy takie same wyniki:
D albo B i C.
Możemy więc spytać: „Czy to D?”.
Jeśli tak, to skończyliśmy.
Wystarczyły dwa pytania.
Inaczej musimy zadać
pytanie trzecie,
by wskazać jeden
z pozostałych dwóch symboli.
Przeciętnie,
jaka jest oczekiwana liczba pytań,
którymi określicie symbol z maszyny 2?
Można to wyjaśnić przez analogię.
Załóżmy, że chcemy
skonstruować maszyny 1 i 2.
Możemy generować symbole
odbijając kółko od gwoździ.
Leci ono w dwie
równie prawdopodobne strony.
Zależnie od kierunku,
generowany jest symbol.
Zatem do maszyny 1
musimy dodać drugi poziom,
czyli drugie odbicie.
Mamy więc dwa odbicia

Georgian: 
წინააღმდეგ შემთხვევაში კი, ჩვენ
გვრჩება ორი ერთნაირი შედეგი, D ან B და C,
ჩვენ შეგვეძლო გვეკითხა,
"არის ეს D?".
თუ პასუხი დადებითია, ორი შეკითხვით 
მოვრჩებით.
თუ არა, ჩვენ მესამე კითხვა უნდა
დავსვათ
რომ გამოვიცნოთ, რომელი მოვა
დარჩენილი ორი სიმბოლოდან,
საშუალოდ, რამდენი კითხვის
დასმას ელით,
რომ გამოიცნოთ სიმბოლო მეორე 
ხელსაწყოდან?
ეს შეიძლება ახსნილი იყოს ანალოგიით.
დავუშვათ, რომ
პირველი და მეორე ხელსაწყოს შექმნა
გვსურს
და შეგვიძლია რიცხვების გენერირება
დისკოს კოჭებზე ვარდნით
ორი ერთნაირად მოსალოდნელი 
მიმართულებიდან ერთ-ერთით.
იმ გზაზე დაყრდნობით, 
რომლითაც დავარდება,
ჩვენ შეგვიძლია გავაკეთოთ
სიმბოლოს გენერირება.
პირველი ხელსაწყოს შემთხვევაში,
ჩვენ დამატებითი საფეხური გვჭირდება,
ან მეორე ნახტომი, ასე ჩვენ გვაქვს ორი 
ნახტომი

Italian: 
Altrimenti siamo di fronte a due possibilità equiprobabili, o è D, oppure è una lettera fra B e C
Posso allora chiedere: "Si tratta di 'D' ?"
Se si, siamo arrivati: due domande
Altrimenti dobbiamo porre una terza domanda per identificare l'ultimo simbolo
In media
quante domande ci aspettiamo di dover porre per determinare il simbolo nel caso della Macchina 2?
Possiamo spiegarlo con una analogia
Immaginiamo di voler costruire la Macchina 1 e la Macchina 2
e di generare i simboli facendo rimbalzare un disco
in due direzioni equiprobabili
e di generare il simbolo a seconda della direzione in cui cade
Per la macchina 1, dobbiamo aggiungere un secondo livello

Bulgarian: 
В противен случай, оставаме с
два изхода с еднаква вероятност – D или В и С.
Можем да попитаме "Дали е D?".
Ако е така, завършваме с два въпроса.
В противен случай трябва да зададем трети въпрос,
за да разберем кой от двата последни символа ще бъде.
Какъв е средният брой въпроси,
които очакваш да зададеш,
за да определиш следващия символ от втората машина?
Можем да обясним това лесно с една аналогия.
Да приемем, че искаме да построим
двете машини
и можем да генерираме символи
като използваме диск, отскачащ от стълб
в една от две еднакво вероятни посоки.
Според това на коя страна ще падне,
ние можем да генерираме символ.
С първата машина трябва да добавим второ ниво,
или второ отскачане, така че ще имаме две отскачания,

Portuguese: 
No entanto, ficamos com
outros dois resultado possíveis,
D ou, B e C.
Perguntamos: "é D?".
Se sim, terminamos com duas perguntas.
Senão, teremos de fazer a terceira pergunta
para identificar qual dos
dois últimos símbolos será.
Em média, quantas perguntas
você espera fazer
para determinar o símbolo da máquina dois?
Isso pode ser explicado
com uma analogia.
Ao invés vamos assumir que queremos
construir a máquina um e máquina dois,
e podemos gerar símbolos
saltando discos de uma quilha
em uma de duas direções
igualmente prováveis.
Baseado em qual caminho cairá,
podemos gerar o símbolo.
Com a máquina um, precisamos
adicionar um segundo nível,
ou um segundo salto, para que
tenhamos dois saltos,

Czech: 
Jinak zbývají dva rovnocené výsledky.
"D" nebo "B" a "C".
Můžeme se tedy ptát: Jde o D?
Pokud ano, jsme hotovi se dvěma otázkami.
Jinak se musíme ptát potřetí ke zjištění,
který ze zbývajících dvou symbolů to je.
Na kolik otázek
se v průměru zeptáme,
ke zjištění znaku druhého stroje?
Můžeme to pěkně vysvětlit analogií.
Předpokládejme, že chceme postavit oba stroje
a můžeme generovat znaky
odrazem disku od kolíků
do jednoho ze dvou stejně pravděpodobných směrů.
Na základě toho kam disk spadne,
můžeme generovat symbol.
V případě prvního stroje, musíme přidat
druhou úroveň pro druhý odraz,

Bengali: 
অন্যথায়, আমাদের কাছে আরও
দুইটি সমান সম্ভাবনা থাকবে, D অথবা B এবং C।
আমার আবার প্রশ্ন করতে পারি, "এটা কি D?"
উত্তর যদি হ্যাঁ হয়, তাহলে আমাদের কাজ দুইটি প্রশ্নের মাধ্যমেই শেষ।
অন্যথায় তিন নম্বর প্রশ্নটি আমাদের জিজ্ঞেস করতে হবে
শেষের চিহ্ন দুইটি নির্ধারণ করার জন্য।
মেশিন দুই থেকে কোন চিহ্নটি বের হবে তা নির্ধারণ করার জন্য
তোমাকে গড়ে কতগুলো
প্রশ্ন জিজ্ঞেস করতে হবে?
এই বিষয়টি একটি তুলনার মাধ্যমে খুব ভালভাবে ব্যাখ্যা করা সম্ভব।
এখন মনে করা যাক, আমরা এই কাজটি করার পরিবর্তে
মেশিন এক এবং দুই তৈরি করতে চাই,
এবং আমরা চিহ্ন তৈরি করতে পারি এভাবে,
একটি ডিস্ককে, একটি পেরেকের সাথে
বাউন্স করানোর মাধ্যমে যেখানে ডিস্কটি যেকোন দিকে যেতে পারে।
ডিস্কটি কোনদিকে পড়ছে তার উপরে ভিত্তি করে
আমরা একটি চিহ্ন তৈরি করতে পারি।
মেশিন এক এর ক্ষেত্রে, আমাদের আরও একটি স্তর সংযুক্ত করতে হবে,
অথবা বলা যেতে পারে দ্বিতীয় একটি বাউন্স এখানে রাখতে হবে, যাতে আমাদের ডিস্কগুলো দুইবার বাউন্স খেতে পারে,

Korean: 
그렇지 않다면 
 D이거나 B와 C인
두 개의 동일한 결과가 남습니다
D입니까 라고 질문합니다
맞다면
두개의 질문으로 끝난 것이고
그렇지 않다면
세 번째 질문을 해야만 합니다
마지막 두 기호가 무엇인지
알아내려면요
기계2에서 기호를 알아내려면
평균적으로 몇 번의 질문을
해야 할 거라고 생각하시나요?
이것은 비유를 통해
잘 설명할 수 있습니다
가정해 봅시다
기계1과 기계2를 만들고자 하는데
디스크를 동등하게 같은 방향으로
못에 튕겨서
우리는 기호를 만들어낼 수 있습니다
어디로 떨어지느냐를 토대로
기호를 만들어 낼 수 있죠
기계1에 우리는 2단계를
더할 필요가 있습니다
또는 2번 떨어지게 만들 필요가 있죠
그래서 두 번 튕기게 하는 겁니다

Ukrainian: 
В іншому випадку, ми залишилися з
двома рівними результатами D або, B і C.
Ми можемо запитати "це D"?
Якщо так, то ми закінчили на 2 питаннях.
В іншому разі, ми маємо 
задати третє питання
щоб визначити, котрий це
із 2 останніх символів.
В середньому, скільки питань
ви очікуєте задати,
щоб визначити символ з Машини Два?
Це можна гарно пояснити
на прикладі аналогії.
Давайте припустимо, що 
замість цього ми хочемо
побудувати Машину Один і Машину Два,
і ми можемо згенерувати символи
за допомогою підскакуючого 
диску на штифті
в одному з двох однаково 
вірогідних напрямках.
Базуючусь на тому, в якому напрямі
він впаде,
ми можемо згенерувати символ.
З Машиною Один нам треба
додати другий рівень,
або другий відскік, так
що ми маємо два відскоки,

Vietnamese: 
Nếu không, ta còn lại
với 2 trường hợp với xác xuất bằng nhau, đó là D hoặc, B và C
ta có thể hỏi "có phải nó là D"
Nếu có, ta xong với 2 câu hỏi
Nếu không, ta phải hỏi câu thứ 3
để xác định kí tự còn lại
Trung bình, có bao nhiêu câu hỏi
mà ta sẽ hỏi
để xác định 1 kí tự từ máy 2 ?
Đều này được giải thích rõ ràng bằng phép loại suy.
Giả sử rằng thay vì ta muốn
làm cái máy 1 và máy 2
và ta có thể tạo ra các kí tự
bằng cách thả cái đĩa xuống cái chốt
với khả năng nó rơi ra hướng trái, phải là như nhau
Tùy vào nó rơi hướng nào
ta có thể tạo ra một kí tự
Với máy 1, ta cần thêm một tầng nữa
hoặc là cái chốt để cho cái đĩa nãy thêm lần nữa, tổng cộng 2 lần nãy

Spanish: 
De lo contrario, nos quedamos con
dos resultados iguales: D o, B y C.
Podríamos preguntar: "¿es D?".
Si sí, terminamos con dos preguntas.
De lo contrario, tenemos que hacer una tercera pregunta
para identificar cuál de los dos últimos símbolos es.
En promedio, ¿cuántas preguntas
esperas hacer
para determinar un símbolo de la Máquina Dos?
Esto se puede explicar de una buena manera con una analogía.
Supongamos que queremos
construir la Máquina Uno y la Máquina Dos,
y que podemos generar símbolos
al hacer rebotar discos en un palito
en una de dos direcciones igualmente probables.
Con base en cuál lado caiga,
podemos generar un símbolo.
Con la Máquina Uno, necesitamos agregar un segundo nivel,
o un segundo rebote, de modo que tengamos dos rebotes,

English: 
Otherwise, we are left with
two equal outcomes, D or, B and C
We could ask, "is it D?".
If yes, we are done with two questions.
Otherwise, we have to ask a third question
to identify which of the
last two symbols it is.
On average, how many questions
do you expect to ask,
to determine a symbol from Machine Two?
This can be explained
nicely with an analogy.
Let's assume instead we want
to build Machine One and Machine Two,
and we can generate symbols
by bouncing a disc off a peg
in one of two equally likely directions.
Based on which way it falls,
we can generate a symbol.
With Machine One, we need
to add a second level,
or a second bounce, so
that we have two bounces,

Ukrainian: 
що приведе до 4-х
одинаково вірогідних результатів.
Базуючись на тому, де
приземлився диск,
ми виводимо A, B, C, чи D.
А тепер Машина Два.
В цьому випадку, перший відскік
приведе або до А,
який випадає з 50% вірогідністю,
або в іншому випадку ми прийдемо до
другого відскоку,
який може вивести або D,
що появляється з 25% вірогідністю,
або ж прийдемо до третьго відскоку,
який потім приведе або до B, або до C, 
з вірогідністю 12.5%.
Тепер ми візьмемо зважене
середнє наступним чином.
Очікуване число відскоків
є ймовірністю випадання символу А
за один відскік,
плюс ймовірність випадання В
за 3 відскоки,
плюс ймовірність випадання С
за 3 відскоки,
плюс ймовірність випадання D
за 2 відскоки.
Це спрацьовує для 1.75 відскоків.
Зверніть увагу на зв'язок між
"так чи ні" питаннями та
чесними відскоками.
Очікуване число запитань

Portuguese: 
que levaram a quatro saídas
igualmente iguais.
baseado onde o disco cair,
teremos a saída A, B, C ou D.
Agora a máquina dois.
Neste caso, o primeiro salto
leva tanto a A,
que ocorre 50% das vezes,
ou a um segundo salto,
que pode ter a saída tanto em D,
que ocorre 25% das vezes,
ou levar a um terceiro salto,
que segue para B ou C, 12,5% das vezes.
Agora façamos uma média ponderada
como se segue.
O número esperado de saltos
é a probabilidade do símbolo
A vezes um salto,
mais a probabilidade de B
vezes três saltos,
mais a probabilidade de C
vezes três saltos,
mais a probabilidade de D
vezes dois saltos.
Isso nos dá 1,75 saltos.
Note que a conexão entre
entre as perguntas de sim ou não
e os saltos justos.
O número esperado de questões

Bulgarian: 
които водят до четири еднакво вероятни изхода.
Според това къде пада дискът,
получаваме А, В, С или D.
Сега за втората машина.
В този случай първото падане ни води до А,
което се случва през 50% от времето,
или до второ отскачане,
което води до изход D,
което се случва през 25% от времето,
или до трето отскачане,
което води до изход В или С през 12.5% от времето.
Сега взимаме средното претеглено по следния начин.
Очакваният брой отскачания
е вероятността на символ А по едно отскачане
плюс вероятността за символ В по три отскачания
плюс вероятността за символ С по три отскачания
плюс вероятността за символ D по две отскачания.
Това ни дава 1.75 отскачания.
Забележи връзката между
въпросите с да или не и чистите отскачания.
Очакваният брой въпроси

Polish: 
i cztery równie prawdopodobne wyniki.
Zależnie od tego, gdzie spadnie kółko,
wyciągamy A, B, C lub D.
Teraz maszyna druga.
W tym przypadku pierwsze odbicie
prowadzi albo do A,
które wypada w 50% przypadków,
albo niezbędne jest odbicie drugie,
z którego uzyskamy wynik D (25%),
lub konieczne będzie odbicie trzecie,
które da nam albo B, albo C (po 12,5%).
Teraz wyliczamy średnią ważoną:
oczekiwana liczba odbić
to prawdopodobieństwo A,
razy jedno odbicie,
plus prawdopodobieństwo B
razy trzy odbicia,
plus prawdopodobieństwo C
razy trzy odbicia,
plus prawdopodobieństwo D
razy dwa odbicia.
A to daje 1,75 odbicia.
Zauważcie związek między pytaniami
typu „tak czy nie”, a odbiciami.

Vietnamese: 
nó sẽ dẫn tới 4 trường hợp có khả năng như nhau
Tùy vào nơi cái đĩa rơi,
ta viết ra A, B, C, hoặc D
Bây giờ với máy 2.
Trong trường hợp máy 2, lần nãy đầu tiên sẽ dẫn tới A
có xác xuất 50 %
hoặc dẫn tới lần nãy 2
có thể dẫn tới D
với xác xuất 25%
hoặc dẫn tới lần nãy 3
mà có thể dẫn tới B hoặc C, mỗi loại 12,5 %
Giờ ta tính tỉ trọng trung bình như sau
Số lần nãy dự kiến
là xác xuất của A nhân 1 lần nãy
cộng xác xuất của B nhân 3 lần nãy
cộng xác xuất của C nhân 3 lần nãy
cộng xác xuất của D nhân 2 lần nãy
ra kết quả là 1.75 lần nãy
Hãy để ý sự liên hệ giữa
câu hỏi đúng-sai và đĩa nãy
Số câu hỏi dự kiến

Bengali: 
যেটা আমাদেরকে চারটি ভিন্ন ভিন্ন ফলাফলের দিকে নিয়ে যাবে।
ডিস্কগুলো কোথায় পড়ছে তার উপরে ভিত্তি করে
আমাদের কাছে A, B,C অথবা D এই চারটি ফলাফল আসবে।
এখন মেশিন দুই এর ক্ষেত্রে।
এক্ষেত্রে, প্রথম বাউন্সটি A এর দিকে হতে পারে
যেটা হবার সম্ভাবনা হল ৫০%
অথবা এরকমটি না হলে আমরা দ্বিতীয় একটি বাউন্স পাব
যেটা আউটপুট হিসেবে D প্রকাশ করতে পারে,
যেটা হবার সম্ভাবনা হল ২৫%,
অথবা এরকমটিও যদি না হয় আমরা তৃতীয় একটি বাউন্স পাব
যেটা আউটপুট হিসেবে B অথবা C প্রকাশ করবে, উভয়ের ক্ষেত্রেই এটা হবার সম্ভাবনা হল ১২.৫%।
এখন আমরা নিম্নোক্তেভাবে গড় বের করতে পারি।
প্রতাশিত বাউন্সের সংখ্যা হল-
অক্ষর A গুন একটি বাউন্সের সম্ভাবনা,
যোগ অক্ষর B গুন তিনটি বাউন্সের সম্ভাবনা,
যোগ অক্ষর C গুন তিনটি বাউন্সের সম্ভাবনা,
যোগ অক্ষর D গুন দুইটি বাউন্সের সম্ভাবনা.
ফল হিসেবে আমরা পাই ১.৭৫ বার বাউন্স।
এখন হ্যাঁ অথবা না প্রশ্ন এবং পক্ষপাতহীন
বাউন্সগুলোর মধ্যের সম্পর্ক দেখা যাক।
প্রত্যাশিত প্রশ্নের সংখ্যা সমান হল

English: 
which lead to four
equally likely outcomes.
Based on where the disc lands,
we output A, B, C, or D.
Now Machine Two.
In this case, the first
bounce leads to either an A,
which occurs 50% of the time,
or else we lead to a second bounce,
which then can either output a D,
which occurs 25% of the time,
or else it leads to a third bounce,
which then leads to either
B or C, 12.5% of the time.
Now we just take a weighted
average as follows.
The expected number of bounces
is the probability of
symbol A times one bounce,
plus the probability of
B times three bounces,
plus the probability of
C times three bounces,
plus the probability
of D times two bounces.
This works out to 1.75 bounces.
Notice the connection between
yes or no questions and fair bounces.
The expected number of questions

Georgian: 
რომელსაც ოთხი ერთნაირად მოსალოდნელი
შედეგისკენ მივყავართ.
იმის მიხედვით,სად დავარდება 
დისკო
ჩვენ ვიღებთ შედეგებს: A, B, C, ან D,
ახლა მეორე ხელსაწყო.
ამ შემთხვევაში, პირველი ნახტომს
მივყავართ ან A-სკენ, 
რომლის მოსვლის შანსიც 50%ია
ან ვუყურებთ მეორე ნახტომს,
რომელსაც შედეგად მოაქვს ან D,
მოსვლის 25% იანი ალბათობით,
ან ველოდებით მესამე ნახტომს,
რომელსაც მივყავათ ან B-მდე ან C-მდე,
12,5% ალბათობებით.
ახლა ჩვენ უბრალოდ ვიღებთ 
შეწონილ საშუალოს.
დარტყმების მოსალოდნელი რიცხვი
არის A-ს მოსვლის ალბათობა გამრავლებული
ერთ დარტყმაზე
პლუს B-ს მოსვლის ალბათობა გამრავლებული
სამ დარტყმაზე,
პლუს C-ს მოსვლის ალბათობა გამრავლებული
სამ დარტყმაზე,
პლუს D-ს მოსვლის ალბათობა გამრავლებული
ორ დარტყმაზე.
ეს გვაძლევს 1.75 ნახტომს.
ყურადღება მიაქციეთ კავშირს
კი/არა შეკითხვებსა და ნახტომების 
რიცხვს შორის.
შეკითხვების მოსალოდნელი რიცხვი

Spanish: 
que conduzcan a cuatro resultados igualmente probables.
Con base en donde caiga el disco,
tenemos A, B, C o D como salida.
Ahora la Máquina Dos.
En este caso, el primer rebote conduce a ya sea una A,
que ocurre 50% de las veces,
o nos conduce a un segundo rebote,
el cual puede tener una D como salida,
que ocurre 25% de las veces,
o nos conduce a un tercer rebote,
que después conduce a B o a C, 12.5% de las veces.
Ahora solo tomamos el promedio ponderado como sigue.
El número esperado de rebotes
es la probabilidad del símbolo A por un rebote,
más la probabilidad de B por tres rebotes,
más la probabilidad de C por tres rebotes,
más la probabilidad de D por dos rebotes.
Esto resulta ser 1.75 rebotes.
Observa la conexión entre
las preguntas de sí y no y los rebotes equitativos.
El número esperado de preguntas

Italian: 
in modo da avere due rimbalzi che generano quattro risultati equiprobabili
Secondo di dove il disco cade, scriviamo A, B, C, D
Esaminiamo il caso della Macchina 2
Al primo rimbalzo o otteniamo A, il 50% delle volte
o abbiamo un secondo rimbalzo, che dà o D, il 25% delle volte in totale
oppure ci porta al terzo rimbalzo
che produce o B o D, ciascuno il 12,5% delle volte
Calcoliamo la media ora:
il numero atteso di rimbalzi
è dato dalla probabilità d'occorrenza di 'A' moltiplicata per 1 rimbalzo più la probabilità di 'B' per tre rimbalzi
più la probabilità di C per tre rimbalzi più la probabilità di D per due rimbalzi
Otteniamo come risultato: 1.75 rimbalzi
Notate l'analogia con le domande del tipo 'SI' o 'NO'

Czech: 
takže nám dva odrazy vygenerují čtyři stejně pravděpodobné výsledky.
Na základě toho kam disk dopadne máme výstup A, B, C nebo D.
Nyní druhý stroj.
V tomto případě, první odraz vede buď k A, které nastane v 50% případů,
nebo vede k druhému odrazu. Výstupem druhého odrazu je D, které nastane ve 25% případů
nebo vede k třetímu odrazu.
Ten nám dá buď B nebo C
s pravděpodobností 12,5% v obou případech.
Nyní to zprůměrujme.
Průměrný počet odrazů
je pravděpodobnost znaku A krát jeden odraz,
plus pravděpodobnost znaku B krát tři odrazy,
plus pravděpodobnost znaku C krát tři odrazy,
plus pravděpodobnost znaku D krát dva odrazy.
Což vychází na 1,75 odrazů v průměru.
Povšimněte si spojení mezi otázkami typu ano/ne a odrazy.

Korean: 
그것은 4개의
같은 확률의 결과물을 낳게 합니다
디스크가 어디에
 떨어지느냐에 근거해서
A, B, C, 또는 D를 출력합니다
이제 기계2입니다
이 경우에는 첫 번째 바운스가
50%의 확률이 있는 A로 가거나
아니라면 
두 번째 바운스로 갑니다
그리고 나서 25% 확률의
D를 출력하거나
3번째 바운스로 가게 되죠
그리고 나면
12.5 % 확률의 B나 C로 갑니다
이제 다음의 평균을 계산합니다
예상 바운스의 숫자는
기호A의 확률 곱하기 1바운스
더하기 B확률 곱하기 3바운스
더하기 C확률 곱하기 3바운스
더하기 D 확률 곱하기 2바운스입니다
그러면 1.75 바운스가 나옵니다
Yes/No 질문과 이 바운스와의
연관성을 주목해보세요
질문의 예상 수는

Georgian: 
ტოლია ნახტომების მოსალოდნელი
რიცხვის.
ასე რომ, პირველ ხელსაწყოს ორი ნახტომი
სჭირდება სიმბოლოს გენერირებისთვის,
ხოლო სიმბოლოს გამოცნობას
ორი შეკითხვის დასმა სჭირდება.
მეორე ხელსწაყოს კი1.75 ნახტომი სჭირდება.
ჩვენ საშუალოდ 1.75 კითხვა უნდა დავსვათ.
თუ ჩვენ გვჭირდება, დავუშვათ, 100 სიმბოლოს 
გამოცნობა
ორივე ხელსწაყროს შემთხვევაში,ჩვენ უნდა
ველოდოთ
პირველის დროს 200 შეკითხვის დასმას,
ხოლო მეორეს დროს 175 შეკითხვის დასმას.
ეს ნიშნავს, რომ მეორე მანქანა
ნაკლებ ინფორმაციას გვაწვდის,
რადგან აქ ნაკლები განუსაზღვრელობა
და მოულოდნელობაა
შედეგთან დაკავშირებით.
კლოდ შენონმა ამას დაარქვა
საშუალო განუსაზღვრელობის "ენთროპიის" 
გაზომვა.
და ის იყენებს H სიმბოლოს ამის გამოსახატად.
შენონის არჩეული
ენთროპიის ერთეული,

Bulgarian: 
е равен на очаквания брой отскачания.
Така първата машина изисква две отскачания, за да генерира символ,
а познаването на неизвестен символ изисква два въпроса.
Втората машина изисква 1,75 отскачания.
Трябва да зададем средно 1,75 въпроса,
което означава, че, ако трябва да предположим по 100 символа
от двете машини, очакваме да зададем
200 въпроса на първата машина
и 175 въпроса на втората машина.
Това означава, че втората машина произвежда по-малко информация,
защото има по-малка несигурност или изненада
за нейния изход. 
Tова е.
Клод Шанън нарича това
измерване на средната несигурност "ентропия"
и използва буквата Н, за да я представи.
Шанън избира единицата на ентропията

Korean: 
바운스의 예상 수와 같습니다
따라서 기계 1이 기호를 만드려면
2번의 바운스가 필요합니다
모르는 기호를 알아내기 위해서
2개의 질문이 필요하듯이 말이죠
기계2는 1.75 바운스가 요구됩니다
평균적으로 1.75개의 
질문을 해야 합니다
이 뜻은 만일 우리가
이 두 기계를 이용해
100개의 기호를
알아내기 위해서는
기계1에게는 200개 질문을
기계2에게는
175개의 질문을 해야한다는 뜻입니다
기계2가
적은 정보를 만들어낸다는 뜻이죠
출력값에 대한 불확실성이나
예상외의 일이 적기 때문입니다
클라우드 섀넌은 이것을 평균적
불확실성의 측정
엔트로피 라고 부릅니다
그리고 그것을 나타내기 위해
철자 H를 사용합니다
섀넌이 선택한 엔트로피의 단위는

Portuguese: 
é igual ao número esperado
de saltos.
Então a máquina um requer
dois saltos para gerar um símbolo,
enquanto adivinhar um símbolo
desconhecido requer duas perguntas.
A máquina dois requer 1.75 saltos.
Precisamos perguntar 1.75 questões em média,
o que significa que se precisarmos
adivinhar 100 símbolos
de ambas as máquinas, esperamos perguntar
200 questões para a máquina um,
e 175 questões para a máquina dois.
Isso significa que a máquina dois
está produzindo menos informação
pois existe menos incerteza,
ou surpresa,
a respeito de sua saída, e é isso.
Claude Shannon chama isto
de medir a média da incerteza
de uma "entropia",
e ele usa a letra H para representar isso.
A unidade de entropia que Shannon escolheu,

Ukrainian: 
дорівнює очікуваному числу
відскоків.
Отож, Машина Один потребує 
2 відскоки, щоб згенерувати символ,
під час вгадування невідомого
символу потребує 2 питання.
Машина Два потребує 1.75 відскоків.
Нам треба в середньому 
задати 1.75 питань,
маючи на увазі, якщо нам треба 
вгадати сотню символів
від обох машин, ми очікуємо
запитати
200 питань в Машини Один,
і 175 питань в Машини Два.
Це означає, що Машина Два
продукує менше інформації,
тому що похибка менша,
або здивованість
його виходом, і це все.
Клод Шеннон називає це
виміром середньої похибки "ентропії",
і він використовує літеру 
Н, щоб представити її.
Одиницю ентропії Шеннон обирає,

Italian: 
e i rimbalzi equiprobabili. Il numero medio di domande è pari al numero atteso di rimbalzi.
Macchina 1 necessita di 2 rimbalzi per generare il simbolo
perché indovinare un simbolo sconosciuto richiede due domande
Mentre per la Macchina 2 abbiamo bisogno di 1.75 rimbalzi
perché mediamente dobbiamo porre 1.75 domande
Se dovessimo determinare una sequenza di 200 simboli
per entrambe le macchine
per la Macchina 1 dovremmo porre 200 domande
mentre solo 175 per la Macchina 2.
La Macchina 2 produce meno informazione
dato che c'è meno incertezza, minore sorpresa nei risultati che genera
Claude Shannon denominò 'ENTROPIA' tale misura dell'incertezza media
E la denotò con la lettera 'H'

English: 
is equal to the expected
number of bounces.
So Machine One requires two
bounces to generate a symbol,
while guessing an unknown
symbol requires two questions.
Machine two requires 1.75 bounces.
We need to ask 1.75 questions on average,
meaning if we need to
guess a hundred symbols
from both machines, we can expect to ask
200 questions for Machine One,
and 175 questions for Machine Two.
This means that Machine Two
is producing less information
because there is less
uncertainty, or surprise,
about it's output, and that's it.
Claude Shannon calls this
measure of average uncertainty "entropy",
and he uses the letter H to represent it.
The unit of entropy Shannon chooses,

Bengali: 
প্রত্যাশিত বাউন্সের সংখ্যা।
তাহলে মেশিন এক এর একটি চিহ্ন তৈরি করার জন্য দুইটি বাউন্স প্রয়োজন হবে,
যেখানে অজানা কোন একটি চিহ্ন অনুমান করার জন্য দুইটি প্রশ্ন লাগবে।
মেশিন দুইয়ের ক্ষেত্রে লাগবে ১.৭৫ বার বাউন্স।
সুতরাং আমাদের গড়ে ১.৭৫ টি প্রশ্ন এখানে জিজ্ঞেস করতে হবে
যার অর্থ হল আমাদের যদি উভই মেশিন থেকেই ১০০ টি চিহ্ন অনুমান
করার দরকার পড়ে তাহলে, মেশিন এক এর জন্য
২০০ টি এবং মেশিন
দুইয়ের জন্য ১৭৫টি প্রশ্ন আমাদের জিজ্ঞেস করার প্রয়োজন পড়বে।
যার অর্থ হল মেশিন দুই কম সংখ্যক তথ্য প্রকাশ করছে
কারন এখানে এর আউটপুটে অল্প সংখ্যক
অনিশ্চয়তা অথবা  চমক রয়েছে, আর এখানেই এর কাজ থেমে গেছে।
ক্লড শ্যানন একে
অনিশ্চয়তার গড় পরিমাপের "এনট্রপি" হিসেবে অভিহিত করেছেন,
এবং একে তিনি H অক্ষরটি দিয়ে প্রকাশ করেছেন।
এনট্রপির একক যেটা শ্যানন নির্বাচন করেছেন

Polish: 
Oczekiwana liczba pytań jest równa
oczekiwanej liczbie odbić.
Maszyna 1 wymaga dwóch odbić,
żeby wygenerować symbol,
a odgadnięcie nieznanego symbolu
wymaga dwóch pytań.
Maszyna 2 wymaga 1,75 odbicia
i musimy zadać
przeciętnie 1,75 pytania.
A zatem: gdybyśmy mieli odgadnąć
sto symboli, z obu maszyn,
to możemy oczekiwać, że zadamy
200 pytań w przypadku maszyny 1
i 175 pytań w przypadku maszyny 2.
To oznacza, że maszyna 2
wytwarza mniej informacji,
bo jest mniej niepewności,
czy niespodzianek w wyniku.
Tę miarę przeciętnej niepewności
Claude Shannon nazywa entropią.
Oznacza ją symbolem H.
Jednostka entropii,
z wyboru Shannona,

Czech: 
Průměrný počet otázek je roven průměrnému počtu odrazů.
První stroj vyžaduje dva odrazy
na vygenerování znaku,
přičemž hádání neznámého
symbolu vyžaduje dvě otázky.
Druhý stroj potřebuje 1,75 odrazů
a musíme se zeptat v průměru na 1,75 otázek.
To znamená, že zeptáme-li se na 100 znaků
z obou strojů,
můžeme očekávat, že se zeptáme na 200 otázek pro první stroj a
na 175 otázek pro druhý stroj.
To znamená, že druhý stroj
produkuje méně informace,
protože je méně nejistoty
nebo překvapení na jeho výstupu.
Claude Channon nazývá měření
průměrné nejistoty ENTROPIE.
A používá písmeno "H" jako označení.

Vietnamese: 
bằng số lần nãy dự kiến
Vì vậy, máy 1 cần 2 lần nãy để tạo ra kí tự
khi đoán 1 kí tự chưa biết cần 2 câu hỏi
Máy 2 cần 1.75 lần nãy
nên ta trung bình chỉ cần hỏi 1.75 câu hỏi
có nghĩa là nếu ta cần đoán 100 kí tự
từ cả 2 máy, ta có thể dự kiến sẽ hỏi
200 câu cho máy 1
và 175 câu cho máy 2
Có nghĩa là máy 1 sẽ sản xuất ít thông tin
bởi vị có ít tính bất định, hoặc sự bất ngờ
về kết quả xuất ra của nó.
Claude Shannon gọi
thước đo trung bình của tính bất định là en-tro-py
và dùng kí hiệu là H .
Đơn vị của en-tro-py mà Shannon chọn,

Spanish: 
es igual al número esperado de rebotes.
De modo que la Máquina Uno requiere dos rebotes para generar un símbolo,
mientras que adivinar un símbolo desconocido requiere de dos preguntas.
La Máquina Dos requiere 1.75 rebotes.
Necesitamos hacer 1.75 preguntas en promedio,
lo que significa que si necesitamos adivinar cien símbolos
de ambas máquinas, podemos esperar
hacerle 200 preguntas a la Máquina Uno
y 175 preguntas a la Máquina Dos.
Esto significa que la Máquina Dos está produciendo menos información
porque hay menos incertidumbre, o sorpresa,
acerca de su salida, y eso es todo.
Claude Shannon llama a esta
medida de la incertidumbre promedio "entropía"
y usa la letra H para representarla.
Y la unidad que Shannon escoge para la entropía

Polish: 
odnosi się do niepewności
związanej z rzutem monetą.
Shannon nazwał ją bitem;
to ekwiwalent odbicia.
Taki sam wynik osiągniemy
przez analogię z odbiciami.
Entropia, czyli H, to suma,
dla każdego symbolu,
prawdopodobieństwa jego wystąpienia
pomnożona przez liczbę odbić.
Pytanie, jak liczbę odbić
wyrazić bardziej ogólnie.
Jak widać, liczba ta zależy
od tego, gdzie na drzewie jesteśmy.
Dla uproszczenia powiedzmy,
że liczba odbić równa się
logarytmowi o podstawie dwa
z liczby wyników na danym poziomie.
A liczba wyników na danym poziomie
też opiera się o prawdopodobieństwo:
liczba wyników jest równa
odwrotności
prawdopodobieństwa tego wyniku.
Liczba odbić jest równa
logarytmowi o podstawie dwa
z odwrotności prawdopodobieństwa
wypadnięcia symbolu.

Czech: 
Jednotka entropie, kterou Shannon zvolil,
je založena na nejistotě hodu mincí.
Nazývá ji "bit",
což je ekvivalentní odrazu disku.
Dostaneme stejný výsledek,
při použití analogie odražení disku.
Entropie nebo H je suma pravděpodobnosti každého znaku
krát počet odrazů k získání tohoto znaku.
Teď se podívejme na rozdíly
ve vyjádření počtu odrazů obecněji.
Jak jsme viděli, počet odrazů závisí na tom,
jak hluboko se nacházíme ve stromu.
To můžeme zjednodušit, když řekneme, že počet odrazů je roven
logaritmu o základu dva z počtu výsledků v dané úrovni stromu.
Počet výsledků v dané úrovni
je také založen na pravděpodobnosti,
kde počet výsledků v dané úrovni je roven
jedna lomeno pravděpodobnost výsledku.
Počet odrazů se rovná dvojkovému logaritmu
z jedna lomeno pravděpodobnost znaku.

English: 
is based on the uncertainty
of a fair coin flip,
and he calls this "the bit",
which is equivalent to a fair bounce.
We can arrive at the same result
using our bounce analogy.
Entropy or H is the
summation for each symbol,
of the probability of that symbol
times the number of bounces.
The difference is, how do we express
number of bounces in a more general way?
As we've seen, number of bounces depends
how far down the tree we are.
We can simplify this by saying that
the number of bounces equals
the logarithm base two
of the number of outcomes at that level.
The number of outcomes at a level,
is also based on the probability,
where the number of outcomes at a level
equals one divided by the
probability of that outcome.
Number of bounces actually equals
the logarithm base two
of one over the
probability of that symbol,

Bengali: 
সেটা একটি পক্ষপাতহীন মুদ্রা নিক্ষেপের অনিশ্চয়তার উপরে ভিত্তি করে নির্ধারণ করেছেন
এবং তিনি একে "দ্যা বিট" বলে আখ্যায়িত করেছেন,
যেটা একটি পক্ষপাতহীন বাউন্সের সমান।
আমরা আমাদের বাউন্সের এই সদৃশতা
ব্যবহার করে একই ফলাফলে পৌছতে পারি।
এনট্রপি অথবা H হল প্রতিটি চিহ্নের
সম্ভাবনার সমষ্টি
গুন বাউন্সের সংখ্যা।
পার্থক্যটি হল, আমরা কিভাবে
বাউন্সের সংখ্যাটি আরও সাধারন পন্থা অবলম্বন করে প্রকাশ করতে পারব?
আমরা যেটা দেখেছি সেটা হল, বাউন্সের সংখ্যা নির্ভর করে
বাউন্সের ট্রি টি  কত লম্বা সেটার উপরে।
আমরা এটাকে এভাবে সাধারণীকরণ করতে পারি
বাউন্সের সংখ্যা সমান
লগারিদমের ভিত্তি দুই এবং
ঐ লেভেল থেকে বের হওয়া আউটকাম বা ফলের সংখ্যার উপরে।
একটি লেভেল বা স্তরের আউটকাম বা ফলাফল ও
সম্ভাবনার উপরে নির্ভর করে,
যেখানে একটি লেভেলের ফলাফলের সংখ্যা
সমান হল এক ভাগ আউটকাম বা ফলাফলের সম্ভাবনার সংখ্যা।
বাউন্সের সংখ্যা আসলে সমান হল
লগারিদমের ভিত্তি দুই
এক ভাগ ঐ চিহ্নটি আসার সম্ভাবনা,

Bulgarian: 
въз основа на несигурността на хвърляне на монета
и нарича това "бит",
което е еквивалентно на отскачане на монетата.
Можем да получим същия резултат,
като използваме нашата аналогия с отскачане.
Ентропията или Н е сумата за всеки символ,
или вероятността за този символ,
умножена по броя на отскачанията.
Разликата е в това как изразяваме
броя на отскачанията по по-общ начин?
Както видяхме, броят на отскачанията зависи
от това колко далеч сме в дървото.
Можем да опростим това като кажем,
че броят на отскачанията е равен
на логаритъм при основа две
от броя на изходите на това ниво.
Броят на изходите на едно ниво
се основава на вероятността,
където броят на изходите на едно ниво
е равен на едно, делено на вероятността за този изход.
Броят на отскачанията всъщност е равен
на логаритъм при основа две
от едно върху вероятността на този символ,

Korean: 
동전뒤집기의 불확실성에 근거하고 있습니다
이것을 비트 라고 부릅니다
그 비트는
공정한 바운스와 동등한 것입니다
우리의 바운스 유추를 이용하면
같은 결과에 도달하죠
엔트로피 H는 각 기호의 시그마
그 기호의 확률 곱하기
바운스의 수입니다
차이점은
어떻게 우리가 바운스의 숫자를
좀더 일반적인 방법으로
표현하는가입니다
봤듯이 바운스의 숫자는
얼마나 트리의
아래에 있는지에 달렸습니다
간단히 말하지면
바운스의 숫자가 한 레벨의 출력물의
로그와 같다고
말할 수 있습니다
한 레벨에서 나오는 출력물의 숫자는
또한 한 레벨에서 산출되는 숫자가
그 출력물의 확률로
나눠진 것과 같다는
확률에 근거하고 있죠
바운스의 숫자는 사실
그 기호의 확률 분의 일의
로그와 같습니다

Georgian: 
დაფუძნებულია მონეტის აგდებასთან
დაკავშირებულ განუზაღვრელობასთან.
და ის მას "ბიტს" უწოდებს,
რაც ექვივალენტურია ნახტომების ოდენობის.
ჩვენ შეგვიძლია მივიდეთ
იგივე შედეგამდე
ნახტომების ანალოგიით.
ენთროპია ან H არის ჯამი თითოეული
სიმბოლოსთვის
მისი ალბათობის ნამრავლისა
ნახტომების რიცხვზე.
განსხვავება ის არის, როგორ შეგვიძლია
გამოვთქვათ ეს უფრო ზოგადი გზით?
როგორც ვნახეთ, ნახტომების რაოდენობა
დამოკიდებულია იმაზე, თუ სად ვიმყოფებით
ხეზე,
ჩვენ შეგვიძლია გავამარტივოთ ეს
და ვთქვათ
ნახტომების რიცხვი ტოლია
იმ დონეზე შედეგებიდან
ლოგარითმისა ორის ფუძით.
შედეგების რიცხვის განსაზღვრა კი
დამოკიდებულია ალბათობაზე,
სადაც შედეგების რაოდენობა თითოეულ დონეზე
უდრის 1 გავყოთ იმ შედეგის ალბათობაზე.
ნახტომების რიცხვი ტოლია
ლოგარითმისა ორის ფუძით,
ერთი გაყოფილი სიმბოლოს ალბათობასთან.

Portuguese: 
é baseada na incerteza de
uma virada de moeda justa,
e ele chama isso de "o pedaço",
o qual é equivalente a um salto justo.
Podemos chegar ao mesmo resultado
usando a analogia do nosso salto.
Entropia ou H é a soma
para cada símbolo,
da probabilidade daquele símbolo
vezes o número de saltos.
A diferença é, como expressamos
o número de saltos de uma maneira
mais geral?
Como temos visto, o número de saltos
depende
em quão baixo na árvore estamos.
Podemos simplificar dizendo que
o número de saltos é igual
a um logaritmo de base dois
do número de saída daquele nível.
o número de saída daquele nível,
também é baseado na probabilidade,
onde o número de saídas daquele nível
é igual a um dividido pela
probabilidade daquela saída.
O número de saltos na verdade é igual
ao logaritmo de base dois
de um sobre a probabilidade
daquele símbolo,

Ukrainian: 
базуючись на похибці
чесного випадання монети,
і називає її "біт",
що еквівалентно одному відскоку.
Ми прийдемо до такого ж результату,
використовуючи нашу
аналогію з відскоком.
Ентропія або Н є
сумуванням до кожного символу
ймовірності того символу
кількості відскоків.
Різниця в тому як ми виражаємо
число відскоків в більш
загальному значенні?
І, як ми бачили, число
відскоків залежить від того,
наскільки далеко внизу
дерева ми знаходимось.
Ми можемо спростити це
говорячи ,що
число відскоків дорівнює
логарифму з основою два
від числа результатів того рівня.
Число результатів рівня
також базується на ймовірності,
де число результатів рівня
дорівнює одиниці поділеній на 
ймовірність того результату.
Кількість відскоків дійсно
дорівнює
логарифму з основою два
від одиниці поділеної на 
ймовірність того символу,

Vietnamese: 
lấy cơ sở trên tính bất định của việc tung đồng xu đồng nhất,
và ông gọi đây là "the bit"
nó tương đương với việc cho nãy cái đĩa đồng nhất
Ta có thể tìm được kết quả giống nhau
bằng cách dùng cách nãy tương tự.
En-Trô-py hoặc H là tổng mà mỗi kí tự
lấy xác xuất của kí tự đó
nhân với số lần nãy
Sự khác biệt là, làm sao ta biểu diễn
số lần nãy một cách khái quát ?
Như đã thấy, số lần nãy phụ thuộc vào
cây nhị phân cao bao nhiêu.
Ta có thể đơn giản hóa bằng việc nói rằng
số lần nãy bằng
lô-ga-rit bật 2
của số trường hợp ở tầng đó
Số trường hợp mỗi tầng
còn phụ thuộc vào xác xuất
mà số trường hợp mỗi tằng
bằng với 1 chia bởi xác xuất của trường hợp đó
Số lần nãy thực sự bằng
lô-ga-rit bậc 2
của 1 phần xác xuất của trường hợp đó,

Spanish: 
se basa en la incertidumbre de un volado con una moneda equitativa,
y a esto lo llama "el bit",
que es equivalente a un rebote equitativo o equiprobable.
Y podemos llegar al mismo resultado
al usar nuestra analogía de los rebotes.
La entropía, o H, es la suma, para cada símbolo,
de la probabilidad de ese símbolo
por el número de rebotes.
Ahora, la diferencia es, ¿cómo expresamos
el número de rebotes de una forma más general?
Como hemos visto, el número de rebotes depende
qué tan abajo del árbol estemos.
Podemos simplificar esto al decir que
el número de rebotes es igual
al logaritmo base dos
del número de salidas en ese nivel.
El número de salidas en un nivel
también está basado en la probabilidad,
donde el número de salidas en un nivel
es igual a uno dividido entre la probabilidad de esa salida.
El número de rebotes en realidad es igual
al logaritmo base dos
de uno entre la probabilidad de ese símbolo,

Italian: 
Per l'unità che misura l'entropia, Shannon scelse l'incertezza associata al lancio d'una moneta
e la chiamò 'bit'
che è equivalente ad un rimbalzo equiprobabile. Arriviamo al
medesimo risultato con la nostra analogia dei rimbalzi
L'Entropia H è data dalla somma delle probabilità di ciascun simbolo
moltiplicata per il numero di rimbalzi necessari per ottenere quel simbolo
Come esprimiamo il numero di rimbalzi?
Dipende da dove siamo nel nostro albero delle possibilità
Possiamo semplificare questo dicendo che il numero dei rimbalzi è dato
dal logaritmo in base 2 del numero dei risultati possibili a quel livello
E il numero dei risultati possibili a quel livello dipende dalla probabilità
dove il numero di risultati a quel livello è dato da
1 diviso per la probabilità del risultato in questione
Il numero di rimbalzi è uguale al logaritmo in base 2
die 1 diviso per la probabilità di quel simbolo.

Polish: 
A stąd równanie:
entropia, czyli H, to suma,
po wszystkich symbolach,
z prawdopodobieństwa wypadnięcia
symbolu razy logarytm o podstawie 2
z 1 przez prawdopodobieństwo
wypadnięcia symbolu.
Shannon zapisał to trochę inaczej,
odwracając wyrażenie pod logarytmem.
Konieczny będzie minus.
Oba wzory dają ten sam wynik.
Podsumujmy.
Entropia jest maksymalna,
gdy wszystkie wyniki
są równie prawdopodobne.
A gdy prawdopodobieństwa
przestają być równe,
gdy pojawia się przewidywalność,
entropia musi zmaleć.
Podstawowa idea jest taka:
jeśli entropia źródła informacji spada,
to znaczy, że możemy zadać
mniej pytań, by zgadnąć wynik.
Dzięki Shannonowi bit,
jednostka entropii,
został przyjęty
jako ilościowa miara informacji,

Korean: 
최종 등식을 봅시다
엔트로피 H 는 시그마
그 기호의 확률 곱하기
기호의 확률 분의 일의 로그 입니다
섀넌은 이것을 
살짝 다르게 씁니다
로그 안의 표현을 뒤집으므로써
음수를 더하게 됩니다
두 공식은 똑같은 결과를 낳습니다
요점정리를 해봅시다
엔트로피는
모든 결과물이 동등하게 나오는
최대치입니다
등확률 결과로부터 멀어지거나
예측가능성을 만들어낼 때
엔트로피는 떨어져야 합니다
근본적인 아이디어는 이겁니다
만일 정보의 엔트로피가 떨어진다면
그것은 결과물을 
추측하기 위한 질문을
적게 해도 된다는 것을 뜻합니다
섀넌 덕분에
엔트로피의 단위인 비트는
정보의 정량적 측정
혹은 예상치못한 경우의

Ukrainian: 
що дає нам наше
завершальне рівняння.
Ентропія або Н є
суммою для кожного символу
ймовірності того символу
разів логарифм за основою два
від одиниці поділеної
на ймовірність того символу.
Шеннон записав це трошки по-іншому,
просто обернувши 
вираз всередині логарифму,
що спричинило додавання
негативного значення,
хоча обидві формули дають
одинаковий результат.
Давайте підсумуємо.
Ентропія є максимальною,
коли всі результати є вірогідно рівними.
Як тільки ви тікаєте від
вірогідно рівних результатів, чи
демонструєте передбачуваність,
ентропія має йти на спад.
Фундаментальною ідеєю є те що,
якщо ентропія інформаційного
джерела падає,
це означає, що ми можемо задати
декілька питань, щоб вгадати результат.
Завдячуючи Шеннону, біт,
що є одиницею ентропії,
вважається як наше
кількісне мірило інформації,

Italian: 
Otteniamo così la nostra equazione
L'entropia H è la somma per ciascun simbolo
della probabilità del simbolo moltiplicata per il logaritmo in base 2 di 1 diviso per la probabilità di quel simbolo
Shannon la scrive in modo leggermente differente, invertendo l'argomento del logaritmo
che ci porta ad addizionare termini negativi
Le due scritture sono equivalenti
Riassumiamo
L'entropia è massima quando tutti i risultati sono equiprobabili
Allontanandosi dall'equiprobabilità dei risultati introduce prevedibilità
e fa diminuire l'entropia
L'idea fondamentale
è che se l'entropia di una sorgente d'informazione diminuisce
significa che è sufficiente porre meno domande per indovinare il risultato
grazie a Shannon, il BIT, l'unità dell'entropia
è stato adottato come misura dell'informazione

Spanish: 
lo cual nos da nuestra ecuación final.
La entropía, o H, es la suma, para cada símbolo,
de la probabilidad de ese símbolo
por el logaritmo base dos
de uno entre la probabilidad de ese símbolo.
Shannon escribe esto un poco diferente,
que solo invierte la expresión dentro del logaritmo,
lo que provoca que agreguemos un signo negativo,
aunque las dos fórmulas dan el mismo resultado.
Vamos a resumir.
La entropía es máxima
cuando todas las salidas son igualmente probables.
Cada vez que te alejes de
salidas igualmente probables, o introduzcas predictabilidad
la entropía debe disminuir.
La idea fundamental es que
si la entropía de una fuente de información disminuye,
eso significa que podemos hacer
menos preguntas para adivinar el resultado,
Gracias a Shannon, el bit,
que es la unidad de la entropía,
es adoptada como nuestra medida cuantitativa de la información,

Bengali: 
যেটা আমাদেরকে চূড়ান্ত সমীকরণটি দিবে।
এনট্রপি বা H, হল প্রতিটি চিহ্নের
সম্ভাবনার সমষ্টি
গুন লগারিদমের ভিত্তি দুই
এক ভাগ ঐ চিহ্নটির সম্ভাবনা।
শ্যানন এই সমীকরণটি একটু ভিন্নভাবে লিখেছেন,
যেখানে তিনি এই সমীকরণটি লগারিদমের ভিতরে উল্টে লিখেছেন
যেটার কারনে আমাদের একটি ঋণাত্মক প্রতীক এখানে ব্যবহার করতে হবে,
যদিও উভই সুত্রই আমাদের একই ফলাফল দিবে।
সংক্ষেপে এখানে বলা যাক।
এনট্রপি সর্বোচ্চ হবে
যখন সকল আউটকাম বা ফলগুলো সমান হবে।
যখন তুমি সমান অবস্থা থেকে
দূরে সরে যাবে অথবা অনুমানের উপরে ভিত্তি করে কাজ করা চলে আসবে,
তখন এনট্রপি নিচের দিকে নেমে যাবে।
মৌলিক ধারনা হল,
যদি একটি তথ্য সুত্রের এনট্রপি নিচে নেমে যাই,
তার মানে হল আমরা
অল্প সংখ্যক প্রশ্ন জিজ্ঞেস করতে পারি আউটকাম বা ফলাফল পাবার জন্য।
শ্যাননকে ধন্যবাদ, দ্যা বিটের জন্য
যেটা হল এনট্রপির একক,
যেটাকে আমরা তথ্যের পরিমাণগত ভিত্তি পরিমাপের জন্য আমরা ব্যবহার করে থাকি,

Bulgarian: 
което ни дава нашето финално уравнение.
Ентропията или Н е сумата за всеки символ
на вероятността за този символ,
умножена по логаритъм при основа две
от едно върху вероятността за този символ.
Шанън изписва това малко по-различно
като обръща израза в логаритъма,
което води до събиране на отрицателни числа,
но и двете формули дават един и същи резултат.
Да обобщим.
Ентропията е максимална,
когато всички изходи са еднакво вероятни.
Когато нямаш еднакво вероятни изходи,
или внесеш предвидимост, 
ентропията намалява.
Фундаменталната идея е, че
ако ентропията на един източник на информация намалява,
това означава, че можем да задаваме
по-малко въпроси, за да предскажем изхода.
Благодарение на Шанън, битът,
който е единица на ентропията,
се използва като мерна единица за информация

Georgian: 
რაც გვაძლევს საბოლოო განტოლებას.
ენთროპია ან H, არის ჯამი
თითოეული სიმბოლოს ალბათობის 
ნამრავლისა
ორ ფუძიან ლოგარითმთან რიცხვისა, რომელიც
მიიღება 1-ის გაყოფით სიმბოლოს ალბათობაზე.
შენონმა ეს ოდნავ განსხვავებულად დაწერა,
მან შეცვალა გასალოგარითმებელი რიცხვი
და ამან წინ მინუსის დაწერა გამოიწვია.
თუმცა,ორივე ფორმულა ერთი და იგივე შედეგს
გვაძლევს.
მოდი შევაჯამოთ,
ენთროპია არის მაქსიმალური,
როცა ყველა შედეგი ერთნაირად მოსალოდნელია.
ყოველთვის, როცა გადადიხართ
ერთნაირად მოსალოდნელი შედეგებიდან, 
ან ჩნდება განსაზღვის შესაძლებლობა,
ენთროპია მცირდება.
მთავარი იდეა არის ის, რომ
ინფორმაციის წყაროს ენთროპია ეცემა,
ეს ნიშნავს, რომ ჩვენ შეგვიძლია
ნაკლები კითხვის დასმა შედეგის 
გამოსაცნობად.
შენონის წყალობით, ბიტი,
ენთროპიის ერთეული,
მიღებულია, როგორც ინფორმაციის
რაოდენობრივი გამზომი,

Vietnamese: 
vì thế nó cho ta phương trình cuối cùng
en-tro-py hoặc H là tổng của mỗi kí tự,
xác xuất của kí tự đó
nhân với lô-ga-rit bậc 2
của 1 phần xác xuất của kí tự đó
Shannon viết phương trình này khác một chút,
bằng cách nghịch đảo phần trong lô-ga-rit
bằng cách thêm dấu trừ phía bên trái
mặc dù cả 2 công thức đều cho cùng đáp án
Tóm tắt lại.
En-Trô-py cực đại
khi tất cả các trường hợp có xác xuất như nhau
Bất kể lúc nào, khi ta thay đổi xác xuất
cho nó không bằng nhau nữa
en-tro-py sẽ giảm
ý tưởng cơ bản là
nếu en-tro-py của nguồn thông tin giảm
có nghĩa là ta có thể hỏi
ít câu hỏi hơn để đoán kết quả
Nhờ vào Shannon, và bit,
là đơn vị của en-tro-py
được ta dùng như thước đo định lượng của thông tin

English: 
which gives us our final equation.
Entropy or H, is the
summation for each symbol
of the probability of that symbol
times the logarithm base two
of one over the
probability of that symbol.
Shannon writes this slightly different,
which just inverts the
expression inside the logarithm
which causes us to add a negative,
though both formulas give the same result.
Let's summarize.
Entropy is maximum
when all outcomes are equally likely.
Any time you move away from
equally likely outcomes, or
introduce predictability,
the entropy must go down.
The fundamental idea is that,
if the entropy of an
information source drops,
that means we can ask
fewer questions to guess the outcome.
Thanks to Shannon, the bit,
which is the unit of entropy,
is adopted as our quantitative
measure of information,

Czech: 
Tím dostaneme konečnou rovnici.
Entropie nebo-li H, je součet
pravděpodobnosti každého znaku
krát dvojkový logaritmus z jedna lomeno
pravděpodobnost tohoto znaku.
Shannon to zapisuje lehce odlišně,
převrátí zlomek v logaritmu,
čímž dostaneme před sumou mínus.
Nicméně oba vztahy produkují stejný výsledek.
Shrňme to.
Entropie je maximální, když všechny
výsledky jsou stejně pravděpodobné.
Kdykoli se odchýlíme od stejně
pravděpodobných výsledků, nebo vznikne předvídatelnost,
entropie jde dolů.
Základní myšlenkou je,
že jestliže entropie informačního zdroje klesá,
pak to znamená, že se můžeme zeptat
na méně otázek k uhodnutí výsledku.
Díky Shannonovi byl bit,
což je jednotka entropie,
přijat jako kvantitativní míra informace

Portuguese: 
que nos dá nossa última equação.
entropia ou H, é a soma
de cada símbolo
da probabilidade daquele símbolo
vezes o logaritmo de base dois
de um sobre a probabilidade
daquele símbolo.
Shannon escreve isto um pouco diferente,
o que nos dá a expressão invertida
dentro do logaritmo
o que nos leva a adicionar um negativo,
apesar de que ambas as fórmulas
levam ao mesmo resultado.
Vamos resumir.
entropia é o máximo
quando todas as saídas são
igualmente prováveis.
Qualquer hora que você se afasta de
saídas igualmente prováveis, ou
introduz a previsibilidade,
a entropia precisa diminuir.
a ideia fundamental é que,
se a entropia de uma fonte
de informação diminui,
isso significa que podemos fazer
menos perguntar para adivinhar a saída.
Graças a Shannon, o pedaço,
que é a unidade de entropia,
é adotado como nossa medida
de informação quantitativa,

Portuguese: 
ou medida de surpresa.
[Traduzido por Alef Almeida] Revisado por [Valter Bigeli]

Vietnamese: 
hoặc đo độ bất ngờ.

Ukrainian: 
або мірило здивування.
Переклад на українську: Оксана Кузьменко, рев’ювер Юлія Гулакова, благодійний фонд “Magneticone.org”

Bulgarian: 
или мерна единица за изненада.

Polish: 
inaczej – miara niepewności.

Georgian: 
ან მოულოდნელობის საზომი.

English: 
or measure of surprise.

Italian: 
ovvero quale misura della sorpresa.

Bengali: 
অথবা বলা যাই চমক পরিমাপের মাপকাঠি হিসেবে।
##  আগামী ও গ্রামীণফোন এর সহযোগিতায় অনূদিত ##

Spanish: 
o medida de sorpresa.

Czech: 
nebo jako míra překvapení.

Korean: 
정량적 측정으로 채택되었습니다
