
Portuguese: 
Quando representamos uma informação,
tal como uma imagem, digitalmente,
significa que devemos cortá-la
em pequenos pedaços.
Isso nos permite enviar a imagem
como uma sequência de símbolos coloridos,
e essas cores podem ser representadas
como números únicos, usando alguns códigos.
Considere o desafio a seguir.
Alice e Bob podem transmitir
e receber mensagens em binário.
(código Morse)
Eles cobram de seus clientes
1 centavo por bit
para usar seu sistema.
E o cliente que chega e
quer mandar uma mensagem,
e sua imagem tem um tamanho
de 1.000 símbolos.
O significado das mensagens
é completamente desconhecido.
Normalmente, isto é enviado
por um código padrão de 2 bits,

Czech: 
Když reprezentujeme informace,
třeba obrázek, digitálně,
musíme ji rozdělit do malých kousků.
To nám umožní poslat obrázek jako
posloupnost symbolů barev.
A tyto barvy můžeme reprezentovat pomocí
čísel, použitím nějakého kódu.
Podívejme se na následující problém: Alice a Bob umí vysílat a přijímat zprávy v dvojkové soustavě.
[pípání Morseovky]
Účtují svým zákazníkům 1 penci za každý bit,
pokud chtějí používat jejich systém.
Přijde pravidelný zákazník a chce poslat zprávu.
A jeho zpráva má 1000 symbolů.
Význam té zprávy je zcela neznámý.
Normálně bychom tuto zprávu poslali standardním dvoubitovým kódováním.

Ukrainian: 
Коли ми представляємо інформацію
таку як зображення,
таку як зображення в
цифровому вигляді,
це означає, що ми маємо
поділити його на крихітні шматочки.
Це дозволяє нам надсилати зображення
у вигляді послідовності 
символів кольору,
і ці кольори можуть бути
представлені
як унікальні числа,
використовуючи деякий код.
Давайте розглянемо наступну задачу.
Аліса і Боб можуть передавати і отримувати
повідомлення у двійковий системі.
(код Морзе)
Їхні клієнти платять
1 пенні за біт,
щоб використати їхню систему
і постійні покупці прибувають,
ті хто хочуть надіслати повідомлення,
і їх повідомлення мають довжину
1000 символів.
Значення повідомлень
абсолютно невідомі.
Зазвичай, це надсилається
за допомогою стандартного 2-бітного коду,

Bengali: 
যখন আমরা কোন তথ্যকে প্রকাশ করি, যেমন
কোন একটা চিত্রের মাধ্যমে, ডিজিটালরূপে,
তার মানে আমরা সেই তথ্যকে নিশ্চয়ই
কয়েকভাবে ভাগ করে নিয়েছি।
এর ফলে আমরা একটা চিত্রকে
অনেকগুলো রঙের সংকেতের ক্রম
হিসেবে পাঠাতে পারি আর এই
প্রত্যেকটি রং, কিছু কোড ব্যবহারের
মাধ্যমে প্রত্যেক সংখ্যাকে প্রকাশ করে থাকে
নিচের ব্যাপারটা মন দিয়ে খেয়াল করি।
এলিস আর বব বাইনারি তথ্য
আদান-প্রদান করতে পারে।
(মোর্স কোড)
এপদ্ধতি ব্যবহার করতে তারা গ্রাহকদের কাছ থেকে
১ পেনি করে মূল্য গ্রহণ করে।
একজন গ্রাহক আসেন
যিনি একটা বার্তা পাঠাতে চান,
এবং তার বার্তাটিতে ১০০০টা প্রতীক আছে।
এই বার্তার কী অর্থ দাঁড়ায়
সেটা আমরা এখনো জানি না।
সাধারণত, এই ধরনের বার্তা আদর্শ ২-বিট
কোডের মাধ্যমে পাঠিয়ে থাকি,

English: 
Voiceover: When we represent
information, such as an image,
such as an image, digitally,
it means we must slice
it up into tiny chunks.
This allows us to send an image
as a sequence of color symbols,
and these colors can be represented
as unique numbers, using some code.
Consider the following challenge.
Alice and Bob can transmit
and receive messages binary.
(Morse code)
They charge their
customers 1 penny per bit
to use their system, and
a regular customer arrives
who wants to send a message,
and their messages are 1,000 symbols long.
The meaning of the messages
is completely unknown.
Normally, this is sent
with a standard 2-bit code,

Georgian: 
როცა წარმოვადგენთ ინფორმაციას,
მაგალითად, გამოსახულებას,
ფიცრულად,
ეს ნიშნავს, რომ უნდა
დავჭრათ ის უამრავ მცირე ნაწილად.
ეს საშუალებას გვაძლევს,
გავაგზავნოთ გამოსახულება
როგორც ფერის სიმბოლოების თანმიმდევრობა,
და ეს ფერები შეიძლება წარმოვადგინოთ,
როგორც უნიკალური რიცხვები,
რაიმე კოდის გამოყენებით.
წარმოიდგინეთ შემდეგი:
ელისსა და ბობს შეუძლიათ შეტყობინებების
ბინარულად მიღება და გაგზავნა.
ისინი მომხმარებლებს
ახდევინებენ ერთ პენის ბიტში
თავიანთ მომსახურებაში.
მოდის რეგულარული მომხმარებელი,
და მას სურს, გააგზავნოს შეტრობინება,
შეტყობინებების სიგრძეა 1000 სიმბოლო.
შეტყობინებების მნიშვნელობა
სრულიად უცნობია.
ჩვულებრივ, ის იგზავნება
სტანდარტული ორბიტიანი კოდით,

Polish: 
﻿Przedstawiając informację,
np. obraz, cyfrowo,
musimy ją podzielić
na maleńkie fragmenty.
To pozwala nam przesłać obraz
jako ciąg barwnych symboli.
A te kolory
mogą być przedstawiane
pod postacią liczb z jakiegoś kodu.
Zastanówcie się nad zadaniem:
Alicja i Bob binarnie przesyłają
i odbierają wiadomości.
Pobierają centa za bit od klientów
- za korzystanie z systemu.
Przychodzi klientka,
która chce wysłać wiadomość.
Ta wiadomość składa się
z tysiąca symboli.
A jej znaczenie jest nieznane.
Wiadomości są zwykle wysyłane
standardowym, dwubitowym kodem,

Korean: 
우리가 이미지와 같은 정보를
디지털로 표현한다는 것은
작은 조각들로 나누는 것과 같습니다
그렇게 해서 그 이미지를
일련의 컬러 기호들로
나타내어 보낼 수 있게 하는데
각 색깔은 어떠한 코드를 사용하여
고유한 숫자로
표현될 수 있습니다
다음 상황을 생각해 봅시다
Alice와 Bob은 메시지를
이진기호로 주고 받을 수 있습니다
(모스 부호)
그들은 고객들에게
1비트당 1원씩 받고
그들의 시스템을 이용하게 합니다
그리고 어떤 단골 손님은
1,000개 기호 길이의 메시지를
보내고 싶어한다고 합시다
그 메시지의 뜻은
아무도 모릅니다
보통 이 메시지가 표준
2비트 코드로 보내진다면

Italian: 
Quando rappresentiamo dell'informazione digitalmente, per esempio un'immagine,
dobbiamo affettarla in sfoglie sottili
In questo modo possiamo trasmettere un'immagine come una sequenza di simboli che rappresentano colori
E i colori possono essere rappresentati da numeri unici, in accordo con una qualche codifica
Considerate questo esempio: Alice e Bob possono trasmettere e ricevere messaggi in codice binario
[suono del Codice Morse]
Fanno pagare 1 penny per bit ai loro clienti
Arriva un cliente che vuole spedire un messaggio
lungo 1000 simboli
Il significato del messaggio è totalmente sconosciuto
Di solito i messaggi sono trasmessi utilizzando un codice a 2 bit

Bulgarian: 
Когато представяме информация,
например изображение, по дигитален начин,
това означава, че трябва да го нарежем на малки парчета.
Това ни позволява да изпратим изображение
като поредица от цветни символи,
а тези цветове са представени
като уникални числа с помощта на някакъв код.
Представи си следното предизвикателство.
Алис и Боб могат да предават и да получават двоични съобщения.
(Морзов код)
Техните клиенти плащат по 1 пени на бит,
за да използват тяхната система.
Пристига един обикновен клиент,
който иска да изпрати съобщение,
а съобщенията му са дълги по 1000 символа.
Значението на съобщенията 
е напълно неизвестно.
Нормално това би било изпратено 
със стандартен 32-битов код,

Bengali: 
অর্থাৎ গ্রাহককে ২০০০ বিটের মূল্য দিতে হবে।
এলিস আর বব তাদের এই গ্রাহকের বিষয়ে আগেই
আলোচনা করেছে এবং তারা একটা জিনিস
বুঝতে পেরেছে যে
এই বার্তায় প্রত্যেক প্রতীকের ব্যবহারের
সম্ভাব্যতা ভিন্ন। তাহলে তারা কী
এই জানা সম্ভাব্যতা ব্যবহার করে
প্রেরণকে কি সংকোচন করা যাবে কিংবা
এতে তাদের কোন লাভ হবে?
তাহলে অপটিমাল কোডের কৌশল কী হবে?
এই অপটিমাল কোডের কৌশল সমাধান করেছেন
ডেভিড হফম্যান, যেটি প্রকাশিত হয় ১৯৫২ সালে।
এবং একটা বাইনারি ট্রি গড়ার ভিত্তিতে এই
অপটিমাল কোডের কৌশল তৈরি হয়েছিল।
শুরু করার জন্য, আমরা সবগুলো প্রতীকের
একটা তালিকা করব
যেগুলোর নাম হল নোডস।
এরপর, আমাদের দুটো লঘিষ্ঠ সম্ভাব্য নোডস
নির্ণয় বের করতে হবে।
ধরে নেই, এই ক্ষেত্রে সেটা হল বি এবং সি,
এবং তারপর এদুটো নোডকে একত্রে যুক্ত করে,
সেই সাথে এদের সম্ভাব্যতাকে যোগ করতে হবে।
এরপর আবার পরের দুইটি লঘিষ্ট নোডের
ক্ষেত্রেও একই কাজ করতে হবে,
এবং ততক্ষণ পর্যন্ত যুক্ত করতে হবে
যতক্ষণ পর্যন্ত না

Georgian: 
და გადასახდელია 2000 ბიტის საფასური.
თუმცა, ელისმა და ბობმა
ამ მომხმარებლის ანალიზი გააკეთეს
და დაადგინეს, რომ
შეტყოინებაში თითო
სიმბოლოს ალბათობა სხვადასხვაა.
შეუძლიათ თუ არა მათ
გამოიყენონ ეს ალბათობები,
რათა შეამცირონ გადამცემი
და გაზარდონ მოგება?
რა არის ოპტიმალური კოდირების სტრატეგია?
დევიდ ჰაფმანმა მოგვცა ოპტიმალური სტრატეგია,
რომელიც გამოაქვეყნა 1952 წელს.
და დააფუძნა ბინარული
ხის აგებას ქვემოდან ზემოთ.
დასაწყისისთვის, ჩამოვწეროთ
ყველა სიმბოლო ქვემოთ,
და ვუწოდოთ მათ კვანძები.
შემდეგ ვიპოვოთ ორი
ყველაზე ნაკლები ალათობის კვანძი,
ამ შემტხვევაში B და C,
და გავაერთიანოთ ისინი.
შევკრიბოთ მათი ალბათობებიც.
შემდეგ გავიმეოროთ იგივე მომდევნო ორ
ყველაზე ნაკლებად მოსალოდნელ კვანძზე
და გავაგრძელოთ შერწყმა,

Bulgarian: 
което значи, че ще се таксува като 2000 бита.
Алис и Боб обаче са направили някои анализи
за този клиент от преди 
и са определелили, че
вероятността за всеки символ в съобщението е различна.
Могат ли да използват известните вероятности,
за да намалят предаването и да увеличат своята печалба?
Каква е оптималната стратегия за кодиране?
Дейвид Хъфман е известен със своята
оптимална стратегия, която публикува през 1952 г.,
която е базирана на построяване на двоично дърво от долу нагоре.
За да започнем, можем да подредим всички символи
в долната част;
наричаме ги възли.
След това намираме двата най-малко вероятни възела,
в този случай В и С,
и ги свързваме в един,
и събираме техните вероятности.
Повтаряме за следващите най-малко вероятни възела
и продължаваме да свързваме, докато получим

Portuguese: 
o que resulta em cobrar por 2.000 bits.
No entanto, Alice e Bob
já fizeram algumas análises
nesse cliente anteriormente,
e determinaram que
a probabilidade de cada símbolo
na mensagem é diferente.
Será que podem usar essas
probabilidades conhecidas
para comprimir a transmissão
e aumentar seu lucro?
Qual a estratégia de codificação ideal?
David Huffman forneceu
a estratégia ideal, a qual 
ele publicou em 1952,
e baseada em construir uma
árvore binária da base ao topo.
Para começar, podemos listar
todos os símbolos na base
o qual chamamos de nós.
Então achamos os dois nós menos prováveis,
neste caso B e C,
e os fundimos em um só.
e adicionamos as probabilidades juntas.
Depois repetimos isso com os próximos
dois nós menos prováveis,
e continuamos fundindo até termos

Polish: 
trzeba by więc naliczyć opłatę
za 2000 bitów.
Jednak Alicja i Bob analizowali już
wiadomości tej klientki.
Obliczyli różne prawdopodobieństwa
pojawiania się symboli.
Czy, znając te wartości,
mogą skompresować transmisję
i zarobić więcej?
Jaka jest optymalna
strategia kodowania?
David Huffman sformułował
słynną strategię optymalną;
opublikował ją w 1952 r.
Podstawą było tworzenie
drzewa binarnego od dołu.
Wypiszmy więc wszystkie symbole.
Nazwiemy je węzłami.
Wyszukujemy dwa
najmniej prawdopodobne węzły,
w tym przypadku B i C,
i łączymy je,
dodając prawdopodobieństwo.
Powtarzamy to z dwoma następnymi
najmniej prawdopodobnymi węzłami.

Czech: 
Což vede k účtování za 2000 bitů.
Alice a Bob ale předtím zanalyzovali
tohoto zákazníka.
A zjistili, že pravděpodobnost použití
jednotlivých symbolů je různá.
Můžou využít znalost těchto pravděpodobností ke zmenšení objemu přenosu a zvýšení jejich zisku?
Jaká je optimální strategie kódování?
David Huffman vymyslel optimální strategii
a publikoval ji v roce 1952.
Je založená na budování
binárního stromu zespoda nahoru.
Začneme tak, že si vypíšeme všechny symboly
dolů a budeme jim říkat uzly.
A pak najdeme 2 uzly s nejmenšími pravděpodobnostmi, v našem případě B a C.
A spojíme je do jednoho.
A sečteme jejich pravděpodobnosti.
A tohle opakujeme s dalšími 2 nejméně pravděpodobnými uzly.

English: 
which results in charging for 2,000 bits.
However, Alice and Bob
already did some analysis
on this customer before,
and determined that
the probability of each symbol
in the message is different.
Can they use these known probabilities
to compress the transmission
and increase their profits?
What's the optimal coding strategy?
David Huffman famously provided
the optimal strategy,
which he published in 1952,
and based on building a binary
tree from the bottom up.
To begin, we can list
all symbols at the bottom
which we can call nodes.
Then we find the two least probable nodes,
in this case B and C,
and merge them into one,
and add the probabilities together.
Then we repeat with the
next two least likely nodes,
and continue merging until you have

Korean: 
2000비트에 대하여
가격이 정해집니다
하지만, Alice와 Bob는 이미
이 손님에 대해서 분석을 했고
각각의 기호가 나올 확률이
다 다르다고 판단했습니다
그들은 이 확률을 이용하여
전달하는 크기를 압축시켜서
이익을 얻을 수 있을까요?
최적의 코딩 전략은 무엇일까요?
데이비드 허프만은 1952년에
그러한 최적의 전략을 소개 했는데
그것은 상향식 이진트리를
만들어 사용하는 방법입니다
처음에, 트리의 바닥에
모든 기호들을 나열하는데
그것을 노드라고 부릅니다
그 다음에 가장 확률이
낮은 두개의 노드를 찾아서
이 경우에는 B와 C입니다
그들을 하나로 합칩니다
그리고 확률도 같이 더하여 합칩니다
그 후 다시 가장 확률이 낮은 
두 노드로 같은 과정을 반복합니다
그렇게 하여 트리의 가장 위에

Ukrainian: 
в результаті треба оплатити
2000 бітів.
Однак, Аліса та Боб 
вже зробили деякий аналіз
цього покупця раніше
і визначили ,що
ймовірність кожного символу
в повідомленні різна.
Чи можуть вони використати
ці відомі ймовірності,
щоб стиснути передачу
і збільшити свої доходи?
Яка стратегія кодування є
найоптимальнішою?
Девід Хаффман хвацько надав
оптимальну стратегію,
яку він опублікував у 1952 році,
що базувалася на побудові
бінарного дерева знизу вверх.
Для початку, ми можемо перечислити
всі символи внизу,
які ми можемо назвати вузлами.
Потім ми шукаємо 2
найменш вірогідні вузли,
в цьому випадку B і C,
і зливаємо їх докупи,
і додаємо ймовірності разом.
Потім ми повторюємо процедуру з
наступними 2 найменш вірогідними вузлами,
і продовжуємо їх об'єднувати
аж поки не отримаємо

Italian: 
e quindi spedirlo significa pagare per 2000 bit
Tuttavia Alice eBob hanno analizzato i messaggi di questo cliente in passato
e si sono accorti che la probabilità d'occorrenza dei vari simboli varia
Possono usare queste probabilità per comprimere in qualche modo il messaggio e aumentare il loro guadagno?
Qual'è la codifica ottimale?
La strategia ottima fu trovata da David Huffman, che la pubblicò nel 1952
È basata nel costruire l'albero binario dal basso verso l'alto
Cominciamo dal basso, con l'elenco di tutti i simboli, che chiamiamo NODI
cerchiamo i due nodi con la probabilità più bassa, nel nostro caso B e C
e uniamoli in uno stesso nodo
avente probabilità pari alla somma delle due probabilità
(Eliminiamo quei nodi) e ripetiamo la procedura con i due nodi meno probabili

Ukrainian: 
єдиний вузол вгорі.
В кінці кінців, ми позначаємо 
сторони в цьому дереві
нулями та одиницями
в будь-якому порядку.
Тепер код будь-якої
літери є просто шляхом
від верхівки дерева
до данної літери.
Отож, для А це лише одна сторона
або одиниця.
Тепер це відомо як 
кодування Хаффмана,
і для наступних типів
прикладів
ви не можете розбити його.
Продовжуй і спробуй.
Наприклад, якщо ви скоротите
код для D
просто до 0, тоді повідомлення
001 може скоріш за все означати
DAA або, мабуть, просто B.
Щоб працювати з цим,
вам треба представити
проміжки між літерами, які
скорочують будь-які накопичення
протягом передачі.
Тепер, наскільки сильно це
стисне повідомлення
в порівнянні з оригінальними
2000 бітами?
Що ж, нам тепер потрібно
розрахувати
середню кількість числа бітів на літеру.

Polish: 
I łączymy dalej, aż zostanie jeden,
na samej górze.
Wreszcie oznaczamy krawędzie
na tym drzewie
zerami i jedynkami, w jakimś porządku.
Kod każdej litery to ścieżka
od szczytu drzewa do niej.
Do A prowadzi tylko jedna
krawędź, czyli 1.
Metodę nazwano kodowaniem Huffmana.
Do przykładów tego typu
nie ma lepszej. Spróbujcie!
Np. jeśli skrócicie kod dla D
do samego zera,
to wiadomość „011”
może oznaczać DAA,
ale też samo B.
Trzeba by więc wprowadzić
odstępy między literami,
co niestety zniweluje wszelkie
oszczędności w transmisji.
Jak bardzo skompresowaliśmy
wiadomość od pierwszych 2000 bitów?
Musimy obliczyć przeciętną
liczbę bitów na literę.

Bengali: 
আমরা একটা মাত্র নোডে পৌঁছাবো।
অবশেষে, এর প্রান্তগুলোকে আমরা ০ বা ১
দ্বারা যেকোন ক্রমে চিহ্নিত করব।
তাহলে এখন যেকোন বর্ণের কোড হল
এর একদম শীর্ষ থেকে বর্ণের আগ পর্যন্ত।
তাহলে "এ"-এর জন্য, এখানে মাত্র একটি
প্রান্ত আছে, বা ১
এটাই হফম্যান কোডিং নামে সবার কাছে পরিচিত,
উল্লেখিত ধরণের উদাহরণগুলো
বেশ কঠিন।
শুর করা যাক!
ধরে নেই, ডি এর কোড ছোট করে 0
লিখা হয়েছে, তাহলে একটা মেসেজ ০১১
মানে হতে পারে ডিএএ, অথবা শুধু বি।
এ্রর জন্য বার্তার মধ্যকার বর্ণের
ব্যবধান নির্ণয় করতে হবে, কারণ তথ্য
প্রেরণের সময় আপনা-আপনি
এই ব্যবধানগুলো চলে যায়।
এখন মূল বার্তা ২০০০ বিটের তুলনায় এখানে
এই বার্তাটিকে কতটুকু সংকোচন করা হয়েছে?
তো, আমাদের শুধু নির্ণয় করতে
হবে যে প্রত্যেক বর্ণে গড়ে কয়টি করে বিট আছে।

Portuguese: 
apenas um único nó no topo.
Finalmente, nós etiquetamos as pontas
nesta árvore
com 0 ou 1 em qualquer ordem.
Agora o código para cada letra
é apenas o caminho
do topo da árvore
até a letra dada.
Então para A, é apenas uma ponta, ou 1.
Isto agora é conhecido como
codificação Huffman,
e para exemplos do seguinte tipo
você não pode vencê-lo.
Vá em frente e tente.
Por exemplo, se você diminuir
o código para D
para apenas 0, então a mensagem
011 poderá significar talvez
DAA, ou talvez apenas B.
Então para isso funcionar,
você precisa introduzir
espaços de letras, o qual
cancelarão qualquer economia
durante a transmissão.
Agora, até onde vai essa
compressão de mensagem
comparada ao original de 2.000 bits?
Precisamos calcular
o número de bits por letra em média.

Czech: 
A pokračujeme ve spojování, dokud nám
nezbude jediný uzel nahoře.
Nakonec označíme hrany v tomto stromě
0 a 1, v libovolném pořadí.
Kódem pro každé písmeno je prostě cesta z vršku stromu k danému písmenu.
Třeba pro A je to jediná hrana s 1.
Říká se tomu Huffmanovo kódování
a v takovýchto případech
ho nemůžete porazit.
Schválně to zkuste.
Například, když zkrátíte kód pro D na pouhou 0.
Pak zpráva 011 by mohla znamenat DAA
nebo možná taky jenom B.
Takže kdybyste chtěli, aby to fungovalo, museli byste zavést mezeru mezi znaky, a to by vyrušilo všechny úspory během přenosu.
Jak moc tohle zmenší zprávu, v porovnání
s původními 2000 bity?
Musíme prostě spočítat, kolik bitů připadne průměrně na jedno písmeno.

Italian: 
che continuiamo ad unire, finché non arriviamo ad un solo nodo, al vertice dell'albero
Ora etichettiamo i NODI terminali di questo albero con '0' e '1', in qualsiasi ordine
La codifica di ciascuna lettera è data dal cammino a partire dal vertice dell'albero
Per A è un solo bordo, è '1'
Questa è la codifica di Huffman
E la più efficiente, non si può fare meglio
Provateci
Ad esempio, se accorciaste la codifica di D ad appena '0'
Potrebbe significare DAA o magari solamente B
Perché la codifica sia unica siete costretti ad aggiungere spazi, e questi vanificano il guadagno ottenuto grazie alla compressione
Di quanto abbiamo compresso il messaggio rispetto ai 2000 bit?
Per rispondere dobbiamo calcolare il numero medio di bit per lettera

Georgian: 
ვიდრე არ გვექნება ერთი კვანძი მწვერვალზე.
ბოლოს, აღვნიშნავთ ხეზე შეერთებულ ხაზებს
0-ით ან 1-ით, ნებისმიერი თანმიმდევრობით.
ახლა, თითოეული ასოს კოდი არის უბრალოდ გზა
ზის კენწეროდან მოცემულ ასომდე.
A-სთვის მხოლოდ ერთი დაყოფაა,
ანუ მისი კოდია 1.
ეს ახლა ცნობილია, როგორც ჰაფმანის კოდირება.
და ამ ტიპის მაგალითებისთვის,
შეუძლებელია მისი გატეხვა.
თუ გნებავთ, სცადეთ.
მაგალითად, თუ შეამოკლებთ D-ს კოდს 0-მდე,
მაშინ შეტყობინება 011 შეიძლება ნიშნავდეს
DAA-ს ან უბრალოდ B-ს.
იმისთვის, რომ ამან
იმუშაოს, უნდა შემოივტანოთ
ასეობს შორის დაშორებები, რომლებიც
გამორცხავს ყველანაირ დაზოგვას
გადაცემის დროს.
ახლა კი, რამდენად ამცირებს ეს კოდს,
თავდაპირველ 2000-თან შედარებით?
უნდა გამოვთვალოთ
წერილში ბიტების რაოდენობა საშუალოდ.

English: 
a single node at the top.
Finally, we label the edges in this tree
with 0 or 1 in any order.
Now the code for each
letter is just the path
from the top of the tree
to the given letter.
So for A, it's just one edge, or 1.
This is now known as a Huffman coding,
and for examples of the following type
you cannot beat it.
Go ahead and try.
For example, if you shorten the code for D
to just 0, then a message
011 could perhaps mean
DAA, or maybe just B.
So for this to work, you
would need to introduce
letter spaces, which
cancel out any savings
during transmission.
Now, how far does this
compress the message
compared to the original 2,000 bits?
Well, we just need to calculate
the number of bits per letter on average.

Bulgarian: 
един възел на върха.
Накрая отбелязваме ръбовете на това дърво
с 0 или 1 в произволен ред.
Кодът за всяка буква е пътят
от горе надолу до дадената буква.
За А това е само един ръб – 1.
Това е известно като кодиране на Хъфман,
а за примери като тези,
не можеш да го подобриш.
Опитай.
Например, ако намалиш кода за D на 0,
тогава съобщението 011 може да означава например
DAA или само В.
За да работи това, трябва да внедриш
разстояния между на буквите,
които ще премахнат спестяването
на време при предаването.
Каква е разликата между компресираното съобщение
в сравнение с оригиналното съобщение от 2000 бита?
Трябва само да изчислим
средния брой битове за буква.

Korean: 
하나의 노드가 남을 때까지 계속 합니다
마지막으로, 이 트리의 노드들간의 각 연결선에
순서에 맞추어 0 또는 1로 적습니다
이제 각 기호에 대한 코드는
트리의 가장 위에서 그 기호로
내려가는 경로입니다
기호 A의 경우에는 연결선이
하나인데 코드는 1입니다
이것이 허프만 코딩이라고
알려진 것입니다
그리고 다음과 같은
형태의 예에서는
허프만 코딩보다 더
압축시킬 수는 없습니다
한번 해볼까요?
예를 들어, 기호 D에 대한 코드를 줄여서
0으로 하기로 한다면
메시지 011은 아마도
DAA가 되거나 혹
B가 될 수도 있습니다
이것을 사용하려면
빈칸 기호가 필요하고
그것 때문에 전송 크기가
다시 커지게 되어
압축 효율이 줄어들게 됩니다
이 방법이 메시지를
얼마나 압축하는지
아까 그 2000비트를 
가지고 비교해봅시다
한 문자당 평균 
몇개의 비트가 있는지
계산하면 됩니다

Bulgarian: 
Затова умножаваме дължината на всеки код
по вероятността за поява 
и ги събираме,
което ни дава средна дължина 
от 1,75 бита за символ.
Това означава, че с кодирането на Хъфман
можем да очакваме съобщението да се компресира
от 2000 на 1750 бита.
А Клод Шанън е първият, който твърди,
че границата на компресията винаги ще бъде
ентропията на източника на съобщението.
Тъй като ентропията, или несигурността,
на нашия източник намалява,
заради познатата статистическа стуктура,
възможността за компресия нараства.
(Морзов код)
Ако ентропията нараства заради непредвидимост,

Portuguese: 
Então multiplicamos o comprimento
de cada código
vezes a probabilidade de ocorrência,
e os adicionamos juntos,
que resultará no comprimento médio
de 1,75 bits por símbolo em média.
Significa que com essa codificação Huffman
esperamos comprimir as mensagens
de 2.000 bits para 1.750 bits.
e Claude Shannon foi o primeiro
a reinvidicar
que o limite da compressão
sempre será
a entropia da fonte da mensagem.
À medida que a entropia,
ou a incerteza,
da nossa fonte diminui para estruturas
estatísticas conhecidas,
a habilidade de compressão aumenta.
(código Morse)
Enquanto que, se a entropia aumenta
devido a imprevisibilidade,
nossa habilidade de compressão diminui.

Ukrainian: 
Отож, ми множимо довжину
кожного коду
на кількість ймовірностей появи,
і додаємо їх разом,
що результує в середню довжину -
1.75 бітів на символ в сердньому.
Це значить, що з цим
кодуванням Хаффмана,
ми можемо очікувати стиснення
повідомлення
з 2,000 біт до 1,750 біт.
І Клод Шаннон був першим, 
хто стверджував,
що ліміт
стиснення завжди буде
ентропією джерела повідомлення.
Так як ентропія, або
похибка,
нашого джерела зменшується у 
зв'язку з відомою статистичною структурою,
здатність до стиснення збільшується.
(код Морзе)
Хоча, якщо ентропія зростає
через непередбачуваність,
наша здатність до 
стиснення зменшується.

Georgian: 
ვამრავლებთ თითოეული კოდის სიგრძეს
მათი გამოჩენის ალბათობაზე,
ვკრებთ
და მივიღებთ საშუალო სიგრძეს
1.75 ბიტს სიმბოლოზე საშუალოდ.
ეს ნიშნავს, რომ ჰაფმანის კოდირებით
შეგვიძლია, მოველოდით
შეტყობინების შემცირებას
2000 ბიტიდან 1750 ბიტამდე.
კლოდ შენონი პირველი იყო,
ვინც განაცხადა, რომ
შეკუმშვის ლიმიტი ყოველთვის იქნება
შეტყობინების წყაროს ენთროპია.
რაც უფრო მცირდება წყაროს
ენთროპია, თუ დაურწმუნებლობა,
ცნობილ სტატისტიკურ სტრუქტურამდე,
შემცირების შესაძლებლობა იზრდება.
მაშინ, როცა თუ ენთროპია იზრდება,
განუსაზღვრელობის გამო,

Czech: 
Vynásobíme tedy délku každého kódu s pravděpodobností výskytu a sečteme je dohromady.
Zjistíme, že průměrná délka
je 1.75 bitů na jeden symbol.
To znamená, že při použití Huffmanova kódování očekáváme zmenšení zprávy
z 2000 bitů na 1750 bitů.
Claude E. Shannon byl první, kdo tvrdil, že limit komprese bude vždy entropie zdrojové zprávy.
Když se entropie neboli nejistota našeho zdroje snižuje, díky známé statistické struktuře,
schopnost komprimace se zvyšuje.
[pípání Morseovky]
Naopak, když se entropie zvyšuje,
kvůli nepředvídatelnosti, naše schopnost komprimovat se snižuje.

Bengali: 
তাহলে এখানে আমরা প্রত্যেক কোডের দৈর্ঘ্যকে
ঘটনার সম্ভাব্যতা সংখ্যা দিয়ে গুণ করে
এবং পরে সবগুলোকে একত্রে যোগ করলে
আমরা প্রত্যেক সংকেতের গড় দৈর্ঘ্য
পাব, যেমন এই ক্ষেত্রে সেটা হল ১.৭৫ বিট।
এর মানে হল এই হফম্যান কোডিং এর সাহায্যে
২০০০ বিটের বার্তাকে ১৭৫০ বিটে
সংকোচন করা যেতে পারে।
এবং ক্লড শ্যানন হলেন সেই ব্যক্তি যিনি
প্রথম বলেন যে এই সংকোচনের সীমা
সবসময়ই এই বার্তার উৎসের এনট্রপি।
যেহেতু এর উৎসের এনট্রপি অথবা অনির্দিষ্টতার
জানা পরিসংখ্যানের কারণে কমে তাই
সংকোচনের ক্ষমতা বৃদ্ধি পায়।
(মোর্স কোড)
আবার কোনভাবে যদি এনট্রপি বেড়ে যায়
তাহলে সংকোচনের ক্ষমতা কমে যেতে পারে।

Polish: 
Mnożymy długość każdego kodu
przez prawdopodobieństwo
wystąpienia i sumujemy.
Uzyskujemy przeciętną długość
1,75 bita na symbol.
To znaczy, że za pomocą
kodowania Huffmana
możemy kompresować
wiadomości z 2000 bitów
do 1750 bitów.
Claude Shannon pierwszy stwierdził,
że granica kompresji
zawsze będzie równa entropii
źródła wiadomości.
W miarę, jak entropia lub niepewność
naszego źródła maleje,
wskutek czynników niestatystycznych,
zdolność kompresji rośnie.
Tymczasem gdy rośnie entropia,
wskutek nieprzewidywalności,
nasza zdolność kompresji spada.

English: 
So we multiply the length of each code
times the probability of occurrence,
and add them together,
which results in an average length
of 1.75 bits per symbol on average.
That means with this Huffman coding
we can expect to compress the messages
from 2,000 bits to 1,750 bits.
And Claude Shannon was the first to claim
that the limit of
compression will always be
the entropy of the message source.
As the entropy, or uncertainty,
of our source decreases due to
known statistical structure,
the ability to compress increases.
(Morse code)
While, if the entropy increases
due to unpredictability,
our ability to compress decreases.

Italian: 
Moltiplichiamo la lunghezza di ciascuna codifica con la propria probabilità d'occorrenza e sommiamo tutti i risultati fra loro
Otteniamo una media di 1.75 bit per simbolo
Usando la codifica di Huffman dobbiamo aspettarci di poter ridurre il messaggio da 2000 bit a 1750 bit
Claude Shannon fu il primo a sostenere che il limite raggiungibile con la compressione sarà sempre pari all'entropia della sorgente del messaggio
Al diminuire dell'entropia, o dell'incertezza della nostra sorgente, a causa della sua struttura statistica conosciuta
la capacità di comprimere aumenta
[SUONO DEL CODICE MORSE]
Mentre se l'entropia aumenta, a causa dell'imprevedibilità, la capacità di comprimere diminuisce

Korean: 
각 코드의 길이를
발생 확률과 곱하고
모두 다 더하면
평균적으로 한 기호 당
1.75 비트가 나옵니다
이것은 허프만 코딩으로
메시지를 2,000 비트에서
1,750비트로
압축시킬수 있다는
것을 의미합니다
클로드 섀넌은 정보 
압축의 한계는 항상
원래 메시지의 
엔트로피(혼란도) 가 될거라고
처음으로 주장하였습니다
원래 메시지의 엔트로피
혹은 불확실성이
통계구조를 알게되어 감소하게되면
압축능력은 증가합니다
(모스 코드)
반면, 예측 불가능성때문에
엔트로피(혼란도)가 증가하면
압축능력이 감소 됩니다

Ukrainian: 
(код Морзе)
якщо ми хочемо стискати 
за межами ентропії,
ми маємо обов'язково відкинути
інформацію в нашому повідомленні.
Переклад на українську: Оксана Кузьменко, рев’ювер Юлія Гулакова, благодійний фонд “Magneticone.org”

Korean: 
(모스코드)
만약 엔트로피보다 더 압축하고 싶다면
메시지에 있는 정보를
버려야 할 것입니다

Italian: 
[SUONO DEL CODICE MORSE]
Se vogliamo comprimere al di là del limite dettato dall'entropia dobbiamo necessariamente buttare dell'informazione.

Polish: 
Chcąc coś skompresować
powyżej entropii,
koniecznie musimy odjąć
część informacji z wiadomości.

Portuguese: 
(código Morse)
Se queremos comprimir além da entropia,
precisamos necessariamente jogar fora
informação em nossas mensagens.
[Legendado por Alef Almeida]
[Revisado por Paulo Trentin]

Bulgarian: 
нашата възможност да компресираме намалява.
(Морзов код)
Ако искаме да компресираме отвъд ентропията,
трябва да изхвърлим
информацията от нашите съобщения.

Bengali: 
(মোর্স কোড)
আমরা যদি এনট্রপির উর্ধে উঠে সংকোচন করতে চাই,
সেক্ষেত্রে আমাদের বার্তার যে মূল
বক্তব্যকে আছে সেটি বাদ দিয়ে দিতে হবে।

Czech: 
[pípání Morseovky]
Pokud bychom chtěli komprimovat za hranici entropie, nutně bychom museli zahodit část informace z naší zprávy.

English: 
(Morse code)
if we want to compress beyond entropy,
we must necessarily throw away
information in our messages.

Georgian: 
შემცირების შესძლებლობა იკლებს.
თუ გვსურს, ენთროპიის ზღვარს მიღმა შევამციროთ,
აუცილებლად უნდა მოვიცილოთ
ინფორმაცია შეტყობინებიდან.
