
Czech: 
Shannon právě skončil vývoj teorií
vztahujících se k šifrování
a proto si byl dobře vědom,
že lidská komunikace je směsí náhodnosti
a statistických závislostí.
Písmena v naších zprávách byla zjevně
do určité míry závislá na předchozích písmenech.
V roce 1949 publikoval
přelomový článek
"A Mathematical Theory of Communication".
Využívá v něm Markovovy modely
jako nástroj k pochopení komunikace.
Začíná s ukázkovým příkladem.
Představte si, že se setkáte s textem
napsaným v abecedě písmen "A" "B" a "C".
O tomto jazyce nic nevíte.
Ale všimnete si, že se "áčka" drží spolu
zatímco "béčka" a "céčka" ne.
Pak ukázal, že můžete navrhnout stroj
pro generování podobně vypadajícího textu
použítím Markovova řetězce.

Italian: 
Shannon ha appena terminato di sviluppare le sue teorie sulla crittografia
ed era consapevole che la comunicazione umana è un misto di
casualità e di dipendenze statistiche
I caratteri d'un messaggio dipendono parzialmente dalle lettere precedenti
Nel 1949 pubblicò un articolo rivoluzionario
"Teoria Matematica della Comunicazione"
In essa usò le catene di Markov come modello della comunicazione umana
Inizia con l'esempio d'un giocattolo
Immaginate d'imbattervi in un testo scritto utilizzando dei caratteri del tipo 'A', 'B', 'C'
Magari non conoscete nulla di tale linguaggio
ma notate presto che le 'A' tendono ad ammassarsi mentre ciò non accade con le 'B' e le 'C'
Quindi egli mostra che potete costruire una macchina che genera un testo avente queste proprietà
usando una 'catena di Markov'

Portuguese: 
Shannon acabou de terminar
o desenvolvimento
suas teorias relacionadas 
a criptográfia e,
portanto, estava bem ciente de que
a comunicação humana era uma mistura
de aleatoriedade e 
dependências estatísticas.
As letras em nossas
mensagens eram obvíamente
dependente de letras anteriores
para continuar crescendo.
Em 1949, ele 
publicou um artigo inovador,
"Teoria Matemática da Comunicação".
No artigo, ele usa modelos 
de Markov como base
para o que pensamos sobre comunicação.
Ele começa com um exemplo de um jogo.
Pense que você achou
um monte de textos
escritos em um alfabeto de A, B, e C.
Talvez você não saiba 
nada sobre esse idioma,
mas percebeu que "As" paracem se juntar,
enquanto "Bs" e "Cs", não.
Ele demonstra que você 
poderia projetar uma máquina
para gerar textos similares,
usando Cadeias de Markov.

Bulgarian: 
Шанън завършва развитието
на своите теории за криптографията
и знае, че комуникацията между хората е смесица
от случайности и статистически зависимости.
Буквите в нашите съобщения очевидно
зависят от предишните букви.
През 1949 г. той публикува новаторски труд,
"Математическа теория на комуникацията".
В него използва модели на Марков като основа
за това как можем да мислим за комуникацията.
Той започва с лесен пример.
Представи си, че имаш текст,
написан с азбука от А, В и С.
Вероятно не знаеш нищо за този език,
макар че забелязваш, че буквите А се групират заедно,
а буквите В и С – не.
След това той показва, че можеш да проектираш машина,
която да генерира подобен текст,
с помощта на верига на Марков.

Polish: 
Shannon właśnie skończył prace
nad koncepcjami nt. kryptografii,
ma więc świadomość, że komunikacja
ludzi to mieszanina przypadków
i zależności statystycznych.
Litery w naszych wiadomościach
oczywiście zależą,
w pewnej mierze, od poprzednich.
W 1949 r. opublikował
przełomowy artykuł
pt. „Matematyczna teoria komunikacji”.
Modele Markowa
stanowiły punkt wyjścia
do rozmyślań nad komunikacją.
Shannon zaczął od tego przykładu:
trafiacie na tekst napisany
alfabetem z liter A, B i C.
Nie macie pojęcia o tym języku.
Zauważacie, że A często
występują parami, zaś B i C – nie?
Pokazał, że można
zaprojektować maszynę
do generowania podobnie wyglądających
tekstów - z użyciem łańcucha Markowa.

Georgian: 
შენონმა ახლახან დაასრულა კრიპტპგრაფიასთან 
დაკავშირებული თავისი თეორიების განვითარება
და.მაშასადამე,კარგად ესმოდა, რომ ადამიანების
კომუნიკაცია შემთხვევებისა და სტატისტიკური
დამოკიდებულებების ნარევია.
ასოები ჩვენს წერილებში, აშკარაა გარკვეულწილად
დამოკიდებული იყო წინა ასოებზე.
1949 წელს მან გამოაქვეყნა თავისი ნოვატორული
ნაშრომი,
"კომუნიკაციის მათემატიკური თეორია".
და მასში, ის იყენებს მარკოვის მოდელებს წარმოდგენის
შესაქმნელად, თუ როგორ ვიფიქროთ კომუნიკაციაზე.
ის სათამაშოს მაგალითით იწყებს.
წარმოიდგინეთ,თქვენ დაწერეთ ტექსტი 
'A','B' და'C'-სგან შემდგარი ანბანიდან.
ალბათ, თქვენ არაფერი იცით ამ ენაზე.
თუმცა ამჩნევთ, რომ 'A' სიმბოლოები თითქოს
ერთიანდებიან, B' და C' არა.
შემდეგ ის გვაჩვენებს რომ თქვენ შეგიძლიათ 
ისეთი მანქანის შექმნა, რომელიც დააგენერირებს
მსგავს ტექსტს, მარკოვის ჯაჭვის 
გამოყენებით:

Korean: 
섀넌은 방금 암호학과 관련된
이론을 완성시켰습니다
그 이론에 의해 사람의 의사소통은
무작위와 통계적 의존이 
뒤섞인 것임을 알 수 있습니다
우리 말의 글자들은 분명하게도
그 전의 글자들에 의존합니다
1949년에 그는 획기적인 논문인
"커뮤니케이션의 수학적 이론"을
 발표했습니다
여기에서 그는
마르코프 모델을 기초로 삼아
우리가 의사소통을 생각하는
방법을 다뤘습니다
예로 쉬운 경우를 사용했습니다
알파벳 A, B, C로 이루어진
텍스트를 상상해 보세요
이 언어에 대해 
아무 것도 모른다고 해도
A들이 집단을 이룬다는 것을
알아차릴 겁니다
B와 C는 그렇지 않고요
섀넌은 마르코프 체인을 이용하여
유사한 텍스트를 만드는
기계를 디자인 할 수 있다고 했습니다

English: 
Voiceover: Shannon had
just finished developing
his theories related to
cryptography and therefore
was well aware that human
communication was a mix
of randomness and
statistical dependencies.
Letters in our messages were obviously
dependent on previous
letters to some extent.
In 1949, he published
a groundbreaking paper,
"A Mathematical Theory of Communication".
In it, he uses Markov models as the basis
for how we can think about communication.
He starts with a toy example.
Imagine you encounter a bunch of text
written in an alphabet of A, B, and C.
Perhaps you know nothing
about this language,
though you notice As
seem to clump together,
while Bs and Cs do not.
He then shows that you
could design a machine
to generate similar-looking text,
using a Markov chain.

Bengali: 
##  আগামী ও গ্রামীণফোন এর সহযোগিতায় অনূদিত ##
শ্যানন কেবলমাত্র তার
ক্রিপ্টোগ্রাফি সম্পর্কিত তত্ত্ব তৈরি  করেছিলেন এবং এজন্য
তিনি জানতেন যে মানুষের যোগাযোগ হল
দৈব ও পরিসংখ্যানগত নির্ভরতার মিশ্রণ।
স্পষ্টত আমাদের বার্তার অক্ষরগুলো
আগের বার্তার অক্ষরের উপর কিছুটা নির্ভরশীল।
১৯৪৯ সালে, তিনি একটি যুগান্তকারী 
প্রতিবেদন প্রকাশ করেন,
"যোগাযোগের গাণিতিক তত্ত্ব"।
এতে তিনি ভিত্তি হিসেবে মার্কভ মডেল ব্যবহার করেন
আমাদের যোগাযোগ সম্পর্কিত চিন্তার ক্ষেত্রে।
তিনি একটি সাধারণ উদাহরণ দিয়ে শুরু করেন।
চিন্তা কর, তোমার সামনে কিছু লেখা আছে
যা A, B এবং C বর্ণমালায় লিখিত।
সম্ভবত তুমি এই ভাষা সম্পর্কে কিছুই জানো না,
কিন্তু তুমি লক্ষ্য করেছ যে A গুলো একত্রে আছে,
কিন্তু B এবং C গুলো নেই।
তারপর তিনি দেখান যে এমন
একটি মেশিন ডিজাইন করা যায়
যা একই ধরনের লেখা তৈরি করবে,
মার্কভ চেইন ব্যবহার করে।

Ukrainian: 
Шеннон 
щойно закінчив розробку
теорій, пов'язаних з 
криптографією, а отже,був добре обізнаний
і з такими відомими людству
засобами зв'язку, як поєднання
випадковостей і 
статистичних залежностей.
Літери в наших повідомленнях
були очевидно
залежними від попередніх літер.
В 1949 році, він опублікував
новаторську роботу,
"Математична теорія спілкування".
В ній він взяв за основу моделі Маркова,
його міркування про зв'язок.
Він розпочав з дріб'язкового прикладу.
Уявіть, що у вас є купа тексту,
написаного абеткою з літер А, B і C.
Припустимо, що ви нічого 
не знаєте про цю мову,
але ви помітите, 
що літери А з'єднані,
в той час як B і C не з'єднані.
Потім він показує, що ви
могли б розробити механізм,
що виокремлював би схожий текст,
з використанням ланцюга Маркова.
Він розпочав із наближення
нульового порядку,

Portuguese: 
Shannon acaba de terminar suas
teorias sobre criptografia, e portanto,
sabe que a comunicação humana
é uma mistura de
aleatóriedade e dependências estatísticas.
As letras de nossas mensagens, obviamente,
dependem das letras anteriores,
até certo ponto.
Em 1949, ele publicou um
artigo revolucionário,
"Uma Teoria Matemática da Comunicação".
No qual ele usa Cadeias de 
Markov para mostrar
como podemos representar a comunicação.
Ele começa com um exemplo bem simples.
Imagine encontrar um pedaço de texto
escrito num alfabeto que 
contém apenas A, B, e C.
Você não sabe nada sobre essa nova língua,
mas notou que os As costuman vir em pares,
o que não acontece com os Bs e Cs.
Ele então mostra que é possível
projetar uma máquina
que cria textos semelhantes,
usando Cadeias de Markov.

Romanian: 
Shannon tocmai terminase dezvoltarea
teoriilor sale legate de criptografie și, prin urmare,
era foarte conștient de faptul  că și comunicarea umană era un amestec
de aleatoriu și dependențe statistice.
Literele din mesajele noastre erau evident
dependente de literele anterioare într-o oarecare măsură.
În 1949, el a publicat o lucrare revoluționară
"Teoria Matematică a Comunicațiilor ".
În aceasta, el folosește modelele Markov ca fundament
pentru teoretizarea comunicării.
El începe cu un exemplu-jucărie .
Imaginați-vă că întâlniți un text amplu,
scris într-un alfabet folosind literele A, B și C.
Poate că nu știți nimic despre această limbă.
Totuși, observați că A-urile par să se repete,
în timp ce B-urile și C-urile nu.
El arată apoi că ați putea proiecta o mașină
pentru generarea unui text asemănător ca aspect,
folosind un lanț  Markov.

Italian: 
Inizia con un'approssimazione di ordine zero
significa che possiamo scegliere ciascun termine del tutto indipendentemente
A, B o B, del tutto casualmente - e formare una sequenza
Nota però che questa sequenza non assomiglia all'originale
Quindi mostra che il risultato migliora se usate un'approssimazione del primo ordine
dove le lettere sono scelte indipendentemente
ma seguendo la probabilità d'occorrenza della medesima lettera nella sequenza originale
Così va meglio, visto che le 'A' sono un po' più probabili
Ma la struttura della frase ci sfugge ancora
Ora segue un passaggio chiave
L'approssimazione del secondo ordine prende in considerazione ogni coppia di lettere che possono darsi
In questo caso abbiamo 3 stati
Il primo rappresenta tutte le coppie che iniziano con A
il secondo, tutte le coppie che iniziano con B
e il terzo, quelle che iniziano con C
Notate che ora ci sono più coppie 'AA'
cosa che ha senso, dato che la probabilità condizionata

Czech: 
Začal aproximací nultého řádu,
kde jsme jen nezávisle vybrali každý symbol
(A, B nebo C) náhodně
a vytvořili řetězec.
Tento řetězec ale nevypadá
jako ten původní.
Shannon ukázal, že lepší je
aproximace 1. řádu,
kde jsou písmena vybrána nezávisle,
ale podle pravděpodobnosti s jakou se
daná písmena v řetězci objevují.
Tohle už je trochu lepší,
protože "áčka" se objevují více,
ale stále to nezachycuje strukturu.
Další krok je klíčový.
Aproximace druhého řádu,
bere v potaz každý pár symbolů.
V tomto případě máme 3 stavy.
První stav představuje všechny páry
začínající na "A",
druhý páry začínající na "B"
a třetí páry začínající na "C".
Všimněte si, že kelímek s "A"
má mnoho párů "AA",
protože podmíněná pravděpodobnost
"A" po "A"

Bulgarian: 
Той започва с приближение от нулев порядък,
което означава, че избираш независимо
и случайно всеки символ А, В или С, и образуваш поредица.
Забележи, че тази поредица
не изглежда като оригиналната.
Той показва, че можеш да я направиш малко по-добре
с приближение от първи порядък,
където буквите се избират независимо,
но според вероятността за всяка буква
в първоначалната поредица.
Това е малко по-добре, тъй като
буквите А стават по-вероятни за изтегляне,
но все още нямаме тази структура.
Следващата стъпка е ключова.
Приближение от втори порядък взима предвид
всяка двойка букви, които могат да се появят.
В този случай ни трябват три състояния.
Първото състояние представлява всички двойки, които започват с А,
второто – всички двойки, които започват с В,
а третото – всички двойки, които започват с С.
Забележи, че чашата А има много двойки АА,
което има смисъл, тъй като условната вероятност

Georgian: 
ის იწყებს ნულოვანი მიახლოებით,
რაც ნიშნავს რომ, ჩვენ დამოუკიდებლად 
ვირჩევთ თითოეულ სიმბოლოს-
A, B, ან C და ვქმნით
თანამიმდევრობას.
თუმცა, ყურადღება მიაქციეთ, რომ ეს თანამიმდევრობა
არ ჰგავს ორიგინალს.
ის გვაჩვენებს რომ შეგვიძლია უკეთ გავაკეთოთ
პირველი რიგის მიახლოებით.
სადაც ასოები დამოუკიდებლად ირჩევიან.
მაგრამ ორიგინალ თანამიმდევრობაში
გამოჩენის ალბათობით.
ამიტომ, ეს შედარებით უკეთესია.
რადგან A-ს გამოჩენა უფრო განსაზღვრულია.
მაგრამ სტრუქტურა მსგავსი მაინც არ არის,
მომდევნო საფეხური საკვანძოა.
მეორე რიგის მიახლოება სათვალავში იღებს
ასოეთა თითოეულ წყვილს,
და ამ შემთხვევაში, ჩვენ გვჭირდება სამი
მდგომარეობა.
პირველი მდგომარეობა გამოხატავს ყველა 
წყვილს, რომელიც 'A'-თი იწყება,
მეორე ყველა წყვილს რომელიც 'B'-თი
იწყება,
და მესამე მდგომარეობა,
ყველა წყვილი, რომელიც 'C"თი იწყება.
და ყურადღება მიაქციეთ, რომ 'A'ჭიქას 
მეტი 'AA' წყვილი აქვს,
რაც მნიშვნელოვანია, რადგან 'A'-ს შემდეგ 
'A'-ს გამოჩენის ალბათობა

Portuguese: 
Ele começa com uma 
aproximação de ordem zero,
que siginifca que escolhemos 
independentemente cada símbolo
A, B, ou C aleatoriamente, e 
formamos uma sequência.
Mas perceba que essa sequência 
não se parece com a original.
Ele demonstra que poderia
melhorar um pouco
com aproximação de ordem um,
onde as letras são 
escolhidas independentemente,
mas de acordo com a 
probabilidade de cada letra
na sequência original.
Isso é um pouco melhor já 
que "As" é um pouco mais provável,
mas ainda não 
tem muita estrutura.
O próximo passo é crucial.
Uma aproximanção de 
segunda ordem leva em conta
cada par de letras que pode ocorrer.
Nesse caso, precisamos de três estados.
O primeiro representa todos os 
pares que começam com A,
o segundo todos os 
pares que começam com B,
e o terceiro todos os 
pares que começam com C.
Veja agora que o copo 
A tem muitos pares AA,
O que faz sentido, já que a 
probabilidade condicional de um A

Portuguese: 
A primeira versão é bem simples,
seleciona um símbolo A, B, ou C, por vez,
de forma aleatória, para 
formar a sequência.
No entanto, observe que a sequência
não se parece com a original.
É possível fazer um pouco melhor
na segunda versão da máquina,
que escolhe um símbolo por vez,
mas leva em conta a probabilidade
de cada um aparecer
na sequência original.
Está um pouco melhor, os 
As estão mais parecidos,
mas ainda não pegou bem o jeito.
O próximo passo é crucial.
A terceira versão leva em conta
cada par de letras que podem ocorrer.
Nesse caso, precisamos de três estados.
O primeiro, representa todos os 
pares que começam com A,
o segundo, todos os que começam B,
e o terceiro estado, representa todos
os pares que começam com C.
Note que o copo A tem muitos pares AA,
o que faz sentido, pois a probabilidade

Polish: 
Zaczyna od przybliżenia
zerowego rzędu.
Czyli każdy symbol
wybieramy niezależnie,
losowo, i tworzymy ciąg.
Zauważcie, że ten ciąg
nie przypomina oryginału.
Shannon przechodzi więc
do przybliżenia pierwszego rzędu:
litery są wybierane niezależnie,
ale zgodnie z prawdopodobieństwem
wystąpienia w ciągu oryginalnym.
Tak jest nieco lepiej, bo A są teraz
bardziej prawdopodobne,
ale nadal nie odzwierciedla to
właściwej struktury.
Następny krok jest kluczowy.
Przybliżenie drugiego rzędu
uwzględnia każdą parę liter,
która może się pojawić.
Potrzebujemy więc trzech stanów.
Pierwszy to wszystkie pary
zaczynające się od A,
drugi – zaczynające się od B
i trzeci – zaczynające się od C.
Zauważcie, że przy kubku A
jest wiele par AA,
co ma sens, bo prawdopodobieństwo
warunkowe wystąpienia A po A

Romanian: 
El începe cu o aproximare de ordin zero,
ceea ce înseamnă că noi doar selectăm independent
fiecare simbol A, B sau C ales la întâmplare pentru a forma o secvență.
Cu toate acestea, observați că această secvență
nu arată ca originalul.
El demonstrează că o puteți face ceva mai bine
cu o aproximare de ordinul întâi
unde literele sunt alese independent,
dar în funcție de probabilitatea fiecărei litere
în secvența originală.
Așa este puțin mai bine, deoarece A-urile apar mai des,
dar încă nu prinde prea mult din structură.
Următorul pas este esențial.
Apare o aproximare de ordinul doi
pentru  fiecare pereche de litere care poate să apară.
În acest caz, avem nevoie de trei stări.
Prima stare  reprezintă toate perechile care încep cu A,
a doua - toate perechile care încep cu B,
iar a treia stare toate perechile care încep cu C.
Observați că prima grupă are mai multe perechi AA,
ceea ce are sens, întrucât probabilitatea condiționată

Ukrainian: 
що означає, що ми лише
незалежно обираємо
кожен символ A, B чи C випадково,
формуючи послідовність.
Хоча, зазначимо, що
ця послідовність
не виглядає як оригінал.
Він показує, що можна було б
зробити трохи краще,
взявши наближення першого порядку,
де літери обираються незалежно,
але відповідно до ймовірності
появи кожної літери
в оригінальній послідності.
Це трішки краще, так як
літери A більш вірогідні,
але це не відображає повну структуру.
Наступний крок є ключовим.
Наближення другого порядку враховує
кожну пару літер, що можуть утворитися.
В цьому випадку, нам потрібні три групи.
Перша група представляє всі пари,
які починаються з літери A,
друга - всі пари, що
починаються з літери B,
і третя група, пари якої
починаються з літери C.
Зазначимо, що в чашці A
є багато пар типу AA,
що має сенс з умовною вірогідністю,
що літера A після A частіше зустрічається
в вихідному повідомленні.

Korean: 
그는 독립적으로
A, B, 또는 C를 무작위로 선택하고
문자의 나열을 만들어내는
영차 근사로 시작했습니다
그러나 그 나열은 원래 것과
같아 보이지 않네요
섀넌은 일차 근사를 사용하면
더 낫다고 말했습니다
글자들이 독립적으로 선택되지만
원래 텍스트에서
문자들이 가지고 있던 확률을
따르기 때문이죠
A들이 비슷해서 더 나아 보이죠
그러나 여전히 구조를 완벽히
만들어내진 못합니다
다음 단계가 중요합니다
이차 근사는 발생할 수 있는
문자들의 쌍을 고려합니다
이 경우 세 상태를 가지죠
첫 번째 상태는 모든 쌍들이
A로 시작하는 경우
두 번째는 모든 쌍들이
B로 시작하는 경우
세 번째는 모든 쌍들이
C로 시작하는 경우죠
A컵에는 AA쌍이 많이 담겨있는데
원본 텍스트에서

English: 
He starts off with a
zeroth-order approximation,
which means we just independently select
each symbol A, B, or C at
random, and form a sequence
However, notice that this sequence
doesn't look like the original.
He shows then you could do a bit better
with a first-order approximation,
where the letters are
chosen independently,
but according to the
probability of each letter
in the original sequence.
This is slightly better
as As are now more likely,
but it still doesn't
capture much structure.
The next step is key.
A second-order approximation
takes into account
each pair of letters which can occur.
In this case, we need three states.
The first state represents
all pairs which begin with A,
the second all pairs that begin with B,
and the third state all
pairs that begin with C.
Notice now that the A
cup has many AA pairs,
which makes sense, since
the conditional probability

Bengali: 
তিনি প্রারম্ভিক ধাপের অনুমান দিয়ে শুরু করেন,
যেখানে শুধু স্বাধীনভাবে নির্বাচন করা হয়
প্রত্যেকটি A, B অথবা C অক্ষরকে এবং 
একটি ক্রম গঠন করা হয়।
তবে লক্ষ্যনীয় বিষয় হল এই ক্রম
আসল লেখাটির মত দেখাচ্ছে না।
তারপর তিনি দেখান যে এটিকে আরও উন্নত করা যায়
প্রথম ধাপের অনুমান ব্যবহার করে,
যেখানে অক্ষরগুলো স্বাধীনভাবে নির্বাচিত হয়,
কিন্তু নির্বাচন করা হয় আসল ক্রমের
প্রত্যেকটি অক্ষরের সম্ভাব্যতার উপর ভিত্তি করে।
এটি কিছুটা উত্তম কারণ A গুলো থাকার সম্ভাবনা বেশি,
কিন্তু এটি তবুও আসল লেখার মত নয়।
পরবর্তী ধাপ গুরুত্বপূর্ণ।
দ্বিতীয় ধাপের অনুমানে
প্রতি জোড়া অক্ষর নেওয়া হয়।
এই ক্ষেত্রে, তিন ধরনের অবস্থা রয়েছে।
প্রথম অবস্থা A দিয়ে শুরু হওয়া জোড়া প্রকাশ করে,
দ্বিতীয় অবস্থা B দিয়ে শুরু হওয়া জোড়া প্রকাশ করে,
এবং তৃতীয় অবস্থা C দিয়ে শুরু হওয়া জোড়া প্রকাশ করে।
লক্ষ্য করি, এখন A পাত্রে অনেক AA জোড়া রয়েছে
যা যুক্তিযুক্ত, যেহেতু  শর্তসাপেক্ষে আসল বার্তায়

Korean: 
A 다음에 A가 오는 조건부 확률이
더 높기 떄문입니다
이차 순서 근사를 이용하여
이렇게 쉽게 글자를
열거할 수 있습니다
어디서든 타일을 골라서
그 결과를 첫 글자로 적습니다
그리고 두 번째 글자로 정의된
다음 컵으로 갑니다
새 타일을 고르고
이것을 무한히 반복합니다
이 나열은 이제 원본 텍스트와
비슷해지기 시작합니다
이 모델이 글자들간의
조건적인 의존을 고려했기 떄문이죠
더 나은 결과를 위해서
삼차 근사를 이용할 수 있습니다
세 글자의 집합
즉 삼선형을 고려하는 것이죠
이 경우는 아홉 가지 상태가
필요합니다
섀넌은 이와 같은 논리를
실제 영어 텍스트에 적용했고
글자, 쌍, 삼선형 등으로 알려진
통계를 사용했습니다
그는 영차 순서의 무작위 글자에서

Italian: 
di una A dopo una A è più alta nel messaggio originale
Possiamo generare una sequenza usando questo modello del secondo ordine, così
iniziamo dovunque e scegliamo una piastrella
e annotiamo la prima lettera
e passiamo alla coppa che contiene la seconda lettera
Scegliamo nuovamente una piastrella e ripetiamo indefinitamente la procedura
Ora questa sequenza inizia ad assomigliare davvero al messaggio originale
perché cattura le dipendenze condizionali fra lettere
E se vogliamo far meglio, potremmo usare un'approssimazione del terzo ordine
che prende in considerazione gruppi di tre lettere (o 'trigrammi')
In questo caso avremmo bisogno di 9 stati
Shannon applica questa identica logica al testo inglese
usando le regole statistiche per lettere, coppie, trigrammi, ecc
e mostra la medesima progressione

Bengali: 
একটি A এর পরে আরেকটি A আসার সম্ভাব্যতা বেশি।
আমরা সহজেই দ্বিতীয় ধাপ ব্যবহার
করে একটি ক্রম তৈরি করতে পারি।
আমরা যে কোন পাত্র থেকে 
একটি অক্ষর নির্বাচন করি,
এবং এটি থেকে আমরা প্রথম অক্ষর লেখি,
এবং দ্বিতীয় অক্ষর অনুযায়ী 
পরবর্তী পাত্রে যাই
তারপর একটি নতুন অক্ষর নির্বাচন করি,
এবং এই প্রক্রিয়া পুনরাবৃত্তি করতে থাকি,
লক্ষ্য করি যে, এই ক্রমটি আসল লেখার মত
হওয়া শুরু করেছে,
কারণ এই মডেল মূলত
অক্ষরগুলোর পারস্পারিক 
শর্তাধীন নির্ভরতাকে ব্যবহার করে।
যদি আমরা এর চাইতেও ভালো করতে চাই,
তাহলে তৃতীয় ধাপের অনুমান 
ব্যবহার করতে হবে,
যা মূলত
তিন অক্ষরবিশিষ্ট দল অথবা "ট্রাইগ্রাম" ব্যবহার করে।
এই ক্ষেত্রে, আমাদের নয়টি অবস্থার প্রয়োজন হবে।
পরবর্তীতে শ্যানন ঠিক এই একই লজিক
ইংরেজি লেখায় প্রয়োগ করেন,
পরিসংখ্যান ব্যবহার করে
যা অক্ষর, জোড়া এবং ট্রাইগ্রাম ইত্যাদির জন্য পরিচিত ছিল।
তিনি একই ধরনের অগ্রগতি
শুরুর ধাপ থেকে

Bulgarian: 
за А след А е по-висока в нашето оригинално съобщение.
Можем да генерираме поредица
като използваме този модел от втори порядък по следния начин.
Започваме от където и да е и избираме плочка,
записваме изхода на първата буква
и се преместваме към чашката, 
дефинирана от втората буква.
Избираме нова плочка
и повтаряме процеса непрекъснато.
Забележи, че поредицата започва да изглежда
много подобна на оригиналното съобщение,
защото този модел улавя
условните зависимости между буквите.
Ако искаме да се справим още по-добре,
можем да използваме приближение от трети порядък,
което взима предвид
групи по три букви, или "триграми".
В този случай ще ни трябват девет състояния.
Но след това Шанън прилага съвсем същата логика
към действителен текст на английски език,
като използва статистика, която познаваме,
за букви, двойки, тройки и т.н.
Той получава същите прогресии от случайни букви от

Ukrainian: 
Ми можемо згенерувати послідовність
використовуючи модель другого
порядку наступним чином.
Ми розпочинаємо з будь-якого
місця і обираємо плитку,
і записуємо нашу 
вихідну першу літеру,
і переходимо до чашки
з другою літерою.
Потім ми беремо 
нову плитку,
і повторяємо в точності цей процес.
Зверніть увагу, що ця послідовність
починає ставати
дуже схожою на
вихідне повідомлення,
тому що ця модель включає
умовні залежності між літерами.
Якщо ви 
хочете вдосконалити,
то можна перейти до
наближення 3-го порядку,
яке враховує
групи з трьох літер, або "триграми".
В цьому випадку, нам потрібно три групи.
Але наступним кроком, Шеннон
відносить цей уривок до того ж випадку,
що і анлійський текст,
використовуючи закономірності,
в яких відмічені літери, пари
і триграми, тощо.
Він демонструє ту ж прогресію
з нульового порядку

Georgian: 
მეტია ჩვენს ორიგინალ
შეტყობინებაში.
ახლა ჩვენ შეგვიძლია მარტივად გავაკეთოთ 
თანამიმდევრობის გენერირება მეორე
მეორე მოდელის მაგალითზე: ჩვენ ვიწყებთ
ნებისმიერი ადგილიდან და ვიღებთ ასოს.
და ვიწერთ ან ვუშვებთ პირველ ასოს
და გადავდივართ მეორე ჭიქაზე, რომელიც
განსაზღვურლია მეორე წერილისთვის
ვიღებთ ახალ სიმბოლოს დ ვიმეორებთ
ამ პროცესს უსასრულოდ.
მიაქციეთ ყურადღება, რომ ეს თანმიმდევრობა
ძალიან ემსგავსება თავდაპირველ წერილს.
რადგან ეს მოდელი სრულად იღებს
პირობით დამოკიდებულებებს ასოებს შორის.
და, თუ ჩვენ გვინდ გავაკეთოთ უკეთესადაც
შეგვიძლია გადავიდეთ მესამე მოდელზე,
რომელიც სათვალავში იღებს სამასოიან
ჯგუფებს- 'trigram- ებს.
ამ შემთხვევაში, ჩვენ 
დაგვჭირდება 9 მდგომარეობა.
მაგრამ შემდეგ, შენონი მიმართავს იგივე
ლოგიკას ფაქტობრივ ინგლისურ ტექსტთან
იყენებს რა სტატისტიკებს ასოების,
წყვილების, trigram-ების და ა.შ
და ის აჩვენებს იგივე პროგრესიას

Portuguese: 
de pares AA é maior na mensagem original.
Podemos gerar uma sequência
usando essa terceira versão do modelo,
com as seguinte instruções:
Comece por qualquer copo, pegue um par,
anote a primeira letra,
e mova para o copo correspondente
a segunda letra,
Então pegue um novo par nesse copo,
e repita o processo indefinidamente
Observe que a sequência se torna
bem similar à mensagem original,
porque esse modelo está capturando
as dependências condicionais
entre as letras.
Se quisermos fazer ainda melhor,
podemos ir para a quarta versão,
que leva em conta
grupos de três letras, ou "trigramas".
Nesse caso, seriam necessários
nove estados.
A seguir, Shannon aplica essa mesma lógica
a textos em Inglês de verdade, 
usando estatísticas
conhecidas para letras, 
pares, trigramas, etc.
Ele mostra a mesma evolução da primeira,

Portuguese: 
depois de um A é maior em
nossa mensagem original.
Podemos criar uma sequência usando
o modelo de segunda ordem 
facilmente dessa forma:
Começamos em qualquer 
ponto e pegamos uma peça,
e escrevemos na
saída a primeira letra,
e movemos o copo 
definido pela segunda letra.
Então pegamos uma segunda peça,
e repetimos o processo indefinidamente.
Veja que essa sequência 
começa a ficar muito
parecida com a mensagem original,
porque esse modelo captura
as dependências 
condicionais entre as letras
Se quiséssemos deixar ainda melhor,
usaríamos uma aproximação
de terceira ordem,
que levaría em conta grupos 
de três letras, ou "trigramas"
Nesse caso, poderíamos 
precisar de nove estados.
Mas depois, Shannon 
aplica essa mesma lógica
para textos em inglês, usando estatísticas
que eram bem conhecidos por 
pares de letras, e trigramas, etc.
Ele demonstra a mesma 
progressão de ordem zero

Polish: 
w oryginalnej wiadomości jest wyższe.
Możemy wygenerować ciąg,
używając przybliżenia drugiego rzędu:
zaczynamy gdziekolwiek.
Losujemy płytkę,
zapisujemy lub odkładamy
pierwszą literę
i sięgamy do kubka
przypisanego do litery drugiej.
Losujemy płytkę.
Proces powtarzamy w nieskończoność.
Ciąg zaczyna wyglądać podobnie
do pierwotnej wiadomości.
Ten model uwzględnia
zależności warunkowe między literami.
Jeszcze lepsze jest
przybliżenie trzeciego rzędu,
biorące pod uwagę grupy trzyliterowe.
Tutaj będziemy potrzebować
dziewięciu stanów.
Tę samą logikę Shannon zastosował
do angielskiego tekstu.
Biorąc pod uwagę statystykę
liter, par i trójek itd.,

Romanian: 
a unui A după un A este mai mare în mesajul nostru original .
Putem genera o secvență,
folosind acest model de ordinul doi, așa cum urmează.
Începem de oriunde alegând o piesă
și scriem prima literă,
iar apoi trecem la grupa determinată de a doua literă.
Apoi alegem o nouă piesă
și repetăm acest proces de nenumărate ori.
Observați că această secvență începe să arate
foarte asemănător cu mesajul original,
deoarece acest model captează
dependențele condiționale dintre litere.
Dacă vrem să îmbunătățim,
am putea trece la o aproximare de ordinul trei.
Aceasta ia în considerare
grupe de trei litere sau "trigrame".
În acest caz, am avea nevoie de 9 stări.
În continuare, Shannon aplică exact aceeași logică
la textul în limba engleză, utilizând statistici
care au fost cunoscute pentru litere, perechi, trigrame, etc.
El demonstrează același progres de la alegerea aleatorie de ordin zero

Czech: 
je v naší původní zprávě větší.
Teď můžeme vytvářet sekvence
pomocí modelu 2. řádu takto:
Začneme kdekoli, vybereme kostičku
a napíšeme první písmeno
a posuneme se ke kelímku
podle druhého písmena.
Pak vybereme novou kostičku
a tento proces opakujeme donekonečna.
Tato posloupnost již začíná
vypadat jako naše původní zpráva,
protože tento model zahrnuje
podmíněné závislosti mezi písmeny.
Dalšího zlepšení dosáhneme
pomocí aproximace 3. řádu,
která zahrnuje skupiny 3 písmen -
triagramy.
V tomto případě potřebujeme 9 stavů.
Shannon poté použil stejný postup
na reálný anglický text
a použil statistiku, která byla
známa pro písmena, páry, triagramy atd.
Ukázal to samé zlepšení
pro přechody

English: 
of an A after an A is higher
in our original message.
We can generate a sequence
using this second-order
model easily as follows.
We start anywhere and pick a tile,
and we write down our
output the first letter,
and move to the cup defined
by the second letter.
Then we pick a new tile,
and repeat this process indefinitely
Notice that this sequence
is starting to look
very similar to the original message,
because this model is capturing
the conditional dependencies
between letters.
If we wanted to do even better,
we could move to a
third-order approximation,
which takes into account
groups of three letters, or "trigrams".
In this case, we would need nine states.
But next, Shannon applies
this exact same logic
to actual English text, using statistics
that were known for letters,
pairs, and trigrams, etc.
He shows the same
progression from zeroth-order

Bengali: 
প্রথম ধাপ, দ্বিতীয় ধাপ
এবং তৃতীয় ধাপের ক্রমে প্রদর্শন করেন।
এরপর তিনি এই একই পদ্ধতি
অক্ষরের পরিবর্তে শব্দে ব্যবহার করেন
 এবং তিনি লিখেছেন
"সাধারণ ইংরেজী লেখার সাথে
"প্রতিটি ধাপেই এর সাদৃশ্য বৃদ্ধি পায়। "
যদিও, এই যন্ত্রগুলো তৈরি করছিল
অর্থহীন লেখা, কিন্তু তাদের
পরিসংখ্যানগত শব্দের গঠন
প্রকৃত ইংরেজি ভাষার মতই।
শ্যানন তারপর পরিমাণগত তথ্য
পরিমাপের সংজ্ঞা প্রদান করেন,
কারণ তিনি বুঝতে পারেন যে
কোন বার্তায় তথ্যের পরিমাণ
অবশ্যই সম্পর্কযুক্ত থাকতে হবে
যন্ত্রের নকশার সাথে যা
একই ধরনের ক্রম তৈরির 
ক্ষেত্রে ব্যবহার করা যায়।
যা আমাদের এনট্রপি সম্পর্কে ধারণা দেয়।
##  আগামী ও গ্রামীণফোন এর সহযোগিতায় অনূদিত ##

Georgian: 
შემთხვევითი რიცხვების ნულოვანი დონიდან
პირველ დონემდე,
მეორე და მესამე დონეებამდე.
შემდეგ ის ცდილობს იგივეს გამეორებას, 
ასოების ნაცვლად სიტყვების გამოყენებით.
და ის წერს,
"მსგავსება ჩვეულებრივ ინგლისურ ტექსტთან
საკმაოდ შესამჩნევი ხდებოდა თითოეულ
სიღრმეზე."
მიუხედავად იმისა, რომ ეს ხელსაწყო 
უშვებდა უაზრო ტექსტს,
ის შეიცავდა მიახლოებით იგივე
სტრუქტურას,
რასაც ინგლისურში ვხედავთ.
შენონი შემდეგ განაგრძობს და ცდილობს 
იპოვოს ინფორმაციის რაოდენობრივი გამზომი.
და ის ხვდება, რომ ზოგიერთ
წერილში ინფორმაციის რაოდენობა
დაკავშირებული უნდა იყოს
ხელსაწყოს პროექტთან,
რომელიც უნდა იყოს გამოყენებული
მსგავსი თანამიმდევრობებისთვის.
ამან მიგვიყვანა ენთროპიის ცნებამდე.

Polish: 
podąża tak samo: od przybliżenia
zerowego (losowy wybór liter),
przez przybliżenia pierwszego,
drugiego i trzeciego rzędu.
A później próbuje zrobić to samo
ze słowami zamiast liter.
Notuje, że podobieństwo
do zwykłego angielskiego tekstu
zauważalnie zwiększa się
z każdym etapem.
Maszyna produkuje
pozbawione znaczenia teksty,
zawierające struktury podobne do tych
występujących w angielszczyźnie.
Później Shannon definiuje
ilościową miarę informacji,
świadom faktu,
że ilość informacji w wiadomości
musi być uwzględniona
w projekcie maszyny,
która będzie generować
podobnie wyglądające ciągi.
A to prowadzi nas
do jego koncepcji entropii.

English: 
random letters to
first-order, second-order
and third-order sequences.
He then goes on and tries
the same thing using
words instead of letters, and he writes
"the resemblance to ordinary English text
"increases quite
noticeably at each depth."
Indeed, these machines were producing
meaningless text, though they contained
approximately the same
statistical structure
you'd see in actual English.
Shannon then proceeds to define
a quantitative measure of information,
as he realizes that the
amount of information
in some message must be tied up
in the design of the
machine which could be used
to generate similar-looking sequences.
Which brings us to his concept of entropy.

Czech: 
od aproximací 0. řádu, 1. řádu,
2. řádu a 3. řádu.
Poté zkusil to samé
pomocí slov místo písmen.
Napsal:
"Podobnost s běžným anglickým textem..."
...se velmi zvyšuje s každým řádem."
A opravdu, tyto stroje produkovaly
sice bezobsažný text,
ale obsahovaly podobnou
statistickou strukturu,
kterou je možno vidět v angličtině.
Shannon poté definoval
kvantitativní míru informace,
když si uvědomil,
že množství informace ve zprávě
musí souviset s návrhem stroje,
který by mohl být použit
ke generování podobných sekvencí.
To nás přivádí ke konceptu entropie.

Korean: 
일차, 이차, 삼차로 가면서
아까와 같은 진행을 보여주었습니다
그렇게 계속하고, 같은 것을
문자가 아니라 
단어를 사용해 시도했습니다
그는 이렇게 썼죠,
원본 텍스트와의 유사성은
각 단계마다 확연하게 높아진다
당연히 이 기계는 의미 없는
텍스트를 만들지만
그 텍스트는
실제 영어와 거의 똑같은
통계적 구조를 보여줍니다
섀넌은 정보의 양적 측정을
정의하고자 했습니다
그는 어떤 메시지의 정보의 양은
비슷한 나열을 만드는 기계에
기반을 두고 있어야 함을
깨달았습니다
그것은 그의 
엔트로피 개념으로 이어지죠

Ukrainian: 
випадкових літер до першого
порядку, другого і
послідовності третього порядку.
Потім він продовжує і
пристосовує цю ж логіку,
використовуючи слова 
замість літер, він пише:
"подібність звичайного тексту
англійською мовою
вельми помітно збільшується
на кожному рівні."
Дійно, ці механізми утворювали
змісту текст, в який вони включаються
приблизно в такій же
статистичній структурі,
яку можна помітити в дійсному
англійському тексті.
Шеннон переходить до визначення
кількісної міри інформації,
так як він зрозумів, що
кількість інформації
в деяких повідомленнях 
має пов'язуватися
в конструкції механізму,
що можуть бути використані
для створення схожих послідовностей.
Це приводить нас до концепції ентропії.
Переклад на українську: Олена Білан, рев’ювер Юлія Гулакова, благодійний фонд “Magneticone.org”

Romanian: 
la secvențe de ordin unu, de ordin doi
și de ordinul trei.
Continuă și încearcă același lucru folosind
cuvinte în loc de litere. El scrie:
"the resemblance to ordinary English text
"increases quite noticeably at each depth".
Într-adevăr, aceste mașini au produs
text lipsit de sens, deși acestea conțin
aproximativ aceeași structură statistică
pe care o puteți vedea în engleză.
Shannon continuă să definească
o măsură cantitativă a informației,
deoarece își dă seama că ar trebui ținut seama de
cantitatea de informație dintr-un mesaj
atunci când se proiectează mașina ce va  fi utilizată
pentru  generarea unor secvențe asemănătoare.
Ceea ce ne aduce la conceptul său de entropie.

Italian: 
da lettere scelte con modelli d'ordine 0, d'ordine 1
d'ordine 2 e d'ordine 3
Quindi continua usando parole invece di lettere
e scrive "la similitudine con un ordinario testo in inglese
aumenta in modo impressionante ad ogni livello".
Queste macchine producevano un testo senza significato
sebbene contenessero approssimativamente la medesima struttura statistica
che si trova in un testo in inglese
Shannon quindi ci dà una misura quantitativa dell'informazione
convincendosi che la quantità d'informazione in un messaggio
deve essere legata alla struttura della macchina stessa
che uno potrebbe usare per generare sequenze similari

Portuguese: 
para a segunda, para a terceira,
e quarta versões.
Então ele tenta o mesmo usando
palavras ao invés de letras, e escreve
"a semelhança para o Inglês de verdade...
...aumenta notóriamente a cada versão."
De fato, essas máquinas produzem
texto sem significado, embor contenham
aproximadamente a mesma
estrutura estatística
encontrada em textos reais.
Shannon então define
uma medida quantitativa da informação,
a medida que percebe que
o montante de informação
em algumas mensagens está associado
a complexidade do modelo capaz
de gerar sequências semelhantes.
O que nos leva ao seu
conceito de entropia.

Portuguese: 
letras aleatórias para a sequências 
de primeira ordem, segunda ordem
e terceira ordem.
Ele então prossegue e 
tenta a mesma coisa usando
palavras ao invés de letras,
e escreve: "a semelhança 
com o texto em inglês comum
"aumenta bastante em cada ordem."
De fato, essas 
máquinas foram produzindo
textos sem sentido, 
embora elas contenham
aproximadamente a 
mesma estrutura estatística
vista em inglês de verdade.
Shannon, então, 
prossegue para definir
a quantidade mensurável de informação,
assim ele percebe que a 
quantidade de informação
em uma mensagem deve estar ligada
no projeto de máquina 
que podería ser usado
para gerar sequências similares.
O que nos leva ao seu 
conceito de entropia.

Bulgarian: 
нулев порядък до поредици от първи порядък, втори порядък
и трети порядък.
След това продължава и опитва същото, като използва
думи, вместо букви, и записва, че
"приликата с обикновен текст на английски
става все по-ясна с всеки следващ порядък."
Наистина, тези машини създават
безсмислен текст, макар че съдържат
същата статистическа структура,
която виждаш в действителния английски език.
След това Шанън дефинира
количествено измерване на информацията
и разбира, че количеството информация
в някои съобщения трябва да е свързано
с устройството на машина, която може да се използва
за генериране на подобни поредици.
Което ни води до идеята за ентропията.

Italian: 
E questo ci porta al concetto di entropia.

Portuguese: 
[Legendado por: Valter Bigeli]
[Revisado por: Pablo Vieira]

Portuguese: 
[Legendado por Valter Bigeli]
[Revisado por Fred Guth]
