
Italian: 
Diciamo che vogliamo predire un output y
dati dei valori di input x
per esempio vogliamo predire lo score in un test
sapendo quante ore abbiamo dormito e quante ore abbiamo studiato la notte prima.
Per usare un approccio di Machine Learning, abbiamo bisogno di dati.
Supponiamo che per 3 test abbiamo registrato quante ore abbiamo studiato e quante ore abbiamo dormito
e lo score raggiunto nei test.
Useremo il linguaggio di programmazione Python per salvare i nostri dati in array bidimensionali Num Pi
Adesso che abbiamo dei dati, li useremo per il training di un modello
che predica il risultato del prossimo test
conoscendo solo quante ore si è dormito e quante ore si è studiato.
Questo è chiamato problema di SUPERVISED REGRESSION
Supervised: perchè il nostro esempio ha inputs e outputs ( i 3 test )
Regression: perché vogliamo predire uno score, ovvero una funzione "continua"
Se altrimenti avessimo voluto predire un voto letterale, avremmo avuto un problema di CLASSIFICATION.

Spanish: 
Digamos que quieres predecir un valor de salida "y"
teniendo un valor de entrada "x". Por ejemplo,
podrías querer predecir tu nota en un examen a partir de cuántas horas de sueño tienes y
cuántas horas pasas estudiando
la noche anterior. Para utilizar un enfoque desde el aprendizaje de máquina,
primero necesitaremos datos. Digamos que, en los tres últimos exámenes
anotaste el número de horas que estudiaste, y el número de horas durmiendo,
y tu nota en el examen. Utilizaremos el lenguaje de programación Python
para almacenar datos en un array de "numpy" dimensional. Ahora que tenemos datos
vamos a usarlos para entrenar un modelo que prediga cómo de bien lo harás
en tu siguiente examen,
basándonos en cuántas horas duermes y cuántas horas estudias. A esto se le llama
aprendizaje supervisado.
Es supervisado porque nuestros ejemplos poseen entradas
y salidas. Es un problema de regresión porque estamos prediciendo tu
nota de examen, que es
un valor de salida continuo. Si estuviésemos prediciendo tu nota mediante una letra
a esto se le llamaría un problema de clasificación y no un problema de regresión.

Ukrainian: 
Скажімо, ви хочете передбачити якесь значення 'y'
даючи певне вхідне значення 'x'. Наприклад,
можливо, ви захочете передбачити свій екзаменаційний бал на основі того,
скільки годин ви спали і скільки годин навчались минулої ночі.
Для того, щоб використати підхід машинного навчання нам, для початку,
потрібно трохи даних. Скажімо, ви занотовували
з останніх трьох тестів кількість годин навчання, кількість годин сну
та ваш результат. Ми використаємо мову програмування Python
для того, щоб зберігати інформацію в двовимірних 'numpy' масивах.
Тепер, коли ми маємо трохи даних
ми використаємо їх щоб натренувати машину для передбачення того, як добре ви напишете ваш наступний тест
на основі того, скільки годин ви спали, і скільки навчались. Це зветься
контрольована регресивна проблема.
Вона є контрольованою,  бо наш приклад має входи
та виходи. Це регресивна проблема тому, що ми передбачаємо результат вашого тесту
котрий є безперервним вихідним потоком.
Якби нам потрібно було передбачити вашу буквенну оцінку
це б називалось класифікаційною проблемою, а не регресивною.

French: 
Imaginons que vous vouliez prévoir des valeurs de sortie y
connaissant des valeurs d'entrée x. Par exemple,
vous voulez prévoir votre note à un test à partir du nombre d'heures où vous avez dormis et
et du nombre d'heures où vous avez étudié
la nuit précédente. Pour utiliser l'"apprentissage automatique" (machine learning),
nous avons d'abord besoin de données. Disons que pour les trois derniers tests,
vous avez noté combien d'heures vous avez dormis, combien d'heures vous avez étudié,
et votre note au test. Nous utiliserons le langage de programmation Python
pour stocker les données dans des tableaux à 2 dimensions (2D "numpy" arrays). Maintenant que nous avons des données,
nous allons les utiliser pour entraîner le modèle à prédire votre note
au prochain test,
en s'appuyant sur le nombre d'heures de sommeil et de révisions. On appelle cela un
problème de régression supervisée.
"supervisé" car nos exemples ont des entrées
et des sorties. C'est un "problème de régression" parce que nous prédisons votre note
au test, qui est une
sortie continue. Si nous prédisions votre note alphabétique (A, B, C, ...),
ce serait un problème de classification et non un problème de régression.

Russian: 
предположим, вы хотите узнать выходное значение y
задав значение x. Например
вы хотите узнать количество очков в тесте, основанном на том, сколько часов вы спите и
сколько часов вы учитесь
Для использования машинного обучения
сначала нужно получить данные. Предположим, что за три последних теста
вы записали сколько вы часов учились, и сколько часов вы спали
и ваши очки за тест. Давайте воспользуемся языком программирования Python
и запишем наши данные в двумерный массив(numpy). Теперь, когда у нас есть некоторые данные
мы будем использовать их для обучения модели, чтобы предсказать, на сколько ваши очки улучшатся
в следующем тесте
основанном на том сколько часов вы спали,  и сколько часов учились. Это называется
контролируемая регрессия,
а контролируемая она потому, что наши примеры имеют входные данные
и выходные данные. Это регрессия, так как мы предсказываем
счет теста,  который является
продолжением выходных данных. Если бы мы предсказывали вашу "Буквенную оценку",
то это называлось бы классификацией, а не регрессией.

Dutch: 
Stel je voor dat je een uitkomst y wilt voorspellen
gegeven een invoer waarde x. Bijvoorbeeld
misschien wil je een cijfer voor een toest voorspellen, op basis van hoeveel uur je slaapt en
hoeveel uur je studeert
de avond ervoor. Als we ​​machine learning willen gebruiken
moeten we eerst een aantal gegevens hebben. Laten we zeggen dat voor de
laatste drie tests
je het aantal uren slaap en aantal uren studie hebt opgenomen ,
en je score op de test. We zullen gebruik maken van de
programmeertaal Python
om gegevens in twee-dimensionale "np" arrays op te slaan. Nu hebben we wat data, die
we gaan om het te gebruiken om een ​​model te trainen dat voorspelt hoe goed je het zult doen
op de volgende test,
gebaseerd op hoeveel uur je slaapt en
hoeveel uur je studeert. Dit wordt een
"supervised" regressie probleem genoemd.
We noemen het "supervised" omdat onze voorbeelden invoer-
en uitvoergegevens hebben. Het is een regressie probleem
omdat we het voorspellen van de test
score, dat is een
variabel resultaat. Als wij een Amerikaanse letter systeem zouden hanteren
dan zou dit een classificatie probleem genoemd worden en niet een regressie probleem.

Lithuanian: 
Tarkime norite rasti kokią nors galinę reikšmę y
kai turite kokią nors pradinę reikšmę x. Pavyzdžiui,
galbūt norite numatyti savo testo įvertinimą pagal tai kiek valandų miegate ir
kiek valandų studijuojate
naktį prieš tai. Tam, kad naudotumėme mašininio mokymosi būdą
mums pirmiausia reikia kokių nors duomenų. Tarkime, paskutiniams trims testams
pasižymėjote kiek valandų studijavote, kiek valandų miegojote
ir kokį testo įvertinimą gavote. Mes naudosime programavimo kalbą Python
saugoti duomenis dvejų dimensijų "numpy" masyve. Dabar, kai mes turime šiek tiek duomenų
mes naudosime juos modelio treniravimui tam, kad nuspėti pasirodysite
sekančiame teste
pagrindžiant kiek valandų jūs miegate is kiek valandų jūs studijuojate. Tai yra vadinama
prižiūrima regresijos problema
Prižiūrima todėl, kad mūsų pavyzdžiai turi pradines
ir galines reikšmes. Regresijos problema todėl, kad mes numatysime jūsų testo
įvertinimą, kuris yra
tolydi galinė reikšmė. Jei mes numatytumėme jūsų raidinį įvertinimą
tai butų vadinama klasifikacijos problema, o ne regresijos problema.

Chinese: 
假设你想要预测一些输出值y
给定输入值x，例如
你或许想根据你前一天的睡眠时间与学习时间
来预测你的考试分数
使用一种机器学习的方法
我们首先需要数据。假设上三次考试
你记录了你的学习时间与睡眠时间
以及你的考试分数。我们会使用编程语言Python
在二维numpy数据里存储数据。现在我们有了数据
就准备用它训练一个模型
基于你的睡眠与学习时间
来预测你在下一次考试中的表现
这被称为监督回归问题
监督是因为我们的样例有输入和输出
回归是因为我们在预测的考试分数
你的考试分数
是一个连续输出。如果是预测评级
那就是一个分类问题而不是回归问题

German: 
Angenommen du möchtest einen Ausgabewert y
für einen gegebenen Eingabewert x vorhersagen. Zum Beispiel:
Vielleicht möchtest du deine Note in einem Test in Abhängigkeit zu den geschlafenen und
gelernten Stunden
in der Nacht zuvor vorhersagen. Für eine "machine learning"-Herangehensweise
brauchen wir zunächst einige Daten. Sagen wir, dass du für die letzten drei Tests
die geschlafenen und gelernten Stunden,
sowie die Note aufgeschrieben hast. Wir verwenden die Programmiersprache "Python"
um die Daten in einem zwei-dimensionalen "numpy"-Array zu speichern. Jetzt wo wir einige Daten haben,
werden wir das Programm trainieren, Vorhersagen über
den nächsten Test zu machen,
auf Grundlage der geschlafenen und gelernten Stunden. Dies nennt man
ein "supervised regression" Problem.
Es ist supervised/kontrolliert, weil unsere Beispiele Eingabe
und Ausgabe haben. Es ist ein regression Problem, weil wir deine Punkte im Test
vorhersagen, was eine
konstante Ausgabe ist. Wenn wir deine Note vorhersagen würden,
wäre es ein 
Klassifikationsproblem, und kein  regression Problem.

Polish: 
Powiedzmy, że chcesz przewidzieć pewną wartość wyjściową y
dając pewną wartość wejściową x. Na przykład
chcesz przewidzieć swój wynik na sprawdzianie, bazując na ilości godzin jakie poświęciłeś/aś na sen i
na naukę
ostatniej nocy. By wykorzystać do tego uczącą się maszynę
wpierw potrzebujemy jakiś danych. Powiedzmy, że dla ostatnich trzech testów
zapisałeś/aś ilość godzin, które poświęciłeś/aś na naukę i sen
oraz twój wynik na każdym z testów. Wykorzystamy język komputerowy Python,
by przechować dane w dwuwymiarowej tablicy "numpy". Teraz, gdy mamy już jakieś dane
wykorzystamy to, by wytrenować nasz model do przewidywania jak dobrze Ci pójdzie
na następnym teście,
bazując na tym, jak dużo godzin poświęcasz na sen i naukę. Nazywamy to
supervised regression problem (nadzorowany problem regresji).
Jest nadzorowany/kontrolowany, gdyż nasze przykłady mają wejścia
i wyjścia. Jest to regression problem (problem regresji), ponieważ przewidujemy twój wynik
na teście, który jest
naszym wyjściem. Jeśli, przewidywalibyśmy twoją ocene jako literę
nazywalibyśmy to problemem klasyfikacji (classification problem), a nie problemem regresji (regression problem).

Turkish: 
Diyelim ki verilen bir x değeri için
sonucu y olan bir değeri tahmin etmeye çalışalım.  Mesela,
önceki gece ne kadar saat uyuduğunuza ve ne kadar saat çalıştığınıza bağlı olarak bir testten
kaç puan alacağınızı tahmin etmek istiyorsunuz.
Yapay zeka ile öğrenmeyi kullanmak için
öncellikle bazı verilere ihtiyacımız var. Diyelim ki son üç sınavınızda
kaç saat uyuduğunuzu, çalıştığınızı ve sonucunda aldığınız puanı kaydettiniz.
İki boyutlu numpy bir dizisini (array) depolamak için
Python adlı bilgisayar programlama dilini kullanacağız.
Elimizde bir miktar veri olduğuna göre, bu verileri kullanarak modelimizi bir sonraki sınavınızda ne kadar saat çalıştığınızı
ve ne kadar saat uyuduğunuzu değerlendirerek ne kadar başarılı olacağınızı tahmin etmek için eğiteceğiz.
Bu işleme denetimli regresyon problemi deniyor.
Denetimli diyoruz çünkü örneklerimizin girdileri ve çıktıları belli.
Regresyon problemi olması da sınavınızda alacağınız
sürekli bir çıktısı olan puanı tahmin etmeye çalışıyoruz
Eğer alacağınız harf notunu tahmin etmeye çalışıyor olsaydık
o zaman problemimizin adı sınıflandırma problemi olurdu.

English: 
let's say you want to predict some
output value y
given some input value x. For example
maybe you want to predict your score on test
based on how many hours you sleep and
how many hours you study
the night before. To use a machine
learning approach
we first need some data. Let's say for the
last three tests
you recorded your number of hours studying, you number of hours sleeping,
and your score on the test. We'll use the
programming language Python
to store data in two-dimensional "numpy"
arrays. Now that we have some data
we're going to use it to train a model to
predict how well you'll do
on your next test,
based on how many hours you sleep and
how many hours you study. This is called a
supervised regression problem.
It's supervised because our examples
have inputs
and outputs. It's a regression problem
because we're predicting your test
score, which is a
continuous output. If, we
were predicting your letter grade
this would be called a classification
problem and not a regression problem.

Indonesian: 
Anggaplah anda ingin memprediksi nilai "output" y
apabila diberikan nilai "input" x. Sebagai contoh
mungkin anda ingin memprediksi nilai tes anda berdasarkan berapa lama jam tidur dan
jam belajar anda
sehari sebelum tes. Untuk menggunakan pendekatan pembelajaran mesin
pertama-tama, kita butuh beberapa data. Anggaplah selama 3 tes terakhir
anda mencatat berapa jam tidur dan jam belajar anda
dan nilai tes anda. Kita akan menggunakan bahasa pemograman Python
untuk menyimpan data kedalam sebuah susunan dengan numpy. Sekarang kita sudah memiliki datanya,
kita akan menggunanakannya untuk melatih sebuah "model" untuk memprediksi seberapa bagus nilai anda
pada tes selanjutnya,
berdasarkan berapa jam tidur dan jam belajar anda. Metode ini disebut dengan
masalah "Supervised regression".
Disebut "supervised" karena contoh yang kita miliki adalah data input
dan output. Disebut pula "regression" karena kita memprediksi nilai
tes anda, yang merupakan
output yang bersifat kontinyu. Jika kita memprediksi indeks prestasi anda
hal ini akan disebut masalah "classification" dan bukan masalah "regression".

Chinese: 
當你想要 預測一些「輸出值y」
藉由給予一些「輸入值x」
例如 你想知道 考試會考幾分
根據考前 花了多少時間 睡覺和唸書
例如 你想知道 考試會考幾分
根據考前 花了多少時間 睡覺和唸書
藉由 機器學習的方法 來預測分數
我們首先需要一些數據
假設 在過去的三個考試中
你紀錄了
 學習 和 睡覺 的時間
和你考試的分數
我們將使用 Python的程式
存取成 兩維的數據陣列
現在我們有一些數據
我們將用它來訓練模型
用來預測 你下個考試 會考得多好
我們將用它來訓練模型
用來預測 你下個考試 會考得多好
根據你睡多少小時 以及 你花多少時間學習
這就是所謂的
" 監督回歸問題 "
" 監督 "  是因為
 我們有「輸入值x」和「輸出值y」
而它是" 回歸問題 "
是因為我們 預測你的分數 這是一個 連續輸出
而它是" 回歸問題 "
是因為我們 預測你的分數 這是一個 連續輸出
要是我們預測 你的等第
這將被稱為一個分類問題
而不是一個回歸問題

iw: 
בוא נגיד שאתה רוצה לחזות פלט כלשהוא y
בהינתן קלט כלשהוא x, לדוגמא
אולי את רוצה לחזות את הציון שלך על המבחן לפי כמה שעות את ישן ו -
כמה שעות אתה לומד
בלילה שלפני. כדי להשתמש בגישת למידת מכונות
אנחנו צריכים דבר ראשון כמה מידע. בוא נגיד שלשלושת המבחנים האחרונים
אתה הקלטת את מספר השעות שלמדת, מספר השעות שישנת
ואת הציון שלך במבחן, נשתמש בשפת התכנות פייתון
כדי לאחסן את המידע כמערך דו מימדי של "numpy". כעת אנחנו צריכים כמה מידע
אנחנו הולכים להשתמש בזה כדי לאמן מודל שיחזה כמה טוב תעשה
במבחן הבא שלך
לפי כמה שעות אתה יושן ולפי כמה שעות אתה לומד. זה נקרא
בעיית נסיגה מפוקחת (supervised regression problem)
זה מפוקח מפני שלדוגמא שלנו יש קלטים
ופלטים. זה בעיית נסיגה מפני שאנחנו חוזים את
תוצאות המבחן שלך, שזה
פלט רציף. אם, אנחנו חוזים את ציון האות שלך (מצויין, טוב מאוד כמעט טוב מאוד, טוב וכו...)
זה יקרא בעיית סיווג ולא בעיית נסיגה

Hungarian: 
Tegyük fel, hogy meg akarjuk becsülni
y  értékét
valamilyen x bemeneti értéknél.
Például: meg akarod becsülni  a pontszámodat a teszten
annak alapján, hogy hány órát  alszol
és hány órát tanulsz előtte éjszaka.
A gépi tanulás használatához
először szükségünk van néhány adatra.
Tegyük fel , hogy az az utolsó három tesztnél
feljegyezted a tanuló órák számát, az alvó órák számát,és a teszteredményt.
Használni fogjuk a Python programozási nyelvet az adatok tárolására a kétdimenziós "numpy" tömbben.
Most, hogy van néhány adatunk, 
használni fogjuk őket
egy modell képzéséhez,  előrejelezni, hogy  mennyire jó leszel a következő teszten -
 
attól függően, hogy hány órát alszol és
hány órát tanulsz.
Ezt nevezik felügyelt regressziós problémának.
Azért "felügyelt", mert a példában
vannak bemeneti, de meg  vannak adva a kimeneti függvény értékek is.
Ez egy regressziós probléma,  mert előrejelezzük a teszt pontszámot
amelyik folyamatos kiszámított kimeneti érték
Ha  megjósolnánk tanulmányi fokozatodat (letter grade)
ezt nevezhetnénk osztályozási 
problémának, de nem regressziós problémának.

Korean: 
어떤 출력 값 y 를 예측하고 싶다고 하자.
주어진 입력값 x 에 대해서 말이다. 예를 들어,
어쩌면 당신은 시험에 점수를 예측하려고 한다. 전날 밤에 잠을 몇시간 잤는지와
몇 시간 공부했는지를 기반으로 말이다.
기계학습의 접근법을 위해선,
우리는 먼저 어떤 데이터가 필요하다. 지난 세번의 테스트에 대해서
당신은 수면 시간과 공부 시간
그리고 시험결과를 기록했다고 하자. 우리는 파이썬 언어를 사용해서
이차원 "NumPy" 배열에 데이터를 저장하도록 할 것이고. 이제 데이터가 있으니
우리는 이것으로 다음 시험에서 어떤 결과가 나올지 예측하는 모델을
훈련시킬 것이다.
수면시간과 학습시간이 주어졌을 때 말이다. 이것을
교사 회귀(supervised regression) 문제라고 부른다.
교사(supervised)란 우리의 예제의 데이터가 입력과 출력 모두
있다는 뜻이고. 회귀란 예측하는 테스트 결과
인 점수가
연속적인 값이란 뜻이다. A~F 학점을 예측한다면
회귀가 아닌 분류(classification) 문제라고 했을 것이다.

Portuguese: 
Digamos que você quer prever alguns
valor de saída y
dado algum valor de entrada x. Por exemplo
talvez você queira prever a sua pontuação em uma prova
baseado em quantas horas você dorme e
em quantas horas você estuda
na noite anterior. Para usar uma abordagem de aprendizado de máquina
primeiro precisamos de alguns dados. Vamos supor que nas últimas três provas
você registrou seu número de horas estudando, seu número de horas dormindo
e sua pontuação na prova. Nós vamos usar a linguagem de programação Python
para armazenar os dados em matrizes "NumPy" bidimensionais. Agora que temos alguns dados,
vamos usá-los para treinar um modelo para prever o quão bem você irá
em sua próxima prova,
baseado em quantas horas você dorme e
em quantas horas você estuda. Isto é chamado um
problema de regressão supervisionado.
É supervisionado porque nossos exemplos tem entradas
e saídas. É um problema de regressão
porque estamos prevendo a pontuação
da sua prova, que é uma
saída contínua. Se nós
estivéssemos prevendo sua menção,
isto seria chamado um problema de  classificação e não um problema de regressão.

Turkish: 
Yapay zeka ile öğrenmede çok sayıda model bulunmaktadır
burada biz yapay nöral ağ adlı özellikle ilginç bir modeli kullanacağız
yapay nöral ağ modeli dolaylı olarak beyninizdeki
nöronlarla alakalı
ve son zamanlarda zor ve karışık problemlerin
çözülmesinde epey başarılı oldu.
Verilerimizi modele yollamadan önce birim farklılıklarına
dikkat etmeliyiz.
İki girdimiz de saat cinsinden
fakat çıktımız 0 ile 100 arasında bir sınav puanı.
Nöral ağlar zekidir, fakat verilerimizin birimlerini tahmin edecek kadar değil.
Bu durum bir çok öğrenme modelinin elma ile elmayı karşılaştırmayı tercih ederken
bizim elma ile armutları karşılaştırmamız gibi olurdu.
Çözüm, verilerimizi oranlamaktır. Bu sayede modelimiz sadece ortak bir birimle uğraşır.
Burada bütün verilerimizin pozitif olmasından faydalanarak
her değişkeni, o değişkenin maksimum değerine bölüyoruz,
bu sayede 0 ve 1 arasında bir değer elde ediyoruz.

Polish: 
Istnieje przytłaczająco dużo modeli samouczących się maszyn,
ale my będziemy używać szczególnie interesującej -
sztucznej sieci neuronowej. Jest ona wzorowana na tym,
jak działają neurony w twoim mózgu
i ostatnimi czasy zaczęła być szczególnie dobra w rozwiązywaniu naprawdę dużych
i ciężkich problemów.
Zanim wrzucimy do naszego modelu dane, najpierw musimy wytłumaczyć różnice w
jednostkach naszych danych.
Oba z naszych wejść to liczby godzin, ale nasze
wyjście to wyniki testów z zakresu od 0 do 100.
Sieci neuronowe są inteligętne, ale nie na tyle by zgadnąć jednostki naszych danych.
To trochę jak poprosić nasz model, by porównał jabłka do pomarańczy,
gdy większość samouczących się modeli tak naprawdę chcę porównywać jabłka do jabłek.
Rozwiązaniem jest przeskalowanie naszych danych, tak więc nasz model będzie widział jedynie ujednolicone jednostki.
Tutaj przypomina nam się, że przecież wszystkie nasze liczby są dodatnie.
i zwykłe dzielenie ich przez maksymalną wartość
faktycznie przeskaluje je pomiędzy 0 i 1.

French: 
Il y a un très grand nombre de modèles pour l'apprentissage automatique.
Ici, nous allons en utiliser un qui est particulièrement intéressant
et qu'on appelle le "réseau de neurones artificiels". Il est inspiré
du fonctionnement des neurones dans le cerveau
et a récemment permis de résoudre des problèmes
de grande taille et très difficiles.
Avant d'envoyer nos données dans le modèle, nous devons prendre en compte les différences
d'unités entre nos données.
Nos 2 entrées sont en heures, mais notre
sortie est une note de test, comprise en 0 et 100.
Les réseaux de neurones sont intelligents, mais pas assez pour deviner les unités de nos données.
C'est un peu comme demander à notre modèle de comparer des pommes à des oranges
alors que la plupart des modèles d'apprentissage veulent comparer des pomme à des pommes.
La solution est de mettre à l'échelle nos données, pour que le modèle ne voie que des unités homogènes.
Ici, nous allons profiter du fait que nos données sont positives
et simplement diviser par la valeur maximale pour chaque variable.
Le résultat est alors compris entre 0 et 1.

Spanish: 
Hay un sobrecogedor número de modelos dentro del aprendizaje máquina
aquí usaremos uno muy particular e interesante,
llamado "red neuronal artificial". Este modelo está basado en cómo
nuestras neuronas funcionan en nuestro cerebro
y ha sido particularmente exitoso recientemente resolviendo
problemas enormes y complicados.
Antes de que introduzcamos nuestros datos en el modelo, debemos tener en cuenta las diferencias en
las unidades de nuestros datos.
Ambos valores de entrada están en horas, pero nuestro
valor de salida es una nota de examen,  cuyos valores se extienden entre el 0 y el 100.
Las redes neuronales son inteligentes, pero no lo suficiente como para adivinar en qué unidades están nuestros datos.
Es como si le preguntásemos a nuestro modelo que comparase entre manzanas y naranjas,
mientras que la mayoría de modelos de aprendizaje sólo quieren comparar manzanas con manzanas.
La solución consiste en escalar nuestros datos, de modo que el modelo sólo vea unidades estándar.
Aquí vamos a tomar la ventaja del hecho que todos nuestros datos son positivos
y simplemente dividiremos por el máximo valor en cada variable
escalando efectivamente un resultado entre el 0 y el 1.

Hungarian: 
A gépi tanulás modelljeinek sokaságából
itt egy különösen érdekeset fogunk használni,
amit  mesterséges neurális hálózatnak neveznek,  működése hasonló ahhoz,
ahogyan az idegsejtek az agyban is működnek,
ezek a módszerek különösen sikeresek voltak
mostanában  nagyon nagy
és  nehéz problémák megoldásában.
Mielőtt adatainkat a modellbe raknánk,  meg kell adni a
a mértékegységeket.
Mindkét bemenetünk 'órá'-ban van megadva,
a kimeneti teszteredmény pedig  0 és 100 közötti értéket vehet fel.
A neurális hálózatok okosak, de nem elég okosak ahhoz, hogy kitalálják az adataink mértékegységeit.
Olyan, mintha megkérnénk a modellt
hasonlítsa össze az almát a naranccsal,
noha a legtöbb tanuló modell valójában csak az almát az almával tudja összehasonlítani.
A megoldás az adatok arányosítása, így modellünk csak szabványos egységeket fog látni.
Itt ki fogjuk használni az a tényt , hogy minden adatunk pozitív
és ha egyszerűen elosztjuk  a maximális értékkel a változókat,
akkor eredményül 0 és 1 között skálázott adatokat kapunk.

Italian: 
Ci sono una moltitudine di modelli in Machine Learning,
ora ne useremo uno particolarmente interessante chiamato ARTIFICIAL NEURAL NETWORK.
Questi modelli prendono ispirazione dal funzionamento dei neuroni nel cervello
ed hanno avuto particolare successo recentemente
nella risoluzione di problemi molto complessi.
Prima di immettere i dati nel nostro modello
dobbiamo verificare le differenze nelle unità dei nostri dati
entrambi i nostri inputs sono ore
ma l'output è uno score, da 0 a 100
le NN sono intelligenti ma non abbastanza da indovinare la scala delle unità dei nostri dati,
sarebbe come chiedere al modello di comparare
mele ad arancie
ma la maggior parte dei modelli compara mele con mele.
La soluzione è scalare i dati, così che un modello veda solo unità standardizzate
in questo caso ci avvantaggia il fatto che i nostri dati sono positivi
e semplicemente divideremo per il massimo valore di ogni variabile
così che i nostri valori siano sempre compresi fra 0 e 1,
ora possiamo costruire la nostra NN

Chinese: 
機器學習裡 有無數種模型
在這裡我們要使用一個
特別有趣的
稱為「人工神經網絡」  
這傢伙是以 模擬大腦神經元運作 作為基礎
稱為「人工神經網絡」  
這傢伙是以 模擬大腦神經元運作 作為基礎
最近 成功地解決了
一些 相當巨大且相當困難 的問題
最近 成功地解決了
一些 相當巨大且相當困難 的問題
在我們把數據放到模型之前
我們需要考慮一些差異
關於數據的單位
我們的二維「輸入值x」其單位為 " 小時 "
而「輸出值y」為0-100的 " 分數 "
我們的二維「輸入值x」其單位為 " 時間 "
而「輸出值y」為0-100的 " 分數 "
「人工神經網絡」雖然聰明 
但卻不夠聰明
足以猜測我們的數據的單位
這有點像要求模型
對蘋果和橘子做比較
但大多數學習模型
真的在意的是 蘋果和蘋果 的比較
解決的辦法是 處理我們的數據
讓模型使用 標準單位
在這裡 我們要充分利用
我們所有的數據為正的事實
並簡單地 
將最大值 除以 每個變量
有效地將數據處理成
0和1的結果

Chinese: 
机器学习中有大量的模型
这里我们将用特别有趣的一个
叫做人工神经网络。它以你大脑里的
神经元如何工作为基础
最近在解决大而难的问题上
非常成功
在我们把数据放进模型中之前，我们需要考虑
数据单位间的差异
我们的两个输入都是小时
但输出是区间为0~100的考试分数
神经网络是聪明的，但不够聪明去猜到数据单位
这有点像要求我们的模型去比较苹果和橙子
然而大多数学习模型只想比较苹果和苹果
解决办法是缩放数据，这样模型就只会看到标准单位
这里我们利用数据是正数
且可被每个变量的最大值所除的优点
高效地缩放结果至0~1的区间

Russian: 
Есть большое число моделей в машинном обучении,
мы будем использовать самую интересную
Искусственную нейронную сеть.Эта модель основана на том же принципе, на котором
работают нейроны в вашем мозге
Эта модель была особенно успешна в последнее время, для решения больших
и сложных задач
прежде чем перенести наши данные в модель, мы должны учесть различия
в наших данных.
Наши входные данные измеряются в часах, но наши
выходные данные являются оценкой и,  изменяются от 0 до 100
Нейронные сети умные, но не достаточно, чтобы угадать единицы наших данных.
Это равносильно тому, что мы спросим у нашей модели сравнить яблоки с апельсинами
когда большинство моделей хотят сравнивать яблоки с яблоками.
Решение состоит в том, чтобы масштабировать наши данные, таким образом, наша модель будет видеть только стандартизованные единицы.
Воспользуемся тем фактом, что все наши данные положительные
и просто разделим на макс. значение для каждой переменной
эффективное масштабирование результата от 0 до 1

Ukrainian: 
Існує неймовірна кількість моделей  машинного навчання.
В цій серії ми використаємо одну конкретну та цікаву модель,
що зветься штучною нейронною мережею. Ця штука базується на тому,
як працюють нейрони в вашому мозку
і мала великий успіх в розв'язуванні реально великих
та реально складних проблем.
Перед вкидуванням даних в цю модель ми повинні врахувати різницю
в одиницях виміру даних.
Обидва наші входи рахуються годинами, але
наш вихід є балом за тест в межах від 0 до 100.
Нейронні мережі розумні, але не достатньо для того, щоб вгадувати одиниці виміру даних
Це як просити модель порівняти яблука та апельсини.
Тоді, коли більшість моделей можуть порівнювати лише яблука з яблуками.
Рішенням є приведення типу наших даних, таким чином, щоб наша модель бачила лише стандартизовані одиниці.
Тут ми розглянемо факт того, що всі наші дані додатні
і просто поділимо на найбільше значення для кожної змінної
ефективно масштабуючи наші дані в межах від 0 до 1.

Portuguese: 
Há um número esmagador de
modelos dentro de aprendizado de máquina.
Aqui nós usaremos um particularmente
interessante
chamado redes neurais artificiais.
Esses caras são vagamente baseados em como os
neurônios em seu cérebro trabalham
e foram particularmente bem sucedidos
recentemente em resolver problemas realmente grandes
e realmente difíceis.
Antes de lançar nossos dados no modelo, precisamos considerar as diferenças
nas unidades de nossos dados.
Ambas os nossos entradas estão em horas, mas a nossa
saída é uma pontuação de uma prova, em uma escala entre 0 e 100.
As redes neurais são inteligentes, mas não inteligentes o suficiente para adivinhar as unidades de nossos dados.
É meio como pedir ao nosso modelo para
comparar maçãs com laranjas
quando a maioria dos modelos de aprendizagem só querer comparar maçãs com maçãs.
A solução é dimensionar os nossos dados, assim
nosso modelo verá apenas unidades padronizadas.
Aqui nós iremos nos aproveitar
do fato de que todos os nossos dados são positivos
e simplesmente dividir pelo valor máximo
de cada variável,
o que na prática dimensiona o resultado entre 0 e 1.

Korean: 
기계학습 안에는 수많은 모델이 있지만
여기서 우리가 사용할 방법은
인공 신경망(ann)이라고 부르는 것이고, 대략적으로
뇌 속의 뉴런의 동작에 기반하며
근래들어 특히 성공적으로 커다랗고
어려운 문제를 해결해 냈다.
우리가 데이터를 모델에 집어넣기 전에, 우리 데이터들의 단위의 차이에
주목해야 한다.
우리의 입력 모두 시간 단위의 값이다. 하지만,
출력인 시험 점수는 0과 100 사이의 값이다.
신경망이 똑똑하기는 하지만,
데이타의 단위까지 알아서 해주지는 못한다.
이것은 마치 우리 모델에게 사과와 오렌지를 비교하라는 것과 같은 일이다.
대부분의 학습 모델은  사과끼리만
비교할 수 있을 뿐이다.
이 문제의 해법은 데이터값을 변환하여, 우리 모델이 오직 표준화된 단위만 다루도록 하는 것이다.
여기서 우리는 데이터가 양수만 있다는 사실을 이용할 것이다.
각 변수를 간단히 최대값으로 나누어
효과적으로 0과 1 사이의 결과값으로 스케일할 것이다.

English: 
There are an overwhelming number of
models within machine learning
here we're going to use a particularly
interesting one
called an artificial neural network
these guys are loosely based on how the
neurons in your brain work
and had been particularly successful
recently at solving really big
and really hard problems
before we throw our data into the model we need to account for the differences in
the units of our data.
Both of our inputs are on hours, but our
output is a test score, scaled between 0
and 100.
Neural networks are smart, but not smart
enough to guess the units of our data.
It's kinda like asking our model to
compare apples to oranges
when most learning models really only
want to compare apples to apples.
The solution is to scale our data, thus
our model will only see standardized units.
Here we're going to take advantage of
the fact that all our data is positive
and simply divide by the maximum value
for each variable
effectively scaling a result between 0 and 1.

iw: 
יש כמות מדהימה של מודלים בתוך למידת מכונות
אנחנו הולכים להשתמש באחד מעניין במיוחד
הנקרא רשת בינה עצבית, אלו מבוססים בערך על איך
העצבים עובדים במוח שלך
והיו מצליחים במיוחד לאחרונה בלפתור
בעיות מאוד גדולות וקשות
לפני שנזרוק את המידע שלנו לתוך המודל אנחנו צריכים לקחת בחשבון את ההבדלים
ביחידות של המידע שלנו
שני הקלטים שלנו הם בשעות, אבל
הפלט שלנו זה ציון בחינה, בין 0 ל- 100
רשתות עצביות הן חכמות, אבל לא חכמות מספיק כדי לנחש את היחידות של המידע שלנו
זה די כמו לשאול את המודל שלנו להשוות בין תפוחים לתפוזים
כאשר רוב המודלים ללמידה ממש רוצים להשוות תפוחים לתפוחים
הפתרון זה לסקל את המידע שלנו, בכך המודל יראה רק יחידות סטנדרטיות
כאן אנחנו הולכים לקחת יתרון מהעובדה שכל המידע שלנו הוא חיובי
ופשוט לחלק בערך המקסימלי של כל משתנה
בכך המשתנה יהיה בין 0 ל-1

Lithuanian: 
Mašinininis mokymasis turi didžiulį modelių skaičių
čia, mes naudosime ypatingai įdomų modelį
vadinamą dirbtiniu neuronų tinklu, kurie yra laisvai pagrįsti tuo kaip
neuronai veikia jūsų smegenyse
tai buvo ypatingai sėkminga neseniai sprendžiant labai dideles
ir labai sudėtingas problemas
prieš įmetant mūsų duomenis į modelį, mes turime  atsižvelgti į
mūsų duomenų vienetus
Abu mūsų pradiniai duomenys yra valandos, bet mūsų
galiniai duomenys yra testo įvertinimas, atvaizduotas tarp 0 ir 100.
Neuronų tinklai yra protingi, tačiau nepakankamai protingi tam, kad atspėtų mūsų duomenų vienetus.
Tai panašu į prašymą, kad mūsų modelis palygintų obuolius su apelsinais
tuo tarpu dauguma mokymosi modelių tikrai tiktai nori lyginti obuolius su obuoliais.
Atsakymas yra atvaizduoti mūsų duomenis, tokiu būdu mūsų modelis matys tik standartizuotus vienetus.
Čia, mes pasinaudosime fakto, kad visi mūsų duomenys yra teigiami pranašumu
ir paprasčiausiai padalinsime iš kiekvieno kintamojo didžiausios reikšmės
iš esmės atvaizduodami rezultatą tarp 0 ir 1.

Indonesian: 
Ada banyak sekali model pembelajaran mesin,
disini kita hanya akan menggunakan yang lebih menarik
yang disebut "Sistem syaraf buatan" yang berdasarkan pada
cara kerja neuron didalam otak anda
dan telah berhasil dalam menyelesaikan permasalahan berskala besar
dan dengan tingkat kesulitan tinggi.
Sebelum memasukkan data  kedalam model, kita perlu memperhatikan perbedaan
satuan didalam data kita.
Kedua input kita memiliki satuan jam, tapi
output kita adalah nilai tes yang memiliki nilai dari 0 sampai 100.
"Jaringan neuron" ini cukup pintar, tapi tidak cukup pintar dalam menebak satuan data kita.
Ini seperti meminta model kita untuk membandingkan apel dengan jeruk
tapi kebanyakan model pembelajaran hanya mau membandingkan apel dengan apel.
Solusinya adalah dengan memberikan skala pada data kita, jadi model kita hanya akan melihat satuan standarnya.
Disini kita akan menggunakan fakta bahwa semua data kita bernilai positif
dan membaginya dengan nilai maksimum untuk setiap variabel
yang secara efektif memberikan skala dari 0 sampai 1 kepada datanya.

German: 
Es gibt eine überwältigende Anzahl von Modellen im "machine learning",
in diesem Fall benutzen wir ein besonders spanendes,
namens "Künstliches Neurales Netzwerk". Sie Funktionieren ähnlich
wie die Neuronen in deinem Gehirn,
und sie sind besonders gut darin, große
und sehr komplizierte Probleme zu lösen.
Bevor wir unsere Daten in dem Modell benutzen können, müssen wir die Unterschiede
der Einheiten anpassen.
Unsere beiden Eingaben sind Stunden, aber unsere
Ausgabe ist ein Test-Punktestand, zwischen 0 und 100.
Neuronale Netzwerke sind schlau, aber nicht schlau genug um die Einheit unserer Daten zu erraten.
Es ist, als ob wir unser Modell dazu benutzen, Äpfel mit Orangen zu vergleichen,
obwohl lernende Netzwerke lieber Äpfel mit Äpfeln vergleich.
Die Lösung ist die Daten anzupassen, damit unser Modell nur Standardisierte Einheiten sieht.
Wir machen uns zum Vorteil, dass alle unsere Daten positiv sind,
und teilen jeweils durch den maximalen Wert für jede Variable.
Die Anpassung liefert Ergebnisse zwischen 0 und 1.

Dutch: 
Er zijn een overweldigend aantal
modellen binnen machine learning
Hier gaan we een bijzonder interessante gebruiken,
namelijk; een kunstmatig neuraal netwerk,
dit is losjes gebaseerd op de manier waarop de
neuronen in je hersenen werken
en is recent vooral succesvol geweest
 in het oplossen van heel grote
en echt moeilijke problemen
voordat we onze data in het model stoppen, moeten we rekening houden met de verschillen in
de eenheden van onze data.
Onze beide invoergegevens zijn uren, maar onze
uitvoer wordt een test score, geschaald tussen 0 en 100.
Neurale netwerken zijn slim, maar niet slim
genoeg om de eenheden van onze data te raden.
Voor ons model is het een beetje hetzelfde als appels met peren vergelijken
, de meeste leermodellen willen alleen
appels met appels vergelijken.
De oplossing is om onze gegevens te schalen, waardoor
ons model alleen gestandaardiseerde eenheden zal zien.
Hier gaan we  profiteren van
het feit dat alle data positief is
en door eenvoudig te delen door de maximumwaarde
voor elke variabele
kunnen we effectief schalen tussen 0 en 1.

iw: 
כעת אנחנו יכולים  לבנות את הרשת העצבית. אנחנו יודעים שהרשת צריכה להיות בעלת שתי קלטים
ופלט יחיד בגלל שאלו המימדים של המידע שלנו
אנחנו נקרא לפלט שלנו y כובע, מפני שזה הערכה של y
אבל לא אותו דבר כ-y. כל שכבה בין הקלט שלנו והפלט שלנו נקראת
שכבה נסתרת
לאחרונה חוקרים בנו רשתות עם כמות עצומה של שכבות נסתרות
אלו ידועות בתור רשתות אמונה עמוקה, המעלות את המושג למידה עמוקה
כאן אנחנו נשתמש בשכבה נסתרת אחת עם שלוש יחידות נסתרות
אבל אם אנחנו רוצים לבנות רשת עמוקה אנחנו פשוט נערום כמה
שכבות כאלו ביחד
ברשת עצבית, עיגולים מסמנים עצבים
וקווים מסמנים סינפסות
לסינפסות יש עבודה פשוטה מאוד, הן לוקחות ערך מהקלט שלהן, מכפילות אותו
במשקל מסויים
ופולטות את התוצאה. עצבים הם טיפה יותר מסובכים
העבודה שלהם זה להוסיף את הקלטים שך הסינפסות האחרות
ולהפעיל פונקציה מפעילה. סוגי פונקציות מפעילות מסויימות מאפשרות
רשתות עצביות למדל

Russian: 
Теперь мы можем строить нашу нейронную сеть. Мы знаем, что наша сеть должна иметь два входа
и один выход, потому как они являются значениями наших данных
Назовём наше выходное значение - слой Y, потому что оценка от Y,
не тоже самое что Y. Любой слой между слоями выхода и входа называется
скрытым слоем
недавно исследователи построили сети с большим количеством скрытых слоев
они известны как глубинные сети, приводящих к термину глубинного обучения
мы собираемся использовать один скрытый слой и три скрытых значения
но если мы хотим построить глубинную нейронную сеть, мы просто складываем
слои вместе.
В графическом представлении, круги это нейроны,
а линии это синапсы
Синапсы имеют очень простую работу, они берут входное значение, умножают
на удельный вес
и выводят результат. Нейроны немного сложнее
их работа состоит в том, чтобы сложить выводы из других синапсов
и применить функцию активации. Некоторые функции активации позволяют
нейросети создавать

Lithuanian: 
Dabar, mes galime sukurti savo neuronų tinklą. Mes žinome, kad mūsų tinklas turi turėti dvi pradines reikšmes,
ir vieną galinę reikšmę todėl, kad tokios yra mūsų duomenų dimensijos.
Savo galinį sluoksnį vadinsime y varnele, nes tai yra apytikriai apskaičiuota y,
o ne tas pats kaip y.  Kiekvienas sluoksnis tarp mūsų pradinio ir galinio sluoksnio yra vadinamas
paslėptu sluoksniu
neseniai tyrinėtojai sukūrė tinklus su daug daug daug paslėptų sluoksnių
jie yra žinomi kaip gilaus tikėjimo tinklai, iš čia kilo terminas gilus mokymasis
čia naudosime vieną paslėptą sluoksnį su trimis paslėptais vienetais
bet jei norėtumėme sukurti gilų neuronų tinklą, mes sukrautumėme krūvą šitų
sluoksnių kartu.
Neuronų tinklų vaizdavime, apskritimai reprezentuoja neuronus,
o linijos reprezentuoja sinapses
Sinapsės turi labai paprastą paskirtį - jos paima vertę iš jų įvesties duomenų, padaugina ją iš
tam tikro svorio
ir išveda rezultatą. Neuronai yra šiek tiek sudėtingesni
jų paskirtis yra sudėti išvestis iš kitų sinapsių
ir pritaikyti aktyvacijos funkciją. Tan tikros aktivacijos funkcijos leidžia neuronų
tinklams modeliuoti sudėtingus

French: 
Nous pouvons maintenant construire notre réseau de neurones. Nous savons qu'il doit avoir 2 entrées
et une sortie car ce sont les dimensions de nos données.
Nous appelons notre couche de sortie "y chapeau", car c'est une estimation de y,
mais pas la vraie valeur de y. Toute couche entre l'entrée et la sortie est appelée une
"couche cachée".
Récemment, les chercheurs ont construit des réseaux avec de très nombreuses couches cachées.
Ce sont les "réseaux de croyance profonde" (deep belief networks) d'où le terme "apprentissage profond" (deep learning).
Ici, nous allons utiliser une couche cachée avec 3 unités cachées
mais si nous voulions construire un réseau de neurones profond, nous ne ferions qu'empiler plusieurs de ces
couches.
Dans la représentation des réseaux de neurones, les cercles sont les neurones
et les lignes sont les synapses.
Les synapses ont un travail très simple : elle prennent une valeur de leurs entrées, la multiplient par un
poids spécifique
et renvoient le résultat. Les neurones sont un peu plus compliqués.
Leur travail consiste à additionner les sorties de toutes leurs synapses
et à leur appliquer une fonction d'activation. Certaines fonctions d'activation permettent aux réseaux
de neurones de modéliser des comportements

Hungarian: 
Most már építhetjük a neurális hálónkat. Tudjuk
hálózatunknak két bemenettel kell rendelkeznie,
és egy kimenettel,  az adatainkhoz igazodva.
A kimeneti Y réteget egy 'kalap' jellel jelöljük, tudatva, hogy  y értéke csak egy becslés
de nem pontosan  y.  Bármilyen réteget a bemeneti és a kimeneti rétegek között
rejtett rétegnek nevezünk.
Mostanában  a kutatók a neurális hálózatokat  sok-sok rejtett réteggel építik fel
ezeknek mély-rétegeknek (deep belief) az elhelyezkedése szülte a "mély tanulás" (deep learning) kifejezést.
Most egy rejtett réteget fogunk használni három rejtett egységgel,
de ha egy igazán mély neurális hálót akarunk építeni,
akkor egy csomót egymásra rakhatunk  ezekből a rétegekből.
A neurális  háló képeken a körök képviselik a neuronokat.
és a vonalak a sejtek közötti ingerület-átvívő nyúlványokat
A szinapszisoknak nagyon egyszerű munkájuk van, értéküket a bemenetüktől kapják és megszorozzák
egy megadott súlyozó tényezővel és kiadják az eredményt.
A neuronoknak  kicsit bonyolultabb
a feladatuk: az, hogy összeadják rájuk kötött szinapszisok kimeneti értékeit
és működtessék az aktiválási funkciót. Bizonyos aktiválási funkciók lehetővé teszik,
hogy a neurális hálók bonyolult nemlineáris mintákat modellezzenek,

Turkish: 
Artık nöral ağımızı kurabiliriz. Ağımızın, verilerimiz dolayısı ile, iki girdisi
ve bir çıktısı olması gerektiğini biliyoruz.
Çıktımıza şapkalı y diyeceğiz, şapkalı diyoruz, çünkü y değişkeninin bir tahmini, kendisi değil.
Girdi ve çıktı arasındaki her katmana
saklı katman denir.
Son zamanlarda araştırmacılar çok miktarda saklı katmanlar içeren
ve derin öğrenmenin ortaya çıkmasına vesile olan derin ağlar kurmuşlardır.
Bu örnekte üç saklı birim içeren bir saklı katman kullanacağız
eğer derin bir nöral ağ kurmak isteseydik bir sürü saklı katmandan
oluşan bir model yapardık.
Nöral ağ görsellerinde çemberler nöronları,
ve çizgiler sinapsları temsil eder.
Aslında sinapsların çok basit bir işi vardır, girdi olarak değeri almak,
belirli bir ağırlıkla çarpmak ve sonucu çıktılamak.
Nöronlar ise biraz daha karmaşıktır.
Nöronlar, sinapsların çıktılarını alıp,
aktivasyon fonksiyonlarında uygularlar.
Belirli fonksiyonlar basit modellerin yapamayacağı kompleks,

Chinese: 
现在可以建立我们的神经网络了。由于数据维度
我们的网络需要两个输入和一个输出
因为是y的估计并不与y完全一样
故将输出层称作y_hat，在输入层与输出层之间的任意层
都被称作隐藏层
最近研究者们建立了的有很多很多隐藏层的网络
被称作深度信任网络，由此有深度学习这个术语
在此我们使用一个有三个隐藏单元的隐藏层
但如果想建立深度神经网络，将一堆这样的层
堆积起来即可
神经网络的表示中，圆圈代表神经元
线代表突触
突触做一个非常简单的工作，将它们的输入值
乘上一个特定的权重
然后输出结果。神经元稍微复杂一点
它们的工作是把其他突触的输出加起来
然后应用激活函数。特定的激活函数允许
神经网络去模拟复杂的

Polish: 
Teraz możemy zbudować naszą sieć neuronową. Wiemy, że nasza sieć musi mieć dwa wejścia
i jedno wyjście, bo takie są wymiary naszych danych.
Nazwiemy naszą warstwę wyjściową y z czapką, gdyż to jest wartość y,
ale nie jest taka sama jak y (tak dosłownie tu pisze). Każda warstwa pomiędzy naszym wejściem i wyjściem nazywana jest
warstwą schowaną (hidden layer)
niedawno naukowcy stworzyli sieci z taką dużą ilością warstw,
że nazywane są one teraz deep belief networks dając początek terminowi deep learning (głębokiego nauczania)
użyjemy jednej ukrytej warstwy z trzema ukrytymi jednostkami,
jednak, jeśli byśmy chcieli zbudować deep neural network, moglibyśmy po prostu połączyć kilka z tych
warstw razem.
W wizualizacji sieci neuronowej, kółka reprezentują neurony, a
linie reprezentują synapsy.
Synapsy mają bardzo prostą pracę, biorą wartość z ich wejścia i mnożą ją przez
konkretną wagę
i wypluwają wynik. Neurony są trochę bardziej skomplikowane
ich pracą jest dodawane tego co dostaną od połączonych do nich synaps
i uruchamianie funkcji aktywacyjnej. Niektóre funkcje aktywacyjne pozwalają
siecią neuronowym na modelowanie złożonych

German: 
jetzt können wir unser Neurales Netz bauen. Wir wissen, dass wir zwei Eingaben
und eine Ausgabe brauchen, um die Dimension unserer Daten zu beschreiben.
Wir nennen die Ausgabe y Dach, da es eine Schätzung von y,
aber nicht gleich y ist. Jede schicht zwischen Ein- und Ausgabe heißt
versteckte Schicht.
Vor kurzen haben Wissenschaftler Netzwerke mit sehr sehr vielen versteckten Schichten gebaut.
Sie heißen "deep belief" Netzwerke, und sind die Vorlage für den Begriff "deep learning".
Hier benutzen wir eine verstecke Schicht mit drei Einheiten.
Aber wenn wir ein tiefgehendes Neurales Netzwerk bauen möchten, würden wir einfach ein paar dieser
Schichten zusammenfügen.
In neuralen Netz-Visualisierungen stellen Kreise Neuronen,
und Linien Synapsen dar.
Synapsen haben eine sehr einfache Aufgabe. Sie nehmen einen Wert ihrer Eingabe, multiplizieren ihn mit einem
bestimmten Wert
und geben das Ergebnis aus. Neuronen sind ein bisschen komplizierter.
Ihre Aufgabe ist es, die Ausgabe anderer Synapsen zusammenzuzählen
und eine Aktivierungsfunktion anzuwenden. Bestimmte Aktivierungsfunktionen erlauben Neuralen
Netzen komplexe, nichtlineare

Ukrainian: 
Тепер ми можемо побудувати нашу нейронну мережу. Ми знаємо, що в нашої мережі можуть бути два входи
та один вихід, тому що такі розміри наших даних.
Ми назвемо вихідний шар 'y з шапочкою', бо це оціночна 'y',
а це не те ж саме що й 'y'. Будь який шар між вхідним та вихідним зветься
прихованим шаром.
Нещодавно дослідники побудували мережі з дуже дуже багатьма прихованими шарами.
Їх іще називають глибокими мережами довіри, що приводить нас до терміну 'поглиблене навчання'.
Тут ми будемо використувувати один прихований шар з трьома прихованими нейронами,
але якщо ми хочемо створити глибоку нейронну мережу, нам просто потрібно зв'язати
ці шари разом.
В візуалізації нейронних мереж кружечки представляють собою нейрони,
а лінії представляють синапси.
Синапси мають насправді легку роботу, вони беруть значення з входу, множать його
на певну вагу,
та виводять результат. Нейрони трохи складніші за будовою.
Їхньою роботою є складання докупи виходу з інших синапсів
та використання активаційної функції. Певні функції дозволяють
нейронним мережам моделювати складні,

Korean: 
이제 우리는 우리의 신경망을 구축할 수 있다. 우린 네트워크에는 두 개의 입력이 있고
하나의 출력이 있다른 걸 알고 있다.
우리는 출력 레이어를 y hat(꺽쇠) 으로 쓸 것이다. 왜냐하면, y의 추정치이지
실제 y값이 아니기 때문이다. 입력레이어와 출력레이어 사이의 모든 레이어는
히든(숨겨진)레이어로 부를 것이다.
최근 연구자들은 아주 많은 히든레이어로 구성된 네트워크를 만들고 있고
이것이 deep belief network 로 알려져 있으며, 딥러닝이란 용어까지 나오게 됐다.
여기선 3개의 히든 유닛으로 이루어진 하나의 히든레이어를 사용할 것이고
더 복잡한 신경망을 만들고 싶다면, 히든 레이어들만 더 쌓아서
만들면 될 것이다.
신경망 그림에서, 원은 뉴런을 뜻하고
사이를 잇는 선은 시냅스를 나타낸다.
시냅스는 정말 간단한 일만 하는데, 입력에서 들어오는 값에 자신의 특정 weight 값을
곱하여
그 결과를 출력으로 보낸다. 뉴런은 아주 약간 복잡한데,
그들이 하는 일은 다른 시냅스의 출력값을 더하고
더한 값에 활성화 함수 적용시킨다. 특정
활성화 함수을 써서 신경망은
복잡한 비선형 패턴을 모델링할 수 있다.

Portuguese: 
Agora nós podemos construir nossa rede neural. Nós sabemos que
nossa rede deve ter duas entradas,
e uma saída, porque essas são as
dimensões de nossos dados.
Vamos chamar nossa camada de saída de y chapéu,
porque é uma estimativa de y,
mas não o mesmo que y. Qualquer camada entre as nossas camadas de entrada e saída é chamada de
camada oculta.
Recentemente, pesquisadores contruiram redes com muitas muitas muitas camadas ocultas
elas são conhecidos como redes de crenças profundas
dando origem ao termo aprendizagem profunda
nós vamos usar uma camada escondida com três unidades escondidas
mas se quiséssemos construir uma
rede neural profunda, nós apenas empilharíamos um monte dessas
camadas juntas.
Em visualizações de redes neurais, círculos representam neurônios
e linhas representam sinapses
Sinapses tem um trabalho muito simples, elas pegam um valor de sua entrada, multiplica-o por um
peso específico
e saem com o resultado. Os neurônios são um pouco mais complicados.
Seu trabalho é somar as saídas
de outras sinapses
e aplicar uma função de ativação. Certas
funções de ativação permitem a redes
neurais modelar complexos

Spanish: 
Ahora podemos construir nuestra red neuronal. Sabemos que nuestra red debe tener dos valores de entrada,
y uno de salida porque esas son las dimensiones de nuestros datos.
Llamaremos a nuestra capa de salida "y^", porque es un valor estimado de "y",
pero no el mismo valor que y. A cualquier capa entre nuestras capas de entrada y salida se le conoce como
capa oculta.
Recientemente, los investigadores han construido redes con muchísimas capas ocultas.
Se les conoce como red de creencia profunda (DBN), dando lugar al término "aprendizaje profundo".
Usaremos una capa oculta con tres unidades ocultas,
pero si quisiéramos construir una red neuronal profunda, simplemente amontonaríamos unas cuantas de estas
capas juntas.
Gráficamente, en las redes neuronales, los círculos representan neuronas
y las líneas representan sinapsis.
Las sinapsis poseen un trabajo muy simple: toman un valor desde la entrada, lo multiplican por un
peso específico
y muestran la salida del resultado. Las neuronas son algo más complicadas:
su trabajo es sumar en conjunto los valores de salida de otras sinapsis
y aplicar una función de activación. Ciertas funciones de activación permiten
a las redes neuronales modelar patrones complejos

Italian: 
Sappiamo che deve avere 2 input e 1 output
perché queste sono le dimensioni dei dati.
Chiameremo l'output y hat (cappuccio)
perché è una stima di y, non la stessa y.
Ogni strato fra l'input e l'output è chiamato HIDDEN LAYER
recentemente sono stati costruite NN con moltissimi hidden layers
note come DEEP BELIEF NN
da qui il termine DEEP LEARNING
Nel nostro caso useremo 1 hidden layer, composto da 3 hidden units
se volessimo costruire una deep NN dovremmo aggiungerne altri.
Visivamente i nodi rappresentano i neuroni, gli archi le sinapsi
le sinapsi hanno un lavoro molto semplice
prendono un valore dall'input
lo moltiplicano per un weight(w) e ritornano il risultato nel loro output
I neuroni sono un po' più complicati
il loro compito è di sommare insieme gli output delle sinapsi
e applicare una funzione di attivazione
certe funzioni di attivazione fanno si che le NN possano modellare pattern complessi e non lineari
che potrebbero sfuggire a modelli più semplici

Dutch: 
Nu kunnen we ons neuraal netwerk op  bouwen. Wij weten dat
ons netwerk twee ingangen,
en een uitgang moet hebben omdat dit de
dimensies van onze gegevens zijn.
We noemen de uitvoerlaag y "dakje",
omdat het een schatting van y is,
maar niet hetzelfde als y. Elke laag
tussen onze invoer- en uitvoerenlagen wordt een
verborgen laag genoemd.
Onlangs hebben onderzoekers netwerken gebouw met vele vele vele verborgen lagen.
Deze zogenaamde diepe overtuiging netwerken geven aanleiding tot de term "diep leren"
Hier gaan we een ​​(1) verborgen laag  gebruiken met
drie verborgen units
maar als we zouden willen, kunnen we  een diep neuraal netwerk maken met een hele stapel van dergelijke units
op elkaar
In neurale net visualizaties, vertegenwoordigen cirkels 
neuronen
en lijnen vertegenwoordigen synapsen
Synapsen hebben echt een eenvoudige klus,  ze nemen een waarde van hun invoer, vermenigvuldigen met een
specifiek getal
en geeft het resultaat als uitvoer. Neuronen zijn iets ingewikkelder
hun taak is om de output van andere synapsen samen te voegen
en een activatie-functie toe te passen. Bepaalde 
activering functies kunnen er voor zorgen dat neurale
netten, complexe niet-lineaire patronen modelleren

English: 
Now we can build our neural net. We know
our network must have two inputs,
and one output because these are the
dimensions of our data.
We'll call or output layer y hat,
because it's an estimate of y,
but not the same as y. Any layer
between our input and output layers is called a
hidden layer
recently researchers have built networks
with many many many hidden layers
these are known as deep belief networks
giving rise to the term deep learning
here going to use one hidden layer with
three hidden units
but if we wanted to build a deep
neural network we would just stack a bunch of these
layers together.
In neural net visuals, circles represent
neurons
and lines represent synapses
Synapses have a really simple job, they take a value from their input, multiply it by a
specific weight
and output the result. Neurons are a
little more complicated
their job is to add together the output
from other synapses
and apply an activation function. Certain
activation functions allow neural
nets to model complex

Indonesian: 
Sekarang kita dapat membangun "Jaringan neuron"-nya. Kita tahu bahwa jaringan kita memiliki 2 input
dan satu output karena kedua input-output itu adalah dimensi dari data kita.
Kita akan menyebut lapisan output ini sebagai y^, karena itu adalah pendekatan untuk nilai y,
tapi tidak sama dengan y. Setiap lapisan diantara input dan output disebut dengan
lapisan tersembunyi.
Sekarang ini peneliti telah membangun jaringan dengan banyak sekali lapisan tersembunyinya
yang dikenal sebagai jaringan yang dalam yang melahirkan penamaan pembelajaran yang dalam.
Disini kita akan menggunakan 1 lapisan tersembuniy dengan 3 unit tersembunyi
tapi apabila kita ingin membangun "Jaringan neuron" yang lebih dalam, kita cukup menumpuk
lapisan-lapisan ini bersama.
Didalam pandangan "jaringan neuron" ini, lingkaran menggambarkan neuron
dan garis menggambarkan sinapsis.
Tugas sinapsis sangat sederhana, mereka mengambil sebuah nilai dari input mereka, mengalikannya dengan
nilai tertentu
dan mengeluarkan hasilnya. Tugas neuron lebih kompleks,
tugas mereka adalah menjumlahkan output dari sinapsis lain
dan menggunakan fungsi aktivasinya. Beberapa fungsi aktivasi dapat membuat jaringan
neuron untuk memodelkan pola kompleks

Chinese: 
現在終於可以來建造「神經網絡」了
我們知道 必須具備兩維的「輸入值x」
和一個「輸出值y」
因為這些是 我們的數據的尺度
我們稱「輸出層」為 " y帽子 "
它是" y "的估計值  但並不是真正的" y "
在「輸入層」和「輸出層」中間的 稱為「隱藏層」
在「輸入層」和「輸出層」中間的 稱為「隱藏層」
最近 研究人員構建的網絡
有很多的隱藏層
這些 "深度"網絡
從而產生了一詞「深度學習」
而我們僅使用一層包含
"三個位元"的隱藏層
但如果我們想建立一個「深度神經網絡」
只需要 將層數增加 即可
但如果我們想建立一個「深度神經網絡」
只需要 將層數增加 即可
在神經網絡的圖示
圓圈 代表神經元
線 則代表突觸
突觸有一個非常簡單的工作
他們將自己的「輸入值x」乘以特定的加權
突觸有一個非常簡單的工作
他們將自己的「輸入值x」乘以特定的加權
並輸出結果
神經元則稍微複雜一點
他們的工作是將突觸的訊息相加
 並應用激發函數
某些激發函數能使神經網路 
變得複雜 非線性模式的
某些激發函數能使神經網路 
變得複雜 非線性模式的

Portuguese: 
padrões não-lineares que modelos mais simples podem perder. Para a nossa rede neural usaremos
funções sigmóides de ativação.
Em seguida, vamos construir a nossa rede neural em Python

Hungarian: 
amelyek egyszerűbb modellekből
hiányoznak.
A mi neurális hálónk   sigmoid  jellegű aktiválási funkciót fog használni.
Ezután felépítjük neurális hálónkat Python-ban

Ukrainian: 
нелінійні структури, які простіші моделі можуть не мати. Для нашої нейронної мережі ми використаємо
сигмоїдні активаційні функції.
Далі ми збудуємо нашу нейронну мережу в Python.

Indonesian: 
yang bersifat non-linier dimana model yang lebih sederhana tidak dapat memodelkannya. Untuk jaringan neuronnya kita menggunakan
fungsi aktivasi sigmoid.
Selanjutnya kita akan membangun jaringan neuronnya di Python.

Korean: 
활성화 함수없는 단순모델로는 놓칠 수 있다. 우리의 신경망에서는
시그모이드 활성화 함수를 사용할 것이다.
다음편에서 우리는 파이썬을 이용하여 우리의 신경망을 구축해 볼 것이다.

Chinese: 
簡單的模型可能會失真
至於我們的神經網絡則是使用
基態 與 激發態 函數
下一部影片
我們將在Python上建立我們神經網絡

Polish: 
nieliniowych szablonów, które prostsze modele mogą przegapić. Dla naszej sieci neuronowej użyjemy
funkcji sigmoidalnej jako funkcje aktywacyjną.
W następnym odcinku zbudujemy naszą własną sieć neuronową w Pythonie

Russian: 
нелинейные закономерности, которые более простые модели могут пропустить. Для нашей нейронной сети мы будем использовать
функцию активации сигмоида.
Далее мы будем строить нашу нейронную сеть на Python

German: 
Muster darzustellen, die einfachere Modelle übersehen würden. Für unser neurales Netz werden wir
sigmoide (S-förmige) Aktivierungsfunktionen benutzen.
Als nächstes bauen wir unser Neurales Netz mit Phython aus.

French: 
non linéaires complexes que des modèles plus simples pourraient manquer. Pour notre réseau de neurones, nous utiliserons
des sigmoïdes comme fonctions d'activation.
Dans la prochaine vidéo, nous construirons notre réseau de neurones en Python

iw: 
דפוסים לא לינארים מורכבים שמודלים פשוטים יותר יכולים לפספס. עבור הרשת העצבית שלנו נשתמש
בפונקציית ההפעלה של סיגמוייד
(sigmoid activation functions)
לאחר מכן נבנה אצ הרשת העצבית שלנו בפייתון.

Spanish: 
y no lineares, los cuales podrían no producir los modelos más simples. Para nuestra
red neuronal usaremos funciones de activación sigmoides.
Próximamente, construiremos nuestra red neuronal usando Python.

Turkish: 
doğrusal olmayan kalıpların modellenmesini sağlar.
Bu örnekte nöral ağımızda sigmoid aktivasyon fonksiyonunu kullanacağız.
Daha sonra nöral ağımızı Python'da kuracağız.

Lithuanian: 
nelinijinius raštus, kuriuos paprastesni modeliai gali praleisti. Mūsų neuronų tinklui, mes naudosime
Zigmoidines aktivacijos funkcijas.
Toliau, mes sukursime mūsų neuronų tinklą Python

Dutch: 
die eenvoudigere modellen
kunnen missen. Voor ons neuraal netwerk gebruiken we
sigmoid activeringsfuncties.
Vervolgens gaan we onze neurale net in Python maken.

Chinese: 
简单模型可能错过的非线性模式
在我们的神经网络里使用sigmoid激活函数
接下来使用Python建立我们的神经网络

English: 
nonlinear patterns that simpler models
may miss. For our neural net we'll use
sigmoid activation functions.
Next we'll build out our neural net in Python

Italian: 
per la nostra NN useremo la funzione di attivazioen SIGMOIDE
prossimamente implementeremo la nostra NN in python.
