
Japanese: 
マルコフモデルでは
世界が別々のグリッドに分けられていて
それぞれに特定の確率を割り当てました
空間上のこのような確率の表し方は
ヒストグラムと呼ばれます
連続空間を多数の有限のグリッドセルに分けて
原分布のヒストグラムによって
事後分布を近似します
ヒストグラムは連続分布の単なる近似にすぎません
カルマンフィルタでは
ガウス分布と呼ばれるものが与えられます
ガウス分布は位置空間に対する連続関数で
下位領域の合計は1になります
ここでまたガウス分布です
空間をxとする場合
ガウス分布は2つのパラメータで特徴づけられます
ギリシャ文字μと略される平均と

Spanish: 
¿Te acuerdas de nuestro modelo de Markov, donde el mundo se dividia en cuadrículas discretas,
y asignábamos a cada celda de la cuadrícula una probabilidad?.
Tal representación de probabilidad sobre los espacios se llama histograma
este divide el espacio continuo en varias celdas finitas
y aproxima la distribución posterior a un histograma de la distribución original.
El histograma es una mera aproximación de esta distribución continua.
En los filtros de Kalman la distribución está dada por lo que se llama una gaussiana.
Una gaussiana es una función continua en el espacio de localizaciones,
y el área de abajo suma 1.
He aquí de nuevo nuestra gaussiana.
Si llamamos al espacio x, entonces la gaussiana se caracteriza por dos parámetros,

Russian: 
Вы помните нашу модель Маркова, когда мир был разделен на дискретные сетки,
и мы назначали для каждой сетки определенную вероятность.
Такое представление вероятности над пространствами называется гистограммой
в том, что она делит непрерывное пространство на конечное число ячеек сетки
и приближается к заднему распределению гистограммы по сравнению с первоначальным распределением.
Гистограмма представляет собой простое приближение для непрерывного распределения.
В фильтр Калмана распределения дается то, что называется гауссовым.
Гауссова непрерывная функция на пространстве мест,
и площадь под сумм до 1.
Вот наша гауссова снова.
Если мы называем пространство х, то гауссова характеризуется двумя параметрами -

English: 
You remember our Markov model where the world was divided into discrete grids,
and we assigned to each grid a certain probability.
Such a representation of probability over spaces is called a histogram
in that it divides the continuous space into a finite many grid cells
and approximates the posterior distribution by a histogram over the original distribution.
The histogram is a mere approximation for this continuous distribution.
In Kalman filters the distribution is given by what's called a Gaussian.
A Gaussian is a continuous function over the space of locations,
and the area underneath sums up to 1.
Here's our Gaussian again.
If we call the space x, then the Gaussian is characterized by two parameters--

Chinese: 
你记得我们的 Markov 模型 世界被分成了离散的网格
然后我们给每一个网格一个固定的概率
这种表现在空间上表现概率的方法被称为直方图
它将连续的空间分成有限多的网格小块
然后根据原概率分布的直方图 估计后验概率分布
这个直方图仅仅是对连续分布的近似表达
在卡尔曼滤波中 分布取决于所谓的高斯函数
高斯函数是一个空间位置的连续函数
这之下的面积加起来等于１
这又是我们的高斯函数
如果我们把这个空间称为 x　那么高斯函数由两个参数来表达——

Spanish: 
la media, a menudo abreviada con la letra griega μ, y la anchura de la gaussiana,
a menudo llamada la varianza, y por razones que no quiero entrar,
a menudo se escribe como una variable de segundo grado σ².
Así que cualquier gaussiana de 1D, con el parámetro de media del espacio por aquí es de una dimensión,
se caracteriza por μ y σ².
Así que en lugar de la estimación de la distribución completa como un histograma,
nuestra tarea en los filtros de Kalman es mantener una μ y una σ² que sea nuestra mejor estimación
de la ubicación del objeto que estamos buscando.
La fórmula exacta es una exponencial de una función cuadrática donde cogemos
el exponente de esta expresión complicada de aquí.
La diferencia cuadrática de nuestro punto x con respecto a la media μ
dividido por σ² multiplicado por -1/2.

Russian: 
средний, часто сокращенно с греческой буквой μ, а ширина гауссовой,
часто называется дисперсией, в причины этого я не хочу вдаваться
он часто в виде квадратичной переменной σ ^ 2.
И гауссово в 1D, означает, что пространство параметров здесь 1 мерная,
характеризуется μ и σ ^ 2.
Вместо того, чтобы оценить весь дистрибутив в виде гистограммы,
Наша задача фильтров Калмана является поддержание μ и σ ^ 2, что является нашей лучшей оценкой
расположения объекта, которого мы пытаемся найти
Точная формула является экспоненциальной квадратичной функции, где мы берем
показателем этого сложного выражения здесь.
Квадратичное отличие нашего запроса точки х относительно среднего μ
деленное на σ ^ 2 умноженное на -1 / 2.

Chinese: 
一是平均值 一般缩写为希腊字母 μ 二是高斯函数的宽度
一般称之为方差 因为一些我不过多深入的原因
它一般被写作变量的平方 σ^2
一维的高斯 代表这里参数空间是一维的
被 μ 和 σ^2所表达
比起用直方图估计整个概率分布
在卡尔曼滤波中我们的任务是保持一个对未知物体位置
最佳估计的 μ 和 σ^2 
完整的方程是一个平方函数的指数方程
我们对这个复杂的表达式求指数
未知点 x　和平均值 μ 的差的平方
除以 σ^2 再乘以 -1/2

English: 
the mean, often abbreviated with the Greek letter μ, and the width of the Gaussian,
often called the variance, and for reasons I don't want to go into,
it's often written as a quadratic variable σ^2.
And Gaussian in 1D, which means the parameter space over here is 1 dimensional,
is characterized by μ and σ^2.
Rather than estimating the entire distribution as a histogram,
our task in Kalman filters is to maintain a μ and a σ^2 that is our best estimate
of the location of the object we're trying to find.
The exact formula is an exponential of a quadratic function where we take
the exponent of this complicated expression over here.
The quadratic difference of our query point x relative to the mean μ
divided by σ^2 multiplied by -1/2.

Japanese: 
分散と呼ばれるガウス分布の幅です
これは深く掘り下げませんが
二次変数のσ²と表されます
1Dは母数空間が一次元であるという意味で
μとσ²で表せます
ヒストグラムとして全分布を推測するよりも
カルマンフィルタでμとσ²を維持して
物体の位置を正確に推測することが目標です
厳密な式は二次関数の指数で
このように複雑な数式になります
平均μと対象点xとの差分の二次式を
σ²で割ったものに－1／2を掛けます

English: 
Now, if x equals μ then the numerator becomes 0,
and we have x of 0, which is 1.
It turns out we have to normalize this by a constant--
1 over the square root of 2πσ^2--
but for everything we'll talk about today, this constant won't matter, so ignore it.
What matters is we have an exponential of a quadratic function over here.
Let me draw you a couple of functions, and you tell me which ones you believe
are Gaussian by checking the box on the right side.

Chinese: 
现在如果 x 等于 μ 那么分子等于０
然后 x　的０次方 等于１
所以我们得用一个常数来将这个函数归一化——
1 除以 2πσ^2 的平方根——
但是对于我们今天的内容来说 这个常数无关紧要
重要的是我们有一个平方的指数函数在这
让我来画一些函数 然后你告诉我其中哪几个你认为
是高斯函数 选中它们的复选框

Spanish: 
Ahora, si x es igual a μ entonces el numerador se convierte en 0,
y tenemos que exp de 0, es 1.
Resulta que para normalizar esto tenemos una constante,
1 sobre la raíz cuadrada de 2πσ²,
pero para todo lo que vamos a hablar hoy, esta constante no importa, ignorala.
Lo que importa es que tenemos una exponencial de una función cuadrática aquí.
Permítanme dibujar un par de funciones, y usted me dice cuáles cree
que son gaussianas marcando la casilla de la derecha.
Y pido disculpas por mis pobres cualidaddes de dibujo.

Russian: 
Теперь, если х = μ, то числитель становится 0,
и у нас есть х 0, что 1.
мы должны нормализовать этой постоянной
1 за квадратный корень из 2πσ ^ 2 -
но для всего, что мы будем говорить сегодня, эта постоянная не имеет значения, так что можете игнорировать его.
Главное, у нас есть экспоненциальный квадратичной функции здесь
Позвольте мне нарисовать вам пару функций, а вы мне, какие из них вы считаете,
гауссовыми, установив флажок на правой стороне.

Japanese: 
x＝μの場合 分子はゼロになり
xがゼロでつまり1ということです
定数で正規化しなければいけないので
1÷√（2πσ²）となりますが
今はこの定数は重要ではないので無視します
大切なのは二次関数の累乗があるということです
いくつか関数を書きます
ガウス分布を表しているものはどれでしょうか
右側にチェックしてください
絵が下手なのはお許しください

Chinese: 
请原谅我这里拙劣的画技

Russian: 
Пожалуйста, простите мои бедные навыки рисования .

English: 
Please excuse my poor drawing skills here.
