
Japanese: 
いくつか問題を出します
観測更新と動作更新がありました
観測更新では
事後状態が得られる観測値を計算しました
観測値の正規確率に比例しました
状態そのものにPを掛けた状態です
動作更新で事後分布を計算するなら
このような式で求めることができます
これらの式には見覚えがありますよね
まさに皆さんが実装したものです
実装したかどうか
分からないかもしれないので説明します
この分布は粒子の集合でした
1，000個の粒子は事前確率Xを表します
これらは重要度重みでした
重要度重みを持つ粒子は
分布を表しています
しかし重要度重みを取り除きたかったので

English: 
Let me ask you a few questions.
We had measurement updates and motion updates.
In the measurement update, we computed posterior over state
given the measurement.
And it was proportional to - after normalization -
of probability of the measurement,
given the state times "p" of the state itself.
In the motion update, if you compute
a posterior of the distribution one time step later
and that is the convolution of the transition probability
times my prior.
Now those formulas--those should look familiar.
This is exactly what you implemented.
You might not know you implemented this; let me explain
to you how you implemented it.
This distribution was a set of particles.
A thousand particles, together, represented your prior "x".
These were importance weights.
And technically speaking, the particles
with the importance weights
are a representation of distribution.
But we wanted to get rid of the importance weights

Japanese: 
いくつか問題を出します
観測更新と動作更新を行います
観測更新では 観測値の状態から
事後確率を計算します
観測値の確率の
正規化に比例しました
状態自体の P をかけた状態です
動作更新では 1 かける副層の分布から
事後確率を計算します
遷移確率の畳み込み
に前と同じものをかけます
これらの式には見覚えがあると思います
まさに皆さんが実装したものです
憶えていないかもしれないので
説明します
この分布は粒子の集合でした
1,000 個の粒子でこの X を表しました
これらは重要性の重みでした
重要性の重みを
持つ粒子は分布
を表しています
しかし重要性の重みを取り除きたかったので

Chinese: 
我问你几个问题
我们有测量更新和运动更新
在测量更新中 在给定的测量值下
计算机对于状态的后验
在归一化后 和状态乘以自身概率给定后的
测量值的
概率成正比
在运动更新中 如果你计算
分布的后验 1 乘以子层
也就是转换概率乘以
我的先验的卷积
现在 这些公式看起来比较熟悉
这就是你刚刚实现的
你可能不知道已经实现了 我来解释一下
你是如何实现的
分布是一个粒子组
一千个粒子 合在一起 代表你的先验 x
这些是重要性权重
从技术方面 带有重要性权重
的粒子是分布
的表述
但是 我们想要去掉重要性权重

English: 
so by resampling, we work the importance weights
back into the set of particle so the resulting particles--
the ones over here--would represent the correct posterior.
You've implemented this.
I'm just telling you what the math is behind this.
This, you also implemented.
This was your set of particles again,
and you sampled from the sum
by taking a random particle over here
and applying the motion model with a noise model
to generate a random particle, "x-prime".
As a result, you get a new particle set
that is the correct distribution after the robot motion.
So you recognize the math, and hopefully
you understand how your code implements this math.
You can prove all kinds of interesting facts about this math.
For example, you can prove convergence if the number of particles goes to infinity.
It is obviously approximate.
Particles are not an exact representation.
And it was amazingly easy to program.
So when you go over your particle code
you realize you implemented a fairly involved

Japanese: 
再サンプリングして重要性の重みを
粒子の集合に戻しました 得られた粒子はここです
これが正しい事後確率を表します
皆さんはこれを実装したのです
背景にはこのような計算がありました
そしてこれも実装しました
これも粒子の集合です
合計からサンプリングしました
ここのランダムな粒子を使って
ノイズモデルを付けてモーションモデルを適用し
無作為な粒子 X' を作りました
その結果 新しい粒子の集合ができます
 これがロボットが動いた後の正しい分布です
思い出しましたか?
皆さんが作成したコードでこの計算をどのように実装しているか理解できたと思います
計算でいろいろなことを証明できます
たとえば 粒子の数が無限になる場合の変換の証明などです
これは概算なので
粒子は正確な表示ではありません
プログラミングは非常に簡単でした
粒子のコードを見ると
かなり複雑な計算を実行したことに気づきますが

Chinese: 
因此通过重采样 我们把重要性权重
放回了粒子组 因此 所得到的粒子
这里的这些 就可以表述正确的后验
你已经实现了这个
我只是解释一下数学原理
这个也已经实现了
这里是你的粒子组
你从总和中抽样
在这里抽取一个随机粒子
然后应用带噪模型的运动模型
生成了一个随机粒子 x’
结果 你得到了一个新的粒子组
这个粒子组就是机器人运动后的正确分布
数学原理就是这样
希望你理解了代码背后的数学知识
你可以在这里证明很多有趣的数学事实
例如 你可以证明粒子数量趋近无穷时的转换
这显然是近似的
粒子不是准确的表述
编程也非常容易
因此 当你检查粒子代码时
你会发现 你实现了一个相当高级的

Japanese: 
再サンプリングして重要度重みを
粒子の集合に戻しました　得られた粒子はここです
これが正しい事後確率を表します
皆さんはこれを実装したのです
背景にはこのような計算がありました
そしてこれも実装しました
これも粒子の集合です
ランダムな粒子を使って
合計からサンプリングして
ノイズモデルに動作モデルを適用して
無作為な粒子x'を作りました
その結果 新しい粒子の集合ができます
つまりロボットが動いた後の正しい分布です
この計算を理解して
コードがどのように計算を実行するかを
知ってもらいたいと思います
計算に関する面白い事実を証明できます
例えば粒子の数が無限になる場合の
変換の証明などです
これは概算なので
粒子は正確に表していません
プログラミングは非常に簡単でした
粒子のコードを見ると
かなり複雑な計算を実行をしたことに気づきますが

Japanese: 
実際にはこれまでに話した
すべてのフィルターと同じことなのです
同じ計算がクラス No.1 で話した
ヒストグラムフィルターの基礎になっています
ガウス分布の同じ計算がクラス No.2
で話したカルマンフィルターの基礎になっています
ここで面白い質問を出します
私がスタンフォード大学の教授選考で使用したのは
3 つのフィルターのうちどれでしょう
ヒストグラムフィルター カルマンフィルター
粒子フィルター またはどれでもない
当てはまるものすべてにチェックを入れてください
Google 検索したり 私のホームページを調べないと
わかりませんよ
いくつか発見があるでしょう
あてずっぽうで構いません
すぐに答えを教えます
ちなみに私は 2003 年に
終身雇用の准教授という形で雇われました

Japanese: 
実際にはこれまでに話した
すべてのフィルタと同じことなのです
レッスン1で話したものと同じ計算が
ヒストグラムフィルタに基づいており
ガウス分布の計算と同じものが
レッスン2で話したカルマンフィルタです
ここで面白い問題を出します
私がスタンフォード大学の教授選考で使用したのは
3つのフィルタのうちどれでしょう
ヒストグラムフィルタ、カルマンフィルタ、
粒子フィルタ、またはどれでもない
いくつでもチェックしてください
Googleで検索したり
私のホームページを調べないと分からないことです
いくつか発見があるでしょう
当てずっぽうで構いません　すぐに答えを教えます
ちなみに私は2003年に
終身雇用の準教授という形で雇われました
私の自己アピールは
それほど悪くはなかったようです

English: 
piece of math that is actually the same
for all the filters we talked about so far.
The same math underlies our histogram filter
we talked about in Class No. 1.
And the same math for Gaussians
is the Kalman filter we talked in Class No. 2.
So let me ask you an interesting question.
Which of the 3 filters did Sebastian use
in his Job Talk at Stanford?
Histogram Filters, Kalman filters,
Particle Filters or None of the above?
Check one or all that apply
and, of course, you can't really know unless
you Google me and look up my Home Page.
Then you might find out some evidence.
So just take a random guess
and I'll tell you the answer in a second.
I should say I was hired by Stanford,
in 2003, into a tenured Associate Professor position
so obviously my Job Talk wasn't that bad.

Chinese: 
数学公式 这个公式实际上
适用于我们目前讨论的所有滤波器
它还适用于我们在第一堂课
学过的直方图滤波器
在第二堂课的卡尔曼滤波器中
我们用了同样的高斯分布数学公式
下面 我提一个有趣的问题
这三个滤波器中 哪个是 Sebastian 在
斯坦福的求职演说中用到的？
直方图滤波器、卡尔曼滤波器
粒子滤波器、还是以上都不是？
选择所有适用的选项
当然 除非你在 google 上搜索我
并查看我的主页 否则你不可能知道答案的
我的主页上可能有些证据
所以 随便猜猜看
我会马上揭晓答案
我 2003 年被斯坦福雇用
为终身副教授

Chinese: 
因此 我的就职演讲肯定没那么差

Japanese: 
私の自己アピールはそれほど悪くはなかったようです
