
Japanese: 
これが効率的にするアイデアの1つで
よりよいサンプルを
実験的に与えてくれることも分かります
すべての粒子と重要度重みを
大きな輪で表しましょう
各粒子がその重要度重みに相当する
1つのスペースを占めます
W5のような重さが大きい粒子は
より多くのスペースを占めます
一方で重みが小さい粒子は
さらに小さなスペースを占めます
まず最初にすべてのインデックスから均等に
粒子のインデックスを推測します
1からNの個々の選択肢から
Uの均一なサンプルであることに気づきました
Pythonでは0からN－1であることに注意します
W6を選ぶとします
これで関数を上手に構築できるようになるでしょう

Chinese: 
我们有个办法 可以提高效率
按照经验 这个方法也能获得更好的样本
我们使用一个大轮子来表示所有粒子和重要性权重
每个粒子占据了其中部分面积 对应的是其重要性权重
权重比较大的粒子 如 W5 占用的空间更大
而权重较小的粒子占用空间更小
在刚开始时 我们从所有索引的集合中猜想一个均匀的粒子索引
我把它记作统一取样器 U
取样范围是离散的索引 1 到 N
在 Python 中记作 caveat 从 0 到 N-1
假设我们选中了 W6
接下来 我们的方法是 你要构造一个 β 函数

English: 
[Narrator] So, here's an idea how to make this more efficient,
and it turns out empirically it also gives better samples.
Let's represent all our particles and importance weight in a big wheel.
Each particle occupies a slice that corresponds to its importance weight.
Particles with a bigger weight, like W5, occupy more space.
Whereas particles with a smaller weight occupy less space.
Very initially let's guess a particle index uniformly from the set of all indices.
I did note this as a uniform sample at U
from the discrete set of choices of index 1 all the way to N,
and as a caveat in Python, of course, it goes from 0 to N-1.
So, say we pick W6.
Then, the trick is--then you're going to construct the function better.

Japanese: 
[ナレーター] これをもっと効率的にするアイデアがあります
これによって優れたサンプルが得られることが経験的にわかります
すべてのパーティクルと重要性の重みを大きな輪で表してみましょう
重要性の重みに対応した各パーティクルがスライスに分けられています
W5 のように重みの大きいパーティクルはスペースを多く占めます
それに対して 重みの小さいパーティクルは少ないスペースを占めます
最初に すべてのインデックスのセットからパーティクルインデックスを一様に解いていきましょう
これをインデックス 1 から N までの離散的選択による
一様サンプル U として表記しました Python の注意として
これはもちろん 0 から N-1 までいきます
W6 を選ぶとしましょう
そしてこれが手法ですが ベータ関数を作ります

English: 
Then, I initialize the 0 and to which I add--when I construct these particles--
a uniformly drawn continuous value that sits between 0 and 2 times W max,
which is the largest of the importance weights in the important set.
W5 is the largest, so we're going to add a random value that might be as large as twice W5.
Suppose the value we added brings us to here.
So, this is the value we actually drew,
measured from the beginning of the sixth particle which shows an initialization.
I now then iterate the following loop:
if the importance weight of the present particle doesn't suffice
to reach all the way to beta.
So, if W index isn't as big as beta, then I subtract from beta this very value W index
and I increment index by 1.
So, what have I done? I've moved index to over here,

Japanese: 
そして0を初期化して粒子を構築する時に
この0と2×最大重みWの間に位置する
均一に抽出された連続値を加えます
重要度の集合において重さが一番大きいものです
W5は最も大きいので
W5の2倍の乱数を加えます
加えた値はこの位置まで導いてくれます
これが実際に抽出した値で
初期化を示す6番目の粒子から観測されます
そして次のループを繰り返します
この粒子の重要度重みが
βに到達するのに足りないとします
インデックスWがβほど大きくない場合は
βからこのWの値を引いて
1だけ増加させます
これでインデックスをここに動かしました

Japanese: 
そして 0 初期化し これらのパーティクルを構築するときに
この 0 と  2 × Wmax 最大重みの間に位置する 均一に抽出された連続値を加えます
重要度の集合において重さが一番大きなものです
W5 が最大なので W5 の 2 倍の大きさになり得るランダム値を追加します
値を追加するとここに来るとします
これが 実際に引き出した値で 6 番目のパーティクルの始め
つまり初期化を示すところから測定された値です
ここで次のループ繰り返します
現在のパーティクルの重要性の重みが
β に到達するまでに十分でない場合
つまり W index が β ほど大きくない場合 β からまさにこの値 W index
を引いて index を 1 増やします
何をしたかというと インデックスをここに移動し

Chinese: 
然后 将其初始化为 0 在构造这些粒子时
向该函数添加一个均匀抽取的连续值 范围从 0 到 W 最大值的 2 倍
这也是重要性组中最大的重要性权重
W5 是最大的 因此我们准备添加一个随机值 它最大可能是 W5 的两倍
假设我们添加的值把我们带到了这里
这是我们实际抽取的值
从第 6 个粒子刚开始的地方测量 这里显示了初始化
然后 我迭代下面的循环
如果当前粒子的重要性权重不足以
到达 β 的位置
那么 如果 W 索引比 β 小 我从 β 中减去 W 索引值
然后把索引增加 1
发生了什么？ 我把索引移到了这里

Japanese: 
β のこの部分を削除しました ここのポイントはまだ前と同じです
ここで β が W index よりも小さくなるポイント
つまり次の状況のケースになります
こんどは index=7 で
インデックスは 再サンプリングプロセスで選ぶパーティクルのインデックスです
パーティクルインデックスを選びました こんどは繰り返しで β に別の一様の値を足します
これを追加するとします
これが追加する値で これが前にあった値 β です
同じ繰り返しによって index が増え
このスライスすべて つまり W7 の分の β が減ります
そしてここにジャンプし パーティクル 1 が選ばれます
一様の値がとても小さいので
同じパーティクルが 2 回 選ばれることがよくあります
各パーティクルが このパーティクルの輪にわたり
全外周に比例して選ばれることがわかります

English: 
and I removed this part of beta so the point over here is still the same as before.
We now get to the point where beta becomes smaller than W index,
which is the case in the next situation.
Now index=7.
Then, index is the index of the particle I pick in my resampling process.
So, I picked the particle index; I now iterate I add another uniform value to beta.
Say I add this one.
This is the value I add, this is the value beta previously had.
The same iteration now will make index flow up
reducing beta by all the slice over here, which is W7,
and then jump over here, and particle 1 is picked.
It can easily happen that the uniform value is so small
that the same particle is picked twice, and it's easy to see
that each particle is now picked in proportion to the total circumference
it spans in this wheel of particles.

Chinese: 
我把 β 的这部分移动到这里的这个点 还是和以前一样
现在 在这个点上 β 比 W 索引值小
这是下一个场景的条件
这里索引=7
这个索引 是我在重采样过程中选中的索引
因此 我选择了粒子索引 现在我进行迭代 向 β 添加另一个均匀值
比如 添加这个值
这是我添加的值 这是 β 本来的值
现在 同样的迭代会让索引值增加
同时把 β 值减去这里的所有部分 也就是 W7
然后跳到这里 选中粒子 1
有一种情况很可能发生 那就是均匀值很小
这时候同一个粒子会被选中两次
我们可以看到 现在每个粒子被选中的概率都和
它在这个粒子轮上所占的周长成正比

Japanese: 
βのこの部分を取り除いたので
位置は前と同じままです
これでβがインデックスWよりも
小さくなる位置に到達しました
次の状況における場合でインデックス＝７です
インデックスは再サンプリングステップで選んだ
粒子のものです
粒子インデックスを選んだら
別の均一な値をβに加えます
ここでβの前回の値を加えます
同じ繰り返しによってインデックスが増え
W7のこの部分すべてにおいてβが減ります
そしてジャンプして粒子1が選ばれるのです
均一の値がとても小さいので
同じ粒子が
2度選ばれるということがよく起こります
各粒子は全外周に比例して選ばれ
この粒子の輪の中まで及びます

English: 
So, this is essentially my implementation for the resampling step.
So, I want you--if you can--to implement that specific resampler in Python.

Japanese: 
これが再サンプリングステップの基本的な実装です
もし可能ならPythonで
特定の再サンプリングを実装してみてください

Japanese: 
これが再サンプリングステップの本質的な実装になります

Chinese: 
这就是我实现重采样步骤的方法

Japanese: 
この特有のリサンプラーを できるれば Python で実装してもらいたいのです

Chinese: 
如果你有能力 希望你也在 Python 中实现这个特定的重采样器
