
English: 
- [Alex] Okay uh good morning everyone
let's let's change a little bit of topic
now I'm going to talk a little
bit more about applications
of quantum computing and in
particular in machine learning
this is going to be a
machine learning talk
and for preparing it
I, I did this exercise
I thought let's take the last year
the last period of 365 days
and let's see what was in the
news about machine learning
And you know every once in
awhile you will hear some news
that something has been done so on
but like doing this
retrospective really shocked me
because there's so much
that has been done this year
we've gone from like generating
high resolution images
of faces of people that do not exist
to using machine learning in
in medicine in helping predicting diseases

Spanish: 
Aprendizaje Profundo Bayesiano
en una Computadora Cuántica
- [Alex] Está bien, buenos días a todos
cambiemos un poco de tema
ahora voy a hablar un poco
más sobre aplicaciones
de la computación
cuántica y, en particular,
del aprendizaje automático
esta será una charla sobre
aprendizaje automático
y para prepararla hice este ejercicio.
Pensé: tomemos el último año
el último período de 365 días y veamos
qué había en las noticias
sobre aprendizaje automático.
Y sabes que de vez en cuando
escucharás algunas noticias
que algo se ha hecho
pero hacer esta retrospectiva
realmente me sorprendió
porque se ha hecho mucho este año
hemos pasado de generar
imágenes de alta resolución
de rostros de gente que no existe
al uso del aprendizaje automático en
en medicina para ayudar
a predecir enfermedades

Japanese: 
- [アレックス] ええ大丈夫皆さん、おはようございます。
少しトピックを変えましょう
アプリケーションについてもう少し説明します
量子コンピューティング、特に機械学習の
これは機械学習の話になります
それを準備するために、私はこの練習をしました
去年もしようかと思った
365日の最後の期間
機械学習についてのニュースを見てみましょう
そして時々あなたはいくつかのニュースを聞くでしょう
何かが行われたこと
しかし、この回顧展をするように本当にショックを受けました
今年行われたことがたくさんあるので
高解像度の画像を生成するようなものから
存在しない人の顔の
で機械学習を使用する
病気の予測を助ける医学

Spanish: 
a también ser utilizado
como herramienta en otras
áreas de investigación para
hacer descubrimientos reales
y luego la lista sigue
tenemos ahora presentadores
que no son reales,
tenemos inteligencia
artificial creando arte y
escribiendo texto coherente
e incluso hace un par de
días teníamos una máquina
haciendo, bien compitiendo
en una competencia de debate
contra humanos.
Y esto realmente,
viendo esto con un poco
de perspectiva similar
te hace pensar guau como
de aquí en un par de años
no hay nada que el aprendizaje profundo
no pueda llegar a hacer, ¿verdad?
Bueno en realidad, en esta
charla quiero convencerte de que
este puede no ser el caso
y déjame ponerte un ejemplo de ello
pensemos que eres un experto
de desactivación de bombas.
De acuerdo, algo que la mayoría
de ustedes probablemente
piensen ummm vamos a innovar
y deseas implementar el
aprendizaje automático e intentar

Japanese: 
ツールとしても使用されています
実際の発見を行うための他の研究分野
そしてリストはどんどんどんどん
私たちは今のように本当ではないプレゼンターを持っています
AIはアートを作成し、AIは一貫したテキストを作成します
数日前にもマシンがありました
作り、討論の競争でよく競う
人間に対して
そしてこれは実際に、
これを少し似た視点で見る
ここから数年であなたはすごいと思います
その深い学習は何もありません
できなくなりますね
実はこの話で、私はあなたにそれを納得させたいと思います
これはかなりの場合ではないかもしれません
例を挙げましょう
あなたが爆弾を不活性化することの専門家だとしましょう
さて、あなたのほとんどがおそらくそうである何か
ええと、あなたが革新したい
機械学習を実装したい

English: 
to also it's also being used to as a tool
in other areas of research
to do actual discoveries
and then the list goes on and on and on
we have like now presenters
that are not real
we have AI creating art, we
have AI writing coherent text
and even a couple of
days ago we had a machine
making, well competing
in a debate competition
against humans
and this actually well,
seeing this with a bit of like perspective
makes you think wow like from
here in into a couple of years
there's nothing that deep learning
is not going to be able to do, right
well actually, in this talk
I want to convince you that
this may not be quite the case
and let me put you an example of it
let's think that you are an
expert in deactivating bombs
Okay, something that
most of you are probably
and um let's well you want to innovate
and you want to implement machine learning

Japanese: 
機械学習を使用して作業を簡単にする
この深層学習アルゴリズムがあります
この深層学習アルゴリズムを開発します
特定の爆弾に関する情報を取得します
たとえば、あなたにとって非常に重要なことは
誰もが知っているように、ケーブルの色、右
さて、あなたはそれを使います、
アルゴリズムを使用して、切断する必要があるケーブルを予測します
あなたが得る答えはこのようなものです
さて、あなたはそれを訓練します、それはうまく、完璧に機能します
しかし、それはアプリケーションで実際の問題に入ります
あなたは本物の爆弾に直面しています
間違ったケーブルを切ると爆発する
そしてあなたはこの情報を得るだけです
よくわかりませんが、
もう少し情報が欲しいです
そして、多分私はあなたがこれについてどれほど確信があるか知りません。
あなたは多かれ少なかれそれでしたね
確かに同じですが、少し少ないです
青いケーブルではなかった

Spanish: 
facilitar tu trabajo mediante
el aprendizaje automático
entonces tienes este algoritmo
de aprendizaje profundo
desarrollas este algoritmo
de aprendizaje profundo
que toma información sobre
la bomba en particular
por ejemplo, algo muy importante es que
como todo el mundo sabe, el
color de los cables, ¿verdad?
y bueno, entonces lo usas,
usas el algoritmo para predecir
qué cable tienes que cortar
entonces las respuestas que
obtienes son algo como esto.
Está bien y genial, lo entrenaste,
funciona bien, perfecto
pero luego entra en la
aplicación en un problema real
entonces te enfrentas a una bomba real
que si cortas el cable equivocado explota
y solo obtienes esta información.
Bueno no te conozco pero probablemente,
me gustaría un poco más de información
y tal vez no sé qué tan
seguro estés de esto.
¿No es tan bueno?, estabas más o menos
casi igual de seguro pero un poquito menos
que no era el cable azul.

English: 
and try to make your work
easier by using machine learning
so you have this deep learning algorithm
you develop this deep learning algorithm
that takes information
about the particular bomb
for instance a very
important thing is as you
as everyone knows, the
color of the cables, right
and well, then you use it,
you use the algorithm to predict
which cable you have to cut
so the answers you get
are something like this
Okay and cool you train
it, it works fine, perfect
but then it goes in the
application into a real problem
so you are faced with a real bomb
that if you cut the
wrong cable, it explodes
and you just get this information
well I don't know you but probably,
I would like a bit more information right
and maybe I don't know how
sure are you about this.
Isn't it that well, were you more or less
the same sure but just a little bit less
that it wasn't the blue cable

English: 
I just wanted a bit more you know.
And it turns out that this questions
like how sure is an algorithm
about a specific prediction
is a very difficult question to answer
in the standard framework,
framework of deep learning.
The reason for this is that
deep learning as we know it now
is mostly based on an optimization,
it's based on calculus
and these questions do not fit that well.
In contrast, there's other well
there's people aware of this
and there's other frameworks
in which machine learning operates
that they have a more natural frame,
are a more natural framework
for these sorts of questions.
Like a probability theory
and that's what I'm going to talk about.
This Bayesian approach
to machine learning.
The war version should I, I
don't want to scare people here
it just using these sorts of theorems
about probability distributions.

Japanese: 
もう少し知ってほしかった。
そして、この質問は
特定の予測に関するアルゴリズムがどれほど確かであるか
答えるのは非常に難しい質問です
標準フレームワーク、ディープラーニングのフレームワーク。
その理由は、私たちが今知っているディープラーニングです
主に最適化に基づいており、
微積分に基づいています
そして、これらの質問はそれほどうまく適合しません。
対照的に、これを知っている人は他にもいます
そして他のフレームワークがあります
機械学習が機能する場所
彼らはより自然なフレームを持っていること、
これらの種類の質問には、より自然なフレームワークです。
確率論のように
それについてお話します。
機械学習へのこのベイズのアプローチ。
戦争のバージョンは、私はここで人々を怖がらせたくありません
この種の定理を使うだけです
確率分布について。

Spanish: 
Solo quería un poco más, sabes.
Y resulta que esta
pregunta de qué tan seguro
es un algoritmo sobre
una predicción específica
es una pregunta muy difícil de responder
en el marco estándar, marco
de aprendizaje profundo.
La razón de esto es que el
aprendizaje profundo tal como lo
conocemos ahora se basa
principalmente en una optimización,
se basa en el cálculo
y estas preguntas no encajan tan bien.
En contraste, hay gente
consciente de esto.
y hay otros marcos
en el que opera el aprendizaje automático
que tienen un marco más natural,
son un marco más natural
para este tipo de preguntas.
Como una teoría de la probabilidad
y de eso es de lo que voy a hablar.
Este enfoque bayesiano del
aprendizaje automático.
La versión de guerra, no
quiero asustar a la gente aquí
simplemente usar este tipo de teoremas
sobre distribuciones de probabilidad.

Japanese: 
これは本質的にベイズの定理であり、
イベントが発生する確率はどれくらいですか
以前の情報があることを考えると、A。
そして、他の情報を与えられてそれを計算する方法
より簡単にアクセスできる
そして、これは機械学習で非常に素晴らしいアプリケーションを持っています。
あなたは確率が何であるかを考えることができます
いくつかのデータを知っていれば、ラベルが付けられていること
トレーニングで以前知っていた
以前にいくつかの経験があります。
たとえば、私は計算します
アクセスしやすい量から計算できます
たとえば、私のデータセットでよりアクセスしやすくなっています。
そして今、私たちが得る答えの種類はまだありません、
たぶん完全には納得できません
しかし、少なくとも、私たちはもう少し情報を得ています
出力されるソリューション。
このようなもので、
私は正しいケーブルを切ることにもう少し確信があります
ええと。
ええと、大丈夫、そう、一つのアプローチ
これを押すと

English: 
This is essentially Bayes
theorem which tells you
what is the probability
of some event occurring
given that we have some
previous information A.
And how to compute it
given other information
that is more easily accessible
And this has a very nice
application in machine learning.
You can think of what is the probability
that a label is given,
given that I know some data
in training I know some previous,
I have some previous experience.
For example, and I compute
I can compute that from quantities
that are more accessible,
more accessible in my
data set for example.
And now the kinds of answers
that we get are still not,
maybe not completely convincing,
but at least we're getting
a bit more information about
the solution that is being output.
With something like this,
I would be a bit more convinced
on cutting the right cable
you know.
Uh, okay and one so, one approach
so when I press this,

Spanish: 
Este es esencialmente el
teorema de Bayes que te dice
¿Cuál es la probabilidad
de que ocurra algún evento?
dado que disponemos de
alguna información previa A.
Y cómo calcularlo dada otra información
que es más fácilmente accesible.
Y esto tiene una aplicación muy buena
en el aprendizaje automático.
Puedes pensar en cuál es la probabilidad
que se le da una etiqueta,
dado que conozco algunos datos
en entrenamiento, conozco algunos previos.
Tengo alguna experiencia previa.
Por ejemplo, y calculo
eso a partir de cantidades
que son más accesibles,
más accesibles en mi conjunto
de datos, por ejemplo.
Y el tipo de respuestas que
obtenemos todavía no son,
tal vez no sean completamente
convincentes, pero
al menos estamos obteniendo un
poco más de información sobre
la solución que se está produciendo.
Con algo como esto
estaría un poco más convencido
de cortar el cable correcto
ya sabes.
Uh, está bien y uno así, un enfoque,
así que cuando presiono esto,

English: 
is well doing it in classical
computers the people have been
working on this and
have been doing research
and this kind of Bayesian
training of deep neural networks
can be done.
Here I just will have to warn you
that here comes the boring math
but I will try to keep it simple.
Essentially the way of
doing Bayesian training
of deep neural networks
is thanks to this analogy
between each layer in the network
and something that is
called a Gaussian process.
And the important thing
about Gaussian processes
is that we need to know, is that well,
we assume that there is a
global Gaussian distribution
underlying the outputs of each label.
And then we want to compute this quantity.
The what is called the
Posterior distribution
which is essentially the
probability distribution
of some label White Star

Spanish: 
lo está haciendo en las
computadoras clásicas, la gente ha
trabajado en esto y he estado investigando
y este tipo de entrenamiento
bayesiano de redes neuronales
profundas se puede hacer.
Aquí solo tendré que advertirte
que aquí viene la matemática aburrida
pero intentaré que sea sencillo.
Esencialmente, la forma de
hacer entrenamiento bayesiano
de las redes neuronales profundas
es gracias a esta analogía
entre cada capa de la red
y algo que se llama proceso gaussiano.
Y lo importante de los procesos gaussianos
es que necesitamos saber, está bien,
asumimos que hay una
distribución gaussiana global
subyacente a los resultados
de cada etiqueta.
Y luego debemos calcular esta cantidad.
Lo que se llama distribución posterior
que es esencialmente la
distribución de probabilidad
de alguna etiqueta White Star

Japanese: 
人々がしてきた古典的なコンピュータでそれをうまくやっています
これに取り組み、研究を行ってきました
この種のディープニューラルネットワークのベイジアントレーニング
行うことができます。
ここで私はあなたに警告しなければなりません
これは退屈な数学です
しかし、私はそれをシンプルに保つように努めます。
基本的にベイジアントレーニングを行う方法
ディープニューラルネットワークは、このアナロジーのおかげです。
ネットワークの各層の間
ガウス過程と呼ばれるもの。
そしてガウス過程についての重要なこと
知る必要があるということです
グローバルなガウス分布があると仮定します
各ラベルの出力の基礎となります。
次に、この数量を計算します。
いわゆる事後分布
これは本質的に確率分布です
いくつかのラベルのホワイトスターの

English: 
given that I have some input X star
and some training set.
Which with instances and labels
And this if we assume
this Gaussian process is,
has this form here.
It's just a normal distribution.
The Gaussian distribution
with some in and some variants
that are given by this formula
is important thing here,
I wonder if this I can point with this.
No, no okay anyway the scale
here is an important quantity
that is called the covariance,
the covariance matrix.
And it's essentially a matrix
that you build out of
your data out of your data
by applying what is called
a covariance function
to each of the, if each
combination of data points.
And the very very nice thing
is that for each layer,
you can compute this covariance matrix
just using the information
from previous layers.
So you can do, you can do this
training in a recursive way.

Spanish: 
dado que tengo alguna entrada X estrella
y algún set de entrenamiento
con instancias y etiquetas.
Y esto si asumimos que
este proceso gaussiano es,
tiene este formulario aquí.
Es solo una distribución normal.
La distribución gaussiana con
algunas variantes y algunas
que vienen dados por esta
fórmula es lo importante aquí.
Me pregunto si puedo señalar esto.
No. De todos modos, la escala aquí
es una cantidad importante
que se llama covarianza,
la matriz de covarianza.
Y es esencialmente una matriz
que construyes a partir
de tus datos a partir
aplicando lo que se llama
una función de covarianza
a cada uno de los, si cada
combinación de puntos de datos.
Y lo más bonito es que para cada capa,
puedes calcular esta matriz de covarianza
simplemente usando la
información de capas anteriores.
Para que puedas hacerlo, puedes
realizar este entrenamiento
de forma recursiva.

Japanese: 
入力Xスターがあることを考えると
そしていくつかのトレーニングセット。
インスタンスとラベルを使用する
このガウス過程を仮定すると、
ここにこのフォームがあります。
それは単なる正規分布です。
いくつかのバリアントといくつかのバリアントを持つガウス分布
この式で与えられることは、ここで重要なことです。
これで指摘できるかなぁ。
いいえ、とにかく、ここのスケールは重要な量です
これは共分散、共分散行列と呼ばれます。
そしてそれは本質的にマトリックスです
あなたのデータからあなたのデータから構築すること
いわゆる共分散関数を適用することにより
データポイントの各組み合わせの場合、それぞれに。
そして非常に素晴らしいのは、各レイヤーで
この共分散行列を計算できます
以前のレイヤーの情報を使用するだけです。
つまり、このトレーニングを再帰的に行うことができます。

Japanese: 
素晴らしいので、このことは存在します
では、なぜそれを使用しているわけではないのでしょうか。
ええと、それはまあ、それは超難しいようなものではありません
そうでなければ、この逆を計算することはNP困難ではありません
この共分散関数が必要であることを覚えておいてください
この共分散行列を使用しますが、
マイナス1にするには、その大きな行列を反転させる必要があります。
そして、この反転、ええ、それは超超難しいことではありません
しかし、それでも非常に大きなデータセットの場合
大量のポイントの場合、
人がしなければならない操作の数
データポイント数の3乗に対応します。
そして、これはある時点で少し扱いに​​くくなります。
そして一度、そう、それで私たちが今何ができるか。
ここに、量子コンピューティングが役立つ点があります。
では、なぜこのようなことをしないのでしょうか。

Spanish: 
Impresionante, entonces esta cosa existe.
Entonces, ¿por qué no todos lo usan?
Pues resulta que, bueno,
no es súper difícil
si no, no es difícil como
NP calcular esta inversa
así que recuerda que necesitamos
esta función de covarianza
con esta matriz de covarianza
pero tenemos un poder
al menos uno, tenemos que
invertir esa gran matriz.
Y esta inversión, sí, no
es súper súper difícil
pero, pero aún para conjuntos
de datos muy grandes
por una gran cantidad de puntos,
el número de operaciones que hay que hacer
va con la tercera potencia
del número de puntos de datos.
Y esto en algún momento se
vuelve un poco intratable.
Y una vez así, entonces,
¿qué podemos hacer ahora?
Este es el punto donde la
computación cuántica puede ayudar.
Entonces, ¿por qué no
hacemos algo como esto?

English: 
Awesome then, so this thing exists
so why is not everyone using it.
Well it turns out that, well
it's not like super hard
if not, it's not NP hard
to compute this inverse
so remember that we need
this covariance function
with this covariance
matrix but we have a power
to the minus one, we have
to invert that big matrix.
And this inversion, yeah
it's not super super hard
but, but still for very big datasets
for a large amount of points,
the number of operations
that one has to do
goes with the third power of
the number of data points.
And this at some point
becomes a bit intractable.
And once so, so, so
what what can we do now.
Here is the point where
quantum computing can help.
So why don't we do something like this.

Spanish: 
Codificamos estos vectores
Y y este caso estrella
en estados cuánticos e
interpretamos nuestra matriz
como operador cuántico.
¿Podemos ahora hacer algo más fácil?
Bueno, resulta que sí.
Afortunadamente, existía
este algoritmo de Hassidim,
Harrow Hassidim and Lloyd,
desarrollado en 2009
que permite hacer exactamente esto.
Entonces tienes un sistema A
multiplicado por X es igual a V
como un sistema lineal de ecuaciones.
Y existe un algoritmo cuántico
que recupera la solución
este, este vector X
que tiene una forma muy
similar a esta escala
al menos uno por Y.
Entonces podemos hacer
esa parte por un lado.
Y por otro lado, también
tenemos algoritmos cuánticos
para realizar este producto
interior de manera eficiente.
Entonces podemos hacer esto.
Y eso es lo que éramos, estos
son los tipos de resultados

Japanese: 
これらのベクトルYをエンコードします。
量子状態に変換し、行列を解釈します
量子演算子として。
もう少し簡単にできるでしょうか？
ええ、そうです。
幸いにも、ハシディムによるこのアルゴリズムがありました、
2009年に開発されたハローハシディムとロイド
これはまさにこれを可能にします。
つまり、AとXがVに等しいシステムがあります。
方程式の線形システムのように。
そして量子アルゴリズムが存在します
解を取得しますthis、this vector X
このスケールに非常によく似た形をしています
Yのマイナス1倍
そのため、一方でその部分を行うことができます。
一方で、量子アルゴリズムもあります
この内積を効率的に実行します。
これを行うことができます。
それが私たちのしたことです。まあ、これらは一種の結果です

English: 
We encode these vectors
Y and this this case star
into quantum States and
we interpret our matrix
as a quantum operator.
Can we now do something easier?
Well it turns out that yes.
Luckily there was this
algorithm by Hassidim,
Harrow Hassidim and
Lloyd, developed in 2009
that allows to do exactly this.
So you have a system A times X equals V
like a linear system of equations.
And there exists a quantum algorithm
that retrieves the solution
this, this vector X
which has a very similar
form to this scale
to the minus one times Y.
So we can do that part on the one hand.
And on the other hand, we
also have quantum algorithms
to perform this inner
product in an efficient way.
So we can do this.
And that's what we were, well
these are the sorts of results

Japanese: 
エンドツーエンドにするために接続していた
このベイジアントレーニングを行う量子アルゴリズム
ディープニューラルネットワーク
私たちが本質的に行ったことは、
これはここのこの紙にあります
半年ほど前にリリースしたものです。
基本的に、必要な成分は2つだけです
これは最初の再帰的な式です
関数としての層の共分散行列
前の層の共分散行列の。
そして必要なのはこれです。
取るに足らないことですが、
初期共分散行列、
最初の層の共分散行列
量子状態としてエンコード
つまり、原則として、たとえば、
古典的に計算し、そのような状態を準備する
とにかくこれ、これは少なくともこのプロジェクトでは気にしません
あまり気にしません

Spanish: 
que estábamos conectando para
tener un algoritmo cuántico
de extremo a extremo para hacer
este entrenamiento bayesiano
de las redes neuronales profundas.
Lo que hicimos, esencialmente
esto está en este papel aquí
que lanzamos hace como medio año.
Básicamente, solo
necesitamos dos ingredientes
el primero es la fórmula recursiva
para la matriz de covarianza
sobre la capa en función
de la matriz de covarianza
de la capa anterior.
Y luego necesitamos y
esto, es cierto que no es
una cosa trivial pero necesitaríamos
la matriz de covarianza inicial,
la matriz de covarianza de la primera capa
codificada como un estado cuántico.
Lo que quiero decir, en
principio, podrías, por ejemplo,
calcular clásicamente y luego
preparar tal estado pero
de todos modos esto no nos
importa al menos en este proyecto
no nos importa demasiado

English: 
we were connecting in
order to have an end to end
quantum algorithm to do
this Bayesian training
of deep neural networks.
What we did we do essentially,
this is in this paper over here
that we released like half a year ago.
Essentially we need just two ingredients
which is first the recursive formula
for the covariance matrix
over layer as a function
of the covariance matrix
of the previous layer.
And then we need and this,
it's true that it's not
a trivial thing but we would need the
initial covariance matrix,
the covariance matrix of the first layer
encoded as a quantum state
which I mean in principle
you could for instance,
compute classically and
then prepare such a state
but anyway this, this we don't
care at least in this project
we don't care too much about it

Spanish: 
dadas estas dos cosas,
lo que pudimos hacer
es construir una aproximación
de la matriz de covarianza
de la última capa.
De nuevo bien, construiremos
estoy luego lo que también
construimos fue el operador
de evolución temporal
bajo esta aproximación.
Entonces esto es esencialmente,
sí, esto podría codificarse
en un circuito cuántico
o simulado por una simulación hamiltoniana
y podría aplicarse en el algoritmo HHL
para hacer la impresión de matriz.
Entonces, esencialmente
sí, tomamos este estado
codificando la matriz de
covarianza inicial y desarrollamos
la evolución, el operador
de evolución temporal
que nos permite hacer
la inversión de matriz
de forma cuántica y calcular
los productos internos.

English: 
given these two things,
what we were able to do
is to build an approximation
of the covariance matrix
of the last layer.
Again well we will we build this
and then what we also built
was the time evolution operator
under this approximation.
So this is essentially,
yeah this could be encoded
into a quantum circuit
or, or, or simulated by
a Hamiltonian simulation
and could be applied in the HHL algorithm
to do the matrix impression.
So, essentially yeah, we take this state
encoding the initial covariance matrix
and we developed the evolution,
the time evolution operator
that allows us to do the matrix inversion
in a quantum way and
compute the inner products.

Japanese: 
これら2つのことを考えると、私たちにできることは
共分散行列の近似を作成することです
最後の層の。
繰り返しますが、これを構築します
そして、私たちが作成したのは、時間進化演算子です
この近似の下で。
これは本質的に
ええ、これは量子回路にエンコードできます
または、または、またはハミルトニアンシミュレーションでシミュレート
HHLアルゴリズムに適用できます
マトリックスの印象を行う。
だから、本質的にそう、私たちはこの状態を取ります
初期共分散行列のエンコード
そして、進化、時間進化演算子を開発しました
これにより、行列の反転を行うことができます
量子的な方法で、内積を計算します。

Spanish: 
Entonces para obtener los
parámetros de la distribución
al que queremos ajustar los datos.
No solo eso, esto era más teórico
pero luego también hicimos
algún tipo de experimentos.
Tengan en cuenta que
estos son experimentos
hechos por teóricos así que
pueden no satisfacer a los
experimentadores reales
pero bueno
estuvimos codificando
la parte central del
algoritmo esta parte de HHL.
Lo estábamos implementando
en varios marcos
en lo que respecta a Forest y en IBM Q.
Y estábamos haciendo simulaciones
de la ejecución del algoritmo.
para invertir grandes matrices
tan grandes como 4 por 4.
Y ejecutar los protocolos
en estos simuladores
utilizando diferentes tipos de ruido.
En esta figura tengo
ambos ruidos de puerta

English: 
So to obtain the parameters
of the distribution
that we want to fit the data to.
Not only that, this was more theoretical
but then also we did
some sort of experiments.
Bear in mind that these are experiments
done by theoreticians so they may
they may not satisfy real experimentalists
but well we were,
we were coding
the core part of the
algorithm this HHL part.
We were implementing it
in various frameworks
in regard to forest and in IBM Q.
And we were doing simulations
of the run of the algorithm
for invert, inverting big
matrix's as big as 4 by 4.
And running the protocols
in these simulators
using different, different kinds of noise.
In this figure I have both gate noise

Japanese: 
したがって、分布のパラメータを取得するには
データを適合させたいこと。
それだけでなく、これはより理論的でした
しかし、それから私たちはある種の実験もしました。
これらは実験であることを覚えておいてください
彼らはそうすることができるように理論​​家によって行われました
彼らは本当の実験家を満足させないかもしれません
でもまあ、
私たちはコーディングしていた
アルゴリズムのコア部分であるこのHHL部分。
さまざまなフレームワークで実装していた
フォレストとIBM Q.
そして、アルゴリズムの実行のシミュレーションを行っていました
反転の場合、4 x 4の大きさの大きな行列を反転します。
そして、これらのシミュレータでプロトコルを実行します
さまざまな種類のノイズを使用します。
この図では、両方のゲートノイズがあります

Spanish: 
que es un operador X aplicado
después de cada puerta
del circuito con alguna probabilidad
y ves que esto es horrible esencialmente
por la cantidad de puertas
que tienes en este
secreto es bastante grande
así que incluso para probabilidades bajas,
tienes muchos ex operadores
aplicando en tu estado
y luego tenemos este ruido de medición
que es solo un error de lectura
cuando realizas mediciones
y esto no es, no, no es tan malo.
No solo eso sino que
también hicimos ejecuciones
en computadoras cuánticas reales.
Tanto en IBM como en
Rigetti y en el caso de IBM
obtuvimos resultados
particularmente buenos.
En particular, tenemos aquí
bueno estoy poniendo esta
probabilidad de éxito
bajo una prueba de hisopo para no hacer
demasiado alboroto al respecto.
Esto puede traducirse en fidelidad.
con el estado de destino
deseado y en el caso de IBM
obtenemos una fidelidad
de aproximadamente el 78%,

English: 
which is an X operator
applied after every gate
of the circuit with some probability
and you see that this awful essentially
because of the number of gates
that you have in this
secret so it's quite big
so even for low probabilities
you have a lot of ex operators
applying on your on your state
and then we have this measurement noise
which is just a readout error
when you do measurements
and this is not, not, not that bad.
Not only that we also did runs
in real quantum computers.
Both of IBM and reeding
and in the case of IBM
we got particularly nice results.
In particular, well we got the here
well I'm putting this
probability of success
under a swab test just not to
make too much fuss about it.
This can translate into a Fidelity
with the desired target
state and in the case of IBM

Japanese: 
これは、すべてのゲートの後に適用されるX演算子です
ある程度の確率で回路の
そして、あなたはこれが本質的にひどいことがわかります
ゲートの数のため
あなたはこの秘密に持っているので、それはかなり大きいです
確率が低い場合でも、元の演算子がたくさんあります
あなたの状態にあなたに適用する
そして、この測定ノイズがあります
これは、測定を行うときの単なる読み出しエラーです
これはそれほど悪くはありません。
それだけでなく、実際の量子コンピューターで実行しました。
IBMとリードの両方、そしてIBMの場合
特に素晴らしい結果が得られました。
特に、よくここに
まあ私はこの成功の確率を入れています
綿棒テストの下でそれについてあまり騒ぎすぎないように。
これはフィデリティに変換できます
望ましい目標状態で、IBMの場合

Spanish: 
lo que es asombroso.
Así que sí,
eso es que es esencialmente
todo lo que quería decirte
solo para terminar rápido.
Espero tener
bueno, el mensaje es que
no todo el aprendizaje automático
es aprendizaje profundo.
Y en realidad hay otros marcos,
y otras formas de hacer
aprendizaje automático
que pueden ser más útil para
aplicaciones particulares.
En este contexto mediante el
uso de aprendizaje profundo
basado en procesos gaussianos, es útil.
Puedes entrenar redes muy grandes
pero también es clásicamente difícil.
Sin embargo, para lo clásico,
para las partes duras
podemos recurrir a la computación cuántica
y tener algún tipo de algoritmos
cuánticos clásicos híbridos
para hacer el entrenamiento
completo y en este sentido,
los experimentos que hemos
realizado son alentadores
como dije especialmente
en la plataforma IBM

Japanese: 
忠実度は約78％で、これは素晴らしいです
そうそう、
それは本質的に
私がまとめたいのは、すぐにまとめます。
私は願っています、
持ち帰りメッセージ
すべての機械学習がディープラーニングであるとは限りません。
そして実際には別のフレームワークがあります
機械学習を行う他の方法
これは、特定のアプリケーションに役立つ場合があります。
このコンテキストでは、ディープラーニングを使用して
ガウス過程に基づいているので、便利です。
非常に大規模なネットワークをトレーニングできます
しかし、それは古典的にも難しいです。
それにもかかわらず、クラシック、ハードパーツ
量子コンピューティングに頼ることができます
ある種のハイブリッド古典量子アルゴリズムを持っている
完全なトレーニングを行い、この点で、
私たちが行った実験は励みになっています
特にIBMプラットフォームで言ったように

English: 
we get fidelity's of about 78%
which is which is brilliant
so yeah,
that's that's essentially
all I wanted to tell you
just to wrap up quickly.
I hope I've,
well the takeaway message
is that not all machine
learning is deep learning.
And actually there's
other frameworks another
and other ways of doing machine learning
that may be more useful for
particular applications.
In this context by using deep learning
based in Gaussian processes, it is useful.
You can train very large networks
but it's also classically hard.
Nevertheless, for the
classical, for the hard parts
we can resort to quantum computing
and have some sort of hybrid
classical quantum algorithms
to do the full training
and in this respect,
the experiments that we have
conducted are encouraging
as I said especially in the IBM platform

Japanese: 
しかし、まだやらなければならないことがたくさんあります。
実際のコンピュータで反転できる行列
二つずつより大きくなかった。
だから、おそらくそれは手作業でそれを行うより少ない時間で済むでしょう
とにかく、すべてのツールがあります。
私たちはすべてのオープンソース、すべてのコードを実行しました。
したがって、それらは一般化に利用できるか、または、
または変更のために、それはだと思います
私たちが申請するのは時間の問題です
より現実的なシナリオでこれらのアルゴリズムの。
そして、それはすべて本当にありがとうございました。

English: 
but still there's a lot to be done.
The matrix's that we could
invert in real computers
were not bigger than two by two.
So probably it would take less
time maybe doing that by hand
but anyway, all the tools are there.
We did everything open
source, all the code so,
so they are up to available
for generalization or,
or for the modifications
and I guess it's a
it's a matter of time
that we have application
of these algorithms in
more realistic scenarios.
And that's all thank you very much.

Spanish: 
pero aún queda mucho por hacer.
La matriz es que podríamos
invertir en computadoras reales
no eran más grandes que dos por dos.
Entonces probablemente tomaría
menos tiempo hacerlo a mano
pero de todos modos, todas
las herramientas están ahí.
Hicimos todo de código
abierto, todo el código,
por lo que están disponibles
para la generalización o,
o por las modificaciones
y supongo que es un
es cuestión de tiempo
que tengamos aplicación
de estos algoritmos en
escenarios más realistas.
Y eso es todo, muchas gracias.
