
Spanish: 
Definitivamente, el mundo se va a terminar algún día.
todo esto desaparecerá
no hay nada que podamos hacer para pararlo.
Todo es temporal, y nos vamos a morir todos.
Superamos el Y2K, la plaga negra, y la Crisis de los Misiles cubanos 
Y aún así, el 22% de la población estadounidense cree que el mundo terminará mientras ellos vivan.
10% creía que el mundo iba a terminar en 2012
cuando finalizaba el Calendario Maya, pero
saben, eso terminó saliendo bien.
Pero hay también toneladas de teorías sobre
cómo el mundo se va a terminar.
Desde los aliens a la guerra nuclear, a que todo esto
es una simulación que alguien va a apagar en algún lado.
Yo voy a buscar cuál es la verdadera.
Vamos a hablar con algunos expertos, compartir un poco de historia,
y vamos a encontrar que es lo que finalmente nos va a terminar liquidando.
Cuánto tenemos hasta que eso suceda, y
si hay algo que podamos hacer hasta frenarlo.
Capítulo 1:
La idea de la inteligencia artificial obteniendo superioridad
y dominando a la humanidad ha estado en la ciencia ficción por siempre

English: 
The world is definitely going to end one day.
All of this will be gone and
there's nothing we can do to stop it.
Everything is temporary and we’re all gonna die.
We made it through Y2K, the black plague, and the Cuban missile crisis
 and yet 22% of Americans still think the world will end in their lifetime.
10% thought it was going to end in 2012
when the Mayan calendar ended, but
you know, that turned out fine.
But there’s still tons of theories as to just how
the world is going to end.
From aliens, to nuclear war, to all of this
being a simulation that just gets shut down all of a sudden.
I’m gonna find out which one the truth is.
We’re going to talk to some experts, share a little history,
and we’re going to find out what’s really going to do us in.
How long we have until it happens and
if there’s anything we can do to slow it down.
Chapter 1:
The idea of artificial intelligence gaining superiority
and taking over humanity has been in sci-fy forever

English: 
from The Matrix, to The Terminator,
to Disney Channel original movie, 'Smart House'.
And real people are worried about it too,
like some of the smartest people in the world.
I think the development of full artificial intelligence
could spell the end of the human race.
So I went to talk to the leader of the
human resistance against the robots.
Our last bastion of hope as a civilization.
People that are programming artificial intelligence
and the engineers, they have biases, they’re human beings.
Is that a problem that you guys think about, like the people's
biases slipping into the programming?
Quite a bit, yeah, and this is especially important
when you start looking at biometric data and things like that.
So if you're trying to recognize specific individuals or people who
might be a certain nationality or ethnicity, as potential targets—
of course you have all sorts of scope for racism being
built into these systems.
And that’s particularly important as these systems are
going to start being adopted by police departments.
Where we already have a lot of racism and racialized violence by police.
And now they can actually program all that racial bias into the robots
and let the robots do it.

Spanish: 
desde The Matrix, a Terminator,
a la película original de Disney Channel 'Hogar, inteligente hogar'.
Y las personas están preocupadas por eso también,
entre ellas, algunas de las más inteligentes del mundo.
Creo que el desarrollo de la inteligencia artificial completa
puede significar el fin de la raza humana.
Entonces fui a hablar con el líder de
la resistencia humana contra los robots.
Nuestro último bastión de esperanza como civilización.
La gente que programa la inteligencia artificial
y los ingenieros, tienen sus propias inclinaciones, son seres humanos.
¿Es eso un problema sobre el que ustedes piensan, algo así como esas inclinaciones
influyendo en su programación?
Un poco, sí, y esto es especialmente importantet
cuando comenzás a mirar datos biométricos y otras cosas por el estilo.
Entonces, si estás intentando reconocer habilidades específicas individuales o gente que
podría tener una cierta nacionalidad o pertenecer a cierta etnia, como posibles objetivos—
por supuesto tienes todas estas variedades de racismo
construidas dentro de estos sistemas.
Y eso es particularmente importante porque estos sistemas van a
empezar a ser utilizados por departamentos de policía.
Donde ya tenemos un montón de racismo violencia radicalizada desde la policía.
Y ahora ellos de hecho pueden aplicar ese racismo a los robots
y dejar que los robots lo hagan.

English: 
Robots are not moral agents.
If you send out robots, they’re not going to disobey orders, right?
They’re going to fire on the population.
What is the kind of worst case scenario?
What’s more concerning is where this could
become a geopolitical issue where countries could
get into arms races with each other,
could accidentally start wars through these automated systems.
You look at the demilitarized zone in North Korea
where there’s already some automation,
some automated sentry guns that are being deployed there.
You could very easily get into a situation where the machines are
escalating and initiating conflict—
without any humans making the decision to go to war.
Chapter 2:
Was Peter right?
Are robots really just weapons of mass destruction
that are also incredibly racist?
I went to the source to find out.
What are you planning?
Tell me what you’re planning!

Spanish: 
Los robots no son agentes morales.
Si envías robots, ellos no van a desobedecer órdenes, verdad?
Ellos van a disparar a la población.
¿Cuál es el peor escenario posible?
Lo que es más preocupante es dónde esto puede 
convertirse en un problema geopolítico en el que los países pueden
entrar en una carrera armamentística los unos contra los otros,
y que accidentalmente podrían comenzar una guerra entre ellos.
Miras la zona desmilitarizada en Corea del Norte,
 donde ya hay algunos automatismos,
algunas armas automatizadas ya se están utilizando allí.
De forma muy fácil, podrías meterte en una situación en la que las máquinas
avivan e inician conflictos—
sin que haya humanos tomando las decisiones sobre si ir a la guerra o no.
Capítulo 2:
¿Tenía razón Peter?
¿Son realmente los robots estas armas de destrucción masiva
que además son increíblemente racistas?
Fui a la fuente a buscar una explicación a esto.
¿Qué estás planeando?
Dime lo que estás planeando.

Spanish: 
La base del consorcio para la investigación sobre robots
realmente se trata de juntar diferentes áreas disciplinarias
para tener una especie de 
acercamiento ético acerca de cómo estamos usando estas herramientas.
Si nosotros no lo hacemos, alguien más lo va a hacer.
Y entonces depende de nosotros asegurarnos de que la forma en la que usamos
robots es ética y es responsable para la humanidad.
Entonces, los robots son tan susceptibles de ser educados para
pintar tanto como para matar.
Pero probablemente no son estos robots industriales los que nos deberían preocupar.
Capítulo 3:
Está esta teoría llamada ‘Grey Goo',
que dice que estos nano-robots que se auto replican
básicamente, pequeños robots que pueden hacer copias de sí mismos—
solo se replicarán y replicarán y replicarán
hasta que cubran y se coman el ecosistema de la tierra.
Sede los 80’s esta teoría ha sido menospreciada,
pero todavía estoy realmente asustado de eso.
Entonces fui a conversar con dos expertos en riesgo existencial.

English: 
The foundation of the consortion for research and robotics
is really about bringing together different disciplinary areas
in order that we have a kind of ethical
approach to how we’re using these tools.
If we don’t do it, then somebody else is going to do it.
And so it's up to us to make sure that the way we use
robots is ethical and that it’s responsible around our humanity.
So, robots are just as likely to be taught to
paint as they are to kill.
But it’s probably not these industrial robots that we have to worry about.
Chapter 3:
There’s this theory called 'Grey Goo,'
which says that self-replicating nano-robots
basically, tiny little robots that can make copies of themselves—
will just keep replicating and replicating and replicating
until they covered and ate the entire earth’s ecosystem.
Since the 80’s that theory has been disproven,
but I’m still really scared ot it.
So I went to talk to two experts in existential risk.

Spanish: 
No tendría que ser gris, no tendría que ser pegajoso,
podría se algo como tierra que es soplada por el viento como polen. .
Sigue siendo posible que un malicioso individuo de algún tipo
pudiera diseñar de forma intencional estas nano-máquinas—
para atrapar un poco de cualquier material orgánico que esté en su entorno inmediato
y lo convierta en un clon de sí mismo
y los resultados serían obviamente catastróficos—destruiría
la biósfera y con la biósfera, mataría a los seres humanos.
Un planeta sin vida, una fosa común para la humanidad.
Cubiertos por robots pequeños?
Cubiertos por pequeños robots que se reproducen indiscriminadamente.
En realidad estamos preocupados por algo
mucho, mucho más amenazante.

English: 
It wouldn’t have to be grey, it wouldn’t have to be gooey,
it could be something like dust that’s blown through the wind like pollen.
It remains possible that a malicious individual of some sort
could intentionally design these nano scale machines—
to grab a hold of whatever organic material is in their immediate
environs and convert it into essentially a clone of itself
and the results would be obviously catastrophic—it would destroy
the biosphere and with the biosphere, it would annihilate human beings.
An utterly lifeless planet, a graveyard for human civilization.
Covered in tiny robots?
Covered in mindlessly, reproducing, self-replicating nano-bots.
Actually what we’re worried about is something
far, far more menacing.

English: 
The idea is that if you were to have a super intelligent A.I. 
whose values are even slightly misaligned with ours.
That could be catastrophic.
It’s a daunting, formidable, and somewhat
frightening situation.
All of these guys have different outlooks on what
an A.I. future will look like, but they
agree on one thing.
Humans can stop this.
We’re in charge of this technology.
Well, for now at least.
The A.I. industry will likely be pulling in
$37 billion by 2025.
And the robotics industry makes billions more already.
And robots can be great.
Remember Furby's?
Those were dope.
But if that’s not how the world ends, what is?
I thought back to something Peter told me earlier.
Chemical weapons, biological weapons, nuclear weapons,
mass destruction weapons,
but if you have the ability to create a fleet,
an army of robots that could be under the control of
one person or a small group of people—you could have
similar kinds of effects.
The notion of a weapon of mass destruction, is that a small
group of people,

Spanish: 
LA idea es que si tuvieras una Inteligencia Artificial súper inteligente
cuyos valores están apenas desalentados con los nuestros.
Eso sería catastrófico.
Es una desalentadora, formidable y de algún modo
aterradora situación.
Todos estos tipos tienen diferentes puntos de vista sobre
cómo la inteligencia artificial se verá, pero ellos
están de acuerdo en una cosa.
Los humanos pueden parar esto.
Estamos a cargo de esta tecnología.
Bueno, al menos por ahora.
La industria de la inteligencia artificial recaudará
unos $37 mil millones de dólares para 2025.
Y la industria de la robótica ya hace millones.
Y los robots pueden ser geniales.
Recuerdas a Furby's?
Esos estaban buenos.
Pero si es así como el mundo termina, ¿qué es?
Me acordé de algo que Peter me dijo antes.
Armas químicas, armas biológicas, armas nucleares
armas de destrucción masiva,
pero si tienes la capacidad de crear una float,
un ejército de robots que podría estar en control de
una persona o un pequeño grupo de gente—podrías tener
un tipo de efecto similar.
La noción de un arma de destrucción masiva, es que un pequeño grupo de gente,

English: 
or an individual with one device, or a small number of devices 
could do an enormous amount of destruction.
We already talked about nukes and disease outbreak,
but what about a weapon that no one on earth could possibly understand?
Something completely beyond our comprehension.
Aliens.
Next time.

Spanish: 
o un pequeño individuo con un dispositivo, o un pequeño número de dispositivos
puede producir una enorme cantidad de destrucción.
Ya hablamos de armas nucleares y de epidemias,
pero, ¿qué tal un arma sobre la que nadie en la Tierra pueda entender?
Algo completamente fuera de nuestra comprensión.
Extraterrestres.
La próxima vez.
