Durante casi cinco años de hacer Philosophy Tube, no mencioné el problema del tranvía ni una vez
Durante casi cinco años de hacer Philosophy Tube, no mencioné el problema del tranvía ni una vez
Durante casi cinco años de hacer Philosophy Tube, no mencioné el problema del tranvía ni una vez
hasta hoy.
Parte uno: noventa y nueve problemas pero un tranvía no es uno.
Autos autónomos. Al parecer, van a ser grandes.
Los autos mismos probablemente van a ser de distintos tamaños pero como fenómeno van a ser enormes,
Los autos mismos probablemente van a ser de distintos tamaños pero como fenómeno van a ser enormes,
Los autos mismos probablemente van a ser de distintos tamaños pero como fenómeno van a ser enormes,
y también lo son las implicaciones éticas.
Investigando éste episodio leí muchos artículos sobre la ética de los autos autónomos,
Investigando éste episodio leí muchos artículos sobre la ética de los autos autónomos,
o mejor dicho leí un artículo sobre la ética de los autos autónomos
que parece haber sido escrito una docena de veces por distintas personas todo a travéz de la internet,
y ése artículo habla de los autos autónomos y el problema del tranvía.
y ése artículo habla de los autos autónomos y el problema del tranvía.
El problema del tranvía, por si no lo conocen, es característico de cursos de filosofía de licenciatura,
vamos a hablar de él, y luego criticarlo.
Primero, para los que no lo conocen, déjenme recaptarselos.
Estás parado/a al lado de una vía por el cual pasan tranvías,
y hay un tranvía andando fuera de control.
Mirás a la vía y ves que va a chocar y matar a cinco personas,
pero estás parado/a al lado de una palanca que causará que cambie de camino,
y si vos lo decidís, podés bajar la palanca y salvar a esas cinco personas;
pero en la otra vía hay parada una persona que el tranvía chocará  matará.
UOAHHGH.. QUÉ HACER?
Si lo dejás, cinco peronas morirán;
Si lo cambiás solo una persona morirá mero vos elegiste deliberadamente matarla
en vez de permitir que alguna gente muera.
¿Es mejor salvar a la mayoría o obedecer la regla que nunca debés matar gente deiberadamente ?
¿Hay una diferencia moral entre matar y dejar morir-
o hay una tercera opción o proceso de decidir?
Éstas son las preguntas que el problema del trnvía intenta provocar,
y hay millones de distintas versiones: aveces la persona tiene una enfermedad terminal,
aveces las cinco personas son criminales violentos o son viejos o son jóvenes o son nazis o lo que sea.
Éso es cuando el problema del tranvía se convierte en los problemas del tranvía.
Parte dos: demasiado rápido, demasiado curioso.
Si sos muy astuto/a ya habrás visto como ésto tiene que ver con autos autónomos.
Aveces, no siempre, pero aveces,
en la vida real hay situaciones sin salida como el problema del tranvía,
y cuando los conductors humanos se encuentran en ellas simplemente tienen que hacer una decisió de medio segundo.
Pero porque un auto autónomo debe estar programado antes de tiempo,
algo así como una respuesta a algo así como el problema del tranvía tiene que ser enfrentado por programadores
ántes de que ocurra la situación sin salida.
Acá está el primer desafío: Imaginá que estámos programando un auto autónomo juntos, somos el equipo de ética y filosofía
al que llamaron para consultar a los manufacturadores.
Tenemos dos opciones:
¿Le decimos a la computadora ue se comporte como lo haría un conductor humano...
(ahí tenés una foto de un conductor humano)
...o le decimos que se comporte como creeos que un conductor humano debería?
Quizás preferas la segunda opción, después de todo ya queremos que los autos autónomos sean mas efficientes
y más seguros que un conductor humano, ¿por qué no también mas moral que un conductor humano?
Pero éso es difícil, porque sinifica que tnemos que sentarnos a resolver el problema del tranvía.
La otra opción sería decirle a la computdora "hacé nomás lo que haría un conductor humano.
Tomamos un montón de conductores, los ponemos en simulacros de accisentes y situaciones sin salida,
grabams o que hacen ellos y le decimos a la computadora "hacé eso nomás".
De esa manera la computadora sería por lo menos no más malhechora detrás del volante que una persona, presumiblemente.
Pero puede que eso no sea lo que la gente quiera, de hecho.
Según el psicólogo Daniel Kahneman, la gente prefiere que un resultado negativo sea causado por una persona tomando una mala decisión
en véz de que un resultado negativo 
 del mismo valor esté causada por una computadora teiendo un error de estadísticas.
Preferimos tener a alguen para hecharle la culpa, hasta si terminamos haciéndolo más seguido.
Por ejemplo, en agunas circunstancias algoritmos de diagnóstico medico pueden ser más exactos que un médico,
pero hasta sabiéndo esto, los pacientes prefieren que un doctor humano le haga la diagnosis,
porque si ellos se equivocan, hay alguien para hecharle la culpa y se siente como que se puede hacer algo al respecto,
en cambio, si la computadora se equivoca es simplemente un hecho que el 0.2% de las veces o lo que sea, le sale el resultado equivocado
y no hay nada que puedas hacer, que es menos aliviador.
Pueden también haber otros problemas con hacer que vehículos autonomos immiten vehíulos autóomos también.
¿Nuestros principios práctcos y étios para hacer decisiones pueden ser expresados de forma concreta y rápida como lo requiere una computadora?
El filósofo Herbert Dreyfus cree que no, y eso es por qué dije que una compudatora "presumiblemente" sería menos malhechora que una persona
Dreyfus cree que nosotros no tomamos decisiones basadas en reglas concretas sin excepción como lo hacen las computadoras.
Podemos modelar el comportamiento humano usando un algoritmo,
pero poder modelar algo usando un algoritmo no equivale a que eso esté  en función a un algoritmo.
Podés predecir el tiempo usando un algoritmo, pero el tiempo no es dictminado por un algoritmo.
Quizás nuestra toma de decisiones práctica-ética en una emergencia como un accidente de tránsito o un
problema de tranvía no es 
 realmente consistente.
Sabemos que cosas como bies implícito existen,
y la toma de decisiones humana puede estar afectada por todo tipo de cosas como
cómo te sentís y si tomaste una taza de café a la mañana y cosas que, filosóficamente hablando, no deberían ser relevantes,
que significa que si intentamos encontrar estos principios en un simulacro y enseñárselos a una computadora
posiblemente no podamos encontrarlos, o peor, quizás nos encontrmos con principios malos y enseñárselos.
PBS Idea Channel ya hizo muy buen trabajo sobre como las máquinas y algoritmos  pueden heredar bies,
hasta incluso racismo de sus creadores humanos, porque la tecnología está creada por nosotros
y refleja nuestros ideales y valoes.
Habiendo revisado la literatura creo que hay un riesgo real de complaciencia ética acá.
Por ejemplo: éste artículo en IEE Spectrum por Nosh Goodall dice
"La ética de vehículos de calle automación es un problema resolvible.
Sabemos esto porque otros campos han manejado beneficios y riesgos comparables de una forma segura y sazonable.
órganos donados son distribuidos a los enfermos basado en métricas basadas en años de vida ajustados de calidad y años de vida ajustados de desabilidad,
entre otras variables. Y la llamada a filas militar agregó excepciones para ciertas profesiones útiles ,
como granjero y maestro."
Y no sé si no me llegó el dato o algo, pero la última vez que me fijé
los problemas éticos de desabilidad, años de vida de calidad ajustada, recursos médicos y la llamada a filas militar definitivamente no están resueltos.
No miré twitter desde la mañana así que por ahí  lo resiovieron recientemente pero(...)
La idea que podemos simplemente mirar como otras personas abordan problemas éticos y aplicarlos a esto
presume que esos otros problemas éticos fueron, de hecho, resueltos.
También asume que los dilemas éticos pueden ser resueltos em vez de simplemente abordados.
En su libro "Click here to save everything" Evgeny Morozov  dice que tecnología y desarrollo tecnológico
nos condiciona a pensar en términos de problemas y soluciones.
Las soluciones, en el sentido de ingeniería son claras, son específicas a un problema dado y bien definido, dan siempre el mismo resultado
y algo o funciona o no es una solución.
Pero algunos problemas no son así, no pueden ser resueltos,
siempre serán ambiguos, dependiente del contexto a un grado relativo, quizás
y tener beneficios y contras a todo movimiento que hagamos
Que hasta podría causar que reconsideremos como visualizamos el problema.
EL crimen es un ejemplo perfecto; nunca "resolveremos" el crimen.
Si fuéramos a eliminar todo el crimen de una , bueno, eso seria horrible! Tendríamos que estar viviéndo en algún tipo de sociedad totalitaria,
Y, aveces, el crimen puede ser bueno, hasta moralmente necesario.
el crimen resulta de condiciones sociales muy complejas, y algunas de ellas, las queremos mantener
y entonces no podemos realmente resolverlo, solo abordarlo y medir las pros y contras.
Estamos muy acostumbrados a la tecnología y desarrollo tecnológico siendo presentados como soluciones
Y Morozov dice que "cuando lo único que tenés es un gran martillo, todos tus problemas éticos se empiezan a ver como clavos."
Parte tres: ¿Quién carajo viaja en tranvías?
Los problemas de tranvía se mencionan mucho, y muchos artículos solo hacen lo que hice yo en parte uno:
mencionar que existen, explicarlos y decir que son relevantes con autos autónomos,
pero ¿Lo son?
¿Los problemas te tranía tienen alguna utilidad siquiera?
Un criticismo de los problemas de travía es que todos los resultados se conocen;
el tranvía o mata a cinco  mata a uno,
que és un escenario bastande distinto a como son las tomas de decisiones morales realmente,
en los que no siempre estamos seguros de cuáles serán las consecuencias
y tenemos que adivinar, nomás.
Los problemas de tranvía también muestran la toma de decisiones morales de manera uy individualística,
en cambio en la vida real, trmbién es importante hacer preguntas sobre las condiciones que forman nuestros dilemas éticos.
En su artículo "El problema del tranvía no te dirá nada útil sobre la moralidad",
Rianna Rennix y Nathan Robinson escriben:
"Tendríamos que pasar mucho más tiempo inquiriendo la atitúd lánguida  de la empresa del tranvía ante las precauciones de seguridad,
y si es moralmente justificado minimizar inspecciones voluntarias de frenos en función de bajar costos de operación y maximizar ganancias."
Obviamente esa cita es un poco bromista pero el punto es:
Avees la forma de a que llegamos a un dilema ético es de igual importancia o incluso más importante que el dilema ético mismo.
Por ejemplo:
Al momento, en ésta misma ciudad, la "lista autónoma de anarquistas liberitarios", o ANAL para ser más corto
tomaron una mansión de quince millones de libras esterlinas en Eaton Square.
La mansión le pertenece a un billonario ruso que tiene, creo que, cuatro o cinco mansiones en en Reino Unido
y esuvo vacío por meses, lo tomaron y lo convirtieron en un refugio para indigentes.
Técnicamente ilegal, pero, haciéndole algo bueno a alguien mas,
"uuh que dilema filosófico,
Clase de filosofía 101; escriban quinientas palabras sobre ésta decisión y déjenlo en m escritorio el lunes a la mañana."
Pero esperen un momento, pensémos en las condiciones éticas de fondo.
¿Me estás diciéndo que hay casas vacías e indigentes? ¿Por qué´?
¿Cómo llegamos a esa situación?
¿Por qué la gente se vuelve indigente en el primer lugar?
Vés como la prgunta original, como el problema del tranvía, toma los elementos de la pregunta como u hecho dado.
Y por enfocar únicamente en esa decisión individual, podemos pedrer algunos de los tems más ricos que evuelven y crean la pregunta misma.
De la misma forma, el problema del tranvía también presenta un escenario
en el que tomar a decisión correcta, cual sea que elijas, no te cuesta nada materialmente.
En cambio en la vida real puede ocurrir que la cosa correcta para hacer es la menos lucrativa,
por lo menos aveces.
Asuntos como éstos llevan a Rennix y Robinson a decir:
"Ésto hace que el problema del tranvía sea la pregunta perfecta para la era neoliberal,
ya que reduce todo a deisión individual y nos dice que no hay alternativa a estructuras de poder existentes."
Entonces ¿Quáles son los asuntos éticos de fondo de autos autónomos?
Bueno, la ética de las empresas que los hacen, por un lado.
Uber, por ejemplo, desobedeció la ley en California al poner a prueba autos autónomos en calles públicas, según el general fiscal.
El modelo de negocio entero de Uber es aprovecharse de escapatorias de leyes de trabajo para dominar el mercado de transporte en ciudades mayores en todo el mundo
Llenádolos de conductores poco pagádos y explotados para destruir la competencia, mientras esquivan o rompen regulacioes existentes.
Una vez que hicieron eso, van a hechar a todos los conductores y reemplazarlos con autos autónomos para ganar todo el dinero del mundo.
Vieron como Uber siempre dicen "Nuestros conductores no son empleados,son contratitas independientes."
Si, eso es porque si fueras legalmente un empleado, tendrías algún derecho cuando te reemplazen con un auto autónomo,
y ellos no quieren eso.
Quieren que hagas de Uber una marca global pero después quedarse con toda la ganancia que les hiciste.
Acá tenés otra pregunta importante de fodo ética:
Digamos que hay un consuctor humano manejando, y un pibe corre al medio de la calle
El condctor desvía bruscamente al auto, monta el cordón, y te choca a vos.
Sos un peatón caminando por ahí en la tuya y PUM.
Si querés, podés llear a ese conductor a la corte.
Quizás no ganes, pero los podés dar la culpa.
Podés requerirle que se pare en público y defienda esa decisión.
Imaginemos qu ahora en véz de un humano, es un auto autónomo.
Si lo pensás, es la misma situaión, solo que la decisión de desviar y chocarte a vós
se tomó hace meses por un programador de computadoras que programó al auto que mida riegos y resultados de esa manera.
Recordá que no son realente "vehículos autónomos" solo sin supervisión.
no son realmente "sin conductor", solo pre-manejados.
¿Podés llevar al programador de computadoras a la corte?
¿O la empresa que hizo el auto?
Porque si no podés, alguna companía de software tiene otorgado el poder inexplicable de vida y muerte por encima tuyo.
ESO es un puto problema de tranvía.
Nos desviamos un poco de problemas de tranvía,
¿Son realmente útiles? eeeeh ¿útiles para qué?
¿Útiles para decidir lo que tendríamos que hacer?
Discutiblemente no lo son.
¿Útil como simulacro de dilemas éticos reales?
Eeeh discutiblemente no.
¿Útil para revelar los instinctos morales interiores de la gente? Si, puede ser.
¿Útil como herramienta de enseñanza para comparar varias teorías éticas y como andamio para presentarles a la ética de autos autónomos?
Definitivamente.
Y en el espíritu de Evgeny Morozov, no voy a concluir  ofreciendo una solución.
Voy a dejarlos a discutir sus varias propuestas éticas
en los comentarios.
Patreon.com/Philosophytube es lo que me permite pagar la renta y hacer el prorama.
Por favor tomen un minuto prar registrarse y dar lo que puedan,
alternativamente paypal.me/philosophytube es donde  gente generosa puede hacer donaciones de una vez.
