Estrategias para pensar. Un curso para razonar mejor y tomar decisiones creativas en equipo.
Capítulo Tres: ¿Cómo saber qué no es verdad?
“Según un estudio, las personas groseras
son más inteligentes” “Comer este alimento
te dará un abdomen plano”, “La Tierra
es plana”, “Millonario comparte su fortuna:
haz click aquí” Es increíble que la gente
sea tan ingenua para creer esas cosas.
Es cierto. Pero también es cierto que todos
somos susceptibles a caer en errores de la
mente…
Algunas personas no caemos TAN fácil…
Con mucha frecuencia saltamos a conclusiones
equivocadas creyendo que son completamente
lógicas ¿recuerdas el ejemplo del yo-yo
y la cuerda?
Ejem…
¡Ja ja ja ja!
Es muy común sobreestimar nuestras capacidades.
De hecho se ha estudiado un efecto llamado
“El efecto Dunning-Kruger”.
Se ha demostrado que, mientras menor sea el
conocimiento que tenemos en un área, más
tendemos a creer que sabemos mucho. Las personas
que más conocimiento tienen, son más conscientes
de lo que ignoran.
Además tenemos una tendencia a responder
rápido, con la información que tenemos disponible.
¿Puede darnos un ejemplo?
Hagamos este acertijo...
En la superficie de este lago hay plantas
acuáticas. Cada día, la población de plantas
se duplica. Le tomó a la la planta 48 días
cubrir la totalidad del lago. ¿Cuántos días
le tomó cubrir la mitad?
¡Aghh! Estuve a punto de decir que 24 días:
la mitad del tiempo.
¡Pues es lógico que sea 24 porque…! ¡Ah,
no! ¡Son 47 días! En el último día la
planta, que ya había cubierto la mitad de
la superficie, se duplica y cubre la totalidad
del lago. ¡Arrh! ¡Ya me demostró que soy
tonto! ¿Ahora qué?
¡Ja ja ja! No es que seas tonto. Todos podemos
cometer ese error.
El psicólogo Daniel Kahneman lo explica en
su libro “Pensar rápido, pensar despacio”.
Kahneman explica que, al momento de resolver
problemas o tomar decisiones, en nuestra mente
operan dos sistemas.
El Sistema 1 tiene esquemas predefinidos de
respuesta. Por lo tanto actúa muy rápido.
Se deja llevar por la intuición y funciona
la mayor parte del tiempo. Por otro lado,
está el Sistema 2. Éste es el que analiza
las cosas cuidadosa y lentamente. Pero es
muy flojo: le cuesta trabajo ponerse en acción.
Estos dos sistemas no son partes físicas
del cerebro ni entes independientes: son sólo
representaciones de dos modos de enfrentarnos
a las situaciones.
Una manera sencilla de que distingas cómo
actúan los dos sistemas es respondiendo a
las siguientes dos preguntas…
Primera pregunta: ¿Cuánto es 2 x 4?
La respuesta te vino a la mente muy rápido:
ese es tu sistema 1 en acción.
Segunda pregunta: ¿Cuánto es 14 x 37?
Si eres como la mayoría de las personas,
esta pregunta te tomó más tiempo. Incluso
tuviste que tomarte un momento para decidir
si la contestabas o no o quizá ni la contestaste:
ese es el comportamiento del Sistema 2.
Pero si el sistema 1 se equivoca tan fácil
¿por qué lo usamos?
El recurrir al sistema 1 es conveniente porque
es muy rápido ¡y funciona la mayor parte
de las veces! Imagina que eres un hombre primitivo
explorando la llanura.
Ves la huella de un depredador y oyes un ruido
de pasos en la hierba. ¡Inmediatamente formas
en tu mente la ide ade peligro y te pones
a resguardo! Es más conveniente reaccionar
rápido que estar en lo correcto.
Si después te das cuenta de que las huellas
eran viejas y que los pasos los hacía un
animal inofensivo, no pasa nada.
Pero si te hubieras detenido a pensar y resulta
que sí había peligro ¡las consecuencias
podrían ser fatales! La evolución favoreció
nuestra facultad de reconocer patrones y reaccionar
rápidamente.
El problema es que, en efecto, nos puede llevar
a conclusiones equivocadas, reforzando estereotipos
y creencias equivocadas.
Intentemos el siguiente ejercicio: Hay una
ciudad con 100 mil personas, que se dedican
a muchas actividades diferentes y tienen diferentes
modos de pensar. Escojamos a una persona al
azar. Resulta que se llama Miguel. Esta es
su descripción:
“Miguel tiene 28 años. Es muy estudioso,
trabajador y siempre sacó buenas calificaciones.
Es introvertido, soñador, imaginativo y prefiere
actividades tranquilas e individuales, como
leer y dibujar, que las actividades ruidosas.
Es meticuloso y ordenado.”
¿Cuál de las siguientes afirmaciones es
más probable?
A. Miguel es cajero bancario
B. Miguel es cajero bancario y aficionado
a los cómics.
(TIEMPO PARA PENSAR)
¿Cuál escogiste?
Probablemente tu Sistema 1 se adelantó a
pensar que la opción B, pero si convenciste
al al Sistema 2 de que se pusiera a trabajar,
verás que la más probable es la opción
A. No es una opinión, es una verdad matemática.
Piénsalo así:
Si este es el conjunto de cajeros bancarios
en la ciudad y este el conjunto de aficionados
a los cómics, la conjunción de ambos, cajero
y aficionado a los cómics necesariamente
es menor (o cuando mucho igual) a cualquiera
de los dos conjuntos.
Este tipo de errores del pensamiento es un
sesgo cognitivo, y hay muchos como para enumerarlos
todos. Estos son algunos de los sesgos más
comunes a los que nos empuja nuestro apresurado
Sistema 1:
El efecto halo:
Sucede cuando juzgamos a la totalidad de una
persona a partir de las primeras características
que le conocemos.
Es muy común que pensemos que una persona
atractiva y pulcra sea también confiable
o amable, por ejemplo.
Si un alumno saca mala calificación en un
trabajo al principio del curso, es muy probable
que el profesor siga calificándolo duramente
aunque la calidad de sus trabajos mejore.
Si un político nos gusta o nos disgusta desde
un principio, es muy difícil que sus acciones
futuras cambien nuestro punto de vista.
Hay estudios que demuestran una clara a tendencia
a creer como verdaderas afirmaciones que están
escritas con una letra clara, grande y formal
en comparación con afirmaciones que están
escritas con letra pequeña y poco formal
¿Cuál de estas dos afirmaciones es la verdadera:
(“La Segunda Guerra Mundial acabó en 1943”
“La segunda Guerra Mundial acabó en 1946”).
Respuesta: ninguna. La Segunda Guerra Mundial
acabó en 1945.
Sesgo de confirmación.
Ocurre cuando buscamos y recordamos información
que refuerza nuestros esquemas mentales e
ignoramos aquella que los contradice.
Por ejemplo, si creemos que cierto grupo social
es más propenso a la violencia, recordaremos
más fácilmente las noticias donde dicho
grupo fue violento e ignoraremos aquellas
en las que fueron generosos o responsables.
Efecto de arrastre.
Tiene lugar cuando adoptamos una opinión
sólamente porque mucha gente la tiene.
Daniel Kahneman dice: "Para algunas de nuestras
creencias más importantes no tenemos la menor
evidencia fuera de que las personas a quienes
creemos y en las que confiamos mantienen esas
creencias" "Las personas pueden mantener una
fe inquebrantable en una afirmación, por
absurda que sea, si se sienten respaldadas
por una comunidad con su misma mentalidad"
La aversión a la pérdida.
Somos muy renuentes a perder algo que tenemos
o en lo que ya hemos invertido.
Imagina que has gastado mucho dinero en poner
un negocio.
De repente te das cuenta de que el lugar en
el que te instalaste es terrible y que lo
más probable es que no ganes nada.
Aunque lo más conveniente sería dar por
perdido lo que invertiste y así evitar perder
más en el futuro, tu aversión a la pérdida
probablemente te empuje a continuar con el
negocio “porque ya le invertiste mucho”.
Algo parecido pasa a veces en las relaciones
de pareja...
Una excepción curiosa sucede si simplemente
cambiamos el lenguaje en el que se expresa
una proposición.
Piensa en las dos siguientes propuestas:
¿Aceptarías entrar a un juego donde tienes
90 por ciento de posibilidades de perder 50
pesos y 10 por ciento de posibilidades de
ganar 950 pesos?
¿Comprarías un boleto de 50 pesos para una
rifa de 10 boletos donde puedes ganar 1000
pesos?
¿Cuál te parece mejor?
(TIEMPO PARA PENSAR)
¿Ya te diste cuenta de que las dos propuestas
son exactamente la misma? Aún así, la mayor
parte de la gente prefiere la opción B. Si
en vez de “perdida” le llamamos “comprar”,
“costo” o ”precio” al gasto efectuado,
de repente nos parece mucho más aceptable.
Otros errores del pensamiento son las falacias
lógicas… por ejemplo:
La afirmación del consecuente.
Partiendo de una premisa verdadera, una deducción
lógica sería así:
Todos los peces tienen branquias
El lenguado es un pez
Por lo tanto, el lenguado tiene branquias.
Todo bien ahí. Pero a veces cometemos el
error de poner invertir las conclusiones…
Todos los peces tienen branquias
Los pulpos tienen branquias
Por lo tanto los pulpos son peces.
Lo cual es una conclusión equivocada…
Causalidad falsa
Es cuando pensamos que, como dos eventos suceden
uno después del otro, entonces el que ocurrió
primero debe ser la causa y el que ocurrió
después la consecuencia. Muchos de nuestros
esquemas mentales funcionan relacionando causas
y consecuencias, por lo que es muy fácil
incurrir en esta falacia.
Este mes aumentó la venta de helados
Este mes aumentaron los accidentes.
La venta de helados provocó un aumento en
los accidentes este mes.
Si es que hay una correlación entre los dos
eventos, no necesariamente es que uno haya
causado el otro: puede ser que los dos tengan
una causa común o que de hecho, no tengan
vínculo alguno y la correlación sea pura
casualidad.
Por ejemplo, esta es la cantidad de películas
en las que ha aparecido Nicolas Cage cada
año… y la cantidad de personas que ha muerto
ahogada en piscinas… Eso se llama “correlación
espuria”.
¿Nunca has pensado que, como usaste cierta
prenda cuando ganó tu equipo, fue la prenda
la que “trajo suerte” para el triunfo?
¿O que, como te tomaste cierto remedio durante
una gripe y la enfermedad se acabó, fue el
remedio el que cortó la enfermedad?
En el último caso podría ser que hubiera
una relación, pero no necesariamente: muchos
factores pudieron haber influido en la remisión
del padecimiento, y un sólo caso es una muestra
demasiado pequeña para sacar conclusiones
(64) Para llegar a conclusiones válidas,
los científicos hacen estudios estadísticos
comparando grupos y controlando los factores
que podrían o no influir en los efectos obtenidos..
Falso dilema.
En nuestro pensamiento cotidiano, solemos
trabajar en términos binarios: si la puerta
no está abierta, está cerrada. Si el tren
no está aquí, está en otro lugar.
Esta lógica funciona bien en muchas situaciones,
pero no en todas. Probablemente esta sea de
las falacias más peligrosas, porque lleva
a afirmaciones como estas, que son a todas
luces falaces:
“Si no estás con nosotros, estás a favor
del terrorismo”
“La única manera de ganar es que el otro
pierda”
“¿Aceptas pelear o eres un cobarde?”
La manera de desmontar este argumento es presentar
otras opciones: ¿Hay maneras de oponerse
al terrorismo que no impliquen apoyar a ese
político específico? ¿Hay maneras de salir
beneficiado de una negociación sin derrotar
a la otra parte? ¿Hay maneras de resolver
un conflicto valientemente que no signifiquen
pelear? Casi siempre, la respuesta es sí.
Las falacias son muchas, te invitamos a investigar
más. En la descripción de este video te
dejamos algunos enlaces interesantes.
Es muy claro cómo los políticos y los publicistas
se pueden aprovechar de los errores del pensamiento
para hacernos creer cosas.
Y esto nos puede ayudar a debatir mejor, porque
podemos detectar fallas en los argumentos
de otros cuando estemos discutiendo.
Y más importante: detectar fallas en nuestro
propio pensamiento ¡Eso es lo más difícil!
Somos muy buenos encontrando los errores en
el pensamiento de los demás y pésimos encontrando
los errores en nuestro propio pensamiento.
¿La idea es que siempre pensemos con el Sistema
2?
Ja ja ja ¡No! Eso sería imposible. No podríamos
ni hacer las cosas más sencillas si todo
lo estuviéramos cuestionando. La recomendación
es mejorar nuestra capacidad para reconocer
situaciones en la que es probable que cometamos
errores. “La voz de la razón puede ser
mucho más tenue que la voz alta y clara de
la intuición errónea”
En cualquier caso, detectar estos errores
nos puede ayudar a tomar mejores decisiones.
¡Achí ech!
Humm, muchas veces las decisiones no son individuales,
sino que involucran a más personas, eso lo
complica todo.
¡Efectivamente! Hablaremos de eso en el próximo
capítulo.
