Sobre las Colas Gordas y la Interpretación de los Riesgos

Todos conocemos las ilusiones ópticas.  Cuando se nos presenta una y luego nos enfrentan a ver la realidad, nos reímos, nos asombramos y dudamos de la verdad, aún cuando se nos demuestra que nuestra vista nos ha engañado.

Existen otro tipo de ilusiones, usualmente mas sutiles, y por lo tanto, potencialmente mas peligrosas que las ópticas: las racionales.  La mente humana es prodigiosa, pero aún nos falta mucho por entenderla.  Por lo general aceptamos que una persona sana necesita de una situación extrema o de gran presión para actuar irracionalmente.  Desafortunadamente también podemos ser irracionales cuando estamos sujetos a una ilusión racional.  En situaciones de toma de decisiones podemos ser irracionales y creer que estamos tomando decisiones totalmente racionales y consistentes, acorde a nuestra marco de valores.

Hacia finales de los años 70's, un par de amigos psicólogos, Amos Tversky y Daniel Kahneman, estudiaban el sesgo y la heurística en la toma de decisiones.  Usualmente se divertían aplicándose entre ellos mismos una multitud de juegos en la que trataban medir las diferencias intuitivas en sus propias tomas de decisiones ante la mismas situaciones de riesgo, con el solo hecho de cambiar la descripción del problema.  Acordaron que si encontraban alguna consistencia en sus respuestas, podrían desarrollar una hipótesis generalizada para el resto de la población y eventualmente afinarían ese juego para probar sus hallazgos.

Descubrieron que, aún apelando a su intuición, su toma de decisiones podía cambiar drásticamente dependiendo de la semántica del problema.  Entonces se propusieron a demostrar el mismo efecto en gran escala.

Por ejemplo, juntaron a dos grupos de personas y les preguntaron sobre una situación hipotética de vida o muerte:  existe una enfermedad mortal en 600 pacientes.  Existen dos tratamientos para curar esta enfermedad: Tratamientos A y B.

Al primer grupo se le preguntó:
Si los pacientes toman el tratamiento A, 200 vidas serán salvadas.
Si los pacientes toman el tratamiento B, existe 1/3 probabilidad que se salven 600 personas y 2/3 probabilidad que nadie se salve.

El 72% de participantes del primer grupo escogió el tratamiento A.

Al segundo grupo se le preguntó:
Si los pacientes toman el tratamiento A, 400 personas morirán.
Si los pacientes toman el tratamiento B, existe 1/3 probabilidad que nadie muera y 2/3 probabilidad que 600 personas mueran.

El 22% de participantes del segundo grupo escogió el tratamiento A.

¡Son exactamente las mismas matemáticas!  Solo cambia la semántica para establecer un marco positivo o negativo.  Sin embargo, las respuestas de los grupos son totalmente opuestas.

Ante un marco positivo (vidas salvadas), el primer grupo decide irse a lo seguro: salvar 200 vidas, que arriesgar salvar a todos con 1/3 de probabilidades.

Ante un marco negativo (vidas perdidas), el segundo grupo decide tomar el riesgo: 1/3 probabilidad que nadie muera, que dejar morir con seguridad a 400 personas.

Esto es un descubrimiento fantástico y catastrófico, puesto que ambas situaciones aunque ficticias, muestran claramente que nuestras decisiones dependen de la semántica con la que se nos presenten, ya que seremos generalmente cautelosos y determinísticos ante semántica positiva y generalmente mas arriesgados y probabilísticos ante la semántica negativa del mismo problema.  (Esto me recuerda a aquel comercial del Heraldo de México: Hay quienes ven el vaso medio lleno, hay otros que lo ven medio vacío, es cuestión de enfoque).  ¿Dónde quedó la racionalidad?

Este ejercicio expone nuestra vulnerabilidad racional, las ilusiones racionales que tenemos, ante situaciones de ganancias o pérdidas.

Esto no es todo, se han extendido estudios a distintas edades y esta proporción cambia.  Los niños y jóvenes se rigen principalmente por probabilidades al no tener marcos de referencia cuantitativos y conforme toman experiencia, de adultos, toman decisiones del tipo mas seguro, determinístico.  Asi que generalmente los jóvenes serán, por lo general, naturalmente (¿irracionalmente?) e irremediablemente mas arriesgados.

Si extrapolamos esto ante situaciones donde se maneja el riesgo comúnmente: mercados de valores, seguros médicos, seguros accidentes, autopistas y velocidades máximas, las guerras, etc.  Entenderemos  que en estas situaciones, la irracionalidad de algunas situaciones dependerán del contexto semántico con el que se manejen.

Existe un personaje interesante, popular en los medios de los mercados de valores, Nassim Taleb.  Se ha dedicado también a estudiar los comportamientos humanos ante el riesgo en las bolsas de valores e inversiones financieras.  En sus artículos nos presenta dos casos interesantes, que reflejan y confirman el experimento de Amos y Daniel:

En Alemania, a un negocio de taxis se les pidió hacer pruebas de ABS, el sistema de frenado antibloqueo.  Se les dió el mismo automóvil a todos los choferes y solamente la mitad manejaría con el nuevo sistema y se les hizo saber si contaban o no con ABS en sus taxis, pero no se les dijo que serían sometidos a un estudio de riesgos y accidentes.  Por cuatro años estuvieron así.  Por increíble que parezca, el grupo de ABS no destacaba en disminución de accidentes, al contrario, en algunos casos resultaron tener mayor mortalidad.  Al analizar estos resultados, encontraron que aquellos que no tenían ABS seguían manejando con precaución: guardando distancias y viajando a velocidad moderada, respetando señalización.  Aquellos con ABS fueron mas confiados y temerarios.  Andaban a mayores velocidades y no guardaban la distancia adecuada con el auto de enfrente.  Entonces el resultado es el siguiente:  es posible que ante una tecnología, que fué diseñada con la seguridad en mente, y supuestamente debiera bajar el riesgo, esa mejora ante el riesgo fue inmediatamente mal aprovechado por los choferes e incluso excedido.

Si esto no es prueba contundente, existe un segundo ejemplo.  En Suecia antes se manejaba del lado izquierdo del camino (al estilo Inglés).  Finalmente el gobierno decidió cambiar al manejo como del resto de Europa, por la derecha.  Se pensó que iba a ser la locura, todos iban a confundirse e iba a haber una gran cantidad de accidentes.  Pues en la realidad, el número de accidentes bajó dramáticamente (a menos de la mitad).  La gente estuvo inconscientemente forzada a manejar con precaución y moderación mientras se acostumbraban al cambio.  Eventualmente las estadísticas regresaron a sus valores nominales una vez que se adaptaron al cambio.  Se ha dicho que si los gobiernos se propusieran a bajar el índice de accidentes, lo más fácil es estar cambiando de que lado de la calle se maneja cada cierto tiempo.  Nassim nos dice que también en Estados Unidos, la política que mas vidas ha salvado en ese país, fué la que se implementó durante la crisis petrolera de los 70's para reducir el consumo de gasolina: no exceder las 55 MPH en las autopistas y caminos.

Aqui hay otro descubrimiento importante:  el ser humano responde al cambio.  Somos especialistas en reaccionar ante cualquier cambio, pero no reaccionamos igual ante los cambios de distinta magnitud ni de manera racional.

Vale la pena mencionar que tenemos un grave problema ante esta percepción del riesgo.  A pesar de que inventamos mecanismos que aumentan nuestra seguridad, temporalmente nos engañamos y nos arriesgamos instintivamente de más.  Desafortunadamente el riesgo es desproporcionadamente mayor.  En el caso de los automóviles, el hecho de manejar a mayor velocidad y menor distancia de seguridad aumenta la severidad de los accidentes.  Aunque el número de accidentes o incidentes sean iguales, la fatalidad o extensión destructiva es mucho mayor.  Cambiamos la Kurtosis de las ocurrencias estadísticas y obtenemos el fenómeno de las Colas Gordas.  Lo que antes era un evento poco probable y de daño limitado, se ha vuelto mas probable y de mayor daño que el previsto.  La tristeza radica en que seguimos viendo el muestreo viejo, puesto que al hacer cambios, aún no generamos suficientes datos o no diferenciamos los datos adecuadamente para vislumbrar esto.  En los momentos de crisis seremos aun mas irracionales y tendremos visión aún mas limitada como para entender esto.

Me viene una pregunta: nosotros, los que crecimos sin protectores, ni cinturones de seguridad, con pintura de plomo, sin tapones anti-niños en los medicamentos: ¿Tuvimos una infancia mas mortal y peligrosa?  No lo sé, pero hay algunos que aseguran que existe una falsa seguridad de muchos de estos dispositivos y han desplazado la responsabilidad de los padres de estar atentos a los niños y explicarles los riesgos.  Hay evidencia médica de incremento en los incidentes por envenenamiento accidental por sobredosis en niños, ya que los adultos dejan ahora las medicinas y productos de limpieza químicos del baño al alcance de los niños.  Antes era responsabilidad del adulto dejarlos fuera de la vista de ellos.  Los niños ahora pasan mas tiempo cerca de químicos peligrosos por la falsa seguridad de los tapones anti-niños.

Hay muchos ejemplos más, pero para no aburrirlos, solo les dejo una posible observación de esto en algo inmediato:  debido al posible uso de armas químicas en Siria y la semántica de como Obama presente la información al mundo y a su Congreso, será el detonante de una intervención de EUA en Siria.  Si acaso se comprueba que hubo tal evento, que no había sucedido en casi 100 años, espero que la reacción a esto no nos desencadene una serie de eventos que termine en una catástrofe que analizaremos y recordaremos durante los próximos 100 años y luego nos preguntemos, ¿Por qué?  Por las Colas Gordas y el cambio en el riesgo detrás de una ilusión racional.

César Gámez
Septiembre 08, 2013

Comentarios

Entradas populares