La mente humana es un desastre manejando las probabilidades, las matemáticas de la incertidumbre. El pensamiento estadístico no es lo nuestro (desde luego no es lo mío), y esto es algo en lo que coinciden muchos expertos. Garret Lisi dice que estamos cableados para ser incompetentes, a pesar de que encontramos innumerables circunstancias en el día a día en las que necesitamos hacer buenos cálculos probabilísticos para nuestro bienestar. Un buen argumento que lo demuestra es que el propio lenguaje que utilizamos no expresa bien las probabilidades. Para expresar probabilidad decimos cosas como “probablemente”, o “normalmente”, que implican un porcentaje que va del 50 al 100%, pero si queremos ser más precisos tenemos que decir algo como “con una certidumbre del 70%” , y si hablamos así nos van a mirar raro.También, habitualmente, sobreestimamos la probabilidad de sucesos muy raros pero muy malos o graves ( que un ladrón entre en casa a robarnos), y subestimamos la probabilidad de algo muy común pero no tan llamativo o impactante ( la lenta acumulación de grasa en una arteria o una tonelada más de dióxido de carbono en la atmósfera). Voy a ilustrar el problema con tres ejemplos, aunque la lista de sesgos, o de fallos, de la mente humana a la hora de calcular riesgos estadísticos sería interminable.
Un sesgo muy conocido es la denominada falacia del jugador, la idea de que si han salido ya cuatro caras al tirar una moneda al aire, existen mayores probabilidades de que salga una cruz. Dicen que mucha gente se ha arruinado en Montecarlo y otros casinos por este tipo de pensamiento. Es evidente que la probabilidad de que al lanzar una moneda al aire salga cara es del 50%, cada vez que se tira, y que es independiente de la historia previa. Este era fácil.
Otra falacia conocida es la llamada falacia de la tasa base ( base rate fallacy) que se da cuando ignoramos la información general acerca de la probabilidad de un evento y nos centramos en la información específica. Lo vemos con un ejemplo. Imaginaos que a cualquiera de vosotros le van a hacer un test para detectar un cáncer raro que tiene una incidencia en la población del 1% ( esta es la tasa base de la que luego nos vamos a olvidar). En investigaciones se ha comprobado que la fiabilidad del test es de un 79%. Más exactamente, aunque el test no falla en detectar el cáncer cuando está presente, da positivo en 21 % de los casos en los que el cáncer no está presente, es decir, que tiene unos falsos positivos del 21%. Te haces el test y te da positivo, la pregunta es: ¿cuál es la probabilidad de que tengas el cáncer? Si piensas como la mayoría de la gente vas a asumir que si la fiabilidad es de casi el 80% y has dado positivo, pues tienes casi un 80% de riesgo de tener el cáncer , ¿no es así? Pues no, la respuesta es que estás equivocado. Si piensas eso es que te has olvidado de la tasa base. Según Keith Devlin, del que estoy copiando el ejemplo, el riesgo es de un 4,6 %, ( no me preguntéis cómo se hacen los cálculos), un riesgo significativo desde luego pero mucho menos que el 80% que todos pensamos.
Por último, vamos a ver el Efecto Certidumbre ( Certainty Effect). Supongamos que estás jugando a la ruleta rusa. ¿Cuánto pagarías por quitar una bala de la pistola dependiendo de:
- Hay cuatro balas ( el cargador es de 6), y por lo tanto si quitamos una bala quedan 3.
- Hay solo una bala y por lo tanto quitarla reduce el riesgo a cero?
La mayoría de la gente dice que pagaría más por quitar la única bala existente y reducir el riesgo a cero, pero estadísticamente la mejoría es la misma, y sería más lógico pagar más en el primer caso porque es en el que tienes más probabilidades de morir. Pero la gente paga un dinero extra por la certeza de bajar de un riesgo pequeño a cero, de manera que pueden estar absolutamente seguros de que no corren peligro.
En otro estudio, se ofrecía a los participantes la probabilidad de ganar 3000 $ garantizados, o, por contra, tener una probabilidad del 80% de ganar 4000$. La mayoría de la gente cogía los 3000$ cuando es mejor la opción del 80% de 4000$ ( 0,8 veces 4000$, es decir, 3200$). Si el problema se plantea en términos de perder dinero entonces la gente prefiere correr el riesgo, es decir, si planteamos que hay un 80% de riesgo de perder 4000$ frente a un riesgo cierto de perder 3000$, entonces la gente prefiere el riesgo ( el 80% de perder 4000$) más que la pérdida garantizada de 3000$, lo que vuelve a ser irracional. Es decir, que la gente da un valor extra a la certeza.
Bien, queda demostrado que la mayoría somos unos incompetentes en el manejo de las matemáticas de las probabilidades. El problema es que en muchas decisiones de la vida diaria ( riesgos financieros, riesgos de salud, etc.) estamos enfrentándonos a decisiones de este tipo, y mucha gente se puede decir que es analfabeta de las probabilidades, o analfabeta del riesgo. Muchas personas pueden estar firmando hipotecas, o productos financieros, o tomando decisiones en otras cosas, sin entender muy bien lo que están haciendo. Parece que el problema es un problema de diseño de la mente humana. Los cazadores recolectores no tuvieron que enfrentarse a problemas de hipotecas y de porcentajes, y se manejaban bien con dicotomías de todo o nada; y tal vez por eso nosotros carecemos de los mecanismos para entender estos problemas. La única solución que se me ocurre es que en la escuela expliquen estas cosas con analogías concretas que sí podamos entender, y no de manera abstracta. Tal vez el libro ese de Probabilidad para Dummies sea una buena opción. De lo contrario, el número de analfabetos irá en aumento.
Referencias
The Base rate. Keith Devlin
Risk literacy. Gerd Gigerenzer
Randomness. Charles Seife
Living is fatal. Seth Lloyd
Todos ellos en This will make you smarter, by John Brockman
Existe traducción al castellano: Este libro le hará más inteligente:
2 comentarios:
Sobre el Efecto Certidumbre, yo pagaría muchísimo más por quitar la pistola ;)
Interesante comentario sobre la loteria
Publicar un comentario