EL MAYOR COMUNICADOR ESTADÍSTICO NOS CUENTA POR QUÉ LOS SENTIMIENTOS, ASÍ COMO LOS DATOS, AYUDAN A LOS HUMANOS A EVALUAR LOS RIESGOS MODERNOS

Profesor Sir David Spiegelhalter

Entrevista con David Spiegelhalter y Saira Shah

El profesor Sir David Spiegelhalter ha sido llamado probablemente el mayor comunicador estadístico actual. Ha dedicado gran parte de su carrera a ayudar al público a entender el riesgo. Es presidente del Centro Winton de Comunicación de Riesgos y Evidencias de la Universidad de Cambridge. Su raro don para explicar cómo usar los datos para entender las probabilidades de varios riesgos, está plasmado en su brillante libro, El Arte de la Estadística.


Así que David, somos muy afortunados de tenerte con nosotros aquí. Y sé que actualmente eres Presidente Conjunto de la Real Sociedad Estadística, Task-Force COVID-19, y que estás muy, muy solicitado. Así que gracias doblemente por tu amabilidad al regalarnos un poco de tu tiempo. 


Podemos preguntarte, hemos visto mucha investigación psicológica que muestra que tendemos a hacer juicios sobre el riesgo basados en las emociones más que en los hechos.

¿Por qué necesitamos la estadística?


Oh, es una buena pregunta. Soy un estadístico, así que empecé como matemático. Pero la mayor parte de mi trabajo ahora se basa en la colaboración con psicólogos, y me resulta una manera muy emocionante de trabajar. Esencialmente, no es una elección entre una reacción emocional visceral al riesgo y un enfoque matemático probabilístico del riesgo. Todos conocemos la distinción de Daniel Kahneman entre pensar rápido y lento, ya sea que lo llames tipo uno/tipo dos, como quieras denominarlo. Existen estas dos amplias formas de abordar un problema.


Una, que se trata de ir con tus primeros sentimientos, tus reacciones viscerales. Y la otra es tratar de ir más despacio y pensar las cosas metódicamente. Y ninguna de las dos es correcta. Ninguna es suficiente. Creo que los humanos son una maravillosa combinación de los dos.


Es tan emocionante tener esas dos perspectivas para afrontar un problema. La gente ha dicho que tienes los riesgos como análisis y los riesgos como sentimiento, y ambos son importantísimos. Es esta interacción entre ellas - ahí es donde trabajo bastante - que es tan fascinante, particularmente en este momento de COVID, pero en realidad en todas nuestras circunstancias y en todo lo que hacemos cada día.

¿Puedes darme algunos ejemplos de los errores comunes que el público y los periodistas tienden a cometer cuando se enfrentan a cifras sobre los riesgos?


En primer lugar, no me gusta decir que la gente comete errores. Nunca voy a decir que alguien comete errores sobre sus sentimientos, porque la gente tiene miedos y ansiedades.


Yo tengo los míos. Sufro de cada extraño sesgo personal o lo que sea. Yo los tengo. Todos los tenemos. Así que no digo que la gente se equivoca en sus sentimientos. Hay algunas cosas en las que la gente se equivoca cuando trata de razonar, cuando piensa que está siendo razonable en cuanto a los números, lo que sea, y sin embargo se equivoca irremediablemente.


Los dos ejemplos famosos que la gente ha identificado. El primero es realmente sobre los riesgos relativos y los riesgos absolutos. Siempre compartimos historias sobre algo que duplica el riesgo y eso suena aterrador.


Bueno, ¿lo es? ¿O no? Simplemente no lo sabemos. Duplica un poquito... y sigue siendo muy poco. Tenemos que saber el doble de qué. Y una vez que digamos: bueno, si esa cosa se está duplicando, es en realidad extremadamente raro: una posibilidad entre un millón de que esto ocurra en tu vida o en un año. Bueno, ¿a quién le importa? ¿Y qué? No es importante.

Tienes un gran ejemplo de eso en tu libro sobre sándwiches de tocino.


El sándwich de tocino es uno estándar: un sándwich de tocino diario aumenta el riesgo de cáncer de intestino en un 20%. Asumamos que eso es cierto. Bueno, ¿lo incrementa a partir de qué base? De unos seis puntos porcentuales a lo largo de tu vida. Y entonces un incremento del 20% sobre eso nos lleva a unos siete puntos porcentuales. Eso significa que cien personas van a tener que comer un sándwich de tocino cada día de sus vidas para tener un caso extra de cáncer de intestino. Eso lo pone en perspectiva.


Saira Shah: Voy a volver al tocino ahora (risas).

David Spiegelhalter: Oh, sí, entonces pásame la salsa inglesa... es lo natural. Sabes, me gusta el tocino y debo decir que por mi respuesta puramente emocional, cuando miré esos datos, reduje la cantidad de tocino que comía. No iba a comerlo todos los días, pero aún así lo comeré.

No es que ahora sea algo prohibido. Es como uno de esos pasteles de crema. La otra, por supuesto, está en pruebas de diagnóstico. Lo vemos mucho en COVID: la idea de los falsos positivos. Esas ideas pueden ser muy poco intuitivas, como la reciente afirmación de que la mayoría de las pruebas positivas de COVID son falsos positivos, aunque la prueba sea bastante precisa.  En realidad, eso puede ser cierto bajo ciertas suposiciones.

¿Puedes hablarme de los falsos positivos?


La afirmación es que la mayoría de las pruebas positivas son falsos positivos. Eso se basa en la afirmación del ministro de que la prueba de COVID tiene una tasa de falsos positivos del 1%.


Eso significa que de cien personas que NO tienen el virus... una dará positivo. De acuerdo. Asumamos que eso es cierto por el momento. No lo es, pero asumamos que es verdad.


Ahora digamos que estás en la situación en la que estuvimos este verano, donde una de cada mil personas tenía el virus. Y haces pruebas a mil personas en promedio.


Probablemente te tocará el que lo tiene, pero tienes mil o 999 personas que no lo tienen. Y si el 1% de ellos va a dar positivo por error, son 10 de los que darán positivo. Así que tienes 11 positivos y sólo uno de ellos es realmente positivo.


Saira: Entiendo...

David Spiegelhalter: Esa es la situación que podría haber ocurrido durante el verano, cuando el virus era difícil de encontrar, si estuvieras usando esta prueba. Pero hay dos cosas que están mal en eso.

Así que es teóricamente posible que eso ocurra. Esa no es la situación en este momento. En primer lugar, las personas que se hacen la prueba tienen casi todos los síntomas. Para la gente que tiene síntomas, la proporción de los que tienen el virus no es de uno entre mil, sino de un 5% o algo así.

Así que en realidad eso aumentará enormemente el número de verdaderos positivos. Pero la otra cosa es que la tasa de falsos positivos de la prueba estaba muy por debajo del 1%. Es más bien un 0,05%, uno en 2000, no uno en cien para una prueba de PCR.

Dos razones por las que en este momento la mayoría de la gente que obtiene un resultado positivo en la prueba tiene el virus... no significa que sean infecciosos, sino que tienen el virus. Así que lo que eso muestra es que un pequeño razonamiento también puede ser algo nocivo, porque las matemáticas de ese falso positivo eran correctas. Es solo que las suposiciones estaban completamente equivocadas.

Básicamente, cualquier cosa que tenga que ver con las pruebas de diagnóstico es realmente difícil. Es una de las peores para la intuición. Y aquí es donde no puedes pensar rápido. Tengo que sacar un pedazo de papel y empezar a escribir los números.

Mi intuición es tan inútil en esto como la de cualquier otro. Por lo tanto, la probabilidad es difícil.  Lo he dicho tantas veces probablemente, pero la gente me pregunta, ¿por qué la gente encuentra la probabilidad y las estadísticas tan poco intuitivas y difíciles.

Durante casi 50 años he estado trabajando en esta área y finalmente concluí que es porque la probabilidad en las estadísticas es realmente poco intuitiva y difícil.  

En parte soy hija de Tunbridge Wells, entre otros lugares. Y ahora me di cuenta de que Tunbridge Wells es famoso por cierta figura, que es un nombre enorme en el mundo de la probabilidad. ¿Puedes hablarme de eso?


El famoso clérigo inconformista, Thomas Bayes, que vivió allí. Aparentemente era un clérigo espantoso. Sus sermones eran escandalosamente aburridos, según dicen. Era del siglo XVIII y murió en 1761, miembro de la Royal Society. Escribió un paper absolutamente impenetrable, de escritura espantosa. Aunque en él figura el experimento de pensamiento muy vívido, que introdujo esta idea de usar la teoría de la probabilidad para aprender de la experiencia. Que las probabilidades no existen en el mundo.


Básicamente son una forma de tratar con nuestra propia incertidumbre personal sobre los hechos y luego, a medida que recibimos nueva información, nuestras probabilidades son revisadas, de acuerdo con lo que ahora se llama el Teorema de Bayes en honor al vicario aburrido inconformista de Tunbridge Wells, que es una figura fantástica de la historia. Cayó en la oscuridad porque, aunque su trabajo fue publicado, nadie le prestó mucha atención; y Pierre-Simon Laplace descubrió los mismos resultados 10-15 años más tarde, y lo escribió de manera absolutamente hermosa, con una claridad maravillosa... y así obtuvo el crédito esencialmente.

¿Nos ayuda eso a resolver su problema de intuición versus estadística?


Sí, nos ayuda. La estadística bayesiana nos dice la forma matemáticamente correcta de aprender de la experiencia. Así que es un resultado maravilloso, y lo veo como un ideal. Sin embargo, es un ideal inalcanzable porque asume que tú o tu comprensión es correcta desde el principio.


Asume que tienes un buen conocimiento sobre cómo funciona el mundo y esencialmente que tu modelo es correcto. En otras palabras, la estructura en la que estás poniendo tus probabilidades es apropiada. Pero por supuesto, eso está mal.

¿Tienes una anécdota o ejemplo realmente simple para explicar ese tipo de pensamiento?, porque es difícil de entender.


Oh, bueno, por supuesto, lo que acabo de hablar sobre la prueba de COVID es un ejemplo perfecto. Que no podemos interpretar una prueba de COVID cuando es positiva sin saber quién está siendo testeado. En otras palabras, lo común que era COVID en la población en primer lugar.


Así que en otras palabras, si te digo que mi prueba de COVID fue positiva, la posibilidad de que realmente tenga el virus: para evaluar eso, necesitas información adicional. Tienes que saber cuál era la probabilidad de que tuviera el virus antes de hacerme la prueba, y entonces obtengo el resultado positivo. Y luego usando el Teorema de Bayes, esa probabilidad se actualiza a la nueva probabilidad.... que en realidad se llama probabilidad posterior después de que llegan los resultados de la prueba. Así, por ejemplo, con una persona al azar siendo testeada, había una posibilidad entre mil de que tuviera el virus, pero en realidad después de que la prueba positiva llegara, había subido a cerca de una entre 10.

Así que has descubierto cómo tener en cuenta la vida de forma matemática.


Hay una forma matemáticamente correcta de actualizar nuestras incertidumbres en base a nuevos conocimientos. Sin embargo... Suena genial, ¿no? Oh, bueno, eso es todo lo que tenemos que hacer. No es así realmente, porque como humanos tenemos cierta comprensión de cómo funciona el mundo. Pero si hay posibilidades en las que ni siquiera pensamos, entonces estamos en problemas.


Cada vez tenemos más confianza, pero en realidad estamos siendo completamente engañados porque nuestras suposiciones eran erróneas. Así que esto es, de nuevo, lo que quería introducir, la idea sobre el asunto de COVID. Ser matemáticamente correcto no es suficiente si nuestras suposiciones básicas, nuestra comprensión del mundo y cómo funciona, son simplemente erróneas.


Y eso es algo que, dentro de este debate sobre la COVID, obviamente es crucial.

¿Cuáles son algunos de los costos reales de cometer errores básicos en la probabilidad? Y tal vez podamos dejar nuestras suposiciones a un lado por un momento y asumamos que nuestras suposiciones son correctas. Es decir, en efectivamente cometer errores estadísticos.


Bueno, yo diría que equivocarse en las suposiciones es cometer un error estadístico. Y normalmente con el software, cosas así, los cálculos reales serán apropiados. Quiero decir, la gente puede cometer errores reales en los cálculos, pero generalmente son correctos. Así que todo tiene que ver con el hecho de que nuestras suposiciones son erróneas.


Un clásico fue el colapso financiero de 2008. Y no todo se originó por eso, pero mucho tiene que ver con el hecho de que la gente tiene estos modelos financieros y los creen. Los modelos funcionan correctamente. Dijeron todas las cosas que se supone que debemos hacer y funcionaron en el pasado. Es solo que las suposiciones básicamente dejaron de ser apropiadas. Y decían locuras que causaban un enorme daño financiero porque la gente tomaba decisiones en base a modelos inapropiados.


Así que de nuevo, vuelvo a una frase maravillosa que estoy seguro que la mayoría de la gente conoce. El famoso estadístico, George Box, dijo: "Todos los modelos están equivocados, pero algunos son útiles". Y es una frase bastante cliché, tiene su propia página de Wikipedia, pero sólo tienes que decir una y otra vez que todo lo que afirmamos se basa en nuestra comprensión del mundo. Y si esa comprensión es errónea, entonces nuestras afirmaciones son inapropiadas. Y cualquier representación matemática del mundo siempre está equivocada. Nunca es absolutamente correcta, pero puede ser útil. Y estamos viendo esto todo el tiempo con estos modelos epidémicos, que están todos equivocados. Son todas simplificaciones burdas y la gente dice que son como el mapa en lugar del territorio real. Pero pueden ser útiles si se tratan con mucha, mucha, mucha cautela.

Ahora voy a hacerte una pregunta filosófica muy difícil. Dado que estamos en este mundo donde cada vez somos inundados con más y más datos a cada momento - y nuestras suposiciones están destinadas a ser erróneas - , ¿cómo podemos abrirnos paso a través de este mundo cada vez más complejo?

Es muy difícil, porque todos estamos jugando diferentes roles en esto. Tienes a los analistas serios, un poco como yo. Estoy mirando los datos, encontrando muy difícil decidir en cuáles creer, cuál es la mejor calidad de evidencia, ¿los números significan lo que dicen?


¿Qué es una muerte por COVID, de todos modos? Estamos tratando de poner esos números en contexto. ¿Este número es grande o pequeño?, porque no puedes juzgar los números sin ponerlos en algún tipo de contexto. Y luego tienes a los que toman las decisiones, los políticos y la gente así. Tienen que tratar de interpretar todo esto y darle sentido, y eso es un verdadero desafío.


Y luego está el público, que siento mucho que sea bombardeado con afirmaciones contradictorias y los análisis de los periódicos llenos de gráficos y estadísticas, cosas así. Y todos sacando a menudo conclusiones muy diferentes.


Por lo tanto, es un verdadero desafío y no hay una respuesta simple a esto en absoluto. Es decir, lo que yo hago porque paso mi tiempo criticando la evidencia, que es muy para mirar la confiabilidad de la fuente. Esencialmente, ¿cuáles son las motivaciones? Incluso antes de mirar los datos, pregunto, ¿por qué estoy escuchando esto?


¿Cuáles son las motivaciones de la persona que te cuenta la historia? ¿Están tratando de convencerme de lo que piensan o están tratando en general de informarme y permitirme tomar una mejor decisión? Y eso es lo primero que pregunto: ¿cuáles son las motivaciones de la persona que me está contando, o mi fuente de información o pruebas?


Y si sé que eso viene de una fuente que ya ha tomado una decisión y está tratando de persuadir a la gente de algo, entonces realmente me cuesta mucho trabajo prestar atención a lo que dicen o a lo que estos datos dicen.  Lo miraré, pero siempre estaré pensando, "Bueno, ¿qué es lo que no me dicen?"


¿Cuáles son los datos que han escogido selectivamente? Por lo tanto, es un gran desafío hacerlo, detectar cuando alguien está eligiendo qué datos mostrar, porque tienes que saber qué es lo que no estoy viendo. Y esa es una de las cosas más difíciles. Es fácil criticar lo que te han dicho, lo complicado es ser capaz de criticar lo que no te han dicho. Es uno de esos desafíos difíciles que hay en esta área.

video

Por qué los sentimientos - y los datos - ayudan a los humanos a evaluar riesgos (subtítulos en español)