BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Televisión’

¿Qué es más probable, ganar el Euromillones o morir por un asteroide?

Me ha llamado la atención estos días que el sorteo de Euromillones se publicite apelando a la creencia en el destino, la idea según la cual –si no estoy mal informado– aquello que ocurre está ya previamente programado en alguna especie de superordenador universal, sin que los seres que pululamos por ahí podamos hacer nada para cambiarlo. “No existe la casualidad”, dice una cuña en la radio.

Imagen de Wikipedia.

Imagen de Wikipedia.

Pero mientras nadie demuestre lo contrario, el destino es algo que sencillamente no existe (aunque hay alguna hipótesis tan loca como interesante por ahí, de la que si acaso ya hablaré otro día). Es solo una superstición.

Seguramente pensarán ustedes que hay otros asuntos más importantes de los que preocuparse. Y tienen razón. Pero muchos de ellos no tienen cabida en este blog. En cambio, sí la tiene que la publicidad trate de incitar a los consumidores a comprar un producto sobre una estrategia comercial basada en una idea de cuya realidad no existe ninguna prueba. ¿Imaginan la reacción pública si los anuncios de Euromillones presentaran al feliz ganador del premio porque ha rezado para conseguirlo? Esto es hoy casi impensable. En cambio, la idea del destino resulta más popular porque encaja con la plaga de los movimientos New Age.

Es curioso que en España y en otros países el sector de la publicidad funcione por un sistema de autorregulación. Probablemente los expertos en la materia, entre los que no me cuento, me corregirían con el argumento de que esto no significa un cheque en blanco, sino que este autocontrol se inscribe en un marco legal establecido por las autoridades. Y no lo dudo; pero ¿qué sucedería si a otros sectores se les confiara la función de policías de sí mismos? ¿Encontrarían aceptable que se hiciera lo mismo con las farmacéuticas o los fabricantes de juguetes?

Prueba de que este autocontrol no es tan “veraz” como afirma ser es la abundancia de campañas que pasan este autofiltro con proclamas no apoyadas en ningún tipo de evidencia válida, y que a menudo tienen que ser denunciadas por los verdaderos vigilantes, asociaciones de consumidores y otras entidades ciudadanas.

El problema es que estas organizaciones solo pueden denunciar a posteriori, cuando gran parte del daño ya está hecho y alguien ya se ha lucrado vendiendo miles de pulseras mágicas del bienestar. ¿Se han fijado en que cierta marca alimentaria ha retirado de la publicidad de un producto las alegaciones de efectos beneficiosos para la salud, y que ahora limita sus proclamas a algo así como “sentirse bien” (un argumento irrefutable)? Sin embargo, el propósito ya está conseguido: doy fe de que al menos algún colegio incluye específicamente el nombre de dicha marca comercial en su información a los padres sobre qué alimentos están recomendados/permitidos en las meriendas de los niños.

Otro ejemplo lo tenemos en ciertos suplementos alimentarios que prometen beneficios de dudoso aval científico, y que en algunos casos se escudan en el presunto respaldo de organizaciones médicas privadas. Lo que no es sino un acuerdo comercial; es decir, un apoyo compensado económicamente. En el caso de uno de estos productos, sujeto a gran polémica pero que continúa anunciándose impunemente en la tele, incluso un portavoz de la organización médica en cuestión tuvo que reconocer a un medio que “daño no hacen”.

Pero volviendo al caso de Euromillones, hay un agravante, y es que el sorteo en España depende de Loterías y Apuestas del Estado. Es decir, que entre todos estamos sosteniendo una campaña publicitaria cuyo mensaje es convencer a la gente de que tienen que comprar un boleto porque podría estar escrito desde hace años que van a ganar el gran premio. Insinuaciones como esta ya no aparecen siquiera en los anuncios nocturnos de videntes, que se cuidan muy bien de evitar cualquier referencia a la adivinación para no caer en la publicidad engañosa, preséntadose en su lugar casi como si fueran psicoterapeutas titulados.

Lo común, y lo legítimo, es que las loterías se anuncien con argumentos emocionales: sueños y deseos, o en el caso del sorteo de Navidad, los mensajes típicos de las fechas. Cada año participo en la lotería de Navidad como una tradición; no como una inversión, sino como un gasto navideño más. Nunca me he tocado ningún premio importante y sé que nunca me tocará. Respecto a los sorteos en general, siempre recuerdo aquella cita que se atribuye al matemático Roger Jones, profesor emérito de la Universidad DePaul de Chicago: I guess I think of lotteries as a tax on the mathematically challenged“, o “pienso en las loterías como un impuesto para los que no saben matemáticas”.

Y eso que las posibilidades de echar el lazo al Gordo de Navidad son casi astronómicas en comparación con sorteos como el Euromillones. A los matemáticos no suele gustarles demasiado que se hable de probabilidad en estos casos, ya que la cifra es irrelevante a efectos estadísticos. Prefieren hablar de esperanza matemática, cuyo valor determina si de un juego podemos esperar, como promedio, ganar o perder algo de dinero con nuestras apuestas. Y lógicamente, el negocio de las loterías se basa en que generalmente la esperanza matemática es desfavorable para el jugador.

Pero con permiso de los estadísticos, es dudoso que el jugador habitual del Euromillones realmente considere la esperanza matemática de unos sorteos en relación a otros con el fin de averiguar con cuáles de ellos puede llegar a final de año habiendo ganado algunos euros más de los que ha invertido. Este valor es útil para comparar unos juegos de azar con otros; pero si los organizadores de una lotería contaran con los jugadores profesionales, destacarían estos datos en su publicidad.

Para el jugador medio, el cebo es el bote: cuanto más bote, más juegan. Y la esperanza matemática les dirá muy poco, incluso comparando la de unos sorteos del Euromillones con otros del mismo juego. Para quien muerde el anzuelo, es más descriptivo comparar la probabilidad de hacerse millonario al instante con la de, por ejemplo, morir a causa de la caída de un meteorito.

Y aquí vienen los datos. La probabilidad de ganar el Euromillones (combinaciones de 50 elementos tomados de 5 en 5, multiplicado por combinaciones de 12 elementos tomados de 2 en 2) es de una entre 139.838.160. Repito con todas las letras: la probabilidad de ganar el Euromillones es de una entre ciento treinta y nueve millones ochocientas treinta y ocho mil ciento sesenta. O expresado en porcentaje, aproximadamente del 0,0000007%.

Y a efectos de esas comparaciones de probabilidad que no interesan a quien piensa en el Euromillones como posible alternativa a la ruleta o a las carreras de caballos, pero que sí interesan (o deberían hacerlo) a quien piensa en el Euromillones como posible alternativa a trabajar toda la vida, he aquí unos datos que tomo del experto en desastres naturales Stephen Nelson, de la Universidad Tulane (EEUU), y que estiman la probabilidad de terminar nuestros días por cada una de las causas que se detallan a continuación (datos para EEUU; algunos variarían en nuestro país, como los casos de tornado o accidente con arma de fuego):

Accidente de tráfico 1 entre 90
Asesinato 1 entre 185
Incendio 1 entre 250
Accidente con arma de fuego 1 entre 2.500
Ahogamiento 1 entre 9.000
Inundación 1 entre 27.000
Accidente de avión 1 entre 30.000
Tornado 1 entre 60.000
Impacto global de asteroide o cometa 1 entre 75.000
Terremoto 1 entre 130.000
Rayo 1 entre 135.000
Impacto local de asteroide o cometa 1 entre 1.600.000
Envenenamiento por botulismo 1 entre 3.000.000
Ataque de tiburón 1 entre 8.000.000
Ganar el bote del Euromillones 1 entre 139.838.160

Conclusión: según los datos de Nelson, es unas 87 veces más probable morir a causa del impacto de un asteroide o un cometa que ganar el bote del Euromillones. Todo esto, claro, siempre que uno crea en el azar. Pero hasta ahora no parece que exista una alternativa real, diga lo que diga la publicidad.

Este es el mejor monólogo sobre ciencia jamás escrito

Les aseguro que no les traería aquí un vídeo de 20 minutos y 46 segundos, en inglés y sin subtítulos en castellano, si no fuera porque es el comentario sobre el funcionamiento de la ciencia –y su comunicación– más atinado e informado, además de divertido, que jamás he visto en un medio televisivo (medio al que, todo hay que decirlo, no soy muy adepto). Si dominan el idioma, les recomiendo muy vivamente que lo sigan de cabo a rabo (el final es apoteósico). Y si no es así, a continuación les resumiré los fragmentos más sabrosos. El vídeo, al pie del artículo.

John Oliver. Imagen de YouTube.

John Oliver. Imagen de YouTube.

Su protagonista es John Oliver, humorista británico que presenta el programa Last Week Tonight with John Oliver en la HBO estadounidense. Oliver despliega un humor repleto de inteligencia e ironía, de ese que no suele abundar por aquí. Hace algo más de un año traje aquí una deliciosa entrevista de Oliver con el físico Stephen Hawking.

En esta ocasión, Oliver se ocupa de la ciencia, bajo una clara pregunta: ¿Es la ciencia una gilipollez? Naturalmente, el presentador no trata de ridiculizar la ciencia, sino todo lo contrario, criticar a quienes dan de ella una imagen ridícula a través de la mala ciencia y el mal periodismo.

Para ilustrar cuál es el quid, comienza mostrando algunos fragmentos de informativos de televisión en los que se anuncian noticias presuntamente científicas como estas: el azúcar podría acelerar el crecimiento del cáncer, picar algo a altas horas de la noche daña el cerebro, la pizza es la comida más adictiva, abrazar a los perros es malo para ellos, o beber una copa de vino equivale a una hora de gimnasio.

Sí, ya lo han adivinado: la cosa va de correlación versus causalidad, un asunto tratado infinidad de veces en este blog; la última de ellas, si no me falla la memoria, esta. Les recuerdo que se trata de todos aquellos estudios epidemiológicos del tipo “hacer/comer x causa/previene y”. Estudios que se hacen en dos tardes cruzando datos en un ordenador hasta que se obtiene lo que se conoce como una “correlación estadísticamente significativa”, aunque no tenga sentido alguno, aunque no exista ningún vínculo plausible, no digamos ya una demostración de causalidad. Pero que en cambio, dan un buen titular.

Naturalmente, a menudo esos titulares engañosos se contradicen unos a otros. Oliver saca a la palestra varias aseveraciones sobre lo bueno y lo malo que es el café al mismo tiempo, para concluir: “El café hoy es como Dios en el Antiguo Testamento: podía salvarte o matarte, dependiendo de cuánto creyeras en sus poderes mágicos”. Y añade: “La ciencia no es una gilipollez, pero hay un montón de gilipolleces disfrazadas de ciencia”.

Pero el humor de Oliver esconde un análisis básico, aunque claro y certero, sobre las causas de todo esto. Primero, no toda la ciencia es de la misma calidad, y esto es algo que los periodistas deberían tener el suficiente criterio para juzgar, en lugar de dar el ridículo marchamo de “lo dice la Ciencia” (con C mayúscula) a todo lo que sale por el tubo, sea lo que sea. Segundo, la carrera científica hoy está minada por el virus del “publish or perish“, la necesidad de publicar a toda costa para conseguir proyectos, becas y contratos. No son solo los científicos quienes sienten la presión de conseguir un buen titular; los periodistas también se dejan seducir por este cebo. Para unos y otros, la presión es una razón de la mala praxis, pero nunca una disculpa.

El vídeo demuestra que Oliver está bien informado y asesorado, porque explica perfectamente cómo se producen estos estudios fraudulentos: manipulando los datos de forma más o menos sutil o descarada para obtener un valor p (ya hablé de este parámetro aquí y aquí) menor del estándar normalmente requerido para que el resultado pueda considerarse “estadísticamente significativo”; “aunque no tenga ningún sentido”, añade el humorista. Como ejemplos, cita algunas de estas correlaciones deliberadamente absurdas, pero auténticas, publicadas en la web FiveThirtyEight: comer repollo con tener el ombligo hacia dentro. Aquí he citado anteriormente alguna del mismo tipo, e incluso las he fabricado yo mismo.

Otro problema, subraya Oliver, es que no se hacen estudios para comprobar los resultados de otros. Los estudios de replicación no interesan, no se financian. “No hay premio Nobel de comprobación de datos”, bromea el presentador. Y de hecho, la reproducibilidad de los experimentos es una de las grandes preocupaciones hoy en el mundo de la publicación científica.

Oliver arremete también contra otro vicio del proceso, ya en el lado periodístico de la frontera. ¿Cuántas veces habremos leído una nota de prensa por el atractivo de su titular, para después descubrir que el contenido del estudio no justificaba ni mucho menos lo anunciado? Oliver cita un ejemplo de este mismo año: un estudio no encontraba ninguna diferencia entre el consumo de chocolate alto y bajo en flavonol en el riesgo de preeclampsia o hipertensión en las mujeres embarazadas. Pero la sociedad científica que auspiciaba el estudio tituló su nota de prensa: “Los beneficios del chocolate durante el embarazo”. Y un canal de televisión picó, contando que comer chocolate durante el embarazo es beneficioso para el bebé, sobre todo en las mujeres con riesgo de preeclampsia o hipertensión. “¡Excepto que eso no es lo que dice el estudio!”, exclama el humorista.

Otro titular descacharrante apareció nada menos que en la revista Time: “Los científicos dicen que oler pedos podría prevenir el cáncer”. Oliver aclara cuál era la conclusión real del estudio en cuestión, que por supuesto jamás mencionaba los pedos ni el cáncer, sino que apuntaba a ciertos compuestos de sulfuro como herramientas farmacológicas para estudiar las disfunciones mitocondriales. Según el humorista, en este caso la historia fue después corregida, pero los investigadores aún reciben periódicamente llamadas de algunos medios para preguntarles sobre los pedos.

Claro que no hace falta marcharnos tan lejos para encontrar este tipo de titulares descaradamente mentirosos. Hace un par de meses conté aquí una aberración titulada “La inteligencia se hereda de la madre”, cuando el título correcto habría sido “Las discapacidades mentales están más frecuentemente ligadas al cromosoma X”. No me he molestado en comprobar si la historia original se ha corregido; como es obvio, el medio en cuestión no era la revista Time.

Y por cierto, esta semana he sabido de otro caso gracias a mi vecina de blog Madre Reciente: “Las mujeres que van a misa tienen mejor salud”, decía un titular en La Razón. Para no desviarme de lo que he venido a contar hoy, no voy a entrar en detalle en el estudio en cuestión. Solo un par de apuntes: para empezar, las mujeres del estudio eran casi exclusivamente enfermeras blancas cristianas estadounidenses, así que la primera enmienda al titular sería esta: “Las enfermeras blancas cristianas estadounidenses que van a misa tienen mejor salud”. Y a ver cómo se vende este titular.

Pero curiosamente, la población del estudio no presenta grandes diferencias en sus factores de salud registrados, excepto en dos: alcohol y tabaco. Cuanto más van a misa, menos fuman y beben. Por ejemplo, fuma un 20% de las que no van nunca, 14% de las que acuden menos de una vez a la semana, 10% de las enfermeras de misa semanal, y solo el 5% de las que repiten durante la semana. Así que, ¿qué tal “Las enfermeras blancas cristianas estadounidenses que menos fuman y beben tienen mejor salud”?. Para esta correlación sí habría un vínculo causal creíble.

Claro que tampoco vayan a pensar que hablamos de conseguir la inmortalidad: según el estudio, las que fuman y beben menos/van a misa más de una vez por semana viven 0,43 años más; es decir, unos cinco meses. Así que el resultado final es: “El tabaco y el alcohol podrían robar unos cinco meses de vida a las enfermeras blancas cristianas estadounidenses”. Impresionante documento, ¿no?

Pero regresando a Oliver, el presentador continúa citando más ejemplos de estudios y titulares tan llamativos como sesgados: muestras pequeñas, resultados en ratones que se cuentan como si directamente pudieran extrapolarse a humanos, trabajos financiados por compañías interesadas en promocionar sus productos… El habitual campo minado de la comunicación de la ciencia, sobre el cual hay que pisar de puntillas.

Oliver concluye ilustrando la enorme confusión que crea todo este ruido en la opinión pública: el resultado son las frases que se escuchan en la calle, como “vale, si ya sabemos que todo da cáncer”, o “pues antes decían lo contrario”. El humorista enseña un fragmento de un magazine televisivo en el que un tertuliano osa manifestar: “Creo que la manera de vivir tu vida es: encuentras el estudio que te suena mejor, y te ciñes a eso”. Oliver replica exaltado: “¡No, no, no, no, no! En ciencia no te limitas a escoger a dedo las partes que justifican lo que de todos modos vas a hacer. ¡Eso es la religión!”. El monólogo da paso a un genial sketch parodiando las charlas TED. Les dejo con John Oliver. Y de verdad, no se lo pierdan.

¿Las series de televisión provocan suicidios?

Para los investigadores Luca Perri y Om Sharan Salafia, del Instituto Nacional de Astrofísica de Italia, algo no cuadraba. Si, como se nos dice, el Trastorno Afectivo Estacional (TAE) causa unos mayores niveles de depresión en invierno, ¿por qué en cambio las cifras de intentos de suicidio en 28 países alcanzan su máximo anual en primavera en ambos hemisferios? Como astrofísicos, Perri y Salafia conocen bien la dinámica de los ciclos solares estacionales.

Se supone que abandonar los cuarteles de invierno, salir a la calle entre parterres floridos, solazarnos en las terrazas ante empañadas jarras de cerveza, vestir ropa más reveladora (y verla vestir a otros/as), todo ello debería auparnos el ánimo. Ya se sabe: la primavera, la sangre altera. ¿Por qué entonces hay más gente que en esta estación decide colocarse en el extremo equivocado de una soga o de cualquier otro artefacto mortal?

Ni cortos ni perezosos, Perri y Salafia construyeron una hipótesis: no es el sol… ¿Qué tal las series de televisión? Citando palabras del estudio:

La Depresión Post-Serie, también conocida como DPS, es la tristeza que se siente después de ver una serie larga. El sentimiento amargo cuando sabes que el viaje ha llegado a su fin, pero no quieres que termine. Esto se puede aplicar a cualquier serie, por ejemplo series de televisión, series de dibujos animados, o incluso series de cine.

Los efectos incluyen, pero no solo: un estado de depresión o tristeza, la incapacidad para comenzar otra historia, la necesidad de volver a ver la serie completa, el abuso de internet ligado a la serie, la creación de fanfiction.

Para poner a prueba su hipótesis, los dos investigadores eligieron una de las series actuales más longevas, populares y emitidas en todo el mundo, Anatomía de Grey, como ejemplo de “fenómeno universal y homogéneo”. A continuación analizaron el patrón de emisión medio de las 12 temporadas ya producidas: una temporada suele comenzar en torno a la semana 38 del año, más o menos coincidiendo con el equinoccio de otoño en el hemisferio norte, hasta el descanso de invierno de la semana 49, con una reanudación hacia la segunda semana del nuevo año que se prolonga hasta el final de temporada en la semana 21.

Imagen de ABC.

Imagen de ABC.

Así, los científicos esperaban encontrar un aumento de la tasa de suicidios entre las semanas 21 y 38, junto con un repunte hacia final de año. Pero al solapar el ciclo anual de Anatomía de Grey con el gráfico de las tasas de suicidios, surgió la gran sorpresa: los mayores aumentos en las cifras de suicidios se producen durante la emisión de la temporada, descendiendo una vez que la serie ha finalizado. El mínimo anual coincide con el momento en que comienza una nueva temporada, y a partir de entonces los intentos de suicidio empiezan a remontar, deteniéndose brevemente en la pausa de fin de año para luego trepar en una frenética escalada hasta el gran final. Escriben Perri y Salafia:

Tendencia del número de intentos de suicidio a lo largo del año. Las franjas rojas representan los períodos medios de emisión de las temporadas de 'Anatomía de Grey'. Imagen de Perri y Salafia.

Tendencia del número de intentos de suicidio a lo largo del año. Las franjas rojas representan los períodos medios de emisión de las temporadas de ‘Anatomía de Grey’. Imagen de Perri y Salafia.

Por tanto, sugerimos que es la propia serie, con sus tormentosas aventuras amorosas y tensas relaciones, la que aumenta la depresión del espectador. Por el contrario, el final de la temporada es un momento de liberación para los espectadores, cuyos intentos de suicidio descienden drásticamente.

Pero por supuesto, todo ello no es sino una gran broma; ya les advertí ayer de que iba a comentar un nuevo y precioso caso de correlaciones espurias. Tras detallar sus conclusiones, Perri y Salafia desvelan el propósito real de su estudio, disponible en la web de prepublicaciones arXiv.org: poner de manifiesto las correlaciones epidemiológicas que con tanta frecuencia se publican en la literatura médica sin justificar ningún vínculo real entre presunta causa y supuesto efecto. Una preocupación que también lo es de este blog, como ya sabrán si se han pasado alguna otra vez por aquí. Los investigadores aclaran:

Este estudio, junto con otros (por ejemplo, el que encontró una correlación entre el número de personas ahogadas tras caer a una piscina y las apariciones cinematográficas de Nicolas Cage), podría ser una advertencia a los científicos de que sean cautos con las correlaciones espurias. Una correlación espuria surge, por ejemplo, cuando se comparan mediciones que dependen de la misma variable. En este caso, la correlación es simplemente la consecuencia de la dependencia común de las mediciones en esa variable, y no de una correlación real entre las mediciones.

Un ejemplo de esto último ya fue comentado en este blog, a propósito de un estudio que pretendía correlacionar el consumo de Viagra con el riesgo de melanoma. Los propios autores de aquel trabajo reconocían que los principales consumidores de Viagra eran hombres con un mayor nivel económico, “que probablemente pueden costearse más vacaciones al sol” y que “tienden a tomar más el sol”, y que además “buscan atención médica más a menudo para los lunares de la piel, lo que lleva a un mayor riesgo de diagnóstico de melanoma”. Es decir, que lo que aumenta el riesgo de melanoma, como está ya bien establecido, no es la Viagra, sino tomar el sol.

En el caso del estudio de Perri y Salafia, la trampa que los investigadores tienden con fines de pedagogía científica es que sí existe una ligera estacionalidad de las tasas de suicidios, y coincide casualmente con los ciclos de las series. Ligera porque, si se fijan, el gráfico no refleja cifras absolutas, sino cambio en la tendencia, que a lo largo del año oscila solo entre 0,9 y 1,2; si se representaran las cifras absolutas en la muestra de 28 países, el aspecto de los picos y valles sería mucho menos espectacular. Esta manipulación de los datos, maliciosamente consciente en el caso de Perri y Salafia, es algo también frecuente en los estudios de correlaciones motivadas por intereses, como también expliqué aquí.

Los últimos de Filipinas habrían sobrevivido con arroz integral

El episodio de esta semana de El Ministerio del Tiempo, serie de la que ya me he autorretratado como rendido fan, rozaba de lado un argumento que no tenía gran cabida en el guión, pero que fue determinante en la agonía de los llamados “últimos de Filipinas”. Como bien mostraba el capítulo, cuya documentación histórica (como la del resto de la serie) merece una ovación, no fueron los disparos de los tagalos los que diezmaron a los soldados sitiados en Baler, sino las enfermedades. Y entre ellas, el beriberi.

Quizá ustedes no hayan oído hablar de esta enfermedad. O a los que sí, tal vez les suene a uno de esos males del pasado, enterrados en una época de ignorancia científica y carencias sanitarias, como la pelagra o el escorbuto. Pero es que las tres, beriberi, pelagra y escorbuto, tienen una causa común, la deficiencia en vitaminas.

Los últimos de Filipinas, en El Ministerio del Tiempo. Imagen de RTVE.

Los últimos de Filipinas, en El Ministerio del Tiempo. Imagen de RTVE.

Las fuentes suelen atribuir el nombre de la enfermedad al idioma cingalés, el mayoritario en Sri Lanka, en el que al parecer beri significa “no puedo”, en referencia a la debilidad extrema que sufren los enfermos. Con lo que beriberi viene a ser “no puedo, no puedo”, una expresión que en castellano inevitablemente se pronuncia con erre al final, con lo que pierde todo su dramatismo.

Lo más interesante de esta enfermedad es que a ella le debemos el descubrimiento de las vitaminas. La del beriberi es una de las grandes historias de la ciencia. Los primeros registros de la enfermedad aparecen en las crónicas del siglo XVI en las colonias asiáticas de las potencias occidentales. A finales del XVIII y comienzos del XIX la enfermedad comienza a ser descrita por médicos ingleses en las publicaciones científicas.

Pero fue sobre todo en el siglo XIX cuando comenzó a destacar entre otras muchas enfermedades de los trópicos. Se presentaba en dos formas en adultos, una llamada seca, que afectaba al sistema nervioso periférico, y otra húmeda, que atacaba el corazón y el sistema circulatorio. Una tercera forma aparecía en los bebés lactantes, y un cuarto tipo con síntomas gastrointestinales se describió en adultos en 2004.

Hoy apenas podemos imaginar el temor de padecer una enfermedad epidémica cuyas causas eran un completo misterio. El beriberi afectaba sobre todo a las poblaciones del sur y sureste de Asia que se alimentaban casi exclusivamente de arroz, incluyendo las Filipinas. Y sin embargo, nadie la había relacionado con la dieta, hasta que a finales del siglo XIX un médico japonés llamado Takaki Kanehiro descubrió que podía prevenirse proporcionando a los marineros una dieta variada.

Pero fue el médico holandés Christiaan Eijkman el que en 1896, a su regreso a los Países Bajos después de diez años en Java, declaró: “¡El arroz blanco puede ser venenoso!”. Eijkman creía que la enfermedad era infecciosa, pero fracasó al intentar transmitirla entre animales. Hasta que por pura casualidad, descubrió que los pollos solo enfermaban si tomaban arroz blanco sin cáscara, mientras que permanecían sanos cuando comían el arroz sin pulir, conservando su cubierta marrón, lo que hoy conocemos como arroz integral.

El caso de los pollos era un verdadero misterio para Eijkman. El holandés pensó que el arroz contenía una bacteria o una toxina, y que la cubierta marrón debía de poseer un “factor anti-beriberi” que la neutralizaba. No fue hasta 1912 cuando el químico polaco Casimir Funk confirmó que los alimentos contenían unos nutrientes esenciales, a los que llamó “aminas vitales”, o vitaminas. El factor anti-beriberi de Eijkman resultó ser la vitamina B1, o tiamina, aislada por fin en 1926. En 1929, el holandés recibía el premio Nobel de Fisiología o Medicina junto con el inglés Frederick Hopkins, el primero que sugirió que los alimentos contenían “factores accesorios” necesarios para la vida. Eijkman moriría un año después.

Los animales no producimos vitamina B1, pero la necesitamos (este es precisamente el concepto de vitamina). En las regiones asiáticas donde el arroz es la base de la dieta, tradicionalmente se pulía para obtener un producto más refinado y suave que además se conservaba durante más tiempo. Pero las vitaminas están en la cubierta marrón, lo que llamamos el salvado; al eliminarlo, lo que queda es sobre todo almidón. Uno podía llenarse el estómago de arroz hasta atiborrarse y, aún así, morir de beriberi. Cuando en El Ministerio del Tiempo el capitán De las Morenas cedía la comida a sus soldados, en realidad no los estaba salvando de la enfermedad.

Hoy el beriberi, como la pelagra (deficiencia en vitamina B3 o niacina) y el escorbuto (falta de vitamina C), son enfermedades infrecuentes en los países desarrollados, aunque continúan aquejando a la población de las regiones con dietas pobres, donde la falta de vitamina B1 provoca además otros cuadros patológicos como la enfermedad de Wernicke, el síndrome de Korsakoff y el de Wernicke-Korsakoff.

Pero sí tenemos cerca a miles de personas en serio riesgo de padecerlas: lo que antes eran plagas típicas de los marineros embarcados durante meses, o de los soldados abandonados en las trincheras, hoy son el azote de los desplazados y refugiados. Una más de las guadañas que penden sobre sus cabezas.

La gripe española y El Ministerio del Tiempo

No soy muy de series. Parafraseando a Umbral, quien puestos a tragarse un argumento prefería la hora y media de una película antes que dedicar varios días a leer un libro, lo que a mí me sucede con las series es que a menudo me transmiten la impresión de estar alargando las tramas eterna e innecesariamente para continuar exprimiéndome como fuente de ingresos publicitarios. En este sentido, y aunque la tele pública de todos no atraviesa precisamente sus mejores momentos, me seduce la comodidad de ver algo en la pantalla sin inoportunos y cansinos cortes de publi.

Y entre tanta serie que explota caminos ya tan trillados como la comedia de trazo grueso, el choque de costumbrismos culturales o el thriller de asesinato que en inglés llaman Whodunit (¿Quién lo hizo?; lo malo es que en muchos casos la respuesta es: ¿Y a mí qué me importa?), la apuesta de El Ministerio del Tiempo es innovadora y, por tanto, arriesgada; algo que se agradece y que cada vez es más escaso, y más difícil encontrarlo fuera de las cadenas que no compiten en el mercado publicitario.

Ya elogié aquí en la pasada temporada el tratamiento original que hace la serie de TVE de un subgénero tan clásico como el de los viajes en el tiempo, pero al que sus creadores han sabido aplicar una fresca vuelta de tuerca, apuntando sin proponérselo a un modelo metafísico llamado Universo de Bloque Creciente. Aunque es evidente que el triunfo de la serie no se debe a que guste a los metafísicos: gusta a todos porque está bien diseñada, bien guionizada, bien realizada, bien interpretada, bien digitalizada y bien vestida. Pero además se agradece que una serie trasluzca inteligencia.

El doctor Vargas observa una muestra de sangre de un paciente. Imagen de TVE/Tamara Arranz.

El doctor Vargas observa una muestra de sangre de un paciente. Imagen de TVE/Tamara Arranz.

Esto sucede también con el último capítulo, el 13, titulado Un virus de otro tiempo. Si podemos enviar personas a través del tiempo, ¿por qué no un virus? Esta era la brillante premisa que ponía a los personajes de la serie en un complejo apuro cuando una de sus protas, Irene (Cayetana Guillén Cuervo), se trae a la actualidad la infame gripe española que mató a unos 50 millones de personas al final de la Primera Guerra Mundial.

No pretendo afear a los guionistas su trabajo de documentación, que es impecable en cuanto a la exhumación de los datos históricos en los que se basan las tramas de la serie. Que la documentación científica sea también irreprochable tal vez sea ya mucho pedir. Ni siquiera en Hollywood esto es lo más habitual; y eso que allí cuentan con algo llamado The Science & Entertainment Exchange, un programa de la Academia Nacional de Ciencias de EEUU que presta asesoría científica gratuita a los cineastas cuando lo necesitan, incluso escribiéndoles ecuaciones reales cuando una pizarra de universidad sale en el plano.

Pero no puedo evitar hacer un par de comentarios para aclarar algunas confusiones comunes sobre la gripe española; que, como bien explicaban después en el making of, no era española, aunque se llamó así porque las primeras noticias sobre la epidemia trascendieron desde España, que no había participado en la Primera Guerra Mundial y por tanto no estaba sometida a censura informativa.

La gripe española fue una calamidad global sin parangón en la historia conocida de la epidemiología, ni siquiera igualada por los desastres de la peste negra. Aún no se conoce con exactitud por qué aquella cepa fue tan letal. Se han aportado varias explicaciones, algunas relacionadas con el propio virus (como su facilidad de contagio inusual) y otras con circunstancias históricas y sociales de la época.

Pero aunque sería muy conveniente no tener que encontrarnos de nuevo con aquel virus, parece obvio que sus repercusiones hoy no serían tan serias como las que tuvo en su época, gracias al avance de los diagnósticos y tratamientos. En 2013, un estudio modelizó el efecto que tendría en la actualidad una pandemia de aquel mismo virus, y la conclusión era que las tasas de mortalidad serían un 70% inferores a lo que fueron entonces. “Una gripe española en tiempos actuales no representa el peor escenario en términos de riesgo pandémico”, concluía el estudio.

De hecho, ya he contado aquí que son otras cepas de gripe las que hoy preocupan a los expertos; y que al contrario de lo que se afirmaba en el capítulo, la gripe de 2009 no provocó una reacción de alarma exagerada, sino el estado de alerta necesario ante una gripe que entonces era nueva y cuyos efectos eran incalculables. La Organización Mundial de la Salud, y cualquiera que estuviera en el pellejo de sus responsables, siempre preferirá haber reaccionado con contundencia ante una amenaza que luego no era para tanto, antes que tener que lamentar el haber respondido con pasividad e ineficacia ante una catástrofe sanitaria.

Una incorrección en el capítulo se ponía en boca del médico del Ministerio, quien afirmaba que Irene sobreviviría a la infección porque era fuerte y sus defensas responderían adecuadamente. Hubo algo muy peculiar con la gripe española que no se ha dado en otras epidemias de esta enfermedad, incluyendo las estacionales. Mientras que las gripes suelen ser más graves para los pacientes más débiles, como niños, ancianos o personas inmunocomprometidas, en cambio la epidemia de 1918 mataba a hombres y mujeres jóvenes y sanos.

Hay una explicación para esto que hoy se acepta de forma general: la gripe española mataba porque disparaba una tormenta de citoquinas, una reacción apabullante del sistema inmunitario que destroza el propio organismo. Y por tanto, cuanto más fuerte era el organismo del paciente, más fuerte era también la tormenta de citoquinas que la gripe le provocaba.

Ya conté aquí que este fenómeno parece ser también la causa de la letalidad del ébola. Y dado que la gripe española mataba por un mecanismo similar, una de las firmas de esta epidemia fue que sus afectados morían con síntomas más parecidos a una fiebre hemorrágica que a lo que normalmente entendemos por gripe. Aunque no hubiera quedado bonito en la pantalla, lo cierto es que las víctimas mortales de la gripe española terminaban bañadas en sangre, por dentro y por fuera.

Y por cierto, y tal como conté para el caso del ébola, en la gripe española también sucedía que las infecciones oportunistas aprovechaban la desestabilización del sistema inmunitario para causar infecciones secundarias graves. Hoy los especialistas piensan que muchos de los infectados morían en realidad de una neumonía bacteriana propiciada por la gripe, por lo que el tratamiento con antibióticos –al contrario de lo que se contaba en el capítulo– sí sería una manera adecuada de contener el empeoramiento general de los pacientes, al mantener a raya estas infecciones colaterales.

Amelia y Pacino, con las muestras del virus. Imagen de TVE/Tamara Arranz.

Amelia y Pacino, con las muestras del virus. Imagen de TVE/Tamara Arranz.

Por último, Amelia y Pacino pretendían inactivar el virus dejando el recipiente de las muestras abierto en un laboratorio con la calefacción alta. Pero por desgracia, esto no habría bastado: un estudio de 2014 determinó que el virus de 1918 solo se inactiva por completo después de 6 horas a 50 ºC. Por muy alta que fuera la temperatura del laboratorio, y dado que además Amelia y Pacino no se preocuparon de vaciar el nitrógeno líquido del contenedor, los empleados de la compañía farmacéutica podrían haber recuperado las muestras casi intactas a la mañana siguiente.

Todo lo cual, insisto, no enturbia la gran calidad de una serie que despunta entre la mediocridad general, y de la cual otras cadenas deberían tomar ejemplo. Aunque hacerlo tras la estela del triunfo ajeno siempre es lo más fácil.

Andreas Wahl, ¿genio o Jackass de la ciencia?

Se puede tener una absoluta confianza en los principios científicos. Pero de ahí a poner la vida de uno sin necesidad alguna en manos de Newton, Bernoulli o cualquier otro respetable señor muerto hace siglos, va un trecho que solo Andreas Wahl se ha atrevido a recorrer.

Andreas Wahl, en una imagen promocional de su espectáculo Elektrisk. elektriskshow.no.

Andreas Wahl, en una imagen promocional de su espectáculo Elektrisk. elektriskshow.no.

Por lo que he podido saber, Wahl es un físico noruego, divulgador científico, estrella televisiva y triple campeón de escupir huesos de cereza, con una plusmarca personal en 2015 de 13,06 metros. En su cuenta de Twitter se presenta con una foto a lo Tesla que al parecer promociona un espectáculo circense-científico de electricidad protagonizado por él y actualmente en gira por su país.

Pero si Wahl ha traspasado las gélidas fronteras de su Noruega natal ha sido por publicar vídeos en los que pone a prueba principios físicos jugándose la vida; como en aquel programa televisivo de Jackass, pero sabiendo a qué ilustre científico deberá culpar si algo sale mal.

En su última entrega, Wahl experimenta con uno de los clichés cinematográficos más manoseados en el cine de acción: la capacidad o incapacidad de las balas para mantener su poder mortífero a través del agua. En la secuencia inicial de Salvar al soldado Ryan, el desembarco aliado en la playa de Omaha en 1944, pudimos ver cómo los proyectiles alemanes se abrían paso sin dificultad bajo el agua y abatían a los soldados estadounidenses. En cambio, y aunque ahora mismo no recuerdo ningún ejemplo, en otras películas los héroes o villanos se arrojan al mar para protegerse de los disparos. ¿Cuál es la versión acertada?

Otros ya habían puesto a prueba anteriormente esta incógnita, como los presentadores del programa de Discovery Channel Mythbusters o el videobloguero de ciencia Destin Sandlin en su magnífico canal de YouTube Smarter Every Day, del que ya he hablado aquí antes. Pero Wahl no se conforma con una piscina vacía o un bloque de gel para experimentar la penetración de la bala. Él se planta dentro del agua en bañador enfrentado al cañón de un fusil de asalto SIG SG 550 con un cordel atado al gatillo. Y tira.

Por supuesto, Wahl sabía muy bien lo que hacía. La densidad del agua ofrece una enorme resistencia a la penetración del proyectil, y curiosamente, cuanto más rápida es la bala más tiende a frenarse, ya que el rozamiento es mayor. Es decir, que un disparo con una pistola tiene más posibilidades de herir a alguien bajo el agua que el de un fusil. Lo sentimos, Spielberg.

No es la primera hazaña de Wahl. Anteriormente ya se había jugado el cuello, hasta ahora con la sonrisa de la fortuna, en experimentos como la demostración de la fuerza centrípeta, ese componente que explica el movimiento de los objetos en una trayectoria curvada y que es responsable, por ejemplo, de las órbitas.

El físico también lo probó consigo mismo, colgándose a 14 metros de altura con una cuerda que pasaba sobre un eje y cuyo extremo contrario terminaba atado a un peso sujeto a la pared. Wahl cae al liberar el peso, pero el movimiento circular de este alrededor del eje enrolla la cuerda y termina deteniendo la caída. Naturalmente, él sabía que debía usar una cuerda elástica como las que se emplean para hacer bungee jumping (eso que absurdamente aquí se conoce como puenting, vocablo inexistente). De otro modo, la columna se le habría partido en dos como una patata frita.

No sé a ustedes, pero a mí todo esto me trae a la memoria un viejo recuerdo televisivo que solo resultará familiar a los mayores de treinta y tantos. Verán, según parece la competición de escupir huesos de cereza Morellsteinspytting, en la que Wahl ha resultado tres veces campeón, es desde 1996 el principal atractivo de la localidad noruega de Lofthus, donde se celebra anualmente en sus tres categorías (hombres, mujeres y junior para menores de 14) cada último fin de semana de julio en el marco del Festival de la Cereza. El récord absoluto lo estableció en 2003 la celebridad local Sverre Kleivkås, con 14,24 metros. ¿Alguien recuerda a Rose y sus historias de Saint Olaf, Minnesota?

Año 1 después de McFly: ¿adiós al ordenador personal y al móvil?

Con ocasión del advenimiento del año 1 d. M. F. (después de McFly), las comparaciones entre nuestro 2015 y el suyo han llegado hasta a los telediarios. Siempre es un ejercicio curioso; aunque al parecer Robert Zemeckis, el director de la trilogía, declaró que su pretensión nunca fue tanto plasmar un futuro creíble como simplemente divertido. En mi caso, esta semana he conmemorado la ocasión tirando por otro derrotero, el de los viajes en el tiempo, que siempre da mucho jugo y mucho juego.

Pero quería dejar aquí un comentario relativo a esos parecidos y diferencias entre el pasado de Marty, su presente, su futuro, nuestro presente y nuestro futuro. La saga de Back to the Future basa su tono de comedia sobre todo en un elemento, el choque cultural, un argumento que el cine ya ha desgranado en muchas y distintas versiones: la del cambio de país, la del emigrante del campo a la ciudad, incluso la del extraterrestre camuflado como un humano más. En este caso, es el cambio de época. Pero curiosamente, y mientras que en la segunda parte este choque se plasma sobre todo en el factor tecnológico, en la película original el efecto se expresaba más bien en detalles sociológicos: las marcas comerciales (Levi’s, o Calvin Klein en el original*), los personajes (Ronald Reagan), los usos y costumbres (el comportamiento de la madre de Marty), la música (el Johnny B. Goode)…

¿Por qué? Si bien lo miramos, se diría que el salto tecnológico entre 1955 y 1985 no fue tan sustancial. Incluso entre 1955 y 2015, solo ha sido realmente revolucionario para el humano común en un aspecto, el de todo aquello que lleva una pantalla: ordenadores, smartphones, tablets.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en 'Regreso al futuro parte II'. Imagen de Universal Pictures.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en ‘Regreso al futuro parte II’. Imagen de Universal Pictures.

Esta semana he dedicado un día a fijarme a mi alrededor y pensar en cómo nuestra vida se ha transformado en función de la tecnología desde una época como 1955. Los automóviles de hoy esconden innovaciones impensables entonces, pero siguen siendo coches que circulan por una carretera. Seguimos viajando en avión, tren, metro o autobús, sufriendo atascos de tráfico, iluminándonos con bombillas que encendemos con una llave en la pared, escuchando la radio, viendo la televisión, trabajando en una oficina, lavando la ropa en una máquina giratoria y planchándola con una placa de metal caliente, aspirando el suelo con una escoba de succión, cocinando y tomando cañas en los bares (por suerte) que luego nos vetan la posibilidad de conducir.

Esto último, porque aún no tenemos coches que se conduzcan solos. Como tampoco disponemos de automóviles (ni patines) voladores, ni vivimos bajo tierra, ni las calles nos llevan directamente al piso 157, ni pasamos las vacaciones en Marte, ni nos teletransportamos a Nueva Zelanda para desayunar, ni limpiamos la casa pulsando un botón, ni nos pintamos (se pintan) las uñas con un lápiz electrónico, ni tenemos robots o avatares virtuales que trabajen por nosotros, ni viajamos en el tiempo, ni nos metemos en una máquina que nos rejuvenezca y nos cure todos nuestros males, ni nos congelamos para resucitar en el futuro. Desde 1955 hemos asistido a innumerables mejoras incrementales y graduales en todo aquello que nos rodea, pero casi nada que realmente cambie lo esencial de nuestra forma de vida.

Aunque fue en los 80 cuando se popularizó el posmodernismo, aún seguía viva la herencia del optimismo tecnológico de la modernidad. La verdadera revolución de la tecnología en todos los ámbitos de la vida humana fue la de parte del siglo XIX y parte del XX, cuando surgieron todas esas innovaciones disponibles hoy que no existían en 1855, pero sí en 1955.

Como ya he mencionado, solo en la forma de comunicarnos, relacionarnos e informarnos a través de los dispositivos de pantalla es en lo que este 2015 se diferencia radicalmente de 1955, pero también del 1985 de Back to the Future. Recuerdo 1985; 17 años. Entonces no pensábamos que en 2015 fuéramos a tener coches voladores, pero sí habríamos apostado por que la vida hoy sería muy diferente; por supuesto, mejor. Quizá, más que optimismo, un cierto candor.

Para vislumbrar qué podría depararnos el futuro en este único campo que tanto ha cambiado en unas pocas décadas, nadie mejor que un experto. Esta semana estuve conversando con el historiador de la computación David Greelish, autor del libro Classic Computing: The Complete Historically Brewed. Greelish es de los que piensan que la evolución de la informática personal está ahora inmersa en una etapa de meseta, en comparación con los últimos 30 años. “Pienso que es justo decir que el portátil nuevo que utilizamos ahora no es tan radicalmente diferente del que usábamos en 2010, o incluso en 2005”, dice. “En un período de tiempo mucho más corto, puedo decir lo mismo de los smartphones y tablets“.

Lo cual no implica, en opinión de Greelish, que nada vaya a cambiar, sino que la transformación no será tan revolucionaria como la que hemos presenciado a lo largo de nuestras vidas. El experto piensa que “el futuro cercano es muy excitante”, y que variará el concepto de dispositivo autónomo personal que empleamos hoy. “Creo que estamos solo a una década o así del momento en el que ya no habrá ordenadores o smartphones o incluso televisión como hoy los entendemos, como aparatos independientes. Simplemente, habrá pantallas de distintos tamaños conectadas a la nube”.

Estas pantallas, prosigue Greelish, podrán sostenerse en una mano, en las dos, apoyarse en la mesa, en la pared o ser la pared. Todas ellas nos permitirán acceder a cualquier tipo de archivo digital. Pero el hecho de que el objetivo final sea la disponibilidad del contenido, y que esto se facilite a través de innumerables opciones y formatos, acabará también con esa actual dependencia del móvil, ya que el aparato pasará a un segundo plano. “No importará si es tu pantalla o no”, afirma Greelish. “El futuro de la computación en la nube no es tus datos en cualquier lugar, sino más bien tu ordenador en cualquier lugar; yo podría estar en casa de un amigo y no solo acceder a mis datos, sino a todo mi material digital. Cualquier pantalla puede convertirse en mi pantalla también para mis apps, convirtiéndose en mi ordenador”.

De hecho, Greelish apunta una tendencia que viene pujando en los últimos años y que asoma tanto en las ferias de tecnología como en las páginas de las revistas de ciencia: las pantallas plegables, quién sabe si incluso desechables. “Un smartphone o tablet se podría guardar en un bolsillo, desdoblarse y hacerse más grande; esto captará nuestra atención y será divertido por un tiempo”.

¿Y más allá de esto? “Predecir el futuro es un terreno peligroso, ya que quienes lo hacen casi siempre acaban pareciendo ridículos en el futuro”, advierte Greelish. Pero tal vez tampoco haga falta un ejercicio de futurología muy certero para entender que, si lo importante son los contenidos, la barrera que supone el uso de un dispositivo debería tender a minimizarse. Al fin y al cabo nuestros aparatos no dejan de ser, en el fondo, sofisticadas prótesis: lo que emitimos y percibimos finalmente consiste en actividad cerebral electroquímica. Algunos investigadores están abriendo el camino hacia la comunicación directa de cerebro a cerebro, algo que nos permitiría incluso prescindir de las pantallas.

Y añado: solo espero que todo esto no haga realidad ese verso de Bad Religion:

Cause I’m a 21st century digital boy

I don’t know how to read but I got a lot of toys

*Levi’s ya era una marca de sobra conocida en los años 50 en EE. UU. En la versión original en inglés Marty decía llamarse Calvin Klein, pero esta marca aún no era popular en la España de los 80, por lo que los traductores optaron por cambiarlo.

La televisión es solo televisión; no pretendamos que despache cultura científica

Como uno de los pocos españoles a quienes anoche se les hacía bola la opción de deglutir un debate sobre los resultados electorales, y como uno de los cada vez menos que no tenemos televisión de pago ni aunque las operadoras se empeñen en regalárnosla, ayer me vi obligadamente circunscrito a acompañar la cena, tras acostar a los niños, viendo el Discovery Channel, o como se llame aquí. Daban un par de falsos documentales sobre la presunta existencia actual del megalodón, un colosal tiburón de 20 metros que pobló los océanos en el pasado y que se extinguió en el Plioceno, hace unos 2,6 millones de años.

Videomontaje de una cría de megalodón pasando ante la cámara de unos submarinistas. Discovery Channel.

Videomontaje de una cría de megalodón pasando ante la cámara de unos submarinistas. Discovery Channel.

Para quien no lo conozca, explico que Megalodon: The monster shark lives es un programa del género conocido como mockumentary o falso documental, una película de ficción interpretada por actores que aparecen caracterizados como científicos o expertos y que interpretan su guión ante la cámara simulando que se trata de hechos reales. La trama arranca con el supuesto ataque de una desconocida bestia marina a un barco de pesca surafricano que resulta en la muerte de sus ocupantes, lo que motiva una investigación por parte del (tan inexistente como el megalodón) biólogo marino Collin Drake, interpretado por el actor Darron Meyer. El ficticio experto y su equipo organizan una expedición que se queda a un soplido de obtener pruebas concluyentes de la existencia del monstruo, un desenlace estandarizado en el género para mantener la intriga sin desvelar la trampa y el cartón.

Con motivo del estreno de la película, hace un par de años, se levantó en internet un insólito tsunami de protestas contra el canal Discovery por emitir un documental falso sin incluir en él la expresa aclaración de que se trataba solo de eso, una pieza de entretenimiento. Las flechas más aceradas vinieron disparadas desde algunos medios, científicos y blogueros de Estados Unidos, un país donde el canal Discovery existe, creo, desde hace décadas y donde al parecer en tiempos pasados solía emitir piezas de auténtico carácter científico.

Algunas opiniones, por ejemplo, añoraban que la Shark Week –la semana de los tiburones, un ciclo que se repite anualmente en este canal– programaba piezas de verdadero valor documental antes de entregarse al puro espectáculo basado en el sensacionalismo. Por su parte, Discovery reconoció la falsedad del documental, pero lejos de disculparse defendió su derecho a hacer lo que le viniera en gana y repitió al año siguiente con un nuevo mockumentary que mostraba nuevas falsas pruebas de la existencia del megalodón.

Tal vez por aquí la conmoción fue menor, ya que el Discovery existe desde hace pocos años y desde el principio se ha dedicado fundamentalmente a emitir falsos documentales sobre sirenas, alienígenas antiguos y modernos, archivos ocultos, conspiranoias, abominables hombres de las nieves, diluvios universales, bases secretas en la Luna, moscas con cabeza humana y humanos con cabeza de mosca. Por tanto, en nuestro país este canal no se importó desde el principio como una cadena con pretensiones científicas, sino como la versión pinturera de esos divertidos folletines tan típicamente americanos en los que una granjera denuncia que el gobierno ha reemplazado a su marido por un dibujo animado.

Como (ex)científico y periodista de ciencia, tal vez se esperaría de mí que me sumara a la censura hacia esto que algunos dan en llamar telebasura científica. Pero no voy a hacerlo. Seamos serios: la televisión es solo televisión. Acudir a ella buscando cultura científica es como frecuentar un burdel en busca de amor. No niego que tal vez existan programas de divulgación científica de cierto valor (a todos nos vienen a la mente algunos recuerdos), y hasta me atrevería a apoyar la postura estándar de que los canales que reciban fondos públicos deben servir a ciertos valores educativos. Pero la expresión “telebasura” siempre me ha parecido algo redundante; no porque esté en mi ánimo calificar toda la televisión como basura, sino porque quienes hablan de basura se refieren precisamente a lo que muscula el corazón del negocio televisivo. La tele es eso; si se quiere llamar basura, llámese. Pero me permito recordar que hay otras alternativas de ocio.

En lo que se refiere a los documentales de naturaleza, también es cierto que todos suelen tener su cuota de trampantojo. Recordemos los famosos montajes de Félix Rodríguez de la Fuente, por los que fue tan vilipendiado. Incluso el mismísimo David Attenborough fue sorprendido en un renuncio cuando amañó un encuentro con una cobra escupidora. Hoy un personaje que levanta pasiones enfrentadas es Frank de la jungla, tan admirado como aborrecido. Veamos; cualquiera que haya frecuentado espacios naturales, tropicales o no, sabe que en una mañana de caminata a uno no le salen a saludar cinco especies distintas de serpientes, y que en general los animales tienden a huir si tratas de acercarte a ellos. De otro modo, los realizadores de auténticos documentales serían bastante idiotas por pasar semanas en el campo en busca de especies de interés, y los ornitólogos serían imbéciles por ocultarse en hides/blinds si bastara con camuflarse con una gorra de tenis y unos crocs rojos para agarrar cualquier pájaro sin que haga el menor amago de escapar.

Frank de la Jungla.

Frank de la Jungla.

Es innegable que el estilo de aproximación de Frank a las criaturas salvajes es del todo heterodoxo, y que en muchas ocasiones patina estrepitosamente cuando responde a las preguntas de sus acompañantes, que le interrogan sobre las especies como si él fuera un zoólogo (nota: a riesgo de equivocarme, tengo para mí la impresión de que el anterior realizador, creo que se llamaba Nacho, lo hacía con clara intención provocadora irónico-cómica). Todo ello forma parte del espectáculo, de una especie de versión del circo a lo Coronel Tapioca; los programas de Frank de la jungla podrán ser todo lo criticables que se quiera, pero como lo que son, un mero entretenimiento televisivo. Criticarlos en calidad de documentales de naturaleza es como criticar las máquinas de venta de patatas y chocolatinas en calidad de restaurantes.

Repito, seamos serios. O mejor dicho, no lo seamos cuando se trata de televisión. Es solo televisión, y no otra cosa. Los directivos del canal Discovery serán merecedores de todos los epítetos pertinentes por presumir de que consiguieron hacer creer a más de un 70% de su audiencia que el megalodón realmente sigue existiendo. Pero para mí, este dato afea más a la audiencia que al propio canal. Si quieren ciencia, no la busquen en la tele. A pesar de la revolución audiovisual, hay cosas que nunca cambiarán, y la ciencia solo se aprende como se ha aprendido siempre: leyendo y estudiando; en resumen, ejercitando y forzando la mente, por impopular que ello resulte en este imperio del ejercicio físico en el que nos ha tocado vivir.

De acuerdo, los zombis no existen; pero ¿podemos escapar de ellos?

Teniendo en cuenta que los zombis no pueden morir porque ya están muertos –aunque sí es posible conseguir que dejen de incordiar–, no tiene nada de raro que regresen una y otra vez para protagonizar largas sagas. George A. Romero, el padre fundador del género tal como hoy lo entendemos, ya ha rodado al menos seis películas de su serie Dead, si no me fallan las cuentas, y The Walking Dead ha sobremuerto en la competitiva cancha televisiva durante cinco temporadas, con la sexta en preparación.

'The Walking Dead'. Imagen de AMC.

‘The Walking Dead’. Imagen de AMC.

Y a pesar de que ya hemos visto zombis en todos los formatos y tamaños posibles –el año pasado les tocó a los castores–, siempre me ha llamado la atención una curiosidad: ¿por qué los protagonistas de las películas de zombis nunca han visto una película de zombis? Un ejemplo: en las historias de vampiros que nos trae el cine, es habitual que más pronto que tarde los personajes reconozcan que se encuentran ante una coyuntura de vampiros, incluso cuando no se trata estrictamente del modelo clásico, como ocurre en la serie de Guillermo del Toro y Chuck Hogan The Strain. Una vez que los protagonistas han identificado que la cosa va de vampiros, de inmediato les viene a la mente todo el repertorio estándar de ideas sobre estos seres; entre otras cosas, cómo acabar con ellos.

En cambio, no recuerdo una sola película de zombis (repito: “no recuerdo”, no “no existe”) en la cual llegue un momento en que uno de los personajes sentencie: “¡Ya está, claro, son zombis, de los de toda la vida!”. Más bien al contrario, suelen mostrar su absoluta sorpresa: “¿Qué diablos es eso? ¡Oh, se comen a la gente! ¡Y no mueren! ¡Y convierten a otros en lo mismo que ellos!”. Dichos protagonistas no llaman al pan pan y al zombi zombi, sino que se refieren a ellos con nombres ad hoc, como los “caminantes” de The Walking Dead, o sencillamente los denominan “esas cosas”. Con la ya larga tradición de películas, series, libros, dibujos animados, cómics, novelas gráficas y toda otra clase de formatos que han cubierto el género, ¿por qué los protagonistas nunca han visto/leído/oído ninguna de estas historias para saber reconocer a los zombis y llamarlos por su nombre?

Así empezó todo. El primer zombi de 'La noche de los muertos vivientes' de George A. Romero (1968). Imagen de The Walter Reade Organization.

Así empezó todo. El primer zombi de ‘La noche de los muertos vivientes’ de George A. Romero (1968). Imagen de The Walter Reade Organization.

No tema, no le ocurre nada a su pantalla. Tampoco se ha equivocado de blog. Si hoy traigo aquí esta cuestión, hay un motivo, incluso relacionado con la ciencia, porque todo esto nos conduce a una proposición: si los protagonistas de las películas de zombis supieran identificar correctamente la naturaleza de su situación desde el primer momento, contarían con mejores armas para sobrevivir. Y no me refiero a machetes o fusiles de gran calibre, sino a prevención; estar sobre aviso, saber qué hacer, qué no hacer, a dónde ir, a dónde no ir.

Y quien dice zombis, dice cualquier epidemia. La experiencia del ébola nos ha mostrado que, si en algún momento futuro sufrimos un grave brote de alguna enfermedad terriblemente contagiosa y mortal, al menos no nos vencerá el factor sorpresa; dispondremos de amplia información que nos enseñará cómo actuar, y esto puede ser decisivo en la evolución de la hipotética infección.

De esta veteranía nos beneficiamos todos: público, autoridades sanitarias y científicos; esta semana la revista Science publica una revisión sobre el estado de la cuestión en la elaboración de modelos matemáticos de epidemias infecciosas, herramientas fundamentales a la hora de guiar la respuesta frente a estas crisis. El artículo, firmado por un numeroso equipo multidisciplinar perteneciente a la colaboración Infectious Disease Dynamics (IDD) del Instituto de Ciencias Matemáticas Isaac Newton en Cambridge (Reino Unido), concluye que los modelos están mejorando y que cada vez reflejan más fielmente la dinámica de las epidemias, y ello a pesar de que la complejidad ha aumentado con el mayor tráfico internacional de personas y el aumento de las resistencias a fármacos antimicrobianos.

Hoy el panorama de la salud ha pasado de local a global, valoran los científicos, y resumiendo lo que acabo de explicar en los párrafos anteriores, “en nuestro mundo moderno de comunicación instantánea, el comportamiento cambiante de los individuos en respuesta a la publicidad sobre las epidemias puede tener efectos profundos en el curso de un brote”. Los firmantes del artículo, encabezado por el epidemiólogo de la Universidad de Utrecht (Países Bajos) Hans Heesterbeek, argumentan que el diálogo entre la comunidad científica y los responsables sanitarios es esencial para que los modelos matemáticos ayuden a tomar las decisiones correctas y a definir estrategias de control mejor informadas.

Uno de estos modelos matemáticos ha servido ahora a un grupo de investigadores de la Universidad de Cornell (EE. UU.) para simular la dinámica de una epidemia. Tal vez el estudio no tendría mayor repercusión –y, como diría la foto de Julio Iglesias, sus autores lo saben– de no ser porque la enfermedad elegida no es el ébola, ni la gripe aviar, ni la tuberculosis. Para su modelo, los autores han escogido precisamente un brote zombi en EE. UU. “En su raíz, el zombismo es solo eso: una enfermedad (ficticia), y por tanto debería ser apta para el mismo tipo de análisis y estudio del que se han beneficiado las enfermedades más tradicionales”, escriben los autores en su trabajo, disponible en la web de prepublicaciones arXiv.org.

Esta no es la primera simulación matemática de una epidemia zombi, pero como destaca el artículo de Science, los modelos mejoran y se refinan, por lo que podríamos asumir que es la mejor diseñada hasta ahora. Para su algoritmo, los investigadores, encabezados por Alexander Alemi y dirigidos por el físico James Sethna, han considerado variables particulares del fenómeno zombi que lo diferencian de otras enfermedades. Por ejemplo, los virus no buscan activamente a sus víctimas; los zombis sí. “Los zombis no vuelan en aviones”, escriben los científicos. Y cuando un zombi y un “humano” (sic; siempre me he preguntado entonces por qué al menos a los zombis no se les concede la categoría de “ex humanos”) se encuentran, la reunión puede saldarse con uno de dos resultados: el zombi muerde al humano y lo recluta para su causa (probabilidad β), o el humano “mata” (¿remata?) al zombi (probabilidad κ). Así, la virulencia se define como α = κ / β.

Una aclaración: a pesar de que los investigadores definen α como “virulencia”, la denominación es un poco confusa; tal como se calcula esta relación, cuanto mayor es α (si es mayor que 1), la situación es favorable a nosotros, mientras que con α menor que 1, lo tenemos complicado (más adelante aclaran que se trata de “virulencia inversa”). Pero incluso si α es mayor que 1, el resultado final dependerá de si el número inicial de zombis permite a los humanos matarlos a todos antes de que ellos acaben con la humanidad.

Mapa de densidad de población en EE. UU., con muchas zonas vacías en el medio oeste. Imagen de Alemi et al.

Mapa de densidad de población en EE. UU., con muchas zonas vacías en el medio oeste. Imagen de Alemi et al.

Los investigadores aplican la simulación a su país, tomando como base el censo de 2010 y la densidad de población para repartir a sus 306.675.005 habitantes, lo que da como resultado el mapa de la figura, con muchas zonas vacías en el medio oeste que desconectan ambas costas. A la virulencia α le dan un valor de 0,8 basándose en algunas películas del género. Por último, añaden movimiento a los zombis, a razón de un pie por segundo (0,3 metros). Y regresando a la cuestión con la que he abierto este artículo, aquí tampoco la población parece advertida del fenómeno zombi, ya que los investigadores asumen que los humanos no se mueven, algo que probablemente ocurriría si los sujetos de la simulación hubieran visto las cinco temporadas de The Walking Dead. Alemi y sus colaboradores lo justifican así: “Asumimos que los humanos no se mueven, no solo por eficacia computacional, sino porque, como veremos, los brotes zombi tienden a ocurrir rápidamente, y suponemos que las grandes redes de transporte dejarán de funcionar en los primeros días, confinando a la mayoría de la gente en sus casas”.

Evolución de la simulación de la epidemia zombi en EE. UU. El azul representa la población, el rojo los zombis, y el verde los zombis rematados. Imagen de Alemi et al.

Evolución de la simulación de la epidemia zombi en EE. UU. El azul representa la población, el rojo los zombis, y el verde los zombis rematados. Imagen de Alemi et al.

En resumen, y una vez que los científicos han encajado estas y otras variables en su modelo matemático, vayamos a lo práctico: hay un brote zombi en EE. UU que afecta al azar a una persona de cada millón. ¿Qué ocurre? “La mayoría de la población de EE. UU. ha sido convertida en zombis durante la primera semana”, escriben los científicos, mostrando mapas de la evolución del brote. La epidemia se extiende con rapidez por ambas costas y por la mitad oriental, la más poblada de aquel país, pero no así por el medio oeste. “Después de cuatro semanas, gran parte de Estados Unidos ha caído, pero a los zombis les lleva mucho tiempo difundirse y capturar el resto del país”. “Incluso cuatro semanas después [los famosos 28 días], áreas remotas de Montana y Nevada permanecen libres de zombis”. Así que, ya ven, hay escapatoria.

Por último, los investigadores construyen un mapa de riesgo, basado en promediar 7.000 casos distintos en los que la epidemia comienza con un solo zombi en un lugar aleatorio. En estas situaciones, como es lógico, el brote se extiende con más lentitud; en el caso de que el zombi cero aparezca en Nueva York, 28 días después solo ha caído la región noreste. Pero lo importante es que con este cálculo los científicos estiman dónde es más peligroso vivir suponiendo una epidemia que empezara de esta manera. Y quienes corren más riesgo son los que viven en zonas intermedias entre áreas metropolitanas muy pobladas, ya que el ataque les puede llegar por distintos flancos. “Por ejemplo, en California es la región cercana a Bakersfield, en el valle de San Joaquín, la que corre mayor riesgo, ya que será asediada por los zombis si estos se originan en el área de San Francisco o en la de Los Ángeles/San Diego. El área con el mayor riesgo a un mes es el noreste de Pensilvania, susceptible a brotes originados en cualquiera de las grandes áreas metropolitanas de la costa este”.

Por si alguien desea entretenerse, los investigadores han colgado su modelo funcional de simulación en internet. Basta con elegir los parámetros, hacer click en uno o varios lugares para sembrar muertos vivientes, y sentarse a contemplar cómo la epidemia zombi se extiende por EE. UU. Solo nos faltaría que alguien se animara a aplicarlo a nuestro país para saber si deberíamos escapar a Soria o Teruel, las provincias con menor densidad de población, o si sería preferible enfilar hacia Jaramillo Quemado (Burgos), donde cada habitante tiene casi tres kilómetros cuadrados y medio para él solito, o si deberíamos buscar alguna cueva remota en el Pirineo. Nos vemos allí. Si llegamos.

Las paradojas temporales y ‘El Ministerio del Tiempo’

Decíamos ayer que la nueva y estupenda serie de Televisión Española El Ministerio del Tiempo utiliza un concepto del tiempo que guarda ciertas semejanzas con una teoría filosófica llamada Universo de Bloque Creciente (UBC), según la cual el espacio-tiempo está formado por el pasado y el presente, mientras que el futuro no existe. Los entusiastas de esta visión comparan el universo a un bloque estático con un borde productivo, el del presente, que va añadiendo finas rodajas de realidad a lo ya existente. Por ilustrarlo con un ejemplo sencillo, podemos pensar también en el tallo de una planta, que no crece a partir de toda su longitud sino solo desde la punta o meristema, donde están las células que se dividen activamente.

Con el UBC se da una curiosa paradoja: aunque esta visión del tiempo es la que resulta más intuitiva y fácil de comprender para nosotros, tiene serias objeciones, por lo que se considera una teoría minoritaria frente a otras como el eternalismo –existen el pasado, el presente y el futuro– o el presentismo –solo el presente existe– (nota: ahí sale un desvío en forma de pregunta: ¿por qué nuestra mente nos obliga a creer en una idea del tiempo que la misma mente encuentra injustificable?).

Algunos de los protagonistas de 'El Ministerio del Tiempo'. Imagen de rtve.es

Algunos de los protagonistas de ‘El Ministerio del Tiempo’. Imagen de rtve.es

Las objeciones al UBC son sobre todo dos. Ya expliqué ayer que es imposible para nosotros tener la seguridad de que ahora es ahora, y citaba el ejemplo de Sócrates utilizado por los metafísicos (ya se sabe, a los filósofos les gusta tirar de referencias griegas): Sócrates piensa que él está discutiendo ahora, pero nosotros sabemos que no es así; él es el pasado, y el presente somos nosotros. Pero entonces, ¿quién nos asegura que no estamos tan equivocados como Sócrates, y que no somos en realidad el pasado de otros? Los partidarios de la teoría argumentan que el pasado se distingue del presente porque en aquel no hay cambios, ni consciencia, ni flujo temporal. En fin, un lugar un poco aburrido donde nada cambia.

La segunda objeción al modelo viene de la física relativista formulada por Einstein. El físico alemán descubrió que las cosas ocurren de diferente manera según la posición y la velocidad de cada observador. Un reloj corre a distinto ritmo según la velocidad a la que se mueva. En una situación extrema, si viajáramos en una nave próxima a la velocidad de la luz o nos sumiéramos en agujero negro, lo que para nosotros transcurriría en unos segundos sería una eternidad para quien nos observara desde fuera. Y dado que la ocurrencia simultánea de dos cosas es imposible, el concepto de presente no tiene sentido, lo que derriba el principio fundador del UBC.

Los metafísicos estudian la teoría del tiempo para tratar de entender cómo funciona la ¿realidad? más allá de las restricciones que nos imponen nuestros sentidos corporales y nuestra mente limitada. Y aunque físicamente sea muy improbable que lleguemos a construir una máquina del tiempo, la ventaja de la metafísica es que no hay que construirla: ya existe si podemos imaginarla. Los viajes temporales son un desafío para las teorías del tiempo (¿o al revés?) y una manera de desarrollar y contrastar su lógica. Aparte de ser un recurso fantástico para producir grandes historias de ficción. Y otras horrorosas, todo hay que decirlo.

Toda ficción sobre viajes en el tiempo suele encontrarse tarde o temprano con el problema de las paradojas temporales. El ejemplo más clásico es el del viajero al pasado que mata a su propio abuelo, impidiendo su propia posibilidad de nacer. En Regreso al Futuro, Marty McFly debía actuar de alcahuete para lograr que sus padres se emparejaran y así asegurarse de que él nacería. En El Ministerio del Tiempo, los agentes viajan al pasado para lograr que la historia se desarrolle de acuerdo a lo que dicen los libros.

Marty McFly y Emmett Doc Brown en 'Regreso al futuro'. Imagen de Universal Pictures.

Marty McFly y Emmett Doc Brown en ‘Regreso al futuro’. Imagen de Universal Pictures.

De este modo, cuando se trata de que el pasado se cumpla como debe, parece que todo cuadra y que se mantiene la consistencia de los hechos. Pero aunque Marty consiga solventar su visita a 1955 dejándolo todo atado y bien atado entre sus padres, y aun asumiendo que su viaje al pasado crea un 1985 alternativo, distinto al que hemos visto en la primera parte de la película (lo que se explicaría por el concepto de hipertiempo que menciono más abajo), como lo demuestra la diferente situación de su familia; es decir, un 1985.1 en el que el reloj de la torre está averiado por el rayo, y un 1985.2 en el que el reloj funciona porque Doc desvió el rayo hacia el DeLorean…

Incluso con esto, ¿cómo es posible que sus padres en 1985.2 no notaran que habían criado a un hijo idéntico a aquel Levis Strauss que les unió en 1955, y del que su madre llegó a enamorarse? Y si el Doc de 1985.2 recordaba su encuentro con Marty en 1955, como lo demuestra el hecho de que llevara un chaleco antibalas (que el Doc de 1985.1 no llevaría), ¿cómo es que el Doc de 1985.2 no trató de evitar o al menos reconducir todo aquel embrollo, incluso absteniéndose de fabricar una máquina del tiempo (o más bien de copiar la que él mismo fabricaría después)? Y dado que en 1955 el DeLorean había funcionado con una descarga eléctrica, ¿no habría sido lógico que el Doc de 1985.2 utilizara esta fuente de energía en lugar de robar plutonio a unos terroristas libios, lo que habría evitado el ataque? Por mucho que traten de evitarse, siempre hay paradojas.

¿Siempre? En 1952, el maravilloso Ray Bradbury escribió un cuento titulado El ruido de un trueno (A sound of thunder), en el que una compañía de safaris temporales organiza cacerías de dinosaurios para sus clientes acaudalados. El sistema de Time Safari está diseñado para que los viajeros no introduzcan ninguna modificación en la época de destino salvo por las piezas abatidas, que de todos modos habrían muerto de inmediato por otras causas. Sin embargo, uno de los cazadores inadvertidamente pisa una mariposa. Cuando los viajeros regresan, encuentran un mundo diferente al que habían abandonado; la leve alteración provocada en el pasado por el cazador ha detonado una cascada de acontecimientos que ha cambiado el rumbo de la historia. El genio de Bradbury ideó este relato antes de que Edward Lorenz formulara su llamado, precisamente, Efecto Mariposa en la teoría del caos.

De hecho, en todas las fantasías temporales se asume que la modificación del pasado reescribe el futuro, como sucede en El ruido de un trueno, y a menudo este es precisamente el nudo argumental. Es por esto que Skynet envía a Terminator al pasado, que el Ministerio del Tiempo desplaza a sus agentes y que Marty se afana en unir a sus padres. Lo que Marty no imaginaba es que, según la teoría del UBC, no tenía de qué preocuparse; podría haberse ahorrado el trabajo. No hay paradoja posible: al viajar a 1955, él ya existía allí, y seguiría existiendo aunque matara a su abuelo, a sus padres o a toda la población de Hill Valley.

Esto es lo que se deriva del funcionamiento de los viajes temporales en la teoría UBC según el filósofo estadounidense Peter van Inwagen, de la Universidad de Notre Dame. En su artículo Changing the past, publicado en la colección Oxford Studies in Metaphysics, Van Inwagen concluye que no hay paradojas temporales si el universo es un bloque de tiempo creciente. Según este autor, cuando Tim, viajero en el tiempo, se introduce en su máquina en 2020 y aparece en 1920, lo que sucede es que toda la parte del bloque temporal entre 1920 y 2020 desaparece. Tim se lleva el presente con él; 1920 es el nuevo presente, el borde activo del bloque creciente. Lo ocurrido entre 1920 y 2020 queda borrado, porque el futuro no existe en la teoría UBC. Por lo tanto, no importa que Tim mate a su abuelo: él es un ser que apareció de la nada en 1920, y continuará viviendo. No hay paradoja posible.

Adaptación cinematográfica del relato de Ray Bradbury 'El ruido de un trueno'. Imagen de Warner Bros.

Adaptación cinematográfica del relato de Ray Bradbury ‘El ruido de un trueno’. Imagen de Warner Bros.

Obviamente, y dado que el futuro no existe, Tim no puede regresar a 2020. La posibilidad que plantea Van Inwagen es que su máquina del tiempo sea capaz de ralentizar el tiempo en su interior –como ocurriría si se moviera a velocidad relativística– para que esos 100 años entre 1920 y 2020 transcurran para Tim solo en un instante. Así tendríamos a Tim de vuelta en 2020, pero sería un 2020 diferente, ya que esta segunda vez muchas cosas habrían ocurrido de manera distinta, quizá incluso de manera radicalmente distinta, si recordamos las mariposas de Bradbury y Lorenz (conclusión: olvídense de viajar al pasado y comprar el Gordo; la segunda vez saldrá otro número).

Así, según Van Inwagen, las cosas se ven de forma diferente desde el tiempo y desde el hipertiempo, siendo este último el que vería una inteligencia observadora externa al tiempo. Supongamos que en 2020 Tim tiene 25 años, que con esta edad viaja hasta 1950, y a partir de entonces vive felizmente. Pasa el tiempo, y es de nuevo 2020. ¿Cuántos años tendrá Tim entonces? La respuesta es que Tim tiene 70 años, el tiempo transcurrido desde que apareció en el mundo en 1950, pero su hiperedad es de 95 hiperaños (70+25), lo que corresponde también a su edad fisiológica. El año del que hablamos, 2020, es en realidad el hiperaño 2090. Y el pasado es en realidad el hiperfuturo.

Como suele suceder en filosofía, faltan cabos por atar. ¿Qué ocurre si dos viajeros pulsan el botón al mismo tiempo en máquinas distintas y con destino al mismo momento? Van Inwagen considera todas las posibilidades, excepto que lleguen los dos sanos y salvos. En cambio, está claro qué sucede si ambos viajeros fijan diferentes fechas de destino: solo llegará el que ha elegido la fecha más temprana, que se lleva el presente con él.

Naturalmente, este esquema no es compatible con el planteamiento de El Ministerio del Tiempo, donde el presente se queda en el presente y continúa existiendo cuando los agentes cruzan las puertas y, de alguna manera, activan el pasado. Pero partiendo del trabajo de Van Inwagen, su colega Sara Bernstein, de la Universidad de Duke, ha elaborado un modelo que permite viajar al pasado sin aniquilar lo ocurrido después de ese momento.

En su artículo Time travel and the movable present, que se publicará este año en el volumen Being, Freedom, and Method: Themes from the Philosophy of Peter van Inwagen (Oxford University Press, 2015), Bernstein define el Presente Objetivo Móvil (MOP en inglés), que se mueve con el viajero en el tiempo. Al contrario que Van Inwagen, la autora defiende que solo se desplaza la fina rodaja del presente a un punto distinto del tiempo: “El movimiento del presente objetivo no necesita un cambio en la duración de la realidad”, escribe. “El MOP en bloque creciente difiere de la visión de Van Inwagen en que las rodajas de existencia no son necesariamente aniquiladas: el presente objetivo se resitúa, pero la cantidad de existencia temporal permanece intacta”.

Bernstein explica que esto es posible porque el nuevo presente objetivo, que es el borde activo, va creando nuevas rodajas de realidad que sobreescriben las ya existentes, como cuando salvamos una nueva versión de un archivo sobre la antigua. Y esto, a su vez, es posible porque las nuevas rodajas son consecutivas a las anteriores en el hipertiempo, que nunca deja de crecer. De hecho, según Bernstein, incluso la máquina del tiempo es capaz de generar nuevas rodajas si viaja hacia el futuro; algo así como ir poniendo las vías delante del tren. Y todo ello, como en el modelo de Van Inwagen, a salvo de paradojas temporales.

Claro que no todo puede ser perfecto. En principio solo puede quedar uno, un borde activo, un presente objetivo en el cual los personajes están realmente vivos, el tiempo fluye, el sol sale, los pájaros cantan y las nubes se levantan. Al contrario de lo que ocurre en El Ministerio del Tiempo, los viajes aplicados al modelo UBC no permiten fácilmente que haya dos presentes activos. Bernstein no llega a definir qué ocurre con lo que antes era el presente si este se marcha al pasado, aunque menciona la inquietante posibilidad de una “realidad oscura” y sin cambios. Pero al final, una cosa es la filosofía y otra la ficción, y nada impide disfrutar de ambas, sobre todo cuando ambas son tan fascinantes.

(Nota: he actualizado este artículo corrigiendo un error relativo al argumento de Regreso al Futuro, como me señaló un usuario en Twitter. Los años no perdonan…)