BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Televisión’

La fruta que comemos está atiborrada de productos químicos

Si han llegado aquí y están leyendo este párrafo sin conocer la línea de este blog, probablemente sea por uno de dos motivos: a) esperan leer alguna revelación que les lleve a reafirmarse en eso de “¡claro, nos envenenan con química!”, o b) se disponen a vapulear al autor de este blog porque, naturalmente (y nunca mejor dicho), LA NATURALEZA NO ES OTRA COSA QUE PRODUCTOS QUÍMICOS.

Evidentemente, la respuesta correcta es la b). Y el titular de este artículo tiene truco, lo cual seguramente me llevará a recibir el vapuleo en Twitter de quienes se cansan leyendo más de 140 caracteres de una vez. Aquí les traigo una muestra gráfica que no es nueva, pero que en su momento causó un enorme revuelo en internet. El profesor de química australiano James Kennedy está justificadamente harto de que, para cierto sector de la sociedad, un químico reciba hoy una calificación moral similar a la de un terrorista, o peor. Kennedy es uno de esos tipos dotados con un sobresaliente talento divulgador, y hace unos años publicó en su blog varias listas de los ingredientes químicos que componen algunas de las frutas y otros alimentos naturales de consumo común. Aquí tienen algunas de ellas, con la del plátano en castellano por gentileza de Kennedy (imágenes de James Kennedy):

Observarán, aparte de lo tremendamente fácil que le resulta a cualquier pirómano social asustar a la población con nombres como dihidrometilciclopentapirazina, que en la lista figuran varias de esas sustancias que se designan con una letra E y un número, correspondiente a su clasificación como aditivos alimentarios, por ejemplo colorantes o conservantes.

En efecto, estos componentes están presentes de forma natural en los alimentos; el hecho de que se sinteticen en un tanque industrial para disponer de grandes cantidades y añadirlos a otros alimentos no los hace mejores ni peores: son exactamente la misma cosa. Y pensar que los productos químicos artificiales son dañinos por definición es un error tan idiota como dejarse morder por una serpiente de cascabel amparándose en la cita de esa preclara experta en salud llamada Gwyneth Paltrow: “nada que sea natural puede ser malo para ti”.

Y por cierto, aprovecho que paso por aquí para aclarar otro malentendido de garrafa: en alguna ocasión he comprobado cómo algunas personas, que evidentemente se saltaron algún curso de la secundaria obligatoria, creen que la distinción entre química orgánica e inorgánica consiste en que la primera es la de la naturaleza y la segunda la de las fábricas. Imagino que se debe a aquello de los alimentos “orgánicos”.

Perdónenme si esto les desencaja la mandíbula a algunos de ustedes, pero puedo asegurarles que he leído esto en más de una ocasión. Así que debo aclarar lo obvio: química orgánica es la que se basa en el carbono, inorgánica la que no. No tiene absolutamente nada que ver con el carácter natural o artificial del compuesto. El agua es química inorgánica, y sin duda Gwyneth Paltrow certificaría que es un producto natural.

Pese a todo lo anterior, asistimos ahora a una imparable tendencia de productos que se publicitan como sin conservantes ni colorantes, una moda que está socialmente aceptada y que no va a remitir. Hay una pseudociencia de la quimiofobia, tan imposible de erradicar como el resto de pseudociencias.

Lo más llamativo es el mecanismo de círculo vicioso que se crea entre la sociedad y la floreciente industria de lo “natural”: un sector de la población, ignoro si mayoritario pero que marca tendencia, se apunta a la pseudociencia de la quimiofobia. Las compañías de productos de consumo, con el propósito de aumentar sus ventas, eliminan de sus artículos sustancias inocuas, como los conservantes, los colorantes o los parabenos de jabones y desodorantes, para así presentarse ante el consumidor con una imagen más “natural”. Cuando estas marcas publicitan lo que no llevan, no hacen sino reforzar entre la población la idea de que las sustancias que antes llevaban los productos de esas marcas, pero ya no, deben de ser dañinos; por algo los habrán eliminado. Poco importa que en realidad los hayan eliminado no porque sean perjudiciales, sino porque usted cree que lo son. Es la versión moderna de las Brujas de Salem: ¡a la hoguera con conservantes, colorantes, parabenos…!

Esta irresponsabilidad social de las compañías de productos de consumo ampara también mucha trampa y cartón a través de prácticas publicitarias engañosas. En numerosos casos, etiquetas, eslóganes, anuncios y reclamos juegan sutilmente con las palabras para no mentir, pero tampoco decir toda la verdad. Un ejemplo: una marca de pan de molde estampa en sus bolsas el lema “sin colesterol”. La única manera de que el pan llevara colesterol sería que el panadero perdiera algún dedo dentro, ya que el colesterol es un lípido que actúa como componente esencial de las membranas de las CÉLULAS ANIMALES. Pero no parece probable que esta marca pretenda informar inocentemente al consumidor, sino más bien crearle la ficción de que su producto es más saludable que otros de la competencia. Naturalmente, es probable que los competidores se apunten al mismo reclamo para no ser menos, y así se difundirá entre los consumidores la falsa idea de que el pan lleva colesterol a no ser que se indique lo contrario.

Otro ejemplo es la etiqueta “sin gluten”, también popularizada hoy por la errónea creencia de que estas proteínas causan algún efecto dañino en las personas no celíacas. Cada vez más productos de lo más variopinto se suman hoy a la moda de exhibir este lema, y ello pese a que el gluten solo está presente en los cereales. Imagino que la etiqueta “sin gluten” aporta tranquilidad a los compradores celíacos, pero tengo mis dudas de que sea este el propósito que motiva a las marcas para estampar este lema en productos que no tendrían por qué llevar cereales en su composición: si una salchicha se publicita como compuesta por un 100% de carne, añadir una etiqueta “sin gluten” es un reclamo publicitario tramposo.

Una marca de zumos se anuncia en televisión diciendo que “no les ponen azúcar”. Pese a la apariencia casual de la frase, la fórmula parece sospechosamente elegida para que el consumidor incauto caiga en la trampa de creer que se trata de zumos diferenciados de la competencia por no llevar azúcar. La ciencia nutricional actual está condenando a los azúcares (también naturales, como diría Gwyneth) como causantes de la enfermedad cardiovascular, y la fórmula más tradicional y correcta “sin azúcares añadidos” tal vez ya no sea suficientemente eficaz como reclamo publicitario; pero basta con sobreimpresionar en la pantalla un mensaje en letra pequeña aclarando que los zumos tienen todo el azúcar de la fruta para atravesar ese colador de malla gruesa que es la publicidad autorregulada.

Anuncios que esconden parte de la verdad, proclamas saludables sin fundamento demostrado, suplementos dietéticos que no suplementan nada que resulte útil suplementar… Hace unos días el mando a distancia de mi televisor me llevó por azar a un programa estadounidense llamado Shark Tank, en el que varios emprendedores trataban de conseguir financiación para sus negocios de un puñado de millonarios bastante ostentotes (palabra que acabo de inventarme). Varios de los negocios aspirantes vendían suplementos nutricionales o productos parafarmacéuticos, siempre naturales. Los inversores ametrallaban a los candidatos a preguntas sobre ventas, rentabilidad, distribución, competencia…

Ninguno de ellos hacía la que debería ser la pregunta fundamental: ¿realmente eso sirve para algo? No parecía importar lo más mínimo; obviamente, bastaba con que los compradores así lo creyeran. Los productos químicos sintéticos y los fármacos están estrechamente regulados por las leyes de los países, y por las comunitarias en el caso de la UE. Fuera de esas leyes está la jungla; tan natural como peligrosa y sembrada de trampas.

¿Qué es más probable, ganar el Euromillones o morir por un asteroide?

Me ha llamado la atención estos días que el sorteo de Euromillones se publicite apelando a la creencia en el destino, la idea según la cual –si no estoy mal informado– aquello que ocurre está ya previamente programado en alguna especie de superordenador universal, sin que los seres que pululamos por ahí podamos hacer nada para cambiarlo. “No existe la casualidad”, dice una cuña en la radio.

Imagen de Wikipedia.

Imagen de Wikipedia.

Pero mientras nadie demuestre lo contrario, el destino es algo que sencillamente no existe (aunque hay alguna hipótesis tan loca como interesante por ahí, de la que si acaso ya hablaré otro día). Es solo una superstición.

Seguramente pensarán ustedes que hay otros asuntos más importantes de los que preocuparse. Y tienen razón. Pero muchos de ellos no tienen cabida en este blog. En cambio, sí la tiene que la publicidad trate de incitar a los consumidores a comprar un producto sobre una estrategia comercial basada en una idea de cuya realidad no existe ninguna prueba. ¿Imaginan la reacción pública si los anuncios de Euromillones presentaran al feliz ganador del premio porque ha rezado para conseguirlo? Esto es hoy casi impensable. En cambio, la idea del destino resulta más popular porque encaja con la plaga de los movimientos New Age.

Es curioso que en España y en otros países el sector de la publicidad funcione por un sistema de autorregulación. Probablemente los expertos en la materia, entre los que no me cuento, me corregirían con el argumento de que esto no significa un cheque en blanco, sino que este autocontrol se inscribe en un marco legal establecido por las autoridades. Y no lo dudo; pero ¿qué sucedería si a otros sectores se les confiara la función de policías de sí mismos? ¿Encontrarían aceptable que se hiciera lo mismo con las farmacéuticas o los fabricantes de juguetes?

Prueba de que este autocontrol no es tan “veraz” como afirma ser es la abundancia de campañas que pasan este autofiltro con proclamas no apoyadas en ningún tipo de evidencia válida, y que a menudo tienen que ser denunciadas por los verdaderos vigilantes, asociaciones de consumidores y otras entidades ciudadanas.

El problema es que estas organizaciones solo pueden denunciar a posteriori, cuando gran parte del daño ya está hecho y alguien ya se ha lucrado vendiendo miles de pulseras mágicas del bienestar. ¿Se han fijado en que cierta marca alimentaria ha retirado de la publicidad de un producto las alegaciones de efectos beneficiosos para la salud, y que ahora limita sus proclamas a algo así como “sentirse bien” (un argumento irrefutable)? Sin embargo, el propósito ya está conseguido: doy fe de que al menos algún colegio incluye específicamente el nombre de dicha marca comercial en su información a los padres sobre qué alimentos están recomendados/permitidos en las meriendas de los niños.

Otro ejemplo lo tenemos en ciertos suplementos alimentarios que prometen beneficios de dudoso aval científico, y que en algunos casos se escudan en el presunto respaldo de organizaciones médicas privadas. Lo que no es sino un acuerdo comercial; es decir, un apoyo compensado económicamente. En el caso de uno de estos productos, sujeto a gran polémica pero que continúa anunciándose impunemente en la tele, incluso un portavoz de la organización médica en cuestión tuvo que reconocer a un medio que “daño no hacen”.

Pero volviendo al caso de Euromillones, hay un agravante, y es que el sorteo en España depende de Loterías y Apuestas del Estado. Es decir, que entre todos estamos sosteniendo una campaña publicitaria cuyo mensaje es convencer a la gente de que tienen que comprar un boleto porque podría estar escrito desde hace años que van a ganar el gran premio. Insinuaciones como esta ya no aparecen siquiera en los anuncios nocturnos de videntes, que se cuidan muy bien de evitar cualquier referencia a la adivinación para no caer en la publicidad engañosa, preséntadose en su lugar casi como si fueran psicoterapeutas titulados.

Lo común, y lo legítimo, es que las loterías se anuncien con argumentos emocionales: sueños y deseos, o en el caso del sorteo de Navidad, los mensajes típicos de las fechas. Cada año participo en la lotería de Navidad como una tradición; no como una inversión, sino como un gasto navideño más. Nunca me he tocado ningún premio importante y sé que nunca me tocará. Respecto a los sorteos en general, siempre recuerdo aquella cita que se atribuye al matemático Roger Jones, profesor emérito de la Universidad DePaul de Chicago: I guess I think of lotteries as a tax on the mathematically challenged“, o “pienso en las loterías como un impuesto para los que no saben matemáticas”.

Y eso que las posibilidades de echar el lazo al Gordo de Navidad son casi astronómicas en comparación con sorteos como el Euromillones. A los matemáticos no suele gustarles demasiado que se hable de probabilidad en estos casos, ya que la cifra es irrelevante a efectos estadísticos. Prefieren hablar de esperanza matemática, cuyo valor determina si de un juego podemos esperar, como promedio, ganar o perder algo de dinero con nuestras apuestas. Y lógicamente, el negocio de las loterías se basa en que generalmente la esperanza matemática es desfavorable para el jugador.

Pero con permiso de los estadísticos, es dudoso que el jugador habitual del Euromillones realmente considere la esperanza matemática de unos sorteos en relación a otros con el fin de averiguar con cuáles de ellos puede llegar a final de año habiendo ganado algunos euros más de los que ha invertido. Este valor es útil para comparar unos juegos de azar con otros; pero si los organizadores de una lotería contaran con los jugadores profesionales, destacarían estos datos en su publicidad.

Para el jugador medio, el cebo es el bote: cuanto más bote, más juegan. Y la esperanza matemática les dirá muy poco, incluso comparando la de unos sorteos del Euromillones con otros del mismo juego. Para quien muerde el anzuelo, es más descriptivo comparar la probabilidad de hacerse millonario al instante con la de, por ejemplo, morir a causa de la caída de un meteorito.

Y aquí vienen los datos. La probabilidad de ganar el Euromillones (combinaciones de 50 elementos tomados de 5 en 5, multiplicado por combinaciones de 12 elementos tomados de 2 en 2) es de una entre 139.838.160. Repito con todas las letras: la probabilidad de ganar el Euromillones es de una entre ciento treinta y nueve millones ochocientas treinta y ocho mil ciento sesenta. O expresado en porcentaje, aproximadamente del 0,0000007%.

Y a efectos de esas comparaciones de probabilidad que no interesan a quien piensa en el Euromillones como posible alternativa a la ruleta o a las carreras de caballos, pero que sí interesan (o deberían hacerlo) a quien piensa en el Euromillones como posible alternativa a trabajar toda la vida, he aquí unos datos que tomo del experto en desastres naturales Stephen Nelson, de la Universidad Tulane (EEUU), y que estiman la probabilidad de terminar nuestros días por cada una de las causas que se detallan a continuación (datos para EEUU; algunos variarían en nuestro país, como los casos de tornado o accidente con arma de fuego):

Accidente de tráfico 1 entre 90
Asesinato 1 entre 185
Incendio 1 entre 250
Accidente con arma de fuego 1 entre 2.500
Ahogamiento 1 entre 9.000
Inundación 1 entre 27.000
Accidente de avión 1 entre 30.000
Tornado 1 entre 60.000
Impacto global de asteroide o cometa 1 entre 75.000
Terremoto 1 entre 130.000
Rayo 1 entre 135.000
Impacto local de asteroide o cometa 1 entre 1.600.000
Envenenamiento por botulismo 1 entre 3.000.000
Ataque de tiburón 1 entre 8.000.000
Ganar el bote del Euromillones 1 entre 139.838.160

Conclusión: según los datos de Nelson, es unas 87 veces más probable morir a causa del impacto de un asteroide o un cometa que ganar el bote del Euromillones. Todo esto, claro, siempre que uno crea en el azar. Pero hasta ahora no parece que exista una alternativa real, diga lo que diga la publicidad.

Este es el mejor monólogo sobre ciencia jamás escrito

Les aseguro que no les traería aquí un vídeo de 20 minutos y 46 segundos, en inglés y sin subtítulos en castellano, si no fuera porque es el comentario sobre el funcionamiento de la ciencia –y su comunicación– más atinado e informado, además de divertido, que jamás he visto en un medio televisivo (medio al que, todo hay que decirlo, no soy muy adepto). Si dominan el idioma, les recomiendo muy vivamente que lo sigan de cabo a rabo (el final es apoteósico). Y si no es así, a continuación les resumiré los fragmentos más sabrosos. El vídeo, al pie del artículo.

John Oliver. Imagen de YouTube.

John Oliver. Imagen de YouTube.

Su protagonista es John Oliver, humorista británico que presenta el programa Last Week Tonight with John Oliver en la HBO estadounidense. Oliver despliega un humor repleto de inteligencia e ironía, de ese que no suele abundar por aquí. Hace algo más de un año traje aquí una deliciosa entrevista de Oliver con el físico Stephen Hawking.

En esta ocasión, Oliver se ocupa de la ciencia, bajo una clara pregunta: ¿Es la ciencia una gilipollez? Naturalmente, el presentador no trata de ridiculizar la ciencia, sino todo lo contrario, criticar a quienes dan de ella una imagen ridícula a través de la mala ciencia y el mal periodismo.

Para ilustrar cuál es el quid, comienza mostrando algunos fragmentos de informativos de televisión en los que se anuncian noticias presuntamente científicas como estas: el azúcar podría acelerar el crecimiento del cáncer, picar algo a altas horas de la noche daña el cerebro, la pizza es la comida más adictiva, abrazar a los perros es malo para ellos, o beber una copa de vino equivale a una hora de gimnasio.

Sí, ya lo han adivinado: la cosa va de correlación versus causalidad, un asunto tratado infinidad de veces en este blog; la última de ellas, si no me falla la memoria, esta. Les recuerdo que se trata de todos aquellos estudios epidemiológicos del tipo “hacer/comer x causa/previene y”. Estudios que se hacen en dos tardes cruzando datos en un ordenador hasta que se obtiene lo que se conoce como una “correlación estadísticamente significativa”, aunque no tenga sentido alguno, aunque no exista ningún vínculo plausible, no digamos ya una demostración de causalidad. Pero que en cambio, dan un buen titular.

Naturalmente, a menudo esos titulares engañosos se contradicen unos a otros. Oliver saca a la palestra varias aseveraciones sobre lo bueno y lo malo que es el café al mismo tiempo, para concluir: “El café hoy es como Dios en el Antiguo Testamento: podía salvarte o matarte, dependiendo de cuánto creyeras en sus poderes mágicos”. Y añade: “La ciencia no es una gilipollez, pero hay un montón de gilipolleces disfrazadas de ciencia”.

Pero el humor de Oliver esconde un análisis básico, aunque claro y certero, sobre las causas de todo esto. Primero, no toda la ciencia es de la misma calidad, y esto es algo que los periodistas deberían tener el suficiente criterio para juzgar, en lugar de dar el ridículo marchamo de “lo dice la Ciencia” (con C mayúscula) a todo lo que sale por el tubo, sea lo que sea. Segundo, la carrera científica hoy está minada por el virus del “publish or perish“, la necesidad de publicar a toda costa para conseguir proyectos, becas y contratos. No son solo los científicos quienes sienten la presión de conseguir un buen titular; los periodistas también se dejan seducir por este cebo. Para unos y otros, la presión es una razón de la mala praxis, pero nunca una disculpa.

El vídeo demuestra que Oliver está bien informado y asesorado, porque explica perfectamente cómo se producen estos estudios fraudulentos: manipulando los datos de forma más o menos sutil o descarada para obtener un valor p (ya hablé de este parámetro aquí y aquí) menor del estándar normalmente requerido para que el resultado pueda considerarse “estadísticamente significativo”; “aunque no tenga ningún sentido”, añade el humorista. Como ejemplos, cita algunas de estas correlaciones deliberadamente absurdas, pero auténticas, publicadas en la web FiveThirtyEight: comer repollo con tener el ombligo hacia dentro. Aquí he citado anteriormente alguna del mismo tipo, e incluso las he fabricado yo mismo.

Otro problema, subraya Oliver, es que no se hacen estudios para comprobar los resultados de otros. Los estudios de replicación no interesan, no se financian. “No hay premio Nobel de comprobación de datos”, bromea el presentador. Y de hecho, la reproducibilidad de los experimentos es una de las grandes preocupaciones hoy en el mundo de la publicación científica.

Oliver arremete también contra otro vicio del proceso, ya en el lado periodístico de la frontera. ¿Cuántas veces habremos leído una nota de prensa por el atractivo de su titular, para después descubrir que el contenido del estudio no justificaba ni mucho menos lo anunciado? Oliver cita un ejemplo de este mismo año: un estudio no encontraba ninguna diferencia entre el consumo de chocolate alto y bajo en flavonol en el riesgo de preeclampsia o hipertensión en las mujeres embarazadas. Pero la sociedad científica que auspiciaba el estudio tituló su nota de prensa: “Los beneficios del chocolate durante el embarazo”. Y un canal de televisión picó, contando que comer chocolate durante el embarazo es beneficioso para el bebé, sobre todo en las mujeres con riesgo de preeclampsia o hipertensión. “¡Excepto que eso no es lo que dice el estudio!”, exclama el humorista.

Otro titular descacharrante apareció nada menos que en la revista Time: “Los científicos dicen que oler pedos podría prevenir el cáncer”. Oliver aclara cuál era la conclusión real del estudio en cuestión, que por supuesto jamás mencionaba los pedos ni el cáncer, sino que apuntaba a ciertos compuestos de sulfuro como herramientas farmacológicas para estudiar las disfunciones mitocondriales. Según el humorista, en este caso la historia fue después corregida, pero los investigadores aún reciben periódicamente llamadas de algunos medios para preguntarles sobre los pedos.

Claro que no hace falta marcharnos tan lejos para encontrar este tipo de titulares descaradamente mentirosos. Hace un par de meses conté aquí una aberración titulada “La inteligencia se hereda de la madre”, cuando el título correcto habría sido “Las discapacidades mentales están más frecuentemente ligadas al cromosoma X”. No me he molestado en comprobar si la historia original se ha corregido; como es obvio, el medio en cuestión no era la revista Time.

Y por cierto, esta semana he sabido de otro caso gracias a mi vecina de blog Madre Reciente: “Las mujeres que van a misa tienen mejor salud”, decía un titular en La Razón. Para no desviarme de lo que he venido a contar hoy, no voy a entrar en detalle en el estudio en cuestión. Solo un par de apuntes: para empezar, las mujeres del estudio eran casi exclusivamente enfermeras blancas cristianas estadounidenses, así que la primera enmienda al titular sería esta: “Las enfermeras blancas cristianas estadounidenses que van a misa tienen mejor salud”. Y a ver cómo se vende este titular.

Pero curiosamente, la población del estudio no presenta grandes diferencias en sus factores de salud registrados, excepto en dos: alcohol y tabaco. Cuanto más van a misa, menos fuman y beben. Por ejemplo, fuma un 20% de las que no van nunca, 14% de las que acuden menos de una vez a la semana, 10% de las enfermeras de misa semanal, y solo el 5% de las que repiten durante la semana. Así que, ¿qué tal “Las enfermeras blancas cristianas estadounidenses que menos fuman y beben tienen mejor salud”?. Para esta correlación sí habría un vínculo causal creíble.

Claro que tampoco vayan a pensar que hablamos de conseguir la inmortalidad: según el estudio, las que fuman y beben menos/van a misa más de una vez por semana viven 0,43 años más; es decir, unos cinco meses. Así que el resultado final es: “El tabaco y el alcohol podrían robar unos cinco meses de vida a las enfermeras blancas cristianas estadounidenses”. Impresionante documento, ¿no?

Pero regresando a Oliver, el presentador continúa citando más ejemplos de estudios y titulares tan llamativos como sesgados: muestras pequeñas, resultados en ratones que se cuentan como si directamente pudieran extrapolarse a humanos, trabajos financiados por compañías interesadas en promocionar sus productos… El habitual campo minado de la comunicación de la ciencia, sobre el cual hay que pisar de puntillas.

Oliver concluye ilustrando la enorme confusión que crea todo este ruido en la opinión pública: el resultado son las frases que se escuchan en la calle, como “vale, si ya sabemos que todo da cáncer”, o “pues antes decían lo contrario”. El humorista enseña un fragmento de un magazine televisivo en el que un tertuliano osa manifestar: “Creo que la manera de vivir tu vida es: encuentras el estudio que te suena mejor, y te ciñes a eso”. Oliver replica exaltado: “¡No, no, no, no, no! En ciencia no te limitas a escoger a dedo las partes que justifican lo que de todos modos vas a hacer. ¡Eso es la religión!”. El monólogo da paso a un genial sketch parodiando las charlas TED. Les dejo con John Oliver. Y de verdad, no se lo pierdan.

¿Las series de televisión provocan suicidios?

Para los investigadores Luca Perri y Om Sharan Salafia, del Instituto Nacional de Astrofísica de Italia, algo no cuadraba. Si, como se nos dice, el Trastorno Afectivo Estacional (TAE) causa unos mayores niveles de depresión en invierno, ¿por qué en cambio las cifras de intentos de suicidio en 28 países alcanzan su máximo anual en primavera en ambos hemisferios? Como astrofísicos, Perri y Salafia conocen bien la dinámica de los ciclos solares estacionales.

Se supone que abandonar los cuarteles de invierno, salir a la calle entre parterres floridos, solazarnos en las terrazas ante empañadas jarras de cerveza, vestir ropa más reveladora (y verla vestir a otros/as), todo ello debería auparnos el ánimo. Ya se sabe: la primavera, la sangre altera. ¿Por qué entonces hay más gente que en esta estación decide colocarse en el extremo equivocado de una soga o de cualquier otro artefacto mortal?

Ni cortos ni perezosos, Perri y Salafia construyeron una hipótesis: no es el sol… ¿Qué tal las series de televisión? Citando palabras del estudio:

La Depresión Post-Serie, también conocida como DPS, es la tristeza que se siente después de ver una serie larga. El sentimiento amargo cuando sabes que el viaje ha llegado a su fin, pero no quieres que termine. Esto se puede aplicar a cualquier serie, por ejemplo series de televisión, series de dibujos animados, o incluso series de cine.

Los efectos incluyen, pero no solo: un estado de depresión o tristeza, la incapacidad para comenzar otra historia, la necesidad de volver a ver la serie completa, el abuso de internet ligado a la serie, la creación de fanfiction.

Para poner a prueba su hipótesis, los dos investigadores eligieron una de las series actuales más longevas, populares y emitidas en todo el mundo, Anatomía de Grey, como ejemplo de “fenómeno universal y homogéneo”. A continuación analizaron el patrón de emisión medio de las 12 temporadas ya producidas: una temporada suele comenzar en torno a la semana 38 del año, más o menos coincidiendo con el equinoccio de otoño en el hemisferio norte, hasta el descanso de invierno de la semana 49, con una reanudación hacia la segunda semana del nuevo año que se prolonga hasta el final de temporada en la semana 21.

Imagen de ABC.

Imagen de ABC.

Así, los científicos esperaban encontrar un aumento de la tasa de suicidios entre las semanas 21 y 38, junto con un repunte hacia final de año. Pero al solapar el ciclo anual de Anatomía de Grey con el gráfico de las tasas de suicidios, surgió la gran sorpresa: los mayores aumentos en las cifras de suicidios se producen durante la emisión de la temporada, descendiendo una vez que la serie ha finalizado. El mínimo anual coincide con el momento en que comienza una nueva temporada, y a partir de entonces los intentos de suicidio empiezan a remontar, deteniéndose brevemente en la pausa de fin de año para luego trepar en una frenética escalada hasta el gran final. Escriben Perri y Salafia:

Tendencia del número de intentos de suicidio a lo largo del año. Las franjas rojas representan los períodos medios de emisión de las temporadas de 'Anatomía de Grey'. Imagen de Perri y Salafia.

Tendencia del número de intentos de suicidio a lo largo del año. Las franjas rojas representan los períodos medios de emisión de las temporadas de ‘Anatomía de Grey’. Imagen de Perri y Salafia.

Por tanto, sugerimos que es la propia serie, con sus tormentosas aventuras amorosas y tensas relaciones, la que aumenta la depresión del espectador. Por el contrario, el final de la temporada es un momento de liberación para los espectadores, cuyos intentos de suicidio descienden drásticamente.

Pero por supuesto, todo ello no es sino una gran broma; ya les advertí ayer de que iba a comentar un nuevo y precioso caso de correlaciones espurias. Tras detallar sus conclusiones, Perri y Salafia desvelan el propósito real de su estudio, disponible en la web de prepublicaciones arXiv.org: poner de manifiesto las correlaciones epidemiológicas que con tanta frecuencia se publican en la literatura médica sin justificar ningún vínculo real entre presunta causa y supuesto efecto. Una preocupación que también lo es de este blog, como ya sabrán si se han pasado alguna otra vez por aquí. Los investigadores aclaran:

Este estudio, junto con otros (por ejemplo, el que encontró una correlación entre el número de personas ahogadas tras caer a una piscina y las apariciones cinematográficas de Nicolas Cage), podría ser una advertencia a los científicos de que sean cautos con las correlaciones espurias. Una correlación espuria surge, por ejemplo, cuando se comparan mediciones que dependen de la misma variable. En este caso, la correlación es simplemente la consecuencia de la dependencia común de las mediciones en esa variable, y no de una correlación real entre las mediciones.

Un ejemplo de esto último ya fue comentado en este blog, a propósito de un estudio que pretendía correlacionar el consumo de Viagra con el riesgo de melanoma. Los propios autores de aquel trabajo reconocían que los principales consumidores de Viagra eran hombres con un mayor nivel económico, “que probablemente pueden costearse más vacaciones al sol” y que “tienden a tomar más el sol”, y que además “buscan atención médica más a menudo para los lunares de la piel, lo que lleva a un mayor riesgo de diagnóstico de melanoma”. Es decir, que lo que aumenta el riesgo de melanoma, como está ya bien establecido, no es la Viagra, sino tomar el sol.

En el caso del estudio de Perri y Salafia, la trampa que los investigadores tienden con fines de pedagogía científica es que sí existe una ligera estacionalidad de las tasas de suicidios, y coincide casualmente con los ciclos de las series. Ligera porque, si se fijan, el gráfico no refleja cifras absolutas, sino cambio en la tendencia, que a lo largo del año oscila solo entre 0,9 y 1,2; si se representaran las cifras absolutas en la muestra de 28 países, el aspecto de los picos y valles sería mucho menos espectacular. Esta manipulación de los datos, maliciosamente consciente en el caso de Perri y Salafia, es algo también frecuente en los estudios de correlaciones motivadas por intereses, como también expliqué aquí.

Los últimos de Filipinas habrían sobrevivido con arroz integral

El episodio de esta semana de El Ministerio del Tiempo, serie de la que ya me he autorretratado como rendido fan, rozaba de lado un argumento que no tenía gran cabida en el guión, pero que fue determinante en la agonía de los llamados “últimos de Filipinas”. Como bien mostraba el capítulo, cuya documentación histórica (como la del resto de la serie) merece una ovación, no fueron los disparos de los tagalos los que diezmaron a los soldados sitiados en Baler, sino las enfermedades. Y entre ellas, el beriberi.

Quizá ustedes no hayan oído hablar de esta enfermedad. O a los que sí, tal vez les suene a uno de esos males del pasado, enterrados en una época de ignorancia científica y carencias sanitarias, como la pelagra o el escorbuto. Pero es que las tres, beriberi, pelagra y escorbuto, tienen una causa común, la deficiencia en vitaminas.

Los últimos de Filipinas, en El Ministerio del Tiempo. Imagen de RTVE.

Los últimos de Filipinas, en El Ministerio del Tiempo. Imagen de RTVE.

Las fuentes suelen atribuir el nombre de la enfermedad al idioma cingalés, el mayoritario en Sri Lanka, en el que al parecer beri significa “no puedo”, en referencia a la debilidad extrema que sufren los enfermos. Con lo que beriberi viene a ser “no puedo, no puedo”, una expresión que en castellano inevitablemente se pronuncia con erre al final, con lo que pierde todo su dramatismo.

Lo más interesante de esta enfermedad es que a ella le debemos el descubrimiento de las vitaminas. La del beriberi es una de las grandes historias de la ciencia. Los primeros registros de la enfermedad aparecen en las crónicas del siglo XVI en las colonias asiáticas de las potencias occidentales. A finales del XVIII y comienzos del XIX la enfermedad comienza a ser descrita por médicos ingleses en las publicaciones científicas.

Pero fue sobre todo en el siglo XIX cuando comenzó a destacar entre otras muchas enfermedades de los trópicos. Se presentaba en dos formas en adultos, una llamada seca, que afectaba al sistema nervioso periférico, y otra húmeda, que atacaba el corazón y el sistema circulatorio. Una tercera forma aparecía en los bebés lactantes, y un cuarto tipo con síntomas gastrointestinales se describió en adultos en 2004.

Hoy apenas podemos imaginar el temor de padecer una enfermedad epidémica cuyas causas eran un completo misterio. El beriberi afectaba sobre todo a las poblaciones del sur y sureste de Asia que se alimentaban casi exclusivamente de arroz, incluyendo las Filipinas. Y sin embargo, nadie la había relacionado con la dieta, hasta que a finales del siglo XIX un médico japonés llamado Takaki Kanehiro descubrió que podía prevenirse proporcionando a los marineros una dieta variada.

Pero fue el médico holandés Christiaan Eijkman el que en 1896, a su regreso a los Países Bajos después de diez años en Java, declaró: “¡El arroz blanco puede ser venenoso!”. Eijkman creía que la enfermedad era infecciosa, pero fracasó al intentar transmitirla entre animales. Hasta que por pura casualidad, descubrió que los pollos solo enfermaban si tomaban arroz blanco sin cáscara, mientras que permanecían sanos cuando comían el arroz sin pulir, conservando su cubierta marrón, lo que hoy conocemos como arroz integral.

El caso de los pollos era un verdadero misterio para Eijkman. El holandés pensó que el arroz contenía una bacteria o una toxina, y que la cubierta marrón debía de poseer un “factor anti-beriberi” que la neutralizaba. No fue hasta 1912 cuando el químico polaco Casimir Funk confirmó que los alimentos contenían unos nutrientes esenciales, a los que llamó “aminas vitales”, o vitaminas. El factor anti-beriberi de Eijkman resultó ser la vitamina B1, o tiamina, aislada por fin en 1926. En 1929, el holandés recibía el premio Nobel de Fisiología o Medicina junto con el inglés Frederick Hopkins, el primero que sugirió que los alimentos contenían “factores accesorios” necesarios para la vida. Eijkman moriría un año después.

Los animales no producimos vitamina B1, pero la necesitamos (este es precisamente el concepto de vitamina). En las regiones asiáticas donde el arroz es la base de la dieta, tradicionalmente se pulía para obtener un producto más refinado y suave que además se conservaba durante más tiempo. Pero las vitaminas están en la cubierta marrón, lo que llamamos el salvado; al eliminarlo, lo que queda es sobre todo almidón. Uno podía llenarse el estómago de arroz hasta atiborrarse y, aún así, morir de beriberi. Cuando en El Ministerio del Tiempo el capitán De las Morenas cedía la comida a sus soldados, en realidad no los estaba salvando de la enfermedad.

Hoy el beriberi, como la pelagra (deficiencia en vitamina B3 o niacina) y el escorbuto (falta de vitamina C), son enfermedades infrecuentes en los países desarrollados, aunque continúan aquejando a la población de las regiones con dietas pobres, donde la falta de vitamina B1 provoca además otros cuadros patológicos como la enfermedad de Wernicke, el síndrome de Korsakoff y el de Wernicke-Korsakoff.

Pero sí tenemos cerca a miles de personas en serio riesgo de padecerlas: lo que antes eran plagas típicas de los marineros embarcados durante meses, o de los soldados abandonados en las trincheras, hoy son el azote de los desplazados y refugiados. Una más de las guadañas que penden sobre sus cabezas.

La gripe española y El Ministerio del Tiempo

No soy muy de series. Parafraseando a Umbral, quien puestos a tragarse un argumento prefería la hora y media de una película antes que dedicar varios días a leer un libro, lo que a mí me sucede con las series es que a menudo me transmiten la impresión de estar alargando las tramas eterna e innecesariamente para continuar exprimiéndome como fuente de ingresos publicitarios. En este sentido, y aunque la tele pública de todos no atraviesa precisamente sus mejores momentos, me seduce la comodidad de ver algo en la pantalla sin inoportunos y cansinos cortes de publi.

Y entre tanta serie que explota caminos ya tan trillados como la comedia de trazo grueso, el choque de costumbrismos culturales o el thriller de asesinato que en inglés llaman Whodunit (¿Quién lo hizo?; lo malo es que en muchos casos la respuesta es: ¿Y a mí qué me importa?), la apuesta de El Ministerio del Tiempo es innovadora y, por tanto, arriesgada; algo que se agradece y que cada vez es más escaso, y más difícil encontrarlo fuera de las cadenas que no compiten en el mercado publicitario.

Ya elogié aquí en la pasada temporada el tratamiento original que hace la serie de TVE de un subgénero tan clásico como el de los viajes en el tiempo, pero al que sus creadores han sabido aplicar una fresca vuelta de tuerca, apuntando sin proponérselo a un modelo metafísico llamado Universo de Bloque Creciente. Aunque es evidente que el triunfo de la serie no se debe a que guste a los metafísicos: gusta a todos porque está bien diseñada, bien guionizada, bien realizada, bien interpretada, bien digitalizada y bien vestida. Pero además se agradece que una serie trasluzca inteligencia.

El doctor Vargas observa una muestra de sangre de un paciente. Imagen de TVE/Tamara Arranz.

El doctor Vargas observa una muestra de sangre de un paciente. Imagen de TVE/Tamara Arranz.

Esto sucede también con el último capítulo, el 13, titulado Un virus de otro tiempo. Si podemos enviar personas a través del tiempo, ¿por qué no un virus? Esta era la brillante premisa que ponía a los personajes de la serie en un complejo apuro cuando una de sus protas, Irene (Cayetana Guillén Cuervo), se trae a la actualidad la infame gripe española que mató a unos 50 millones de personas al final de la Primera Guerra Mundial.

No pretendo afear a los guionistas su trabajo de documentación, que es impecable en cuanto a la exhumación de los datos históricos en los que se basan las tramas de la serie. Que la documentación científica sea también irreprochable tal vez sea ya mucho pedir. Ni siquiera en Hollywood esto es lo más habitual; y eso que allí cuentan con algo llamado The Science & Entertainment Exchange, un programa de la Academia Nacional de Ciencias de EEUU que presta asesoría científica gratuita a los cineastas cuando lo necesitan, incluso escribiéndoles ecuaciones reales cuando una pizarra de universidad sale en el plano.

Pero no puedo evitar hacer un par de comentarios para aclarar algunas confusiones comunes sobre la gripe española; que, como bien explicaban después en el making of, no era española, aunque se llamó así porque las primeras noticias sobre la epidemia trascendieron desde España, que no había participado en la Primera Guerra Mundial y por tanto no estaba sometida a censura informativa.

La gripe española fue una calamidad global sin parangón en la historia conocida de la epidemiología, ni siquiera igualada por los desastres de la peste negra. Aún no se conoce con exactitud por qué aquella cepa fue tan letal. Se han aportado varias explicaciones, algunas relacionadas con el propio virus (como su facilidad de contagio inusual) y otras con circunstancias históricas y sociales de la época.

Pero aunque sería muy conveniente no tener que encontrarnos de nuevo con aquel virus, parece obvio que sus repercusiones hoy no serían tan serias como las que tuvo en su época, gracias al avance de los diagnósticos y tratamientos. En 2013, un estudio modelizó el efecto que tendría en la actualidad una pandemia de aquel mismo virus, y la conclusión era que las tasas de mortalidad serían un 70% inferores a lo que fueron entonces. “Una gripe española en tiempos actuales no representa el peor escenario en términos de riesgo pandémico”, concluía el estudio.

De hecho, ya he contado aquí que son otras cepas de gripe las que hoy preocupan a los expertos; y que al contrario de lo que se afirmaba en el capítulo, la gripe de 2009 no provocó una reacción de alarma exagerada, sino el estado de alerta necesario ante una gripe que entonces era nueva y cuyos efectos eran incalculables. La Organización Mundial de la Salud, y cualquiera que estuviera en el pellejo de sus responsables, siempre preferirá haber reaccionado con contundencia ante una amenaza que luego no era para tanto, antes que tener que lamentar el haber respondido con pasividad e ineficacia ante una catástrofe sanitaria.

Una incorrección en el capítulo se ponía en boca del médico del Ministerio, quien afirmaba que Irene sobreviviría a la infección porque era fuerte y sus defensas responderían adecuadamente. Hubo algo muy peculiar con la gripe española que no se ha dado en otras epidemias de esta enfermedad, incluyendo las estacionales. Mientras que las gripes suelen ser más graves para los pacientes más débiles, como niños, ancianos o personas inmunocomprometidas, en cambio la epidemia de 1918 mataba a hombres y mujeres jóvenes y sanos.

Hay una explicación para esto que hoy se acepta de forma general: la gripe española mataba porque disparaba una tormenta de citoquinas, una reacción apabullante del sistema inmunitario que destroza el propio organismo. Y por tanto, cuanto más fuerte era el organismo del paciente, más fuerte era también la tormenta de citoquinas que la gripe le provocaba.

Ya conté aquí que este fenómeno parece ser también la causa de la letalidad del ébola. Y dado que la gripe española mataba por un mecanismo similar, una de las firmas de esta epidemia fue que sus afectados morían con síntomas más parecidos a una fiebre hemorrágica que a lo que normalmente entendemos por gripe. Aunque no hubiera quedado bonito en la pantalla, lo cierto es que las víctimas mortales de la gripe española terminaban bañadas en sangre, por dentro y por fuera.

Y por cierto, y tal como conté para el caso del ébola, en la gripe española también sucedía que las infecciones oportunistas aprovechaban la desestabilización del sistema inmunitario para causar infecciones secundarias graves. Hoy los especialistas piensan que muchos de los infectados morían en realidad de una neumonía bacteriana propiciada por la gripe, por lo que el tratamiento con antibióticos –al contrario de lo que se contaba en el capítulo– sí sería una manera adecuada de contener el empeoramiento general de los pacientes, al mantener a raya estas infecciones colaterales.

Amelia y Pacino, con las muestras del virus. Imagen de TVE/Tamara Arranz.

Amelia y Pacino, con las muestras del virus. Imagen de TVE/Tamara Arranz.

Por último, Amelia y Pacino pretendían inactivar el virus dejando el recipiente de las muestras abierto en un laboratorio con la calefacción alta. Pero por desgracia, esto no habría bastado: un estudio de 2014 determinó que el virus de 1918 solo se inactiva por completo después de 6 horas a 50 ºC. Por muy alta que fuera la temperatura del laboratorio, y dado que además Amelia y Pacino no se preocuparon de vaciar el nitrógeno líquido del contenedor, los empleados de la compañía farmacéutica podrían haber recuperado las muestras casi intactas a la mañana siguiente.

Todo lo cual, insisto, no enturbia la gran calidad de una serie que despunta entre la mediocridad general, y de la cual otras cadenas deberían tomar ejemplo. Aunque hacerlo tras la estela del triunfo ajeno siempre es lo más fácil.

Andreas Wahl, ¿genio o Jackass de la ciencia?

Se puede tener una absoluta confianza en los principios científicos. Pero de ahí a poner la vida de uno sin necesidad alguna en manos de Newton, Bernoulli o cualquier otro respetable señor muerto hace siglos, va un trecho que solo Andreas Wahl se ha atrevido a recorrer.

Andreas Wahl, en una imagen promocional de su espectáculo Elektrisk. elektriskshow.no.

Andreas Wahl, en una imagen promocional de su espectáculo Elektrisk. elektriskshow.no.

Por lo que he podido saber, Wahl es un físico noruego, divulgador científico, estrella televisiva y triple campeón de escupir huesos de cereza, con una plusmarca personal en 2015 de 13,06 metros. En su cuenta de Twitter se presenta con una foto a lo Tesla que al parecer promociona un espectáculo circense-científico de electricidad protagonizado por él y actualmente en gira por su país.

Pero si Wahl ha traspasado las gélidas fronteras de su Noruega natal ha sido por publicar vídeos en los que pone a prueba principios físicos jugándose la vida; como en aquel programa televisivo de Jackass, pero sabiendo a qué ilustre científico deberá culpar si algo sale mal.

En su última entrega, Wahl experimenta con uno de los clichés cinematográficos más manoseados en el cine de acción: la capacidad o incapacidad de las balas para mantener su poder mortífero a través del agua. En la secuencia inicial de Salvar al soldado Ryan, el desembarco aliado en la playa de Omaha en 1944, pudimos ver cómo los proyectiles alemanes se abrían paso sin dificultad bajo el agua y abatían a los soldados estadounidenses. En cambio, y aunque ahora mismo no recuerdo ningún ejemplo, en otras películas los héroes o villanos se arrojan al mar para protegerse de los disparos. ¿Cuál es la versión acertada?

Otros ya habían puesto a prueba anteriormente esta incógnita, como los presentadores del programa de Discovery Channel Mythbusters o el videobloguero de ciencia Destin Sandlin en su magnífico canal de YouTube Smarter Every Day, del que ya he hablado aquí antes. Pero Wahl no se conforma con una piscina vacía o un bloque de gel para experimentar la penetración de la bala. Él se planta dentro del agua en bañador enfrentado al cañón de un fusil de asalto SIG SG 550 con un cordel atado al gatillo. Y tira.

Por supuesto, Wahl sabía muy bien lo que hacía. La densidad del agua ofrece una enorme resistencia a la penetración del proyectil, y curiosamente, cuanto más rápida es la bala más tiende a frenarse, ya que el rozamiento es mayor. Es decir, que un disparo con una pistola tiene más posibilidades de herir a alguien bajo el agua que el de un fusil. Lo sentimos, Spielberg.

No es la primera hazaña de Wahl. Anteriormente ya se había jugado el cuello, hasta ahora con la sonrisa de la fortuna, en experimentos como la demostración de la fuerza centrípeta, ese componente que explica el movimiento de los objetos en una trayectoria curvada y que es responsable, por ejemplo, de las órbitas.

El físico también lo probó consigo mismo, colgándose a 14 metros de altura con una cuerda que pasaba sobre un eje y cuyo extremo contrario terminaba atado a un peso sujeto a la pared. Wahl cae al liberar el peso, pero el movimiento circular de este alrededor del eje enrolla la cuerda y termina deteniendo la caída. Naturalmente, él sabía que debía usar una cuerda elástica como las que se emplean para hacer bungee jumping (eso que absurdamente aquí se conoce como puenting, vocablo inexistente). De otro modo, la columna se le habría partido en dos como una patata frita.

No sé a ustedes, pero a mí todo esto me trae a la memoria un viejo recuerdo televisivo que solo resultará familiar a los mayores de treinta y tantos. Verán, según parece la competición de escupir huesos de cereza Morellsteinspytting, en la que Wahl ha resultado tres veces campeón, es desde 1996 el principal atractivo de la localidad noruega de Lofthus, donde se celebra anualmente en sus tres categorías (hombres, mujeres y junior para menores de 14) cada último fin de semana de julio en el marco del Festival de la Cereza. El récord absoluto lo estableció en 2003 la celebridad local Sverre Kleivkås, con 14,24 metros. ¿Alguien recuerda a Rose y sus historias de Saint Olaf, Minnesota?

Año 1 después de McFly: ¿adiós al ordenador personal y al móvil?

Con ocasión del advenimiento del año 1 d. M. F. (después de McFly), las comparaciones entre nuestro 2015 y el suyo han llegado hasta a los telediarios. Siempre es un ejercicio curioso; aunque al parecer Robert Zemeckis, el director de la trilogía, declaró que su pretensión nunca fue tanto plasmar un futuro creíble como simplemente divertido. En mi caso, esta semana he conmemorado la ocasión tirando por otro derrotero, el de los viajes en el tiempo, que siempre da mucho jugo y mucho juego.

Pero quería dejar aquí un comentario relativo a esos parecidos y diferencias entre el pasado de Marty, su presente, su futuro, nuestro presente y nuestro futuro. La saga de Back to the Future basa su tono de comedia sobre todo en un elemento, el choque cultural, un argumento que el cine ya ha desgranado en muchas y distintas versiones: la del cambio de país, la del emigrante del campo a la ciudad, incluso la del extraterrestre camuflado como un humano más. En este caso, es el cambio de época. Pero curiosamente, y mientras que en la segunda parte este choque se plasma sobre todo en el factor tecnológico, en la película original el efecto se expresaba más bien en detalles sociológicos: las marcas comerciales (Levi’s, o Calvin Klein en el original*), los personajes (Ronald Reagan), los usos y costumbres (el comportamiento de la madre de Marty), la música (el Johnny B. Goode)…

¿Por qué? Si bien lo miramos, se diría que el salto tecnológico entre 1955 y 1985 no fue tan sustancial. Incluso entre 1955 y 2015, solo ha sido realmente revolucionario para el humano común en un aspecto, el de todo aquello que lleva una pantalla: ordenadores, smartphones, tablets.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en 'Regreso al futuro parte II'. Imagen de Universal Pictures.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en ‘Regreso al futuro parte II’. Imagen de Universal Pictures.

Esta semana he dedicado un día a fijarme a mi alrededor y pensar en cómo nuestra vida se ha transformado en función de la tecnología desde una época como 1955. Los automóviles de hoy esconden innovaciones impensables entonces, pero siguen siendo coches que circulan por una carretera. Seguimos viajando en avión, tren, metro o autobús, sufriendo atascos de tráfico, iluminándonos con bombillas que encendemos con una llave en la pared, escuchando la radio, viendo la televisión, trabajando en una oficina, lavando la ropa en una máquina giratoria y planchándola con una placa de metal caliente, aspirando el suelo con una escoba de succión, cocinando y tomando cañas en los bares (por suerte) que luego nos vetan la posibilidad de conducir.

Esto último, porque aún no tenemos coches que se conduzcan solos. Como tampoco disponemos de automóviles (ni patines) voladores, ni vivimos bajo tierra, ni las calles nos llevan directamente al piso 157, ni pasamos las vacaciones en Marte, ni nos teletransportamos a Nueva Zelanda para desayunar, ni limpiamos la casa pulsando un botón, ni nos pintamos (se pintan) las uñas con un lápiz electrónico, ni tenemos robots o avatares virtuales que trabajen por nosotros, ni viajamos en el tiempo, ni nos metemos en una máquina que nos rejuvenezca y nos cure todos nuestros males, ni nos congelamos para resucitar en el futuro. Desde 1955 hemos asistido a innumerables mejoras incrementales y graduales en todo aquello que nos rodea, pero casi nada que realmente cambie lo esencial de nuestra forma de vida.

Aunque fue en los 80 cuando se popularizó el posmodernismo, aún seguía viva la herencia del optimismo tecnológico de la modernidad. La verdadera revolución de la tecnología en todos los ámbitos de la vida humana fue la de parte del siglo XIX y parte del XX, cuando surgieron todas esas innovaciones disponibles hoy que no existían en 1855, pero sí en 1955.

Como ya he mencionado, solo en la forma de comunicarnos, relacionarnos e informarnos a través de los dispositivos de pantalla es en lo que este 2015 se diferencia radicalmente de 1955, pero también del 1985 de Back to the Future. Recuerdo 1985; 17 años. Entonces no pensábamos que en 2015 fuéramos a tener coches voladores, pero sí habríamos apostado por que la vida hoy sería muy diferente; por supuesto, mejor. Quizá, más que optimismo, un cierto candor.

Para vislumbrar qué podría depararnos el futuro en este único campo que tanto ha cambiado en unas pocas décadas, nadie mejor que un experto. Esta semana estuve conversando con el historiador de la computación David Greelish, autor del libro Classic Computing: The Complete Historically Brewed. Greelish es de los que piensan que la evolución de la informática personal está ahora inmersa en una etapa de meseta, en comparación con los últimos 30 años. “Pienso que es justo decir que el portátil nuevo que utilizamos ahora no es tan radicalmente diferente del que usábamos en 2010, o incluso en 2005”, dice. “En un período de tiempo mucho más corto, puedo decir lo mismo de los smartphones y tablets“.

Lo cual no implica, en opinión de Greelish, que nada vaya a cambiar, sino que la transformación no será tan revolucionaria como la que hemos presenciado a lo largo de nuestras vidas. El experto piensa que “el futuro cercano es muy excitante”, y que variará el concepto de dispositivo autónomo personal que empleamos hoy. “Creo que estamos solo a una década o así del momento en el que ya no habrá ordenadores o smartphones o incluso televisión como hoy los entendemos, como aparatos independientes. Simplemente, habrá pantallas de distintos tamaños conectadas a la nube”.

Estas pantallas, prosigue Greelish, podrán sostenerse en una mano, en las dos, apoyarse en la mesa, en la pared o ser la pared. Todas ellas nos permitirán acceder a cualquier tipo de archivo digital. Pero el hecho de que el objetivo final sea la disponibilidad del contenido, y que esto se facilite a través de innumerables opciones y formatos, acabará también con esa actual dependencia del móvil, ya que el aparato pasará a un segundo plano. “No importará si es tu pantalla o no”, afirma Greelish. “El futuro de la computación en la nube no es tus datos en cualquier lugar, sino más bien tu ordenador en cualquier lugar; yo podría estar en casa de un amigo y no solo acceder a mis datos, sino a todo mi material digital. Cualquier pantalla puede convertirse en mi pantalla también para mis apps, convirtiéndose en mi ordenador”.

De hecho, Greelish apunta una tendencia que viene pujando en los últimos años y que asoma tanto en las ferias de tecnología como en las páginas de las revistas de ciencia: las pantallas plegables, quién sabe si incluso desechables. “Un smartphone o tablet se podría guardar en un bolsillo, desdoblarse y hacerse más grande; esto captará nuestra atención y será divertido por un tiempo”.

¿Y más allá de esto? “Predecir el futuro es un terreno peligroso, ya que quienes lo hacen casi siempre acaban pareciendo ridículos en el futuro”, advierte Greelish. Pero tal vez tampoco haga falta un ejercicio de futurología muy certero para entender que, si lo importante son los contenidos, la barrera que supone el uso de un dispositivo debería tender a minimizarse. Al fin y al cabo nuestros aparatos no dejan de ser, en el fondo, sofisticadas prótesis: lo que emitimos y percibimos finalmente consiste en actividad cerebral electroquímica. Algunos investigadores están abriendo el camino hacia la comunicación directa de cerebro a cerebro, algo que nos permitiría incluso prescindir de las pantallas.

Y añado: solo espero que todo esto no haga realidad ese verso de Bad Religion:

Cause I’m a 21st century digital boy

I don’t know how to read but I got a lot of toys

*Levi’s ya era una marca de sobra conocida en los años 50 en EE. UU. En la versión original en inglés Marty decía llamarse Calvin Klein, pero esta marca aún no era popular en la España de los 80, por lo que los traductores optaron por cambiarlo.

La televisión es solo televisión; no pretendamos que despache cultura científica

Como uno de los pocos españoles a quienes anoche se les hacía bola la opción de deglutir un debate sobre los resultados electorales, y como uno de los cada vez menos que no tenemos televisión de pago ni aunque las operadoras se empeñen en regalárnosla, ayer me vi obligadamente circunscrito a acompañar la cena, tras acostar a los niños, viendo el Discovery Channel, o como se llame aquí. Daban un par de falsos documentales sobre la presunta existencia actual del megalodón, un colosal tiburón de 20 metros que pobló los océanos en el pasado y que se extinguió en el Plioceno, hace unos 2,6 millones de años.

Videomontaje de una cría de megalodón pasando ante la cámara de unos submarinistas. Discovery Channel.

Videomontaje de una cría de megalodón pasando ante la cámara de unos submarinistas. Discovery Channel.

Para quien no lo conozca, explico que Megalodon: The monster shark lives es un programa del género conocido como mockumentary o falso documental, una película de ficción interpretada por actores que aparecen caracterizados como científicos o expertos y que interpretan su guión ante la cámara simulando que se trata de hechos reales. La trama arranca con el supuesto ataque de una desconocida bestia marina a un barco de pesca surafricano que resulta en la muerte de sus ocupantes, lo que motiva una investigación por parte del (tan inexistente como el megalodón) biólogo marino Collin Drake, interpretado por el actor Darron Meyer. El ficticio experto y su equipo organizan una expedición que se queda a un soplido de obtener pruebas concluyentes de la existencia del monstruo, un desenlace estandarizado en el género para mantener la intriga sin desvelar la trampa y el cartón.

Con motivo del estreno de la película, hace un par de años, se levantó en internet un insólito tsunami de protestas contra el canal Discovery por emitir un documental falso sin incluir en él la expresa aclaración de que se trataba solo de eso, una pieza de entretenimiento. Las flechas más aceradas vinieron disparadas desde algunos medios, científicos y blogueros de Estados Unidos, un país donde el canal Discovery existe, creo, desde hace décadas y donde al parecer en tiempos pasados solía emitir piezas de auténtico carácter científico.

Algunas opiniones, por ejemplo, añoraban que la Shark Week –la semana de los tiburones, un ciclo que se repite anualmente en este canal– programaba piezas de verdadero valor documental antes de entregarse al puro espectáculo basado en el sensacionalismo. Por su parte, Discovery reconoció la falsedad del documental, pero lejos de disculparse defendió su derecho a hacer lo que le viniera en gana y repitió al año siguiente con un nuevo mockumentary que mostraba nuevas falsas pruebas de la existencia del megalodón.

Tal vez por aquí la conmoción fue menor, ya que el Discovery existe desde hace pocos años y desde el principio se ha dedicado fundamentalmente a emitir falsos documentales sobre sirenas, alienígenas antiguos y modernos, archivos ocultos, conspiranoias, abominables hombres de las nieves, diluvios universales, bases secretas en la Luna, moscas con cabeza humana y humanos con cabeza de mosca. Por tanto, en nuestro país este canal no se importó desde el principio como una cadena con pretensiones científicas, sino como la versión pinturera de esos divertidos folletines tan típicamente americanos en los que una granjera denuncia que el gobierno ha reemplazado a su marido por un dibujo animado.

Como (ex)científico y periodista de ciencia, tal vez se esperaría de mí que me sumara a la censura hacia esto que algunos dan en llamar telebasura científica. Pero no voy a hacerlo. Seamos serios: la televisión es solo televisión. Acudir a ella buscando cultura científica es como frecuentar un burdel en busca de amor. No niego que tal vez existan programas de divulgación científica de cierto valor (a todos nos vienen a la mente algunos recuerdos), y hasta me atrevería a apoyar la postura estándar de que los canales que reciban fondos públicos deben servir a ciertos valores educativos. Pero la expresión “telebasura” siempre me ha parecido algo redundante; no porque esté en mi ánimo calificar toda la televisión como basura, sino porque quienes hablan de basura se refieren precisamente a lo que muscula el corazón del negocio televisivo. La tele es eso; si se quiere llamar basura, llámese. Pero me permito recordar que hay otras alternativas de ocio.

En lo que se refiere a los documentales de naturaleza, también es cierto que todos suelen tener su cuota de trampantojo. Recordemos los famosos montajes de Félix Rodríguez de la Fuente, por los que fue tan vilipendiado. Incluso el mismísimo David Attenborough fue sorprendido en un renuncio cuando amañó un encuentro con una cobra escupidora. Hoy un personaje que levanta pasiones enfrentadas es Frank de la jungla, tan admirado como aborrecido. Veamos; cualquiera que haya frecuentado espacios naturales, tropicales o no, sabe que en una mañana de caminata a uno no le salen a saludar cinco especies distintas de serpientes, y que en general los animales tienden a huir si tratas de acercarte a ellos. De otro modo, los realizadores de auténticos documentales serían bastante idiotas por pasar semanas en el campo en busca de especies de interés, y los ornitólogos serían imbéciles por ocultarse en hides/blinds si bastara con camuflarse con una gorra de tenis y unos crocs rojos para agarrar cualquier pájaro sin que haga el menor amago de escapar.

Frank de la Jungla.

Frank de la Jungla.

Es innegable que el estilo de aproximación de Frank a las criaturas salvajes es del todo heterodoxo, y que en muchas ocasiones patina estrepitosamente cuando responde a las preguntas de sus acompañantes, que le interrogan sobre las especies como si él fuera un zoólogo (nota: a riesgo de equivocarme, tengo para mí la impresión de que el anterior realizador, creo que se llamaba Nacho, lo hacía con clara intención provocadora irónico-cómica). Todo ello forma parte del espectáculo, de una especie de versión del circo a lo Coronel Tapioca; los programas de Frank de la jungla podrán ser todo lo criticables que se quiera, pero como lo que son, un mero entretenimiento televisivo. Criticarlos en calidad de documentales de naturaleza es como criticar las máquinas de venta de patatas y chocolatinas en calidad de restaurantes.

Repito, seamos serios. O mejor dicho, no lo seamos cuando se trata de televisión. Es solo televisión, y no otra cosa. Los directivos del canal Discovery serán merecedores de todos los epítetos pertinentes por presumir de que consiguieron hacer creer a más de un 70% de su audiencia que el megalodón realmente sigue existiendo. Pero para mí, este dato afea más a la audiencia que al propio canal. Si quieren ciencia, no la busquen en la tele. A pesar de la revolución audiovisual, hay cosas que nunca cambiarán, y la ciencia solo se aprende como se ha aprendido siempre: leyendo y estudiando; en resumen, ejercitando y forzando la mente, por impopular que ello resulte en este imperio del ejercicio físico en el que nos ha tocado vivir.

De acuerdo, los zombis no existen; pero ¿podemos escapar de ellos?

Teniendo en cuenta que los zombis no pueden morir porque ya están muertos –aunque sí es posible conseguir que dejen de incordiar–, no tiene nada de raro que regresen una y otra vez para protagonizar largas sagas. George A. Romero, el padre fundador del género tal como hoy lo entendemos, ya ha rodado al menos seis películas de su serie Dead, si no me fallan las cuentas, y The Walking Dead ha sobremuerto en la competitiva cancha televisiva durante cinco temporadas, con la sexta en preparación.

'The Walking Dead'. Imagen de AMC.

‘The Walking Dead’. Imagen de AMC.

Y a pesar de que ya hemos visto zombis en todos los formatos y tamaños posibles –el año pasado les tocó a los castores–, siempre me ha llamado la atención una curiosidad: ¿por qué los protagonistas de las películas de zombis nunca han visto una película de zombis? Un ejemplo: en las historias de vampiros que nos trae el cine, es habitual que más pronto que tarde los personajes reconozcan que se encuentran ante una coyuntura de vampiros, incluso cuando no se trata estrictamente del modelo clásico, como ocurre en la serie de Guillermo del Toro y Chuck Hogan The Strain. Una vez que los protagonistas han identificado que la cosa va de vampiros, de inmediato les viene a la mente todo el repertorio estándar de ideas sobre estos seres; entre otras cosas, cómo acabar con ellos.

En cambio, no recuerdo una sola película de zombis (repito: “no recuerdo”, no “no existe”) en la cual llegue un momento en que uno de los personajes sentencie: “¡Ya está, claro, son zombis, de los de toda la vida!”. Más bien al contrario, suelen mostrar su absoluta sorpresa: “¿Qué diablos es eso? ¡Oh, se comen a la gente! ¡Y no mueren! ¡Y convierten a otros en lo mismo que ellos!”. Dichos protagonistas no llaman al pan pan y al zombi zombi, sino que se refieren a ellos con nombres ad hoc, como los “caminantes” de The Walking Dead, o sencillamente los denominan “esas cosas”. Con la ya larga tradición de películas, series, libros, dibujos animados, cómics, novelas gráficas y toda otra clase de formatos que han cubierto el género, ¿por qué los protagonistas nunca han visto/leído/oído ninguna de estas historias para saber reconocer a los zombis y llamarlos por su nombre?

Así empezó todo. El primer zombi de 'La noche de los muertos vivientes' de George A. Romero (1968). Imagen de The Walter Reade Organization.

Así empezó todo. El primer zombi de ‘La noche de los muertos vivientes’ de George A. Romero (1968). Imagen de The Walter Reade Organization.

No tema, no le ocurre nada a su pantalla. Tampoco se ha equivocado de blog. Si hoy traigo aquí esta cuestión, hay un motivo, incluso relacionado con la ciencia, porque todo esto nos conduce a una proposición: si los protagonistas de las películas de zombis supieran identificar correctamente la naturaleza de su situación desde el primer momento, contarían con mejores armas para sobrevivir. Y no me refiero a machetes o fusiles de gran calibre, sino a prevención; estar sobre aviso, saber qué hacer, qué no hacer, a dónde ir, a dónde no ir.

Y quien dice zombis, dice cualquier epidemia. La experiencia del ébola nos ha mostrado que, si en algún momento futuro sufrimos un grave brote de alguna enfermedad terriblemente contagiosa y mortal, al menos no nos vencerá el factor sorpresa; dispondremos de amplia información que nos enseñará cómo actuar, y esto puede ser decisivo en la evolución de la hipotética infección.

De esta veteranía nos beneficiamos todos: público, autoridades sanitarias y científicos; esta semana la revista Science publica una revisión sobre el estado de la cuestión en la elaboración de modelos matemáticos de epidemias infecciosas, herramientas fundamentales a la hora de guiar la respuesta frente a estas crisis. El artículo, firmado por un numeroso equipo multidisciplinar perteneciente a la colaboración Infectious Disease Dynamics (IDD) del Instituto de Ciencias Matemáticas Isaac Newton en Cambridge (Reino Unido), concluye que los modelos están mejorando y que cada vez reflejan más fielmente la dinámica de las epidemias, y ello a pesar de que la complejidad ha aumentado con el mayor tráfico internacional de personas y el aumento de las resistencias a fármacos antimicrobianos.

Hoy el panorama de la salud ha pasado de local a global, valoran los científicos, y resumiendo lo que acabo de explicar en los párrafos anteriores, “en nuestro mundo moderno de comunicación instantánea, el comportamiento cambiante de los individuos en respuesta a la publicidad sobre las epidemias puede tener efectos profundos en el curso de un brote”. Los firmantes del artículo, encabezado por el epidemiólogo de la Universidad de Utrecht (Países Bajos) Hans Heesterbeek, argumentan que el diálogo entre la comunidad científica y los responsables sanitarios es esencial para que los modelos matemáticos ayuden a tomar las decisiones correctas y a definir estrategias de control mejor informadas.

Uno de estos modelos matemáticos ha servido ahora a un grupo de investigadores de la Universidad de Cornell (EE. UU.) para simular la dinámica de una epidemia. Tal vez el estudio no tendría mayor repercusión –y, como diría la foto de Julio Iglesias, sus autores lo saben– de no ser porque la enfermedad elegida no es el ébola, ni la gripe aviar, ni la tuberculosis. Para su modelo, los autores han escogido precisamente un brote zombi en EE. UU. “En su raíz, el zombismo es solo eso: una enfermedad (ficticia), y por tanto debería ser apta para el mismo tipo de análisis y estudio del que se han beneficiado las enfermedades más tradicionales”, escriben los autores en su trabajo, disponible en la web de prepublicaciones arXiv.org.

Esta no es la primera simulación matemática de una epidemia zombi, pero como destaca el artículo de Science, los modelos mejoran y se refinan, por lo que podríamos asumir que es la mejor diseñada hasta ahora. Para su algoritmo, los investigadores, encabezados por Alexander Alemi y dirigidos por el físico James Sethna, han considerado variables particulares del fenómeno zombi que lo diferencian de otras enfermedades. Por ejemplo, los virus no buscan activamente a sus víctimas; los zombis sí. “Los zombis no vuelan en aviones”, escriben los científicos. Y cuando un zombi y un “humano” (sic; siempre me he preguntado entonces por qué al menos a los zombis no se les concede la categoría de “ex humanos”) se encuentran, la reunión puede saldarse con uno de dos resultados: el zombi muerde al humano y lo recluta para su causa (probabilidad β), o el humano “mata” (¿remata?) al zombi (probabilidad κ). Así, la virulencia se define como α = κ / β.

Una aclaración: a pesar de que los investigadores definen α como “virulencia”, la denominación es un poco confusa; tal como se calcula esta relación, cuanto mayor es α (si es mayor que 1), la situación es favorable a nosotros, mientras que con α menor que 1, lo tenemos complicado (más adelante aclaran que se trata de “virulencia inversa”). Pero incluso si α es mayor que 1, el resultado final dependerá de si el número inicial de zombis permite a los humanos matarlos a todos antes de que ellos acaben con la humanidad.

Mapa de densidad de población en EE. UU., con muchas zonas vacías en el medio oeste. Imagen de Alemi et al.

Mapa de densidad de población en EE. UU., con muchas zonas vacías en el medio oeste. Imagen de Alemi et al.

Los investigadores aplican la simulación a su país, tomando como base el censo de 2010 y la densidad de población para repartir a sus 306.675.005 habitantes, lo que da como resultado el mapa de la figura, con muchas zonas vacías en el medio oeste que desconectan ambas costas. A la virulencia α le dan un valor de 0,8 basándose en algunas películas del género. Por último, añaden movimiento a los zombis, a razón de un pie por segundo (0,3 metros). Y regresando a la cuestión con la que he abierto este artículo, aquí tampoco la población parece advertida del fenómeno zombi, ya que los investigadores asumen que los humanos no se mueven, algo que probablemente ocurriría si los sujetos de la simulación hubieran visto las cinco temporadas de The Walking Dead. Alemi y sus colaboradores lo justifican así: “Asumimos que los humanos no se mueven, no solo por eficacia computacional, sino porque, como veremos, los brotes zombi tienden a ocurrir rápidamente, y suponemos que las grandes redes de transporte dejarán de funcionar en los primeros días, confinando a la mayoría de la gente en sus casas”.

Evolución de la simulación de la epidemia zombi en EE. UU. El azul representa la población, el rojo los zombis, y el verde los zombis rematados. Imagen de Alemi et al.

Evolución de la simulación de la epidemia zombi en EE. UU. El azul representa la población, el rojo los zombis, y el verde los zombis rematados. Imagen de Alemi et al.

En resumen, y una vez que los científicos han encajado estas y otras variables en su modelo matemático, vayamos a lo práctico: hay un brote zombi en EE. UU que afecta al azar a una persona de cada millón. ¿Qué ocurre? “La mayoría de la población de EE. UU. ha sido convertida en zombis durante la primera semana”, escriben los científicos, mostrando mapas de la evolución del brote. La epidemia se extiende con rapidez por ambas costas y por la mitad oriental, la más poblada de aquel país, pero no así por el medio oeste. “Después de cuatro semanas, gran parte de Estados Unidos ha caído, pero a los zombis les lleva mucho tiempo difundirse y capturar el resto del país”. “Incluso cuatro semanas después [los famosos 28 días], áreas remotas de Montana y Nevada permanecen libres de zombis”. Así que, ya ven, hay escapatoria.

Por último, los investigadores construyen un mapa de riesgo, basado en promediar 7.000 casos distintos en los que la epidemia comienza con un solo zombi en un lugar aleatorio. En estas situaciones, como es lógico, el brote se extiende con más lentitud; en el caso de que el zombi cero aparezca en Nueva York, 28 días después solo ha caído la región noreste. Pero lo importante es que con este cálculo los científicos estiman dónde es más peligroso vivir suponiendo una epidemia que empezara de esta manera. Y quienes corren más riesgo son los que viven en zonas intermedias entre áreas metropolitanas muy pobladas, ya que el ataque les puede llegar por distintos flancos. “Por ejemplo, en California es la región cercana a Bakersfield, en el valle de San Joaquín, la que corre mayor riesgo, ya que será asediada por los zombis si estos se originan en el área de San Francisco o en la de Los Ángeles/San Diego. El área con el mayor riesgo a un mes es el noreste de Pensilvania, susceptible a brotes originados en cualquiera de las grandes áreas metropolitanas de la costa este”.

Por si alguien desea entretenerse, los investigadores han colgado su modelo funcional de simulación en internet. Basta con elegir los parámetros, hacer click en uno o varios lugares para sembrar muertos vivientes, y sentarse a contemplar cómo la epidemia zombi se extiende por EE. UU. Solo nos faltaría que alguien se animara a aplicarlo a nuestro país para saber si deberíamos escapar a Soria o Teruel, las provincias con menor densidad de población, o si sería preferible enfilar hacia Jaramillo Quemado (Burgos), donde cada habitante tiene casi tres kilómetros cuadrados y medio para él solito, o si deberíamos buscar alguna cueva remota en el Pirineo. Nos vemos allí. Si llegamos.