BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Sin categoría’

Gemínidas y cuadrántidas: más estrellas que en Belén, pero la luz las oculta

Para muchos, la lluvia de estrellas fugaces es algo tan ligado al verano como la playa, las sandalias y la sangría. Pero en realidad las perseidas, o lágrimas de San Lorenzo, no son la única ni la mayor lluvia de meteoros que podemos contemplar. Simplemente, en pleno agosto es más factible y agradable tumbarse al fresco de la noche junto a unas cervezas y a la persona que a uno le apetezca tener al lado. Sin embargo, en la época cercana a la Navidad tenemos otros dos fenómenos incluso más intensos. Si es que podemos llegar a verlos.

Del 7 al 17 de diciembre nos visita la lluvia de meteoros de las gemínidas, con su pico hoy día 14. Y con el cambio de año y hasta la noche de Reyes llegarán las cuadrántidas, con su máximo el día 3. Según me cuenta el físico italiano Fabio Falchi, “estas lluvias, debidas a partículas de polvo procedentes de dos pequeños asteroides –probablemente los núcleos de dos antiguos cometas–, están entre las más ricas, llegando a 120 meteoros por hora en su pico, con una media de dos estrellas fugaces por minuto”.

Lluvia de meteoros de las gemínidas. Imagen de Asim Patel / Wikipedia.

Lluvia de meteoros de las gemínidas. Imagen de Asim Patel / Wikipedia.

Pero el motivo por el que hoy traigo aquí a Falchi no es para que nos explique cómo se produce el fenómeno, sino por qué difícilmente vamos a lograr ver algo. Y no solo porque las nubes amenacen con ocultarnos la vista (que también), sino por una razón que queda aclarada en el nombre de la entidad a la que Falchi dedica el tiempo libre que le deja su trabajo como profesor, el Instituto de Ciencia y Tecnología de la Contaminación Lumínica de Italia (ISTIL).

Hoy las ciudades, al menos las de nuestro entorno, han conseguido dejar atrás una buena parte de aquel lastre que las convertía en insalubres y amontonadas jaulas de cemento. Las urbes actuales intentan abrir espacios a la naturaleza y atenuar su pulso frenético con más calles peatonales y zonas de esparcimiento. Pero como decía Willy Loman, el viajante de Arthur Miller, hay que partirse el cuello para ver una estrella. Desde el valle donde vivo no se ve Madrid, pero por las noches es fácil saber dónde está: no hay más que buscar la mancha luminosa que rebosa sobre la línea de la colina.

Falchi lleva años dedicado al estudio de la contaminación lumínica, un problema cada vez más acuciante que no solo dificulta el trabajo astronómico, sino que nos impide disfrutar de uno de los espectáculos naturales más hermosos. Fruto de su esfuerzo, en colaboración con otros investigadores, es el mayor y más completo atlas mundial del brillo del cielo nocturno, publicado el pasado junio en la revista Science Advances y que revelaba algunos datos descorazonadores, como que un tercio de la humanidad –un 60% de los europeos– ya no puede ver la senda de la Vía Láctea en el cielo, el Camino de Santiago.

Y lo que es peor, como conté hace unos meses en un reportaje, es que el problema va a peor: los expertos como Falchi advierten de que el cambio de las luminarias clásicas por luces LED blancas por motivos de consumo energético aumenta aún más la polución lumínica. Los astrónomos aconsejan en su lugar el empleo de luces LED de color ámbar.

Según Falchi, hay varias razones que nos impiden disfrutar de las lluvias de meteoros en todo su esplendor. Por ejemplo, este año las gemínidas nos coinciden con una luna llena, algo que no ocurrirá en las cuadrántidas. Pero sobre todo, dice, “el mayor enemigo de las estrellas fugaces es la contaminación lumínica, presente todas las noches, todo el año”. “En las áreas contaminadas por la luz puedes perdértelas todas, o tener que esperar una hora para ver una sola” en lugar de docenas o cientos que podríamos ver bajo un cielo prístino. Y esto afecta a la mayoría de los habitantes de Europa.

Para quien tenga la posibilidad de desplazarse, Falchi y sus colaboradores del ISTIL, junto con la Administración Atmosférica y Oceánica y el Servicio de Parques Nacionales de EEUU, el centro alemán de geociencias GFZ y la Universidad israelí de Haifa, han preparado un mapa mundial interactivo en el podemos localizar las regiones cercanas de cielos más prístinos. “Busca las regiones de color negro, gris o azul, y ahí tendrás un cielo oscuro”, dice.

Y ya les adelanto la conclusión: España es uno de los países con mayor contaminación lumínica del mundo, pero donde el desigual reparto de la población permite que aún se abran algunos cielos relativamente limpios en ciertas áreas de Guadalajara-Cuenca-Teruel y Toledo-Ciudad Real-Extremadura. Y por supuesto, en zonas de Canarias: La Palma goza del cielo más oscuro de Europa occidental en el Roque de los Muchachos.

Contaminación lumínica en España. Las regiones más oscuras corresponden a cielos más limpios. Imagen del Atlas de Contaminación Lumínica de Falchi et al, tomada de http://cires.colorado.edu/artificial-sky.

Contaminación lumínica en España. Las regiones más oscuras corresponden a cielos más limpios. Imagen del Atlas de Contaminación Lumínica de Falchi et al, tomada de http://cires.colorado.edu/artificial-sky.

Falchi ha publicado también para el gran público una versión de divulgación del atlas (en inglés), The World Atlas of Light Pollution, disponible en Amazon; un buen regalo navideño para los aficionados a la astronomía. Dado que tanto él como sus colaboradores italianos han elaborado el atlas de forma desinteresada y sin financiación alguna, Falchi confía en que los fondos recaudados con la venta del libro le permitan proseguir con sus investigaciones tan necesarias sobre la contaminación lumínica.

Este es el bicho que vive en nuestras caras… desde que somos humanos

Les presento a Demodex folliculorum, un ser que vive en los poros y los folículos pilosos de la cara de ustedes, la mía y la del 100% de los humanos adultos. Lo siento, modelos que aparecéis en los anuncios de la tele proclamando jovialmente lo limpias que os sentís tras (presuntamente) eliminar vuestras toxinas bebiendo nosequé. En vuestras cejas, pestañas, frente, pómulos, orejas, nariz, y prefiero no continuar hacia más abajo, viven estos diminutos y adorables animalitos de ocho patas con garras, primitos de las arañas. Y no hay bebida que os libre de ellos.

Un 'Demodex folliculorum'. Imagen de California Academy of Sciences.

Un ‘Demodex folliculorum’. Imagen de California Academy of Sciences.

Somos auténticos ecosistemas andantes. En nuestro cuerpo habitan diez veces más bacterias que células nuestras. Tal vez solemos pensar que, cuando uno de nosotros muere, nuestros restos mortales se convierten en pasto de infinidad de criaturas. Pero lo cierto es que ya somos un universo en miniatura mientras estamos vivos. Lo que sucede más bien es que, cuando morimos, esa pacífica sociedad de miles de millones de seres que hasta entonces vivían tranquilamente a sus cosas dentro de nosotros se ve de repente invadida por inmensas hordas de bárbaros agresivos que exterminarán su pequeño mundo tal como lo conocían. En lo que se refiere a nuestros microbios, el llamado microbioma humano es un campo de la biología que está en pleno auge, y que cada vez está demostrando más relevancia en determinar lo que realmente somos, no solo a nivel fisiológico, sino incluso psicológico.

Últimamente he estado trabajando bastante sobre el tema de la simbiosis. Muchos biólogos piensan que ya no puede considerarse la evolución tomando cada especie aislada, por ejemplo los humanos, sino que a efectos evolutivos debe pensarse en el todo formado por un organismo y todos los que le acompañan en su viaje, lo que se conoce como el holosimbionte. Cada uno de nosotros es un holosimbionte compuesto por el yo biológico más todo el resto de organismos que llevamos encima y dentro. Qué bonita manera de aplicar a la biología aquella famosa idea de Ortega: “yo soy yo y mi circunstancia”.

Regresando a nuestro amigo el Demodex folliculorum, es uno de los dos ácaros que viven en los orificios de nuestra piel, junto con su primo D. brevis, que prefiere las glándulas sebáceas. La biología no los considera simbiontes, ya que por el momento no se conoce que nos aporten ningún beneficio. Tampoco lo contrario, salvo en casos de infestación grave, y por ello los clasificamos como comensales.

El gusano espacial que trataba de tragarse el 'Halcón Milenario' en 'El imperio contraataca'. Imagen de 20th Century Fox.

El gusano espacial que trataba de tragarse el ‘Halcón Milenario’ en ‘El imperio contraataca’. Imagen de 20th Century Fox.

Pero si traigo aquí a este animalito precisamente hoy, día del estreno de El despertar de la Fuerza, no es por el parecido razonable entre el gusanito que vive en las cuevas de nuestra piel y el gusanazo que vivía en la caverna de un asteroide en El imperio contraataca. El motivo es que el Demodex es el protagonista de un estudio recién publicado en la revista PNAS y que nos descubre una fascinante conclusión sobre hasta qué punto nuestro destino y el de nuestros inquilinos están vinculados.

Científicos de la Academia de Ciencias de California y otras instituciones (incluyendo a una investigadora de la Universidad de Vigo, Iria Fernández-Silva) tomaron muestras de la cara de 70 personas en distintos lugares del mundo, bien arrastrando por la frente la parte curvada de una horquilla, o bien raspando la piel de la mejilla o del exterior de la nariz con una espátula. Lo primero que comprobaron al analizar las muestras fue que absolutamente todos los sujetos llevaban el Demodex en su piel, confirmando lo que otro estudio del mismo equipo ya mostró el año pasado: todos los humanos mayores de 18 años compartimos este inquilino.

Curiosamente, de las personas que tenían 18 años en el momento del estudio, el Demodex estaba presente solo en el 70% de los casos, indicando que lo adquirimos a lo largo del tiempo. ¿Y de quién? Pues según los análisis de ADN mitocondrial practicados por los investigadores, no de cualquiera a quien saludamos con un par de besos, sino de nuestra gente más próxima: del mismo modo que nosotros y nuestros familiares más cercanos compartimos ADN, también nuestros Demodex y los de nuestros familiares más cercanos comparten su ADN.

Un 'Demodex folliculorum'. Imagen de California Academy of Sciences.

Un ‘Demodex folliculorum’. Imagen de California Academy of Sciences.

Según la directora del estudio, Michelle Trautwein, “el continente de donde procede la ascendencia de una persona tiende a predecir los tipos de ácaros de sus caras”. Pásmense: los investigadores descubrieron que algunas personas afroamericanas cuyas familias llevan varias generaciones viviendo en EEUU aún llevan Demodex africanos. “Es alucinante que solo estemos empezando a descubrir cómo nosotros y los ácaros de nuestro cuerpo compartimos profundamente la misma historia”, dice Trautwein.

Pero aún más, el estudio de ADN ha permitido a Trautwein y sus colaboradores rastrear la evolución de los Demodex a lo largo del tiempo y su dispersión por el mundo en sus hospedadores humanos. Y resulta que estos animalitos reflejan en su evolución genética la famosa hipótesis llamada Out of Africa, según la cual los humanos modernos surgieron en África y desde allí emigraron hasta colonizar el mundo originando poblaciones distintas. Sin embargo, cuando nosotros aparecimos, los Demodex ya estaban allí: el ADN sugiere que su especie es anterior a la nuestra, pero es posible incluso que su linaje se remonte a más de 3 millones de años atrás, lo que indicaría que nos han acompañado desde el nacimiento del género Homo.

Así que el minúsculo Demodex, que normalmente no nos molesta demasiado, se merece un pequeño homenaje. Hoy rompo mi línea habitual: que entre Sinatra. I’ve got you under my skin (te llevo bajo mi piel).

Pasen y vean Plutón, antes de perderlo de vista para siempre

No está previsto que los actuales habitantes de esta roca mojada volvamos a tener noticias de Plutón en lo que nos resta de vida. El pasado julio, la sonda New Horizons de la NASA pegó el cromo que nos faltaba en nuestro álbum del Sistema Solar, sustituyendo las ilustraciones artísticas y las burdas imágenes pixeladas que teníamos hasta entonces por retratos fieles del que para los rebeldes taxonómicos siempre será nuestro noveno planeta.

Adiós, Plutón. Con esta majestuosa imagen de un anillo brillante se despidió la sonda 'New Horizons' del planeta enano en julio de 2015. Imagen de NASA/JHUAPL/SwRI.

Adiós, Plutón. Con esta majestuosa imagen de un anillo brillante se despidió la sonda ‘New Horizons’ del planeta enano en julio de 2015. Imagen de NASA/JHUAPL/SwRI.

Después de completar su sesión fotográfica de Plutón, New Horizons emprendió camino hacia una nueva meta que ya está definida, un asteroide de unos 40 kilómetros de diámetro llamado 2014 MU69 adonde la sonda llegará con el año nuevo de 2019, y que por entonces estará 43,4 veces más lejos del Sol que la Tierra. Debido a que en la región de Plutón aún no se ha instalado la fibra óptica, el aparato de la NASA continúa enviando trabajosamente sus datos a razón de 1 kilobit por segundo; pensemos que una conexión ADSL normalita, de 10 megas, funciona 10.000 veces más rápido, así que aún deberemos esperar hasta que New Horizons descargue todos sus datos.

Esta semana, la NASA ha publicado un mosaico de imágenes de alta resolución que nos muestran una tira de la superficie de Plutón de unos 80 kilómetros de ancho, revelando una planicie de nitrógeno sólido llamada Sputnik Planum rodeada por las montañas de agua congelada de al-Idrisi, en una vista que se extiende hasta el horizonte a unos 800 kilómetros de distancia. Así es un mundo a casi 5.000 millones de kilómetros, y esto es lo más cerca que llegaremos a estar de él. Aprécienlo como se merece.

Pasen y vean cómo un agujero negro destroza una estrella

El 22 de noviembre de 2014, un rastreo del cielo en busca de explosiones de supernovas descubrió que el agujero negro supermasivo en el centro de la galaxia PGC 043234, a 290 millones de años luz de nosotros, estaba destrozando una estrella que se atrevió a acercarse demasiado. No es la primera vez que los astrofísicos detectan un fenómeno de este tipo, que ofrece la ocasión de estudiar cómo la gravedad extrema de los agujeros negros actúa sobre la materia que traspasa el límite del cual ni siquiera la luz puede escapar, el llamado horizonte de sucesos.

El descubrimiento de este fenómeno, denominado ASSASN-14li, fue seguido por tres telescopios de rayos X, el Chandra de la NASA, el Swift Gamma-ray Burst Explorer y el XMM-Newton de la ESA y la NASA. Los investigadores han analizado cómo la estrella queda pulverizada mientras parte de su material cae hacia el agujero negro y otra parte es expulsada a velocidades vertiginosas antes de sobrepasar la frontera de no retorno. La catástrofe espacial produce un intenso fogonazo de rayos X que puede durar varios años, mientras los restos de la estrella son atrapados por la sima cósmica y calentados a millones de grados. Mientras, algo del material expulsado forma un disco de viento gaseoso que orbita alrededor del agujero negro.

Basándose en los resultados de las observaciones, publicados esta semana en la revista Nature, la NASA ha recreado el suceso en este vídeo. En él se puede apreciar lo que los científicos llaman espaguetización, cómo el material de la estrella se estira en un filamento debido a las llamadas fuerzas de marea provocadas por la poderosa gravedad del agujero negro, cuya presencia solo se hace visible gracias al cataclismo.

Año 1 después de McFly: ¿adiós al ordenador personal y al móvil?

Con ocasión del advenimiento del año 1 d. M. F. (después de McFly), las comparaciones entre nuestro 2015 y el suyo han llegado hasta a los telediarios. Siempre es un ejercicio curioso; aunque al parecer Robert Zemeckis, el director de la trilogía, declaró que su pretensión nunca fue tanto plasmar un futuro creíble como simplemente divertido. En mi caso, esta semana he conmemorado la ocasión tirando por otro derrotero, el de los viajes en el tiempo, que siempre da mucho jugo y mucho juego.

Pero quería dejar aquí un comentario relativo a esos parecidos y diferencias entre el pasado de Marty, su presente, su futuro, nuestro presente y nuestro futuro. La saga de Back to the Future basa su tono de comedia sobre todo en un elemento, el choque cultural, un argumento que el cine ya ha desgranado en muchas y distintas versiones: la del cambio de país, la del emigrante del campo a la ciudad, incluso la del extraterrestre camuflado como un humano más. En este caso, es el cambio de época. Pero curiosamente, y mientras que en la segunda parte este choque se plasma sobre todo en el factor tecnológico, en la película original el efecto se expresaba más bien en detalles sociológicos: las marcas comerciales (Levi’s, o Calvin Klein en el original*), los personajes (Ronald Reagan), los usos y costumbres (el comportamiento de la madre de Marty), la música (el Johnny B. Goode)…

¿Por qué? Si bien lo miramos, se diría que el salto tecnológico entre 1955 y 1985 no fue tan sustancial. Incluso entre 1955 y 2015, solo ha sido realmente revolucionario para el humano común en un aspecto, el de todo aquello que lleva una pantalla: ordenadores, smartphones, tablets.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en 'Regreso al futuro parte II'. Imagen de Universal Pictures.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en ‘Regreso al futuro parte II’. Imagen de Universal Pictures.

Esta semana he dedicado un día a fijarme a mi alrededor y pensar en cómo nuestra vida se ha transformado en función de la tecnología desde una época como 1955. Los automóviles de hoy esconden innovaciones impensables entonces, pero siguen siendo coches que circulan por una carretera. Seguimos viajando en avión, tren, metro o autobús, sufriendo atascos de tráfico, iluminándonos con bombillas que encendemos con una llave en la pared, escuchando la radio, viendo la televisión, trabajando en una oficina, lavando la ropa en una máquina giratoria y planchándola con una placa de metal caliente, aspirando el suelo con una escoba de succión, cocinando y tomando cañas en los bares (por suerte) que luego nos vetan la posibilidad de conducir.

Esto último, porque aún no tenemos coches que se conduzcan solos. Como tampoco disponemos de automóviles (ni patines) voladores, ni vivimos bajo tierra, ni las calles nos llevan directamente al piso 157, ni pasamos las vacaciones en Marte, ni nos teletransportamos a Nueva Zelanda para desayunar, ni limpiamos la casa pulsando un botón, ni nos pintamos (se pintan) las uñas con un lápiz electrónico, ni tenemos robots o avatares virtuales que trabajen por nosotros, ni viajamos en el tiempo, ni nos metemos en una máquina que nos rejuvenezca y nos cure todos nuestros males, ni nos congelamos para resucitar en el futuro. Desde 1955 hemos asistido a innumerables mejoras incrementales y graduales en todo aquello que nos rodea, pero casi nada que realmente cambie lo esencial de nuestra forma de vida.

Aunque fue en los 80 cuando se popularizó el posmodernismo, aún seguía viva la herencia del optimismo tecnológico de la modernidad. La verdadera revolución de la tecnología en todos los ámbitos de la vida humana fue la de parte del siglo XIX y parte del XX, cuando surgieron todas esas innovaciones disponibles hoy que no existían en 1855, pero sí en 1955.

Como ya he mencionado, solo en la forma de comunicarnos, relacionarnos e informarnos a través de los dispositivos de pantalla es en lo que este 2015 se diferencia radicalmente de 1955, pero también del 1985 de Back to the Future. Recuerdo 1985; 17 años. Entonces no pensábamos que en 2015 fuéramos a tener coches voladores, pero sí habríamos apostado por que la vida hoy sería muy diferente; por supuesto, mejor. Quizá, más que optimismo, un cierto candor.

Para vislumbrar qué podría depararnos el futuro en este único campo que tanto ha cambiado en unas pocas décadas, nadie mejor que un experto. Esta semana estuve conversando con el historiador de la computación David Greelish, autor del libro Classic Computing: The Complete Historically Brewed. Greelish es de los que piensan que la evolución de la informática personal está ahora inmersa en una etapa de meseta, en comparación con los últimos 30 años. “Pienso que es justo decir que el portátil nuevo que utilizamos ahora no es tan radicalmente diferente del que usábamos en 2010, o incluso en 2005”, dice. “En un período de tiempo mucho más corto, puedo decir lo mismo de los smartphones y tablets“.

Lo cual no implica, en opinión de Greelish, que nada vaya a cambiar, sino que la transformación no será tan revolucionaria como la que hemos presenciado a lo largo de nuestras vidas. El experto piensa que “el futuro cercano es muy excitante”, y que variará el concepto de dispositivo autónomo personal que empleamos hoy. “Creo que estamos solo a una década o así del momento en el que ya no habrá ordenadores o smartphones o incluso televisión como hoy los entendemos, como aparatos independientes. Simplemente, habrá pantallas de distintos tamaños conectadas a la nube”.

Estas pantallas, prosigue Greelish, podrán sostenerse en una mano, en las dos, apoyarse en la mesa, en la pared o ser la pared. Todas ellas nos permitirán acceder a cualquier tipo de archivo digital. Pero el hecho de que el objetivo final sea la disponibilidad del contenido, y que esto se facilite a través de innumerables opciones y formatos, acabará también con esa actual dependencia del móvil, ya que el aparato pasará a un segundo plano. “No importará si es tu pantalla o no”, afirma Greelish. “El futuro de la computación en la nube no es tus datos en cualquier lugar, sino más bien tu ordenador en cualquier lugar; yo podría estar en casa de un amigo y no solo acceder a mis datos, sino a todo mi material digital. Cualquier pantalla puede convertirse en mi pantalla también para mis apps, convirtiéndose en mi ordenador”.

De hecho, Greelish apunta una tendencia que viene pujando en los últimos años y que asoma tanto en las ferias de tecnología como en las páginas de las revistas de ciencia: las pantallas plegables, quién sabe si incluso desechables. “Un smartphone o tablet se podría guardar en un bolsillo, desdoblarse y hacerse más grande; esto captará nuestra atención y será divertido por un tiempo”.

¿Y más allá de esto? “Predecir el futuro es un terreno peligroso, ya que quienes lo hacen casi siempre acaban pareciendo ridículos en el futuro”, advierte Greelish. Pero tal vez tampoco haga falta un ejercicio de futurología muy certero para entender que, si lo importante son los contenidos, la barrera que supone el uso de un dispositivo debería tender a minimizarse. Al fin y al cabo nuestros aparatos no dejan de ser, en el fondo, sofisticadas prótesis: lo que emitimos y percibimos finalmente consiste en actividad cerebral electroquímica. Algunos investigadores están abriendo el camino hacia la comunicación directa de cerebro a cerebro, algo que nos permitiría incluso prescindir de las pantallas.

Y añado: solo espero que todo esto no haga realidad ese verso de Bad Religion:

Cause I’m a 21st century digital boy

I don’t know how to read but I got a lot of toys

*Levi’s ya era una marca de sobra conocida en los años 50 en EE. UU. En la versión original en inglés Marty decía llamarse Calvin Klein, pero esta marca aún no era popular en la España de los 80, por lo que los traductores optaron por cambiarlo.

¿Ensamblar muebles de Ikea ayuda a ganar el premio Nobel?

Durante mi revisión de la bibliografía para cubrir la información sobre los premios Nobel de este año, me topé con un artículo que no puedo resistirme a traer aquí. El motivo es que aborda uno de los asuntos recurrentes en este blog: la presunta ciencia –me retraigo de calificarla como “seudo”– basada en correlaciones estadísticas, una metodología que todas las semanas llena páginas y páginas de las revistas médicas del planeta.

Imagen de McLeod / Wikipedia.

Imagen de McLeod / Wikipedia.

Por resumir, ya he explicado aquí que la simple correlación entre dos series de datos no implica una dependencia de causa y efecto, por mucho que nos atraiga la tentación de inventarnos un vínculo: ni el chocolate adelgaza, ni mirar tetas alarga la vida, ni los herbicidas producen autismo, ni los huracanes son más letales cuando se les pone nombre de mujer, ni la Viagra aumenta el riesgo de melanoma, ni los desodorantes provocan cáncer… Es decir, mientras no se demuestre funcionalmente esa relación directa de causa y efecto. Todo ello es mala ciencia (excepto lo de las tetas, que fue una broma tomada por muchos como cierta), según los criterios estrictos del método científico. Y a pesar de ello, hay revistas especializadas que viven preferentemente de este tipo de investigaciones, y hay medios que dedican sus páginas de ciencia preferentemente a cualquier estudio que descubra una conexión llamativa hasta ahora insospechada (nótense todas las cursivas).

El grado al que llega esta epidemia de epidemiología creativa lo delata el hecho de que ni siquiera las revistas más prestigiosas del mundo se abstienen de publicar estudios que revelan nuevas y sorprendentes correlaciones. Como ejemplo, el caso que vengo a contar. En 2012 el doctor Franz H. Messerli, director del Programa de Hipertensión en el Centro Hospitalario St. Luke’s-Roosevelt de Nueva York y al parecer una autoridad mundial en su especialidad, publicó un estudio en el que descubría una correlación positiva entre, prepárense, el consumo per cápita de chocolate en cada país y su número de premios Nobel. Messerli llegaba a la conclusión de que los flavanoles del cacao (con “a”, un tipo de flavonoides, como los flavonoles con “o”), a los que atribuye el poder de “mejorar la función cognitiva” (proclama no validada por las autoridades alimentarias), podrían hacer más lista a la población en su conjunto y por lo tanto engrosar la colección de premios Nobel de un país. Messerli lo describía en otros términos, pero viniendo a decir lo mismo.

Y este estudio, amigos, por llamarlo de alguna manera, se publicó en The New England Journal of Medicine. Eso es. Junto con The Lancet, la revista médica más prestigiosa del mundo.

Evidentemente, esta afrenta a la ciencia y a la inteligencia, incluso la de quien jamás haya probado el chocolate, no podía quedar sin respuesta. Esta llegó al año siguiente en forma de otro estudio firmado por tres investigadores belgas y publicado en la revista The Journal of Nutrition (desmontar un bonito titular siempre se vende peor). Entre otros argumentos, los tres científicos muestran que no hay correlación entre el número de premios Nobel de un país y el consumo de otros alimentos también ricos en flavanoles, como el té o el vino.

Pero a continuación, y esta es mi parte favorita, los científicos belgas hacen un ejercicio similar al que practiqué yo mismo cuando demostré (véase la cursiva) la correlación entre el crecimiento del autismo y el aumento de mujeres británicas centenarias, los ingresos globales de la industria turística o la producción de petróleo en China. Lo transcribo en sus mismas palabras:

Encontramos una correlación increíblemente alta entre el número de tiendas de muebles Ikea y el número de premios Nobel (r = 0.82; P < 0.0001), aunque no pudimos elaborar ninguna relación de causa mutua –y dudamos de que nadie pudiera defender en serio que Ikea limita su mercado principalmente a países que han ganado el premio Nobel, o que la necesidad de entender y aplicar las instrucciones para ensamblar los muebles de Ikea mejora la función cognitiva de la población general.

“A nivel estadístico, merece la pena recordar que correlación nunca implica causalidad”, advierten los investigadores.

¿Y entonces? Naturalmente, hay otra explicación para la observación de Messerli, y esta sí es de sentido común, o más bien de cajón de madera de pino. Cuando los belgas comparan el consumo de chocolate con el PIB de cada país, descubren que, como no podía ser de otra manera, ambos datos se relacionan: en los países ricos se consume más chocolate. Y por tanto, los países más ricos, que suelen coincidir con aquellos que más invierten en investigación científica, ganan más premios Nobel. Así, sí.

Los autores cierran su artículo con lo que ahora suele llamarse un zasca a Messerli: “Esperamos haber ayudado a los lectores a situar correctamente la relevancia del informe inicial y a evitar las malas interpretaciones de correlaciones que obstaculizan la investigación en nutrición y salud”.