Archivo de la categoría ‘Noticia’

Sin noticias de la estrella KIC 8462852: no llaman, no escriben…

El rastreo de posibles señales de vida inteligente en la misteriosa estrella KIC 8462852 no ha encontrado nada. Ni saludos, ni signos de que alguien allí esté empleando sistemas de transporte avanzados que dejen una huella electromagnética detectable desde la Tierra.

Marvin el marciano. Imagen de Warner Bros.

Marvin el marciano. Imagen de Warner Bros.

La estrella, a la que los astrónomos llaman coloquialmente Estrella de Tabby (por Tabetha Boyajian, responsable del hallazgo) o WTF (por Where’s the Flux, “dónde está el flujo”, o también por What the Fuck, “pero qué coño”), ha estado en boca de científicos, ufólogos, periodistas de ciencia y curiosos en general debido a su comportamiento aberrante, nunca antes observado. Los datos del telescopio espacial Kepler mostraron que la luz de la estrella se atenúa periódicamente hasta en un 20% (más información aquí). Aunque esto probablemente se deberá a un fenómeno natural inédito, qué mejor ocasión para fantasear con la posibilidad de que una supercivilización superinteligente y supertecnológica ha creado una superestructura alrededor de su estrella para recolectar su energía.

Ya, ya; la idea resultará estrafalaria a quien la oiga por primera vez, pero lo cierto es que estas megaestructuras hipotéticas fueron propuestas formalmente por el prestigioso físico Freeman Dyson, y durante décadas han formado parte de las teorías sobre la posible evolución de civilizaciones tecnológicas como, por ejemplo, la nuestra. Según su configuración, se conocen como anillos de Dyson, esferas de Dyson, o enjambres de Dyson si se trata de una masa de pequeños artefactos móviles.

Este último caso fue el que se imaginó para KIC 8462852. Una civilización semejante, con un dominio de su estrella, dispondría de la energía suficiente para emitir señales de radio con una potencia que en la Tierra ni podríamos soñar. Así que los investigadores del Instituto SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre) en Mountain View, California, orientaron hacia la estrella el complejo de 42 antenas de la matriz de telescopios Allen (ATA).

La escucha ha ocupado la segunda quincena de octubre. Los científicos han buscado señales de frecuencia muy alta, entre 1 y 10 gigahercios, en el rango de las microondas, y tanto en banda estrecha –como se haría si se enviara una comunicación deliberada en una dirección– como en banda ancha –para buscar señales en todas direcciones procedentes de tecnología empleada en la propulsión de naves–.

Pero según detallan los investigadores en un estudio disponible en la web de prepublicaciones arXiv, sin éxito. Lo que se puede concluir es que hace 1.500 años (la estrella se encuentra a unos 1.500 años luz de nosotros) no había allí nadie transmitiendo una señal en todas direcciones como mínimo 100 veces más potente que la de los mayores transmisores terrestres, para la banda estrecha, o diez millones de veces, para la banda ancha.

La buena noticia es que estos límites son altos, porque la estrella está muy lejos y el ATA no puede ofrecer una sensibilidad con un umbral más bajo. La mala noticia es que, según los autores, si la señal se orientara hacia nuestra parte de la galaxia, la energía necesaria sería mucho menor.

La buena noticia es que no tendrían por qué transmitir hacia nosotros, dado que no saben que estamos aquí; las señales que recibimos ahora son de hace 1.500 años, y en caso de que ellos hubiesen detectado la Tierra como un posible planeta habitable, habrían recogido la luz de nuestro Sol de otros 1.500 años antes, lo que hace un total de 3.000 años. Sobre el año 1.000 a. C., por aquí estábamos muy ocupados disfrutando de nuestra última innovación tecnológica: el hierro.

Pero la mala noticia es que una civilización con un enjambre de Dyson tendría a su disposición los aproximadamente 1.000 cuatrillones de vatios de su estrella (10^27); serían como esos tuneros que abren el maletero y ponen música a toda la comarca.

Finalmente, la buena noticia, o más bien el único consuelo, es que los investigadores del SETI no se dan por vencidos y continuarán vigilando la estrella WTF. Y que, esperemos que más pronto que tarde, otros científicos descubrirán cuál es el fenómeno (natural) que está tapando parte de la luz de la estrella, y seguro que se tratará de un sorprendente hallazgo astronómico. Pero por el momento, ET sigue sin llamar, lo que por desgracia es otro punto más para quienes defienden la hipótesis pesimista de que tal vez no haya nadie más ahí fuera.

Como consuelo, para este domingo les dejo aquí la historia sobre el hombre de las estrellas que envía su mensaje por radio a la Tierra: Starman, del gran David Bowie.

La OMS, los medios y el público montan la feria de la carne

Parafraseando a Eslava Galán, esta es una historia de la carne que no va a gustar a nadie. El insólito circo de las salchichas, el beicon y el chuletón, que tal vez se convierta en un modelo para analizar en los cursos de periodismo de ciencia, es el resultado de una desafortunada concatenación de circunstancias en la que cada parte ha cumplido su obligada función, pero con graves defectos. Son estos defectos los que han inflado la carpa del circo de un modo que no sucedió por ejemplo en 1992, cuando el mismo organismo de la OMS incluyó la luz del Sol en el mismo Grupo I de carcinógenos al que ahora pertenece la carne procesada, ni en 2012, cuando se ratificó este dictamen. La función de este periodista de ciencia, seguro que también con sus defectos, es explicarlo. Y a ello voy.

Imagen de Steven Depolo / Wikipedia.

Imagen de Steven Depolo / Wikipedia.

La Agencia Internacional de Investigación sobre el Cáncer (IARC) es la rama de la Organización Mundial de la Salud dedicada a promover la colaboración internacional en el progreso científico del conocimiento del cáncer. Una de sus funciones es mantener reuniones periódicas en las cuales se revisa y se estudia la bibliografía científica respecto a los factores de riesgo. En función de los resultados derivados de estas investigaciones, la IARC encaja dichos factores en una de cinco categorías, desde el Grupo 1, carcinógenos para humanos, hasta el Grupo 4 (el 2 tiene A y B), probablemente no carcinógeno para humanos.

Para empezar a situar las cosas en su contexto adecuado, comencemos con una aclaración. ¿Imaginan cuántas sustancias comprende el Grupo 4, el supuestamente inofensivo?

Una.

La caprolactama, un intermediario en la fabricación del náilon, es la única sustancia analizada sobre la cual la IARC ha valorado que probablemente no es cancerígena para los humanos.

Es importante también precisar que hoy no existe ninguna prueba científica adicional sobre la posible carcinogenicidad del consumo de carne que no existiera ayer. Simplemente la IARC ha hecho su trabajo, reunirse (en este caso en Lyon, Francia), presentar, discutir y votar. El material considerado comprendía más de 800 trabajos en los que se ha investigado la correlación entre el consumo de carnes y la aparición del cáncer, y que se han ido publicando a lo largo de décadas. Hoy no toca insistir en ese mantra repetido con frecuencia en este blog: correlación no implica causalidad. Siempre con este principio ineludible en mente, la revisión de 800 estudios es casi lo más que uno puede acercarse a encontrar un apoyo científico para una hipótesis epidemiológica.

Cuando la IARC resuelve que existen suficientes indicios científicos consistentes para clasificar una sustancia o factor como carcinogénico, por mínimo que sea el aumento de los cánceres asociado a ese elemento, tiene la obligación lógica de clasificarlo dentro del Grupo 1. En el caso de la carne procesada, y según el resumen publicado en la revista The Lancet Oncology, se detectó una asociación positiva entre el consumo y la aparición de cáncer colorrectal en 12 de 18 estudios, mientras que para la carne roja solo se encontró esta correlación en aproximadamente la mitad de los ensayos revisados. En la votación, una mayoría de los 22 miembros del Grupo de Trabajo decidió incluir la carne procesada en el Grupo 1, mientras que las pruebas relativas a la carne roja se consideraron insuficientemente concluyentes, por lo que se asignó al Grupo 2A.

Hasta aquí, nada que objetar. Pero a continuación vienen los problemas.

En primer lugar, la IARC emite una nota de prensa sin haber publicado aún la monografía en la que detallará todos los resultados. El resumen aparecido en The Lancet Oncology es claramente insuficiente, ya que solo incluye un comentario general sin presentar los datos, la metodología empleada y sus resultados. Por lo tanto, ninguno de los expertos consultados estos días por los medios puede juzgar por sí mismo los resultados epidemiológicos bajo la imprescindible premisa científica del rigor.

En segundo lugar, la nota de prensa, difundida tanto en la web de la OMS como en la de la IARC, y distribuida convenientemente en varios idiomas, es una completa aberración. Bajo un titular que no comunica absolutamente nada (El Centro Internacional de Investigaciones sobre el Cáncer evalúa el consumo de la carne roja y de la carne procesada / Monografías de la IARC evalúan el consumo de la carne roja y de la carne procesada), la sensación inevitable es que alguien buscaba un ascenso al incluir entre los primeros párrafos la siguiente frase:

Los expertos concluyeron que cada porción de 50 gramos de carne procesada consumida diariamente aumenta el riesgo de cáncer colorrectal en un 18%.

Inevitablemente y de forma inmediata, los medios y la gente han echado cuentas: 50 gramos de carne al día, un 18% de riesgo de cáncer colorrectal. Por lo tanto, 100 gramos, un 36%. Y en consecuencia, si consumimos diariamente algo más de un cuarto de kilo de salchichas, tenemos una certeza absoluta del 100% de irnos al otro barrio a causa del cáncer.

Lo gritaría si esto fuera un videoblog, pero por desgracia ni siquiera puedo aumentar el tamaño de la tipografía.

¡¡¡¡¡¡¡¡¡¡¡¡¡NOOOOOO!!!!!!!!!!!!!!!!

Un aumento del 18% sobre el riesgo de base, si este es ínfimo, es tan solo algo un poco mayor que ínfimo, ligeramente por encima del “multiplícate por cero” de Bart Simpson.

Pero para rematar el despropósito, la nota de la OMS añade las siguientes declaraciones:

“Para un individuo, el riesgo de desarrollar cáncer colorrectal por su consumo de carne procesada sigue siendo pequeño, pero este riesgo aumenta con la cantidad de carne consumida”, dijo el doctor Kurt Straif, Jefe del Programa de Monografías del CIIC.

“Estos hallazgos apoyan aún más las actuales recomendaciones de salud pública acerca de limitar el consumo de carne”, dijo el doctor Christopher Wild, director del CIIC. “Al mismo tiempo, la carne roja tiene un valor nutricional”.

Las declaraciones literales eran en este caso perfectamente prescindibles, ya que no aportan nada de luz sobre el asunto; al contrario, tanto las palabras de Straif como las de Wild son un no, pero sí, sí, pero no.

Esta mañana, una representante española de la OMS prácticamente ha acusado a los medios de “quedarse solo con el titular”. ¿Cuál titular? ¿El de la nota de prensa? Obviamente, no. Pero ante el desastroso comunicado, confuso, contradictorio y alarmista, ningún medio se ha sustraído a hacer lo mismo que estaban haciendo todos los demás: abrir sus páginas, pantallas o minutos con titulares a cuál más bestia: La OMS alerta de que las salchichas son cancerígenas, Las salchichas son tan cancerígenas como el tabaco… Los medios cargan con su cuota de responsabilidad, porque titulares como estos son sencillamente engañosos.

Lo dicen los propios expertos del IARC: el riesgo es muy bajo. El Grupo 1 es como la lista de artículos prohibidos en el equipaje de mano de los aviones. Esta lista prohíbe llevar encima tijeras y bombas nucleares (de hecho, la lista no menciona estas últimas, que yo sepa), pero equiparar el poder mortífero de ambas sería sencillamente una inconmensurable torpeza, cuando no una manipulación interesada.

Para ilustrar un poco más cuán diferentes son las salchichas y el tabaco en el potencial cancerígeno según la definición de la IARC, fijémonos en otros factores de riesgo también incluidos en el mismo Grupo 1 y de los que ningún medio ha dicho ni pío:

La radiación solar (mencionada más arriba).

La polución atmosférica (aclaración: esto significa respirar el aire de las ciudades, no poner la boca en un tubo de escape, que mataría más rápidamente).

Los anticonceptivos orales (la píldora).

Los pescados en salazón, como el bacalao.

El serrín.

La terapia de estrógenos en la menopausia.

Las camas de bronceado.

El tamoxifeno, un fármaco que, curiosamente, se emplea en los tratamientos contra el cáncer de mama y que figura en la lista de medicamentos esenciales de la propia OMS.

O la exposición ocupacional de los pintores, alquitranadores, zapateros y muchos otros profesionales de varias industrias.

Por último, en esta función circense no puede soslayarse la reacción del público. Si contáramos con una mayor cultura científica, tendríamos algo más de juicio mesurado y fundamentado en lugar de, como se ha hecho en Twitter y en los comentarios en los medios, sacar los tridentes y las antorchas contra la OMS, que primero nos trajo el ébola y ahora quiere quitarnos el beicon. La OMS se ha convertido en el blanco de un pimpampum injustificado: se criticó tanto su excesiva reacción ante la gripe A o el SARS como su falta de reacción en la crisis del ébola. El verdadero problema de la OMS es que su credibilidad se ve dañada no tanto por defectos de función, sino sobre todo de comunicación.

Añado un apunte para quienes ahora aprovechan el río revuelto con vistas a ensalzar las (algunas indudables) virtudes de la dieta mediterránea frente a la malignidad de la carne. Uno de los componentes responsables del riesgo cancerígeno de la carne es el nitrito, que reacciona con las aminas formando nitrosaminas, potentes carcinógenos. Pues bien, ¿adivinan cuál es la principal fuente de nitritos de nuestra dieta? No es la carne, sino los vegetales y la fruta, que aportan hasta el 80%. Y la formación de nitrosaminas a partir de los nitritos de la dieta ni siquiera tiene que deberse a la cocción, ya que la reacción se produce espontáneamente en el medio ácido del estómago. Y ¿qué hay del pescado?, se preguntarán. El proceso de cocinado del pescado produce, como el de la carne, aminas heterocíclicas (AHC), también carcinógenas. Aún más: el pescado contiene más AHC que el cerdo o las salchichas. Y cómo no, el pescado ahumado contiene hidrocarburos policíclicos, también cancerígenos.

¿Es que no se puede comer nada que no dé cáncer?, se preguntará alguien. En 2013 John Ioannidis, profesor de la Universidad de Stanford que hace unos años convulsionó el mundo de la ciencia al demostrar la falsedad de muchos estudios basados en correlaciones estadísticas, decidió elegir al azar 50 ingredientes comunes de un libro de cocina y revisar la literatura científica buscando su posible relación con el cáncer. Los resultados mostraron que 40 de los 50 ingredientes se habían relacionado de alguna manera con el cáncer, para bien o para mal; Ioannidis y sus colaboradores denunciaban la debilidad de los datos en la mayor parte de los casos, y una conclusión evidente era la obsesión de ciertos investigadores por encontrar vínculos cancerígenos que aseguran una publicación e incluso tal vez un titular en algún medio. Un editorial que acompañaba al estudio decía: “Parece, entonces, que según la literatura publicada casi todo lo que comemos está de hecho asociado al cáncer”.

Y para terminar de poner todo esto en perspectiva, no puedo evitar citar un dato relativo a la referencia que pone el listón más alto del riesgo cancerígeno, el gran satán del cáncer: el tabaco. No cabe duda de que fumar es enormemente perjudicial y un importante factor de mortalidad. Pero incluso la incidencia del cáncer de pulmón entre los fumadores se sitúa, dependiendo de las diferentes estadísticas, como mucho en un 20%. En otras palabras, la realidad es esta:

La gran mayoría de los fumadores NO desarrollarán cáncer de pulmón.

Pues prepárense, y ya les aviso: en mayo del año que viene, el IARC se reunirá de nuevo, en esta ocasión para valorar el riesgo cancerígeno del café, el mate y otras bebidas calientes. Así que vayan bebiendo, ahora que aún pueden.

¿Cómo estiró el cuello la jirafa?

Siete vértebras cervicales. Esta es la ley que usted debe respetar si desea ser un mamífero. A menos que sea un perezoso; no de los que se quedan hasta el mediodía en la cama, sino de los que tienen dos o tres dedos y viven en el trópico americano.

Jirafa masái en el Parque Nacional de Nairobi (Kenya). Imagen de Javier Yanes.

Jirafa masái en el Parque Nacional de Nairobi (Kenya). Imagen de Javier Yanes.

El elegante y flexible cuello de los cisnes esconde una cadena de 22 a 25 vértebras cervicales. Entre los animales que llevamos una columna vertebral a nuestras espaldas existe una gran variedad de opciones respecto al número de huesos cervicales.

Pero no en los mamíferos.

Solo manatíes (seis), perezosos de dos dedos (Choloepus, de cinco a siete) y de tres dedos (Bradypus, ocho o nueve) se permiten el lujo de rebelarse contra lo que para el resto es una ley obligatoria: siete vértebras cervicales. Dejando de lado las glándulas mamarias, más o menos evidentes según la especie, desde el delfín a la jirafa y desde Danny de Vito a Audrey Hepburn, el de las siete vértebras cervicales es uno de los pocos rasgos comunes y exclusivos de (casi) todos los mamíferos.

Pero ¿por qué? Cuando existe una característica tan conservada entre los muy diferentes descendientes de un abuelo común, los biólogos evolutivos suelen ver en ello la pistola humeante de un rasgo VIP, uno tan esencial que ha navegado a través de la evolución sin sufrir ninguna perturbación, como un ministro atraviesa los controles de los aeropuertos sin que nadie le despeine. Pero dado que la extraña atracción de los humanos hacia este número (días de la semana, mares, colores o enanitos) no parece suficiente justificación para necesitar siete vértebras y no seis u ocho, debía de haber algo más.

Ese algo más reside en lo que se llama pleiotropía, término de origen griego que viene a significar algo así como “varias respuestas”. Los genes pleiotrópicos son aquellos que controlan varios rasgos o funciones aparentemente no relacionados entre sí. El número de vértebras cervicales depende de unos genes llamados Hox que son esenciales para desarrollar el plan general anatómico del cuerpo en el eje cabeza-cola. En genética del desarrollo, decir Hox es hablar de una de las cajas fuertes del genoma, un reducto inviolable que protege algunos de nuestros genes más esenciales.

Se entiende entonces que las mutaciones en los genes Hox son fatales: producen defectos en el desarrollo y en el sistema nervioso, así como cánceres muy tempranos. Los errores en los Hox alteran el número de vértebras cervicales, pero esto de por sí no sería necesariamente letal si no fuese por el resto de daños que provocan estas mutaciones. Los datos indican que hasta el 7,5% de todos los embriones humanos llevan un número equivocado de vértebras cervicales, y por tanto mutaciones en los Hox. Muchos de ellos mueren antes de nacer; los defectos en los Hox son los responsables de un buen número de abortos espontáneos cuando hay anomalías anatómicas. El resto suelen fallecer antes de alcanzar la edad reproductiva.

La coautora del nuevo estudio Melinda Danowitz sostiene una vértebra de jirafa. Imagen de NYIT.

La coautora del nuevo estudio Melinda Danowitz sostiene una vértebra de jirafa. Imagen de NYIT.

¿Qué hay de los perezosos y los manatíes? Las investigaciones apuntan que estos animales parecen evitar los perjuicios de la rebeldía cervical gracias a su lento metabolismo, que por ejemplo les protege del desarrollo rápido de cánceres agresivos. Curiosamente, y si la hipótesis es correcta, la lentitud de estos animales es precisamente lo que los mantiene vivos: live fast, die young.

Con todo lo anterior, el caso de la jirafa resulta asombroso. Frente a la enorme flexibilidad del cuello del cisne, quien haya visto una jirafa bebiendo agua de una charca ha podido comprobar lo complicado que es acercar la cabeza al suelo bajo la tiranía de las siete vértebras. La solución de la jirafa para tener un cuello largo sin violar la ley fue alargar sus vértebras, pero a costa de una rigidez que la obliga a despatarrarse aparatosamente para poder beber. La pregunta entonces es: ¿qué necesidad había de un cuello tan largo?

La respuesta es que, en el fondo, nadie lo sabe con absoluta certeza. Se supone, y siempre se ha supuesto, que el cuello de rascacielos ha proporcionado a la jirafa el acceso a un estante del supermercado natural al que nadie más llega desde el suelo; estos animales se alimentan de las hojas de las copas de las acacias, y la evolución los ha dotado además de una lengua dura para evitar los pinchazos de las espinas de estos árboles. Otra teoría atribuye el largo cuello de las jirafas a una ventaja en el combate con fines reproductivos. Pero sea cual sea el motivo, y a pesar de que la prueba del éxito evolutivo siempre la tenemos en la mera existencia del animal en cuestión, el cómo y el porqué del cuello de la jirafa continúa siendo materia de especulación.

Un nuevo estudio viene a aportar algo de claridad al cómo. Un equipo de investigadores de la Facultad de Medicina Osteopática del Instituto Tecnológico de Nueva York ha estudiado la tercera vértebra cervical (C3) en 71 especímenes de dos especies actuales y nueve extintas de la familia de las jirafas. Comparando todos estos huesos, los científicos han podido trazar la evolución de este hueso desde el Canthumeryx, el primer jiráfido que vivió hace 16 millones de años, hasta las jirafas actuales.

Ilustración del 'Samotherium', el primer jiráfido. Imagen de Apokryltaros / Wikipedia.

Ilustración del ‘Samotherium’. Imagen de Apokryltaros / Wikipedia.

Los resultados del estudio, publicado en la revista Royal Society Open Science, muestran que el primer antepasado de las jirafas ya tenía un cuello ligeramente largo, pero el verdadero estirón comenzó hace unos siete millones de años en una especie extinguida llamada Samotherium. Curiosamente, este animal solo elongó la porción de la vértebra más próxima a la cabeza. El crecimiento de la parte trasera, la que mira hacia el cuerpo, no se produjo hasta hace un millón de años, ayer mismo en el reloj evolutivo. Las jirafas actuales son los representantes más cuellilargos de la familia porque son los únicos que han adoptado las dos fases del alargamiento vertebral. De hecho, el único primo hoy vivo de la jirafa, el okapi de África central, sufrió un acortamiento después de la primera etapa.

Así pues, dos especies de la misma familia, okapi y jirafa, siguieron caminos evolutivos divergentes. Curiosamente, el primero vive en selvas donde existe abundante alimento vegetal a todas las alturas, mientras que la segunda habita en las sabanas donde predominan la hierba y los árboles dispersos, y donde un cuello largo sí puede representar una ventaja entre las grandes poblaciones de herbívoros que compiten por el sustento. Y también curiosamente, son las dos únicas especies supervivientes de lo que antes fue una gran familia. Está claro que la evolución no da puntadas sin hilo.

El Nobel de Química se pone al día con los deberes atrasados

No puedo negarlo: a uno se le queda cierta cara de escalera de color cuando un premio Nobel distingue hallazgos que ya figuraban en los libros de texto en los remotos tiempos del siglo XX en que a uno aún le salían espinillas.

Imagen de la Fundación Nobel.

Imagen de la Fundación Nobel.

Como ya he reflejado aquí anteriormente, la apuesta de un servidor iba para Emmanuele Charpentier y Jennifer Doudna, autoras de la tecnología de edición genómica CRISPR/Cas-9, un sistema molecular descubierto en bacterias que sirve para corta-pegar fragmentos de ADN y que promete innumerables aplicaciones desde la investigación básica a las terapias avanzadas. Charpentier y Doudna han merecido ya varios premios, incluyendo el Princesa de Asturias de Investigación 2015, y figuraban también en la quiniela de Thomson Reuters como favoritas para el Nobel (quiniela que, por cierto, este año no ha dado una a derechas).

La tecnología CRISPR/Cas-9 es hasta ahora el mayor avance de este siglo en biología molecular. Tan nuevo que aún está dando sus primeros pasos, en los que surgen nuevas maneras de aplicarlo, variaciones y mejoras al sistema. Tan nuevo que existe una disputa sobre la patente entre los equipos de Doudna y Charpentier y el investigador de Harvard Feng Zhang, el primero que lo aplicó en células humanas y que, para esquivar el embrollo, ha introducido una nueva alternativa a Cas-9 llamada Cpf1.

El sistema CRISPR merecerá un Nobel, no cabe duda. En su día, lejano él. Porque es evidente que el comité de los premios suecos no se distingue precisamente por andar a la última. Sus miembros prefieren los hallazgos ya reposados y consolidados, que han demostrado su relevancia larga y sobradamente sin posibilidad alguna de refutación. Y es probable que la disputa sobre la patente también haya aconsejado esperar para poder valorar el hallago biotecnológico del siglo con un poco más de perspectiva. Y para saber a quién atribuírselo.

El problema es que en ocasiones el reconocimiento llega tan tarde que los galardones se convierten más bien en homenajes a toda una trayectoria de venerables investigadores ya retirados. O en otros casos parece que el comité concede premios escoba, dicho con todo el respeto, en el sentido de recoger los hallazgos que quedaron atrás y que en su día no fueron reconocidos. Es decir, ponerse al día con los deberes atrasados.

Este último es el caso del Nobel de Química de este año 2015. El sueco Tomas Lindahl (actualmente en el Instituto Francis Crick y Laboratorio Clare Hall de Hertfordshire, Reino Unido), el estadounidense Paul Modrich (Instituto Médico Howard Hugues y Universidad de Duke) y el turco Aziz Sancar (Universidad de Carolina del Norte, EE. UU.), premiados “por sus estudios de los mecanismos de reparación del ADN”, aportaron los hallazgos merecedores del premio hace ya décadas, en los años 70 y 80 del pasado siglo.

Nada de lo cual resta importancia a los descubrimientos de los tres investigadores. Mientras escribo estas líneas, y ustedes las leen, millones de células de nuestros cuerpos están fotocopiando su ADN para preparar la división celular. Y vigilando este proceso están los mecanismos de reparación para asegurar que el original se mantenga en buen estado, que no se deteriore con defectos que lo dejarían inservible, y que la copia sea fiel al original para evitar las mutaciones que podrían provocarnos un cáncer.

Se trata de hermosos prodigios de la evolución que nos protegen, por ejemplo, de los daños de la luz solar ultravioleta o de los carcinógenos que entran en nuestros cuerpos a diario, y sin los cuales la vida sería imposible. La investigación sobre estos mecanismos prosigue hoy, con el objetivo de dominar su poder para devolver al redil a las células rebeldes del cáncer. Ya existe algún fármaco destinado no a potenciar, sino a inhibir un sistema de reparación para inducir el colapso total del ADN en las células cancerosas.

Eso sí: cuando lean por ahí algo parecido a “los hallazgos de estos investigadores permitirán curar tal o cual enfermedad”, no contengan la respiración. Han pasado ya décadas desde los hallazgos de estos investigadores, y hasta ahora estos mecanismos de reparación no se han traducido en una vía mayoritaria para atacar dolencias como el cáncer. Y en lo que respecta a la capacidad de manipular el ADN a voluntad y casi con una precisión quirúrgica… ¿he mencionado ya el sistema CRISPR?

Los neutrinos reciben un Nobel… y otro, y otro, y otro

Esta mañana hemos conocido el fallo de la Real Academia Sueca de las Ciencias sobre el Nobel de Física 2015, que ha galardonado al canadiense Arthur B. McDonald y al japonés Takaaki Kajita “por el descubrimiento de las oscilaciones de los neutrinos, que muestran que los neutrinos tienen masa”.

Imagen de Jonathunder / Wikipedia.

Imagen de Jonathunder / Wikipedia.

El de los neutrinos parece ser uno de los campos de la física que más resuena en los medios e interesa al público, y eso que algunos de los descubrimientos más esenciales sobre estas partículas aún están por venir.

Quien primero postuló su existencia fue Wolfgang Pauli, premiado con el Nobel; no por esta especulación teórica, sino por su famoso Principio de Exclusión. Hacia 1930 Pauli estudiaba la desintegración beta, un tipo de radiación emitida por ciertos isótopos favoritos de los bioquímicos como el carbono-14, el fósforo-32 o el tritio (hidrógeno-3). Mientras que la gorda radiación alfa, la del uranio o el plutonio, está compuesta por grandes núcleos atómicos que no atraviesan ni una hoja de papel, la radiación beta es más penetrante por sus partículas pequeñas, electrones o positrones, clásicamente llamados partículas beta.

A diferencia de la alfa, con la radiación beta ocurría algo extraño, y es que su espectro de energía es continuo, sin saltos; algo incongruente con el hecho de que un electrón tiene una energía discreta. Para explicar cómo se rellenaban esos huecos entre los saltos que deberían observarse, Pauli propuso la existencia de una partícula sin carga eléctrica y con masa muy pequeña. Inicialmente Pauli llamó a este factor “neutrón”, pero el nombre fue asignado simultáneamente a una partícula mucho más pesada del núcleo atómico. Se atribuye al físico italiano Edoardo Amaldi el haber acuñado el término “neutrino” casi como una italianización humorística de un neutrón más pequeño, y fue Enrico Fermi quien comenzó a popularizar este nombre.

La demostración de la existencia del neutrino tuvo que esperar 26 años, hasta 1956. Y la distinción del hallazgo con un premio Nobel aún debió esperar 39 años más, hasta 1995. Por entonces uno de sus dos autores, Clyde Cowan, ya había fallecido, por lo que el galardón fue para el otro, Frederick Reines. Sin embargo, otro Nobel para los neutrinos ya se había adelantado en 1988. Aquel año Leon Lederman, Melvin Schwartz y Jack Steinbergen recibieron el galardón por la demostración en 1962 de que existía más de un tipo de neutrino. Al neutrino electrónico o electrón neutrino descubierto por Cowan y Reines, los tres premiados en 1988 habían añadido un segundo “sabor”, el muón neutrino o neutrino muónico, que en el campo teórico antes de su demostración había recibido el también humorístico nombre de “neutretto“. El tercer sabor, el tauónico, no llegaría hasta 2000.

Los neutrinos quedaron así caracterizados como partículas sin carga que prácticamente no interactúan con las demás y que por lo tanto atraviesan cualquier materia, incluidos nosotros, sin sufrir alteración. Lo cual implica también que son muy difíciles de detectar. Según el Modelo Estándar de la física de partículas, los neutrinos no debían tener masa. Pero algo comenzó a levantar la sospecha de que no era así.

Buscando un tema interesante al que dedicarse, Raymond Davis Jr. construyó algunos de los primeros rudimentarios detectores de neutrinos con el fin de pescar esta esquiva partícula. En los años 60, Davis situó un tanque lleno de tetracloroetileno, el líquido de las tintorerías, en el fondo de una mina de Dakota. Con este experimento el físico logró por primera vez detectar neutrinos solares, algo que le valdría el Nobel en 2002 junto con el japonés Masatoshi Koshiba, el primero que detectó neutrinos cósmicos procedentes de una supernova desde el detector japonés Kamiokande; tercer Nobel para los neutrinos.

Sin embargo, el experimento de Davis dejó un problema pendiente: el número de neutrinos detectados era mucho menor del previsto según los modelos solares, algo que después corroboraron otros detectores. La incógnita quedaría pendiente de resolución durante décadas; pero entretanto, el italiano Bruno Pontecorvo elaboró una teoría que finalmente llegaría a explicar el misterio de los neutrinos desaparecidos.

El Observatorio de Neutrinos Sudbury, en Canadá. Imagen de Minfang Yeh, Ph.D.

El Observatorio de Neutrinos Sudbury, en Canadá. Imagen de Minfang Yeh, Ph.D.

Pontecorvo propuso que los neutrinos podían mutar, oscilar entre distintos sabores durante su viaje por el espacio. Esto explicaría que escaparan a los detectores capaces de pescar solo neutrinos electrónicos, pero al mismo tiempo requería que los neutrinos tuvieran masa, distinta para cada uno de los sabores; algo que no estaba contemplado en el Modelo Estándar. La oscilación de los neutrinos comenzó a ganar peso entre los físicos, pero no fue demostrada hasta finales de los 90 y comienzos de este siglo gracias a dos experimentos, el Sudbury en Canadá, liderado por Arthur B. McDonald, y el SuperKamiokande en Japón, dirigido por Takaaki Kajita. En particular, el primero era capaz de detectar todos los tipos de neutrinos. Con ello llegó la demostración de que los neutrinos poseen masa, aunque aún no se sabe cuánto. El hallazgo les ha valido hoy a ambos el Nobel, el cuarto para los neutrinos.

Hasta aquí, la información. Ahora, la opinión. Dejando aparte la aparente afición de la Real Academia Sueca de las Ciencias por premiar todo lo que sepa a neutrino, hay una clásica objeción al formato de los Nobel que se pone de manifiesto en este caso: el modelo del científico solitario y autosuficiente hace décadas que pasó a mejor vida. Con la finalización del Proyecto Genoma Humano a comienzos del presente siglo, muchas voces autorizadas se alzaron reclamando un Nobel para este logro. El problema era: ¿para quién?

Los premios suecos sostienen una fórmula de distinción individual que resulta obsoleta en la compleja ciencia actual, colaborativa y multidisciplinar. Al igual que el Genoma Humano, el Sudbury y el SuperKamiokande son experimentos complejos en los que probablemente han participado cientos de científicos. Recordemos la demostración del bosón de Higgs en el LHC; el Nobel fue para Higgs y Englert, sus teóricos; no habría habido manera de encajar al equipo del LHC en el formato de los premios. Si un equipo de científicos demostrara la evaporación de un microagujero negro creado experimentalmente, Stephen Hawking podría por fin recibir su Nobel. La teoría aún puede ser individual; la experimentación nunca lo es.

E incluso en este supuesto, pueden cometerse injusticias: tal vez Pontecorvo no haya podido recibir el Nobel como teórico de la oscilación de los neutrinos por la sencilla razón de que falleció en 1993. Pero en 2002 hubo un nombre fundamental que se quedó fuera de los premios: John Bahcall, colaborador de Davis y autor del sostén teórico en el que se basó el diseño experimental que llevó a la detección de los neutrinos solares.

Por no recordar los casos en los que un coautor esencial de un trabajo también ha sido excluido; un ejemplo es Rosalind Franklin, la investigadora que produjo los cristales sobre los que se estudió la estructura del ADN. Es cierto que Franklin ya había fallecido de cáncer cuando sus colegas Watson, Crick y Wilkins recibieron el premio; pero cuando hace unos años la Academia Sueca publicó sus archivos, se descubrió que Franklin nunca llegó a estar nominada.

El Nobel de Medicina se acuerda del Tercer Mundo

Ni microbioma, ni plegamiento de proteínas, ni células T reguladoras. El Instituto Karolinska ha llevado la concesión del Nobel de Medicina o Fisiología 2015 por un camino muy diferente a las predicciones de Thomson Reuters que he apuntado esta mañana.

Imagen de Jonathunder / Wikipedia.

Imagen de Jonathunder / Wikipedia.

El premio se ha repartido en dos alícuotas. Una de ellas ha ido al irlandés afincado en EE. UU. William Campbell, investigador emérito de la Universidad Drew, y al japonés Satoshi Ōmura, profesor emérito de la Universidad Kitasato, ambos ya jubilados, por su descubrimiento de las avermectinas, un conjunto de compuestos empleados para tratar enfermedades causadas por gusanos nematodos como la filariasis y la oncocercosis o ceguera de los ríos.

La segunda mitad ha sido para la investigadora china Tu Youyou, profesora de la Academia China de Medicina Tradicional y la primera mujer de aquel país en hacerse con este galardón, por su hallazgo de la artemisinina, una sustancia extraída de una planta que hoy es el tratamiento estándar empleado contra la malaria.

La decisión del comité de los Nobel merece un aplauso por premiar la investigación en enfermedades parasitarias, a menudo olvidada tanto por las compañías farmacéuticas como por los organismos públicos de financiación de la ciencia debido a que afectan predominantemente a los países del Tercer Mundo. El premio puede servir como llamada de atención sobre la necesidad de sostener el progreso en la obtención de terapias contra las dolencias más devastadoras de la humanidad, que continúan siendo las enfermedades infecciosas.

Dicho esto, mi única crítica al veredicto es que estos premios deberían haber llegado antes. La investigadora china Tu (este es el apellido, que figura en primer lugar siguiendo la costumbre de aquel país) descubrió la artemisinina en 1972 a partir del ajenjo chino Artemisia annua, allí llamado Qinghaosu y empleado en la medicina tradicional china. El hallazgo fue el producto de un programa de investigación lanzado por Mao Tse-tung (o Zedong, como se dice ahora) en 1967 para ayudar a sus aliados norvietnamitas durante la guerra contra Estados Unidos. Aunque el compuesto tardó décadas en abrirse paso hasta los circuitos occidentales, a comienzos de este siglo la artemisinina ya era el tratamiento preferente recomendado por la Organización Mundial de la Salud contra la malaria. De hecho, la Fundación Lasker, una de las fuentes en las que suele fijarse el comité de los Nobel, ya concedió su premio a Tu en 2011.

En cuanto a las avermectinas, aisladas de un tipo de bacteria, también fueron descubiertas en la década de los 70. Los Nobel imparten justicia, pero tardan.

Semana de los Nobel: hoy, Fisiología y Medicina

Un año más hemos vivido para llegar a la semana en que se anuncian los premios Nobel. Hoy lunes, en apenas una hora mientras escribo estas líneas, se desvelarán los premiados en la categoría de Fisiología o Medicina. Mañana martes seguirá el de Física, el miércoles el de Química y el viernes el de la Paz. El lunes 12 se declarará el ganador en Economía, y el de Literatura cerrará el elenco en una fecha hoy todavía no determinada.

Imagen de Jonathunder / Wikipedia.

Imagen de Jonathunder / Wikipedia.

Como cada año, el gigante de la comunicación Thomson Reuters ha elaborado sus predicciones sobre los premios de ciencia y economía, que se basan en el volumen de citaciones; es decir, en cuántas veces el trabajo de un científico aparece referenciado en los estudios de otros. Este índice no solo muestra el impacto de un hallazgo en un campo concreto del conocimiento, sino que además revela qué áreas de investigación son en cada momento las más calientes.

Con respecto al premio de Fisiología o Medicina, Thomson Reuters apuesta por tres áreas: microbioma humano, plegamiento de proteínas y células T reguladoras (un componente clave del sistema inmunitario). Investigadores estadounidenses y japoneses acaparan estas nominaciones no oficiales.

En cuanto al primer campo, la comunidad de microbios que cada persona llevamos puesta, y cuyo número supera en diez veces a nuestras propias células, ha demostrado en los últimos años una relevancia crucial más allá de los procesos ya conocidos como la digestión, algo que ya he tratado en este blog. Numerosas investigaciones han demostrado que la salud de nuestro cuerpo es también la salud de nuestro microbioma, y que este despliega conexiones antes insospechadas con múltiples sistemas de nuestra maquinaria corporal, incluyendo el sistema nervioso central. Thomson Reuters ha seleccionado como investigador más citado, y por tanto como candidato al Nobel, al estadounidense Jeffrey Gordon, de la Universidad de Washington en San Luis (Misuri). Entre los hallazgos de Gordon se encuentra la demostración de cómo nuestra flora intestinal influye en la obesidad, una condición que se puede inducir en ratones mediante el trasplante de microbios de personas obesas.

La segunda opción premiaría al japonés Kazutoshi Mori, de la Universidad de Kioto, y al estadounidense Peter Walter, de la Universidad de California en San Francisco. Ambos trabajan en un mecanismo celular llamado respuesta a proteínas desplegadas con posibles implicaciones en varias enfermedades como el alzhéimer o la Enfermedad de Creutzfeld-Jakob (el equivalente humano del mal de las vacas locas). En pocas palabras, la producción de proteínas en la célula pasa por un departamento llamado retículo endoplásmico (RE), una especie de línea de montaje donde las cadenas de aminoácidos se pliegan en las conformaciones espaciales que les permitirán realizar sus funciones.

Mori y Walter han descubierto independientemente que existe un control de calidad, la respuesta a proteínas desplegadas, que se activa cuando una situación de estrés celular causa que se acumulen proteínas mal plegadas. En caso de que la acumulación de productos defectuosos no se pueda corregir, este mecanismo provoca la muerte celular programada por un proceso ya conocido denominado apoptosis, una especie de suicidio de la célula. Mori y Walter ganaron en 2014 el premio Lasker de investigación médica básica, un galardón que suele ofrecer pistas de cara a los Nobel.

Por último, tres candidatos aparecen en la apuesta de Thomson Reuters por su trabajo en células T reguladoras. Se trata de Alexander Rudensky, del Memorial Sloan Kettering Cancer Center (EE. UU.), Shimon Sakaguchi, de la Universidad de Osaka (Japón), y Ethan Shevach, del Instituto Nacional de Alergia y Enfermedades Infecciosas de EE. UU. Los tres estudian un tipo de linfocitos del sistema inmunitario llamados células T reguladoras, cuyas funciones explican innumerables procesos en la fisiología y la patología de nuestra respuesta defensiva, incluyendo las respuestas de inflamación y alergia, así como las enfermedades autoinmunes. En concreto, los investigadores han mostrado la importancia de una proteína reguladora llamada Foxp3.

Dentro de poco más de una hora, la solución. Desde 2002, Thomson Reuters ha pronosticado con éxito la concesión de 37 premios Nobel.

¿Qué ocurrirá cuando puedan resolverse viejos crímenes prescritos?

Existe una película de hace unos años protagonizada por los muy admirables Hilary Swank y Sam Rockwell, y dirigida por Tony Goldwyn, el malo de Ghost. He tenido que recurrir a Google porque no recordaba el título, y poco importa: nada más plano y aburrido que los títulos de las películas de abogados. A esta le pusieron Conviction, en España Betty Anne Waters.

Si no recuerdo mal, Swank interpreta a una camarera y madre que se embarca en el peliagudo empeño de estudiar leyes y convertirse en abogada para liberar de prisión a su hermano (Rockwell), condenado a cadena perpetua por un asesinato del que ella le cree inocente. Me disculpo por el spoiler: al final, y después de una angustiosa carrera por recuperar las pruebas físicas del caso, consigue que su hermano quede exonerado gracias a los tests de ADN, que aún no se habían inventado cuando se cometió el delito.

Retrato robot del asesino de Eva Blanco. Imagen de Guardia Civil.

Retrato robot del asesino de Eva Blanco. Imagen de Guardia Civil.

Ayer conocimos la detención del asesino de la niña Eva Blanco, 18 años después del crimen. La sociedad se ha maravillado, han llovido las felicitaciones a la Guardia Civil y se ha elogiado su incansable trabajo callado durante casi dos decenios en un caso ya frío. Y desde luego que no voy a poner en duda tales merecimientos; pero es capital subrayar –me ciño a las informaciones publicadas– que la resolución satisfactoria del caso no ha sido el producto de 18 años de trabajo, sino solo de uno, el último.

Según cuentan hoy los medios, hace un año el Instituto de Ciencias Forenses de la Universidad de Santiago de Compostela, en colaboración con el Servicio de Criminalística de la Guardia Civil, reanalizó las muestras de ADN halladas en su día en la ropa de Eva. El examen concluyó que los restos biológicos pertenecían a una persona magrebí. Con este dato, la Guardia Civil rastreó el padrón de Algete, seleccionó a los más de 1.000 sospechosos y se fijó en uno que había abandonado la localidad poco después del crimen, pero que aún tenía un hermano viviendo en ese pueblo. A este hermano le practicaron pruebas de ADN, y ¡bingo!

Tal vez alguien se pregunte por qué este análisis de ADN no se realizó hace 18 años. Y la respuesta está en la película de Swank y Rockwell: hace 18 años no podía conocerse el origen geográfico de una persona por su ADN.

Las pruebas forenses de ADN se desarrollaron y comenzaron a aplicarse a la criminología en 1985. Aunque el genoma de todos los humanos es enormemente uniforme, existen pequeñas regiones cromosómicas llamadas minisatélites y microsatélites que varían enormemente entre las personas, pero que son más similares entre los individuos emparentados. Este tipo de análisis es el que se emplea rutinariamente en perfiles de ADN y pruebas de paternidad, y el que probablemente ha servido para pescar al asesino de Eva a partir de la muestra de su hermano.

Pero existe otro tipo de análisis diferente que es mucho más reciente, y que ha podido desarrollarse gracias a iniciativas como el Proyecto Genográfico, lanzado en 2005 por National Geographic y la compañía IBM. Consiste en reunir muestras genéticas de amplias poblaciones humanas y leer las secuencias de dos segmentos concretos, el ADN mitocondrial y el cromosoma Y. El primero se hereda por línea materna y es el ADN rebelde de la célula, el único que no se encuentra en el núcleo sino en las mitocondrias, las centrales energéticas de las células. El segundo se transmite de padre a hijo varón; dado que solo se hereda una copia, su secuencia no se ve alterada por el intercambio de fragmentos entre los pares de cromosomas que se reciben por vías paterna y materna.

En otras palabras: el ADN mitocondrial y el cromosoma Y no varían (o varían poco) dentro de un grupo emparentado, pero sí lo hacen poco a poco en una escala de tiempo histórica, por lo que es posible relacionar secuencias tipo, llamadas haplogrupos, con orígenes étnicos y geográficos concretos. Para ello no solamente fue necesario reunir una extensa colección de muestras, sino además desarrollar herramientas bioinformáticas complejas que permitieran el tratamiento de los datos.

Este tipo de análisis es, supongo, el que ha permitido al Instituto de Ciencias Forenses de Santiago asignar el ADN del sospechoso sin identificar a un haplogrupo originario del Magreb. Y el resto es historia. Así que vaya desde aquí mi felicitación, aunque sea la única, no solo a los magníficos profesionales del Instituto gallego, sino a todos los genetistas de poblaciones, paleoantropólogos moleculares y bioinformáticos que han participado en este progreso científico. Gracias y enhorabuena.

Claro que todo esto tiene un corolario. La semana pasada, un estudio publicado en PeerJ revelaba que cada humano produce, y viaja acompañado por, su propia nube personal de microbios, única e intransferible, compuesta por microorganismos de la piel, la boca y otros orificios corporales. Aunque en principio el hallazgo no sería aplicable a la resolución de un crimen, a no ser que este se produzca dentro de una cámara estéril, el avance ilustra cómo la peculiaridad de que cada uno llevemos puesto nuestro propio reino de microbios –lo que se conoce como microbioma humano– no solo está revolucionando la biología y la medicina, sino que también podría encontrar aplicaciones en la ciencia forense.

Se está avanzando también en otras líneas, como la determinación del fenotipo a partir del genotipo, o los rasgos físicos de una persona conociendo su ADN, y hoy es posible saber en qué región geográfica vivió alguien y qué comía a partir de los isótopos de sus dientes y huesos, algo que se aplicó en la identificación de los restos del rey Ricardo III de Inglaterra.

En resumen, la ciencia avanza en alta velocidad. El problema es que, mientras, la ley viaja en burro. El asesino de Eva podrá recibir lo suyo gracias a que se ha evitado por un par de años el plazo de 20 en el que su crimen habría prescrito. Y no cabe ninguna duda de que dentro de diez años, de veinte y de treinta, la ciencia podrá resolver casos policiales que hoy son callejones sin salida. En países como Estados Unidos, los delitos de asesinato nunca prescriben. Aquí, y a menos que los barandas de turno decidan subirse al tren y hacer algo al respecto, lo más probable y lamentable es que otras muchas Evas quedarán sin recibir justicia.

Diez FAQs sobre la Luna (y el eclipse de este domingo-lunes)

Sin más preámbulos, allá van:

1. ¿Por qué vemos siempre la misma cara de la Luna? ¿Es casualidad?

No es casualidad, sino mecánica celeste. Dos objetos astronómicos que están gravitatoriamente vinculados, como la Tierra y la Luna, tienden con el tiempo a sincronizarse, normalmente solo el objeto menor al mayor. Cuando esto ocurre, una vuelta completa del satélite a su órbita tarda lo mismo que una revolución sobre su eje, por lo que siempre vemos la misma cara de la Luna.

A la izquierda, rotación sincronizada de la Luna por el acoplamiento mareal con la Tierra. A la derecha, lo que ocurriría si no fuera así. Imagen de Stigmatella aurantiaca / Wikipedia.

A la izquierda, rotación sincronizada de la Luna por el acoplamiento mareal con la Tierra. A la derecha, lo que ocurriría si no fuera así. Imagen de Stigmatella aurantiaca / Wikipedia.

2. ¿A qué se deben las fases lunares?

Como sucede si sostenemos una pelota en la oscuridad y la alumbramos con una linterna, tanto la Tierra como la Luna siempre tienen una mitad iluminada por el Sol (excepto en casos de eclipse). Los movimientos relativos de la Tierra y la Luna son los que causan que a lo largo de los días veamos una porción mayor o menor de esa mitad iluminada de la Luna. Este sencillo vídeo lo muestra muy bien (aunque no incluye la rotación de la Luna).

3. ¿Cómo puedo saber si la Luna está en fase menguante o creciente?

Ahí va una regla mnemotécnica facilita: “creciente” empieza por C. Cuando la Luna está en cuarto, puede tener forma de “C” o de “D”. Pues no se fíen de las apariencias, es justo al contrario de lo esperado. Es decir, que cuando la Luna tiene forma de “C” no está en cuarto creciente, sino menguante.

4. ¿Por qué la Luna no me sale bien en las fotos?

Cuando se toma una imagen nocturna con exposición lenta y una apertura de diafragma muy grande (número f pequeño), la Luna está mucho más iluminada que el resto del encuadre, por lo que queda sobreexpuesta en la fotografía y no se aprecian sus rasgos, sino solo una mancha blanca. Hay infinidad de trucos para hacer fotos nocturnas en las que la Luna aparezca tal como la vemos con el ojo desnudo. Uno de los más sencillos es hacer dos exposiciones superpuestas; en la primera tapamos la Luna (un dedo sirve) y capturamos el paisaje. A continuación superponemos una segunda exposición rápida sin tapar la Luna. Esta apenas captará luz del paisaje, pero retratará fielmente la Luna sin sobreexponerla.

5. ¿Es cierto que la gente hace cosas raras cuando hay luna llena, y que hay más partos?

Dado que supuestamente todos sabemos esto, lo más probable es que haya algo de profecía autocumplida; el poder de autosugestión del ser humano es inmenso. Sin entrar en comentario alguno sobre la posibilidad de efectos reales que nadie ha podido demostrar, lo único cierto es que ni siquiera existe prueba significativa de correlaciones mínimamente convincentes. Y cuando no hay pruebas de un efecto, investigar un mecanismo sería una pérdida de tiempo y dinero.

6. ¿De verdad el hombre ha ido a la Luna?

En una ocasión, un astronauta se mostró profundamente indignado y ofendido por el hecho de que haya quienes pongan en duda que él y otros se atrevieron a arriesgar sus vidas por el beneficio común del ser humano, aceptando para ello ser disparados al vacío del espacio en un supositorio metálico con la sola ayuda del equivalente a una calculadora de bolsillo para que les guiara a lo largo de una trayectoria similar al filo de una hoja de papel colocada entre un balón de baloncesto y una pelota de béisbol. Quienes lo ponen en duda merecerían que la vida les prestara la oportunidad de hacer algo verdaderamente grande y que los demás les tomasen por enormes farsantes.

7. Y si es así, ¿por qué no ha vuelto?

Hay dos maneras de responder a esta pregunta, la larga y la corta. Pero como esto es una lista rápida, quedémonos con la corta. Dinero.

Dicho esto, conviene matizar: en realidad el hombre sí volvió a la Luna. A muchos les sobrará la aclaración, pero hay quienes ignoran que tras la Apolo 11 hubo otras cinco misiones lunares más, de la 12 a la 17, exceptuando la 13, que como sabemos tuvo un problema.

8. ¿Qué tiene de especial la luna llena de este domingo?

La luna llena más próxima al equinoccio de otoño se conoce como la luna de la cosecha, ya que antes del invento de la luz eléctrica los labradores podían aprovechar las noches claras para trabajar en la siega o la vendimia.

9. Ya, ya, pero ¿qué más tiene de especial la luna llena de este domingo?

A eso iba. En este caso, la luna de la cosecha coincide con una “superluna”, cuando nuestro satélite está en su perigeo (máxima cercanía a la Tierra), por lo que se verá hasta un 14% más grande de lo normal.

10. Que sí, que vale, pero…

Voy, voy. Además, y esto sí es una rara coincidencia, la superluna coincide con un eclipse total, cuando la Luna cae bajo la sombra de la Tierra. El último eclipse superlunar se produjo en 1982, y el siguiente no llegará hasta 2033. Durante el eclipse, la Luna adquirirá un color rojizo debido a que la escasa luz que recibe durante su travesía por la sombra terrestre le llega distorsionada por la presencia de nuestra atmósfera, por lo que el fenómeno se conoce como “luna de sangre”. Un efecto parecido es el que tiñe el Sol de rojo durante el alba y el ocaso. Desde la Luna, la Tierra aparecerá como un círculo negro rodeado por un aro de fuego. Esa luz rojiza será la que nosotros veremos reflejada en el espejo lunar.

El eclipse tendrá lugar la noche del domingo 27 al lunes 28 y su totalidad podrá contemplarse desde España, Suramérica y parte de Centroamérica. Los americanos lo disfrutarán al comienzo de la noche, mientras que en España deberemos esperar hasta la madrugada. En la Península la fase de totalidad durará desde las 4:11 de la madrugada del lunes 28 hasta las 5:23, con el máximo a las 4:47. Esta web detalla los horarios precisos para cada país y ciudad.

Por si a alguien el horario peninsular del eclipse le resulta demasiado intempestivo (o si las nubes corren el telón), pero no quiere perderse el espectáculo en directo, varias webs retransmitirán el fenómeno desde EE. UU., y por tanto a una hora algo más temprana: NASA (desde las 2 AM, hora peninsular española), el Observatorio Slooh (2 AM) y Sky & Telescope (3 AM).

Martin Shkreli, el ser inhumano

En general, el que suscribe no es muy dado a suscribir. Pero hoy no puedo evitar sumarme a la oleada de repulsa que ha provocado en todo el mundo la información publicada por el New York Times sobre Martin Shkreli, un tipo que ha pasado meteóricamente de ser un desconocido para el público en general, en el que me incluyo, a convertirse en un personaje aborrecido por el público en general, en el que también me incluyo.

Martin Shkreli, durante una entrevista para la cadena CNBC.

Martin Shkreli, durante una entrevista para la cadena CNBC.

El mérito de Shkreli para figurar en el principal diario del planeta Tierra y con ello merecer el desprecio colectivo consiste en dedicarse a la especulación financiera; algo que no sería notoriamente novedoso de no ser porque los bienes con los que especula son fármacos. En esta ocasión, el pasado agosto Shkreli adquirió para su compañía, Turing Pharmaceuticals, los derechos de un medicamento llamado Daraprim (genérico: pirimetamina), empleado para tratar la toxoplasmosis. Seguidamente, Shkreli decidió aumentar el precio del fármaco en más de un 5.500%, de 13,50 dólares la tableta a 750 dólares.

En realidad, la maniobra de Shkreli no resulta sorprendente si se tiene en cuenta el historial previo del personaje. Según informa el NYT, Shkreli destacó anteriormente desde su compañía de hedge funds MSMB Capital cuando fue acusado de manipular los dictámenes de la Agencia de Alimentos y Fármacos de EE. UU. (FDA) en beneficio propio, tratando de bloquear la aprobación de medicamentos a cuyas empresas propietarias le interesaba hundir. Más tarde fundó Retrophin, una farmacéutica en la que inició su práctica de comprar medicamentos olvidados para disparar sus precios. Shkreli fue despedido de esta empresa bajo la acusación de emplear fondos de la compañía para pagar a los inversores de sus hedge funds. Este es su currículum a sus 32 añitos.

El de Shkreli no es un caso aislado, como también señala el NYT, sino que se enmarca en una reciente (y rentable) práctica de varias compañías de adquirir los derechos de medicamentos viejos y de bajo uso para multiplicar sus precios y convertirlos en fármacos de élite. En general suele tratarse de compuestos cuyas patentes ya han expirado, y por tanto existe la posibilidad de disponer de genéricos.

El problema es que la aprobación de un genérico requiere ensayos de comparación con el fármaco original, y tanto Shkreli como otros dedicados a este tipo de especulación aplican un estricto control a la distribución de sus medicamentos para impedir que las compañías de genéricos se hagan con las muestras necesarias. Y por otra parte, si el precio de venta de un fármaco de marca se dispara, los fabricantes de genéricos difícilmente van a encontrar un incentivo para mantener sus precios ajustados a un valor que ya no es el del mercado.

Tras saltar la noticia, Shkreli se ha defendido alegando que se trata de un fármaco de aplicación minoritaria, que incluso con la subida el precio se mantiene por debajo del de otros medicamentos similares, y que los afectados que no pudieran costeárselo lo recibirían gratis. Además, Shkreli afirmó que los beneficios se invertirán en la investigación de tratamientos alternativos contra la toxoplasmosis con menos efectos secundarios. Cabe destacar que Shkreli carece por completo de un historial en el campo de la I+D farmacéutica; su perfil no es el de alguien que crea, sino el de alguien que compra y vende lo que otros han creado.

Obviamente, las alegaciones no se sostienen. En lo que se refiere a la epidemiología de la toxoplasmosis, esta infección es el motivo por el que típicamente se recomienda a las mujeres embarazadas que eviten el contacto con los gatos. El Toxoplasma gondii es un parásito unicelular que en las personas sanas no suele provocar síntomas, pero que puede ser peligroso e incluso letal en pacientes inmunodeprimidos (incluyendo los afectados por VIH, trasplantados y enfermos de cáncer) y en la transmisión materno-fetal.

Quizá lo más curioso es que el toxoplasma es en realidad uno de los parásitos humanos más extendidos del mundo. Una revisión publicada en 2014 en la revista PLOS One estimaba que entre el 30 y el 50% de la población mundial lo posee, en la mayor parte de los casos de forma asintomática. En algunas regiones del planeta la prevalencia es de solo el 1%, pero en otras llega al 100%. Los datos sitúan la prevalencia en España en un 32% entre las mujeres en edad fértil. ¿Hay algún negocio potencialmente más rentable que el de vender algo que podría llegar a necesitar casi la mitad de la humanidad?

Asediado por las críticas, Shkreli –cuya cuenta de Twitter está protegida— ha decidido de momento suspender el aumento de precio, según una entrevista concedida a la cadena NBC en la que aseguró que el precio será “más accesible”, de modo que permita a su compañía obtener “un beneficio muy pequeño”. “Pienso que en la sociedad en la que vivimos hoy es fácil tratar de villanizar a las personas”, añadió Shkreli en un alarde de aleccionamiento moral. El NYT trató de recabar los comentarios de Shkreli, a lo que el especulador respondió en un email: “Creo que nuestra relación se ha terminado”.

Quizá es conveniente subrayar que las maniobras de Shkreli son perfectamente legales. Pero se le podría aplicar lo mismo que a ciertos implicados en delitos de corrupción cuando hacen frente a las cámaras con la siguiente aseveración: “Yo tengo la conciencia muy tranquila”. El error consiste en creer que la conciencia viene de serie en el ser humano, como las orejas. Es evidente que la rectificación de Shkreli obedece simplemente a una estrategia, y no a un arrebato de conciencia. No se puede tener tranquilo algo que sencillamente no se tiene.