Entradas etiquetadas como ‘biología’

Dos ideas infundadas sobre la vida en el universo

Hace unos días, un programa de radio abría una encuesta entre sus oyentes: los acusados en el juicio del proceso catalán, ¿han cometido delito de rebelión o de sedición? Se me ocurrió pensar: ¿cómo osaría yo pronunciarme sobre semejante cosa? Para mí tanto podrían haber cometido rebelión o sedición como allanamiento, estupro, brujería, phishing, bullying, mobbing, coworking, spinning, o nada de lo anterior. Pero sí, los oyentes osaban. Y la encuesta no distinguía entre expertos en leyes, que los habría, o en ebanistería húngara medieval.

Y si esto se aplica a algo completamente artificial y construido por el ser humano como son las leyes, ¿cómo no va a aplicarse a algo como la naturaleza, que no hemos hecho nosotros, sino que nos limitamos a intentar comprenderla, y sobre la cual aún ni siquiera podemos estar seguros de si es más lo que sabemos o lo que nos falta por saber? Sin embargo, también en esto hay cuestiones en las que todo el mundo osa.

Un ejemplo: la existencia de vida alienígena.

En concreto, la opinión más extendida dice que la vida tiene que ser algo muy común en todo el universo. Si ha surgido en la Tierra, ¿por qué no en cualquier otro lugar, dado que el nuestro no tiene por qué ser en ningún sentido un planeta excepcional? La vida es algo inevitable, dicen muchos, allí donde puede darse. Y esto, curiosamente, a pesar de que en realidad el argumento no viene avalado por ninguna prueba que conozcamos hasta ahora.

Es más: en la Tierra la vida ha sido inevitable… solo una vez a lo largo de más de 5.000 millones de años. Pero la biología no es una carrera de caballos, donde las apuestas se cierran una vez que se da la salida. Si es tan inevitable, ¿por qué no se ha producido cientos, miles o millones de veces? (Nota: sabemos por diferentes pruebas que todos los seres terrícolas que conocemos proceden de un único antepasado común; es decir, que la vida en la Tierra solo ha surgido una única vez).

Ilustración artística de la superficie del exoplaneta TRAPPIST-1f. Imagen de NASA / JPL-Caltech.

Ilustración artística de la superficie del exoplaneta TRAPPIST-1f. Imagen de NASA / JPL-Caltech.

Pero un momento: ¿no son los propios científicos quienes han defendido reiteradamente esta omnipresencia de la vida? Así que no se trata solo de la opinión de los expertos en ebanistería húngara medieval.

En efecto, es cierto. Tradicionalmente, el interés en la posible existencia de vida alienígena fue un campo impulsado sobre todo por físicos y matemáticos. Dado que aún no conocemos vida alienígena y no pueden existir expertos en algo que no conocemos (y que la astrobiología se inventó mucho más tarde), parecía razonable preguntar a los expertos en conjeturas, como los físicos y los matemáticos. Y si nos atenemos a las conjeturas, parece mucho más probable que el nuestro sea un planeta normal en el que ha surgido la vida normalmente, según dicta el principio de mediocridad: una cosa elegida al azar de entre muchas tiende a un perfil promedio de esas muchas.

Pero hay algo que ha enturbiado el debate: durante décadas ha existido un cierto pudor intelectual en torno a la posible excepcionalidad de la Tierra y de la vida terrestre. Para algunos, reconocerle a la Tierra un carácter extraordinario sería como hacer una concesión al diseño inteligente, mientras que para otros supondría aceptar el principio antrópico, que el universo existe porque nosotros estamos aquí para observarlo.

Sin embargo, si por algo debe distinguirse la ciencia es por no dejarse condicionar por esquemas ideológicos preconcebidos (o ni siquiera intelectuales): si las observaciones revelan que ciertas constantes del universo, que en principio podrían tomar cualquier valor, parecen extrañamente ajustadas a los valores precisos que permiten la existencia del propio universo, de la materia y de la vida, no puede negarse el hecho simplemente porque pueda dar cierta cancha al creacionismo y al diseño inteligente. Si se oyen ruidos en el sótano y no hay nadie allí, negar los ruidos solo porque uno no cree en fantasmas es tan absurdo como atribuirlos a fantasmas antes de haber descartado absolutamente todas las posibles explicaciones no sobrenaturales. En el caso del ajuste fino del universo, lo más obvio es manejar la hipótesis del multiverso: de todos los universos surgidos, solo aquellos en los que esas constantes han tomado por azar ciertos valores concretos son los que prosperan.

Algo similar ocurre con la aparición de la vida: aunque sin duda aún es pronto para hablar de un cambio de tendencia, lo cierto es que cada vez parecen ser más los científicos que comienzan a abandonar el principio de mediocridad para apoyar la hipótesis contraria, que la Tierra es un planeta más excepcional de lo que sospechábamos. Y que, como quizá ocurra con todos los universos del multiverso, solo en esos raros planetas excepcionales como la Tierra, donde por puro azar se ha producido un afortunado jackpot de numerosas variables independientes entre sí, puede haber surgido la vida.

Recientemente he ido contando algunos de esos estudios que apoyan la excepcionalidad de la Tierra. Hace ya más de una década, quienes nos dedicamos a esto escribíamos que era inminente el momento en el que se encontraría un planeta gemelo del nuestro. Pero el tiempo no ha dado la razón a esta idea, sino que aún seguimos esperando: de los más de 4.000 exoplanetas ya conocidos, ni uno solo parece ser la versión 2.0 de la Tierra.

Es más, ninguno de ellos parece reunir todas las condiciones que hasta ahora se han planteado como las adecuadas para la presencia de vida, al menos vida compleja: el único que podría tener un campo magnético potente como el nuestro, Kepler-186f, necesitaría niveles letales de CO2 para mantener una temperatura habitable, como concluía un estudio que conté hace unos días. Aunque probablemente el gemelo terrestre acabará apareciendo tarde o temprano, no será un planeta mediocre, sino uno tan excepcional como el nuestro, único entre miles.

Representación artística de Kepler-186f. Imagen de NASA Ames/SETI Institute/JPL-Caltech.

Representación artística de Kepler-186f. Imagen de NASA Ames/SETI Institute/JPL-Caltech.

Como ya he explicado aquí, esas condiciones de habitabilidad que van proponiendo diversos estudios son ya bastante numerosas. Ahora se añade una más: si solo recientemente ha comenzado a apreciarse que no basta con lo que hay en su superficie para hacer a un planeta habitable, sino que también intervienen su estructura y composición interiores y la historia de su evolución, un nuevo estudio viene a añadir que tampoco basta simplemente con las características del propio planeta, sino que es toda la configuración de su Sistema Solar la que debe ser adecuada para que se produzca esa rara conjunción de factores necesarios para la vida.

El estudio, que según ha anunciado el Instituto SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre) se publicará próximamente en la revista The Astronomical Journal, detalla los resultados de la mitad de las observaciones que el instrumento Gemini Planet Imager (GPI), perteneciente al telescopio Gemini South en Chile, ha recogido durante cuatro años. Este rastreo ha buscado planetas gigantes como Júpiter o Saturno en 531 estrellas cercanas y jóvenes. Para sorpresa de los investigadores, los datos muestran que estos planetas gigantes en torno a estrellas similares al Sol son más raros de lo que se pensaba.

Y respecto a lo que puede concluirse del estudio, esto es lo que dice su coautor Franck Marchis, del Instituto SETI: “Sospechamos que en nuestro Sistema Solar Júpiter y Saturno esculpieron la arquitectura final que influye en las propiedades de los planetas terrestres como Marte y la Tierra, incluyendo los elementos básicos para la vida como el transporte de agua y las tasas de impactos [de asteroides]”.

Y añade: “Un sistema planetario con solo planetas terrestres y sin planetas gigantes será probablemente muy diferente al nuestro, y esto podría tener consecuencias sobre la posibilidad de la existencia de vida en algún otro lugar de nuestra galaxia”.

En otras palabras: los datos llevan a Marchis a admitir la posibilidad de que tal vez la vida sea un fenómeno muy raro en la galaxia, si lo habitual en otros sistemas estelares es que no exista ese equilibrio entre planetas terrestres (rocosos) interiores y gigantes gaseosos exteriores que en nuestro sistema ha propiciado la arquitectura correcta y los procesos que han dependido de ella, como el transporte de agua a la Tierra. No está de más mencionar que Marchis trabaja en un instituto cuya razón de ser es precisamente la búsqueda de inteligencia extraterrestre, así que no puede decirse que le mueva el interés de demostrar que no existe la vida alienígena. Pero los datos son los datos.

En resumen, la idea de que la Tierra es un lugar mediocre como cualquier otro del universo está comenzando a pasar para muchos científicos de simple conjetura infundada a hipótesis refutada por los datos.

Pero respecto a la vida alienígena siempre se apunta una coletilla, y es la existencia de vida “tal como la conocemos”. Por supuesto, creer que cualquier forma de vida deba ser parecida a las terrestres sería terracentrismo. Hace unos días daban en la 2 de TVE una de las películas más extrañas de ciencia ficción (si así puede llamarse) que he visto, en la que sendos dobles alienígenas de Juan y Junior, cantantes españoles de los años 60 y 70, suplantaban a los originales como primer paso de una invasión y colonización a gran escala. El exoplaneta de la película era tan idéntico a la Tierra que incluso sus habitantes humanos eran dobles exactos de los terrícolas.

Y por supuesto, si por el contrario la vida alienígena es muy diferente de la terrestre, también podrían serlo las condiciones que para ella resultan habitables. ¿No?

Pero lo cierto es que esta es la segunda idea infundada de quienes defienden un universo lleno de vida. Para que la vida pueda llamarse vida, tiene que cumplir una serie de requisitos mínimos que diferencian a algo vivo de algo que no lo está, como una piedra. Y tanto las opciones disponibles como las condiciones que las permiten están limitadas; en biología no todo vale. Como veremos mañana.

Muchos planetas “habitables” tienen niveles de gases tóxicos incompatibles con la vida compleja

Hace unos días contaba aquí que, frente al optimismo de muchos sobre cuándo un planeta puede considerarse habitable, las aportaciones de científicos de diversas disciplinas han reducido bastante esa supuesta franja de habitabilidad. Ya no se trata solo de que un exoplaneta, además de tener un suelo rocoso y una atmósfera, se encuentre a la distancia apropiada de su estrella como para que su superficie no sea ni ardiente ni gélida y pueda existir agua en forma líquida, lo que se conoce como la zona “Ricitos de Oro” (por la niña del cuento que no quería la sopa muy caliente ni muy fría).

A esta condición básica, distintos expertos han añadido como requisitos para la vida la existencia de un campo magnético, un nivel de radiación moderado, una rotación no sincrónica, la presencia de una química precisa, una evolución inicial favorable, una dinámica tectónica activa y un ciclo sostenible de carbonatos-silicatos. Recientemente un análisis de los datos de los exoplanetas rocosos conocidos estimaba que solo uno, Kepler-186f, podría tener un campo magnético potente; lo que, de ser cierto, enfría bastante las esperanzas de que alguno de los planetas ya descubiertos pueda albergar vida, o al menos vida compleja.

Ilustración del sistema TRAPPIST-1. Imagen de NASA/JPL-Caltech.

Ilustración del sistema TRAPPIST-1. Imagen de NASA/JPL-Caltech.

Ahora, un nuevo estudio viene a recortar aún más las posibilidades de vida compleja en los exoplanetas. Investigadores de varias instituciones de EEUU, incluyendo la NASA, se han planteado la siguiente cuestión: nuestro propio planeta depende de un potente efecto invernadero creado por el dióxido de carbono (CO2) para mantener temperaturas compatibles con la vida. También en lo que se refiere al CO2 hay una zona Ricitos de Oro: Marte y Venus tienen atmósferas compuestas sobre todo por este gas; pero mientras que la de Marte es muy tenue, dando como resultado un planeta gélido, la de Venus es aplastante, con un efecto invernadero catastrófico que convierte a este planeta en el más caliente del Sistema Solar. Y sin embargo, ambos están situados en la zona de habitabilidad del Sol; para un exoastrónomo que nos observara desde la distancia, Venus y Marte serían tan habitables como la Tierra.

El objetivo de los autores del estudio es evitar este error a la hora de valorar la habitabilidad de los exoplanetas. Según cuentan en su trabajo, la definición actual de la zona habitable de un planeta extrasolar contempla la existencia de un efecto invernadero que en buena parte de esa franja requiere concentraciones de CO2 incompatibles con la vida compleja terrestre. Es más, y dado que muchos de los exoplanetas descubiertos orbitan en torno a estrellas enanas rojas –las más abundantes de la galaxia–, los autores añaden que “el tipo y la intensidad de radiación ultravioleta de estas estrellas pequeñas y frías puede conducir a altas concentraciones de monóxido de carbono (CO), otro gas letal”.

Basándose en estos datos, los autores concluyen que en dos de las estrellas más próximas a nosotros y en las que residían buenas esperanzas de hallar vida, Proxima Centauri y TRAPPIST-1, la zona habitable simplemente no existe. En otras estrellas, estos condicionantes reducen seriamente la posible franja de habitabilidad, y dejan fuera de ella a ciertos planetas que parecían también prometedores; por ejemplo, Kepler-186f quedaría en una zona de excesiva toxicidad por CO2, como puede verse en el gráfico.

En esta figura, toda la zona coloreada marca la franja de habitabilidad tal como se entiende tradicionalmente, basada solo en la temperatura de la estrella y en su luz. De toda esta franja, solo la parte azul contiene concentraciones de CO y CO2 compatibles con la vida compleja. Las partes en amarillo y rojo claro señalan respectivamente las zonas con exceso de CO2 y CO, mientras que en la zona de rojo oscuro ambos gases están presentes en concentraciones letales.

Según el director del estudio, Timothy Lions, de la Universidad de California en Riverside, sus resultados indican que “los ecosistemas complejos como los nuestros no pueden existir en la mayoría de las regiones de la zona habitable tal como se define tradicionalmente”. Por su parte, el primer autor del estudio, Edward Schwieterman, dice: “Pienso que mostrar lo raro y especial que es nuestro planeta refuerza la necesidad de protegerlo”. Y añade: “Hasta donde sabemos, la Tierra es el único planeta del universo que puede sostener la vida humana”.

Naturalmente, esto no implica que la Tierra sea el único planeta del universo que puede sostener la vida en general. De hecho, ciertos microbios pueden prosperar perfectamente en atmósferas ricas en CO2 e incluso en CO. Los propios autores del nuevo estudio han publicado recientemente otro trabajo en el que muestran cómo la presencia de altos niveles de CO no es necesariamente un signo de un planeta sin vida; pero en estos casos la vida solo podría restringirse a formas simples microbianas sin posibilidad de que existan organismos multicelulares, descartando la existencia de una civilización inteligente.

En un futuro cercano, los nuevos telescopios van a permitir obtener firmas espectrales (por el espectro de luz) de la composición atmosférica de muchos exoplanetas. Sin duda estos estudios ayudarán a valorar con más precisión qué planetas poseen atmósferas realmente habitables y cuáles no. Pero por el momento, quizá no estaría de más que resultados como los de Schwieterman, Lions y sus colaboradores se tengan en cuenta a la hora de presentar los nuevos exoplanetas descubiertos como “habitables”. Sobre todo para evitar la falsa impresión de que los lugares habitables en el universo son muy abundantes; una idea que hoy, como mínimo, solo puede calificarse de infundada.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (II)

Como comencé a explicar ayer, desde hace años los investigadores han planteado la posibilidad de que los inhibidores de citoquinas proinflamatorias (moléculas que produce el cuerpo y que promueven la respuesta de inflamación contra las agresiones al organismo) podrían ser útiles en la lucha contra el alzhéimer, ya que la inflamación es uno de los síntomas de la enfermedad.

Sin embargo, y como también conté ayer, en realidad el proceso patológico del alzhéimer aún es desconocido, por lo que la inflamación podría no ser una causa, sino un efecto. De ser así, atacar la inflamación contra el alzhéimer sería como luchar contra un terremoto protegiendo la cristalería: se evitará que se rompan las copas y los vasos, pero nada más.

Es más, hasta tal punto se desconoce la patogénesis del alzhéimer que ni siquiera puede descartarse del todo que esta inflamación sea en realidad beneficiosa. Aunque la inflamación crónica suele tener efectos nocivos, en su origen es una respuesta del organismo contra una agresión. En el caso del alzhéimer, se ha propuesto incluso que la activación de la microglía (el sistema inmune propio del cerebro) podría ayudar a eliminar las placas de proteína beta-amiloide que tradicionalmente se han asociado con la muerte neuronal en los pacientes de alzhéimer.

Ilustración de anomalías neuronales en el alzhéimer: placas beta-amiloides (marrón) y ovillos neurofibrilares (azul). Imagen de NIH.

Ilustración de anomalías neuronales en el alzhéimer: placas beta-amiloides (marrón) y ovillos neurofibrilares (azul). Imagen de NIH.

El primer estudio piloto que evaluó el uso del etanercept de Amgen y Pfizer contra el alzhéimer se publicó en 2006, cuando el fármaco llevaba ya utilizándose contra la artritis reumatoide durante ocho años en EEUU, seis en Europa. En aquella ocasión, investigadores de la Universidad de California dirigidos por Edward Tobinick trataron a 15 pacientes de alzhéimer durante seis meses mediante inyecciones de etanercept en la médula espinal.

Al término del pequeño estudio, los investigadores observaron mejoras en los resultados de los test cognitivos de los pacientes. Esta fue su conclusión: “Un creciente volumen de ciencia básica y evidencias clínicas implica a los procesos inflamatorios y la resultante activación glial en la patogénesis del alzhéimer. Este pequeño estudio piloto sugiere que la inhibición de la citoquina inflamatoria TNF-α puede ser prometedora como enfoque potencial para el tratamiento del alzhéimer. Merece la pena emprender mayores ensayos clínicos aleatorizados y controlados con placebo”.

Es decir, que ya en 2006 la comunidad científica conocía la posible utilidad del etanercept en el tratamiento del alzhéimer. El estudio mereció un editorial en la revista que lo publicó, Medscape General Medicine, que subrayaba su carácter “altamente preliminar” y sus limitaciones, como la ausencia de controles con placebo y de un estudio farmacodinámico, pero que concluía: “No todos los días (o todos los años) se ven datos tan prometedores en el tratamiento del alzhéimer como los que se presentan en este artículo, y claramente se necesitan más estudios”.

En años posteriores, Tobinick continuaba publicando nuevos datos favorables, como un seguimiento de los pacientes y nuevos casos, también con resultados de mejoras cognitivas. A finales de la década pasada, los antiinflamatorios no esteroideos y en concreto los inhibidores de TNF-α, como el etanercept o el infliximab, ya estaban en el punto de mira de muchos investigadores del alzhéimer.

Conviene aclarar aquí algo que también se ha propagado estos días y que no es cierto. Algunos comentarios han aventurado que el etanercept no puede ser útil contra el alzhéimer porque no atraviesa la barrera hematoencefálica, el muro que separa el sistema nervioso central del resto del organismo. Pero algunos expertos piensan que el hecho de que el fármaco no atraviese esta barrera no tiene por qué impedir una posible acción beneficiosa: existen indicios de que un efecto antiinflamatorio en el sistema nervioso periférico puede reducir la inflamación en el cerebro. En el caso del TNF-α, la neutralización de esta citoquina fuera del cerebro podría reducir la cantidad de esta molécula que llega al propio cerebro.

Sin embargo, todo ello había que tomarlo con extrema cautela: además de que los datos de Tobinick no dejaban de ser anecdóticos (sin ensayos clínicos rigurosos), si por algo se distingue la investigación del alzhéimer es por la inmensa cantidad de cadáveres de fármacos prometedores que ha dejado en el camino. En ratones y ratas se ha logrado curar la enfermedad infinidad de veces. Pero en realidad los ratones y las ratas no padecen alzhéimer, por lo que se trata de modelos creados por los propios investigadores. Y dado que en realidad aún no se conoce cuál es la patogénesis del alzhéimer, los modelos animales no son réplicas verdaderas de la enfermedad, sino de algunos de sus síntomas. Se han creado empresas motivadas exclusivamente por un fármaco que curaba este falso alzhéimer en ratones. Y han cerrado empresas cuando se comprobaba que este fármaco no hacía absolutamente nada contra el alzhéimer real.

Modelo de alzhéimer en el cerebro de un ratón: placas beta-amiloides (rojo) entre las neuronas (verde). Imagen de NIH.

Modelo de alzhéimer en el cerebro de un ratón: placas beta-amiloides (rojo) entre las neuronas (verde). Imagen de NIH.

En el caso de los antiinflamatorios no esteroideos, muchos de ellos han curado el alzhéimer en ratones; ninguno de ellos ha funcionado en pacientes. También el etanercept y moléculas similares han mostrado eficacia en modelos animales, pero esto no es ni muchísimo menos una garantía de que servirán como fármaco.

Así las cosas, al mismo tiempo comenzaban a llegar otros datos no tan positivos. Dado que el etanercept por su propia naturaleza es un inmunosupresor, se reportaban casos de pacientes afectados por infecciones graves e incluso mortales por el uso de este medicamento contra la artritis reumatoide, lo que obligaba a la Agencia de Fármacos de EEUU a publicar una advertencia.

Esto tiene una implicación trascendental: el etanercept jamás será un fármaco para prevenir el alzhéimer. Sencillamente, tratar a personas sanas con un inmunosupresor durante largos periodos de su vida es algo que está fuera de toda discusión.

Por fin en 2015, el año en que la patente del etanercept expiró en Europa (no en EEUU), investigadores británicos emprendieron el primer ensayo clínico doble ciego, aleatorizado y controlado con placebos para evaluar el uso del fármaco contra el alzhéimer. Se trataba de un estudio aún muy pequeño, con 41 pacientes de alzhéimer, y en fase 2. La fase 1 de un ensayo clínico se centra en la seguridad del fármaco, mientras que la fase 2 confirma estos datos de tolerabilidad y empieza a valorar sus posibles efectos. Por cierto, y aunque en EEUU Amgen se había mostrado reticente a los ensayos clínicos del etanercept para otras indicaciones, este estudio fue financiado a través de una ayuda de Pfizer al investigador principal, Clive Holmes.

Los resultados de tolerabilidad fueron positivos. Sin embargo, los de eficacia fueron decepcionantes: “No hubo cambios estadísticamente significativos en cognición, comportamiento o función global”, escribían los autores del estudio. No había diferencias entre el etanercept y el placebo. Lo cual suscitó una evidente pregunta: ¿y si los resultados reportados por Tobinick solo eran un efecto placebo?

Aquí es donde las cosas empiezan a complicarse aún más. Por un lado, el ensayo británico empleó etanercept por vía subcutánea, no espinal como en los estudios de Tobinick. Pero los investigadores concluían: “El presente estudio no debería verse como un apoyo al uso subcutáneo no aprobado de etanercept para el tratamiento del alzhéimer. El etanercept tiene reconocidos efectos adversos potencialmente serios en la población”.

Al mismo tiempo, los resultados del estadounidense comenzaban a cuestionarse seriamente. Tras ser amonestado por el Consejo Médico de California por conducta no profesional, Tobinick se mudó a Florida, un estado permisivo, donde montó una clínica en la que aseguraba tratar todo tipo de enfermedades neurológicas –incluidas las no autoinmunes– mediante sus inyecciones. Sin ensayos clínicos relevantes, Tobinick comenzaba a cargar a sus pacientes altas sumas por tratamientos con etanercept. Se revelaba además que el investigador no era un neurólogo, sino un internista que antes se dedicaba a la depilación por láser. Al parecer, y después de que sus tratamientos contra el alzhéimer fracasaran, Tobinick se centró en otras enfermedades.

Y en todo esto, ¿dónde entra el lío con Pfizer que ha hecho correr tanta tinta física y digital en los últimos días? El pasado martes, el diario The Washington Post publicaba una exclusiva según la cual, decía el titular, “Pfizer tenía pistas de que su fármaco superventas podía prevenir el alzhéimer” y las ocultó al mundo. En el texto, el periodista contaba que a sus manos había llegado un Power Point en el que se mostraban datos de cientos de miles de reclamaciones de seguros médicos que algunos investigadores de la compañía habían cruzado en 2015, y que se presentaron a la dirección en 2018. Según estos datos, de dos grupos iguales de 127.000 pacientes con alzhéimer y otros tantos sin esta enfermedad, todos ellos afectados por artritis reumatoide o dolencias similares, en el primer grupo (alzhéimer) 110 personas habían recibido etanercept, mientras que en el segundo (no alzhéimer) eran 302.

La crítica a Pfizer se basa en que no hizo públicos estos datos. Lo cual no implica que se mantuvieran en secreto: Holmes dispuso de ellos para su ensayo clínico. Pero si la pregunta es si la comunidad científica debería disponer de este tipo de datos, no creo que nadie objete que la respuesta es sí; la comunidad científica siempre tiene y debe tener hambre de datos, por lo que ningún indicio sobra, ninguno está de más. Ahora bien, si la pregunta es si los datos de Pfizer eran realmente relevantes…

En primer lugar, los datos de Pfizer no son novedosos. En 2016 se publicó un estudio similar: investigadores estadounidenses cruzaron datos de pacientes con artritis reumatoide, con o sin alzhéimer, con o sin tratamiento con etanercept, y concluyeron que “hay un riesgo mayor de alzhéimer en la población de artritis reumatoide estudiada”, y que “el riesgo relativo de alzhéimer entre los sujetos con artritis reumatoide era menor en los expuestos a etanercept”.

En segundo lugar, ¿qué revelan en realidad estos datos? Exactamente lo que dicen: que entre los enfermos de artritis reumatoide hay menos casos de alzhéimer entre los tratados con etanercept. No hay en absoluto una relación causa-efecto demostrada, y correlación nunca significa causalidad; nada descarta la posibilidad, por ejemplo, de que el etanercept, una medicación con efectos adversos serios, se administre con más frecuencia a los pacientes con un cuadro general menos grave. Para discernir entre las posibles hipótesis alternativas y relacionar causas y efectos con base científica son imprescindibles los ensayos clínicos rigurosos.

Por último, y dado que los datos se refieren exclusivamente a enfermos de artritis reumatoide, no hay absolutamente nada en ellos que sugiera una utilidad del etanercept contra el alzhéimer en personas sin artritis reumatoide. El único estudio riguroso que ha abordado esta cuestión hasta ahora, el pequeño ensayo de Holmes, fue negativo.

Estructura del TNF-alfa. Imagen de BQUB14-Jcanas / Wikipedia.

Estructura del TNF-alfa. Imagen de BQUB14-Jcanas / Wikipedia.

En resumen, ¿cuáles son las perspectivas de que se obtenga algo válido del etanercept contra el alzhéimer? Desde luego, nada invita a sospechar que este fármaco vaya a ser jamás la bala mágica contra el alzhéimer. Como ya he dicho arriba, es impensable que se plantee su uso como medicamento preventivo. Si acaso los enfermos de artritis reumatoide tratados con el fármaco pudieran beneficiarse de un posible efecto secundario en este sentido, bienvenido sea. Pero esto no aporta nada al resto de la población general, ni siquiera a la población de riesgo por su perfil genético.

El propio artículo del Washington Post, excelentemente trabajado a pesar de su desafortunado titular click-bait, dice: “Ninguno de los expertos entrevistados para esta historia dijo que tal indicación fuera de etiqueta del Enbrel [etanercept] contra el alzhéimer sería apropiada, dada la naturaleza muy limitada de los datos hasta ahora. Ni creen que esta prescripción vaya a producirse de manera significativa”.

En definitiva, si del etanercept, ya en el dominio público, o de sus muchos fármacos biosimilares ya existentes, podrá obtenerse algo positivo en el futuro contra el alzhéimer, solo el tiempo lo dirá; siempre, naturalmente, que este tiempo se dedique a emprender múltiples ensayos clínicos rigurosos. Que Amgen y Pfizer decidieran no abordar estos ensayos forma parte de su libre derecho como empresas. Que no publicaran un conjunto de datos que no aporta nada novedoso y cuya relevancia científica es relativamente escasa puede ser todo lo criticable que a cada uno le parezca, por supuesto.

Pero tirar de esta anécdota para apoyar una causa general contra estas compañías o contra la Big Pharma solo viene a demostrar una vez más que los pilares más fuertes en los que se sostiene dicha causa general suelen ser el odio irracional y el pensamiento conspiranoico. Que se alimentan solo de titulares, no de las noticias que van debajo. Y que por cierto, también son una industria muy rentable.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (I)

Si todo lo que se está publicando y tuiteando hoy fuera cierto, sería un día histórico para la humanidad: este 6 de junio de 2019 tendríamos por fin un fármaco para curar y prevenir el alzhéimer. Es decir, que una vez desaparecido todo el revuelo de los juicios de valor sobre las prácticas empresariales de Pfizer, lo que quedaría de todo ello sería una noticia de inmensa trascendencia: la cura del alzhéimer.

Solo que no es cierto. Pfizer no tiene un fármaco que cura el alzhéimer. Pfizer no tiene un fármaco que previene el alzhéimer. Pfizer no ha ocultado al mundo que tiene un fármaco que cura ni previene el alzhéimer; en primer lugar, porque no lo tiene, y en segundo lugar, porque no hay nada oculto: este fármaco es de sobra conocido desde hace años por la comunidad científica, que ya ha estado valorando su potencial contra el alzhéimer sin necesidad de que Pfizer revele o deje de revelar nada.

Imagen de Pixabay.

Imagen de Pixabay.

Por lo tanto, hoy no es día de buenas noticias, sino de malas. La primera mala noticia es que la cura del alzhéimer sigue sin existir; si es que puede llamarse noticia a algo que continúa no siendo, tal como no lo era ayer. Lo que sí es seguro una mala noticia es que lo ocurrido hoy es un triunfo más de la desinformación y la demagogia.

Esta es la desinformación y demagogia que circula: Pfizer creó un fármaco del que sabe que cura o previene el alzhéimer, y lo enterró para que nadie lo utilizara porque le resulta más rentable que la gente siga enferma.

Y esta es la información: existe un fármaco creado por investigadores básicos, ampliamente conocido y que se emplea en el tratamiento de la artritis reumatoide. Desde hace años, la comunidad científica piensa que los fármacos de este tipo quizá podrían aportar algún beneficio contra el alzhéimer. De hecho, se han hecho diversos estudios sobre ello, sin que aún exista una pista clara sobre su posible utilidad. Con el tiempo, han surgido otros fármacos biosimilares (casi idénticos, con el mismo efecto). Pfizer, que vende el fármaco original, se planteó si emprender un ensayo clínico a gran escala. Decidió no hacerlo. Con independencia de las explicaciones que Pfizer pueda ofrecer o haya ofrecido al respecto, existen razones perfectamente comprensibles para que una compañía decida no abordar un enorme gasto de resultados inciertos sobre un fármaco cuyas patentes están expirando, que otras entidades pueden ensayar libremente y del que además ya existen otros clones sometidos a investigaciones y a disposición de la comunidad científica.

Y ahora, la versión larga, por si a alguien le interesa conocer la verdad entre tanto espumarajo.

En 1991, el equipo dirigido por Bruce Beutler en el University of Texas Southwestern Medical Center publicó la creación de una proteína quimérica (formada por la unión de trozos de otras) compuesta por el receptor del factor de necrosis tumoral alfa (TNF-α) y un fragmento de anticuerpo.

Estructura del etanercept. Imagen de NEUROtiker / Wikipedia.

Estructura del etanercept. Imagen de NEUROtiker / Wikipedia.

El TNF-α es una molécula producida por el organismo que promueve los procesos inflamatorios. La proteína quimérica tenía por objeto inhibir la acción del TNF-α in vivo, uniéndose a este y secuestrándolo para neutralizar su función. Dado que ciertas enfermedades como las autoinmunes producen sus síntomas a través de una activación incorrecta del sistema inmunitario, en la que el TNF-α desempeña un papel relevante, la idea de Beutler y sus colegas era que la molécula por ellos diseñada podía sumarse a otras opciones disponibles en el tratamiento de dichas dolencias. Los experimentos mostraron que la proteína bloqueaba eficazmente la acción del TNF-α.

Los investigadores patentaron su molécula y vendieron los derechos a la compañía biotecnológica Immunex, que en 1998 desarrolló el producto para el tratamiento de la artritis reumatoide. Su nombre es etanercept, y su marca comercial Enbrel. En 2002 Immunex fue absorbida por Amgen, que actualmente vende el etanercept en EEUU. En el resto del mundo (excepto Japón) la comercialización del fármaco corría a cargo de Wyeth, que en 2009 fue adquirida por Pfizer.

Desde entonces, el etanercept se ha venido utilizando para el tratamiento de la artritis reumatoide y otras enfermedades autoinmunes, no sin problemas: tanto este fármaco como otros similares son, por su propia definición, inmunosupresores, lo que ha llevado a que ciertos pacientes contraigan infecciones graves e incluso mortales.

Por otra parte, entra el alzhéimer, una enfermedad para la que no existe cura ni prevención y cuya causa primaria aún se ignora. Desde hace años se sabe que el cuadro inflamatorio forma parte del conjunto de síntomas del alzhéimer, pero sin que aún se conozca qué relevancia tiene este proceso en el desarrollo de la enfermedad. La posibilidad de que la inflamación pudiera ser un factor primario es solo una de las hipótesis que circulan en torno a la patología del alzhéimer, pero los investigadores consideran la posibilidad de que el tratamiento del cuadro inflamatorio pueda ayudar a paliar los síntomas o frenar su progresión.

Por ello, desde hace años los investigadores han comenzado a ensayar la posible acción de varios fármacos antiinflamatorios contra el alzhéimer, comenzando por los modelos animales. Uno de estos fármacos es el etanercept. La patente del fármaco expiró en Europa en 2015, mientras que en EEUU aún estará vigente hasta 2028 porque Amgen consiguió una extensión. En la práctica, esto implica que cualquier compañía puede producir etanercept fuera de EEUU. Incluso en aquel país, cualquier compañía puede producir otros inhibidores biosimilares, aunque probablemente (como de hecho ha ocurrido) se enfrente a demandas por parte de Amgen.

Lo que debe quedar claro con esto es que el etanercept, ni jamás ha sido secreto, ni jamás ha sido único, ni pertenece ya siquiera a Pfizer. Está publicado desde 1991, pertenece ya al dominio público (excepto en EEUU) y existen numerosas alternativas, desde los más generales antiinflamatorios no esteroideos hasta los más específicos inhibidores de TNF-α y, dentro de estos, los biosimilares; actualmente existe casi una veintena de fármacos biosimilares al etanercept en distintas fases de desarrollo y comercialización.

Y como es obvio, siendo un fármaco común –de hecho uno de los antiinflamatorios más vendidos del mundo–, tampoco ha estado guardado en un armario o en una caja fuerte. Mañana continuaremos contando qué dicen los ensayos emprendidos hasta ahora con este fármaco contra el alzhéimer, qué es lo que Pfizer sabía y no dijo, qué relevancia real tenía esto, y cómo un dato no científico en un Power Point que llega a manos de un periodista puede pintarse de amarillo para convertirse en una de las fake news más sonadas del momento.

Un planeta habitable no es solo cálido, y la Tierra es un caso muy raro

La Tierra es un raro y excepcional oasis, el único en un volumen de espacio de al menos 33,5 años luz cúbicos, o unos 3.500 hexillones de kilómetros cúbicos (millones de millones de millones de millones de millones de millones), si no me han fallado las cuentas.

Esto, considerando que el Sistema Solar se extiende hasta un radio de unos 2 años luz, que es a donde alcanza la influencia gravitatoria del Sol. Pero naturalmente, el espacio en el que la Tierra es el único reducto de vida es en realidad mucho mayor, extendiéndose hasta al menos la distancia donde alcanza la influencia gravitatoria de las estrellas más próximas. Si es que alguna de ellas acoge algún planeta con vida, que hasta ahora no nos consta.

Cierto que incluso estas gigantescas cifras suponen solo una minúscula y despreciable porción del universo visible. Pero para situar las cosas en su perspectiva adecuada, de vez en cuando conviene tratar de imaginar lo que estos números representan para ser conscientes de que no vivimos en un lugar cualquiera; en contra del principio de mediocridad –que en este caso es más una premisa que un principio–, todo lo que vamos conociendo sobre la Tierra y sobre otros planetas nos lleva a la idea de que el nuestro sí es un planeta excepcional.

Imagen de Max Pixel.

Imagen de Max Pixel.

Recientemente hemos sabido del descubrimiento de 18 nuevos exoplanetas de tamaño parecido al de la Tierra, que permanecían ocultos en los datos del telescopio espacial Kepler y se han revelado al aplicar un nuevo algoritmo. El hallazgo de planetas en otros sistemas estelares se ha convertido ya en algo casi rutinario; ya se conocen más de 4.000. De ellos, muchos se han presentado como “habitables”; es decir, que orbitan a una distancia adecuada de su estrella como para que las temperaturas en su superficie sean moderadas y permitan la posible existencia de agua líquida. Uno de los 18 nuevos exoplanetas podría cumplir esta condición.

Pero evidentemente, es fácil imaginar que una temperatura moderada no basta para hacer a un planeta habitable. Hace un par de meses conté aquí un estudio según el cual solo uno de los exoplanetas rocosos conocidos podría tener un campo magnético similar al terrestre, que en nuestro planeta protege la atmósfera y la vida del viento y la radiación estelar y ha ayudado a que la Tierra no pierda su agua.

De hecho, una frecuente objeción a la posible presencia de vida en otros planetas es la radiación a la que pueden estar sometidos. Algunos expertos actualmente favorecen las estrellas enanas rojas, tal vez las más abundantes en nuestra galaxia, como las mejores candidatas para albergar planetas con vida. Pero muchas de estas estrellas son fulgurantes, de temperamento tan violento que pueden duplicar su brillo en unos minutos, y la radiación de esas llamaradas súbitas puede hacer sus presuntos planetas habitables realmente inhabitables.

Además, los planetas en zona “habitable” (entiéndase, cálida) de las enanas rojas suelen estar tan cerca de su estrella que tienen acoplamiento mareal; es decir, siempre dan la misma cara, como la Luna a la Tierra. Lo cual probablemente implique que uno de los lados está permanentemente a temperaturas que congelan hasta los gases.

Con todo lo anterior ya tenemos no una, sino siete condiciones que debería cumplir un planeta para ser teóricamente habitable: una temperatura moderada, un sustrato de roca, una atmósfera, agua, un fuerte campo magnético, una estrella no demasiado violenta y preferiblemente una rotación no sincronizada con la de su estrella. La Tierra cumple todas estas condiciones. Es el único planeta del Sistema Solar que las cumple. Y como ya he dicho, hasta ahora solo se conoce un único exoplaneta que posiblemente cumpliría tres de ellas.

Un exoplaneta considerado "habitable" podría ser esto. Imagen de Max Pixel.

Un exoplaneta considerado “habitable” podría ser esto. Imagen de Max Pixel.

Pero aquí no acaban los requisitos. Recientemente, la revista Science publicaba un artículo en el que un grupo de investigadores de la Institución Carnegie para la Ciencia (EEUU) analizaba precisamente cuáles son las condiciones necesarias para considerar que un planeta podría ser habitable. Y entre ellas, destacaban la importancia de algo que suele olvidarse: el interior.

En resumen, los autores vienen a subrayar que el movimiento de las placas tectónicas en la Tierra es crucial para preservar el clima adecuado del que depende la vida. La tectónica de placas mantiene el ciclo de carbonatos-silicatos, por el que se reciclan los materiales geológicos entre la superficie y el interior de la Tierra. El cambio climático tiene mucho que ver con la alteración de este ciclo por las emisiones antropogénicas de gases de efecto invernadero; de hecho, la catástrofe de este ciclo fue lo que convirtió a Venus en un infierno inhabitable. Al mismo tiempo, la tectónica de placas mantiene también la convección en el interior de la Tierra que crea el campo magnético que a su vez nos protege de la radiación.

Habitabilidad de un exoplaneta. Imagen de Shahar et al / Science.

Habitabilidad de un exoplaneta. Imagen de Shahar et al / Science.

Y todo esto, sugieren los autores, a su vez depende de la composición química de la Tierra. Es decir, que elementos fundamentales en la geología de los planetas rocosos como carbono, oxígeno, hidrógeno, hierro, silicio o magnesio, tal vez tengan que hallarse en las proporciones precisas y haber sufrido unos determinados procesos de calentamiento y enfriamiento en la infancia del planeta para que exista esa geodinámica que sustenta la vida. Si esos mismos elementos se encuentran en proporciones diferentes, o la evolución del planeta es distinta, tal vez no sea posible la vida.

Así que ya tenemos: una temperatura moderada, un sustrato de roca, una atmósfera, agua, un fuerte campo magnético, una estrella no demasiado violenta, preferiblemente una rotación no sincronizada con la de su estrella, presencia de ciertos elementos químicos en proporciones precisas, una evolución favorable en la historia inicial del planeta, tectónica de placas y un ciclo estable y adecuado de carbonatos-silicatos. Todo esto es lo que posiblemente se necesite, según distintos expertos, para decir que un planeta podría ser habitable.

Así que, sí, la Tierra es un lugar extremadamente raro. Tanto que hasta ahora no se ha encontrado otro igual. Por supuesto, a todo este asunto de la habitabilidad planetaria se le suele aplicar esa famosa coletilla: vida “tal como la conocemos”. Sobre la otra hay mucha ciencia ficción. Pero dado que en el mundo real ningún científico serio y acreditado ha aportado el menor indicio creíble de que pueda haberla de otro tipo, ni siquiera en teoría, dejémoslo en que vida “tal como la conocemos” es sencillamente “vida”. Al menos, mientras nadie demuestre lo contrario.

“El planeta”, la boba (e incorrecta) muletilla medioambiental de moda

Ahora que por fin la conciencia sobre el medio ambiente ha entrado a formar parte de las preocupaciones del ciudadano medio, ocurre sin embargo que “el medio ambiente” ha desaparecido de la faz del planeta, siendo sustituido, precisamente, por “el planeta”.

Salvar “el planeta”. Preocuparse por “el planeta”. Reciclar por “el planeta”. Incluso, según he oído, al parecer un diputado prometió su lealtad a la Constitución “por el planeta”. Pero ¿tiene esto algún sentido?

Evidentemente, alerto de que todo esto en realidad no tiene la menor importancia. Si desean asuntos de verdadera trascendencia para “el planeta”, estoy seguro de que en las pestañas que coronan estas líneas encontrarán esas precisas y preciosas informaciones sobre qué diputado aplaudió o dejó de aplaudir en cada discurso, o de qué color eran las chapitas que llevaba. Pero si todavía queda por ahí alguien a quien le guste hablar con propiedad, le invito a seguir leyendo.

Estructura de la Tierra. Imagen de Kelvinsong / Wikipedia.

Estructura de la Tierra. Imagen de Kelvinsong / Wikipedia.

¿Qué es un planeta? Les advierto: para conocer su definición no se les ocurra acudir al diccionario de la RAE, esa institución que dice no imponer la lengua, sino recoger el uso que los ciudadanos le dan. En este empeño recolector, se diría que la noble academia debe de sufrir una artritis galopante, porque lleva 13 años sin reaccionar a la actualización de la definición de “planeta”. La definición de nuestro diccionario oficial es para hundir la cabeza entre las manos (entre paréntesis, mis comentarios):

Cuerpo celeste (hasta ahí, bien) sin luz propia (no exactamente: los planetas pueden emitir luz infrarroja) que gira en una órbita elíptica (no es cierto: se han detectado exoplanetas con órbitas circulares; es raro, pero no imposible, y de hecho la de la Tierra es casi circular) alrededor de una estrella (nada de eso; hay planetas sin estrella), en particular los que giran alrededor del Sol: Mercurio, Venus, la Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y Plutón (¿cómooo?).

Eso es; dejando aparte todo lo demás, 13 años después del derrocamiento oficial de Plutón como planeta, la RAE aún no se ha enterado. Profesores de ciencias: si un alumno les pone en un examen a Plutón como planeta y se lo dan por malo, vayan pensando en qué responder a los padres cuando les pongan delante el diccionario de la RAE.

En realidad, hasta 2006 se venía utilizando una definición informal de planeta. Pero ocurrió que para otros objetos del Sistema Solar muy similares a Plutón podía reclamarse este estatus planetario. Así que la Unión Astronómica Internacional (UAI) decidió que debía aprobarse una definición científica precisa; de hecho, en ciencia es imprescindible que los términos sean unívocos y explícitos.

Básicamente, había dos posturas enfrentadas: o se adoptaba una definición más amplia, y la lista de planetas del Sistema Solar empezaba a crecer sin medida, quizá incluso cada año, o se elegía una más restrictiva que dejaba fuera a Plutón. Ganaron los partidarios de esta última opción, aunque la polémica nunca ha dejado de colear.

Así, la UAI decidió que un planeta del Sistema Solar es un cuerpo celeste que orbita alrededor del Sol, tiene suficiente masa para estar en equilibrio hidrostático (una forma redondeada) y ha aclarado su órbita de otros objetos.

Es decir, que el tal diputado, sin que probablemente él tenga la menor idea, prometió la Constitución española por el cuerpo celeste que orbita alrededor del Sol, tiene suficiente masa para estar en equilibrio hidrostático (una forma redondeada) y ha aclarado su órbita de otros objetos.

Pero ¿dónde está aquí el medio ambiente?

Sencillamente, en ninguna parte. “Planeta” es un concepto astronómico, sin más; no tiene nada que ver con la vida en él. Hasta ahora, lo que sabemos es que lo normal en un planeta es que no haya vida. Y si hablamos del nuestro, al planeta le da exactamente igual que toda la vida sobre él se extinga.

De hecho, “el planeta” seguirá siendo “el planeta” cuando toda la vida sobre él se haya extinguido, lo que esperemos no ocurra hasta dentro de miles de millones de años; pero si ocurriera mañana mismo, “el planeta” no dejaría de ser “el planeta”, ni sería un planeta peor, ni menos planeta. A menos que Thanos y su guante de pedrería fina destruyan el equilibrio hidrostático de la Tierra y le hagan perder su forma redondeada, o llenen su órbita de escombros intergalácticos.

Entonces, ¿de dónde viene esta bobería? Aunque es difícil encontrar una referencia clara y directa de esto, puedo intuir que el término se ha introducido a raíz de la popularización del cambio climático, ya que se habla de calentamiento global del planeta. Pero en realidad no es más que una sinécdoque, el todo por la parte: aumenta la temperatura media global del aire y de los océanos, no la de “el planeta”. El 99% del volumen total de la Tierra lo ocupan el manto y el núcleo, donde las temperaturas son de cientos o miles de grados. Así que el impacto de la variación en el aire y el agua sobre la temperatura media del planeta tomada en su conjunto es más que despreciable. “El planeta” ni se entera.

Así pues, ¿cuál es el antídoto contra esta bobada? ¿Qué tal regresar a “el medio ambiente” de toda la vida? O para quien quiera ser algo más técnico, lo correcto sería decir “la biosfera”, que se define como la zona de la Tierra donde hay vida o puede haberla; los ecosistemas en su conjunto con todas sus interacciones entre sí y con su medio, ya sea sólido, líquido o gaseoso.

Todo esto trata de la preocupación por la biosfera, que es la que estamos destruyendo a marchas forzadas. Pero para los preocupados por “el planeta”, tengo una buena noticia que les dejará dormir tranquilos: el planeta está perfectamente a salvo, y nadie se lo cargará ni queriendo. Ni siquiera Thanos, que solo podía con la biosfera.

Así que, dejemos a los planetas donde deben estar:

¿Y si el virus de Lloviu no mató a los murciélagos?

En mi entrada anterior resumí la historia del virus de Lloviu, ese pariente próximo del ébola que se describió en 2011 en cadáveres de murciélagos de una cueva asturiana, aunque aún no se conoce dónde pudo originarse –tal vez en Francia, han propuesto los científicos–. Como ya conté, ocho años después aún son muchas las preguntas pendientes sobre este virus; la de interés más general, si supone una amenaza para nosotros.

Pero antes de continuar, uno debe reconocer sus propios errores u omisiones. En mis artículos anteriores sobre el virus he mencionado a Anabel Negredo y Antonio Tenorio, investigadores del Centro Nacional de Microbiología del Instituto de Salud Carlos III (CNM-ISCIII) que han llevado gran parte del protagonismo en la detección del virus. Pero pasé por alto otra referencia esencial de esta historia, o más bien su raíz: el proyecto VIROBAT.

O, mejor dicho, proyectos, ya que son cuatro los que hasta ahora se han encadenado desde 2007 bajo la dirección del virólogo Juan Emilio Echevarría, responsable del Laboratorio de Rabia del CNM-ISCIII. VIROBAT es un programa multidisciplinar de identificación de virus en murciélagos ibéricos que ha implicado a diversos laboratorios en sus distintas líneas. El propio laboratorio de Echevarría identificó en 2013 el lyssavirus de Lleida, una variante de la rabia, mientras que la línea que llevó a la detección del lloviu gracias a las muestras de VIROBAT fue desarrollada en el Laboratorio de Arbovirus y Enfermedades Víricas Importadas del CNM-ISCIII, dirigido entonces por Tenorio y posteriormente por Mari Paz Sánchez-Seco. No solo debemos reconocer públicamente el trabajo científico que se hace en este país, sino también los nombres de quienes lo hacen posible.

Un murciélago de cueva Miniopterus schreibersii, la especie en la que se encontró el virus de Lloviu. Imagen de Steve Bourne / Wikipedia.

Un murciélago de cueva Miniopterus schreibersii, la especie en la que se encontró el virus de Lloviu. Imagen de Steve Bourne / Wikipedia.

El penúltimo trabajo sobre el lloviu hasta la fecha nos llega también del ISCIII, en colaboración con los investigadores estadounidenses que participaron en la identificación inicial del virus. Y sus conclusiones son interesantes, aunque aún continúan dejando preguntas en el aire que deberán esperar a nuevos estudios.

Como expliqué anteriormente, varios de los filovirus –la familia del ébola y el lloviu– que son letales para los humanos se han encontrado en murciélagos vivos y sin síntomas de enfermedad, lo que ha permitido despejar una incógnita clave sobre estos virus: su reservorio, o los animales que mantienen los virus en circulación y de los que ocasionalmente surgen los brotes que afectan a nuestra especie.

En cambio, el lloviu se encontró en murciélagos muertos. Lo cual no implica necesariamente que el virus matara a estos animales, algo de lo que no existen pruebas. Pero si fuera así y el lloviu fuese letal para los murciélagos, este virus se convertiría en una rareza dentro de su familia, y su reservorio debería buscarse entonces en otras especies, tal vez insectos o garrapatas. Aclarar estas dudas seguiría sin aportar nada sobre los posibles efectos del lloviu en los humanos, pero sería un paso relevante para ir desvelando el ciclo vital del virus (si “vital” puede aplicarse a algo que muchos científicos no consideran realmente un ser vivo).

Para explorar estos interrogantes, en los últimos años los investigadores han tratado de encontrar rastros de la presencia del virus tanto en murciélagos vivos como en otras especies que están en contacto con ellos, desde los insectos hasta nosotros mismos. Sin embargo, el virus no ha vuelto a detectarse de forma directa en otros animales, ni vivos ni muertos, salvo en una única ocasión: en 2016 se localizó en cadáveres de murciélagos hallados en el otro extremo de Europa, en Hungría.

Pero existe otra posibilidad, y es la detección del rastro que el virus haya podido dejar en el sistema inmunitario de los animales que en algún momento han estado infectados. Utilizando esta vía, un nuevo estudio en la revista Viruses, encabezado por Eva Ramírez de Arellano y dirigido por Negredo, ofrece una respuesta: el virus está circulando en los murciélagos de cueva, pero no en otras especies de murciélagos ni en los humanos.

Los científicos han analizado la sangre de hasta 60 ejemplares vivos de la especie Miniopterus schrebersii, el murciélago de cueva en el que se encontró el virus. Para aumentar la probabilidad de que estos animales hubieran estado expuestos al virus, los ejemplares fueron recogidos en 2015 en las mismas cuevas de Asturias y Cantabria donde se descubrió el lloviu. Al mismo tiempo, han examinado la sangre de un grupo de personas que también han estado en contacto con estos murciélagos, se supone que científicos dedicados al estudio de estos animales. Como control negativo, se han añadido muestras de murciélagos de otra especie diferente capturados en Huelva, lejos del brote original de lloviu.

Los resultados muestran que uno de cada tres murciélagos de cueva analizados, el 36,5%, lleva anticuerpos contra el lloviu, lo que confirma que estos animales contrajeron la infección en algún momento y, sin embargo, continúan vivos. Por el contrario, esta respuesta inmunitaria contra el virus no se ha encontrado en los humanos ni en los murciélagos de Huelva.

Estos datos indican que el brote original del lloviu no fue una rareza, sino que el virus está circulando de forma habitual entre los murciélagos de cueva. Sin embargo, no puede afirmarse que la presencia de los anticuerpos en animales vivos demuestre la no letalidad del virus para los murciélagos; del mismo modo que las personas que han contraído el ébola y han vivido para contarlo llevan anticuerpos en su sangre, podría ser que los murciélagos analizados sean los afortunados supervivientes de una epidemia mortal de lloviu.

Así, los investigadores escriben en su estudio que los resultados “disocian la circulación del lloviu como la causa de las muertes previamente reportadas”, pero es ahí hasta donde pueden llegar con los datos actuales. No obstante, encuentran un sospechoso parecido entre la proporción de animales seropositivos en su población y los niveles en las especies de murciélagos que sirven como reservorios del ébola y el marburgo, por lo que dejan entrever la idea de que quizá la dinámica del lloviu sea similar a la de estos virus; es decir, que infecte a los murciélagos sin matarlos.

Reconstrucción del virus del ébola. Imagen de Wikipedia.

Reconstrucción del virus del ébola. Imagen de Wikipedia.

Por último, el hecho de que no se hayan encontrado anticuerpos contra el lloviu en las personas que están en contacto con los murciélagos nos ha dejado sin la respuesta a la principal pregunta sobre este virus. En 1989 se detectó en Reston, Virginia (EEUU), una enfermedad mortal que afectaba a unos monos importados de Filipinas. Los investigadores descubrieron que el culpable era un filovirus muy similar al ébola, pero pronto se descubrió que era inofensivo para los humanos. Se encontraron anticuerpos en algunas personas que habían manejado los animales y que obviamente habían contraído el virus sin padecer síntomas.

Si el nuevo estudio sobre el lloviu hubiera detectado anticuerpos en algunas de las personas analizadas, probablemente podría concluirse que es un caso similar al virus de Reston: un patógeno para otras especies que no entraña riesgo para los humanos. Pero dado que no ha sido así, aún seguimos a oscuras sobre la peligrosidad del virus. Estudios anteriores sugieren que aparentemente el lloviu sería capaz de infectar células humanas por un mecanismo similar al ébola, por lo que hasta ahora no hay motivos para pensar que pueda ser un virus de contagio más difícil que su primo africano.

A falta de aislar el virus para poder trabajar directamente con él y responder a las preguntas pendientes, por el momento la única vía posible es fabricar sus trocitos a partir de su secuencia genética y estudiar qué hacen y cómo funcionan en sistemas in vitro. Decía más arriba que el nuevo estudio del ISCIII es el penúltimo, no el último; en días recientes se ha publicado además otro trabajo que ahonda un poco más en este prisma molecular del virus de Lloviu, y que aporta también una novedad sugerente. Próximamente, en este mismo canal.

Virus de Lloviu, el ‘primo europeo’ del ébola: aún más preguntas que respuestas

En 2002 comenzó una auténtica saga científica que todavía hoy tiene más preguntas que respuestas. El 17 de junio de aquel año, el biólogo Isidoro Fombellida informaba a sus compañeros de la Sociedad Española para la Conservación y el Estudio de los Murciélagos (Secemu) del hallazgo de numerosos cadáveres de estos animales en una cueva de Cantabria. De inmediato, a este primer informe se unían otros similares de Asturias, Portugal y Francia, en lo que parecía una enigmática y devastadora epidemia que afectaba específicamente a la especie Miniopterus schreibersii, el murciélago de cueva.

Unos meses después, en enero de 2003, el suceso quedaba reflejado en la revista Quercus. Los autores de aquel artículo, los miembros de la Secemu Juan Quetglas. Félix González y Óscar de Paz, contaban que la reunión entre los expertos y las autoridades estatales había resuelto dejar el caso en manos del laboratorio de referencia en enfermedades animales transmisibles a los humanos, el Centro Nacional de Microbiología del Instituto de Salud Carlos III (CNM-ISCIII), en Majadahonda.

En un primer momento los científicos del CNM-ISCIII sospecharon de un brote de rabia, pero los resultados de los análisis fueron negativos. Sin otra pista que olfatear, la misteriosa enfermedad de los murciélagos quedó en suspenso.

Un murciélago de cueva 'Miniopterus schreibersii', especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Un murciélago de cueva ‘Miniopterus schreibersii’, especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Un par de años después, el 30 de noviembre de 2005, la revista Nature publicaba un breve estudio dando cuenta de importantes novedades sobre un temible virus, el ébola. Por entonces este patógeno aún era casi un desconocido para el público. Desde 1976 se habían sucedido los brotes con terribles consecuencias para los afectados, pero muchos lo consideraban un problema africano. Por suerte, no todos: gracias a que el gobierno canadiense trabajaba en ello en 2003, cuando casi nadie más lo hacía, hoy tenemos una vacuna que ya se ha administrado a más de 90.000 personas, y sin la cual el brote iniciado en agosto de 2018 en la República Democrática del Congo, aún activo, podría haber sido mucho peor. Las vacunas no se crean de la noche a la mañana cuando el público las pide.

Uno de los interrogantes sobre el ébola era su reservorio animal, es decir, la especie en la que se oculta sin provocar graves síntomas cuando no está matando simios o humanos. Conocer el reservorio de los virus es clave de cara a su control, y en el caso del ébola aún era un misterio.

En Gabón y la República del Congo, un equipo internacional de científicos emprendió la laboriosa y arriesgada tarea de situar trampas en las zonas donde habían aparecido cadáveres de simios infectados por el ébola, con el fin de recoger los animales que podían actuar como reservorio y analizar la presencia del virus. Después de examinar más de 1.000 pequeños vertebrados, los científicos localizaron el reservorio del ébola en tres especies de mamíferos de la fruta, aportando un paso de gigante para poner cerco al virus letal.

Partícula del virus del Ébola fotografiada al microscopio electrónico y coloreada artificialmente. Imagen de NIH / dominio público.

Partícula del virus del Ébola fotografiada al microscopio electrónico y coloreada artificialmente. Imagen de NIH / dominio público.

Entre quienes leyeron aquel estudio se encontraba Antonio Tenorio, por entonces director del Laboratorio de Arbovirus y Enfermedades Víricas Importadas del CNM-ISCIII, donde se habían analizado los cadáveres de los murciélagos hallados en Cantabria y Asturias. Al desvelarse que estos mamíferos podían transmitir más enfermedades de las que hasta entonces se creía, Tenorio tuvo la idea de rescatar las muestras de aquellos animales y escrutarlas en busca de un posible material genético vírico que se pareciera a algo de lo ya conocido.

Pero Tenorio y su principal colaboradora, Anabel Negredo, jamás habrían sospechado lo que iban a encontrar en aquellos murciélagos: ébola. O eso parecía entonces: al comparar las secuencias parciales obtenidas con las bases de datos online de genomas virales, el resultado fue que eran idénticas a la del siniestro virus en un 75%; bastaba un 50% de semejanza genética para que un virus se considerara ébola. Sin embargo, aún era preciso secuenciar en su totalidad el virus de los murciélagos para establecer cuál era su grado de parecido general con el africano.

Aquello era mucho más que una alarmante rareza; era una auténtica bomba. Ni en Europa ni en ningún otro lugar fuera de África y Filipinas se había detectado en la naturaleza nada parecido al ébola (algunos virus de esta familia se descubrieron en Europa y EEUU, pero procedían de monos importados). Y sin embargo, aquel era también el momento en que el laboratorio español debía perder la exclusividad de su descubrimiento. El hallazgo de los científicos del CNM-ISCIII había dado un nuevo cariz a su investigación, pero ni su laboratorio ni ningún otro en este país estaba acreditado con el nivel de seguridad biológica 4, imprescindible para trabajar con patógenos tan peligrosos como el ébola. Así pues, Tenorio y Negredo se veían obligados a compartir su descubrimiento con otro centro en el extranjero que dispusiera de las instalaciones necesarias.

Gracias a la colaboración de los investigadores Ian Lipkin y Gustavo Palacios, entonces en la Escuela Mailman de Salud Pública de la Universidad de Columbia (EEUU), fue posible secuenciar casi en su totalidad el genoma de algo que finalmente resultaba ser diferente del ébola en solo una pizca más del 50%, lo suficiente para darle una identidad propia. Siguiendo la norma habitual en virología, el nuevo virus debía recibir el nombre del lugar donde fue descubierto; los cadáveres de murciélagos utilizados procedían de la cueva del Lloviu, en Asturias.

Por fin en octubre de 2011 un estudio encabezado por Negredo y Palacios como coautores principales, y codirigido por Lipkin y Tenorio, presentaba en sociedad el virus de Lloviu o LLOV, el primer filovirus –la familia del ébola– supuestamente originado fuera de África y Asia, el único en el nuevo género de los Cuevavirus, y más parecido al ébola que sus primos el marburgo y el ravn.

Desde entonces, tanto los descubridores originales del lloviu como otros investigadores han continuado avanzando hacia la conquista de los secretos de este intrigante patógeno, como he venido narrando en este blog con cada nuevo estudio que se publica. Pero la pregunta más acuciante aún sigue pendiente de respuesta: ¿es el lloviu una amenaza para los humanos?

La dificultad para responder a esta y otras innumerables preguntas sobre el lloviu estriba en que el camino de estas investigaciones es enormemente anfractuoso. Para estudiar un virus es indispensable poder manejarlo, pero los científicos estadounidenses no lograron aislarlo, y apenas queda algo de las muestras originales. Hace ahora un año, científicos húngaros describieron la reaparición del lloviu en el otro extremo de Europa, en cadáveres de murciélagos hallados en cavernas de Hungría en 2016. Pero una vez más, el virus asturiano se resistió a su aislamiento.

Así las cosas, los investigadores deben limitarse a reconstruir sus piezas moleculares a partir de la secuencia genómica conocida para después disfrazar con ellas a otros virus disponibles, como el ébola o incluso el VIH. El problema es que estos métodos no suelen ser suficientes para resolver incógnitas como la posible peligrosidad del virus para nuestra especie; no basta con fijarse en qué grado de parecido tienen esas diversas partes para predecir cómo se comportará un filovirus en los humanos o en otros animales. Para entender lo difícil que resulta responder a esta pregunta, conviene detenerse un momento en el complicado rompecabezas de los filovirus.

En los últimos años, esta familia se ha ampliado ya a seis géneros: a los Ebolavirus (ébola, sudán, taï forest, bundibugyo y reston), Marburgvirus (marburgo y ravn) y Cuevavirus (lloviu) han venido a añadirse los Striavirus (xilang) y Thamnovirus (huangjiao), que parecen infectar a los peces, y los Dianlovirus, representados hasta ahora solo por el virus de Mengla, descubierto en murciélagos chinos. Por otra parte, a los cinco Ebolavirus mencionados se ha sumado uno nuevo, el virus de Bombali, hallado en murciélagos de Sierra Leona.

Árbol evolutivo (filogenético) de la familia de los filovirus. Imagen de ICTV.

Árbol evolutivo (filogenético) de la familia de los filovirus. Imagen de ICTV.

Naturalmente, los distintos grupos representan un mayor o menor parecido genético: dos Ebolavirus se parecen más entre sí que un Ebolavirus y un Marburgvirus. Pero en cambio, estos grados de similitud no se aplican a los efectos o las enfermedades que provocan. Por ejemplo, los Ebolavirus son potencialmente letales para humanos y monos, pero no todos: el reston parece inofensivo para nosotros, no así para otros primates ni para los cerdos. Por otro lado, los Marburgvirus, más diferentes del ébola que el reston, son incluso más mortales para nosotros y los monos que el propio ébola.

En lo que respecta a los murciélagos, distintas especies parecen servir de reservorios tanto para los Ebolavirus como para los Marburgvirus. Los recientemente descubiertos mengla y bombali se han detectado en murciélagos vivos, lo que sugiere que estos virus pueden tener también su reservorio en estos animales. De modo que esto parecería una norma general para los filovirus… si no fuera porque el lloviu se encontró en murciélagos muertos, tanto en Asturias como en Hungría.

Pero ¿significa esto que el lloviu mata a los murciélagos, y que los animales hallados en las diferentes cuevas europeas murieron a causa del virus? ¿Significa que el lloviu es una rareza dentro de su familia al no utilizar estos animales como reservorio? ¿Significa que su reservorio debe buscarse en otras especies como los insectos o las garrapatas, una hipótesis que han manejado los investigadores del CNM-ISCIII? Y sobre todo, ¿qué significa todo esto de cara a los posibles efectos del lloviu en humanos?

Más preguntas que respuestas. El próximo día comentaré un par de nuevos estudios que no llegan a esclarecer las muchas incógnitas pendientes, pero que al menos apuntan nuevos datos sobre este virus aún tan desconocido, pero tan cercano a nosotros.

¿Que vivimos en un zoo galáctico gestionado por alienígenas? ¿En serio?

Hubo un tiempo en que hasta los científicos más sesudos reconocían la posibilidad de que algunos casos de ovnis fueran avistamientos reales de naves alienígenas. Por entonces tenía sentido: tal vez aquellos rumores habían existido siempre –ahí estaba la visión bíblica de Ezequiel–, pero solo a mediados del siglo XX empezó a extenderse la tecnología necesaria para documentar correctamente aquellos sucesos y para que las noticias sobre ellos llegaran a todos los rincones del mundo. Desde los foo fighters, misteriosos aparatos que reportaban los pilotos en la Segunda Guerra Mundial, hasta que comenzaron a proliferar los avistamientos civiles, el fenómeno parecía seguir una evolución lógica que culminaría con la confirmación definitiva de que nos estaban visitando.

Pero la confirmación definitiva jamás llegó. Mirando retrospectivamente, quizá se pasaron por alto ciertos indicios de que en realidad todo aquello podía ser simplemente un meme –término que ya existía antes de internet, y que se refiere a un rasgo cultural que se transmite por imitación–: todos los avistamientos de platillos volantes tienen su origen en un primer caso de 1947, pero el protagonista de aquel incidente, Kenneth Arnold, nunca dijo haber visto platillos, sino “nueve objetos con forma de media luna” que se movían “como un platillo saltando sobre el agua”. Fue el periodista Bill Bequette quien entendió mal la explicación e inventó los “platillos volantes”. También un análisis más riguroso habría destapado ya entonces, por ejemplo, que el Triángulo de las Bermudas era solo un mito inventado y explotado comercialmente por un par de escritores sensacionalistas.

Quizá eran tiempos más ingenuos. Hoy las tornas han cambiado. Y aunque el fenómeno ovni continúa congregando una legión de adeptos –se habla incluso de un renacimiento en los últimos años–, raros son los científicos que lo defienden. Los que sí lo hacen acusan a la comunidad científica de haberlo ignorado por considerarse un tema tabú, pero lo cierto es que no han faltado los científicos que se han acercado a este fenómeno con la imprescindible mezcla de escepticismo y honestidad. Con los medios y la tecnología actuales es aún más fácil documentar estos casos, pero la documentación no ha mejorado. Con los medios y la tecnología actuales también es más fácil fabricar estos casos, pero también destapar esas fabricaciones. Expertos como el exingeniero de la NASA e historiador de la carrera espacial Jim Oberg han desmontado la práctica totalidad de los avistamientos de ovnis publicados online.

Lo cual deja un problema pendiente. La creencia extendida de que el universo es un lugar rebosante de vida cuadraba a la perfección con el fenómeno ovni. Pero ¿cómo se compadece esa hipótesis de la vida rebosante con una realidad que hasta ahora nos ha mostrado todo lo contrario?

Imagen de Max Pixel.

Imagen de Max Pixel.

En 1950 el físico Enrico Fermi se preguntó: “¿Dónde está todo el mundo?”, dando lugar a lo que desde entonces se conoce como la paradoja de Fermi: tantísimas civilizaciones desperdigadas por todo el cosmos, y nosotros aquí, sin saber absolutamente nada de nadie más. Por entonces se creía que esa paradoja tenía los días contados. Pero con el pasar de los años se ha convertido en lo que ahora llaman el Gran Silencio: no es solo que nadie haya venido aquí, sino que tampoco las intensas búsquedas de señales alienígenas durante casi 60 años han obtenido otro resultado que ese silencio.

A pesar de todo, el ser humano es obstinado. Todavía hoy, muchos de los científicos más sesudos creen que el universo debe de ser un lugar rebosante de vida, incluso sin prueba alguna. Tal vez algún día las tornas vuelvan a cambiar, y la realidad imponga la idea de que la vida es un fenómeno extremadamente raro. Pero mientras tanto, a los defensores de la vida rebosante les urge encontrar una solución a la paradoja de Fermi y al Gran Silencio.

A lo largo de los años se han propuesto diferentes soluciones a la paradoja, con mayores o menores pretensiones científicas, pero sin ninguna prueba.

Y luego está la del zoo galáctico.

¿Saben aquel que dice que la Tierra es una especie de reserva natural gestionada por una raza de alienígenas superavanzados, y que no sabemos nada de ellos porque nos mantienen en la ignorancia para no trastornarnos, o porque somos demasiado tontos para sus estándares?

No, en serio: hay quienes no solamente creen en esto, sino que además financian un congreso destinado a que científicos de todo el mundo crucen océanos y se reúnan para discutirlo. Ocurrió el mes pasado en París, donde investigadores del METI (algo parecido al SETI, pero que trata de comunicarse activamente con posibles alienígenas) se congregaron para debatir sobre la paradoja de Fermi. Uno de los argumentos estelares de la cita, sobre el que versaron varias de las charlas, fue la llamada hipótesis del zoo.

La copresidenta del congreso y miembro de la dirección del METI, Florence Raulin Cerceau, calificó la hipótesis del zoo de “explicación controvertida”. Por su parte, el también copresidente de la conferencia Jean-Pierre Rospars dijo que “parece probable que los extraterrestres estén imponiendo una cuarentena galáctica porque son conscientes de que sería culturalmente perturbador para nosotros saber de su existencia”.

¿Explicación controvertida? ¿Cuarentena galáctica? ¿Parece probable? Si se trata de opiniones, aquí va otra: no es que sea imposible; pero se trata de una hipótesis tan descabellada que necesita más pruebas para cruzar el umbral de la credibilidad que otra mucho más plausible. Como decía Carl Sagan, y otros antes que él, afirmaciones extraordinarias requieren pruebas extraordinarias (he rescatado estas palabras de una ocasión en la que escribí sobre el principio de Wang, aquel personaje de la película Un cadáver a los postres que definía una hipótesis de un colega como “teoría más estúpida jamás oída”).

La idea del zoo galáctico no es nueva; fue propuesta formalmente por primera vez en 1973 por el radioastrónomo John Ball, del Instituto Tecnológico de Massachusetts, aunque ya había aparecido antes en la ciencia ficción. Y desde luego, como argumento de ciencia ficción puede dar pie a historias muy jugosas.

Pero el propio Ball sabía que estaba jugando a la especulación loca; en su artículo reconocía que su hipótesis era “probablemente fallida e incompleta”, alegando que los alienígenas se asegurarían de que nunca los encontráramos y que por tanto se trataba de una idea indemostrable. Para la cual no solamente no hay pruebas, sino ni siquiera una manera imaginable de obtenerlas. E incluso cuando algún investigador ha seguido el juego tratando de echar unos cuantos números, ha llegado a la conclusión de que lo del zoo galáctico es difícilmente compatible con el mundo real.

Imagen de Max Pixel.

Imagen de Max Pixel.

Y sin embargo, este delirio sigue cautivando. Con motivo de la reunión del METI, el presidente de esta organización, Douglas Vakoch, comparaba nuestra situación y la de esos presuntos alienígenas guardabosques con la de las cebras del zoo y sus cuidadores. “Si fuéramos a un zoo y de repente una cebra se volviera hacia nosotros, nos mirara a los ojos y comenzara a recitar una serie de números primos con su pezuña, eso establecería una relación radicalmente diferente entre nosotros y la cebra, y nos sentiríamos obligados a responder”, decía Vakoch. “Podemos hacer lo mismo con los extraterrestres trasmitiendo señales de radio potentes, intencionadas y ricas en información hacia las estrellas cercanas”.

Claro está, Vakoch olvidaba mencionar que nuestra existencia es totalmente evidente para la cognición cebril. Incluso en las reservas naturales, aunque las cebras no tengan la menor idea de su estatus como animales protegidos ni del nuestro como sus protectores, saben que estamos ahí y reaccionan a nuestra presencia. Por el contrario, los defensores de la hipótesis del zoo arguyen que los alienígenas, además de encontrarse en un nivel cognitivo infinitamente superior al nuestro, disponen de la tecnología necesaria para evitar que tengamos la menor pista de su existencia.

O sea, que si sumamos un ente sobrehumano muy superior a nosotros, invisible, intangible y todopoderoso, que nos observa y mueve los hilos de nuestro mundo, cuyas decisiones no comprendemos ni podemos objetar, con el cual no podemos establecer un contacto directo y cuya existencia no podemos demostrar… ¿No nos da algo muy parecido a lo que tradicionalmente se ha venido llamando… Dios?

Pero antes de caer en la tentación de asignar a la hipótesis del zoo galáctico el estatus de religión New Age, por supuesto que es imprescindible aclarar la diferencia esencial entre los defensores de esta idea y los raelianos o los practicantes de otros cultos, ufológicos o no; y es que los primeros no creen ciegamente sin más.

Lo realmente incomprensible es que ese pensamiento crítico propio de todo científico no les haya llevado a interesarse por aquello de la navaja de Ockham. ¿Qué es más plausible? ¿Que exista un Club Galáctico de especies alienígenas inteligentes a nuestro alrededor, pero que no tengamos constancia de ellos porque nos mantienen en una reserva, ocultándose de nosotros mediante tecnologías avanzadas? ¿O… que sencillamente no haya nadie ahí?

Y es que asumir sin más, como hacía Ball en su artículo, que “donde quiera que haya condiciones para que la vida exista y evolucione, lo hará”, es ir demasiado lejos saltándose demasiados pasos. En el fondo, la solución más sencilla a la paradoja de Fermi es simplemente que no exista tal paradoja.

La radiación estelar, un arma de doble filo para la vida en otros planetas

La semana pasada, dos científicos del Instituto Carl Sagan de la Universidad de Cornell publicaban un interesante estudio con una conclusión sugerente: la alta irradiación estelar que reciben algunos de los exoplanetas descubiertos no sería un obstáculo para la supervivencia, ya que la Tierra logró engendrar vida a pesar de que en sus comienzos también estaba sometida a un elevado nivel de radiación del Sol.

En su estudio, publicado en Monthly Notices of the Royal Astronomical Society, Lisa Kaltenegger y Jack O’Malley-James cuentan que Proxima-b, un planeta rocoso en la zona habitable de Proxima Centauri (una de las estrellas del sistema estelar más cercano a nosotros, Alfa Centauri), recibe 30 veces más radiación ultravioleta (UV) que la Tierra actual y 250 veces más bombardeo de rayos X.

En su día, estos datos desinflaron las expectativas de encontrar vida allí, ya que estos niveles de radiación se consideraban demasiado hostiles. Algo similar ocurre con otros exoplanetas potencialmente habitables que también orbitan en torno a enanas rojas, estrellas pequeñas, poco brillantes y templadas que suelen tener un comportamiento temperamental.

Kaltenegger y O’Malley-James han construido modelos de simulación computacional del ambiente de radiación UV en los cuatro exoplanetas habitables más próximos, Proxima-b, TRAPPIST-1e, Ross-128b y LHS-1140b, y con distintas composiciones atmosféricas para imponer diferentes grados de protección frente a los embates de sus estrellas, todas ellas enanas rojas. Al mismo tiempo, los dos investigadores simularon también las condiciones a lo largo de la historia de la Tierra, desde hace 3.900 millones de años hasta hoy.

Ilustración de un planeta habitable en la órbita de una estrella enana roja. Imagen de Jack O’Malley-James/Cornell University.

Ilustración de un planeta habitable en la órbita de una estrella enana roja. Imagen de Jack O’Malley-James/Cornell University.

Los resultados muestran que incluso en las peores condiciones atmosféricas y de irradiación, los exoplanetas analizados soportarían niveles de UV inferiores a los que experimentaba nuestro planeta hace 3.900 millones de años, cuando posiblemente la vida comenzaba a dar sus primeros pasos; unos primeros pasos que llegaron increíblemente lejos. “Dado que la Tierra temprana estaba habitada, mostramos que la radiación UV no debería ser un factor limitante para la habitabilidad de los planetas”, escriben los investigadores. “Nuestros mundos vecinos más cercanos permanecen como objetivos interesantes para la búsqueda de vida más allá de nuestro Sistema Solar”.

El estudio de Kaltenegger y O’Malley-James es sin duda un argumento a favor de que la vida pueda progresar en entornos más hostiles de lo que solemos imaginar (aunque no aborda otras agresiones como los rayos X). De hecho, sus implicaciones van aún más allá de lo que los autores contemplan, porque la radiación es una causa de variabilidad genética, el sustrato sobre el que actúa la evolución. La radiación mata, pero también muta: puede generar esporádicamente ciertas variantes genéticas que casualmente resulten en individuos mejor adaptados y en el primer paso hacia nuevas especies. Otro estudio reciente muestra que el sistema TRAPPIST-1 puede estar sometido a un intenso bombardeo de protones de alta energía; y una vez más, esto puede ser tan dañino para la vida como generador de diversidad.

Sin embargo, al leer el estudio es inevitable regresar al viejo problema, el principal: sí, la vida puede perdurar, pero para ello antes tiene que haber surgido. ¿Y cómo?

Hasta que un experimento logre reproducir a escala acelerada el fenómeno de la abiogénesis –un término elegante para referirse a la generación espontánea en tiempo geológico, la aparición de vida a partir de la no-vida–, o hasta que un algoritmo de Inteligencia Artificial sea capaz de simular el proceso, seguimos completamente a oscuras.

La especiación es un fenómeno continuo y abundante. La eclosión de seres complejos a partir de otros más sencillos es algo que ha ocurrido infinidad de veces a lo largo de la evolución, incluso cuando se ha hecho borrón y cuenta nueva, como pudo ser el caso de la biota ediacárica hace 542 millones de años. Pero todas las pruebas apuntan a que en 4.500 millones de años la vida solo ha surgido una única vez. Y lo cierto es que aún no tenemos la menor idea de cómo ocurrió.

Lo cual nos lleva una vez más a la misma idea planteada a menudo en este blog, y es que si la abiogénesis ha sido un fenómeno tan inconcebiblemente extraordinario y excepcional en un planeta también inusualmente raro —como conté recientemente aquí–, defender la abundancia de la vida en el universo es más un deseo pedido a una estrella fugaz que un argumento basado en ciencia. Al menos, con las pruebas que tenemos hasta ahora.

Esta ausencia de pruebas obliga a los defensores de la profusión de la vida en el universo a explicar por qué no tenemos absolutamente ninguna constancia de ello. Y a veces les empuja a esgrimir teorías que llegan a rayar en lo delirante. Como les contaré el próximo día.