Archivo de la categoría ‘Biología molecular’

¿Es posible tener una vacuna contra el nuevo coronavirus durante esta epidemia?

El director de la agencia de enfermedades infecciosas de los Institutos Nacionales de la Salud de EEUU (NIH), Anthony Fauci, dijo el viernes en una rueda de prensa que en dos meses y medio podríamos tener una vacuna contra el nuevo coronavirus 2019-nCoV. Las palabras de una figura de la solvencia y el prestigio de Fauci, a quien debemos buena parte de lo que sabemos sobre el VIH y el sida, tienen una sobrada garantía de credibilidad. Pero por si la declaración de Fauci pudiera dar la impresión de que en dos meses y medio cualquiera podrá vacunarse contra la epidemia que ahora tanto preocupa al mundo, conviene una explicación más detallada de qué significan exactamente sus palabras.

Hay una creencia errónea muy extendida que aquí me he ocupado varias veces de desmentir, y es la idea de que la vacuna contra el ébola se creó en un tiempo récord tras el brote de 2014-2016. Esta vacuna, llamada originalmente rVSV-ZEBOV y hoy ya con su marca comercial, Ervebo, ha ayudado enormemente a contener el brote de ébola que comenzó en el Congo en agosto de 2018, y que aún continúa activo, si bien a un nivel residual que no representa una preocupación global.

Pero es importante conocer esto: la plataforma en la que se basa la vacuna del ébola comenzó a desarrollarse en 1996. El trabajo para adaptar esta plataforma al ébola se inició en 2001. En 2003 se solicitó la patente de la vacuna. Once años después de aquello, cuando surgió el brote que tanto atemorizó a la población mundial, la vacuna aún no estaba preparada para su uso general, dado que aún estaba en pruebas. En 2015 se entregaron 1.000 dosis a la Organización Mundial de la Salud como medida de emergencia para tratar de ayudar a la contención del brote. Pero solo con el nuevo brote en 2018 comenzó a utilizarse como una herramienta real de contención en lo que se conoce como un protocolo de vacunación en anillo, que consiste en administrarla al círculo de personas que rodean a los pacientes contagiados.

(Nota: también hay que decir que existe una diferencia esencial entre los brotes de 2014 y 2018, que los expertos ya se encargaron de destacar en su momento. El primero se originó en Guinea-Conakry, un país costero donde la movilidad es bastante alta, mientras que el actual afecta a regiones relativamente aisladas en la profunda selva congoleña).

En resumen: la vacuna del ébola ha llevado más de 15 años de trabajo. El hecho de que ahora la tengamos no es fruto de los esfuerzos puestos en marcha a raíz de la epidemia de 2014, sino que se lo debemos a que el gobierno de Canadá, cuyo sistema de salud pública creó la vacuna, pensó que merecía la pena invertir en este proyecto cuando todos los demás países lo habían desechado considerando que el virus del Ébola no era una preocupación desde el punto de vista del bioterrorismo (se contagia con relativa dificultad y mata demasiado deprisa).

Imagen de John Keith / Wikipedia.

Imagen de John Keith / Wikipedia.

Crear una vacuna ha sido tradicionalmente un proceso muy laborioso, casi artesanal, en el que había que comenzar de cero cada nueva formulación, eligiendo el tipo más adecuado, y luego ir tuneándola a lo largo del proceso hasta obtener la receta perfecta. En general, la idea que se nos presenta en el cine de que durante un brote vírico puede desarrollarse en caliente una vacuna para atajar la expansión de ese mismo brote, es ciencia ficción.

Pero aquí entran los matices que es necesario explicar. Pensemos en esos hospitales que se han levantado en Wuhan en cuestión de días, algo que también parecería una fantasía. Hace unos días, El País publicaba un interesante reportaje en el que expertos en arquitectura explicaban cómo era posible lograrlo. La idea básica era esta: con suficiente dinero y mano de obra, puede hacerse, y si normalmente esto no ocurre aquí no es por imposibilidad, ya que no existe ninguna innovación radical en el proceso aplicado por los chinos, sino sencillamente porque a nadie le interesa construir tan rápido.

La clave del proceso, según explicaban los arquitectos, consiste en emplear elementos prefabricados, de tal modo que no haya que edificar ladrillo a ladrillo, sino que solo sea necesario llevar las piezas al lugar de construcción y montarlas.

Las nuevas tecnologías de vacunas están logrando esto mismo: emplear elementos prefabricados de modo que en cada caso concreto solo sea necesario introducir las piezas específicas de cada virus en una plataforma ya existente.

Este es el camino que comenzó a abrirse con el desarrollo de las vacunas de virus recombinantes o vectores recombinantes. El método consiste en coger un virus modificado, inocuo para el organismo, y disfrazarlo con el traje del virus contra el cual se quiere inmunizar, las proteínas de su envoltura. Una vez introducido en el organismo, invade las células y se reproduce en ellas como un virus normal, provocando una respuesta inmunitaria contra su disfraz, que en el futuro podrá atacar al virus original.

La vacuna del ébola es un ejemplo de este tipo. En el futuro, quizá una mayor estandarización de estos sistemas permita obtener nuevas vacunas de forma más rápida. En el caso del ébola, la plataforma concreta que se ha utilizado se desarrolló durante el propio proceso de crear la vacuna, por lo que ha sido un trabajo largo.

Pero la tecnología de vacunas no se detiene. Desde hace años se vienen investigando las vacunas de ADN, consistentes en introducir directamente en el organismo un ADN que las células pueden utilizar para crear por sí mismas una proteína del virus, de modo que el sistema inmunitario reconoce este elemento como extraño y reacciona contra él, lo que prepara al cuerpo para responder contra el virus completo si llega a presentarse.

En esta misma línea, aún hay un paso más allá, y es utilizar un ARN mensajero (ARNm) en lugar de un ADN. El ARNm es la copia desechable del ADN que las células utilizan para fabricar las proteínas codificadas en los genes. Es decir, con esto se le ahorra a la célula el trabajo de producir el ARNm a partir del ADN vírico; ya se le da hecho. Hasta hace muy poco este enfoque era inviable porque el ARNm es normalmente muy inestable y se degrada fácilmente, pero recientemente se han encontrado mecanismos para hacerlo más resistente y duradero.

Este es el enfoque que emplea la apuesta más ambiciosa de las que ya están en marcha para producir una vacuna contra el nuevo coronavirus 2019-nCoV, la que motivó las palabras de Fauci. La compañía Moderna ha desarrollado una plataforma de ARNm que dice poder adaptar fácilmente para la obtención rápida de una vacuna contra este virus, un proyecto que está llevando a cabo en colaboración con los NIH. Fauci dijo que hasta ahora el proyecto está progresando a la perfección, que ya se ha logrado inducir la respuesta inmune en ratones contra el gen del 2019-nCoV insertado en el ARNm, y se mostró enormemente optimista al afirmar que en solo dos meses y medio podrían comenzar los ensayos clínicos en humanos.

La de Moderna no es ni mucho menos la única vacuna contra el coronavirus que ya está cocinándose en los laboratorios. También de ARNm es la fórmula que desarrolla la alemana CureVac, mientras que la estadounidense Inovio, en colaboración con la china Beijing Advaccine, prepara una vacuna de ADN. Otro enfoque distinto es el de la Universidad de Queensland en Australia, basado en una tecnología llamada molecular clamp, que consiste en crear proteínas del virus y graparlas en su configuración original para que el sistema inmunitario genere una respuesta contra ellas capaz también de reconocer las proteínas en el virus completo. Los investigadores australianos esperan tener una vacuna lista en seis meses.

Por su parte, algunos gigantes del sector también se han sumado a la carrera. Johnson & Johnson ha anunciado el proyecto de una vacuna de vector viral, como la del ébola, y Glaxo Smithkline ha ofrecido además poner su tecnología al servicio de otras partes que puedan contribuir a la obtención rápida de una vacuna.

Algunos de estos proyectos cuentan con la financiación de la Coalición para las Innovaciones en Preparación para Epidemias (CEPI), una entidad público-privada nacida en Davos y con sede en Noruega, que ha lanzado un concurso vigente hasta el 14 de febrero para financiar nuevas propuestas de desarrollo de vacunas contra el 2019-nCoV, por lo que en los próximos días podrían surgir nuevos proyectos. El objetivo de esta entidad es potenciar proyectos capaces de obtener vacunas contra virus emergentes en un plazo de 16 semanas.

En total, a fecha de hoy ya se han anunciado más de una docena de proyectos de desarrollo de vacunas contra el nuevo coronavirus, y vendrán más.

Pero ahora vienen las malas noticias.

Y es que, incluso si proyectos como el de Moderna llegan a término con la insólita rapidez en la que confía Fauci, cuando él hablaba de “llegar a la gente” en dos meses y medio, no se refiere a la distribución masiva de la vacuna, sino al comienzo de los ensayos clínicos.

Los ensayos clínicos de cualquier nuevo medicamento llevan años y años, hasta que puede establecerse sin género de dudas que el producto no causa daños graves y que hace aquello para lo cual se diseñó. En situaciones de emergencia global, como la actual, este proceso puede intentar comprimirse lo más posible. Pero esta posibilidad de compresión tiene un límite. Como ejemplo, tenemos dos casos cercanos en el tiempo.

En 2013, menos de un año después del comienzo del brote del coronavirus del Síndrome Respiratorio de Oriente Medio (MERS), la compañía Novavax anunció que ya había obtenido una vacuna. Han pasado casi siete años, y la vacuna sigue en pruebas. También en 2013, Inovio anunció que su nueva vacuna había superado los ensayos preclínicos (en animales), y que pronto comenzaría a probarse en humanos. Siete años después, la compañía acaba de anunciar que pronto emprenderá la Fase 2 de los ensayos clínicos, del mínimo de tres fases necesarias antes de que un medicamento comience a administrarse a la gente.

¿Alguien recuerda la epidemia del zika en América en 2015, el virus transmitido por mosquitos que causaba microcefalia en los fetos? Varias compañías se lanzaron entonces al desarrollo de vacunas, y en 2016 teníamos ya varias formulaciones anunciadas. Los NIH de EEUU trabajan nada menos que en seis vacunas distintas. Pero aún no existe una vacuna aprobada contra el zika. Y no porque los productos en desarrollo no estén funcionando, sino porque aún les queda un largo camino de pruebas por recorrer antes de llegar al mercado.

Es más: lo cierto es que ninguna de las compañías startup que cuentan con novedosas plataformas tecnológicas para la creación rápida de vacunas tiene todavía ni una sola formulación aprobada para su uso general en humanos.

La pregunta lógica es: ¿no podría abreviarse todo este proceso de ensayos clínicos? Pero las respuestas son otras preguntas: ¿estaría el público dispuesto a apostar por el posible beneficio de una nueva vacuna, aceptando expresamente el riesgo de un producto no lo suficientemente probado? ¿Estarían las autoridades dispuestas a aceptar la responsabilidad de dar luz verde a productos no lo suficientemente probados? ¿Estarían las compañías dispuestas a asumir el riesgo de perder demandas millonarias, incluso mediando consentimientos firmados?

En resumen, y salvo que mucho cambien las cosas, aunque la tecnología de vacunas esté progresando de un modo que habría sido increíble solo hace unos años, el largo y complejo escollo de los imprescindibles ensayos clínicos seguirá determinando que cada nueva vacuna no sea una esperanza para el presente brote, sino para futuros brotes.

Más cerca de la píldora del ejercicio físico, ahorrándonos el sudor y el chándal

Hubo un tiempo en que los humanos aquejados por alguna dolencia acudíamos al brujo o al chamán, quien nos administraba una pócima preparada con hierbajos y raíces, de sabor repugnante y que llevaba inherente el tributo a los dioses en forma de otros efectos indeseados, pero que al menos era capaz de aliviar hasta cierto punto algunos de esos males que motivaban la consulta.

Entra la ciencia. Y entonces, los químicos conseguían identificar lo que se llamó principios activos, compuestos concretos de esos hierbajos y raíces que eran responsables del poder curativo. Por ejemplo, el chamán no sabía que el espíritu benéfico que vivía en las hojas del sauce en realidad no era tal, sino el ácido 2-hidroxibenzoico, también llamado ácido salicílico. Así, con el tiempo se logró purificar esos ingredientes y separarlos de otros no tan beneficiosos, de modo que, por ejemplo, ya no era necesario beber tanta pócima para notar la mejora que otros compuestos de las hierbas nos dejaran los riñones como papas arrugás. O que hubiera que comerse tantos mohos que algunos de ellos a la larga provocaran cáncer de hígado.

Aún más, incluso se logró que ya no fuera necesario recoger hierbas, sino que esos principios activos pudieran crearse a partir de piezas más básicas. Por ejemplo, el ácido acetilsalicílico, una versión mejorada del ácido salicílico que hoy conocemos como aspirina, podía obtenerse mezclando cloruro de acetilo con salicilato sódico, y este a su vez se preparaba con dióxido de carbono y fenolato sódico, y este resultaba de combinar fenol e hidróxido sódico, y así.

Como resultado de todo ello, hoy ya no vamos al brujo o al chamán, sino al médico y a la farmacia. Por supuesto que los efectos secundarios adversos siempre existirán incluso con compuestos sintéticos puros, porque un organismo biológico no es un videojuego en el que uno gana o pierde vidas, sino un sistema muy complejo que mantiene un equilibrio llamado homeostasis, como un inmenso castillo de dominó, donde al mover una pieza se mueven también otras.

Pero no, en contra de lo que pueda parecer, esto de hoy no va de quimiofobia ni de chamanismo, sino que todo esto tiene también otra veta interesante. Si hemos conseguido aislar los principios activos buenos de las plantas medicinales para no tener que llevarnos todo el lote, ¿no podríamos hacer lo mismo con otras cosas que pueden proporcionarnos beneficios, recortando la parte que no queremos?

¿Por ejemplo, el ejercicio físico?

Imagen de pxfuel.

Imagen de pxfuel.

Cierto ejercicio físico reporta beneficios para la salud, en términos de regulación metabólica y capacidad motora. Esto es escasamente discutible, ya que está suficientemente avalado por la ciencia. Pero entran los matices: “cierto”, porque no todo. También la ciencia ha descubierto que un exceso de ejercicio físico puede ser perjudicial; los corredores de maratón sufren daño renal agudo, con lesiones estructurales en sus túbulos renales. O también la ciencia ha mostrado, por si hacía falta mostrarlo, que los niños con mayor actividad deportiva sufren más daños osteomusculares.

(Nota: a pesar de ello, en la Comunidad de Madrid, en la que vivo, a algún genio se le ha ocurrido que es una buena idea aumentar en una hora más a la semana la educación física en los colegios, algo a lo que alguna otra voz más sensata ya ha respondido advirtiendo de que se hará a costa de la enseñanza de las ciencias. Total, qué importa tener niños un poco más necios, siempre que estén más esbeltos y fuertotes, si al fin y al cabo somos una potencia mundial en deportes, no en ciencias).

Pero no solo sería ampliamente cuestionable que a todos los efectos se metan en el mismo saco la actividad física beneficiosa y el deporte extremo agresivo hacia el organismo y causante de dolencias que también suman al gasto sanitario. Sino que, además, es ampliamente rechazable que se identifiquen ejercicio físico y deporte. La distinción es lo suficientemente clara como para no tener que explicarla. Pero se concederá que uno puede apreciar los beneficios científicamente avalados de la actividad física sin que necesariamente tenga por qué gustarle el deporte.

Conozco personas que no han leído un libro desde que dejaron los estudios –si es que lo leyeron entonces–, y otros muchos que si leen algo –no, Twitter no cuenta– es por la información que ese algo les aporta (libros de autoayuda, ensayos políticos o históricos, etcétera, etcétera, etcétera), y no por disfrutar del placer de la lectura, porque carecen del gen (gen en sentido metafórico) del placer de la lectura. Para estas personas, leer es como máximo un peaje a pagar para obtener otra cosa, y están en su perfecto derecho. Algunos carecemos del gen del disfrute del deporte y lo sufrimos más bien como una tortura si queremos obtener el beneficio que puede reportarnos. También estamos en nuestro perfecto derecho. Y nos llevaremos bien, siempre que los unos no nos pongamos pelmazos tratando de convertir a los otros a nuestra causa.

Así que, para ese sector de la población no practicante del culto al deporte, y que pondríamos en una lista cien cosas más gratificantes y enriquecedoras para ocupar cualquier retal de nuestro tiempo antes que ponernos un chándal, ¿no sería posible que la ciencia recreara ese principio activo beneficioso del ejercicio físico sin tener que tragarnos el resto?

Bien, pues aunque esto aún no existe, la buena noticia es que sí hay investigadores trabajando en ello desde hace tiempo. El último estudio en esta línea acaba de publicarse ahora en Nature Communications. Un equipo de investigadores de la Universidad de Michigan y la Universidad Estatal Wayne de Detroit ha indagado en los resortes genéticos mediadores de esos beneficios metabólicos del ejercicio físico. Es decir, qué genes se activan gracias a la actividad física y qué hacen las proteínas producidas por ellos para poner en marcha esos efectos provechosos.

Los científicos han descubierto en todo ello un papel central para las sestrinas, una familia de proteínas ya conocidas por su intervención en la respuesta al estrés: se activan cuando el ADN sufre daños, o en condiciones de hipoxia o de daño oxidativo. Según lo que se conoce, las sestrinas son como una especie de brigada de emergencias, entrando en acción para proteger el organismo de ciertas agresiones y restablecer la homeostasis. Y hacen todo esto actuando sobre otras moléculas implicadas en distintas vías metabólicas, del mismo modo que la brigada de emergencias moviliza a los bomberos o a los sanitarios.

El estudio muestra que en moscas y ratones las sestrinas son “mediadores críticos de los beneficios del ejercicio”, escriben los autores: no solo se activan en respuesta al ejercicio, sino que este no produce ningún provecho cuando estas proteínas faltan. Y del mismo modo, al promover la activación de las sestrinas, se mimetizan los efectos favorables del ejercicio sin necesidad de practicarlo. Los investigadores han identificado también los efectores de las sestrinas en estos casos, las moléculas sobre las cuales actúan.

Sin embargo, no debe perderse de vista un detalle esencial: todo lo anterior se aplica a moscas y ratones. Los autores mencionan que se ha descrito también la activación de las sestrinas en humanos en respuesta al ejercicio físico, y estas proteínas aparecen evolutivamente conservadas en distintas especies, pero ello no quiere decir que automáticamente los resultados sean aplicables a nosotros. Se llenarían las bodegas del Titanic hasta hundirlo de nuevo con los estudios de resultados en animales que no han sido finalmente extrapolables a humanos.

Pero aún hay más: un segundo estudio, publicado también ahora en la misma revista y dirigido por investigadores de la Universidad Pompeu Fabra de Barcelona y el Centro Nacional de Investigaciones Cardiovasculares (CNIC), en colaboración con algunos de los autores del trabajo anterior, muestra que la activación de las sestrinas previene la atrofia de los músculos debida a la edad o a la inactividad.

Todo lo cual convierte a las sestrinas en las nuevas proteínas favoritas de quienes carecemos del gen del gusto por el deporte. Y aunque obviamente aún queda mucho camino por recorrer, estos estudios sugieren que la idea de llegar algún día a obtener los beneficios del ejercicio físico con una píldora, ahorrándonos el chándal y el sudor a quienes no nos agradan el chándal ni el sudor, ya no es una mera fantasía. Qué grande es la ciencia.

Esto es lo que hizo Margarita Salas, y este es el reconocimiento que nunca se le dio

Esta semana conocíamos la triste noticia del fallecimiento de Margarita Salas, bioquímica y bióloga molecular, probablemente la científica más importante en toda la historia de España, al menos hasta los comienzos de este siglo; existen ahora otros numerosos ejemplos brillantes de investigadoras con carreras ya distinguidas por grandes logros y aún con mucho recorrido por delante.

Comprensiblemente, en estos días los medios se han centrado de forma preferente, a veces casi exclusiva, en la cuestión de género: cómo Salas sufrió discriminación en épocas anteriores por su condición de mujer y cómo su trayectoria ha servido de escaparate para visibilizar el trabajo de las mujeres científicas y de modelo para presentar a las niñas en esa difícil etapa de la elección de carrera.

Nunca está de más recordar esto. Es necesario promocionar el trabajo de las mujeres investigadoras y seguir insistiendo en fomentar la vocación por la ciencia entre las niñas. Y sin duda también en la ciencia quedan sexismo y barreras por demoler.

Margarita Salas en 2011, recibiendo el doctorado honoris causa por la UNED. Imagen de honoris023 / Wikipedia.

Margarita Salas en 2011, recibiendo el doctorado honoris causa por la UNED. Imagen de honoris023 / Wikipedia.

Pero dejarlo aquí sería hacer un demérito al perfil de Salas o reducir su figura a la de una pancarta, a la de alguien que solo destacó por lo que dijo (lo cual sería admisible en quienes solo se dedican a decir). No es así: Margarita Salas no era una activista, sino una científica. Destacó por lo que hizo, no por lo que dijo. Y tanto su trabajo como su legado se abrieron paso simplemente por su importancia y su calidad, no por el hecho de que en algún momento haya resultado oportuno ondear una bandera concreta.

Dicho de otro modo, la importancia de su trabajo y de su legado es independiente del hecho de que fuera mujer u hombre. E incluso considerando que el éxito de su carrera haya tenido un mérito mayor por el hecho de haber sido mujer en una época de ciencia dominada por hombres, en la ciencia no cuenta el mérito; solo los resultados, que se acaban abriendo paso.

Anteriormente he contado aquí la historia de Jocelyn Bell Burnell, la astrofísica primero ignorada por el Nobel y después ampliamente reconocida. Algunos trataron de convertirla en una bandera; ella no se dejó, porque eran sus resultados lo único que podía colocarla en el lugar que merecía. Esto es ciencia, no política. Y para quienes piensan que la política debería introducirse en la ciencia, este es un claro argumento en contra.

En cuanto al legado de Margarita Salas, ha sido omnipresente para todos los que nos hemos dedicado a la biología molecular. Un servidor lleva ya décadas sin coger una pipeta, pero en aquellos tiempos era habitual encontrarse continuamente con Margarita Salas a través de sus exbecarios (trabajé con alguno de ellos) y los exbecarios de sus exbecarios. Formó a varias generaciones de científicos y científicas, que salían preparados para dirigir muchos de los mejores grupos del país. Ser exbecario de Margarita era casi el mejor argumento que podía presentarse en un currículum. Ella era como un hub de la biología molecular española. Y a pesar de ello nunca cayó en el divismo; era afable, cordial, sencilla.

En cuanto a su trabajo, los medios ya han resaltado la enorme rentabilidad de sus patentes. Pero esto tampoco le hace justicia. Para comprender lo que hizo y su importancia, hay que contar que en 1993 un norteamericano loco (muy loco) llamado Kary Mullis ganó el premio Nobel por inventar una técnica llamada Reacción en Cadena de la Polimerasa, o PCR.

En cierto modo, la PCR es algo parecido a un microscopio: amplifica algo que no podemos apreciar directamente por su pequeño tamaño. El microscopio nos ofrece una imagen magnificada de algo minúsculo, mientras que la PCR produce muchas copias de ese algo para que podamos detectarlo, estudiarlo y trabajar con ello. Lo que amplifica la PCR es el ADN presente en una muestra. Para hacer copias de un ADN es necesario disponer de una enzima fotocopiadora llamada ADN polimerasa. Existen muchas de estas, cada especie tiene la suya propia, y la clave del método de Mullis fue encontrar una que hacía exactamente lo que se necesitaba. Gracias a la PCR hoy existe la genómica; por ejemplo, pudo secuenciarse el genoma humano.

En 1989, pocos años después de que Mullis inventara la PCR (1983), Margarita Salas y sus colaboradores descubrieron una nueva ADN polimerasa en el fago Φ29. Un fago es el diminutivo de un virus bacteriófago, llamado así porque infecta a las bacterias, no a otras especies como nosotros. Los fagos son seres (si vivos o no, es una eterna polémica en biología) muy simples y es sencillo trabajar con ellos en el laboratorio. Y en cuanto a esto, Φ, es la letra griega Phi (“fi“).

La ADN polimerasa del Φ29 resultó tener unas propiedades muy interesantes. Con el tiempo llegó a utilizarse para desarrollar una técnica alternativa a la PCR llamada Multiple Displacement Amplification (MDA), o Amplificación por Desplazamiento Múltiple. La MDA hace básicamente lo mismo que la PCR, pero tiene ciertas ventajas frente a algún inconveniente.

Entre las primeras, produce cadenas de ADN más largas con menos errores, por lo que es especialmente apropiada para muestras muy escasas –como el ADN de una sola célula– donde interesa amplificar fragmentos largos sin errores –por ejemplo, genes humanos donde puede haber una mutación de una sola letra del ADN–. Entre los segundos, cuando en una muestra hay dos versiones del mismo ADN ligeramente diferentes –por ejemplo, las dos copias de un gen que hemos recibido de papá y mamá–, la polimerasa del Φ29 tiene una molesta tendencia a amplificar una de ellas y olvidarse de la otra.

En los últimos años, la MDA se ha convertido en una verdadera alternativa a la PCR, utilizándose extensamente para amplificar y leer genomas completos, incluso de una sola célula. Entre sus usos destacan la detección de mutaciones causantes de enfermedades genéticas o las pruebas forenses de ADN; lo que hace el CSI. Pero no olvidemos que frente a estos usos más populares, las técnicas de amplificación de ADN son lo que hoy sostiene toda la investigación en genética y biología molecular en todo el mundo; siempre que oigan o lean sobre un nuevo avance biomédico, casi seguro que se ha podido llegar a él gracias al uso intensivo de las técnicas de amplificación de ADN.

Así pues, ¿habría merecido un Nobel el trabajo de Margarita Salas? Bueno, en su momento la PCR ofreció la posibilidad de hacer fácilmente cosas que hasta entonces no podían hacerse o era demasiado laborioso, y a eso fue Mullis quien llegó primero. Una segunda técnica alternativa no suele llevarse un Nobel. También debe tenerse en cuenta que el desarrollo de la MDA fue un trabajo de varios grupos a lo largo del tiempo, aunque también hubo otros implicados en la invención de la PCR que, como siempre ocurre con los Nobel, se quedaron sin premio. Pero mientras que la PCR es una técnica ya veterana, la MDA está en crecimiento, y se han destacado sus aplicaciones en campos relativamente nuevos como la biología sintética. Como mínimo, lo que sí puede decirse es que su trabajo está a la altura de un Nobel.

De lo que no puede caber la menor duda es de que, por muchos galardones y reconocimientos que haya recibido en vida, Margarita Salas era sobrada acreedora de un premio que nunca se le concedió: el Príncipe/Princesa de Asturias.

En estos premios irregulares, el fallo del jurado a veces es un fallo garrafal; por ejemplo, cuando se otorgó a las creadoras del sistema de edición genómica CRISPR olvidando a quien descubrió aquello que lo hizo posible, el español Francis Mojica. En otros casos los fallos parecen venir motivados por criterios no estrictamente científicos (dejando aparte el de la nacionalidad, que se supone). E incluso teniendo en cuenta que en dicho jurado se ha sentado alguna persona que le debe mucho a Margarita Salas, la más importante científica del siglo XX en España nos ha dejado sin haber recibido el máximo galardón que se concede a la ciencia en este país. Los premios no se hacen grandes por quien los concede, sino por los premiados.

Los bebés CRISPR, un año después: confusión, mala ciencia e incoherencia

Nada es ciencia de verdad hasta que sale en los papeles. El experimento de los bebés CRISPR al que ayer me refería, anunciado hace ya casi un año por el investigador chino He Jiankui, no ha salido en los papeles, ni parece que vaya a salir, dado que las revistas científicas rechazan publicarlo por motivos éticos. Quizá por primera vez en la historia de la ciencia moderna, o al menos de la biología, una primicia mundial en un campo científico de gran relevancia (objetivamente es así, con independencia de todo lo demás) no va a publicarse, como si jamás hubiera ocurrido.

El problema es que sí ha ocurrido. El nacimiento de los bebés fue confirmado por las propias autoridades chinas. Y aunque no estemos hablando precisamente de una fuente de transparencia modélica, lo cierto es que nadie con un cierto conocimiento del asunto y de la ciencia implicada duda de que los experimentos de He sean reales, aunque sin una publicación sea imposible valorar hasta qué punto los resultados son tal como los ha contado.

El experto en leyes y ética de la biociencia Henry Greely, al que citaba ayer, escribe en su reciente artículo: “La escasez de las fuentes no significa que las proclamas de He sean falsas. De hecho, sospecho que la mayoría de ellas son ciertas, aunque solo sea porque, si se hubiera inventado los resultados, los habría inventado mejores”.

Y por lo tanto, dado que esto realmente sí ha ocurrido, ¿qué es preferible: que todos los detalles, los métodos y los resultados estén a disposición de la comunidad científica para que otros investigadores puedan evaluarlos y criticarlos, o que todo ello quede encerrado para siempre bajo siete llaves?

El investigador chino He Jiankui en la Segunda Cumbre Internacional de Edición del Genoma Humano, en noviembre de 2018. Imagen de VOA - Iris Tong / Wikipedia.

El investigador chino He Jiankui en la Segunda Cumbre Internacional de Edición del Genoma Humano, en noviembre de 2018. Imagen de VOA – Iris Tong / Wikipedia.

Quizá alguien podría pensar que es preferible lo segundo para evitar que otros científicos puedan repetirlo. Pero no, no es así. He no ha descubierto nada nuevo. No ha inventado la poción mágica ni la rueda; simplemente, ha traspasado una barrera que otros muchos investigadores conocedores de las mismas técnicas también podrían traspasar, pero que no lo han hecho por motivos éticos. No es necesario que el trabajo de He se publique para que otros investigadores puedan repetirlo. Y de hecho, en cambio no se suscitaron escándalos ni remotamente similares cuando se publicaron otros estudios cuya información sí podrían emplear otros con fines muy peligrosos: por ejemplo, las secuencias genéticas del virus de la viruela y de la gripe de 1918.

Otra muestra de los curiosos criterios con los que se está manejando el asunto de He la hemos conocido recientemente. El pasado junio, la revista Nature Medicine, que no es cualquier cosa, publicó un estudio en el que dos investigadores afirmaban que la mutación introducida en las niñas podía hacerlas enfermar y morir jóvenes. Los autores se basaban en un banco de datos de ADN de casi medio millón de personas de Reino Unido, en el que habían descubierto menos personas con esta mutación de las que se esperarían por azar.

De inmediato, hubo otros investigadores que repitieron el análisis y no encontraron los mismos resultados. Finalmente los propios autores han retractado su estudio, reconociendo que cometieron un error garrafal: el sistema utilizado para el genotipado en la base de datos produce un número muy elevado de falsos negativos; es decir, gente que tiene la mutación sin que esta aparezca en sus datos de ADN, porque al método utilizado se le ha escapado.

¿Cómo es posible que una revista como Nature Medicine publicara un estudio fallido, con un error que cualquier estudiante de primero de doctorado habría detectado si hubiera tenido acceso a la misma información que tenían los autores y los revisores del trabajo? ¿Es que cualquier estudio que incite a sacar las antorchas y los tridentes contra He va a aceptarse solo por este motivo, aunque sea mala ciencia?

Por supuesto, es importante aclarar que nadie en la comunidad científica ha defendido las posturas de He, porque son indefendibles. Pero frente a lo que parece una mayoría de voces relevantes que han condenado por entero la edición genómica de la línea germinal humana (embriones y células reproductoras), casi podrían contarse con los dedos los científicos que se han atrevido a defender públicamente que el problema del trabajo de He no es lo que ha hecho, sino que lo haya hecho sin las garantías, la supervisión, la aprobación ética y la transparencia que estos experimentos requieren.

La voz más prominente en este sentido ha sido la del genetista de Harvard George Church, uno de los expertos más prestigiosos y respetados en su campo. Casi podría decirse que fue la única voz relevante que después del anuncio de He se alzó defendiendo, no a este investigador ni sus experimentos, pero sí la edición genómica de la línea germinal humana. Y ello a pesar de que en 2017 un informe de las Academias Nacionales de Ciencias, Ingeniería y Medicina de EEUU abría la puerta a estos procedimientos siempre que se apliquen criterios estrictos.

Un último dato sobre la forma tan curiosa, por decirlo de forma neutra, con que la sociedad y los medios han tratado este tema. La semana pasada, todos los medios hacían la ola a un nuevo método desarrollado por David Liu, uno de los creadores de la herramienta de edición genética CRISPR. El prime editing, como ha llamado Liu a su nuevo sistema, es más limpio y preciso que la técnica original de CRISPR y más apto para un gran número de modificaciones genéticas que otras variantes obtenidas anteriormente. Según el propio Liu, podría corregir hasta un 89% de las más de 75.000 variantes genéticas patogénicas conocidas en humanos (el resto afectan a secuencias de ADN demasiado largas para el alcance de este método).

Naturalmente, no hubo medio que no elogiara lo que el trabajo de Liu supone de cara a la posible erradicación futura de muchas enfermedades genéticas de las denominadas raras. Y aunque desde luego la edición genómica en la línea somática (las células digamos normales del cuerpo) alberga también un gran potencial terapéutico para ciertas patologías, lo que ninguno de esos medios aclaraba es que la erradicación de las enfermedades raras por estas técnicas pasa por la edición genómica de la línea germinal.

Por decirlo aún más claro: la erradicación de las enfermedades raras por métodos genéticos como el creado por Liu pasa por hacer lo que He ha hecho, y que una mayoría ha condenado no por cómo lo ha hecho, sino simplemente por haberlo hecho.

En definitiva, parece lógico que He sea tratado como cualquier practicante de cualquier procedimiento clínico que no cuente con los permisos y la aprobación que son necesarios para ejercerlo. Pero cerrar la puerta a la edición genómica de la línea germinal humana es cerrar la puerta al futuro de la prevención de terribles enfermedades genéticas para las que no existe cura ni tratamiento.

Una barrera ética a superar, si es que se quieren aprovechar los inmensos beneficios que estas técnicas pueden aportar, es el hecho de que ninguno de los bebés, ni los de He ni ningún otro, podrá jamás aprobar o rechazar el procedimiento. Y otra barrera ética a superar es que el riesgo cero jamás existirá; no existe en ningún proceso, natural o creado por el ser humano. Si esta “cirugía genética” llega a aplicarse, habrá errores. Para los afectados, esos errores serán trágicos. Pero negar a una inmensa mayoría los beneficios que pueden obtenerse de estas técnicas sería como suprimir el transporte aéreo por el hecho de que algunos aviones se estrellan.

Los bebés CRISPR, un año después: ¿hacemos como si no hubiera ocurrido?

Pronto va a cumplirse un año desde que el investigador chino He Jiankui anunció al mundo el nacimiento de Lulu y Nana, dos bebés que supuestamente llevaban sus genomas modificados para eliminar la versión funcional de un receptor crítico en la infección por VIH. La mutación introducida por el científico en los genes utilizando la herramienta de edición genética CRISPR convertía a las dos niñas en las primeras personas con genomas editados. Y presuntamente, esta manipulación de sus genes debería hacerlas resistentes al virus del sida.

Todo ello, siempre y solo según He. Porque un año después, aún no existe ninguna confirmación de que todo lo anterior haya ocurrido en realidad, y no solo en la imaginación del investigador. Para que lo afirmado por He pueda considerarse real, esos resultados deben aparecer en una publicación científica. Hasta ahora, esto no ha sucedido. Y es posible que nunca suceda.

El investigador chino He Jiankui en su laboratorio. Imagen de The He Lab / Wikipedia.

El investigador chino He Jiankui en su laboratorio. Imagen de The He Lab / Wikipedia.

El motivo es que las revistas científicas se rigen por ciertos estándares éticos que debe respetar todo estudio admisible para publicación. Y en su momento quedó bien claro que los experimentos de He no solo se saltaron el consenso ético internacional con respecto a la manipulación genética en humanos, sino que además se ha acusado al investigador de falsificar los documentos de certificación ética de su proyecto.

De hecho, sabemos que si los resultados de He aún no se han publicado, no es el propio investigador quien lo ha evitado. Según informaciones publicadas el pasado enero por STAT, en noviembre de 2018 He y nueve coautores enviaron a Nature un estudio titulado “Birth of twins after genome editing for HIV resistance”, que describía los experimentos clínicos con los embriones llevados a término. El estudio fue rechazado sin pasar revisión por motivos éticos. He y sus colaboradores enviaron además otros dos estudios preclínicos –in vitro y en animales– a Nature y a Science Translational Medicine, que fueron también rechazados.

Más aún: poco antes de su anuncio, He y sus colaboradores publicaron en la revista The CRISPR Journal un artículo de opinión titulado “Draft Ethical Principles for Therapeutic Assisted Reproductive Technologies“, o “Borrador de principios éticos para las tecnologías terapéuticas de reproducción asistida”. En cuanto saltó el escándalo, la revista decidió retractar el artículo bajo la justificación de que los experimentos de He “violan las regulaciones locales y las normas bioéticas aceptadas internacionalmente. Este trabajo era directamente relevante a las opiniones expuestas en esta Perspectiva; el hecho de que los autores no hayan desvelado este trabajo clínico influye de forma manifiesta en la consideración editorial del manuscrito”.

En otras palabras: el artículo de He fue retractado porque el autor realmente había hecho aquello que en su artículo, previamente aceptado, defendía como admisible.

En resumen, un año después, esta es la situación respecto al trabajo de He, según lo cuenta el experto en ética y leyes de la biociencia de la Universidad de Stanford Henry Greely, en un artículo publicado ahora en la revista Journal of Law and the Biosciences:

No tenemos confirmación de lo que He hizo, de nadie externo al grupo de He y salvo por la breve nota de prensa de Guangdong [la provincia china donde se hizo el trabajo] sobre la investigación, incluyendo si se hizo edición genómica de los bebés o si estos realmente existen. No tenemos un análisis independiente de ADN de los bebés. No tenemos información externa sobre los padres de los que se dice que aceptaron la edición genómica de sus embriones, ni de lo que se les dijo. No tenemos información clara (excepto la de He) sobre el papel que ha desempeñado la Universidad de Ciencia y Tecnología del Sur de Shenzen [la institución de He], o el hospital en cuyo departamento de fertilidad presuntamente se hizo la edición, y cuyo comité ético supuestamente aprobó el experimento.

Y pese a que no tengamos nada de esto, Greely no aboga por que debamos tenerlo. De hecho, escribe respecto a He que “sus colegas deberían rehuirle, las revistas deberían rehusar los estudios donde figure como autor, los organismos financiadores deberían abandonarle. Se le debe incluir en las listas negras, como mínimo para las revistas y financiadores. Y los líderes de la ciencia deben pronunciarse en este sentido, alentando a otros a hacer lo mismo”.

De hecho, lo que pide Greely ya está ocurriendo: ninguna revista acepta los trabajos de He, su Universidad le ha expulsado y actualmente el investigador ha desaparecido del mapa, a todos los efectos.

Así pues, ¿caso cerrado? ¿Olvidamos a He, su anuncio y sus supuestos experimentos? ¿Hacemos como que no ha pasado nada y que todo esto nunca ocurrió?

La respuesta, mañana…

El monstruo del lago Ness es, posiblemente, esto

La pasada madrugada regresábamos a casa en coche cuando algo extraño cruzó la carretera ante nuestros faros. Eran más de las tres, vivimos en la punta norte del Parque Regional del Guadarrama Medio, y por allí estamos acostumbrados a convivir con jabalíes, zorros, musarañas, culebras de escalera, ratas, ratones y otras criaturas variadas. Pero lo que cruzó delante del coche parecía una enorme tarántula como las que se encuentran en América y en las regiones tropicales.

Dado que las arañas de ese aspecto en España, como la lobo o la negra del alcornocal, no llegan ni de lejos a semejante tamaño, concluí que habría sido alguna ilusión provocada por el sueño o por los numerosos botellines de Mahou que me pareció conveniente enviar a reciclar (no, no conducía yo). Claro que, si yo hubiera vivido hace unos cientos de años y tuviera como amigo a algún monje iluminador de manuscritos, podría haberle visitado para narrarle mi avistamiento de la araña monstruosa del Guadarrama y que la incluyera en su bestiario junto a las mantícoras y catoblepas.

Y así es como suelen nacer las leyendas. Alguien ve algo, lo interpreta a su modo, lo cuenta a otros, de alguna manera acaba difundiéndose, e inevitablemente otros acabarán viendo lo mismo; inevitablemente, porque estas presuntas confirmaciones independientes ocurren incluso cuando lo avistado originalmente no es tal. Un caso especialmente llamativo es el de los platillos volantes: como he contado anteriormente aquí y en otros medios, el protagonista del primer avistamiento divulgado por la prensa en 1947 no dijo haber visto platillos volantes, sino objetos con forma de media luna que se movían en el aire como platillos saltando sobre el agua. El periodista lo entendió mal y publicó que aquel hombre había visto platillos volantes, y desde entonces empezaron a surgir infinidad de avistamientos de platillos volantes.

Así es también como surgió la leyenda del monstruo del lago Ness: un relato medieval de veracidad muy dudosa, presuntos avistamientos en siglos posteriores, y la imaginación popular acaba dando forma a una leyenda que se convierte en un fenómeno sociológico. Como conté recientemente en otro medio, la popularización de los hallazgos de fósiles en el siglo XIX hizo que los monstruos con forma de serpiente presentes en los relatos antiguos y medievales comenzaran a transformarse en animales parecidos a los plesiosaurios. Luego, con el tiempo, alguien decide fabricar pruebas fotográficas falsas, ya sea con ánimo de lucro o notoriedad, o como simple broma. Y entonces ya poco importan los desmentidos: una vez que hemos decidido lo que queremos creer, ni la propia confesión de labios del falsificador servirá para apearnos del burro.

Y pese a todo, estos no son fenómenos a los cuales la ciencia deba permanecer ajena. Más bien al contrario, uno de los poderes de la ciencia es resolver los misterios, y el estudio de leyendas como la de Nessie puede revelarnos mucho; no solo sobre nosotros mismos y nuestros mecanismos mentales, sino también sobre el mundo que nos rodea. Es altamente improbable que exista un animal prehistórico en el lago Ness, pero si la gente dice haber visto algo, ¿cuáles son los fenómenos reales que se han interpretado como avistamientos del monstruo?

Un equipo internacional de investigadores, dirigido por la Universidad de Otago en Nueva Zelanda, ha analizado las aguas del lago Ness en busca de la huella de ADN de las criaturas allí presentes. Las técnicas actuales permiten hacer un tipo de análisis llamado metabarcoding de ADN ambiental (eDNA), consistente en leer todo el revoltillo de ADN presente en una muestra heterogénea tomada de la naturaleza y buscar ciertas etiquetas genéticas que identifican a las especies presentes, actuando como una especie de códigos de barras.

Según publican los investigadores en la web de su proyecto (los resultados aún no se han publicado formalmente), entre los 500 millones de secuencias de ADN pescadas en el loch ha aparecido de todo, desde bacterias hasta humanos, pasando por varios tipos de mamíferos terrestres, domésticos y salvajes. Los científicos han identificado 19 especies de mamíferos, 22 aves, tres anfibios y 11 peces. La mayoría son animales cuya presencia en el lago ya era conocida.

¿Y qué hay de Nessie? Según escriben los investigadores, “una de las teorías más populares es que podría existir en el lago Ness un reptil del Jurásico o una población de reptiles del Jurásico, como los plesiosaurios”. “Desafortunadamente, no podemos encontrar ninguna prueba de una criatura ni remotamente parecida a eso en los datos de secuencias de nuestro ADN ambiental. Así que, basándonos en nuestros datos, no creemos que la idea del plesiosaurio se sostenga”, añaden.

Asimismo, los investigadores tampoco han encontrado ADN de otras especies que algunas hipótesis han asociado a los avistamientos, como tiburones, esturiones o siluros. Y sin embargo, otra criatura aparece de forma dominante y repetida en las muestras: “Hemos encontrado una gran cantidad de ADN de anguila. Las anguilas son muy abundantes en el lago Ness, y hemos encontrado su ADN en prácticamente todas las ubicaciones estudiadas; hay montones de ellas”, escriben.

Imagen de SuperNatural History.

Imagen de SuperNatural History.

Estos datos han llevado a los investigadores a rescatar una vieja hipótesis casi olvidada. La idea de que Nessie podría ser en realidad una anguila ya se había propuesto en los años 30, cuando la historia del monstruo comenzó a causar furor, pero se abandonó cuando se impuso la imagen del plesiosaurio que ha perdurado en la imaginación hasta nuestros días. Los científicos del proyecto, bajo la dirección del biólogo Neil Gemmell, creen que la anguila podría ser la respuesta: “La teoría restante que no podemos refutar basándonos en el ADN ambiental obtenido es que lo que la gente está viendo es una anguila muy grande”.

Naturalmente, el análisis de ADN no permite determinar el tamaño de los animales detectados, pero los investigadores mencionan que existen informes de grandes anguilas observadas en el lago. La anguila europea raramente crece más de un metro, aunque los científicos no descartan que en el lago pudiera haberse desarrollado una comunidad de ejemplares de gran tamaño.

Una anguila europea (Anguilla anguilla). Imagen de Lex 1 / Wikipedia.

Una anguila europea (Anguilla anguilla). Imagen de Lex 1 / Wikipedia.

Por supuesto, los resultados no pueden zanjar por completo la leyenda del monstruo, ni lo harán. Los propios investigadores reconocen que un monstruo totalmente desconocido hasta ahora pasaría inadvertido en el metabarcoding si su ADN no se ha catalogado previamente. “Sin embargo, tenemos una teoría más para testar, la de la anguila gigante, y puede merecer la pena explorarla con más detalle”, concluyen.

Los “Óscar de la ciencia” premian la primera foto de un agujero negro

El regreso de las vacaciones viene cada año con sus sempiternas rutinas: la vuelta al cole, el reingreso a la vida laboral, los anuncios de fascículos en televisión, la cuenta bancaria agonizando de inanición… Y para los que nos dedicamos a contar lo que pasa en el mundo de la ciencia, es temporada de premios. En un mes conoceremos quiénes añadirán a su lista de credenciales en la Wikipedia los laureles del Nobel. Pero por el momento, esta semana tenemos un enjundioso aperitivo con los Premios Brealthrough.

Enjundioso, porque en realidad los Breakthrough son mucho más que un aperitivo. De hecho, hoy son los premios científicos más sustanciosos del mundo, con una dotación de tres millones de dólares por galardón que triplica la de los Nobel. Por supuesto, los premios suecos continúan y continuarán siendo la cumbre soñada por todo científico (que trabaje en alguna de las categorías incluidas, claro). Pero en solo ocho ediciones, los Breakthrough han conseguido convertirse en un importante indicador en el cuadro de mandos de la actualidad científica.

Además de su generosa dotación, una clave del éxito de los Breakthrough es precisamente casi todo aquello que los diferencia de los Nobel. Frente a la pompa decimonónica de los premios suecos, con su olor a roble viejo, sus cascos de plumas y sus trajes de pingüino, los Breakthrough se presentan como “los Óscar de la ciencia”, y esta comparación basta para entender su carácter. La preferencia por uno u otro estilo puede ir en gustos, pero frente al arcaicismo de los Nobel, los Breakthrough son los premios de la era de internet, como corresponde a los nombres que los impulsan: Sergey Brin, Priscilla Chan, Mark Zuckerberg, Ma Huateng, Yuri y Julia Milner, o Anne Wojcicki.

También esta diferencia de estilo afecta al hecho de que los Breakthrough suelen concederse más en caliente que los Nobel, a hallazgos más recientes en el tiempo, premiando más los avances por sus posibilidades futuras que por las ya demostradas. Aunque Alfred Nobel consignó en su testamento que sus premios debían concederse a los descubrimientos más importantes del año precedente, lo cierto es que los Nobel tienden a distinguir hallazgos de hace varias décadas, y a menudo se ven lastrados por lo que parece una necesidad de otorgar premios escoba a trabajos que hasta ahora habían quedado sin reconocimiento. Los medios no especializados suelen presentar cada año los fallos de los Nobel como si premiaran ciencia de vanguardia, pero por lo general suele ser más bien de retaguardia –o más propiamente, de fondo de armario–, siempre que sus frutos hayan sido de gran trascendencia hasta el día de hoy.

Sin embargo y en lo que respecta a los premios de Física, este año la actualidad científica se lo ha puesto muy fácil a los jurados. El Breakthrough en esta categoría se ha concedido a los investigadores del Event Horizon Telescope (EHT), una colaboración internacional que ha empleado una red de telescopios para lograr la primera fotografía de un agujero negro.

Imagen del agujero negro supermasivo en el centro de la galaxia M87 resuelta por la red Event Horizon Telescope.

Imagen del agujero negro supermasivo en el centro de la galaxia M87 resuelta por la red Event Horizon Telescope.

El pasado 10 de abril todos los medios, incluyendo este blog, contaron la que hasta ahora ha sido la noticia científica más resonante de 2019. Más allá de su importancia, el hecho de que la noticia fuera gráfica le garantizaba el acceso a todos los telediarios, donde a menudo parece que algo no existe si no lleva foto.

Pero el Breakthrough es, además, un premio adaptado a una época en que la ciencia suele ser un esfuerzo colectivo, mientras que los Nobel siguen anclados a la idea obsoleta del genio individual. El premio lo recogerá el director de la colaboración EHT en el Centro de Astrofísica Harvard-Smithsonian, Shep Doeleman, pero el importe de tres millones de dólares se repartirá equitativamente entre los 347 investigadores firmantes de los seis estudios que presentaron los resultados. Así, cada uno de ellos tocará a algo más de 8.600 dólares. Y aunque la cantidad no sea como para bañarse en billetes, el hecho de que los y las becarias predoctorales vayan a percibir lo mismo que sus jefes y jefas es también un reconocimiento tan inusualmente raro como habitualmente merecido.

En lo que respecta al dólar, más suerte van a tener los premiados en Ciencias de la Vida y en Matemáticas, que serán menos a repartir. En la primera categoría se conceden cuatro premios, que este año irán respectivamente al genetista molecular Jeffrey Friedman por su descubrimiento de la hormona leptina y su papel en la obesidad, a los bioquímicos Franz-Ulrich Hartl y Arthur Horwich por sus hallazgos sobre el plegamiento de proteínas en la célula –un mecanismo implicado en enfermedades como las neurodegenerativas–, al fisiólogo David Julius por sus estudios sobre los mecanismos celulares y moleculares del dolor, y a la bioquímica Virginia Man-Yee Lee por sus descubrimientos de ciertos mecanismos moleculares implicados en las enfermedades neurodegenerativas.

En cuanto a la categoría de Matemáticas, cada año solo se concede un Premio Breakthrough, que en este caso ha sido para Alex Eskin, por sus descubrimientos en geometría que incluyen un trabajo desarrollado en colaboración con la iraní Maryam Mirzakhni (fallecida en 2017, por lo que no podrá recibir el premio) que resuelve un curioso problema: ¿puede un rayo de luz en una habitación cubierta de espejos alcanzar todos los puntos de la misma? Eskin y Mirzakhni demostraron que en habitaciones poligonales cuyos ángulos son fracciones de números enteros existe un número finito de puntos que no quedarían iluminados.

Por último, los Breakthrough conceden también seis premios denominados New Horizons y dotados cada uno con 100.000 dólares, tres en Física y tres en Matemáticas, a científicos jóvenes que ya han logrado avances notables; una buena manera de promocionar la consolidación de las carreras incipientes y prometedoras.

En resumen, el logro conseguido por la colaboración EHT podría dar pie a uno de esos raros casos en los que el Nobel se concede a ciencia de actualidad, como ocurrió en 2013 con la concesión del premio de Física a Peter Higgs y François Englert por el hallazgo largamente esperado del bosón de Higgs. Claro que, como también sucedió entonces, las arcaicas normas de los Nobel obligarían a seleccionar a un máximo de tres premiados. Es decir, que en este caso, 344 investigadores participantes en el hallazgo quedarían sin reconocimiento.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (II)

Como comencé a explicar ayer, desde hace años los investigadores han planteado la posibilidad de que los inhibidores de citoquinas proinflamatorias (moléculas que produce el cuerpo y que promueven la respuesta de inflamación contra las agresiones al organismo) podrían ser útiles en la lucha contra el alzhéimer, ya que la inflamación es uno de los síntomas de la enfermedad.

Sin embargo, y como también conté ayer, en realidad el proceso patológico del alzhéimer aún es desconocido, por lo que la inflamación podría no ser una causa, sino un efecto. De ser así, atacar la inflamación contra el alzhéimer sería como luchar contra un terremoto protegiendo la cristalería: se evitará que se rompan las copas y los vasos, pero nada más.

Es más, hasta tal punto se desconoce la patogénesis del alzhéimer que ni siquiera puede descartarse del todo que esta inflamación sea en realidad beneficiosa. Aunque la inflamación crónica suele tener efectos nocivos, en su origen es una respuesta del organismo contra una agresión. En el caso del alzhéimer, se ha propuesto incluso que la activación de la microglía (el sistema inmune propio del cerebro) podría ayudar a eliminar las placas de proteína beta-amiloide que tradicionalmente se han asociado con la muerte neuronal en los pacientes de alzhéimer.

Ilustración de anomalías neuronales en el alzhéimer: placas beta-amiloides (marrón) y ovillos neurofibrilares (azul). Imagen de NIH.

Ilustración de anomalías neuronales en el alzhéimer: placas beta-amiloides (marrón) y ovillos neurofibrilares (azul). Imagen de NIH.

El primer estudio piloto que evaluó el uso del etanercept de Amgen y Pfizer contra el alzhéimer se publicó en 2006, cuando el fármaco llevaba ya utilizándose contra la artritis reumatoide durante ocho años en EEUU, seis en Europa. En aquella ocasión, investigadores de la Universidad de California dirigidos por Edward Tobinick trataron a 15 pacientes de alzhéimer durante seis meses mediante inyecciones de etanercept en la médula espinal.

Al término del pequeño estudio, los investigadores observaron mejoras en los resultados de los test cognitivos de los pacientes. Esta fue su conclusión: “Un creciente volumen de ciencia básica y evidencias clínicas implica a los procesos inflamatorios y la resultante activación glial en la patogénesis del alzhéimer. Este pequeño estudio piloto sugiere que la inhibición de la citoquina inflamatoria TNF-α puede ser prometedora como enfoque potencial para el tratamiento del alzhéimer. Merece la pena emprender mayores ensayos clínicos aleatorizados y controlados con placebo”.

Es decir, que ya en 2006 la comunidad científica conocía la posible utilidad del etanercept en el tratamiento del alzhéimer. El estudio mereció un editorial en la revista que lo publicó, Medscape General Medicine, que subrayaba su carácter “altamente preliminar” y sus limitaciones, como la ausencia de controles con placebo y de un estudio farmacodinámico, pero que concluía: “No todos los días (o todos los años) se ven datos tan prometedores en el tratamiento del alzhéimer como los que se presentan en este artículo, y claramente se necesitan más estudios”.

En años posteriores, Tobinick continuaba publicando nuevos datos favorables, como un seguimiento de los pacientes y nuevos casos, también con resultados de mejoras cognitivas. A finales de la década pasada, los antiinflamatorios no esteroideos y en concreto los inhibidores de TNF-α, como el etanercept o el infliximab, ya estaban en el punto de mira de muchos investigadores del alzhéimer.

Conviene aclarar aquí algo que también se ha propagado estos días y que no es cierto. Algunos comentarios han aventurado que el etanercept no puede ser útil contra el alzhéimer porque no atraviesa la barrera hematoencefálica, el muro que separa el sistema nervioso central del resto del organismo. Pero algunos expertos piensan que el hecho de que el fármaco no atraviese esta barrera no tiene por qué impedir una posible acción beneficiosa: existen indicios de que un efecto antiinflamatorio en el sistema nervioso periférico puede reducir la inflamación en el cerebro. En el caso del TNF-α, la neutralización de esta citoquina fuera del cerebro podría reducir la cantidad de esta molécula que llega al propio cerebro.

Sin embargo, todo ello había que tomarlo con extrema cautela: además de que los datos de Tobinick no dejaban de ser anecdóticos (sin ensayos clínicos rigurosos), si por algo se distingue la investigación del alzhéimer es por la inmensa cantidad de cadáveres de fármacos prometedores que ha dejado en el camino. En ratones y ratas se ha logrado curar la enfermedad infinidad de veces. Pero en realidad los ratones y las ratas no padecen alzhéimer, por lo que se trata de modelos creados por los propios investigadores. Y dado que en realidad aún no se conoce cuál es la patogénesis del alzhéimer, los modelos animales no son réplicas verdaderas de la enfermedad, sino de algunos de sus síntomas. Se han creado empresas motivadas exclusivamente por un fármaco que curaba este falso alzhéimer en ratones. Y han cerrado empresas cuando se comprobaba que este fármaco no hacía absolutamente nada contra el alzhéimer real.

Modelo de alzhéimer en el cerebro de un ratón: placas beta-amiloides (rojo) entre las neuronas (verde). Imagen de NIH.

Modelo de alzhéimer en el cerebro de un ratón: placas beta-amiloides (rojo) entre las neuronas (verde). Imagen de NIH.

En el caso de los antiinflamatorios no esteroideos, muchos de ellos han curado el alzhéimer en ratones; ninguno de ellos ha funcionado en pacientes. También el etanercept y moléculas similares han mostrado eficacia en modelos animales, pero esto no es ni muchísimo menos una garantía de que servirán como fármaco.

Así las cosas, al mismo tiempo comenzaban a llegar otros datos no tan positivos. Dado que el etanercept por su propia naturaleza es un inmunosupresor, se reportaban casos de pacientes afectados por infecciones graves e incluso mortales por el uso de este medicamento contra la artritis reumatoide, lo que obligaba a la Agencia de Fármacos de EEUU a publicar una advertencia.

Esto tiene una implicación trascendental: el etanercept jamás será un fármaco para prevenir el alzhéimer. Sencillamente, tratar a personas sanas con un inmunosupresor durante largos periodos de su vida es algo que está fuera de toda discusión.

Por fin en 2015, el año en que la patente del etanercept expiró en Europa (no en EEUU), investigadores británicos emprendieron el primer ensayo clínico doble ciego, aleatorizado y controlado con placebos para evaluar el uso del fármaco contra el alzhéimer. Se trataba de un estudio aún muy pequeño, con 41 pacientes de alzhéimer, y en fase 2. La fase 1 de un ensayo clínico se centra en la seguridad del fármaco, mientras que la fase 2 confirma estos datos de tolerabilidad y empieza a valorar sus posibles efectos. Por cierto, y aunque en EEUU Amgen se había mostrado reticente a los ensayos clínicos del etanercept para otras indicaciones, este estudio fue financiado a través de una ayuda de Pfizer al investigador principal, Clive Holmes.

Los resultados de tolerabilidad fueron positivos. Sin embargo, los de eficacia fueron decepcionantes: “No hubo cambios estadísticamente significativos en cognición, comportamiento o función global”, escribían los autores del estudio. No había diferencias entre el etanercept y el placebo. Lo cual suscitó una evidente pregunta: ¿y si los resultados reportados por Tobinick solo eran un efecto placebo?

Aquí es donde las cosas empiezan a complicarse aún más. Por un lado, el ensayo británico empleó etanercept por vía subcutánea, no espinal como en los estudios de Tobinick. Pero los investigadores concluían: “El presente estudio no debería verse como un apoyo al uso subcutáneo no aprobado de etanercept para el tratamiento del alzhéimer. El etanercept tiene reconocidos efectos adversos potencialmente serios en la población”.

Al mismo tiempo, los resultados del estadounidense comenzaban a cuestionarse seriamente. Tras ser amonestado por el Consejo Médico de California por conducta no profesional, Tobinick se mudó a Florida, un estado permisivo, donde montó una clínica en la que aseguraba tratar todo tipo de enfermedades neurológicas –incluidas las no autoinmunes– mediante sus inyecciones. Sin ensayos clínicos relevantes, Tobinick comenzaba a cargar a sus pacientes altas sumas por tratamientos con etanercept. Se revelaba además que el investigador no era un neurólogo, sino un internista que antes se dedicaba a la depilación por láser. Al parecer, y después de que sus tratamientos contra el alzhéimer fracasaran, Tobinick se centró en otras enfermedades.

Y en todo esto, ¿dónde entra el lío con Pfizer que ha hecho correr tanta tinta física y digital en los últimos días? El pasado martes, el diario The Washington Post publicaba una exclusiva según la cual, decía el titular, “Pfizer tenía pistas de que su fármaco superventas podía prevenir el alzhéimer” y las ocultó al mundo. En el texto, el periodista contaba que a sus manos había llegado un Power Point en el que se mostraban datos de cientos de miles de reclamaciones de seguros médicos que algunos investigadores de la compañía habían cruzado en 2015, y que se presentaron a la dirección en 2018. Según estos datos, de dos grupos iguales de 127.000 pacientes con alzhéimer y otros tantos sin esta enfermedad, todos ellos afectados por artritis reumatoide o dolencias similares, en el primer grupo (alzhéimer) 110 personas habían recibido etanercept, mientras que en el segundo (no alzhéimer) eran 302.

La crítica a Pfizer se basa en que no hizo públicos estos datos. Lo cual no implica que se mantuvieran en secreto: Holmes dispuso de ellos para su ensayo clínico. Pero si la pregunta es si la comunidad científica debería disponer de este tipo de datos, no creo que nadie objete que la respuesta es sí; la comunidad científica siempre tiene y debe tener hambre de datos, por lo que ningún indicio sobra, ninguno está de más. Ahora bien, si la pregunta es si los datos de Pfizer eran realmente relevantes…

En primer lugar, los datos de Pfizer no son novedosos. En 2016 se publicó un estudio similar: investigadores estadounidenses cruzaron datos de pacientes con artritis reumatoide, con o sin alzhéimer, con o sin tratamiento con etanercept, y concluyeron que “hay un riesgo mayor de alzhéimer en la población de artritis reumatoide estudiada”, y que “el riesgo relativo de alzhéimer entre los sujetos con artritis reumatoide era menor en los expuestos a etanercept”.

En segundo lugar, ¿qué revelan en realidad estos datos? Exactamente lo que dicen: que entre los enfermos de artritis reumatoide hay menos casos de alzhéimer entre los tratados con etanercept. No hay en absoluto una relación causa-efecto demostrada, y correlación nunca significa causalidad; nada descarta la posibilidad, por ejemplo, de que el etanercept, una medicación con efectos adversos serios, se administre con más frecuencia a los pacientes con un cuadro general menos grave. Para discernir entre las posibles hipótesis alternativas y relacionar causas y efectos con base científica son imprescindibles los ensayos clínicos rigurosos.

Por último, y dado que los datos se refieren exclusivamente a enfermos de artritis reumatoide, no hay absolutamente nada en ellos que sugiera una utilidad del etanercept contra el alzhéimer en personas sin artritis reumatoide. El único estudio riguroso que ha abordado esta cuestión hasta ahora, el pequeño ensayo de Holmes, fue negativo.

Estructura del TNF-alfa. Imagen de BQUB14-Jcanas / Wikipedia.

Estructura del TNF-alfa. Imagen de BQUB14-Jcanas / Wikipedia.

En resumen, ¿cuáles son las perspectivas de que se obtenga algo válido del etanercept contra el alzhéimer? Desde luego, nada invita a sospechar que este fármaco vaya a ser jamás la bala mágica contra el alzhéimer. Como ya he dicho arriba, es impensable que se plantee su uso como medicamento preventivo. Si acaso los enfermos de artritis reumatoide tratados con el fármaco pudieran beneficiarse de un posible efecto secundario en este sentido, bienvenido sea. Pero esto no aporta nada al resto de la población general, ni siquiera a la población de riesgo por su perfil genético.

El propio artículo del Washington Post, excelentemente trabajado a pesar de su desafortunado titular click-bait, dice: “Ninguno de los expertos entrevistados para esta historia dijo que tal indicación fuera de etiqueta del Enbrel [etanercept] contra el alzhéimer sería apropiada, dada la naturaleza muy limitada de los datos hasta ahora. Ni creen que esta prescripción vaya a producirse de manera significativa”.

En definitiva, si del etanercept, ya en el dominio público, o de sus muchos fármacos biosimilares ya existentes, podrá obtenerse algo positivo en el futuro contra el alzhéimer, solo el tiempo lo dirá; siempre, naturalmente, que este tiempo se dedique a emprender múltiples ensayos clínicos rigurosos. Que Amgen y Pfizer decidieran no abordar estos ensayos forma parte de su libre derecho como empresas. Que no publicaran un conjunto de datos que no aporta nada novedoso y cuya relevancia científica es relativamente escasa puede ser todo lo criticable que a cada uno le parezca, por supuesto.

Pero tirar de esta anécdota para apoyar una causa general contra estas compañías o contra la Big Pharma solo viene a demostrar una vez más que los pilares más fuertes en los que se sostiene dicha causa general suelen ser el odio irracional y el pensamiento conspiranoico. Que se alimentan solo de titulares, no de las noticias que van debajo. Y que por cierto, también son una industria muy rentable.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (I)

Si todo lo que se está publicando y tuiteando hoy fuera cierto, sería un día histórico para la humanidad: este 6 de junio de 2019 tendríamos por fin un fármaco para curar y prevenir el alzhéimer. Es decir, que una vez desaparecido todo el revuelo de los juicios de valor sobre las prácticas empresariales de Pfizer, lo que quedaría de todo ello sería una noticia de inmensa trascendencia: la cura del alzhéimer.

Solo que no es cierto. Pfizer no tiene un fármaco que cura el alzhéimer. Pfizer no tiene un fármaco que previene el alzhéimer. Pfizer no ha ocultado al mundo que tiene un fármaco que cura ni previene el alzhéimer; en primer lugar, porque no lo tiene, y en segundo lugar, porque no hay nada oculto: este fármaco es de sobra conocido desde hace años por la comunidad científica, que ya ha estado valorando su potencial contra el alzhéimer sin necesidad de que Pfizer revele o deje de revelar nada.

Imagen de Pixabay.

Imagen de Pixabay.

Por lo tanto, hoy no es día de buenas noticias, sino de malas. La primera mala noticia es que la cura del alzhéimer sigue sin existir; si es que puede llamarse noticia a algo que continúa no siendo, tal como no lo era ayer. Lo que sí es seguro una mala noticia es que lo ocurrido hoy es un triunfo más de la desinformación y la demagogia.

Esta es la desinformación y demagogia que circula: Pfizer creó un fármaco del que sabe que cura o previene el alzhéimer, y lo enterró para que nadie lo utilizara porque le resulta más rentable que la gente siga enferma.

Y esta es la información: existe un fármaco creado por investigadores básicos, ampliamente conocido y que se emplea en el tratamiento de la artritis reumatoide. Desde hace años, la comunidad científica piensa que los fármacos de este tipo quizá podrían aportar algún beneficio contra el alzhéimer. De hecho, se han hecho diversos estudios sobre ello, sin que aún exista una pista clara sobre su posible utilidad. Con el tiempo, han surgido otros fármacos biosimilares (casi idénticos, con el mismo efecto). Pfizer, que vende el fármaco original, se planteó si emprender un ensayo clínico a gran escala. Decidió no hacerlo. Con independencia de las explicaciones que Pfizer pueda ofrecer o haya ofrecido al respecto, existen razones perfectamente comprensibles para que una compañía decida no abordar un enorme gasto de resultados inciertos sobre un fármaco cuyas patentes están expirando, que otras entidades pueden ensayar libremente y del que además ya existen otros clones sometidos a investigaciones y a disposición de la comunidad científica.

Y ahora, la versión larga, por si a alguien le interesa conocer la verdad entre tanto espumarajo.

En 1991, el equipo dirigido por Bruce Beutler en el University of Texas Southwestern Medical Center publicó la creación de una proteína quimérica (formada por la unión de trozos de otras) compuesta por el receptor del factor de necrosis tumoral alfa (TNF-α) y un fragmento de anticuerpo.

Estructura del etanercept. Imagen de NEUROtiker / Wikipedia.

Estructura del etanercept. Imagen de NEUROtiker / Wikipedia.

El TNF-α es una molécula producida por el organismo que promueve los procesos inflamatorios. La proteína quimérica tenía por objeto inhibir la acción del TNF-α in vivo, uniéndose a este y secuestrándolo para neutralizar su función. Dado que ciertas enfermedades como las autoinmunes producen sus síntomas a través de una activación incorrecta del sistema inmunitario, en la que el TNF-α desempeña un papel relevante, la idea de Beutler y sus colegas era que la molécula por ellos diseñada podía sumarse a otras opciones disponibles en el tratamiento de dichas dolencias. Los experimentos mostraron que la proteína bloqueaba eficazmente la acción del TNF-α.

Los investigadores patentaron su molécula y vendieron los derechos a la compañía biotecnológica Immunex, que en 1998 desarrolló el producto para el tratamiento de la artritis reumatoide. Su nombre es etanercept, y su marca comercial Enbrel. En 2002 Immunex fue absorbida por Amgen, que actualmente vende el etanercept en EEUU. En el resto del mundo (excepto Japón) la comercialización del fármaco corría a cargo de Wyeth, que en 2009 fue adquirida por Pfizer.

Desde entonces, el etanercept se ha venido utilizando para el tratamiento de la artritis reumatoide y otras enfermedades autoinmunes, no sin problemas: tanto este fármaco como otros similares son, por su propia definición, inmunosupresores, lo que ha llevado a que ciertos pacientes contraigan infecciones graves e incluso mortales.

Por otra parte, entra el alzhéimer, una enfermedad para la que no existe cura ni prevención y cuya causa primaria aún se ignora. Desde hace años se sabe que el cuadro inflamatorio forma parte del conjunto de síntomas del alzhéimer, pero sin que aún se conozca qué relevancia tiene este proceso en el desarrollo de la enfermedad. La posibilidad de que la inflamación pudiera ser un factor primario es solo una de las hipótesis que circulan en torno a la patología del alzhéimer, pero los investigadores consideran la posibilidad de que el tratamiento del cuadro inflamatorio pueda ayudar a paliar los síntomas o frenar su progresión.

Por ello, desde hace años los investigadores han comenzado a ensayar la posible acción de varios fármacos antiinflamatorios contra el alzhéimer, comenzando por los modelos animales. Uno de estos fármacos es el etanercept. La patente del fármaco expiró en Europa en 2015, mientras que en EEUU aún estará vigente hasta 2028 porque Amgen consiguió una extensión. En la práctica, esto implica que cualquier compañía puede producir etanercept fuera de EEUU. Incluso en aquel país, cualquier compañía puede producir otros inhibidores biosimilares, aunque probablemente (como de hecho ha ocurrido) se enfrente a demandas por parte de Amgen.

Lo que debe quedar claro con esto es que el etanercept, ni jamás ha sido secreto, ni jamás ha sido único, ni pertenece ya siquiera a Pfizer. Está publicado desde 1991, pertenece ya al dominio público (excepto en EEUU) y existen numerosas alternativas, desde los más generales antiinflamatorios no esteroideos hasta los más específicos inhibidores de TNF-α y, dentro de estos, los biosimilares; actualmente existe casi una veintena de fármacos biosimilares al etanercept en distintas fases de desarrollo y comercialización.

Y como es obvio, siendo un fármaco común –de hecho uno de los antiinflamatorios más vendidos del mundo–, tampoco ha estado guardado en un armario o en una caja fuerte. Mañana continuaremos contando qué dicen los ensayos emprendidos hasta ahora con este fármaco contra el alzhéimer, qué es lo que Pfizer sabía y no dijo, qué relevancia real tenía esto, y cómo un dato no científico en un Power Point que llega a manos de un periodista puede pintarse de amarillo para convertirse en una de las fake news más sonadas del momento.

¿Y si el virus de Lloviu no mató a los murciélagos?

En mi entrada anterior resumí la historia del virus de Lloviu, ese pariente próximo del ébola que se describió en 2011 en cadáveres de murciélagos de una cueva asturiana, aunque aún no se conoce dónde pudo originarse –tal vez en Francia, han propuesto los científicos–. Como ya conté, ocho años después aún son muchas las preguntas pendientes sobre este virus; la de interés más general, si supone una amenaza para nosotros.

Pero antes de continuar, uno debe reconocer sus propios errores u omisiones. En mis artículos anteriores sobre el virus he mencionado a Anabel Negredo y Antonio Tenorio, investigadores del Centro Nacional de Microbiología del Instituto de Salud Carlos III (CNM-ISCIII) que han llevado gran parte del protagonismo en la detección del virus. Pero pasé por alto otra referencia esencial de esta historia, o más bien su raíz: el proyecto VIROBAT.

O, mejor dicho, proyectos, ya que son cuatro los que hasta ahora se han encadenado desde 2007 bajo la dirección del virólogo Juan Emilio Echevarría, responsable del Laboratorio de Rabia del CNM-ISCIII. VIROBAT es un programa multidisciplinar de identificación de virus en murciélagos ibéricos que ha implicado a diversos laboratorios en sus distintas líneas. El propio laboratorio de Echevarría identificó en 2013 el lyssavirus de Lleida, una variante de la rabia, mientras que la línea que llevó a la detección del lloviu gracias a las muestras de VIROBAT fue desarrollada en el Laboratorio de Arbovirus y Enfermedades Víricas Importadas del CNM-ISCIII, dirigido entonces por Tenorio y posteriormente por Mari Paz Sánchez-Seco. No solo debemos reconocer públicamente el trabajo científico que se hace en este país, sino también los nombres de quienes lo hacen posible.

Un murciélago de cueva Miniopterus schreibersii, la especie en la que se encontró el virus de Lloviu. Imagen de Steve Bourne / Wikipedia.

Un murciélago de cueva Miniopterus schreibersii, la especie en la que se encontró el virus de Lloviu. Imagen de Steve Bourne / Wikipedia.

El penúltimo trabajo sobre el lloviu hasta la fecha nos llega también del ISCIII, en colaboración con los investigadores estadounidenses que participaron en la identificación inicial del virus. Y sus conclusiones son interesantes, aunque aún continúan dejando preguntas en el aire que deberán esperar a nuevos estudios.

Como expliqué anteriormente, varios de los filovirus –la familia del ébola y el lloviu– que son letales para los humanos se han encontrado en murciélagos vivos y sin síntomas de enfermedad, lo que ha permitido despejar una incógnita clave sobre estos virus: su reservorio, o los animales que mantienen los virus en circulación y de los que ocasionalmente surgen los brotes que afectan a nuestra especie.

En cambio, el lloviu se encontró en murciélagos muertos. Lo cual no implica necesariamente que el virus matara a estos animales, algo de lo que no existen pruebas. Pero si fuera así y el lloviu fuese letal para los murciélagos, este virus se convertiría en una rareza dentro de su familia, y su reservorio debería buscarse entonces en otras especies, tal vez insectos o garrapatas. Aclarar estas dudas seguiría sin aportar nada sobre los posibles efectos del lloviu en los humanos, pero sería un paso relevante para ir desvelando el ciclo vital del virus (si “vital” puede aplicarse a algo que muchos científicos no consideran realmente un ser vivo).

Para explorar estos interrogantes, en los últimos años los investigadores han tratado de encontrar rastros de la presencia del virus tanto en murciélagos vivos como en otras especies que están en contacto con ellos, desde los insectos hasta nosotros mismos. Sin embargo, el virus no ha vuelto a detectarse de forma directa en otros animales, ni vivos ni muertos, salvo en una única ocasión: en 2016 se localizó en cadáveres de murciélagos hallados en el otro extremo de Europa, en Hungría.

Pero existe otra posibilidad, y es la detección del rastro que el virus haya podido dejar en el sistema inmunitario de los animales que en algún momento han estado infectados. Utilizando esta vía, un nuevo estudio en la revista Viruses, encabezado por Eva Ramírez de Arellano y dirigido por Negredo, ofrece una respuesta: el virus está circulando en los murciélagos de cueva, pero no en otras especies de murciélagos ni en los humanos.

Los científicos han analizado la sangre de hasta 60 ejemplares vivos de la especie Miniopterus schrebersii, el murciélago de cueva en el que se encontró el virus. Para aumentar la probabilidad de que estos animales hubieran estado expuestos al virus, los ejemplares fueron recogidos en 2015 en las mismas cuevas de Asturias y Cantabria donde se descubrió el lloviu. Al mismo tiempo, han examinado la sangre de un grupo de personas que también han estado en contacto con estos murciélagos, se supone que científicos dedicados al estudio de estos animales. Como control negativo, se han añadido muestras de murciélagos de otra especie diferente capturados en Huelva, lejos del brote original de lloviu.

Los resultados muestran que uno de cada tres murciélagos de cueva analizados, el 36,5%, lleva anticuerpos contra el lloviu, lo que confirma que estos animales contrajeron la infección en algún momento y, sin embargo, continúan vivos. Por el contrario, esta respuesta inmunitaria contra el virus no se ha encontrado en los humanos ni en los murciélagos de Huelva.

Estos datos indican que el brote original del lloviu no fue una rareza, sino que el virus está circulando de forma habitual entre los murciélagos de cueva. Sin embargo, no puede afirmarse que la presencia de los anticuerpos en animales vivos demuestre la no letalidad del virus para los murciélagos; del mismo modo que las personas que han contraído el ébola y han vivido para contarlo llevan anticuerpos en su sangre, podría ser que los murciélagos analizados sean los afortunados supervivientes de una epidemia mortal de lloviu.

Así, los investigadores escriben en su estudio que los resultados “disocian la circulación del lloviu como la causa de las muertes previamente reportadas”, pero es ahí hasta donde pueden llegar con los datos actuales. No obstante, encuentran un sospechoso parecido entre la proporción de animales seropositivos en su población y los niveles en las especies de murciélagos que sirven como reservorios del ébola y el marburgo, por lo que dejan entrever la idea de que quizá la dinámica del lloviu sea similar a la de estos virus; es decir, que infecte a los murciélagos sin matarlos.

Reconstrucción del virus del ébola. Imagen de Wikipedia.

Reconstrucción del virus del ébola. Imagen de Wikipedia.

Por último, el hecho de que no se hayan encontrado anticuerpos contra el lloviu en las personas que están en contacto con los murciélagos nos ha dejado sin la respuesta a la principal pregunta sobre este virus. En 1989 se detectó en Reston, Virginia (EEUU), una enfermedad mortal que afectaba a unos monos importados de Filipinas. Los investigadores descubrieron que el culpable era un filovirus muy similar al ébola, pero pronto se descubrió que era inofensivo para los humanos. Se encontraron anticuerpos en algunas personas que habían manejado los animales y que obviamente habían contraído el virus sin padecer síntomas.

Si el nuevo estudio sobre el lloviu hubiera detectado anticuerpos en algunas de las personas analizadas, probablemente podría concluirse que es un caso similar al virus de Reston: un patógeno para otras especies que no entraña riesgo para los humanos. Pero dado que no ha sido así, aún seguimos a oscuras sobre la peligrosidad del virus. Estudios anteriores sugieren que aparentemente el lloviu sería capaz de infectar células humanas por un mecanismo similar al ébola, por lo que hasta ahora no hay motivos para pensar que pueda ser un virus de contagio más difícil que su primo africano.

A falta de aislar el virus para poder trabajar directamente con él y responder a las preguntas pendientes, por el momento la única vía posible es fabricar sus trocitos a partir de su secuencia genética y estudiar qué hacen y cómo funcionan en sistemas in vitro. Decía más arriba que el nuevo estudio del ISCIII es el penúltimo, no el último; en días recientes se ha publicado además otro trabajo que ahonda un poco más en este prisma molecular del virus de Lloviu, y que aporta también una novedad sugerente. Próximamente, en este mismo canal.