Archivo de la categoría ‘Biología molecular’

No todo está en el virus: unos 40 genes pueden influir en la gravedad de la COVID-19

Uno de los aspectos de la pandemia de COVID-19 que más han inquietado al público es la sensación de una macabra lotería; que, dejando aparte el conocido riesgo mayor en las personas de más edad y en ciertos enfermos crónicos, y más en los hombres respecto a las mujeres, la diferencia entre dos desenlaces tan extremos y dramáticamente distintos como la infección asintomática y la muerte es una cuestión de suerte. Y que si bien a la mayoría de la población de bajo riesgo le sale un número más próximo a lo primero que a lo segundo, hay un cierto número de papeletas fatídicas que pueden tocarle a cualquiera.

Naturalmente, no es una lotería, ni el resultado depende del azar. El problema es que para conocer cuáles son los factores que condicionan las diferencias en la gravedad de la infección entre unas personas y otras, hasta el punto de posibilitar un cierto nivel de predicción, hace falta mucha ciencia.

Algunos de estos factores pueden depender del propio virus: la dosis recibida, la vía de entrada de la infección, o por supuesto la variante concreta de las miles y miles que circulan entre la población, más allá de las cuatro o cinco más preocupantes y extendidas que suelen aparecer en los medios. O incluso la posibilidad de que una persona contraiga dos variantes diferentes al mismo tiempo, como ya se ha reportado.

Por desgracia, también se ha demostrado a lo largo de la pandemia que los factores socioeconómicos pueden determinar que una persona viva o muera. En España no se ha hablado apenas de esto porque nuestra sanidad pública es supuestamente universal, y porque en general no existen guetos de minorías étnicas de forma tan marcada como en otros países. Pero en los países donde hay distritos étnicos desfavorecidos, y donde la sanidad es para quien pueda pagarla, las diferencias en gravedad y mortalidad de la pandemia entre unas zonas y otras han sido brutales.

ADN. Imagen de Nogas1974 / Wikipedia.

ADN. Imagen de Nogas1974 / Wikipedia.

Pero también hay factores que dependen intrínsecamente de cada persona: factores genéticos, que no necesariamente tienen una asociación obligada y unívoca con ninguna enfermedad concreta; pensemos en las variantes genéticas que aumentan la propensión a padecer ciertas enfermedades como el alzhéimer. Pueden existir infinidad de variantes genéticas que en condiciones normales no causen ningún problema a sus portadores. Pero que, ante alguna infección, puedan provocar una respuesta deficiente o todo lo contrario, una reacción hiperinflamatoria que es la causa de la muerte de muchos pacientes de cóvid.

El problema es que para identificar estas variantes es necesario analizar enormes muestras de población, un trabajo que normalmente lleva años. Y para esta pandemia no podíamos esperar años. Casi desde el comienzo de esta crisis global, proyectos internacionales de colaboración como el COVID Human Genetic Effort o el COVID-19 Host Genetics Initiative han reunido miles y miles de perfiles genéticos de pacientes para tratar de establecer vínculos estadísticamente significativos entre variantes genéticas y una mayor propensión a la infección asintomática o, al contrario, a enfermar gravemente o morir.

Precisamente el segundo de estos proyectos acaba de publicar ahora en Nature un gran estudio, el que hasta ahora es el mayor mapa de la genética humana de la arquitectura de la COVID-19. Es un esfuerzo casi sin precedentes, solo superado por algunos estudios físicos del LHC: en este caso han participado unos 3.000 investigadores de 1.224 instituciones de investigación de todo el mundo. Los autores han reunido 46 estudios que analizan los perfiles de casi 50.000 pacientes de cóvid y de unos dos millones de controles, incluyendo seis grupos étnicos de 19 países y ajustando los resultados a posibles variables de confusión como la edad, el sexo y el nivel socioeconómico.

El resultado de todo esto: 13 loci (plural de locus), sitios concretos del genoma humano, cuyas variantes se asocian a una mayor susceptibilidad general a la infección (4 de los 13) o a una mayor gravedad (los 9 restantes). Seis de estos loci son nuevos, no se habían detectado en estudios previos, mientras que el resto ya habían aparecido en otros resultados preliminares.

El siguiente paso al reconocimiento de estos 13 sitios es mirar qué genes concretos se encuentran en esas zonas, para tratar de entender cómo pueden estar influyendo en el desarrollo de una enfermedad como la cóvid. Así, los investigadores han identificado más de 40 genes candidatos. Entre ellos se encuentran viejos conocidos de los que ya se ha venido hablando, como genes implicados en los grupos sanguíneos AB0 que aumentan la susceptibilidad a la infección entre un 9 y un 12%.

Se han hallado también algunos genes que previamente se habían implicado en las enfermedades pulmonares, como FOXP4 o DPP9, y otros con funciones inmunitarias conocidas, como IFNAR1/2 o TYK2. En concreto, variantes de este TYK2 pueden aumentar el riesgo de enfermedad grave hasta en un 59%, pero es que existe otra región casi desconocida en el cromosoma 3, cuyo vínculo genético es incierto, pero cuyas variantes aumentan hasta un 74% el riesgo de padecer cóvid grave.

Y ahora, ¿qué hacemos con todo esto? El conocimiento de las variantes genéticas asociadas a un riesgo de enfermedad no es una tabla de salvación inmediata. Tampoco todos los científicos están convencidos de que estos estudios vayan a fructificar en pistas claras para atacar la cóvid. Pero, como mínimo, el conocimiento de los mecanismos biológicos en los que están implicados algunos de estos genes puede sugerir dianas para posibles tratamientos que busquen puntos débiles del virus. Por ejemplo, el antiinflamatorio baricitinib, un medicamento contra la artritis reumatoide que se están ensayando contra la cóvid, es un inhibidor de TYK2. Lo cual ya es una pista. Y teniendo en cuenta que, frente al éxito abrumador de las vacunas, el campo de los tratamientos contra la enfermedad grave aún está en pañales, cualquier posible pista es bienvenida.

¿Pudo el coronavirus de la COVID-19 haber sido creado por los humanos? 2. Las pruebas genéticas (y II)

(Continúa de ayer)

Tampoco hay que invocar ningún oscuro experimento para explicar otra de las peculiaridades del virus, que en concreto se refiere al PRRA. Ayer dejé caer un concepto, la fase de lectura. Cuando tenemos una secuencia genética, por ejemplo CCTCGGCGGGCA, lo que hace la maquinaria celular para traducirla a una proteína es dividirla en tripletes, grupos de 3 bases: CCT CGG CGG GCA. Según el código genético, cada uno de estos tripletes o codones se traduce en un aminoácido, y así CCT = prolina (P), CGG = arginina (R), GCA = alanina (A). Si se introduce una base de más en algún lugar, por ejemplo CCT A CGG CGG GCA, cambia la estructura de los tripletes, que ahora quedarían así: CCT ACG GCG GGC A, y por lo tanto cambiaría la traducción a aminoácidos, que ahora ya no sería PRRA, sino PTAG, siendo T treonina y G glicina; cambia la proteína resultante.

Ocurre que el código genético es degenerado (este es el término que se utiliza): hay 64 codones posibles, pero solo 20 aminoácidos, por lo que varios codones distintos pueden traducirse a un mismo aminoácido; por ejemplo, la arginina (R) puede venir codificada por seis codones diferentes: CGA, CGC, CGT, CGG, AGA y AGG. Pero no todos los seres vivos utilizan con la misma frecuencia cualquiera de estos codones para codificar la arginina; algunas especies usan preferentemente alguno de ellos, mientras que otras suelen emplear otros distintos.

Un modelo impreso en 3D de la proteína Spike del coronavirus SARS-CoV-2 de la COVID-19. Imagen de NIH / Dominio público.

Un modelo impreso en 3D de la proteína Spike del coronavirus SARS-CoV-2 de la COVID-19. Imagen de NIH / Dominio público.

Pues bien, a este respecto, el argumento de los defensores del virus manipulado es este: el uso del codón CGG para codificar arginina, que se encuentra dos veces en el PRRA, es “desconocido entre los betacoronavirus”, decía el artículo del controvertido periodista –no científico, como dicen por ahí voces mal informadas– Nicholas Wade que cité recientemente. Por lo tanto, dicen, esto demuestra que ha sido introducido deliberadamente. Y añaden, además, que esto prueba que el virus fue creado utilizando células humanas o ratones humanizados (ratones transgénicos que poseen el receptor ACE2 humano), dado que el CGG sí es de uso habitual en los humanos.

Pero una vez más, estamos ante un intento de retorcer la realidad para que diga lo que nos apetezca. En primer lugar, decir que el CGG es “desconocido” entre los betacoronavirus es… ¿cómo decirlo? Ah, sí: mentira. Está presente en todos los coronavirus, siempre con frecuencias bajas, entre el 2 y el 7%.

Y por cierto, ¿alguien se ha dado cuenta de lo sospechosamente extraño que resulta que el gen de la proteína S del SARS-2 acumule más de la quinta parte de todos los codones de arginina AGG del genoma del virus? O ya puestos, ¿que el uso del codón CGG esté absolutamente disparado respecto a todos los demás coronavirus humanos en el gen de la proteína de membrana del coronavirus del resfriado OC43? ¿O lo mismo para el codón UCA en el coronavirus del resfriado 229E? ¿O que el codón de terminación del gen de la nucleoproteína del MERS sea diferente al de todos los demás coronavirus humanos? ¿O que el gen E del 229E sea el único de todos los coronavirus humanos que utiliza el codón CAC para histidina? Todo esto es rigurosamente cierto. Pero nada de ello es real. Son solo despistes, disfrazados de jerga técnica.

Hay que decir que el CGG es generalmente poco habitual en los virus, y hay al menos una posible razón para ello. Hablábamos ayer de los receptores TLR, que reconocen patrones de patogenia en los antígenos. Resulta que el CGG se une al TLR9, lo cual quiere decir que ese triplete es una señal de alarma para el sistema inmune, así que es normal que los virus tiendan a no utilizarlo. Pero el CGG no es más “desconocido” en el SARS-2 que en otros coronavirus o betacoronavirus, en todos los cuales es más “desconocido” (frecuencia relativa en el SARS-2 del 0,2) que en los humanos (1,21), pero también que en los perros (0,48), gatos (1,19), cerdos (1,94), caballos (1,08), vacas (1,32) y, cómo no, murciélagos (1,18).

Como ya se puede sospechar de esto último, afirmar que el uso del CGG en el SARS-2 revela una adaptación a los humanos es una pura pamplina. La idea de que los coronavirus tienden a utilizar los mismos codones que sus hospedadores fue la que en un primer momento de la pandemia hizo saltar el bulo de que las serpientes eran los probables huéspedes intermedios del SARS-2, porque los autores de un estudio habían encontrado que estos animales eran los que tenían un uso de codones más parecido al del SARS-2.

Hipótesis gratuita, y pronto refutada: un estudio posterior de investigadores de la Universidad de Michigan, que comparó el uso de codones del SARS-2, el SARS-1 y el MERS con más 10.000 especies animales, determinó que no hay ninguna relación entre el uso de codones de un virus y de su especie hospedadora, por lo que la aparición de un codón más frecuente en humanos y raro en los virus no indica absolutamente nada sobre la especie en la que ha evolucionado o a la que infecta dicho virus.

Es más: si, otra vez, ese torpe diseñador de virus, que se ha preocupado de utilizar un sistema seamless para no dejar huellas en el genoma, en cambio se hubiese equivocado garrafalmente al poner ahí un codón que no debería estar, resulta que el virus tenía otra idea. Porque si ese codón erróneo supuestamente introducido por un humano le restara eficacia al virus, este se habría encargado de eliminarlo a lo largo de su año y medio de evolución en millones y millones de seres humanos. Pero resulta que no lo ha hecho: según Andersen, el primer codón de arginina se conserva en el 99,87% de los genomas virales secuenciados, y el segundo en el 99,84%. Así que, sí, hay una razón para que esos codones de arginina estén ahí, y es que el propio virus los ha elegido.

Todavía hay dos argumentos más en contra de la posibilidad de que el virus se haya forzado a adaptarse a la especie humana a través de pases en cultivos celulares o de la infección de ratones ACE2-humanizados. Primero, el RBD del SARS-2 tiene una O-glicosilación (azúcar unido al átomo de oxígeno de los aminoácidos serina o treonina) que está implicada en su infectividad porque dificulta el reconocimiento del sitio por parte del sistema inmune. Como explica el ingeniero de virus Christian Stevens, de la Facultad de Medicina Icahn del Hospital Mount Sinai de Nueva York, es imposible que esta modificación aparezca sin la presión selectiva de un sistema inmune humano competente. Es decir, que ha surgido en la adaptación del virus a los humanos en un organismo completo; no ha podido aparecer en un cultivo celular ni en un ratón humanizado. Por lo tanto, o el WIV hizo experimentos infectando a humanos con el virus, o es que simplemente los humanos se infectaron de forma natural.

Segundo, como también cita Stevens, el virólogo computacional Trevor Bedford, del Centro de Investigación del Cáncer Fred Hutchinson y la Universidad de Washington, se ha ocupado de estudiar cómo se ha producido la evolución del virus y qué tipo de mutaciones han aparecido en él. Para ello se compara el número de mutaciones que no tienen ningún efecto –no cambian el aminoácido codificado– con las que sí lo tienen. Las mutaciones se producen al azar; pero mientras que las segundas tenderán a fijarse en el genoma del virus o a desaparecer en función de que aporten una ventaja o lo contrario, en cambio las primeras –llamadas mutaciones silenciosas o sinónimas– se acumulan a una tasa constante, ya que no tienen efecto alguno sobre la funcionalidad del virus.

Así, las mutaciones sinónimas sirven como línea de base para saber cómo se ha producido la evolución del virus: si los cambios no sinónimos son mucho mayores, se habla de selección darwiniana; el virus ha tenido que introducir muchas variaciones en sus proteínas para adaptarse. Esto ocurriría si al virus se le fuerza deliberadamente a infectar a una nueva especie, mediante cultivos celulares o infección de animales humanizados. Por el contrario, si los cambios no sinónimos son pocos, se habla de selección purificadora; el virus ya estaba bien adaptado a su hospedador, y lo más probable es que cualquier cambio lo empeore.

Según el análisis de Bedford, comparando el SARS-2 con los virus relacionados y con su ancestro más probable calculado computacionalmente, el 14,3% de las mutaciones del nuevo virus son no sinónimas. En el caso del RaTG13 –recordemos, un coronavirus de murciélago que es el virus más próximo al SARS-2, y que las teorías conspirativas proponen como el virus a partir del cual se creó el SARS-2–, el porcentaje de mutaciones no sinónimas es del 14,2%. Conclusión: tanto el RaTG13 como el SARS-2 han seguido el mismo camino evolutivo de selección purificadora. Por lo tanto, no se forzó la adaptación del SARS-2 a una nueva especie; el virus ya estaba bien adaptado a infectar a los humanos en la naturaleza.

Aquí terminamos. Resumiendo todo lo contado ayer y hoy, no, no existe nada en el virus que sugiera una manipulación. No hay nada incompatible con un origen natural, como el de absolutamente todos los virus que antes han infectado a la humanidad. Quien pretenda defender lo contrario deberá presentar alguna prueba concluyente. Pero estas no se encuentran en el propio genoma del virus. Con las pruebas genéticas en la mano, afirmar que el coronavirus SARS-CoV-2 ha sido artificialmente creado/modificado en el laboratorio es pseudociencia, y quienes lo afirman deben saber que están dando crédito a la pseudociencia.

Finalmente, y al revisar todo lo anterior para corregir alguna errata, me he quedado con una extraña sensación: dejando fuera toda la perorata técnica, que espero al menos resulte de interés a quien quiera saber algo más de biología básica, me parece ahora que es un esfuerzo casi excesivo para explicar, simplemente, que lo normal es normal. Que un eclipse no es el aviso del fin del mundo, sino solo algo similar a cuando alguien se pone delante de la tele y no nos deja ver. Que esa mancha en la foto es un curioso efecto óptico, y no el fantasma del inquilino anterior que murió después de hacer la ouija. En fin, Ockham; cultura científica, nivel Bachillerato.

Hoy no sabemos si la primera persona que contrajo el virus lo hizo en una granja, en una cueva o en un laboratorio. Quizá nunca lo sepamos. Quienes sí hemos trabajado en laboratorios sabemos que son lugares casi como cualquier otro. Que hay personas muy pulcras y cuidadosas con su trabajo, y otras que son un poquito cerdas. Que hay tubos al fondo del congelador de -80 que ya ni se sabe qué son, porque la etiqueta ya no se ve y quien las puso ahí terminó la tesis y se marchó a la Universidad de Michigan, y al final alguien las acaba tirando de cualquier modo porque necesita el espacio. Que vuelves un día del cuarto caliente al laboratorio con el Geiger encendido y empieza a pitar cuando lo pones en el bench, porque alguien derramó fósforo y no se dio cuenta, o no se acordó de limpiarlo y no dijo nada para evitar una bronca.

¿Alguien pudo contaminarse trabajando con una muestra, o se deshizo de ella inadecuadamente? Quién sabe. Estas cosas pasan, porque el trabajo en un laboratorio real no es como en las películas, sino como cualquier otro trabajo de la vida real.

Y en la vida real, nos guste o no, lo supiéramos o no, la naturaleza está llena de virus y produce virus nuevos constantemente. Es lo que tiene la evolución. O la vida en general.

Por qué el Nobel no ha premiado al español Francis Mojica

Hace dos años escribí aquí un artículo titulado “Por qué el Nobel para Mojica es mucho más complicado de lo que parece“. Breves antecedentes: el microbiólogo español Francis Mojica descubrió un mecanismo molecular en bacterias que posteriormente dos investigadoras, la estadounidense Jennifer Doudna y la francesa Emmanuelle Charpentier, convirtieron en la herramienta más útil que hoy existe para reescribir y modificar genes. Este sistema, hoy con distintas variedades pero llamado genéricamente CRISPR, es una plataforma tecnológica de uso común en infinidad de laboratorios. Y aunque sus potenciales aplicaciones en la curación de enfermedades aún no han despegado, su utilidad en investigación ha sido tan sobradamente demostrada que desde hace años se rifaba un Nobel. Ahora, por fin la rifa se ha resuelto. Premiando a Charpentier y Doudna, y dejando fuera a Mojica.

Francisco JM Mojica. Imagen de Roberto Ruiz / Universidad de Alicante.

Francisco JM Mojica. Imagen de Roberto Ruiz / Universidad de Alicante.

Pero aunque todos lamentemos enormemente esta oportunidad perdida para la promoción de la ciencia española, que no ve un Nobel desde 1906 (sí, después estuvo Severo Ochoa, pero era un investigador de nacionalidad estadounidense que había desarrollado todo su trabajo en EEUU), conviene volver sobre lo que ya conté en su día para contener los arrebatos de indignación y de calimerismo; sí, es cierto que a un científico que trabaja en la Universidad de Alicante le resulta infinitamente más difícil ser reconocido con un Nobel (o incluso, ya puestos, publicar en Nature o Science) que al mismo científico si trabaja en Harvard o en el MIT. Pero este caso, insisto, era complicado.

La razón de esta complicación es que son muchos los nombres implicados en haber hecho de CRISPR lo que es hoy. Mojica descubrió el sistema original y lo nombró, y creo que no puede haber discusión sobre su primicia absoluta en este sentido. Pero después el francés Gilles Vergnaud ahondó en la explicación sobre su significado, el argentino Luciano Marraffini demostró por primera vez su funcionamiento, Charpentier y Doudna lo convirtieron en una herramienta utilizable, y el chino-estadounidense Feng Zhang lo adaptó para su uso en células eucariotas (no bacterianas). Y aún hay otros nombres cuya intervención ha sido esencial para el desarrollo de CRISPR, sumando en total hasta más de una docena.

Pero las normas de los Nobel establecen que cada premio solo puede repartirse entre un máximo de tres investigadores, porque los reconocimientos científicos más prestigiosos del mundo continúan en pleno siglo XXI anclados en la idea anacrónica del “¡eureka!” y del científico solitario y excéntrico, recluido en su laboratorio con la sola compañía de algún asistente que le friegue los cacharros, preferiblemente si es jorobado y algo friki como el Igor de El jovencito Frankenstein.

Así pues, y aunque el premio para CRISPR se cantaba desde hace años, existían serias dudas sobre quiénes serían los tres elegidos, y es de suponer que largos debates habrán precedido a la concesión del Nobel de Química 2020 para Charpentier y Doudna. Por supuesto que las dos investigadoras merecían el premio como primeras candidatas. El problema era añadir un tercer nombre dejando fuera al resto.

Personalmente, mi apuesta estaba entre Mojica y Zhang. La contribución del segundo fue fundamental para el desarrollo del sistema, pero el trabajo de Mojica fue la semilla de la cual surgió todo lo demás. Y premiar un hallazgo sin reconocer a su descubridor original no solo es injusto, sino que además es una decisión contraria al espíritu que los Nobel dicen defender y al criterio que normalmente aplican, aunque históricamente han sido muchas las injusticias que se han cometido.

Un caso que viene a la mente es el de Fleming, Chain y Florey. Los dos últimos fueron quienes aislaron la penicilina, la produjeron y la convirtieron en un producto utilizable y accesible para toda la humanidad. Pero el Nobel de 1945 no olvidó a Fleming, el descubridor original de la actividad de la sustancia pero que no fue capaz de aislarla, sacarle partido ni usarla de forma efectiva, y que llegó a abandonar esta línea de trabajo. Es más, el Nobel para los tres científicos en este caso dejó fuera a otros colaboradores de Florey y Chain (la mayoría mujeres, por cierto) cuya participación fue esencial, y que tal vez habrían merecido el premio más que Fleming. En este sentido, la contribución y la visión de Mojica al hallazgo de CRISPR ha sido enormemente más decisiva que la de Fleming al descubrimiento de la penicilina que popularmente se le atribuye.

Parece posible que en el caso que nos ocupa el jurado haya decidido no cometer un agravio contra alguien en particular, aunque para ello hubiera que agraviar a varios en general. Por mi parte, guardaba una esperanza que difícilmente va a materializarse. Los premios de Química y Medicina (que incluye Fisiología) los fallan instituciones distintas, respectivamente la Real Academia de Ciencias y el Instituto Karolinska, y cada una actúa bajo su propio criterio. Estas dos categorías solapan en muchos casos; en Medicina no solo se han premiado avances médicos, sino también muchos descubrimientos de ciencia básica.

Un claro ejemplo es la estructura del ADN que le valió el premio a Watson, Crick y Wilkins (no fue de Química, sino de Medicina), pero hay otros ejemplos, como el Nobel de 1958 a Joshua Lederberg por descubrir un mecanismo de intercambio de material genético en bacterias, o el de 1978 a Arber, Nathans y Smith por el hallazgo de las enzimas de restricción, un mecanismo de las bacterias que después se convirtió en una herramienta fundamental para la investigación (un caso muy análogo al de CRISPR).

Así, habría sido posible que CRISPR hubiera podido motivar dos Nobel en las dos categorías respectivas de Química y Medicina, uno para los pioneros que descubrieron un sistema de defensa nuevo y revolucionario en bacterias (eso es originalmente CRISPR), quizá para Mojica, Vergnaud y Marraffini, y otro para los que a partir de él desarrollaron el sistema, Charpentier, Doudna y Zhang.

Claro que esto hubiera seguido dejando fuera al lituano Virginijus Siksnys, que llegó a los mismos resultados que Charpentier y Doudna, aunque tardó un poco más en publicarlos. Y es que, en el fondo, el problema continúa siendo el mismo: en la era de la ciencia internacional, colaborativa y multidisciplinar, el formato de los Nobel ha quedado claramente obsoleto.

Y sobre si Mojica habría completado la terna si en lugar de trabajar en Alicante lo hubiese hecho en Oxford, en el Cambridge de este lado del Atlántico o en el Cambridge del otro lado del Atlántico, podríamos discutir. Pero ya serviría de poco.

¿Es posible tener una vacuna contra el nuevo coronavirus durante esta epidemia?

El director de la agencia de enfermedades infecciosas de los Institutos Nacionales de la Salud de EEUU (NIH), Anthony Fauci, dijo el viernes en una rueda de prensa que en dos meses y medio podríamos tener una vacuna contra el nuevo coronavirus 2019-nCoV. Las palabras de una figura de la solvencia y el prestigio de Fauci, a quien debemos buena parte de lo que sabemos sobre el VIH y el sida, tienen una sobrada garantía de credibilidad. Pero por si la declaración de Fauci pudiera dar la impresión de que en dos meses y medio cualquiera podrá vacunarse contra la epidemia que ahora tanto preocupa al mundo, conviene una explicación más detallada de qué significan exactamente sus palabras.

Hay una creencia errónea muy extendida que aquí me he ocupado varias veces de desmentir, y es la idea de que la vacuna contra el ébola se creó en un tiempo récord tras el brote de 2014-2016. Esta vacuna, llamada originalmente rVSV-ZEBOV y hoy ya con su marca comercial, Ervebo, ha ayudado enormemente a contener el brote de ébola que comenzó en el Congo en agosto de 2018, y que aún continúa activo, si bien a un nivel residual que no representa una preocupación global.

Pero es importante conocer esto: la plataforma en la que se basa la vacuna del ébola comenzó a desarrollarse en 1996. El trabajo para adaptar esta plataforma al ébola se inició en 2001. En 2003 se solicitó la patente de la vacuna. Once años después de aquello, cuando surgió el brote que tanto atemorizó a la población mundial, la vacuna aún no estaba preparada para su uso general, dado que aún estaba en pruebas. En 2015 se entregaron 1.000 dosis a la Organización Mundial de la Salud como medida de emergencia para tratar de ayudar a la contención del brote. Pero solo con el nuevo brote en 2018 comenzó a utilizarse como una herramienta real de contención en lo que se conoce como un protocolo de vacunación en anillo, que consiste en administrarla al círculo de personas que rodean a los pacientes contagiados.

(Nota: también hay que decir que existe una diferencia esencial entre los brotes de 2014 y 2018, que los expertos ya se encargaron de destacar en su momento. El primero se originó en Guinea-Conakry, un país costero donde la movilidad es bastante alta, mientras que el actual afecta a regiones relativamente aisladas en la profunda selva congoleña).

En resumen: la vacuna del ébola ha llevado más de 15 años de trabajo. El hecho de que ahora la tengamos no es fruto de los esfuerzos puestos en marcha a raíz de la epidemia de 2014, sino que se lo debemos a que el gobierno de Canadá, cuyo sistema de salud pública creó la vacuna, pensó que merecía la pena invertir en este proyecto cuando todos los demás países lo habían desechado considerando que el virus del Ébola no era una preocupación desde el punto de vista del bioterrorismo (se contagia con relativa dificultad y mata demasiado deprisa).

Imagen de John Keith / Wikipedia.

Imagen de John Keith / Wikipedia.

Crear una vacuna ha sido tradicionalmente un proceso muy laborioso, casi artesanal, en el que había que comenzar de cero cada nueva formulación, eligiendo el tipo más adecuado, y luego ir tuneándola a lo largo del proceso hasta obtener la receta perfecta. En general, la idea que se nos presenta en el cine de que durante un brote vírico puede desarrollarse en caliente una vacuna para atajar la expansión de ese mismo brote, es ciencia ficción.

Pero aquí entran los matices que es necesario explicar. Pensemos en esos hospitales que se han levantado en Wuhan en cuestión de días, algo que también parecería una fantasía. Hace unos días, El País publicaba un interesante reportaje en el que expertos en arquitectura explicaban cómo era posible lograrlo. La idea básica era esta: con suficiente dinero y mano de obra, puede hacerse, y si normalmente esto no ocurre aquí no es por imposibilidad, ya que no existe ninguna innovación radical en el proceso aplicado por los chinos, sino sencillamente porque a nadie le interesa construir tan rápido.

La clave del proceso, según explicaban los arquitectos, consiste en emplear elementos prefabricados, de tal modo que no haya que edificar ladrillo a ladrillo, sino que solo sea necesario llevar las piezas al lugar de construcción y montarlas.

Las nuevas tecnologías de vacunas están logrando esto mismo: emplear elementos prefabricados de modo que en cada caso concreto solo sea necesario introducir las piezas específicas de cada virus en una plataforma ya existente.

Este es el camino que comenzó a abrirse con el desarrollo de las vacunas de virus recombinantes o vectores recombinantes. El método consiste en coger un virus modificado, inocuo para el organismo, y disfrazarlo con el traje del virus contra el cual se quiere inmunizar, las proteínas de su envoltura. Una vez introducido en el organismo, invade las células y se reproduce en ellas como un virus normal, provocando una respuesta inmunitaria contra su disfraz, que en el futuro podrá atacar al virus original.

La vacuna del ébola es un ejemplo de este tipo. En el futuro, quizá una mayor estandarización de estos sistemas permita obtener nuevas vacunas de forma más rápida. En el caso del ébola, la plataforma concreta que se ha utilizado se desarrolló durante el propio proceso de crear la vacuna, por lo que ha sido un trabajo largo.

Pero la tecnología de vacunas no se detiene. Desde hace años se vienen investigando las vacunas de ADN, consistentes en introducir directamente en el organismo un ADN que las células pueden utilizar para crear por sí mismas una proteína del virus, de modo que el sistema inmunitario reconoce este elemento como extraño y reacciona contra él, lo que prepara al cuerpo para responder contra el virus completo si llega a presentarse.

En esta misma línea, aún hay un paso más allá, y es utilizar un ARN mensajero (ARNm) en lugar de un ADN. El ARNm es la copia desechable del ADN que las células utilizan para fabricar las proteínas codificadas en los genes. Es decir, con esto se le ahorra a la célula el trabajo de producir el ARNm a partir del ADN vírico; ya se le da hecho. Hasta hace muy poco este enfoque era inviable porque el ARNm es normalmente muy inestable y se degrada fácilmente, pero recientemente se han encontrado mecanismos para hacerlo más resistente y duradero.

Este es el enfoque que emplea la apuesta más ambiciosa de las que ya están en marcha para producir una vacuna contra el nuevo coronavirus 2019-nCoV, la que motivó las palabras de Fauci. La compañía Moderna ha desarrollado una plataforma de ARNm que dice poder adaptar fácilmente para la obtención rápida de una vacuna contra este virus, un proyecto que está llevando a cabo en colaboración con los NIH. Fauci dijo que hasta ahora el proyecto está progresando a la perfección, que ya se ha logrado inducir la respuesta inmune en ratones contra el gen del 2019-nCoV insertado en el ARNm, y se mostró enormemente optimista al afirmar que en solo dos meses y medio podrían comenzar los ensayos clínicos en humanos.

La de Moderna no es ni mucho menos la única vacuna contra el coronavirus que ya está cocinándose en los laboratorios. También de ARNm es la fórmula que desarrolla la alemana CureVac, mientras que la estadounidense Inovio, en colaboración con la china Beijing Advaccine, prepara una vacuna de ADN. Otro enfoque distinto es el de la Universidad de Queensland en Australia, basado en una tecnología llamada molecular clamp, que consiste en crear proteínas del virus y graparlas en su configuración original para que el sistema inmunitario genere una respuesta contra ellas capaz también de reconocer las proteínas en el virus completo. Los investigadores australianos esperan tener una vacuna lista en seis meses.

Por su parte, algunos gigantes del sector también se han sumado a la carrera. Johnson & Johnson ha anunciado el proyecto de una vacuna de vector viral, como la del ébola, y Glaxo Smithkline ha ofrecido además poner su tecnología al servicio de otras partes que puedan contribuir a la obtención rápida de una vacuna.

Algunos de estos proyectos cuentan con la financiación de la Coalición para las Innovaciones en Preparación para Epidemias (CEPI), una entidad público-privada nacida en Davos y con sede en Noruega, que ha lanzado un concurso vigente hasta el 14 de febrero para financiar nuevas propuestas de desarrollo de vacunas contra el 2019-nCoV, por lo que en los próximos días podrían surgir nuevos proyectos. El objetivo de esta entidad es potenciar proyectos capaces de obtener vacunas contra virus emergentes en un plazo de 16 semanas.

En total, a fecha de hoy ya se han anunciado más de una docena de proyectos de desarrollo de vacunas contra el nuevo coronavirus, y vendrán más.

Pero ahora vienen las malas noticias.

Y es que, incluso si proyectos como el de Moderna llegan a término con la insólita rapidez en la que confía Fauci, cuando él hablaba de “llegar a la gente” en dos meses y medio, no se refiere a la distribución masiva de la vacuna, sino al comienzo de los ensayos clínicos.

Los ensayos clínicos de cualquier nuevo medicamento llevan años y años, hasta que puede establecerse sin género de dudas que el producto no causa daños graves y que hace aquello para lo cual se diseñó. En situaciones de emergencia global, como la actual, este proceso puede intentar comprimirse lo más posible. Pero esta posibilidad de compresión tiene un límite. Como ejemplo, tenemos dos casos cercanos en el tiempo.

En 2013, menos de un año después del comienzo del brote del coronavirus del Síndrome Respiratorio de Oriente Medio (MERS), la compañía Novavax anunció que ya había obtenido una vacuna. Han pasado casi siete años, y la vacuna sigue en pruebas. También en 2013, Inovio anunció que su nueva vacuna había superado los ensayos preclínicos (en animales), y que pronto comenzaría a probarse en humanos. Siete años después, la compañía acaba de anunciar que pronto emprenderá la Fase 2 de los ensayos clínicos, del mínimo de tres fases necesarias antes de que un medicamento comience a administrarse a la gente.

¿Alguien recuerda la epidemia del zika en América en 2015, el virus transmitido por mosquitos que causaba microcefalia en los fetos? Varias compañías se lanzaron entonces al desarrollo de vacunas, y en 2016 teníamos ya varias formulaciones anunciadas. Los NIH de EEUU trabajan nada menos que en seis vacunas distintas. Pero aún no existe una vacuna aprobada contra el zika. Y no porque los productos en desarrollo no estén funcionando, sino porque aún les queda un largo camino de pruebas por recorrer antes de llegar al mercado.

Es más: lo cierto es que ninguna de las compañías startup que cuentan con novedosas plataformas tecnológicas para la creación rápida de vacunas tiene todavía ni una sola formulación aprobada para su uso general en humanos.

La pregunta lógica es: ¿no podría abreviarse todo este proceso de ensayos clínicos? Pero las respuestas son otras preguntas: ¿estaría el público dispuesto a apostar por el posible beneficio de una nueva vacuna, aceptando expresamente el riesgo de un producto no lo suficientemente probado? ¿Estarían las autoridades dispuestas a aceptar la responsabilidad de dar luz verde a productos no lo suficientemente probados? ¿Estarían las compañías dispuestas a asumir el riesgo de perder demandas millonarias, incluso mediando consentimientos firmados?

En resumen, y salvo que mucho cambien las cosas, aunque la tecnología de vacunas esté progresando de un modo que habría sido increíble solo hace unos años, el largo y complejo escollo de los imprescindibles ensayos clínicos seguirá determinando que cada nueva vacuna no sea una esperanza para el presente brote, sino para futuros brotes.

Más cerca de la píldora del ejercicio físico, ahorrándonos el sudor y el chándal

Hubo un tiempo en que los humanos aquejados por alguna dolencia acudíamos al brujo o al chamán, quien nos administraba una pócima preparada con hierbajos y raíces, de sabor repugnante y que llevaba inherente el tributo a los dioses en forma de otros efectos indeseados, pero que al menos era capaz de aliviar hasta cierto punto algunos de esos males que motivaban la consulta.

Entra la ciencia. Y entonces, los químicos conseguían identificar lo que se llamó principios activos, compuestos concretos de esos hierbajos y raíces que eran responsables del poder curativo. Por ejemplo, el chamán no sabía que el espíritu benéfico que vivía en las hojas del sauce en realidad no era tal, sino el ácido 2-hidroxibenzoico, también llamado ácido salicílico. Así, con el tiempo se logró purificar esos ingredientes y separarlos de otros no tan beneficiosos, de modo que, por ejemplo, ya no era necesario beber tanta pócima para notar la mejora que otros compuestos de las hierbas nos dejaran los riñones como papas arrugás. O que hubiera que comerse tantos mohos que algunos de ellos a la larga provocaran cáncer de hígado.

Aún más, incluso se logró que ya no fuera necesario recoger hierbas, sino que esos principios activos pudieran crearse a partir de piezas más básicas. Por ejemplo, el ácido acetilsalicílico, una versión mejorada del ácido salicílico que hoy conocemos como aspirina, podía obtenerse mezclando cloruro de acetilo con salicilato sódico, y este a su vez se preparaba con dióxido de carbono y fenolato sódico, y este resultaba de combinar fenol e hidróxido sódico, y así.

Como resultado de todo ello, hoy ya no vamos al brujo o al chamán, sino al médico y a la farmacia. Por supuesto que los efectos secundarios adversos siempre existirán incluso con compuestos sintéticos puros, porque un organismo biológico no es un videojuego en el que uno gana o pierde vidas, sino un sistema muy complejo que mantiene un equilibrio llamado homeostasis, como un inmenso castillo de dominó, donde al mover una pieza se mueven también otras.

Pero no, en contra de lo que pueda parecer, esto de hoy no va de quimiofobia ni de chamanismo, sino que todo esto tiene también otra veta interesante. Si hemos conseguido aislar los principios activos buenos de las plantas medicinales para no tener que llevarnos todo el lote, ¿no podríamos hacer lo mismo con otras cosas que pueden proporcionarnos beneficios, recortando la parte que no queremos?

¿Por ejemplo, el ejercicio físico?

Imagen de pxfuel.

Imagen de pxfuel.

Cierto ejercicio físico reporta beneficios para la salud, en términos de regulación metabólica y capacidad motora. Esto es escasamente discutible, ya que está suficientemente avalado por la ciencia. Pero entran los matices: “cierto”, porque no todo. También la ciencia ha descubierto que un exceso de ejercicio físico puede ser perjudicial; los corredores de maratón sufren daño renal agudo, con lesiones estructurales en sus túbulos renales. O también la ciencia ha mostrado, por si hacía falta mostrarlo, que los niños con mayor actividad deportiva sufren más daños osteomusculares.

(Nota: a pesar de ello, en la Comunidad de Madrid, en la que vivo, a algún genio se le ha ocurrido que es una buena idea aumentar en una hora más a la semana la educación física en los colegios, algo a lo que alguna otra voz más sensata ya ha respondido advirtiendo de que se hará a costa de la enseñanza de las ciencias. Total, qué importa tener niños un poco más necios, siempre que estén más esbeltos y fuertotes, si al fin y al cabo somos una potencia mundial en deportes, no en ciencias).

Pero no solo sería ampliamente cuestionable que a todos los efectos se metan en el mismo saco la actividad física beneficiosa y el deporte extremo agresivo hacia el organismo y causante de dolencias que también suman al gasto sanitario. Sino que, además, es ampliamente rechazable que se identifiquen ejercicio físico y deporte. La distinción es lo suficientemente clara como para no tener que explicarla. Pero se concederá que uno puede apreciar los beneficios científicamente avalados de la actividad física sin que necesariamente tenga por qué gustarle el deporte.

Conozco personas que no han leído un libro desde que dejaron los estudios –si es que lo leyeron entonces–, y otros muchos que si leen algo –no, Twitter no cuenta– es por la información que ese algo les aporta (libros de autoayuda, ensayos políticos o históricos, etcétera, etcétera, etcétera), y no por disfrutar del placer de la lectura, porque carecen del gen (gen en sentido metafórico) del placer de la lectura. Para estas personas, leer es como máximo un peaje a pagar para obtener otra cosa, y están en su perfecto derecho. Algunos carecemos del gen del disfrute del deporte y lo sufrimos más bien como una tortura si queremos obtener el beneficio que puede reportarnos. También estamos en nuestro perfecto derecho. Y nos llevaremos bien, siempre que los unos no nos pongamos pelmazos tratando de convertir a los otros a nuestra causa.

Así que, para ese sector de la población no practicante del culto al deporte, y que pondríamos en una lista cien cosas más gratificantes y enriquecedoras para ocupar cualquier retal de nuestro tiempo antes que ponernos un chándal, ¿no sería posible que la ciencia recreara ese principio activo beneficioso del ejercicio físico sin tener que tragarnos el resto?

Bien, pues aunque esto aún no existe, la buena noticia es que sí hay investigadores trabajando en ello desde hace tiempo. El último estudio en esta línea acaba de publicarse ahora en Nature Communications. Un equipo de investigadores de la Universidad de Michigan y la Universidad Estatal Wayne de Detroit ha indagado en los resortes genéticos mediadores de esos beneficios metabólicos del ejercicio físico. Es decir, qué genes se activan gracias a la actividad física y qué hacen las proteínas producidas por ellos para poner en marcha esos efectos provechosos.

Los científicos han descubierto en todo ello un papel central para las sestrinas, una familia de proteínas ya conocidas por su intervención en la respuesta al estrés: se activan cuando el ADN sufre daños, o en condiciones de hipoxia o de daño oxidativo. Según lo que se conoce, las sestrinas son como una especie de brigada de emergencias, entrando en acción para proteger el organismo de ciertas agresiones y restablecer la homeostasis. Y hacen todo esto actuando sobre otras moléculas implicadas en distintas vías metabólicas, del mismo modo que la brigada de emergencias moviliza a los bomberos o a los sanitarios.

El estudio muestra que en moscas y ratones las sestrinas son “mediadores críticos de los beneficios del ejercicio”, escriben los autores: no solo se activan en respuesta al ejercicio, sino que este no produce ningún provecho cuando estas proteínas faltan. Y del mismo modo, al promover la activación de las sestrinas, se mimetizan los efectos favorables del ejercicio sin necesidad de practicarlo. Los investigadores han identificado también los efectores de las sestrinas en estos casos, las moléculas sobre las cuales actúan.

Sin embargo, no debe perderse de vista un detalle esencial: todo lo anterior se aplica a moscas y ratones. Los autores mencionan que se ha descrito también la activación de las sestrinas en humanos en respuesta al ejercicio físico, y estas proteínas aparecen evolutivamente conservadas en distintas especies, pero ello no quiere decir que automáticamente los resultados sean aplicables a nosotros. Se llenarían las bodegas del Titanic hasta hundirlo de nuevo con los estudios de resultados en animales que no han sido finalmente extrapolables a humanos.

Pero aún hay más: un segundo estudio, publicado también ahora en la misma revista y dirigido por investigadores de la Universidad Pompeu Fabra de Barcelona y el Centro Nacional de Investigaciones Cardiovasculares (CNIC), en colaboración con algunos de los autores del trabajo anterior, muestra que la activación de las sestrinas previene la atrofia de los músculos debida a la edad o a la inactividad.

Todo lo cual convierte a las sestrinas en las nuevas proteínas favoritas de quienes carecemos del gen del gusto por el deporte. Y aunque obviamente aún queda mucho camino por recorrer, estos estudios sugieren que la idea de llegar algún día a obtener los beneficios del ejercicio físico con una píldora, ahorrándonos el chándal y el sudor a quienes no nos agradan el chándal ni el sudor, ya no es una mera fantasía. Qué grande es la ciencia.

Esto es lo que hizo Margarita Salas, y este es el reconocimiento que nunca se le dio

Esta semana conocíamos la triste noticia del fallecimiento de Margarita Salas, bioquímica y bióloga molecular, probablemente la científica más importante en toda la historia de España, al menos hasta los comienzos de este siglo; existen ahora otros numerosos ejemplos brillantes de investigadoras con carreras ya distinguidas por grandes logros y aún con mucho recorrido por delante.

Comprensiblemente, en estos días los medios se han centrado de forma preferente, a veces casi exclusiva, en la cuestión de género: cómo Salas sufrió discriminación en épocas anteriores por su condición de mujer y cómo su trayectoria ha servido de escaparate para visibilizar el trabajo de las mujeres científicas y de modelo para presentar a las niñas en esa difícil etapa de la elección de carrera.

Nunca está de más recordar esto. Es necesario promocionar el trabajo de las mujeres investigadoras y seguir insistiendo en fomentar la vocación por la ciencia entre las niñas. Y sin duda también en la ciencia quedan sexismo y barreras por demoler.

Margarita Salas en 2011, recibiendo el doctorado honoris causa por la UNED. Imagen de honoris023 / Wikipedia.

Margarita Salas en 2011, recibiendo el doctorado honoris causa por la UNED. Imagen de honoris023 / Wikipedia.

Pero dejarlo aquí sería hacer un demérito al perfil de Salas o reducir su figura a la de una pancarta, a la de alguien que solo destacó por lo que dijo (lo cual sería admisible en quienes solo se dedican a decir). No es así: Margarita Salas no era una activista, sino una científica. Destacó por lo que hizo, no por lo que dijo. Y tanto su trabajo como su legado se abrieron paso simplemente por su importancia y su calidad, no por el hecho de que en algún momento haya resultado oportuno ondear una bandera concreta.

Dicho de otro modo, la importancia de su trabajo y de su legado es independiente del hecho de que fuera mujer u hombre. E incluso considerando que el éxito de su carrera haya tenido un mérito mayor por el hecho de haber sido mujer en una época de ciencia dominada por hombres, en la ciencia no cuenta el mérito; solo los resultados, que se acaban abriendo paso.

Anteriormente he contado aquí la historia de Jocelyn Bell Burnell, la astrofísica primero ignorada por el Nobel y después ampliamente reconocida. Algunos trataron de convertirla en una bandera; ella no se dejó, porque eran sus resultados lo único que podía colocarla en el lugar que merecía. Esto es ciencia, no política. Y para quienes piensan que la política debería introducirse en la ciencia, este es un claro argumento en contra.

En cuanto al legado de Margarita Salas, ha sido omnipresente para todos los que nos hemos dedicado a la biología molecular. Un servidor lleva ya décadas sin coger una pipeta, pero en aquellos tiempos era habitual encontrarse continuamente con Margarita Salas a través de sus exbecarios (trabajé con alguno de ellos) y los exbecarios de sus exbecarios. Formó a varias generaciones de científicos y científicas, que salían preparados para dirigir muchos de los mejores grupos del país. Ser exbecario de Margarita era casi el mejor argumento que podía presentarse en un currículum. Ella era como un hub de la biología molecular española. Y a pesar de ello nunca cayó en el divismo; era afable, cordial, sencilla.

En cuanto a su trabajo, los medios ya han resaltado la enorme rentabilidad de sus patentes. Pero esto tampoco le hace justicia. Para comprender lo que hizo y su importancia, hay que contar que en 1993 un norteamericano loco (muy loco) llamado Kary Mullis ganó el premio Nobel por inventar una técnica llamada Reacción en Cadena de la Polimerasa, o PCR.

En cierto modo, la PCR es algo parecido a un microscopio: amplifica algo que no podemos apreciar directamente por su pequeño tamaño. El microscopio nos ofrece una imagen magnificada de algo minúsculo, mientras que la PCR produce muchas copias de ese algo para que podamos detectarlo, estudiarlo y trabajar con ello. Lo que amplifica la PCR es el ADN presente en una muestra. Para hacer copias de un ADN es necesario disponer de una enzima fotocopiadora llamada ADN polimerasa. Existen muchas de estas, cada especie tiene la suya propia, y la clave del método de Mullis fue encontrar una que hacía exactamente lo que se necesitaba. Gracias a la PCR hoy existe la genómica; por ejemplo, pudo secuenciarse el genoma humano.

En 1989, pocos años después de que Mullis inventara la PCR (1983), Margarita Salas y sus colaboradores descubrieron una nueva ADN polimerasa en el fago Φ29. Un fago es el diminutivo de un virus bacteriófago, llamado así porque infecta a las bacterias, no a otras especies como nosotros. Los fagos son seres (si vivos o no, es una eterna polémica en biología) muy simples y es sencillo trabajar con ellos en el laboratorio. Y en cuanto a esto, Φ, es la letra griega Phi (“fi“).

La ADN polimerasa del Φ29 resultó tener unas propiedades muy interesantes. Con el tiempo llegó a utilizarse para desarrollar una técnica alternativa a la PCR llamada Multiple Displacement Amplification (MDA), o Amplificación por Desplazamiento Múltiple. La MDA hace básicamente lo mismo que la PCR, pero tiene ciertas ventajas frente a algún inconveniente.

Entre las primeras, produce cadenas de ADN más largas con menos errores, por lo que es especialmente apropiada para muestras muy escasas –como el ADN de una sola célula– donde interesa amplificar fragmentos largos sin errores –por ejemplo, genes humanos donde puede haber una mutación de una sola letra del ADN–. Entre los segundos, cuando en una muestra hay dos versiones del mismo ADN ligeramente diferentes –por ejemplo, las dos copias de un gen que hemos recibido de papá y mamá–, la polimerasa del Φ29 tiene una molesta tendencia a amplificar una de ellas y olvidarse de la otra.

En los últimos años, la MDA se ha convertido en una verdadera alternativa a la PCR, utilizándose extensamente para amplificar y leer genomas completos, incluso de una sola célula. Entre sus usos destacan la detección de mutaciones causantes de enfermedades genéticas o las pruebas forenses de ADN; lo que hace el CSI. Pero no olvidemos que frente a estos usos más populares, las técnicas de amplificación de ADN son lo que hoy sostiene toda la investigación en genética y biología molecular en todo el mundo; siempre que oigan o lean sobre un nuevo avance biomédico, casi seguro que se ha podido llegar a él gracias al uso intensivo de las técnicas de amplificación de ADN.

Así pues, ¿habría merecido un Nobel el trabajo de Margarita Salas? Bueno, en su momento la PCR ofreció la posibilidad de hacer fácilmente cosas que hasta entonces no podían hacerse o era demasiado laborioso, y a eso fue Mullis quien llegó primero. Una segunda técnica alternativa no suele llevarse un Nobel. También debe tenerse en cuenta que el desarrollo de la MDA fue un trabajo de varios grupos a lo largo del tiempo, aunque también hubo otros implicados en la invención de la PCR que, como siempre ocurre con los Nobel, se quedaron sin premio. Pero mientras que la PCR es una técnica ya veterana, la MDA está en crecimiento, y se han destacado sus aplicaciones en campos relativamente nuevos como la biología sintética. Como mínimo, lo que sí puede decirse es que su trabajo está a la altura de un Nobel.

De lo que no puede caber la menor duda es de que, por muchos galardones y reconocimientos que haya recibido en vida, Margarita Salas era sobrada acreedora de un premio que nunca se le concedió: el Príncipe/Princesa de Asturias.

En estos premios irregulares, el fallo del jurado a veces es un fallo garrafal; por ejemplo, cuando se otorgó a las creadoras del sistema de edición genómica CRISPR olvidando a quien descubrió aquello que lo hizo posible, el español Francis Mojica. En otros casos los fallos parecen venir motivados por criterios no estrictamente científicos (dejando aparte el de la nacionalidad, que se supone). E incluso teniendo en cuenta que en dicho jurado se ha sentado alguna persona que le debe mucho a Margarita Salas, la más importante científica del siglo XX en España nos ha dejado sin haber recibido el máximo galardón que se concede a la ciencia en este país. Los premios no se hacen grandes por quien los concede, sino por los premiados.

Los bebés CRISPR, un año después: confusión, mala ciencia e incoherencia

Nada es ciencia de verdad hasta que sale en los papeles. El experimento de los bebés CRISPR al que ayer me refería, anunciado hace ya casi un año por el investigador chino He Jiankui, no ha salido en los papeles, ni parece que vaya a salir, dado que las revistas científicas rechazan publicarlo por motivos éticos. Quizá por primera vez en la historia de la ciencia moderna, o al menos de la biología, una primicia mundial en un campo científico de gran relevancia (objetivamente es así, con independencia de todo lo demás) no va a publicarse, como si jamás hubiera ocurrido.

El problema es que sí ha ocurrido. El nacimiento de los bebés fue confirmado por las propias autoridades chinas. Y aunque no estemos hablando precisamente de una fuente de transparencia modélica, lo cierto es que nadie con un cierto conocimiento del asunto y de la ciencia implicada duda de que los experimentos de He sean reales, aunque sin una publicación sea imposible valorar hasta qué punto los resultados son tal como los ha contado.

El experto en leyes y ética de la biociencia Henry Greely, al que citaba ayer, escribe en su reciente artículo: “La escasez de las fuentes no significa que las proclamas de He sean falsas. De hecho, sospecho que la mayoría de ellas son ciertas, aunque solo sea porque, si se hubiera inventado los resultados, los habría inventado mejores”.

Y por lo tanto, dado que esto realmente sí ha ocurrido, ¿qué es preferible: que todos los detalles, los métodos y los resultados estén a disposición de la comunidad científica para que otros investigadores puedan evaluarlos y criticarlos, o que todo ello quede encerrado para siempre bajo siete llaves?

El investigador chino He Jiankui en la Segunda Cumbre Internacional de Edición del Genoma Humano, en noviembre de 2018. Imagen de VOA - Iris Tong / Wikipedia.

El investigador chino He Jiankui en la Segunda Cumbre Internacional de Edición del Genoma Humano, en noviembre de 2018. Imagen de VOA – Iris Tong / Wikipedia.

Quizá alguien podría pensar que es preferible lo segundo para evitar que otros científicos puedan repetirlo. Pero no, no es así. He no ha descubierto nada nuevo. No ha inventado la poción mágica ni la rueda; simplemente, ha traspasado una barrera que otros muchos investigadores conocedores de las mismas técnicas también podrían traspasar, pero que no lo han hecho por motivos éticos. No es necesario que el trabajo de He se publique para que otros investigadores puedan repetirlo. Y de hecho, en cambio no se suscitaron escándalos ni remotamente similares cuando se publicaron otros estudios cuya información sí podrían emplear otros con fines muy peligrosos: por ejemplo, las secuencias genéticas del virus de la viruela y de la gripe de 1918.

Otra muestra de los curiosos criterios con los que se está manejando el asunto de He la hemos conocido recientemente. El pasado junio, la revista Nature Medicine, que no es cualquier cosa, publicó un estudio en el que dos investigadores afirmaban que la mutación introducida en las niñas podía hacerlas enfermar y morir jóvenes. Los autores se basaban en un banco de datos de ADN de casi medio millón de personas de Reino Unido, en el que habían descubierto menos personas con esta mutación de las que se esperarían por azar.

De inmediato, hubo otros investigadores que repitieron el análisis y no encontraron los mismos resultados. Finalmente los propios autores han retractado su estudio, reconociendo que cometieron un error garrafal: el sistema utilizado para el genotipado en la base de datos produce un número muy elevado de falsos negativos; es decir, gente que tiene la mutación sin que esta aparezca en sus datos de ADN, porque al método utilizado se le ha escapado.

¿Cómo es posible que una revista como Nature Medicine publicara un estudio fallido, con un error que cualquier estudiante de primero de doctorado habría detectado si hubiera tenido acceso a la misma información que tenían los autores y los revisores del trabajo? ¿Es que cualquier estudio que incite a sacar las antorchas y los tridentes contra He va a aceptarse solo por este motivo, aunque sea mala ciencia?

Por supuesto, es importante aclarar que nadie en la comunidad científica ha defendido las posturas de He, porque son indefendibles. Pero frente a lo que parece una mayoría de voces relevantes que han condenado por entero la edición genómica de la línea germinal humana (embriones y células reproductoras), casi podrían contarse con los dedos los científicos que se han atrevido a defender públicamente que el problema del trabajo de He no es lo que ha hecho, sino que lo haya hecho sin las garantías, la supervisión, la aprobación ética y la transparencia que estos experimentos requieren.

La voz más prominente en este sentido ha sido la del genetista de Harvard George Church, uno de los expertos más prestigiosos y respetados en su campo. Casi podría decirse que fue la única voz relevante que después del anuncio de He se alzó defendiendo, no a este investigador ni sus experimentos, pero sí la edición genómica de la línea germinal humana. Y ello a pesar de que en 2017 un informe de las Academias Nacionales de Ciencias, Ingeniería y Medicina de EEUU abría la puerta a estos procedimientos siempre que se apliquen criterios estrictos.

Un último dato sobre la forma tan curiosa, por decirlo de forma neutra, con que la sociedad y los medios han tratado este tema. La semana pasada, todos los medios hacían la ola a un nuevo método desarrollado por David Liu, uno de los creadores de la herramienta de edición genética CRISPR. El prime editing, como ha llamado Liu a su nuevo sistema, es más limpio y preciso que la técnica original de CRISPR y más apto para un gran número de modificaciones genéticas que otras variantes obtenidas anteriormente. Según el propio Liu, podría corregir hasta un 89% de las más de 75.000 variantes genéticas patogénicas conocidas en humanos (el resto afectan a secuencias de ADN demasiado largas para el alcance de este método).

Naturalmente, no hubo medio que no elogiara lo que el trabajo de Liu supone de cara a la posible erradicación futura de muchas enfermedades genéticas de las denominadas raras. Y aunque desde luego la edición genómica en la línea somática (las células digamos normales del cuerpo) alberga también un gran potencial terapéutico para ciertas patologías, lo que ninguno de esos medios aclaraba es que la erradicación de las enfermedades raras por estas técnicas pasa por la edición genómica de la línea germinal.

Por decirlo aún más claro: la erradicación de las enfermedades raras por métodos genéticos como el creado por Liu pasa por hacer lo que He ha hecho, y que una mayoría ha condenado no por cómo lo ha hecho, sino simplemente por haberlo hecho.

En definitiva, parece lógico que He sea tratado como cualquier practicante de cualquier procedimiento clínico que no cuente con los permisos y la aprobación que son necesarios para ejercerlo. Pero cerrar la puerta a la edición genómica de la línea germinal humana es cerrar la puerta al futuro de la prevención de terribles enfermedades genéticas para las que no existe cura ni tratamiento.

Una barrera ética a superar, si es que se quieren aprovechar los inmensos beneficios que estas técnicas pueden aportar, es el hecho de que ninguno de los bebés, ni los de He ni ningún otro, podrá jamás aprobar o rechazar el procedimiento. Y otra barrera ética a superar es que el riesgo cero jamás existirá; no existe en ningún proceso, natural o creado por el ser humano. Si esta “cirugía genética” llega a aplicarse, habrá errores. Para los afectados, esos errores serán trágicos. Pero negar a una inmensa mayoría los beneficios que pueden obtenerse de estas técnicas sería como suprimir el transporte aéreo por el hecho de que algunos aviones se estrellan.

Los bebés CRISPR, un año después: ¿hacemos como si no hubiera ocurrido?

Pronto va a cumplirse un año desde que el investigador chino He Jiankui anunció al mundo el nacimiento de Lulu y Nana, dos bebés que supuestamente llevaban sus genomas modificados para eliminar la versión funcional de un receptor crítico en la infección por VIH. La mutación introducida por el científico en los genes utilizando la herramienta de edición genética CRISPR convertía a las dos niñas en las primeras personas con genomas editados. Y presuntamente, esta manipulación de sus genes debería hacerlas resistentes al virus del sida.

Todo ello, siempre y solo según He. Porque un año después, aún no existe ninguna confirmación de que todo lo anterior haya ocurrido en realidad, y no solo en la imaginación del investigador. Para que lo afirmado por He pueda considerarse real, esos resultados deben aparecer en una publicación científica. Hasta ahora, esto no ha sucedido. Y es posible que nunca suceda.

El investigador chino He Jiankui en su laboratorio. Imagen de The He Lab / Wikipedia.

El investigador chino He Jiankui en su laboratorio. Imagen de The He Lab / Wikipedia.

El motivo es que las revistas científicas se rigen por ciertos estándares éticos que debe respetar todo estudio admisible para publicación. Y en su momento quedó bien claro que los experimentos de He no solo se saltaron el consenso ético internacional con respecto a la manipulación genética en humanos, sino que además se ha acusado al investigador de falsificar los documentos de certificación ética de su proyecto.

De hecho, sabemos que si los resultados de He aún no se han publicado, no es el propio investigador quien lo ha evitado. Según informaciones publicadas el pasado enero por STAT, en noviembre de 2018 He y nueve coautores enviaron a Nature un estudio titulado “Birth of twins after genome editing for HIV resistance”, que describía los experimentos clínicos con los embriones llevados a término. El estudio fue rechazado sin pasar revisión por motivos éticos. He y sus colaboradores enviaron además otros dos estudios preclínicos –in vitro y en animales– a Nature y a Science Translational Medicine, que fueron también rechazados.

Más aún: poco antes de su anuncio, He y sus colaboradores publicaron en la revista The CRISPR Journal un artículo de opinión titulado “Draft Ethical Principles for Therapeutic Assisted Reproductive Technologies“, o “Borrador de principios éticos para las tecnologías terapéuticas de reproducción asistida”. En cuanto saltó el escándalo, la revista decidió retractar el artículo bajo la justificación de que los experimentos de He “violan las regulaciones locales y las normas bioéticas aceptadas internacionalmente. Este trabajo era directamente relevante a las opiniones expuestas en esta Perspectiva; el hecho de que los autores no hayan desvelado este trabajo clínico influye de forma manifiesta en la consideración editorial del manuscrito”.

En otras palabras: el artículo de He fue retractado porque el autor realmente había hecho aquello que en su artículo, previamente aceptado, defendía como admisible.

En resumen, un año después, esta es la situación respecto al trabajo de He, según lo cuenta el experto en ética y leyes de la biociencia de la Universidad de Stanford Henry Greely, en un artículo publicado ahora en la revista Journal of Law and the Biosciences:

No tenemos confirmación de lo que He hizo, de nadie externo al grupo de He y salvo por la breve nota de prensa de Guangdong [la provincia china donde se hizo el trabajo] sobre la investigación, incluyendo si se hizo edición genómica de los bebés o si estos realmente existen. No tenemos un análisis independiente de ADN de los bebés. No tenemos información externa sobre los padres de los que se dice que aceptaron la edición genómica de sus embriones, ni de lo que se les dijo. No tenemos información clara (excepto la de He) sobre el papel que ha desempeñado la Universidad de Ciencia y Tecnología del Sur de Shenzen [la institución de He], o el hospital en cuyo departamento de fertilidad presuntamente se hizo la edición, y cuyo comité ético supuestamente aprobó el experimento.

Y pese a que no tengamos nada de esto, Greely no aboga por que debamos tenerlo. De hecho, escribe respecto a He que “sus colegas deberían rehuirle, las revistas deberían rehusar los estudios donde figure como autor, los organismos financiadores deberían abandonarle. Se le debe incluir en las listas negras, como mínimo para las revistas y financiadores. Y los líderes de la ciencia deben pronunciarse en este sentido, alentando a otros a hacer lo mismo”.

De hecho, lo que pide Greely ya está ocurriendo: ninguna revista acepta los trabajos de He, su Universidad le ha expulsado y actualmente el investigador ha desaparecido del mapa, a todos los efectos.

Así pues, ¿caso cerrado? ¿Olvidamos a He, su anuncio y sus supuestos experimentos? ¿Hacemos como que no ha pasado nada y que todo esto nunca ocurrió?

La respuesta, mañana…

El monstruo del lago Ness es, posiblemente, esto

La pasada madrugada regresábamos a casa en coche cuando algo extraño cruzó la carretera ante nuestros faros. Eran más de las tres, vivimos en la punta norte del Parque Regional del Guadarrama Medio, y por allí estamos acostumbrados a convivir con jabalíes, zorros, musarañas, culebras de escalera, ratas, ratones y otras criaturas variadas. Pero lo que cruzó delante del coche parecía una enorme tarántula como las que se encuentran en América y en las regiones tropicales.

Dado que las arañas de ese aspecto en España, como la lobo o la negra del alcornocal, no llegan ni de lejos a semejante tamaño, concluí que habría sido alguna ilusión provocada por el sueño o por los numerosos botellines de Mahou que me pareció conveniente enviar a reciclar (no, no conducía yo). Claro que, si yo hubiera vivido hace unos cientos de años y tuviera como amigo a algún monje iluminador de manuscritos, podría haberle visitado para narrarle mi avistamiento de la araña monstruosa del Guadarrama y que la incluyera en su bestiario junto a las mantícoras y catoblepas.

Y así es como suelen nacer las leyendas. Alguien ve algo, lo interpreta a su modo, lo cuenta a otros, de alguna manera acaba difundiéndose, e inevitablemente otros acabarán viendo lo mismo; inevitablemente, porque estas presuntas confirmaciones independientes ocurren incluso cuando lo avistado originalmente no es tal. Un caso especialmente llamativo es el de los platillos volantes: como he contado anteriormente aquí y en otros medios, el protagonista del primer avistamiento divulgado por la prensa en 1947 no dijo haber visto platillos volantes, sino objetos con forma de media luna que se movían en el aire como platillos saltando sobre el agua. El periodista lo entendió mal y publicó que aquel hombre había visto platillos volantes, y desde entonces empezaron a surgir infinidad de avistamientos de platillos volantes.

Así es también como surgió la leyenda del monstruo del lago Ness: un relato medieval de veracidad muy dudosa, presuntos avistamientos en siglos posteriores, y la imaginación popular acaba dando forma a una leyenda que se convierte en un fenómeno sociológico. Como conté recientemente en otro medio, la popularización de los hallazgos de fósiles en el siglo XIX hizo que los monstruos con forma de serpiente presentes en los relatos antiguos y medievales comenzaran a transformarse en animales parecidos a los plesiosaurios. Luego, con el tiempo, alguien decide fabricar pruebas fotográficas falsas, ya sea con ánimo de lucro o notoriedad, o como simple broma. Y entonces ya poco importan los desmentidos: una vez que hemos decidido lo que queremos creer, ni la propia confesión de labios del falsificador servirá para apearnos del burro.

Y pese a todo, estos no son fenómenos a los cuales la ciencia deba permanecer ajena. Más bien al contrario, uno de los poderes de la ciencia es resolver los misterios, y el estudio de leyendas como la de Nessie puede revelarnos mucho; no solo sobre nosotros mismos y nuestros mecanismos mentales, sino también sobre el mundo que nos rodea. Es altamente improbable que exista un animal prehistórico en el lago Ness, pero si la gente dice haber visto algo, ¿cuáles son los fenómenos reales que se han interpretado como avistamientos del monstruo?

Un equipo internacional de investigadores, dirigido por la Universidad de Otago en Nueva Zelanda, ha analizado las aguas del lago Ness en busca de la huella de ADN de las criaturas allí presentes. Las técnicas actuales permiten hacer un tipo de análisis llamado metabarcoding de ADN ambiental (eDNA), consistente en leer todo el revoltillo de ADN presente en una muestra heterogénea tomada de la naturaleza y buscar ciertas etiquetas genéticas que identifican a las especies presentes, actuando como una especie de códigos de barras.

Según publican los investigadores en la web de su proyecto (los resultados aún no se han publicado formalmente), entre los 500 millones de secuencias de ADN pescadas en el loch ha aparecido de todo, desde bacterias hasta humanos, pasando por varios tipos de mamíferos terrestres, domésticos y salvajes. Los científicos han identificado 19 especies de mamíferos, 22 aves, tres anfibios y 11 peces. La mayoría son animales cuya presencia en el lago ya era conocida.

¿Y qué hay de Nessie? Según escriben los investigadores, “una de las teorías más populares es que podría existir en el lago Ness un reptil del Jurásico o una población de reptiles del Jurásico, como los plesiosaurios”. “Desafortunadamente, no podemos encontrar ninguna prueba de una criatura ni remotamente parecida a eso en los datos de secuencias de nuestro ADN ambiental. Así que, basándonos en nuestros datos, no creemos que la idea del plesiosaurio se sostenga”, añaden.

Asimismo, los investigadores tampoco han encontrado ADN de otras especies que algunas hipótesis han asociado a los avistamientos, como tiburones, esturiones o siluros. Y sin embargo, otra criatura aparece de forma dominante y repetida en las muestras: “Hemos encontrado una gran cantidad de ADN de anguila. Las anguilas son muy abundantes en el lago Ness, y hemos encontrado su ADN en prácticamente todas las ubicaciones estudiadas; hay montones de ellas”, escriben.

Imagen de SuperNatural History.

Imagen de SuperNatural History.

Estos datos han llevado a los investigadores a rescatar una vieja hipótesis casi olvidada. La idea de que Nessie podría ser en realidad una anguila ya se había propuesto en los años 30, cuando la historia del monstruo comenzó a causar furor, pero se abandonó cuando se impuso la imagen del plesiosaurio que ha perdurado en la imaginación hasta nuestros días. Los científicos del proyecto, bajo la dirección del biólogo Neil Gemmell, creen que la anguila podría ser la respuesta: “La teoría restante que no podemos refutar basándonos en el ADN ambiental obtenido es que lo que la gente está viendo es una anguila muy grande”.

Naturalmente, el análisis de ADN no permite determinar el tamaño de los animales detectados, pero los investigadores mencionan que existen informes de grandes anguilas observadas en el lago. La anguila europea raramente crece más de un metro, aunque los científicos no descartan que en el lago pudiera haberse desarrollado una comunidad de ejemplares de gran tamaño.

Una anguila europea (Anguilla anguilla). Imagen de Lex 1 / Wikipedia.

Una anguila europea (Anguilla anguilla). Imagen de Lex 1 / Wikipedia.

Por supuesto, los resultados no pueden zanjar por completo la leyenda del monstruo, ni lo harán. Los propios investigadores reconocen que un monstruo totalmente desconocido hasta ahora pasaría inadvertido en el metabarcoding si su ADN no se ha catalogado previamente. “Sin embargo, tenemos una teoría más para testar, la de la anguila gigante, y puede merecer la pena explorarla con más detalle”, concluyen.

Los “Óscar de la ciencia” premian la primera foto de un agujero negro

El regreso de las vacaciones viene cada año con sus sempiternas rutinas: la vuelta al cole, el reingreso a la vida laboral, los anuncios de fascículos en televisión, la cuenta bancaria agonizando de inanición… Y para los que nos dedicamos a contar lo que pasa en el mundo de la ciencia, es temporada de premios. En un mes conoceremos quiénes añadirán a su lista de credenciales en la Wikipedia los laureles del Nobel. Pero por el momento, esta semana tenemos un enjundioso aperitivo con los Premios Brealthrough.

Enjundioso, porque en realidad los Breakthrough son mucho más que un aperitivo. De hecho, hoy son los premios científicos más sustanciosos del mundo, con una dotación de tres millones de dólares por galardón que triplica la de los Nobel. Por supuesto, los premios suecos continúan y continuarán siendo la cumbre soñada por todo científico (que trabaje en alguna de las categorías incluidas, claro). Pero en solo ocho ediciones, los Breakthrough han conseguido convertirse en un importante indicador en el cuadro de mandos de la actualidad científica.

Además de su generosa dotación, una clave del éxito de los Breakthrough es precisamente casi todo aquello que los diferencia de los Nobel. Frente a la pompa decimonónica de los premios suecos, con su olor a roble viejo, sus cascos de plumas y sus trajes de pingüino, los Breakthrough se presentan como “los Óscar de la ciencia”, y esta comparación basta para entender su carácter. La preferencia por uno u otro estilo puede ir en gustos, pero frente al arcaicismo de los Nobel, los Breakthrough son los premios de la era de internet, como corresponde a los nombres que los impulsan: Sergey Brin, Priscilla Chan, Mark Zuckerberg, Ma Huateng, Yuri y Julia Milner, o Anne Wojcicki.

También esta diferencia de estilo afecta al hecho de que los Breakthrough suelen concederse más en caliente que los Nobel, a hallazgos más recientes en el tiempo, premiando más los avances por sus posibilidades futuras que por las ya demostradas. Aunque Alfred Nobel consignó en su testamento que sus premios debían concederse a los descubrimientos más importantes del año precedente, lo cierto es que los Nobel tienden a distinguir hallazgos de hace varias décadas, y a menudo se ven lastrados por lo que parece una necesidad de otorgar premios escoba a trabajos que hasta ahora habían quedado sin reconocimiento. Los medios no especializados suelen presentar cada año los fallos de los Nobel como si premiaran ciencia de vanguardia, pero por lo general suele ser más bien de retaguardia –o más propiamente, de fondo de armario–, siempre que sus frutos hayan sido de gran trascendencia hasta el día de hoy.

Sin embargo y en lo que respecta a los premios de Física, este año la actualidad científica se lo ha puesto muy fácil a los jurados. El Breakthrough en esta categoría se ha concedido a los investigadores del Event Horizon Telescope (EHT), una colaboración internacional que ha empleado una red de telescopios para lograr la primera fotografía de un agujero negro.

Imagen del agujero negro supermasivo en el centro de la galaxia M87 resuelta por la red Event Horizon Telescope.

Imagen del agujero negro supermasivo en el centro de la galaxia M87 resuelta por la red Event Horizon Telescope.

El pasado 10 de abril todos los medios, incluyendo este blog, contaron la que hasta ahora ha sido la noticia científica más resonante de 2019. Más allá de su importancia, el hecho de que la noticia fuera gráfica le garantizaba el acceso a todos los telediarios, donde a menudo parece que algo no existe si no lleva foto.

Pero el Breakthrough es, además, un premio adaptado a una época en que la ciencia suele ser un esfuerzo colectivo, mientras que los Nobel siguen anclados a la idea obsoleta del genio individual. El premio lo recogerá el director de la colaboración EHT en el Centro de Astrofísica Harvard-Smithsonian, Shep Doeleman, pero el importe de tres millones de dólares se repartirá equitativamente entre los 347 investigadores firmantes de los seis estudios que presentaron los resultados. Así, cada uno de ellos tocará a algo más de 8.600 dólares. Y aunque la cantidad no sea como para bañarse en billetes, el hecho de que los y las becarias predoctorales vayan a percibir lo mismo que sus jefes y jefas es también un reconocimiento tan inusualmente raro como habitualmente merecido.

En lo que respecta al dólar, más suerte van a tener los premiados en Ciencias de la Vida y en Matemáticas, que serán menos a repartir. En la primera categoría se conceden cuatro premios, que este año irán respectivamente al genetista molecular Jeffrey Friedman por su descubrimiento de la hormona leptina y su papel en la obesidad, a los bioquímicos Franz-Ulrich Hartl y Arthur Horwich por sus hallazgos sobre el plegamiento de proteínas en la célula –un mecanismo implicado en enfermedades como las neurodegenerativas–, al fisiólogo David Julius por sus estudios sobre los mecanismos celulares y moleculares del dolor, y a la bioquímica Virginia Man-Yee Lee por sus descubrimientos de ciertos mecanismos moleculares implicados en las enfermedades neurodegenerativas.

En cuanto a la categoría de Matemáticas, cada año solo se concede un Premio Breakthrough, que en este caso ha sido para Alex Eskin, por sus descubrimientos en geometría que incluyen un trabajo desarrollado en colaboración con la iraní Maryam Mirzakhni (fallecida en 2017, por lo que no podrá recibir el premio) que resuelve un curioso problema: ¿puede un rayo de luz en una habitación cubierta de espejos alcanzar todos los puntos de la misma? Eskin y Mirzakhni demostraron que en habitaciones poligonales cuyos ángulos son fracciones de números enteros existe un número finito de puntos que no quedarían iluminados.

Por último, los Breakthrough conceden también seis premios denominados New Horizons y dotados cada uno con 100.000 dólares, tres en Física y tres en Matemáticas, a científicos jóvenes que ya han logrado avances notables; una buena manera de promocionar la consolidación de las carreras incipientes y prometedoras.

En resumen, el logro conseguido por la colaboración EHT podría dar pie a uno de esos raros casos en los que el Nobel se concede a ciencia de actualidad, como ocurrió en 2013 con la concesión del premio de Física a Peter Higgs y François Englert por el hallazgo largamente esperado del bosón de Higgs. Claro que, como también sucedió entonces, las arcaicas normas de los Nobel obligarían a seleccionar a un máximo de tres premiados. Es decir, que en este caso, 344 investigadores participantes en el hallazgo quedarían sin reconocimiento.