Archivo de junio, 2016

¿Propaganda seudocientífica antivacunas en un colegio público?

Una persona de mi familia me cuenta que en el colegio público donde trabaja como profesora han montado un aula dedicada a los trastornos del espectro autista (TEA). Lo cual suena como una fantástica iniciativa dirigida a ampliar el conocimiento de los profesores y mejorar su capacidad de trabajar adecuadamente con los alumnos afectados por estos trastornos en enorme crecimiento… Espera, espera: ¿enorme crecimiento?

La idea de que existe un rápido crecimiento de los casos de TEA puede ser tan solo una interpretación simplista de los datos. Claro que si, como es de suponer, los responsables del aula en cuestión pasan por ser expertos en la materia, esta hipótesis se cae. Y lo malo es que la alternativa no es tan inocente. Me explico.

Entre 2012 y 2014, los casos registrados de malaria en Botswana, Namibia, Suráfrica y Swazilandia se duplicaron. Solo en un año, el aumento en Namibia fue del 200%, y en Botswana del 224%, todo ello según datos del Informe Mundial de Malaria 2015 de la Organización Mundial de la Salud (OMS).

¿Un brote virulento de malaria en el sur de África? ¡No! No es necesario ser científico ni médico, sino meramente aplicar un poco de sentido común, para comprender que datos como estos no demuestran un aumento en el número de casos, sino solo en el número de casos diagnosticados. Naturalmente, el informe de la OMS explica que en esos años fue cuando empezaron a introducirse los tests rápidos, lo que disparó las cifras de diagnósticos de malaria en muchos países del mundo.

Algo similar ocurre con los TEA. La biblia del diagnóstico psiquiátrico, el DSM, incluyó por primera vez el autismo en 1980; hasta entonces no existía una separación de la esquizofrenia. Desde aquella definición a la actual de TEA se han ampliado enormemente los criterios, de modo que hoy entran en el diagnóstico de TEA muchos casos que no encajaban en el de «autismo infantil» de 1980.

Ante los gráficos presentados por ciertas fuentes, en los que parece reflejarse un crecimiento brutal de los casos de TEA en el último par de décadas, algunos investigadores han dejado de lado el titular sensacionalista y han entrado a analizar los datos. Y entonces, la cosa cambia: aunque podría existir un pequeño aumento en el número de casos, la mayor parte de lo que algunos presentan como una explosión de casos se debe realmente al cambio de los criterios diagnósticos.

Por si alguien aún no lo cree –el escepticismo es sano– y quiere datos más concretos, ahí van algunas fuentes y citas originales, con sus enlaces. Según un estudio global de febrero de 2015, «después de tener en cuenta las variaciones metodológicas, no hay pruebas claras de un cambio en la prevalencia de los TEA entre 1990 y 2010».

A la misma conclusión había llegado una revisión de 2006: «probablemente no ha habido un aumento real en la incidencia de autismo». Otros estudios han examinado datos regionales: un trabajo de 2015 descubrió que el aumento en los diagnósticos de autismo en EEUU se correspondía con el descenso en el número de diagnósticos de discapacidad intelectual; es decir, que simplemente los pacientes se habían movido de una categoría a otra.

Otro estudio de 2013 en California determinó que una buena parte del aumento en el número de casos diagnosticados es una consecuencia de la mejora del nivel de vida: «los niños que se mudaron a un vecindario con más recursos diagnósticos que su residencia anterior recibían con más probabilidad un diagnóstico de autismo que los niños cuyo vecindario no ha cambiado».

Otro trabajo publicado en enero de 2015 examinó la situación en Dinamarca, llegando a la conclusión de que dos terceras partes del presunto aumento en el número de casos corresponden al cambio de los criterios diagnósticos introducido en 1994 y al hecho de que en 1995 comenzaron a incluirse en el registro los diagnósticos de pacientes externos.

Imagen de CDC / dominio público.

Imagen de CDC / dominio público.

Surge entonces la pregunta: ¿por qué todos estos datos no están en el conocimiento de, o al menos no están en la exposición presentada por, los organizadores de un aula dedicada a los TEA en un colegio público? No lo sé. Pero cuando mi informadora prosigue su explicación, se descubre el pastel: en el aula les hablaron de los «posibles factores», como… ¿adivinan? Vacunas, contaminantes ambientales…

Como no podía ser de otra manera; en general, los defensores de la «explosión» de casos suelen estar guiados por el interés de colocar a continuación su idea de que el autismo está causado por su obsesión favorita. En su día ya presenté aquí a uno de esos personajes y su disparatado gráfico con el que pretendía culpar del autismo al herbicida glifosato; causa a la que yo añadí, con idénticos argumentos, otras tres: la importación de petróleo en China, el crecimiento de la industria turística y el aumento de las mujeres británicas que llegan a los 100 años.

Claro que esa obsesión favorita puede traducirse en el motivo más viejo de la humanidad. La idea del vínculo entre vacunas y autismo fue un “fraude elaborado” creado por un tipo llamado Andrew Wakefield, exmédico. Su licencia fue revocada después de descubrirse que su estudio era falso. Posteriormente, una investigación de la revista British Medical Journal reveló (artículos originales aquí, aquí y aquí) que Wakefield había recibido para su estudio una suma de 674.000 dólares de una oficina de abogados que estaba preparando un litigio contra los fabricantes de vacunas. Al mismo tiempo se descubrió que Wakefield preparaba un test diagnóstico de su nuevo síndrome con el que planeaba facturar 43 millones de dólares.

Habrá que repetirlo las veces que sea necesario: no existe ni ha existido jamás ningún vínculo entre vacunas y autismo. La idea procede en su totalidad de un estudio falso fabricado por un médico corrupto. Más de 100 estudios y metaestudios han concluido que no existe absolutamente ninguna relación entre vacunas y autismo.

Esto es lo que no es. En cuanto a lo que es: hoy no hay pruebas para sostener otra hipótesis diferente a que los TEA tienen un origen genético complejo debido a variantes génicas no necesariamente presentes en los genomas parentales, y que el riesgo podría aumentar con la edad del padre y tal vez de la madre (lo cual no es diferente a lo que tradicionalmente se ha asociado con otros trastornos, como el síndrome de Down). No se puede negar una posible modulación del nivel de riesgo genético por causas externas ambientales, pero hasta ahora no hay pruebas sólidas de la influencia de ninguno de estos factores. Esto es lo que hay, y lo demás es propaganda.

Pero ahora llega la pregunta más grave. Y para esta sí que no tengo respuesta: ¿por qué se está financiando con dinero público la promoción de propaganda falaz y peligrosa en un colegio público?

Maravillosa naturaleza, hasta en lo repugnante

Hace ya muchos años, cuando aún vivía con mis padres, sucedió que al regreso de unas largas vacaciones nos topamos con una sorpresa aterradora: el frigorífico-congelador había fallado por motivos que ya no recuerdo. Pueden figurarse el panorama si alguna vez les ha ocurrido algo similar. Si no es así, tal vez no lleguen a imaginar lo que una incubadora, pues en eso se había transformado nuestra nevera, puede llegar a hacer con kilos y kilos de comida perecedera en pleno mes de agosto.

Voy a ahorrarles los detalles. La limpieza duró varios días, pero lo que más costó fue eliminar el intenso olor a cadáver que durante semanas siguió impregnando el frigorífico, la cocina, tal vez nuestras propias fosas nasales. Todavía hoy recuerdo perfectamente aquella peste de la descomposición (tal es el poder del olfato).

Pero si traigo hoy este recuerdo es porque en aquella ocasión comprendí perfectamente cómo un tipo tan listo como Aristóteles podía creer en algo tan conceptualmente absurdo como la generación espontánea, es decir, bichos que crecen de la nada; por ejemplo, pulgones que nacían de las gotas de rocío. Aunque otros científicos se anticiparon con intuiciones acertadas y observaciones pioneras, no fue hasta casi ayer mismo, siglo XIX, cuando Louis Pasteur dejó bien demostrado y sentado que todo ser vivo nace de otro ser vivo, incluso los microbios.

Sin embargo, reconozco que mi madre tenía motivos para dudar de Pasteur: carne envuelta en cajones dentro de un congelador cerrado, en un piso de Madrid aparentemente sellado a cal y canto para las vacaciones; ¿cómo demonios habían llegado allí todos aquellos gusanos?

He recordado el episodio a raíz de otro hecho reciente. Tal vez algún seguidor de este blog recuerde que hace varias semanas conté aquí dos experimentos caseros de microbiología que hicimos para la feria de ciencias del colegio de mis hijos. Creo recordar que entonces detallé cómo deshacerse de los cultivos una vez terminados los experimentos: un cubo con lejía a una concentración mínima del 10%, y dejar allí las placas abiertas durante un par de horas.

Pero en esto, como en otras cosas, soy un mal ejemplo. Por falta de tiempo, descuido y dejadez, dejé las placas almacenadas en dos cajas de zapatos en un rincón de la cocina. Hasta que un día mi hijo mayor me dijo: “papá, la cocina está llena de moscas”. “Bueno, llena, llena…”, pensé mientras iba a comprobarlo. Y sí. Llena. Aunque no llevé la cuenta, calculé que esa tarde debí de matar al menos 50 moscas.

Eran moscas negras, peludas, más grandes que las domésticas y más torpes, sin esa ágil capacidad evasiva de las intrusas más habituales en nuestros veranos. Al matarlas, algunas de ellas liberaron larvas. Es decir, que eran ovovivíparas: los huevos eclosionaban aún dentro de la madre, que deposita larvas vivas. Si mi guía de insectos no me falla, este detalle es típico de la familia de los sarcofágidos (Sarcophagidae), a diferencia de la Calliphora vomitoria, el típico moscardón azul de la carne que solemos ver más a menudo.

Las más comunes dentro de este grupo, la subfamilia sarcofaginas, suelen tener rayas blancas y negras en el tórax y un patrón ajedrezado en el abdomen. Por el contrario, las mías iban de luto riguroso, así que debían pertenecer a alguna de las otras dos subfamilias. Esto es todo lo que puedo afinar en mi esfuerzo taxonómico. Si hay algún entomólogo en la sala que pueda aportar alguna pista, será bienvenido.

Una sarcofágida, mosca de la carne. Imagen de pixabay.com / dominio público.

Una sarcofágida, mosca de la carne. Imagen de pixabay.com / dominio público.

De inmediato comprendí que la causa de aquella invasión eran las placas. En algunos de los medios de cultivo habíamos utilizado productos de origen animal, como caldo de carne y leche. Y aunque en la cocina no se notaba ningún olor evidente para los humanos que habitamos en esta casa, era obvio que las moscas sí habían detectado algo que las había llevado hasta allí. Pero ¿por dónde habían entrado? La ventana de la cocina prácticamente nunca se abre, pero hay una rejilla de ventilación que comunica con el exterior, además de las salidas de la caldera de gas y la campana extractora.

Me deshice de las placas al instante, pero en días sucesivos tuve que matar otras varias decenas de moscas, hasta que la infestación desapareció. Es decir, que incluso eliminada la fuente original, aún persistía en el aire un gradiente de concentración de esos compuestos atrayentes, suficiente como para marcarles a las moscas un camino invisible hasta la rejilla de nuestra cocina.

Y todo esto, por repugnante que pueda resultar, no deja de ser una maravilla. Cuando estamos vivos, invertimos una inmensa cantidad de nuestro dinero metabólico (energía que comemos) en el simple mantenimiento bioquímico del organismo. Es decir, en reparar las tuberías, cambiar las bombillas fundidas, arreglar los desconchones y demás tareas necesarias para mantener habitable nuestra casa. Cuando morimos, todo esto se interrumpe, y la casa queda abandonada a su suerte. Comienza entonces un proceso espontáneo de degradación, acelerado por huestes de vándalos (bacterias y hongos) que invaden lo que fue nuestra propiedad para expoliarla de su principal riqueza, las proteínas.

Fruto de toda esta decadencia aparecen compuestos como los adecuadamente llamados putrescina y cadaverina, algunos de los responsables del olor que se nos quedó metido en la nariz durante semanas cuando aquello de la nevera. Algunas de estas sustancias flotan en el aire, no como corrientes continuas, sino como simples penachos dispersados por el viento hasta kilómetros de distancia; ridículamente indetectables para alguien como un ser humano. Pero no para las moscas.

Las moscas poseen un olfato increíblemente fino en sus antenas, que les permite seguir ese rastro desde grandes distancias hasta localizar la fuente. En los últimos años se han llevado a cabo experimentos pasmosamente sofisticados para controlar y seguir el vuelo de las moscas en respuesta a estímulos olfativos, utilizando túneles de viento e inhibiendo selectivamente ciertas regiones del cerebro del insecto. Los investigadores han podido así comprobar que, una vez detectado el cebo olfativo, las moscas recurren a la vista para tratar de localizar la fuente de comida.

En el caso de mis cultivos microbianos, no podían, ya que la fuente del olor eran unas placas dentro de dos cajas de zapatos a las que las moscas no podían acceder. Y probablemente por este motivo se quedaban vagando sin rumbo por la casa o se pegaban a la ventana de la cocina sin saber muy bien qué hacer.

Y hay otro detalle curioso. Para nosotros, compuestos como la putrescina y la cadaverina tienen un olor muy desagradable. Este es un sistema natural que poseemos para la detección de alimentos en mal estado. Antes de que existiera la impresión de fechas de caducidad en los alimentos, la evolución nos dotó de un sensor capaz de alertarnos de que esa comida estropeada podría matarnos.

En el caso de las moscas, ocurre lo contrario: podemos pensar que, para ellas, la carne en descomposición de la que se alimentan y donde depositan a sus crías huele tan bien como para nosotros un plato de risotto con setas. Puede que sean feas, que todo va en gustos, y desde luego que son saquitos ambulantes de enfermedad. Pero recuerden, no caigan en esa falacia de hablar de seres más evolucionados o menos evolucionados: a ver quién de ustedes es capaz de oler desde casa lo que se está cocinando en un restaurante a kilómetros de distancia.

En busca del virus perdido

Hace unos días conté aquí que el virus de Lloviu, un filovirus muy parecido al ébola y hallado en murciélagos muertos en una cueva asturiana en 2003, se ha perdido de momento para la ciencia. Así lo contaba una reciente revisión sobre filovirus olvidados escrita por un equipo de investigadores de Fort Detrick, el centro encargado de la defensa biológica de EEUU. Según este trabajo, las muestras se consumieron en su totalidad sin lograrse el cultivo del virus en el laboratorio, un requisito para caracterizarlo y saber hasta qué punto podría ser patógeno para animales y humanos.

Un murciélago de cueva 'Miniopterus schreibersii', especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Un murciélago de cueva ‘Miniopterus schreibersii’, especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Bien, resulta que no es del todo cierto que las muestras se hayan acabado. Hace unos días por fin conseguí respuesta de Anabel Negredo, la investigadora del Centro Nacional de Microbiología del Instituto de Salud Carlos III (ISCIII) que llevó el peso del trabajo inicial de identificación del virus y que firmó el estudio de descripción como coautora principal. Negredo me cuenta que aún quedan algunas muestras con baja carga viral. Aunque es mejor que nada, si no se logró sacar el virus de las muestras con mayor contenido vírico, es dudoso que se consiga con estas.

Sin embargo, hay una buena noticia. Según Negredo, un nuevo proyecto presentado en la convocatoria del Plan Nacional de I+D+i de 2013 buscará posibles virus en los murciélagos de la Península Ibérica, bajo la dirección del investigador Juan Emilio Echevarría. Uno de los objetivos del proyecto será tratar de recuperar el lloviu para volver a llevarlo de la cueva al laboratorio. “Estamos buscando su presencia o el rastro de su presencia en murciélagos de las cuevas donde se descubrió el virus, y para ello estamos utilizando métodos directos de detección de genoma viral y métodos indirectos de detección de anticuerpos”, dice Negredo.

Claro que no hay ninguna garantía de que el virus perdure hoy en aquel mismo lugar. El lloviu se descubrió en cadáveres de murciélagos, pero aún se desconoce si fue la causa de las muertes. Pensar que todos aquellos animales estaban infectados con un virus, y que sin embargo pudieran morir por otra causa, tal vez parezca un argumento innecesariamente retorcido. Pero la ciencia no avanza con conjeturas, por probables que sean.

Conviene recordar que el ébola, lo que más se parece al lloviu, no es letal para los murciélagos. Como ya conté aquí, un estudio propuso que estos animales mantienen una guardia permanente contra los virus que en otras especies solo se activa cuando hay infección, lo que podría explicar su superinmunidad.

Si el lloviu fuera mortal para los murciélagos, significaría tal vez que es capaz de tumbar una línea de defensa resistente incluso al ébola. Pero significaría además otra cosa: los virus tienen su reservorio, digamos su stock de almacén, en especies a las que no matan. Este es el caso del murciélago para el ébola. Si el lloviu resultara mortal para estos animales, el reservorio debería buscarse en otro sitio. Desde el primer momento, los investigadores del ISCIII han sospechado que podría estar en los insectos. Y por este motivo, el nuevo proyecto también investigará la posibilidad de encontrar el lloviu en los tipos de insectos que normalmente están en contacto con los murciélagos.

Confiemos en que pronto el lloviu regrese a los laboratorios. No solo es un virus que nos interesa conocer para saber a qué podríamos estar expuestos; si algo tan parecido al ébola resultara inofensivo para los humanos, tendría un enorme valor para la investigación en la lucha contra los filovirus peligrosos.

El universo, ¿lleno de microbios alienígenas muertos?

Poco podía imaginar Ricitos de Oro, cuando allanaba la morada de los tres ositos sin el menor miramiento, que su poco edificante conducta iba a encontrar eco en un campo tan alejado de los cuentos infantiles como la astronomía exoplanetaria.

Ilustración de una exoluna de un exoSaturno gigante. Imagen de Dmytro Ivashchenko / Wikipedia.

Ilustración de una exoluna de un exoSaturno gigante. Imagen de Dmytro Ivashchenko / Wikipedia.

¿Tan alejado de los cuentos infantiles? ¿Realmente el de los exoplanetas habitables es un relato científicamente sólido, o es solo una bonita fantasía?

La niña del cuento llegaba a la casa de los tres ositos, donde descubría tres platos de sopa (creo que en la versión original era porridge, pero dejémoslo mejor en alimentos aptos para el consumo humano). Uno de ellos estaba demasiado caliente, y el otro muy frío. Solo el tercero tenía la temperatura justa. La fábula sirvió a los científicos que buscan planetas fuera del Sistema Solar para definir lo que se llama la zona habitable: dependiendo del tamaño de una estrella y de su intensidad, existe una franja alrededor de ella en la cual un planeta estaría justo a la temperatura necesaria para que exista vida. Bajo este supuesto se han identificado ya numerosos exoplanetas potencialmente habitables.

Pero ¿basta este requisito para suponer la posibilidad de vida? Los científicos planetarios Charley Lineweaver y Aditya Chopra piensan que no.

Lineweaver y Chopra admiten la posibilidad de que la aparición de la vida sea un fenómeno muy frecuente en el universo. Algo con lo que, como ya he contado aquí, no estoy personalmente de acuerdo. El nacimiento de la vida a partir de la no vida tiene dos nombres distintos en biología que se diferencian por su escala temporal: si hablamos de que esto ocurra de hoy para mañana, lo llamamos generación espontánea, algo cuya imposibilidad ya fue demostrada por Pasteur en el siglo XIX; por el contrario, si hablamos de un largo período geológico, lo llamamos abiogénesis, algo que muchos dan por facilísimo.

Es evidente que la escala temporal cambia las cosas: la evolución de las especies, que es la secuela de la abiogénesis, ocurre a lo largo de muchos miles de años, incluso millones. Pero hasta que nadie logre recrear en un laboratorio (o, al menos, en una simulación in silico) un proceso acelerado que pueda replicar lo ocurrido en el primer millardo de años de la historia de la Tierra, no tendremos otra prueba de que esto pueda llegar a suceder sino el hecho de que estamos aquí.

De hecho, la enorme dificultad de llegar a concebir lo que muchos dan como evidente fue lo que llevó a tipos tan listos como Carl Sagan y Francis Crick a sugerir que la vida fue sembrada en este planeta desde otro lugar, fuera cual fuera su (único) origen inicial. Y aunque desde entonces se ha aligerado la dificultad de alguno de los pasos necesarios (ya he hablado aquí del ARN catalítico), la generación espontánea a largo plazo, más correctamente conocida como abiogénesis, continúa siendo para algunos un hueso intelectual que hay que tragarse de través.

Pero en fin, supongamos que sí; que la vida surge. Incluso con esta concesión, gente como Lineweaver y Chopra opinan que de ahí a imaginar alienígenas inteligentes y tecnológicos no hay precisamente una cuesta abajo, sino todo lo contrario, más bien un abismo casi insalvable.

Los dos investigadores ponen como ejemplo nuestros vecinos del segundo y el cuarto: Venus y Marte. En el principio, estos dos planetas eran bastante similares a la Tierra, pero ambos sufrieron sendas catástrofes climáticas: Venus devino demasiado ardiente y Marte demasiado gélido. Y sin embargo, si existieran esos alienígenas inteligentes, desde su lejana estrella considerarían que ambos están dentro de la zona Ricitos de Oro del Sol, tanto como la Tierra.

Lo que Lineweaver y Chopra plantean en su estudio, publicado en Astrobiology, es que la habitabilidad es sólo una fase transitoria en la historia de ciertos planetas, pero que lo normal por defecto es que ese estado se malogre y, aunque haya surgido la vida microbiana, esta acabe desapareciendo. Pudo ocurrir en Venus y Marte; no lo sabemos. Pero sí estamos seguros de que en ninguno de los dos planetas hay nada parecido a algo que podamos llamar gente.

La clave está, según los autores, en que es precisamente la presencia de vida lo único que puede mantener la habitabilidad a largo plazo. La idea ya ha sido propuesta antes, pero aún no ha sido explorada en profundidad. Un planeta necesita unas condiciones de partida favorables, pero si estas no resultan modificadas por una biología con un desarrollo lo suficientemente rápido, el resultado será la catástrofe climática y la vida naciente se marchitará hasta desaparecer.

Los responsables de esta catástrofe, explican Lineweaver y Chopra, son los gases de efecto invernadero. Existe en la naturaleza un fenómeno llamado ciclo de carbono o ciclo de carbonatos-silicatos, al que hoy se presta mucha atención porque está en el centro de la preocupación sobre el cambio climático antropogénico. El CO2 de la atmósfera se disuelve en la lluvia y cae sobre las rocas de silicatos, formándose carbonatos y sílice que llegan al mar y son utilizados por los organismos microscópicos. Una parte de esta comunidad planctónica es engullida en las zonas de subducción de las placas tectónicas, y el magmatismo en el interior de la Tierra produce de nuevo silicatos, que salen por las zonas de crecimiento de placas, y CO2, que regresa a la atmósfera en forma de gas gracias a los volcanes.

El CO2 regresa a la atmósfera por los volcanes. Foto del Kilauea, en Hawái. Imagen de Wikipedia.

El CO2 regresa a la atmósfera por los volcanes. Foto del Kilauea, en Hawái. Imagen de Wikipedia.

Sin embargo, este ciclo no es un sistema cerrado perfectamente armónico. En Venus, las altas temperaturas favorecen la formación de silicatos, lo que eleva el CO2 atmosférico, que a su vez aumenta el efecto invernadero y hace subir las temperaturas; el resultado es un ciclo de realimentación que lleva a la catástrofe climática. En la Tierra, históricamente la formación de carbonatos ha tendido a eliminar CO2 de la atmósfera… hasta que llegó la quema de combustibles fósiles. Pero esa es otra historia.

Los autores del estudio estiman que la Tierra no logró mantener una cierta estabilidad climática hospitalaria para la vida hasta hace unos 3.000 millones de años. Pero el factor determinante para alcanzar este relativo equilibrio fue precisamente la existencia de vida, en tiempo y forma suficientes como para alterar el metabolismo terrestre, evitando los ciclos de realimentación hacia la catástrofe climática y consiguiendo superar así lo que llaman el «cuello de botella gaiano» (Gaia hace referencia a la regulación global del planeta, según la idea originalmente propuesta por James Lovelock y Lynn Margulis).

Lo cual, temen Lineweaver y Chopra, es algo probablemente bastante raro en el universo. «Este cuello de botella gaiano puede ser una mejor explicación para la no prevalencia de vida que el paradigma tradicional del cuello de botella en la aparición de la vida», escriben. Su conclusión es que tal vez el cosmos está lleno de microbios alienígenas, pero que están todos muertos y fosilizados.

Puede ser que Lineweaver y Chopra estén en lo cierto; pero el hecho es que tampoco se ha encontrado todavía una solución al otro cuello de botella, el de la aparición de la vida. Con lo cual, lo único que podemos afirmar es que ahora tenemos no una, sino dos graves dificultades para aceptar ese mantra popular de que el universo rebosa vida.

¿Y si la Tierra sí fuera un lugar especial?

No importa cuántos intentos más de encontrar vida alienígena fracasen. Ni cuántos años más transcurran sin que recibamos, por vía activa o pasiva, una prueba de la existencia de algo vivo que no haya nacido entre los confines de este planeta. Unos siempre seguirán buscando y otros siempre seguiremos esperando; incluso los bioescépticos, como un servidor.

Ningún científico serio entregaría su carrera a la búsqueda del Yeti o del monstruo del lago Ness. Y sin embargo, muchos científicos de intachables credenciales dedican la suya a la búsqueda de algo de cuya existencia, en más de medio siglo de rastreo, hemos logrado acumular tantas pruebas como del Yeti o el monstruo del lago Ness.

No es una crítica a la actividad de búsqueda, que es un imperativo del conocimiento (y para quienes prefieren el oscurantismo, conviene aclarar que hoy se sostiene con fondos privados). Pero sí al sesgo que se asocia a la actividad de búsqueda. Hubo un tiempo no lejano en que muchos negaban la posibilidad de vida alienígena por una cuestión de fe: no podía haber otros seres en el universo porque la Biblia no decía nada de ello, y era imposible que cometiera semejante omisión. Hoy se tiende a pensar lo contrario en la creencia de que hay un argumento científico para ello, pero lo cierto es que continúa siendo una cuestión de fe. Lo explico.

La 'canica azul', imagen de la Tierra tomada por la misión Apolo 17 en 1972. Imagen de NASA.

La ‘canica azul’, imagen de la Tierra tomada por la misión Apolo 17 en 1972. Imagen de NASA.

El argumento científico es la aplicación del llamado principio de mediocridad, según el cual algo elegido al azar entre muchos tenderá con mayor probabilidad a ser un representante promedio de esos muchos. Cuando Copérnico mostró que la Tierra no era el centro del universo, comenzó a barruntarse la idea de que nuestro planeta no es un lugar especial, y que por tanto debe de ser uno más entre una infinidad de otros similares. Lo cual lleva a suponer que la vida, e incluso lo que Carl Sagan llamaba “el equivalente funcional del ser humano”, son comunes en el universo.

El principio de mediocridad suele ser un argumento apoyado por los astrofísicos. Y curiosamente, ellos se enfrentan a la necesidad de explicar por qué, de hecho, todo nuestro universo sí es un lugar especial: muchos cosmólogos encuentran chocante que una serie de constantes físicas del universo, que en principio podrían adoptar cualquier valor aleatorio, se sitúen exactamente en la estrecha ventana que permite la existencia de materia y, por tanto, de vida. Este llamado “ajuste fino del universo” asusta a algunos científicos, porque para ellos abre la puerta a la defensa de que existe un diseño inteligente del universo.

Por mi parte, sospecho que en la negación del ajuste fino por este motivo existe un sesgo intelectual; un científico nunca debería oponerse a una hipótesis por otros motivos que los científicos, y no por el hecho de que no le guste. Y sospecho también que es este mismo sesgo, por igual motivo, el que suele llevar a la defensa de que la vida es omnipresente en el universo. Es decir, es una cuestión de fe, no de ciencia.

Pero es que, en realidad, el ajuste fino puede explicarse por causas perfectamente naturales. Nuestro universo puede ser simplemente uno entre una infinidad de otros muchos que existen o han existido, con todos los rangos posibles de los parámetros físicos que en esos otros muchos casos han dado lugar a universos abortados, sin materia o sin vida. Simplemente, el nuestro tuvo más suerte, y por eso estamos aquí, precisamente en este universo que sí tiene algo de especial.

Lo mismo puede aplicarse a la Tierra. Según el principio de mediocridad, no podemos negar que en el universo habrá un número inmenso de planetas muy semejantes al nuestro, con similares condiciones de partida. Pero entre eso y afirmar que en todos ellos es inevitable que surja la vida se interpone la suposición de que este es un proceso determinista. Y eso ya no es mediocridad, sino más bien todo lo contrario, negar toda la amplísima gama de muchas otras opciones que no llevan a la vida.

Bajando a lo concreto: la aplicación de todo esto a la existencia del ser humano la expone estupendamente el científico planetario australiano Charley Lineweaver en esta charla TEDx. Lineweaver explica lo que llama “la falacia del planeta de los simios”, y es esa suposición a la que me he referido antes de que en todo planeta habitado la evolución conduce a ese “equivalente funcional del ser humano” del que hablaba Sagan. El científico explica que esos otros experimentos de evolución separada también se han dado aquí, en la propia Tierra, y no han llevado a la aparición de una especie inteligente como nosotros. Por ejemplo, uno de esos experimentos se llama Australia.

Pero es que lo mismo se aplica a toda la aparición y la evolución de la vida. Cuando se dice que la vida ha surgido en la Tierra, y que por tanto debe de haberlo hecho en otros muchos lugares, suele olvidarse una pregunta esencial. Sí, la vida surgió en la Tierra.

¿Pero por qué solo una vez?

En los comienzos de la biología, y si la aparición de la vida era tan inevitable, esta debería haber surgido de forma independiente en innumerables lugares de la Tierra. Y sin embargo, no tenemos motivo para pensar que la vida surgió más de una vez. Por el contrario, sí los hay para suponer que toda la vida terrestre actual desciende de un único origen entre quizá miles de millones de intentos fracasados en nuestro propio planeta.

Por ejemplo, uno de estos argumentos es la llamada quiralidad de las moléculas biológicas. Las moléculas pueden tener dos configuraciones simétricas, como los dos guantes de un par. Ambas son equivalentes; es decir, que pueden funcionar igualmente. Pero no son intercambiables; o sea, que una vez elegida una opción, no hay vuelta atrás: para que los procesos biológicos funcionen, debe mantenerse la misma configuración. Resulta que en la naturaleza todos los aminoácidos biológicos tienen una de estas dos configuraciones posibles, la llamada levógira (giro a la izquierda), mientras que los azúcares son dextrógiros (giro a la derecha).

¿Y por qué no al revés?

Si la vida hubiera surgido varias veces de forma independiente en la Tierra, y aunque (lo cual es mucho suponer) en todos los casos se llegara inevitablemente a las mismas soluciones biológicas, como ADN, ARN y proteínas, por simple azar algunos de esos inicios de vida habrían elegido aminoácidos dextrógiros y azúcares levógiros. Con lo cual, hoy tendríamos seres vivos de ambos tipos. Pero no es así. Ni se ha encontrado jamás un organismo terrestre que utilice opciones bioquímicas tan radicalmente distintas como para invitarnos a suponer que surgió de un origen independiente. Con lo que hoy sabemos, la hipótesis más razonable es que la vida nació una sola vez en la Tierra, en un único charco o incluso una gota de agua, entre otros billones de gotas de agua.

Mañana contaré un nuevo estudio firmado por Lineweaver que aporta una interesante teoría sobre qué podría hacer a la Tierra mucho más especial de lo que pensamos; incluso muy diferente a muchos otros planetas descubiertos que se suponen potencialmente habitables.

El virus asturiano de Lloviu vuelve a la cueva

Hasta hoy, el número total de estudios experimentales sobre el virus de Lloviu, ese primo español del ébola descrito por primera vez en 2011, asciende a… cinco. Trece, si añadimos las revisiones. Desde aquí y en algún otro medio, he dado cuenta de todo lo que se ha publicado sobre el virus (la última vez, aquí). Que, como ven, es muy poco.

Colonia de murciélagos de cueva ('Miniopterus schreibersii'), la especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Colonia de murciélagos de cueva (‘Miniopterus schreibersii’), la especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Y menos aún que va a publicarse. Porque, por desgracia, las muestras que contenían el virus, todas ellas recogidas en 2003 de cadáveres de murciélagos hallados en la cueva asturiana de Lloviu, ya se han terminado. Así lo revela una revisión sobre filovirus olvidados publicada ahora en la revista FEMS Microbiology Reviews por investigadores de Fort Detrick, el gigantesco complejo militar de Maryland que alberga el programa de defensa biológica de EEUU. «Todo el material de muestra se ha consumido», dice el estudio.

Uno de sus firmantes es Gustavo Palacios, investigador estadounidense que tras el descubrimiento del virus se encargó de los experimentos que no podían realizarse en España por la carencia de instalaciones de nivel 4 de contención biológica. Palacios fue el coautor principal del estudio que describía el virus por primera vez. He tratado de confirmar el dato del agotamiento de las muestras con la otra coautora principal, Anabel Negredo, del laboratorio de referencia del Instituto de Salud Carlos III de Madrid, pero no ha tenido a bien responder a mis preguntas.

Así pues, tal como el virus salió de la cueva, a ella vuelve. Esto no significa que no se vaya a poder estudiar absolutamente nada más sobre el lloviu. Dado que se dispone de su secuencia genómica, los investigadores podrán recrear las piezas del virus. Construir el virus completo es poco probable, ya que uno de los extremos del genoma no pudo secuenciarse. Pero sí es posible fabricar sus proteínas y estudiar qué hacen en cultivos celulares, y emplearlas para poner un disfraz de lloviu a otros virus relacionados, como el ébola.

Este método se conoce como seudotipado, y es lo que se ha hecho hasta ahora para tratar de comprender cómo se comportaría el lloviu auténtico si se le pusieran delante células humanas o de otras especies. Los virus seudotipados sirven también para producir anticuerpos contra las proteínas del lloviu, lo que ofrecería un método de diagnóstico.

Pero lo que de momento no va a poder hacerse es aislar el virus en cultivo, lo único que garantiza la posibilidad de investigar sus efectos reales en células humanas y en otras especies o en modelos animales de laboratorio. Los intentos de aislar el virus han fracasado, y ya no quedan muestras. Y con esto, de momento seguiremos sin saber si el virus es inocuo para nosotros o si podría ser un patógeno peligroso.

Cito lo que recoge la nueva revisión respecto a lo que sabemos del lloviu:

El análisis de los datos disponibles no permite extraer conclusiones sobre si el LLOV [lloviu] causó las muertes de los murciélagos. De modo similar a lo que ocurre con murciélagos infectados por MARV [marburgo] y RAVV [Ravn], los murciélagos infectados por LLOV podrían haber estado infectados por LLOV de forma persistente y subclínica, y haber muerto por otras causas.

El potencial de LLOV de infectar a los humanos es desconocido. Debido a la ausencia de un aislado de LLOV con capacidad de replicación, no se dispone de un modelo animal de la infección por LLOV. En consecuencia, la posible persistencia del LLOV en animales, su patogenicidad/virulencia, patogénesis o posibles contramedidas contra la infección son desconocidas.

Termino con la parte menos agradable, pero cuya divulgación es más necesaria:

A causa de esta falta de conocimiento ecológico [sobre los filovirus en general], la predicción de cuándo y dónde pueden surgir brotes de enfermedad de filovirus humanos y/o animales es imposible. Dado que el conocimiento de los filovirus olvidados (BDBV, LLOV, RAVV, RESTV y TAFV) es extremadamente limitado, no se puede excluir la posibilidad de grandes brotes futuros de EVD [enfermedad del virus del Ébola] o MVD [marburgo] causados por estos virus.

Un brote de enfermedad de la magnitud del brote de EVD causado por un filovirus olvidado podría resultar incluso más desastroso para África o el mundo. Entre los ya muy escasos institutos en todo el mundo que pueden investigar con filovirus con un nivel de seguridad biológica 4, pocos tienen siquiera acceso a filovirus olvidados.

Por consiguiente, hay pocas vacunas candidatas específicas y prácticamente no existen terapias específicas en preparación para prevenir o tratar infecciones por filovirus olvidados.

Por tanto, apelamos a la comunidad internacional de investigación en filovirus, y aún más a los financiadores de actividades de investigación y desarrollo en filovirus (hoy casi exclusivamente EBOV), para crear y mantener un programa global coordinado de colaboración con vistas a la creación de reactivos, ensayos, metodologías, bases de datos, modelos animales y contramedidas médicas que incluyan de forma rutinaria los filovirus olvidados.

No será porque nadie advirtió.

¿Que el café muy caliente provoca cáncer? ¿Y el consomé?

¿Qué es un café muy caliente? ¿Qué es caliente? ¿Templado? ¿Es lo mismo si se pregunta a dos personas distintas? ¿Cómo sabe la gente a qué temperatura bebe el café? ¿Qué bares sirven el café con termómetro? ¿Cómo sabe la Organización Mundial de la Salud a qué temperatura bebe la gente el café o el mate? ¿Y por qué no se dice nada del té, la tila o el chocolate? ¿Y qué hay de la sopa, el consomé o la caldereta de marisco? ¿Tienen más riesgo de cáncer quienes toman los garbanzos del cocido con caldo que quienes los prefieren secos? ¿O al contrario, lo tienen peor los segundos, porque toman la sopa por separado y por tanto tragan el caldo más caliente que quienes mastican los garbanzos? ¿Y aquellos que prefieren la comida en general más caliente?

Imagen de pexels.com (dominio público).

Imagen de pexels.com (dominio público).

Si usted se ha hecho preguntas de esta índole a propósito de la noticia divulgada esta semana por todos los medios, según la cual la Organización Mundial de la Salud (OMS) dice que el café y el mate caliente pueden aumentar el riesgo de cáncer, no por el café o el mate, sino por su temperatura… Enhorabuena: no se preocupe, no es usted más duro de mollera que la media; todo lo contrario, ha demostrado una postura crítica inusual y un juicio muy saludable, además de haber hecho, aunque sea mentalmente, el trabajo que muchos medios de comunicación deberían haber hecho y no han hecho.

Con ocasión de la anterior aparición en los medios de la Agencia Internacional de Investigación sobre el Cáncer (IARC) de la OMS, a propósito de las salchichas y la carne roja (y de la que ya hablé aquí y aquí), ya les alerté en esta sintonía de que este año el mismo organismo tenía en su agenda una reunión para valorar el riesgo cancerígeno del café, el mate y otras bebidas calientes. Y que de ella saldría algún otro titular jugoso, como así ha sido.

Vaya por delante que mi postura respecto a la OMS trata de ser ecuánime, a veces incluso en contra de la corriente: la he defendido cuando pocos lo hacían (gripe A, ébola…), pero también la he vapuleado cuando he considerado que lo merecían (zika, salchichas…). En cuanto a los expertos de la IARC, merecen todo el respeto y hacen muy bien aquello para lo cual han sido designados: mirar del derecho y del revés un batiburrillo de estudios, muchos de ellos dudosos o inconcluyentes, con la obligación de emitir un veredicto de culpabilidad o inocencia que a menudo no puede extraerse de los datos ni metiéndolos en una prensa de las del aceite de oliva virgen extra.

Tanto en esta ocasión como en anteriores, mis críticas no han sido hacia la IARC, sino a la política de comunicación de la OMS y al tratamiento de ciertos medios, a veces acrítico, a veces rayando en el sensacionalismo. Aunque, si piensan que es petulante por mi parte poner en duda este u otros veredictos (están en su derecho), hay algo que sí debo aclarar: el comité de la IARC no es el claustro de profesores de Hogwarts. Aquí no hay magia, sino una simple evaluación de una serie de estudios que están perfectamente disponibles e identificados, y que cualquier persona con la formación necesaria puede valorar.

Pero si les interesa mi valoración de todo este asunto del café y el mate templados, calientes o muy calientes, la resumo gráficamente: ¯\_(ツ)_/¯

Por no extenderme, no voy a entrar en el hecho de que en 1991 el café fuera “posiblemente cancerígeno” y el mate “probablemente cancerígeno” y que, con el cambio de siglo, ambos hayan dejado de serlo. Creo que el propio hecho habla por sí mismo. Me remito a lo ya explicado sobre la carne y el cáncer. O mejor, a mi reciente artículo sobre el monólogo del humorista John Oliver, que lo explica con mucha más gracia. Y para añadir algo más de alpiste mental sobre lo que causa o previene el cáncer, les dejo este gráfico.

¿Todo causa y previene el cáncer? Imagen de Schoenfeld y Ioannidis, American Journal of Clinical Nutrition.

¿Todo causa y previene el cáncer? Imagen de Schoenfeld y Ioannidis, American Journal of Clinical Nutrition.

Pero el asunto de la temperatura sí merece un comentario. Respondiendo a sus dudas, les voy a contar de dónde se saca la IARC que “tomar bebidas muy calientes a más de 65 ºC ha sido clasificado como probablemente carcinogénico para humanos”, como dice el artículo en la revista The Lancet Oncology que resume las conclusiones de la IARC (la monografía completa, que hará el número 116, aún no está disponible, pero sí las referencias a los estudios valorados por los expertos).

En primer lugar, hay estudios epidemiológicos, de esos que he tratado aquí con profusión (la última vez, a propósito del monólogo de Oliver), que tratan de encontrar una correlación sin demostrar ninguna causalidad, y de los que uno puede extraer casi siempre una o otra conclusión estadísticamente significativa, sin importar que el efecto sea minúsculo e irrelevante. Como ilustración de esto sirve también el gráfico que he mostrado más arriba, y de lo cual sale una idea extendida en la calle: todo produce y previene el cáncer… al mismo tiempo.

Vayamos a los estudios citados por los expertos del IARC y que relacionan bebida muy caliente con cáncer de esófago. ¿De cuántos estudios estamos hablando? ¿Decenas? Nada de eso. Hacen un total de… tres. El primero de ellos, del año 2000, es un estudio catalán que compendiaba un total de 830 casos y 1.779 controles en Suramérica; cifras demasiado diminutas para sostener por sí solas una conclusión epidemiológica cuando se trata de cáncer. Más aún cuando su primera conclusión, que el consumo de mate –sin importar la temperatura– se correlaciona con el riesgo de cáncer, es precisamente la que ha sido ahora negada por la IARC. Más aún, sobre todo, cuando el riesgo asociado a la temperatura aparece para el mate, el té y el café con leche, pero no para el café solo (resultados como este suelen ser los que a uno le alertan de que algo no está funcionando del todo bien).

El segundo estudio, de 2013 y también con la participación de los investigadores catalanes en un equipo más amplio, es muy similar, pero centrado exclusivamente en el mate. También en este caso, con 1.400 casos y 3.229 controles, los investigadores encuentran una correlación entre consumo de mate y cáncer, que se refuerza cuando la bebida se consume más caliente. Pero una vez más, la conclusión fundamental es la que no ha convencido a la IARC; basándose en tan escasos datos y tan poco concluyentes, la agencia de la OMS dicta que «las pruebas de la carcinogenicidad del consumo de mate no muy caliente son inadecuadas». En cuanto al efecto de la temperatura, se considera que las pruebas son «limitadas». Pero insisto, si desaparece la sinergia o efecto multiplicador, como lo denominan los investigadores, entre factor 1 (mate) y factor 2 (temperatura), porque la conclusión sobre el factor 1 no es convincente, se acabó la sinergia; por tanto, se cae la lógica del resto de las conclusiones.

El tercer estudio es un caso aparte. Al parecer en la provincia de Golestán, al norte de Irán, existe una tasa especialmente elevada de cáncer de esófago. Así que un grupo de investigadores de la Universidad de Teherán decidió evaluar la posible influencia del té, que al parecer allí se toma a temperatura volcánica. Hay que reconocerles el esfuerzo de un estudio amplio y riguroso. El número de casos es pequeño, 300 y 571 controles, pero en este caso el universo de la muestra tampoco es muy amplio. Además, reclutaron a una cohorte de más de 48.000 voluntarios sanos para estudiar los patrones de consumo de té. De todo ello acababan concluyendo que la alta temperatura del té se asocia con un mayor riesgo de cáncer.

Pero claro, las respuestas no tardaron en llegar, en forma de cartas a la misma revista, British Medical Journal. Y sus títulos hablan por sí solos: «Té y cáncer. ¿Y qué hay de la masticación de opio?«. O «Té y cáncer. ¿Por qué el norte de Irán?» (evidentemente, el Golestán no es la única región del mundo donde se toman bebidas muy calientes). Yo añadiría: Té y cáncer. ¿Qué hay de los genes? Lo de Golestán huele a algún factor genético; algo me dice que el aporte de genes frescos en una remota provincia del norte de Irán debe de ser más bien escaso.

Por último, nos queda hablar de los estudios experimentales, los de laboratorio, los que realmente demuestran una relación directa de causa y efecto, y sin los cuales todo lo demás no deja de ser una apuesta más o menos cabal. La IARC cita solo dos estudios, el segundo muy reciente, publicado en abril de 2016. Y veamos qué es lo que dice: investigadores brasileños alimentaron a unos ratones con agua a 70 ºC y nitrosaminas, compuestos con reconocida actividad cancerígena. La conclusión fue que el agua caliente potencia el efecto cancerígeno de las nitrosaminas. Muy bien. ¿Y el agua caliente sola? En este caso… no, no había cáncer. Lo único que ocurría, en palabras de los investigadores, era que el agua caliente «inducía inicialmente una necrosis esofágica que cicatrizaba y se hacía resistente a la necrosis después de sucesivas administraciones».

Creo que ya está todo dicho. Juzguen ustedes.

Una hipótesis hace posible el propulsor imposible EmDrive

Prueben a saltar una valla apoyando el pie en sus propias manos. O a empujar un coche desde dentro. Imposible a la par que absurdo, ¿no?

Dadme un punto de apoyo y moveré el mundo, decía Pappus de Alejandría que dijo Arquímedes a propósito de la palanca. Ese punto de apoyo sirve como interacción del sistema con su exterior. En la palanca es el fulcro, pero si levantamos un peso sin más ayuda, el punto de apoyo son nuestros pies en el suelo.

Muchos siglos después de Arquímedes, Newton dio un sentido físico a lo que el matemático siciliano solucionó como un problema de geometría. En su tercera ley del movimiento, popularmente conocida como ley de acción y reacción, Newton vino a decir que a toda fuerza (acción) se opone otra igual y contraria (reacción).

Cuando levantamos un peso, la fuerza que ejercemos sobre el suelo aumenta. El suelo nos devuelve una fuerza también mayor y nos permite vencer esa resistencia del peso. Pero si tratamos de auparnos sobre nuestra propia mano o empujar el coche desde dentro, no recibimos ese empujón del suelo –nuestro punto de apoyo– que nos permita cambiar el movimiento del objeto que tratamos de mover –nosotros mismos o el coche–.

En términos físicos, esto se expresa con una magnitud llamada cantidad de movimiento, o p (y que se calcula como masa por velocidad, m⋅v). Cuando levantamos un peso, su cantidad de movimiento, que inicialmente es cero, aumenta hasta un valor relacionado con su velocidad. La imposibilidad de empujar el coche desde dentro se explica porque en la interacción entre dos objetos, la p total permanece constante. Y dado que en este caso no hay interacción con el exterior (ese punto de apoyo), por mucho que nos esforcemos no lograremos cambiar p, y por tanto el coche no se moverá ni un milímetro.

Cuando levantamos el peso, el suelo nos detiene. Pero si se trata de dos objetos en movimiento libre, como dos bolas de billar que chocan, el resultado de la colisión es que la suma de sus p después de chocar es la misma que antes. Es un principio universal de la física, la conservación de la cantidad de movimiento. ¿Saben de aquellos juguetes de escritorio que fueron tan populares en los años 70, con varias bolitas suspendidas en fila de manera que, al hacer chocar una contra las demás, la del otro extremo responde moviéndose? Péndulo de Newton; demostración de la conservación de la cantidad de movimiento.

En la física de Newton, la masa de un objeto es una constante que determina la relación entre la fuerza que aplicamos a un objeto y la velocidad que adquiere. Por eso se llama masa inercial; la inercia es lo que hace que una masa, como una bola de billar empujada, continúe moviéndose mientras no haya otra fuerza que la detenga: una mano en su camino o el simple rozamiento con la mesa.

La conservación de p explica también cómo funcionan los reactores. Un avión a reacción se mueve porque expulsa un propelente en sentido contrario a su avance, como cuando soltamos un globo inflado sin anudar. En este caso, la velocidad de la nave y la velocidad a la que se expulsa el propelente están relacionadas a través de las masas de ambos. Y también en este caso, la p total no varía.

A comienzos de este siglo, un ingeniero británico llamado Roger Shawyer comenzó a desarrollar un propulsor conocido como EmDrive, o propulsor de cavidad resonante de radiofrecuencia. Es tan simple como un cono truncado de metal en cuyo interior se hacen rebotar microondas, y esto genera un impulso hacia el extremo más estrecho del cono.

Todo ello sin combustible, sin propelente, sin partes mecánicas móviles, sin nada más que un generador de microondas. Un propulsor inagotable que podría acelerar una nave indefinidamente en un viaje a través de la galaxia por toda la eternidad… Suena bien, ¿no?

El EmDrive. Imagen de SPR.

El EmDrive. Imagen de SPR.

Pero claro, hay una pega. Y es que, por todo lo explicado arriba, se entiende que es completamente imposible que esto funcione: la p del propulsor aumentaría sin que ninguna otra cosa se la ceda, lo que violaría la ley de la  conservación. No hay expulsión de propelente ni ninguna otra fuerza ejercida hacia el exterior del cono. No hay acción y reacción. En resumen, es empujar el coche desde dentro. Con el agravante de que además no hay masas implicadas: las microondas no son otra cosa que luz. Así que es aún más absurdo: ni siquiera es intentar mover el coche desde dentro empujando el volante, sino más bien tratar de hacerlo empujando el volante con el rayo de una linterna. Y la luz no tiene masa.

¿O sí? Escoja usted dos físicos y recibirá dos respuestas diferentes. Para muchos físicos, los fotones (las partículas que forman la luz) simplemente no tienen masa, y punto. Pero otros no están tan de acuerdo: para ellos, el fotón no tiene masa en reposo, pero sí masa inercial. Lo que normalmente entendemos como masa es la masa en reposo. Y dado que un fotón nunca está en reposo, porque siempre se mueve a la velocidad de la luz, lo miremos desde donde lo miremos, no tiene masa en reposo.

Pero aplicando la ecuación de Einstein, E = m⋅c², que relaciona la masa con la energía a través del cuadrado de la velocidad de la luz, al menos algunos físicos le dirán que el fotón tiene una masa inercial teórica, o masa relativística. El fotón tiene una cantidad de movimiento p, que se puede calcular: E = m·c² = m·c·c. Masa por velocidad es p, luego E = p·c. Así que la cantidad de movimiento de un fotón, p, viene dada por su energía E: p = E/c. A su vez, la energía de un fotón se calcula a través de la frecuencia de la onda que lo acompaña, la cual varía inversamente con la longitud de la onda: a mayor frecuencia, menor longitud de onda, y viceversa.

Así, la p de un fotón depende solo de su energía; porque imaginemos lo que ocurre si no es así y suponemos que el fotón tiene masa: si realmente pudiéramos calcular su p como el producto de su masa por su velocidad, obtendríamos que esta no es constante (c), sino que variaría en función de su energía y por tanto de su frecuencia. Es decir, que la luz no viajaría a la velocidad de la luz, sino a una velocidad diferente según su frecuencia (o longitud de onda). Lo cual no parece muy ortodoxo.

Y pese a todo lo anterior, lo imposible ocurre: en los últimos años se ha demostrado que en el EmDrive se produce un pequeño efecto de propulsión. Pequeño, pero no cero, como debería ser. Y esto se ha mostrado no solo una vez, sino seis, en otros tantos experimentos de grupos independientes; uno de ellos trabajando para la NASA, aunque esta agencia no se sienta muy orgulloso de ello. Se ha descartado que sea un efecto del movimiento inducido en el aire, porque funciona también en el vacío. Contra todo pronóstico y contra lo que hoy la física da por sentado, aparentemente el EMDrive funciona. Pero ¿cómo?

Desde hace unos años, un físico de la Universidad de Plymouth llamado Mike McCulloch indaga en un nuevo modelo cosmológico basado en la masa inercial de las partículas. McCulloch tira de un fenómeno teórico compatible con la física relativista y que el canadiense William George Unruh predijo por primera vez en 1976. El llamado efecto Unruh propone que un objeto sometido a aceleración calienta el universo, y que esta temperatura depende de esa aceleración. El efecto es muy pequeño; es decir, que incluso con grandes aceleraciones el aumento de temperatura es minúsculo. Curiosamente, la fórmula a la que Unruh llegó para calcular esta temperatura es la misma que, de forma independiente, Stephen Hawking desarrolló para la radiación emitida por los agujeros negros y que eventualmente llevaría a su evaporación.

Algo que Unruh propuso, pero con lo que muchos físicos no están de acuerdo, es que el efecto Unruh produce una radiación; o sea ondas, con su frecuencia y su longitud. Según la relación de la fórmula de Unruh, con grandes aceleraciones los tamaños de estas ondas son manejables. Pero con aceleraciones muy pequeñas, que corresponden a temperaturas infinitamente minúsculas, lo que sucede es que las ondas comienzan a crecer a tamaños gigantescos, hasta que literalmente no caben en el universo. Y cuando esto ocurre, algo extraño sucede; siempre, claro, si la teoría es correcta: la longitud de la onda salta hasta un valor aceptable. Pero como hemos visto, si cambia el tamaño de la onda, también lo hace la energía, y por tanto la p de la partícula. Lo cual, como ya sabemos, está prohibido.

¿Qué pasa entonces? Para compensar esta diferencia y que p se mantenga constante, como debe ser, lo que ocurre es que cambia la masa inercial de la partícula, y con ello su movimiento. Por este motivo McCulloch afirma que la inercia, un fenómeno que evidentemente existe, pero que aún tiene una justificación física oscura, es consecuencia del efecto Unruh, y que se presenta en valores discretos correspondientes a esos saltos de las ondas. En otras palabras, que la inercia está cuantizada.

McCulloch ha aplicado esta teoría para explicar ciertas anomalías observadas en el movimiento de las sondas espaciales cuando pasan cerca de la Tierra. Es más, a través del efecto Unruh, McCulloch ha llegado a explicar por qué la rotación de las galaxias no las dispersa, algo que suele atribuirse a la presencia de materia oscura que las mantiene unidas. Según la hipótesis de McCulloch, el efecto Unruh explica la expansión cósmica y la cohesión de las galaxias sin necesidad de introducir materia oscura ni energía oscura, dos conceptos teóricos generalmente aceptados, pero no demostrados.

Ahora, McCulloch ha aplicado su teoría al EmDrive, y llega a la conclusión de que el efecto Unruh explica por qué funciona sin violar la conservación de la cantidad de movimiento. En este caso, dice el físico, el universo en el que se mueven las ondas es el cono. Cuando las microondas rebotan a lo largo del EmDrive hacia el extremo ancho, el salto de las ondas más grandes aumenta la masa inercial del fotón y su velocidad, lo que provoca un impulso en sentido contrario para ralentizar el fotón y conservar la cantidad de movimiento. Cuando el fotón se mueve hacia la boca estrecha, se reducen su masa inercial y su velocidad, lo que requiere también introducir una fuerza hacia ese extremo para aumentar la velocidad del fotón y que p permanezca constante. Y de este modo, el propulsor se mueve siempre hacia el extremo más fino, como demuestran los experimentos.

Claro que la explicación de McCulloch aún no convence. La pega fundamental es que la inercia cuantizada de McCulloch es como meter un elefante en el salón: no hay ninguna necesidad de hacerlo, pero una vez que se hace es necesario arreglar todos los destrozos. Al introducir la inercia cuantizada se producen descalabros que hay que arreglar mediante un mecanismo misterioso que no sería necesario proponer de no haber introducido la inercia cuantizada. Como es lógico, muchos físicos se resisten a creer que el fotón tenga una masa inercial cambiante y que un cono de metal sea capaz de hacer variar la velocidad de la luz en su interior.

Y pese a todo, lo más sorprendente es que McCulloch ha calculado las fuerzas que exprimentaría el EmDrive de acuerdo a su teoría, y los resultados se parecen sospechosamente a los valores reales medidos en los experimentos. Lo cual es motivo suficiente para, al menos, conceder a su hipótesis el beneficio de la duda. Algo que pronto podría resolverse: McCulloch ha elaborado también otras predicciones; por ejemplo, cómo habría que cambiar las dimensiones del cono para invertir la fuerza y que el propulsor se moviera hacia la boca ancha. Es de suponer que alguien ya estará poniendo en marcha experimentos como este, lo que tal vez en unos meses podría zanjar de una vez por todas si el EmDrive hace posible lo imposible.

Arranca la carrera estelar: objetivo, Alfa Centauri

Ya que la semana va de ciencia ficción, con algunos medios (como ya expliqué, no los científicos autores de la propuesta) proclamando la próxima creación de seres humanos de laboratorio, seguimos para bingo: ¿imaginan que la comisión de presupuestos del Congreso ordenara desarrollar un propulsor capaz de alcanzar la décima parte de la velocidad de la luz, y utilizarlo para enviar una sonda al sistema Alfa Centauri?

El sistema triple Alfa Centauri. Imagen de ESO/DSS 2.

El sistema triple Alfa Centauri. Imagen de ESO/DSS 2.

Pues esto es exactamente lo que ha sucedido en EEUU. Only in America. La primera potencia científica del mundo, y también el semillero más fértil para todos los movimientos anticiencia. Mientras un candidato a la presidencia quiere regresar al Pleistoceno, un congresista del mismo partido pide organizar una misión a Alfa Centauri. Como dijo Newton, acción y reacción.

La historia es tal cual. John Culberson, congresista republicano de Texas que preside la comisión de asignación de presupuestos para varias agencias, entre ellas la NASA, ha emitido un informe de recomendaciones presupuestarias en el que propone la adjudicación de algo más de 739 millones de dólares para el desarrollo de nuevas tecnologías espaciales.

Culberson, en nombre de la comisión, subraya que los actuales proyectos de la NASA en materia de sistemas de propulsión, química, solar eléctrica o nuclear, no pueden “acercarse a velocidades de crucero de la décima parte de la velocidad de la luz (0,1c)”. Por ello, “el comité insta a la NASA a estudiar y desarrollar conceptos de propulsión que posibiliten una sonda científica interestelar con capacidad de alcanzar una velocidad de crucero de 0,1c”. Y prosigue: “Estos esfuerzos se centrarán en posibilitar una misión a Alfa Centauri que podría lanzarse en 2069, el centenario del alunizaje del Apolo 11”.

Pero lejos de quedarse ahí, Culberson, al parecer un firme defensor de la exploración espacial, enumera una serie de sugerencias: “Los conceptos de propulsión pueden incluir, pero sin limitación, sistemas basados en fusión (incluyendo fusión catalizada por antimateria y el ramjet interestelar de Bussard); reacciones de aniquilación materia-antimateria; múltiples formas de direccionamiento de energía; e inmensas velas que intercepten los fotones solares o el viento solar”.

Las sugerencias de Culberson están en la línea de las que se manejan para futuros sistemas avanzados de propulsión. Algunos de ellos, como las velas solares, están hoy en desarrollo, mientras que la aplicación de la antimateria aún es ciencia ficción, como me decía no hace mucho Miguel Alcubierre, el físico mexicano autor de una propuesta teórica de viaje superluminal.

Lo cierto es que hoy los esfuerzos de la NASA se dirigen a otros campos como la propulsión iónica. Pero tanto la idea de ganar las estrellas como la recomendación de explorar tecnologías más ambiciosas probablemente vienen inspiradas por el hecho de que a la NASA le están comiendo el terreno, y esto es algo que a los republicanos no les gusta nada. El pasado abril, el multimillonario ruso Yuri Milner, creador de los premios Breakthrough, anunció el proyecto de lanzar una flotilla de microveleros espaciales que serán propulsados por fotones de láser direccionados desde una estación terrestre.

El Breakthrough Starshot cuenta con el apoyo de físicos como Stephen Hawking y Freeman Dyson, además de un potente equipo de ingenieros y tecnólogos, incluyendo antiguos astronautas y exdirectivos de la NASA. Los expertos ya han hecho notar los grandes desafíos técnicos a los que se enfrentará el proyecto. Pero lo cierto es que no hay nada esencialmente revolucionario, nada que requiera un salto tecnológico inalcanzable hoy.

Así, se diría que podemos estar en los albores de una carrera estelar con visos de culminar a lo largo de este siglo. A 0,2c, como propone Milner, los 4,37 años luz que nos separan de Alfa Centauri se cubrirían en poco más de 20 años en tiempo terrestre. En cuatro años y unos meses más, los datos y las imágenes tomadas por las sondas estarían llegando a la Tierra. Esto significa que los mismos responsables del lanzamiento de la misión tendrían la oportunidad de ver coronado su esfuerzo en vida recibiendo los primeros retratos reales de exoplanetas y de otros soles (no de estrellas, entiéndanme el matiz). Afortunados quienes vivan para verlo.

En cuanto a la propuesta del comité presidido por Culberson, ignoro cuál es el proceso de tramitación de estas cosas; pero si se confirma, el informe ordena que en un año la NASA deberá presentar un estudio de viabilidad tecnológica de la propulsión interestelar y una hoja de ruta del proyecto.

Y todo esto, sin hablar de que aún queda otra vía, muy denostada por los físicos pero que se resiste a morir. Me refiero al propulsor de cavidad resonante de radiofrecuencia, más conocido como EmDrive. Quienes de ustedes sigan estas cosas habrán oído hablar de ese motor cuyo funcionamiento suele calificarse como físicamente imposible, pero que continúa dando guerra con resultados positivos. Curiosamente un nuevo estudio, tan controvertido como la misma idea del EmDrive, explica cómo y por qué a pesar de todo podría funcionar. Tal vez después de todo el EmDrive no sea fantasía, sino solo ciencia ficción. Mañana lo cuento.

¿Fabricamos una célula humana o viajamos a Alfa Centauri?

Hoy en día, obtener una célula humana gobernada por un genoma sintético está tan al alcance de nuestra tecnología como viajar a Alfa Centauri. Y no digamos ya un «ser humano de laboratorio», como se está publicando por ahí. Esto es hoy tan viable como fabricar los androides de la saga Alien, o los robots de Inteligencia Artificial. O para el caso, construir la Estrella de la Muerte.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Para quien no sepa de qué estoy hablando, resumo. A mediados del mes pasado, el New York Times divulgó la celebración de una reunión «privada» en la Facultad de Medicina de Harvard, que congregó a unos 150 expertos para debatir sobre la creación de un genoma humano sintético. Solo por invitación, sin periodistas y sin Twitter. Como no podía ser de otra manera, esto inflamó las especulaciones conspiranoicas en internet: los científicos quieren crear seres humanos «de diseño» al margen de la ley y la ética.

Pero para quien sepa cómo suelen funcionar estas cosas, todo tenía su explicación. Aún no se había hecho pública la propuesta formal, que era precisamente uno de los objetivos de la reunión, y que estaba en proceso de anunciarse en la revista Science. No es un caso de conspiración, sino de torpeza: los organizadores deberían haber imaginado cuáles serían las reacciones. Claro que tal vez era eso lo que buscaban; un poco de intriga con fines publicitarios nunca viene mal.

Por fin, la propuesta se publicó en Science el pasado viernes. El llamado Proyecto Genoma Humano – Escritura (PGH-escritura) nace con la idea de impulsar el progreso en la construcción de largas cadenas de ADN. Como dice la propia propuesta, «facilitar la edición y síntesis de genomas a gran escala».

El objetivo primario del PGH-escritura es reducir más de mil veces los costes de fabricación y ensayo de grandes genomas (de 0,1 a 100.000 millones de pares de bases) en líneas celulares en los próximos diez años. Esto incluirá la ingeniería de genomas completos en líneas celulares humanas y otros organismos de importancia en salud pública y agricultura, o de aquellos necesarios para interpretar las funciones biológicas humanas; es decir, regulación génica, enfermedades genéticas y procesos evolutivos.

La biología sintética marca una nueva era en la ciencia de la vida: después de descubrir, recrear para crear. Naturalmente, esto no implica que ya esté todo descubierto. Pero hoy ya conocemos lo suficiente, y disponemos de la tecnología necesaria, como para hacer lo que el género humano lleva haciendo cientos de miles de años: aprovechar los recursos disponibles para fabricar piezas con las que construir dispositivos. Y quien tenga alguna objeción a esta práctica, que apague de inmediato el aparato en el que está leyendo estas líneas.

Dado que en la célula todo procede del ADN, la biología sintética busca reinventar el genoma. En el primer escalón de esta ingeniería se encuentran las bacterias, organismos simples unicelulares, sin núcleo y con solo un pequeño cromosoma circular, una cinta de ADN unida por sus extremos.

Como conté hace un par de meses, un equipo de investigadores dirigido por el magnate de la biotecnología J. Craig Venter lleva varios años tratando de construir un cromosoma bacteriano cien por cien artificial que sea capaz de dar vida a una bacteria a la que se le ha extirpado el suyo propio. Este es un logro de enorme complejidad técnica, aunque hoy al alcance de la mano.

Pero de la célula procariota, como la bacteriana, a la eucariota, como las nuestras, el salto es cósmico. Nuestras células custodian su ADN en un núcleo enormemente complejo, donde el ADN está enrollado y vuelto a enrollar con la ayuda de unas complicadas estructuras empaquetadoras que lo condensan o lo descondensan según lo necesario en cada momento. Ya expliqué aquí que cada una de nuestras células contiene un par de metros de ADN. A lo largo del ciclo que lleva a la división en dos células hijas, cada cromosoma fabrica una copia de sí mismo, que luego se separa de la original para que cada célula resultante tenga su juego. Y esto para un total de 23 pares de cromosomas dobles. Frente a los 531.000 pares de bases de la bacteria de Venter, el genoma humano tiene unos 3.000 millones; es decir, es más de 5.600 veces más largo.

La idea de construir genomas humanos estaba ya presente antes incluso de lo que ahora tal vez deberá llamarse el Proyecto Genoma Humano – Lectura. En 1997 se publicó el primer microcromosoma humano sintético, un pequeño elemento construido a imagen y semejanza de nuestros cromosomas, con capacidad para añadirse a los normales de la célula. Así que la biología sintética humana lleva ya funcionando más de un par de decenios.

Claro que, por todo lo dicho arriba, la conclusión de muchos investigadores es que el sistema cromosómico humano es demasiado complejo como para que sea posible y merezca la pena recrearlo con nuestro conocimiento actual, por lo que la vía de los cromosomas sintéticos no ha prosperado demasiado. Hoy los esfuerzos se centran más en modificar que en crear: sustituir grandes fragmentos de ADN para corregir, mejorar o investigar. Un campo que lleva también décadas explorándose con diferentes herramientas y bajo distintos nombres, incluyendo el de terapia génica.

Así pues, nada nuevo bajo los fluorescentes del laboratorio. Nada en lo que no se esté trabajando ya en innumerables centros de todo el mundo, sin cornetas ni pregones. ¿En qué se basa entonces la novedad del proyecto? Lo que pretenden los investigadores es crear un marco que permita estructurar nuevas colaboraciones y concentrar recursos, para que sea posible sintetizar y manejar fragmentos de ADN cada vez más grandes. En un futuro no muy lejano, es concebible que se llegue a disponer de genotecas sintéticas (en el argot llamadas librerías, aunque sería más correcto hablar de bibliotecas) del genoma humano completo: todo el ADN de los 24 tipos de cromosomas humanos (22 autosomas, más el X y el Y) construido a partir de sus bloques básicos y repartido en trozos en diferentes tubitos, en un formato que permita utilizar grandes fragmentos como piezas de recambio.

Pero olvídense de la idea de una célula humana funcionando con un genoma «de laboratorio». Esto es ciencia ficción y continuará siéndolo durante muchos años. Y los replicantes son hoy algo tan lejano como Alfa Centauri. ¿Y por qué Alfa Centauri? No es un ejemplo elegido al azar. Mañana lo explicaré.