Entradas etiquetadas como ‘física’

Por qué la energía de fusión nuclear aún es un sueño muy lejano

Esta semana se anunciaba un gran avance en la investigación de la fusión nuclear que ya comenté aquí en un previo, por lo que se esperaba y lo que se había filtrado a los medios antes de la rueda de prensa del pasado martes en la sede del Departamento de Energía de EEUU. Ahora, ya a toro pasado, toca actualizar y comentar la información. Con algo de retraso, lo sé, pero es lo que hay…

Dado que esto sigue a lo publicado anteriormente, me van a permitir que me ahorre repetir la explicación sobre qué es y cómo funciona la fusión nuclear. Si no están familiarizados con ello lo necesitarán para entender lo que sigue, pero pueden encontrar los detalles aquí.

Puede decirse que lo revelado en la rueda de prensa ha superado ampliamente las expectativas. Pero también que hay razones para moderar ese entusiasmo triunfalista que se ha extendido. Cuando la secretaria de Energía de EEUU Jennifer Granholm dijo ante los medios que lo conseguido es «uno de los logros científicos más impresionantes del siglo XXI», posiblemente habría que reconocérselo, pero con matices. Esos matices pueden explicarse incluso con la comparación que Granholm hizo con el primer vuelo de los hermanos Wright en 1903, como voy a explicar.

La secretaria de Energía del gobierno de EEUU, Jennifer Granholm, en la rueda de prensa sobre la ganancia neta de energía obtenida el 5 de diciembre de 2022 en un experimento de fusión nuclear en la National Ignition Facility. Imagen de DOE.

Como ya conté brevemente, en 2021 los investigadores de la National Ignition Facility del Lawrence Livermore National Laboratory (LLNL) de California habían conseguido un hito que fue mucho menos pregonado que el actual, pero que para algunos físicos fue el paso realmente relevante (recordemos que los medios generalistas no necesariamente cuentan lo más importante en ciencia, ya que no siguen las publicaciones científicas, sino lo que se airea a través de comunicados y ruedas de prensa).

En aquella ocasión se obtuvieron 1,3 megajulios (MJ, millones de julios, la unidad de energía) del quemado del combustible frente a los 1,9 que inyectaron los láseres. Cualquiera que haga la cuenta comprobará que esto supone una ganancia de energía de 0,68, es decir, negativa. Pero cuando los investigadores revisaron sus datos y mediciones, confirmaron que habían conseguido la ignición.

Hay una explicación para esto: en realidad la energía que llega al combustible de la fusión es menor que la inyectada por los láseres en el receptáculo y la cápsula que lo contienen. Por lo tanto, la energía que realmente prendía el combustible no eran 1,9 MJ, sino una cantidad menor. Suficientemente menor como para que, en realidad, la ganancia fuera positiva al comparar la energía real absorbida por el combustible con los 1,9 MJ producidos en la fusión.

Esto no salió en ningún periódico, pero creó mucho revuelo entre los físicos porque suponía la demostración del principio, el gran avance: la NIF era capaz de conseguir la ignición. En los años anteriores, y ante la falta de grandes progresos, se había creado un clima de pesimismo en el que muchos expertos dudaban de que pudiese llegar a lograrlo. Hasta entonces solo se habían obtenido energías de fusión que eran como unas 8 veces menores, si no me falla la memoria.

Aquel nuevo resultado demostraba que era posible, y que sería cuestión de tiempo. Solo quedaba retocar el diseño del sistema de acuerdo a las simulaciones para conseguir ese pequeño extra más que superara formalmente lo que los físicos de fusión llaman el «scientific break even», la ganancia neta formal considerando la energía total aportada (que es lo anunciado ahora).

Una explicación un poco más detallada: como bien explicaba aquí Steven Kivrit, cuando se habla de ganancia neta de energía en un experimento de fusión nuclear por confinamiento inercial en realidad hay que distinguir entre cinco escalas de ganancia, como cinco hitos a superar:

Primero, energía obtenida en la fusión respecto a la que recibe el combustible.

Segundo, energía obtenida en la fusión respecto a la que recibe la cápsula del combustible.

Tercero, energía obtenida en la fusión respecto a la que recibe el llamado hohlraum, que es una especie de envase cilíndrico de oro que contiene la cápsula; en este método llamado indirecto los láseres no apuntan directamente a la cápsula de combustible, sino al interior del hohlraum, y este convierte la luz en rayos X que son los que queman el combustible. Con un sistema directo, donde los láseres bombardeen la cápsula de combustible sin utilizar un hohlraum, el segundo y el tercer hito son lo mismo.

Un hohlraum como los utilizados en la NIF. Es un pequeño cilindro de oro que lleva en su interior la cápsula de combustible de deuterio y tritio. Los láseres entran por los extremos abiertos. Imagen de National Laboratory’s National Ignition Facility, Lawrence Livermore National Laboratory.

Cuarto, energía obtenida en la fusión respecto a la energía de la electricidad que gastan los láseres.

Y por último, el quinto consiste en que la electricidad que pueda obtenerse de la energía de fusión supere a la electricidad que gastan los láseres.

Los tres primeros conceptos son diferentes porque a lo largo del proceso hay pérdidas de energía. De la aportada al hohlraum en forma de fotones, solo una parte se traduce en los rayos X que inciden en la cápsula de combustible. Y de esta, solo una parte llega al interior del combustible. En cuanto al cuarto paso, se debe a que los láseres son muy ineficientes; de toda la energía que consumen, solo una parte sale emitida en forma de chorros de luz. Y por último, por mucha energía que se obtenga de la fusión nuclear, para aprovecharla debe convertirse en electricidad. Solo cuando se complete este quinto paso tendremos fusión nuclear para calentar en el microondas lo que sobró de la pizza de ayer.

El experimento de 2021 superó los pasos uno y dos, y se quedó al borde del tercero. Ocurrió que, después de aquel resultado, no volvió a conseguirse lo mismo. Aparte del diseño del sistema y las simulaciones, el proceso es extremadamente sensible a cualquier insignificante error o defecto. Por ejemplo, si la simetría de la cápsula o del pellet de combustible falla aunque sea en una magnitud de un infinitésimo del diametro de un pelo humano, todo se va al traste. Esta perfección necesaria, junto con ciertos cambios en el sistema, han sido claves para que finalmente se haya llegado al nuevo hito: el tercer paso.

Según se anunció esta semana, en este último disparo se inyectaron 2,05 MJ al hohlraum y se obtuvieron 3,15 MJ en la fusión, lo que supone una ganancia de algo más de 1,5; es decir, han ido sobrados respecto al objetivo a conseguir, y esto sin duda merece celebrarse. En general puede decirse que los científicos expertos en fusión han acogido la noticia con mucho entusiasmo.

Pero ahora vienen los matices. Con respecto a las palabras de Granholm, por todo lo anterior convendría entender que este no es un logro del 5 de diciembre de 2021, sino un logro de 60 años de investigación en el que se han ido superando hitos progresivamente. El anunciado ahora es uno importante en un largo proceso.

Por eso la comparación con el vuelo de los hermanos Wright está bien traída: aunque suele creerse que ellos fueron quienes volaron por primera vez, no es así. Muchos otros ya habían volado antes que ellos. El primer hito, elevarse en un aparato más pesado que el aire, ya se había superado antes. También el segundo (más o menos), la propulsión. Lo que ellos lograron fue alcanzar un tercer paso, construir un aparato que pudiera pilotarse controlando el movimiento en los tres ejes del espacio. Pero incluso habiendo vencido este desafío, la traducción del éxito de los hermanos Wright al primer avión práctico comercial aún llevó años de desarrollo.

Esto último llevará décadas en el caso de la fusión nuclear. Primero, el hecho de que se haya superado la barrera del scientific break even no significa que ya se haya dejado atrás. Según lo explicado, no está garantizado que en los próximos experimentos vaya a repetirse esa ganancia de energía de 1,5. Ojalá los investigadores de la NIF hayan conseguido controlar todas las variables del experimento con la suficiente pericia y perfección como para que el resultado sea fácilmente replicable en el futuro. Pero habrá que esperar a comprobarlo.

Segundo y sobre todo, porque ese mantra repetido en los medios de que se ha encontrado el santo grial de la energía limpia e inagotable es una exageración de proporciones descomunales. Como ya expliqué en el artículo anterior y creo que ahora se entenderá mejor, para superar el cuarto hito, una ganancia neta de energía de la fusión respecto a la que consumen los láseres, habría que multiplicar el resultado obtenido ahora por 10, por 100 o incluso quizá por 1.000 (lo que ocurre es que este no es el propósito de la NIF, como explicaré ahora).

En cuanto al quinto paso, ya ni hablemos; aún es ciencia ficción. No olvidemos que la NIF es una instalación de 3.500 millones de dólares, del tamaño de un estadio de fútbol, que sirve para bombardear con 192 láseres —los cuales después de cada disparo deben dejarse enfriar durante casi un día entero— un diminuto perdigón congelado de deuterio y tritio que de repente se convierte en un pequeño sol durante unas milmillonésimas de segundo, y luego se apaga. Para convertir esto en una forma de energía práctica, los ingenieros tendrían que ingeniárselas para construir un reactor que pueda ir reponiendo a toda velocidad los pequeños y carísimos pellets de combustible y disparando láseres en ráfagas como una ametralladora.

Y esto no es todo: por desgracia, incluso cuando sea/si algún día es posible todo lo anterior, lo cierto es que aún nadie ha encontrado el modo práctico de convertir la energía de la fusión por confinamiento inercial en electricidad. De momento, todo lo que tenemos es una explosión en miniatura (en realidad una implosión) con una potencia increíble, durante unas milmillonésimas de segundo.

Por último, hay algo que es necesario subrayar, que justifica el gran entusiasmo de los responsables del Departamento de Energía (DOE) de EEUU que participaron en la rueda de prensa, y que aquí tampoco se ha explicado lo bastante. La NIF es una instalación dependiente de la Administración Nacional de Seguridad Nuclear (NNSA) y que no fue diseñada para investigar la fusión nuclear como fuente de energía, sino con otro propósito muy diferente: simular la prueba de armas termonucleares sin necesidad de testar las propias bombas sobre el terreno.

En 1992 EEUU abandonó las pruebas nucleares, y desde entonces ha confiado en un programa de experimentación para comprobar la operatividad y seguridad de su arsenal nuclear sin estallar las bombas directamente. El nuevo resultado es un gran paso adelante para el programa nuclear de EEUU, que respalda a quienes han apostado por este enfoque frente a quienes presionaban para resucitar las pruebas nucleares.

Es cierto que ahora, según algunos medios especializados, el gobierno de EEUU se enfrenta a un dilema. En la rueda de prensa se anunció una nueva inyección de 624 millones de dólares para que la NIF pueda progresar en sus investigaciones a partir del hito recién alcanzado. Evidentemente, EEUU nunca ha ocultado el propósito de la NIF, ni va a abandonarlo. Pero ante las expectativas generadas en todo el mundo, y con la creciente y enorme presión pública por la búsqueda de alternativas a los combustibles fósiles, tampoco puede ignorar el avance que este nuevo resultado aporta a la línea de investigación en energía. Como cuenta a Nature el físico Stephen Bodner, antiguo jefe del programa de fusión láser en el Laboratorio de Investigación Naval de EEUU, «la gran pregunta ahora es qué hará a continuación el DOE: redoblar su apuesta en investigación armamentística en la NIF o pivotar hacia un programa láser dirigido a la investigación en energía de fusión».

Esta es la trampa de la «ganancia neta de energía» en la fusión nuclear anunciada en EEUU

Entre los físicos e ingenieros especializados en fusión nuclear corre el chiste de que la energía limpia, inagotable y barata por este procedimiento está a 30 años de distancia… y siempre lo estará. Ninguno de los expertos duda de que esta es una de las fuentes de energía del futuro, quizá incluso la fuente de energía del futuro. Pero ese futuro aún es lejano, y el anuncio previsto para hoy en EEUU que están destacando los medios no lo va a acercar.

Recordemos los conceptos básicos (más sobre fusión nuclear aquí): se trata de crear aparatos que simulen el proceso natural que tiene lugar en el Sol, la fusión de núcleos de hidrógeno (o de sus isótopos deuterio y tritio) para formar helio y liberar energía. Para ello es necesario calentar el hidrógeno a millones de grados, de modo que los átomos pierdan los electrones y se forme una nube de núcleos, un plasma que permita la fusión de esos núcleos. La fusión emite radiación en forma de neutrones, pero no genera residuos materiales radiactivos. Existen dos tipos principales de reactores de fusión, los tokamak, con forma de rosquilla, y los stellarator, parecidos a una cinta de Moebius (de estos últimos tenemos uno en España, el segundo mayor de Europa, en el CIEMAT). En ambos casos el plasma se mantiene confinado por magnetismo.

Creo que lo que sigue se explica mejor en forma de preguntas y respuestas:

Una parte de las instalaciones de la National Ignition Facility en California. Imagen de Lawrence Livermore National Laboratory.

Si todo es tan fabuloso, ¿por qué no tenemos ya energía de fusión?

La energía de fusión no tiene ningún problema físico de principios fundamentales, pero sí muchos de ingeniería. El primero y más esencial es conseguir una ganancia de energía neta, es decir, que se obtenga más energía de la que hay que invertir para conseguir la fusión. Pero no es el único: según los expertos, además todavía hay que conseguir mejoras importantes en la protección del reactor contra los neutrones, en la estabilidad del plasma y otros.

¿Qué va a anunciarse hoy en EEUU?

Según se ha filtrado a los medios, lo que hoy se anunciará es que el reactor experimental de la National Ignition Facility (NIF) en el Lawrence Livermore National Laboratory (LLNL) de California ha conseguido alcanzar una ganancia neta de energía de uno. Es decir, que la energía invertida iguala a la liberada. Esto se logra cuando se alcanza la llamada ignición de fusión, momento en el que el proceso es autosostenido. Pero como veremos, hay una pequeña trampa.

¿Es la primera vez que se consigue esto?

De hecho, no. Ya en 2021 los investigadores de la NIF anunciaron que lo habían logrado, y lo publicaron. Pero luego no se consiguió repetir. Sería de esperar que lo que vaya a anunciarse hoy es que por fin han conseguido replicarlo. Habrá que esperar a los detalles.

¿Será el reactor de EEUU la solución definitiva?

Según los expertos, no. El reactor del LLNL es un tipo de reactor diferente a los tokamak y los stellarator que no emplea confinamiento magnético del plasma, sino el llamado inercial. Se trata de bombardear una bolita o cilindro de combustible de deuterio y tritio con rayos de alta energía, normalmente láseres. La NIF utiliza 192 láseres simultáneos. Pero aunque este es un tipo de solución experimental válida, no es práctico para futuras plantas comerciales de energía. Primero, habría que fabricar esas bolitas o pellets a escala industrial. Segundo, haría falta una máquina que los estuviera continuamente reponiendo, con los láseres disparando en ráfaga como las naves de Star Wars. Y para ese pellet de tamaño minúsculo, como un alfiler, hace falta una instalación que ocupa un edificio entero. Y por último, además está la trampa.

¿Cuál es la trampa?

La trampa es que, previsiblemente, lo que han conseguido los investigadores es una ganancia de energía de uno relativa a la energía que aportan los 192 láseres al incidir en el pellet. Pero estos láseres son muy ineficientes; en realidad la energía necesaria para hacerlos operar es mucho mayor que la que estos inyectan en el pellet de combustible. Si no me fallan las cifras, creo que solo en torno al 10% de la energía de los láseres acaba llegando al pellet. Por lo tanto, para que de verdad hubiese una ganancia neta de energía en todo el proceso que abriese la puerta a un uso comercial como fuente de energía, sería necesario que la obtenida en la fusión no solo igualara a la de los láseres, sino que fuera varias veces mayor.

Entonces, ¿cuáles son las opciones más próximas a una futura energía de fusión?

En la localidad francesa de Cadarache se construye, desde hace tantos años que ya ni nos acordamos de cuántos, el ITER, el tokamak más grande del mundo, un proyecto de colaboración entre la Unión Europea, EEUU, Rusia, China, India, Japón, Corea del Sur y Suiza. El ITER no será una instalación comercial, pero está destinado a ser el precursor de las futuras instalaciones comerciales. En 2020 por fin comenzó a ensamblarse el tokamak, y está previsto que se termine y se empiece a inyectar plasma en 2025, aunque estas previsiones deben cogerse con pinzas. Según los planes actuales, en los años 30 el ITER podría estar operando, y se calcula que quizá en la década de los 50 podríamos tener por fin instalaciones comerciales funcionando.

Aparte de esto que conocemos, está lo que no conocemos: la incógnita china. Recientemente China ha anunciado la construcción de una enorme planta que pretende generar energía de fusión para 2028. Esta es una fecha que los expertos han considerado como una loca fantasía según el progreso de estas tecnologías en Occidente; pero ya se sabe, China siempre es una incógnita.

Hasta ahora, esto es lo previsible del anuncio de esta tarde. Si hay alguna variación importante seguirá una actualización.

No, el agua nunca puede ser un combustible, porque ya está quemada

Hace unos días aparecía un titular sorprendente en algún medio: una sonda espacial japonesa utiliza agua como combustible. Lo cual invitaría a cualquiera a preguntarse por qué los humanos hemos sido tan imbéciles hasta ahora de no aprovechar este combustible casi infinito e inocuo para todos nuestros transportes y necesidades energéticas, y en su lugar se ha perforado el suelo para sacar petróleo, carbón y gas. ¿O es que los ingenieros japoneses son tan listos que han conseguido triunfar allí donde hasta ahora todos los demás habían fracasado?

Es más, corren por ahí viejas teorías de la conspiración según las cuales sería posible fabricar coches que funcionaran con agua, pero las grandes compañías lo han impedido e incluso han asesinado a quienes se han atrevido a desarrollar tales tecnologías.

Ilustración de la sonda japonesa EQUULEUS. Imagen de ISAS/JAXA.

Pero, por desgracia, nada de esto es cierto. Resulta que el agua como combustible es uno de los eternos y más viejos fraudes de la (pseudo)ciencia, como la máquina de movimiento perpetuo o la curación por agua (homeopatía).

No, el agua no es un combustible. Nunca podrá ser un combustible. Es imposible. No es una cuestión de ingeniería, sino de leyes fundamentales de la naturaleza, de cómo funciona el universo.

Un combustible es algo que puede quemarse, es decir, sufrir combustión. La combustión es una reacción química de oxidación, en la que una energía de activación (calor) facilita que el combustible reaccione con el oxígeno para desprender más calor y generar productos oxidados, quemados. Por lo tanto, toda combustión necesita tres cosas, combustible, calor y oxígeno, y genera dos cosas, calor y productos oxidados.

Pensemos, en concreto, en los hidrocarburos. Por convención, se llaman así solo los compuestos formados exclusivamente por carbono e hidrógeno, como la gasolina o el gas natural. Pero todos los seres vivos de este planeta estamos formados por carbono, hidrógeno y algunas cosas más. Es decir, en cierto modo toda materia orgánica es un hidrocarburo ampliado. Y también lo son todos los materiales orgánicos que se obtienen a partir de los seres vivos: el papel (celulosa), el algodón (también celulosa), el azúcar (sacarosa), la lana (queratina y lípidos), el aceite (lípidos)…

Todos los compuestos orgánicos tienen una reacción de combustión básicamente común. El más sencillo de ellos es el metano, componente fundamental del gas natural, que contiene cuatro átomos de hidrógeno y uno de carbono por cada molécula, es decir, CH4. Esta es la reacción de combustión del metano:

CH4 + 2 O2 → CO2 + 2 H2O

Es decir, una molécula de metano se quema con dos moléculas de oxígeno para producir una molécula de CO2 y dos moléculas de agua.

Un ejemplo algo más complejo es la glucosa, el combustible básico del metabolismo de los seres vivos. La glucosa es C6H12O6. Su combustión produce seis moléculas de CO2 y otras seis de agua:

C6H12O6 + 6 O2 →  6 CO2 + 6 H2O

O, por ejemplo, el octano de la gasolina:

2 C8H18 + 25 O2 → 16 CO2 + 18 H2O

En resumen, toda reacción de combustión de materia orgánica genera los mismos productos, CO2 y agua, a lo que se añade alguno más si dicha molécula tiene además otros elementos como nitrógeno, fósforo, azufre… El agua no es un combustible como tampoco lo es el CO2; ambos son productos de la combustión. Ya están quemados. El agua no puede quemarse, del mismo modo que no se puede hacer fuego con cenizas, porque las cenizas ya están quemadas.

La razón física fundamental que está detrás de la imposibilidad de quemar agua es la termodinámica, las leyes de la naturaleza que gobiernan el funcionamiento de la energía. Todas las cosas del universo tienden de forma espontánea a perder energía. Esa liberación de energía es la que aprovechamos para nuestras necesidades. Para que se inicie la combustión necesitamos aportar algo de energía para activar la reacción (la llama de un mechero, la chispa de las bujías), pero la energía que se obtiene de ella es mayor que la necesaria para activarla, y por eso podemos calentarnos con el fuego o mover un coche con gasolina. Los combustibles tienen la energía almacenada en sus moléculas, en forma de energía química.

Por ejemplo, una pelota cae al suelo desde un mueble porque tiene una energía potencial que pierde al caer. Pero la pelota que ya está en el suelo no puede caer al suelo. Energéticamente hablando, el agua ya está en el suelo de su energía química, y por eso no puede quemarse.

Ahora bien, siendo esto así, ¿por qué a veces se habla del agua como combustible? Algo que sí puede hacerse es desquemar el agua, separándola primero en sus elementos, oxígeno e hidrógeno, para de nuevo quemar el hidrógeno y obtener energía de esta combustión que vuelve a producir agua. Pero para que esto sea una fuente de energía, haría falta que la que se obtiene de la combustión fuera mayor que la que es necesario invertir en romperla en hidrógeno y oxígeno.

En el ejemplo de la pelota, podemos subirla de nuevo al mueble para que vuelva a caer. Pero para subirla necesitamos aportar energía a la pelota, y este es el motivo por el que no podemos obtener energía del ciclo de subir una pelota y dejarla caer, porque la energía que se obtiene de ella al caer hay que invertirla en el proceso de subirla de nuevo. Este es el motivo por el que no existe una máquina de movimiento perpetuo. En la Edad Media hubo mucha especulación sobre la construcción de una máquina que pudiera ponerse en marcha y que entonces se moviera sola eternamente. Todos los intentos fracasaron, y el descubrimiento de las leyes de la termodinámica explicó por qué esto es imposible: toda máquina pierde energía en su movimiento (fricción, calor…), y por ello es necesario aportar más energía para que siga moviéndose.

Del mismo modo, en el caso del agua, para romperla en hidrógeno y oxígeno es necesario invertir toda la energía que produce la oxidación del hidrógeno para producir agua; incluso más, ya que en ambos procesos se pierde algo de energía en forma de calor desprendido. La historia cuenta varios casos de inventores que decían haber conseguido motores de agua, pero en todos los casos eran errores o fraudes. Un ejemplo sonado fue el estadounidense Stanley Meyer, que en 1975 afirmó haber conseguido una «célula de combustible de agua» que rompía el agua por electrolisis en hidrógeno y oxígeno para después quemar el hidrógeno con el oxígeno y obtener de nuevo agua, de forma que la energía producida en la combustión alimentaba la electrolisis, de forma cíclica continua. Meyer consiguió embaucar a dos inversores que posteriormente le denunciaron, y fue condenado por fraude en 1996.

En resumen, el único modo de obtener energía del agua como combustible es aportarle energía antes para romperla en hidrógeno y oxígeno. Esto puede hacerse o bien a) directamente inyectando electricidad (electrolisis), o bien b) aportando energía química por parte de ciertos compuestos que reaccionan con el agua para liberar hidrógeno, o bien c) por fotolisis del agua, como hacen las plantas con su maquinaria fotosintética. En todos los casos es necesario aportar otra fuente de energía externa para invertir más de lo que se genera.

En el caso a) no es necesario explicar que la electricidad hay que producirla. Y siendo así, no tiene sentido utilizarla para romper el agua en lugar de usarla directamente para mover un coche. Pero ¿qué hay del b)? Si hay compuestos que espontáneamente reaccionan con el agua para producir hidrógeno, ¿no podrían usarse en un motor de agua?

La respuesta es que sí, podrían. Por ejemplo, el sodio reacciona con el agua para producir hidróxido sódico (NaOH) e hidrógeno. Conviene aclarar que este no sería un buen modo de producir combustible, ya que la reacción es explosiva. Pero nos sirve como ejemplo: el problema es que devolver el NaOH al estado de sodio metálico requiere más energía de la producida en la reacción de este con el agua. Es decir, en todos los casos, fabricar los compuestos que reaccionan con el agua para producir hidrógeno consume más energía de la que produce el hidrógeno desprendido.

Esto se aplica, en general, a todo uso del hidrógeno como combustible. Por ello un coche no puede alimentarse con agua para producir hidrógeno y quemarlo para moverse, ya que el balance energético es negativo. Los coches tienen dos posibles modos de utilizar hidrógeno, o bien quemándolo directamente en un motor de combustión o bien utilizándolo para producir electricidad en una célula de combustible. Pero en los dos casos el balance energético total de la producción de hidrógeno y de su combustión es negativo. Por eso una compañía produce el hidrógeno, y nosotros se lo compramos, pagamos ese gasto energético.

Pero vayamos al caso c), que parece especialmente interesante: si el agua puede romperse por fotolisis, ¿no sería posible emplear de este modo la energía solar para producir hidrógeno libre como combustible? Al fin y al cabo, el sol es gratis; y aunque también se agota, como toda fuente de energía, aún tardará miles de millones de años, por lo que para nosotros es virtualmente inagotable.

Malas noticias: la fotosíntesis rompe el agua y produce oxígeno libre, pero en cambio no produce hidrógeno libre, sino hidrógeno en forma de otros compuestos. Pero sí es posible conseguir una fotolisis del agua de modo que se produzca hidrógeno libre. Hoy muchas investigaciones experimentan distintos modos. Pero aunque haya algunos más prometedores que otros, todos los que han existido, existen y existirán tienen algo en común: siempre tendrán un balance energético negativo. Por desgracia, la termodinámica es físicamente inviolable.

Pero volvamos a la sonda japonesa: ¿por qué entonces se ha dicho que utiliza agua como combustible, si no es cierto? La explicación es curiosa; es un problema de comprensión, de interpretación o de traducción. Lo que decía la nota de prensa de la agencia espacial japonesa JAXA es que la sonda utiliza agua como propelente, no como combustible.

Aunque a veces los dos términos se usen como intercambiables, en realidad son dos cosas muy distintas: un combustible es algo que se quema, mientras que un propelente es algo que se expulsa hacia atrás para impulsarse hacia delante, según la vieja acción-reacción de Newton; en otras palabras, propulsión a chorro. Si han visto la película Marte (The Martian), recordarán cómo el personaje de Matt Damon se agujereaba el guante del traje espacial para que el aire que escapaba le sirviera para impulsarse hacia la nave que debía rescatarlo, al estilo Iron Man, como decía él. Aunque los expertos han criticado mucho esta escena juzgando que sería impracticable, el principio físico sí es válido.

La sonda japonesa, llamada EQUULEUS, utiliza un sistema de propulsión llamado AQUARIUS, consistente en un depósito de agua que se calienta para expulsarse en forma de vapor, y este chorro impulsa su movimiento a través del espacio. Es decir, es una máquina de vapor espacial. Lo cual no deja de ser cool. De hecho, hay un interés creciente en el agua como propelente en las sondas espaciales y como materia prima de hidrógeno combustible y oxígeno respirable en las futuras misiones tripuladas, ya que el agua es un recurso que puede cosecharse en la Luna, en Marte o en asteroides; allí donde lo crítico no es el balance energético, sino obtener materiales esenciales que no pueden llevarse en abundancia desde la Tierra. Bienvenidos al futuro steampunk.

Los Nobel de ciencia: buena sopa, pero sopa fría

Dirán los asiduos a este blog que ya vengo otra vez con la misma matraca, que soy cansino, cargante, y tendrán razón. Pero me temo que deberé seguir repitiéndolo todos los años, todas las veces que haga falta. Una vez más hemos asistido a una semana de los Nobel en la que el premio de Literatura se ha llevado todo el bombo y los platillos, y por el contrario las tres categorías de ciencia se han pasado como un breve; en algún caso, lo juro, sin siquiera mencionar los nombres de los premiados, y sin el menor criterio ni comentario o análisis.

Por cierto y con respecto al Nobel de Literatura, y aunque este blog no vaya de eso, uno también tiene sus opiniones. Como marca la tradición, antes del anuncio Murakami fue tendencia, y por las bolas de cristal circulaban los nombres de Rushdie o Houellebecq. Se sigue pensando que el Nobel debe distinguir al mejor, «the best», como los Óscar. Pero aparte de que la mejoridad siempre sea opinable, lo cierto es que este no es el presunto espíritu de los Nobel.

Imagen de Wikipedia.

Imagen de Wikipedia.

Alfred Nobel dejó bien claro en su testamento que los premios deben concederse a quienes «en el año precedente hayan aportado el mayor beneficio a la humanidad», y en concreto el de Literatura a quien haya producido «el trabajo más sobresaliente en una dirección idealista». Esto último está abierto a tantas interpretaciones como se quiera, pero probablemente bastantes de ellas podrían coincidir en definirlo como lo contrario de Houellebecq. En todo caso y en último término, deja la puerta abierta a que la Academia se lo conceda a quien le dé la gana, como viene haciendo, que para eso es su premio.

Pero no pensemos por ello que en la concesión de los premios se respeta a rajatabla la última voluntad del inventor de la dinamita y la gelignita, porque nada más lejos. Los Nobel de ciencia nunca se otorgan por los trabajos del «año precedente», ni de la década precedente, a veces casi ni siquiera del medio siglo precedente. Los Nobel de ciencia siempre suenan a viejuno. Se conceden a descubrimientos o avances ya muy consolidados, y por ello ya antiguos.

Como defensa suele alegarse que los Nobel premian los hallazgos que han resistido la prueba del tiempo. Pero claro, esto es como darle un premio de cine en 2022 a Blade Runner, que en su día tuvo críticas divididas. Se supone que entre las cualidades de un jurado experto debería contarse la de anticipar qué va a resistir la prueba del tiempo. Porque para saber qué la ha resistido no hace falta ser experto en nada. Basta con mirar la Wikipedia.

Si se quiere distinguir cuáles son las tendencias científicas más calientes del momento, a donde hay que dirigir la mirada es a los Breakthrough Prizes, los de mayor dotación económica del mundo en su campo. Este año han premiado, entre otros, a Demis Hassabis y John Jumper, los máximos responsables de DeepMind de Google en la creación de AlphaFold, el sistema de Inteligencia Artificial que predice la estructura espacial de casi cualquier proteína. Este es sin duda el mayor hallazgo reciente en el campo de la biomedicina y uno de esos avances que cambiarán el rumbo de la ciencia para los próximos 50 años, no que lo hicieron hace 50 años. El año pasado los Breakthrough distinguieron a Katalin Karikó y Drew Weissman, principales responsables de las vacunas de ARN contra el virus de la COVID-19.

En justicia hay que decir que en España tenemos también dos premios internacionales con un ojo muy agudo para distinguir los avances científicos más relevantes del momento: los Fronteras del Conocimiento de la Fundación BBVA y los Princesa de Asturias. Este año los Princesa han premiado a Hassabis (entre otros), y el año pasado lo hicieron a Karikó, Weissman y otros por las vacunas. Los Fronteras también han premiado a los creadores de las vacunas. Mientras, los Nobel siguen sin darse por enterados de que hemos tenido una pandemia y que una nueva generación de vacunas ha salvado millones de vidas.

Algunas veces los Nobel parecen el reconocimiento a toda una carrera, como evidentemente lo es el premio de Literatura. En los de ciencia, este es el caso del concedido este año en Fisiología o Medicina a Svante Pääbo, la figura más destacada en el desarrollo del campo de los genomas antiguos. Con esta concesión el comité del Instituto Karolinska, encargado de esta categoría, también ha sacado los pies de su tiesto; que yo recuerde, es la primera vez que se premia a la paleoantropología, una ciencia que quedaba excluida de los Nobel porque no encaja en ninguna de las categorías. El hecho de que la de Pääbo sea una paleoantropología molecular ha servido para darle el pase al premio de Fisiología o Medicina. Su trabajo no tiene nada que ver con la segunda, pero puede aceptarse dentro de la primera, en cierto modo.

Sobre el premio de Física, los físicos dirán. Como no-físico, y en mi función de simple periodista de ciencia que ha escrito infinidad de artículos sobre física, y bastantes de ellos sobre entrelazamiento cuántico (un tema especialmente jugoso), el reconocimiento a Alain Aspect, John Clauser y Anton Zeilinger es bienvenido, sobre todo cuando los tres ya recibieron el Wolf de Física —considerado por algunos como el segundo más prestigioso después del Nobel— hace 12 años. Una vez más, el Nobel se convierte en premio escoba, poniéndose al día con los deberes atrasados.

Finalmente, el Nobel de Química ha sido para Carolyn Bertozzi, Morten Meldal y Barry Sharpless, tres investigadores que desarrollaron —a principios de este siglo— dos conceptos relacionados que facilitan las reacciones químicas de síntesis para la formación de nuevos compuestos más complejos a partir de otros más simples. La idea es tan genial como sencilla, aunque mucho más difícil es llevarla a la práctica. Consiste en encontrar el modo de ligar moléculas entre sí de forma rápida, directa, irreversible y en una sola reacción, como si fuesen piezas de un puzle que encajan entre sí de modo único. Esta llamada química click, desarrollada independientemente por Sharpless y Meldal, se aplicó a los sistemas biológicos con la llamada química bioortogonal acuñada por Bertozzi. Estos dos conceptos son de inmensa aplicación hoy. Por cierto que Sharpless ya recibió otro Nobel de Química en 2001, un doble reconocimiento que solo han logrado otros cuatro científicos.

En definitiva, y como ocurre siempre, todos los premiados merecen sin duda este reconocimiento. Todos los premiados lo merecían desde hace años. Y como siempre, también lo habrían merecido otros que han quedado fuera. En concreto, no entiendo la decisión de distinguir en exclusiva a Pääbo por los avances en genomas antiguos, cuando los premios permiten el reparto entre un máximo de tres investigadores y hay otros que claramente habrían merecido compartirlo (por cierto, también hay españoles muy destacados en este campo). Sí, es cierto que saldrían más de tres. Es otro problema de los Nobel, y es que siempre son más de tres, y casi siempre muchos más de tres; hoy la idea del supergenio científico rodeado de minions eficientes pero descerebrados solo existe en las películas de Gru.

Los «Óscar de la ciencia» premian la primera foto de un agujero negro

El regreso de las vacaciones viene cada año con sus sempiternas rutinas: la vuelta al cole, el reingreso a la vida laboral, los anuncios de fascículos en televisión, la cuenta bancaria agonizando de inanición… Y para los que nos dedicamos a contar lo que pasa en el mundo de la ciencia, es temporada de premios. En un mes conoceremos quiénes añadirán a su lista de credenciales en la Wikipedia los laureles del Nobel. Pero por el momento, esta semana tenemos un enjundioso aperitivo con los Premios Brealthrough.

Enjundioso, porque en realidad los Breakthrough son mucho más que un aperitivo. De hecho, hoy son los premios científicos más sustanciosos del mundo, con una dotación de tres millones de dólares por galardón que triplica la de los Nobel. Por supuesto, los premios suecos continúan y continuarán siendo la cumbre soñada por todo científico (que trabaje en alguna de las categorías incluidas, claro). Pero en solo ocho ediciones, los Breakthrough han conseguido convertirse en un importante indicador en el cuadro de mandos de la actualidad científica.

Además de su generosa dotación, una clave del éxito de los Breakthrough es precisamente casi todo aquello que los diferencia de los Nobel. Frente a la pompa decimonónica de los premios suecos, con su olor a roble viejo, sus cascos de plumas y sus trajes de pingüino, los Breakthrough se presentan como “los Óscar de la ciencia”, y esta comparación basta para entender su carácter. La preferencia por uno u otro estilo puede ir en gustos, pero frente al arcaicismo de los Nobel, los Breakthrough son los premios de la era de internet, como corresponde a los nombres que los impulsan: Sergey Brin, Priscilla Chan, Mark Zuckerberg, Ma Huateng, Yuri y Julia Milner, o Anne Wojcicki.

También esta diferencia de estilo afecta al hecho de que los Breakthrough suelen concederse más en caliente que los Nobel, a hallazgos más recientes en el tiempo, premiando más los avances por sus posibilidades futuras que por las ya demostradas. Aunque Alfred Nobel consignó en su testamento que sus premios debían concederse a los descubrimientos más importantes del año precedente, lo cierto es que los Nobel tienden a distinguir hallazgos de hace varias décadas, y a menudo se ven lastrados por lo que parece una necesidad de otorgar premios escoba a trabajos que hasta ahora habían quedado sin reconocimiento. Los medios no especializados suelen presentar cada año los fallos de los Nobel como si premiaran ciencia de vanguardia, pero por lo general suele ser más bien de retaguardia –o más propiamente, de fondo de armario–, siempre que sus frutos hayan sido de gran trascendencia hasta el día de hoy.

Sin embargo y en lo que respecta a los premios de Física, este año la actualidad científica se lo ha puesto muy fácil a los jurados. El Breakthrough en esta categoría se ha concedido a los investigadores del Event Horizon Telescope (EHT), una colaboración internacional que ha empleado una red de telescopios para lograr la primera fotografía de un agujero negro.

Imagen del agujero negro supermasivo en el centro de la galaxia M87 resuelta por la red Event Horizon Telescope.

Imagen del agujero negro supermasivo en el centro de la galaxia M87 resuelta por la red Event Horizon Telescope.

El pasado 10 de abril todos los medios, incluyendo este blog, contaron la que hasta ahora ha sido la noticia científica más resonante de 2019. Más allá de su importancia, el hecho de que la noticia fuera gráfica le garantizaba el acceso a todos los telediarios, donde a menudo parece que algo no existe si no lleva foto.

Pero el Breakthrough es, además, un premio adaptado a una época en que la ciencia suele ser un esfuerzo colectivo, mientras que los Nobel siguen anclados a la idea obsoleta del genio individual. El premio lo recogerá el director de la colaboración EHT en el Centro de Astrofísica Harvard-Smithsonian, Shep Doeleman, pero el importe de tres millones de dólares se repartirá equitativamente entre los 347 investigadores firmantes de los seis estudios que presentaron los resultados. Así, cada uno de ellos tocará a algo más de 8.600 dólares. Y aunque la cantidad no sea como para bañarse en billetes, el hecho de que los y las becarias predoctorales vayan a percibir lo mismo que sus jefes y jefas es también un reconocimiento tan inusualmente raro como habitualmente merecido.

En lo que respecta al dólar, más suerte van a tener los premiados en Ciencias de la Vida y en Matemáticas, que serán menos a repartir. En la primera categoría se conceden cuatro premios, que este año irán respectivamente al genetista molecular Jeffrey Friedman por su descubrimiento de la hormona leptina y su papel en la obesidad, a los bioquímicos Franz-Ulrich Hartl y Arthur Horwich por sus hallazgos sobre el plegamiento de proteínas en la célula –un mecanismo implicado en enfermedades como las neurodegenerativas–, al fisiólogo David Julius por sus estudios sobre los mecanismos celulares y moleculares del dolor, y a la bioquímica Virginia Man-Yee Lee por sus descubrimientos de ciertos mecanismos moleculares implicados en las enfermedades neurodegenerativas.

En cuanto a la categoría de Matemáticas, cada año solo se concede un Premio Breakthrough, que en este caso ha sido para Alex Eskin, por sus descubrimientos en geometría que incluyen un trabajo desarrollado en colaboración con la iraní Maryam Mirzakhni (fallecida en 2017, por lo que no podrá recibir el premio) que resuelve un curioso problema: ¿puede un rayo de luz en una habitación cubierta de espejos alcanzar todos los puntos de la misma? Eskin y Mirzakhni demostraron que en habitaciones poligonales cuyos ángulos son fracciones de números enteros existe un número finito de puntos que no quedarían iluminados.

Por último, los Breakthrough conceden también seis premios denominados New Horizons y dotados cada uno con 100.000 dólares, tres en Física y tres en Matemáticas, a científicos jóvenes que ya han logrado avances notables; una buena manera de promocionar la consolidación de las carreras incipientes y prometedoras.

En resumen, el logro conseguido por la colaboración EHT podría dar pie a uno de esos raros casos en los que el Nobel se concede a ciencia de actualidad, como ocurrió en 2013 con la concesión del premio de Física a Peter Higgs y François Englert por el hallazgo largamente esperado del bosón de Higgs. Claro que, como también sucedió entonces, las arcaicas normas de los Nobel obligarían a seleccionar a un máximo de tres premiados. Es decir, que en este caso, 344 investigadores participantes en el hallazgo quedarían sin reconocimiento.

Rusia calló en 2017 una fuga radiactiva que afectó a casi toda Europa

Quienes vivimos la caída del muro de Berlín el 9 de noviembre de 1989 y el posterior desplome del bloque soviético sabíamos entonces que estábamos viviendo la Historia en directo. Medio mundo cambiaba en solo unos meses, y la geografía se reescribía (imagino que, por lo menos, en aquel entonces pocos se quejarían de las actualizaciones de los libros de texto). Pero ¿han sido tantos los cambios?

Recuerdo que por entonces había serias esperanzas de que el mundo entrara en una nueva época de menor tensión. Y sin embargo, los mayores atentados terroristas de la historia aún estaban por estar llegar. Y las guerras continuaron como siempre han sido. Al menos, los ciudadanos del antiguo bloque tras el Telón de Acero son hoy mucho más libres de lo que lo eran entonces, y los rusos pudieron venir a comprarse media costa española. Pero las alianzas tradicionales y las enemistades tradicionales no han variado.

Como tampoco Rusia se ha convertido en un país más transparente que antes de la descomposición de la URSS. Si mucho de lo que allí ocurre llega a nuestros ojos y oídos, continúa siendo, como antes, por quienes destapan los secretos. Y en ocasiones, como hoy, gracias a la ciencia.

El 2 de octubre de 2017, un lunes, una estación de seguimiento atmosférico en Milán (Italia) detectó en el aire un nivel inusual del isótopo radiactivo rutenio-106. El mismo día, la observación se repitió en estaciones de la República Checa, Austria y Noruega, a las que luego se unieron Polonia, Suiza, Suecia y Grecia. Los niveles detectados no eran peligrosos para la salud humana, pero la observación del mismo fenómeno en laboratorios tan distantes entre sí dejaba claro que se trataba de una contaminación a gran escala propagándose por gran parte de Europa.

Cinco días después, la Agencia Internacional de la Energía Atómica abrió una investigación, solicitando a las 43 naciones europeas que detallaran posibles fuentes de aquella contaminación atmosférica radiactiva. Tuvo que transcurrir un mes y medio para que, el 21 de noviembre, las autoridades rusas reconocieran que a finales de septiembre se había registrado una medición de rutenio-106 en la región del sur de los Urales. Sin embargo, los responsables de una posible fuente en aquella zona, el complejo nuclear Mayak en Ozersk, se apresuraron a negar toda relación con el incidente.

Una señal de advertencia de contaminación radiactiva en la zona de Mayak, en Rusia. Imagen de Ecodefense, Heinrich Boell Stiftung Russia, Alla Slapovskaya, Alisa Nikulina / Wikipedia.

Una señal de advertencia de contaminación radiactiva en la zona de Mayak, en Rusia. Imagen de Ecodefense, Heinrich Boell Stiftung Russia, Alla Slapovskaya, Alisa Nikulina / Wikipedia.

Por su parte, los datos facilitados por los países europeos no ayudaron a clarificar el fenómeno. Mientras, Rusia seguía declinando toda responsabilidad y atribuyendo la contaminación a la posible desintegración en la atmósfera de un satélite con baterías de radioisótopos.

Desde entonces, el episodio ha traído de cabeza a las autoridades de seguridad nuclear; hasta ahora, cuando por fin tenemos la respuesta: un estudio elaborado por cerca de 70 expertos de distintas instituciones de Europa y Canadá –con la participación del CIEMAT de España–, dirigido por la Universidad Leibniz de Hannover (Alemania) y publicado en la revista PNAS, ha reunido todos los datos de seguimiento de la nube radiactiva y los ha introducido en un modelo de los movimientos atmosféricos durante los días previos a la detección.

La reconstrucción del crimen apunta al culpable más probable: el complejo ruso Mayak. Según los investigadores, los patrones de distribución vertical del isótopo descartan la hipótesis del satélite o una posible incineración de material radiactivo de uso médico, y en cambio todas las pistas son consistentes con una fuga en Mayak que pronto se extendió hacia el oeste formando una nube del tamaño de Rumanía.

Es más, los científicos han logrado incluso determinar cómo se produjo el escape. Estudiando las características del contaminante y los procesos que lo generan, han llegado a la conclusión de que probablemente ocurrió durante el reprocesamiento de un combustible nuclear gastado dos años antes para producir cerio-144 destinado a un experimento de detección de neutrinos en el laboratorio italiano de Gran Sasso.

Esta hipótesis ya fue propuesta en febrero de 2018 por científicos del Instituto Francés de Radioprotección y Seguridad Nuclear. Entonces, los investigadores franceses sugirieron que los datos apuntaban a Mayak como el origen de la contaminación. Esta compañía, que cuenta con una planta de reprocesamiento de combustible nuclear, había firmado un contrato con el Gran Sasso para la producción del altamente radiactivo cerio-144 requerido para el experimento. Mayak era la única instalación capaz de producir el material que necesitaban los físicos italianos.

Parte de las instalaciones del complejo nuclear de Mayak, en Rusia. Imagen de Carl Anderson, US Army Corps of Engineers / Wikipedia.

Parte de las instalaciones del complejo nuclear de Mayak, en Rusia. Imagen de Carl Anderson, US Army Corps of Engineers / Wikipedia.

Sin embargo, en diciembre de 2017 Mayak comunicó al Gran Sasso que no podía cumplir con el encargo, pero sin decir ni una palabra de que el proceso había fallado y se había producido una fuga. A la teoría de los físicos franceses, el director del Instituto de Seguridad Nuclear de la Academia Rusa de Ciencias respondió diciendo que era una buena hipótesis, pero incorrecta.

Ya entonces, y aunque había constancia de que los efectos de la nube radiactiva eran inocuos para la población europea –la contaminación no llegó a España–, se sugirió que no podía afirmarse lo mismo respecto a los habitantes de los núcleos próximos a Mayak; una instalación que, por cierto, en 1957 fue la sede del desastre de Kyshtym, el tercer accidente nuclear más grave de la historia después de los de Fukushima y Chernóbil, que afectó a un área con una población de 270.000 personas. Aquello fue en tiempos de la Guerra Fría. Pero parece que algunas cosas nunca cambian en Rusia.

Mañana, ¿la primera foto de un agujero negro?

Mañana miércoles llegará por fin una de las noticias más esperadas en el mundo de la ciencia en los últimos años. Y no es una frase hecha: a un servidor le toca cada mes de enero escribir una previsión para algún medio sobre lo que nos deparará la investigación científica en el año que empieza, y desde 2017 ha figurado en esos pronósticos una noticia que finalmente se nos escapó durante los dos años pasados, y que por fin verá la luz mañana: la primera foto de un agujero negro.

Los agujeros negros, esos objetos de densidad tan inmensa que se tragan cuanto cae bajo su influjo gravitatorio, son uno de los fenómenos cósmicos más populares, a pesar de que hasta ahora jamás han sido vistos directamente; en realidad, nadie sabe con certeza qué aspecto tendrían si pudiéramos contemplarlos desde una distancia segura.

Simulación de un agujero negro creada por Jean-Pierre Luminet en 1979.

Simulación de un agujero negro creada por Jean-Pierre Luminet en 1979.

Las razones por las que nadie ha podido contemplar hasta ahora un agujero negro son de lo más trivial: están muy lejos y son, ejem, negros. Respecto a lo primero, el más cercano que se conoce es Sagitario A*, el agujero negro supermasivo que ocupa el centro de la galaxia, a unos 26.000 años luz de la Tierra. Pese a su masa equivalente a cuatro millones de soles, desde nuestra segura lejanía solo ocupa en el cielo el espacio de un punto diminuto.

En cuanto a lo segundo, vemos los objetos gracias a la luz que reflejan, pero los agujeros negros se la tragan. Sin embargo y aunque no podamos observarlos directamente porque no ofrecen ninguna imagen, sí es posible vislumbrar sus efectos. Por ejemplo, su enorme masa actúa como lente gravitatoria; es decir, deforma la luz de los objetos que se encuentran detrás desde nuestro punto de vista. Así, si pudiéramos acercarnos lo suficiente como para entrar en su órbita, contemplaríamos algo parecido a esta simulación construida en 2016 por el astrofísico francés Alain Riazuelo (y que, por cierto, recuerda a un salvapantallas de las antiguas versiones de Windows):

Pero esta fantasmagórica deformación de los objetos alrededor de una nada en movimiento no es lo único que puede observarse de un agujero negro. Su enorme masa convierte a estos objetos en sumideros cósmicos; y tal como el agua gira en espiral alrededor de un drenaje, un agujero negro puede formar a su alrededor un disco de acreción, compuesto por gases y polvo girando a velocidades cercanas a la de la luz. El calentamiento debido a la fricción de los materiales genera un plasma luminoso, que justo en la frontera del horizonte de sucesos –la distancia del agujero negro a la cual la radiación y la materia ya no pueden escapar– dibuja un anillo de luz donde los fotones describen círculos antes de ser tragados por el sumidero.

Durante décadas, los astrofísicos han formulado predicciones sobre el aspecto de esta “sombra”, donde la luz del horizonte de sucesos desaparece. La relatividad general de Einstein predice una forma circular, mientras que otras hipótesis han propuesto que podría tener una imagen más achatada.

En 1979, el matemático francés Jean-Pierre Luminet utilizó por primera vez un modelo computacional para simular el aspecto de un agujero negro con disco de acreción (el modelo de Riazuelo simula un agujero negro desnudo). Con los medios rudimentarios de la época, tuvo que dibujar a mano uno a uno todos los puntos que la computadora le iba indicando. Lo hizo sobre papel fotográfico de negativo, para que al positivarlo después se vieran como brillantes los puntos que él había dibujado, correspondientes a la luminosidad del disco de acreción. El resultado fue la imagen mostrada más arriba.

La imagen de Luminet muestra el disco de acreción visto desde una ligera altura con respecto a su plano. Para comprender lo que estamos viendo debemos entender que las extrañas propiedades del agujero negro nos ofrecen una imagen diferente a la real; el disco es simplemente un disco luminoso, tal cual. Pero mientras que en una imagen de Saturno los anillos desaparecen detrás del planeta, esto no ocurre en el agujero negro: debido a que actúa como lente gravitatoria, la deformación de la luz hace que veamos la parte posterior del disco por encima, como si se desbordara sobre él.

Por otra parte, el efecto Doppler –el mismo que hace cambiar la sirena de una ambulancia cuando pasa junto a nosotros– hace que se vea más luminosa la parte del disco que se acerca hacia nosotros, y más oscura la que se aleja; por eso lo vemos más brillante a un lado y más apagado al otro. Por último, hay que tener en cuenta que la imagen de Luminet muestra el espectro electromagnético completo, y no solo lo que observaríamos como luz visible.

Décadas más tarde, el físico Kip Thorne se basó en esta imagen de Luminet para crear su propia simulación, que sirvió como base para crear el agujero negro de la película de Christopher Nolan Interstellar. Sin embargo, los responsables de la producción optaron por una versión simplificada y estéticamente más llamativa, con una simetría que desprecia el efecto Doppler (la imagen estaría tomada desde el plano del disco de acreción):

Agujero negro retratado en la película 'Interstellar'. Imagen de Paramount Pictures.

Agujero negro retratado en la película ‘Interstellar’. Imagen de Paramount Pictures.

Como respuesta a esta licencia artística de la película, Thorne y sus colaboradores publicaron una versión más realista:

Simulación de un agujero negro creada por Kip Thorne y sus colaboradores. Imagen de James et al / Classical and Quantum Gravity.

Simulación de un agujero negro creada por Kip Thorne y sus colaboradores. Imagen de James et al / Classical and Quantum Gravity.

En 2007, tres radiotelescopios se unieron para resolver la estructura de Sagitario A*. Con el paso de los años, otros observatorios radioastronómicos se han sumado, creándose una red global llamada Event Horizon Telescope (EHT) cuyo objetivo es convertir la Tierra en un enorme ojo, un telescopio virtual global con la suficiente capacidad de resolución como para poder captar una imagen de Sagitario A*.

El trabajo ha sido titánico; el volumen de datos era tal que no podían transmitirse por internet, sino que debían transportarse en discos físicos por avión hasta las sedes centrales del proyecto en Bonn (Alemania) y el Instituto Tecnológico de Massachusetts.

Pero por fin y después de años de espera, mañana es el día: a las 3 de la tarde en horario peninsular español (13:00 en tiempo universal coordinado), los científicos del EHT darán a conocer los resultados del proyecto mediante siete ruedas de prensa simultáneas en distintos lugares del mundo, una de ellas en castellano desde Santiago de Chile. Si todo ha salido como se espera, será un hito en la historia de la ciencia. Y aquí se lo contaré.

¿Un universo rebosante de vida? ¿O la Tierra sí es un lugar especial?

La vida es un fenómeno bastante improbable. Sí, ya sé, ya sé. Se preguntarán de dónde sale esta afirmación. Realmente no es tal, sino solo una hipótesis. Pero una que hasta ahora tiene más apoyos a favor que la contraria.

Es lógico que la visión humana al respecto esté normalmente sesgada hacia el lado contrario, dado que nosotros estamos aquí y apenas conocemos otro lugar. Ningún ser humano ha pisado jamás otro planeta, y solo 12 han caminado sobre otro cuerpo celeste. Así que nos guiamos intuitivamente por lo único que conocemos: un planeta rebosante de vida.

Pensemos en alguien que ha vivido su existencia alejado de la civilización, que un día viaja a la ciudad, compra un billete de lotería y le toca el gran premio. Sin duda pensaría que es enormemente fácil, dado que desconoce las reglas del sorteo y las posibilidades de ganar. En términos de la lotería galáctica de la vida, nosotros, los agraciados, solemos pensar que los planetas habitados deben de ser inmensamente comunes en el universo, aunque en realidad no tengamos la menor idea de cuáles son las reglas concretas de la aparición de la vida ni la probabilidad real de que ocurra.

A esta idea común de que la vida debe de ser tan omnipresente en el cosmos como lo es en nuestro planeta –donde se encuentra incluso en los entornos más hostiles, desde los polos a los desiertos, pasando por los volcanes y las fosas oceánicas– han contribuido los astrofísicos, quienes durante décadas nos han hecho calar la idea de que la Tierra no es un lugar especial.

De hecho, esta visión empezó a incubarse cuando Copérnico se cargó el geocentrismo, y ha venido expandiéndose con las evidencias de que ni nuestro planeta, ni nuestro sistema solar, ni nuestra galaxia tienen esencialmente nada especial que los distinga de otros muchos millones, desde el punto de vista puramente astrofísico. A menudo se dice que la Tierra es solo un suburbio más de un sistema solar suburbial más en una galaxia suburbial más. Todo lo cual ha llevado a muchos físicos a encogerse de hombros: si en la Tierra hay vida, ¿por qué no en cualquier otro lugar?

Imagen de la Tierra desde el espacio tomada por la misión Apolo 17 en 1972. Imagen de NASA.

Imagen de la Tierra desde el espacio tomada por la misión Apolo 17 en 1972. Imagen de NASA.

Solo que esta visión es simplista. Y espero que se me entienda, no es un «simplista» con ánimo peyorativo. Es que la física es simplista por obligación. Había un viejo chiste sobre dos caballos de carreras, y un físico al que se le preguntaba cuál de los dos tenía más posibilidades de llegar primero a la meta. El físico decía: supongamos dos caballos totalmente esféricos y sin rozamiento…

Solo cuando los físicos comienzan a hundir los pies en el sucio cenagal de la química y la biología es cuando son realmente conscientes de que los caballos no son esféricos y sin rozamiento. O, como decía Carl Sagan, que «la biología es más parecida a la historia que a la física» porque «no hay predicciones en la biología, igual que no hay predicciones en la historia». Y de que tal vez la Tierra después de todo sí sea un lugar más especial de lo que predice la astrofísica.

Sagan era astrofísico, pero hundió los pies. Otro ejemplo es el australiano Charley Lineweaver, astrofísico reconvertido en astro-bio-geólogo. En realidad, no crean que los astrobiólogos tienen más respuestas. Los astrobiólogos son un poco como un equipo de bomberos forestales en el desierto, siempre esperando a poder entrar en acción. A la espera de ese momento, exploran las posibilidades teóricas analizando las condiciones más raras y extremas en las que puede llegar a surgir un incendio.

Pero cuando un físico como Lineweaver comienza a añadir capas de complejidad a esa noción simplista que aplica a la Tierra el principio de mediocridad, descubre que quizá nuestro planeta no sea realmente un suburbio tan mediocre. Lineweaver suele ilustrar sus planteamientos con lo que llama la falacia del planeta de los simios, en alusión a la idea de que el universo debe de estar lleno de especies inteligentes porque la evolución conduce a eso; en la saga clásica, el declive de los humanos dejaba el hueco para que los simios dieran ese salto evolutivo.

Pero para Lineweaver, existe un experimento natural que prueba cómo la evolución no conduce necesariamente a la aparición de una especie tecnológica inteligente. Es su propio país, Australia; un continente separado del resto durante 100 millones de años y en el que todo lo que logró la evolución, según sus propias palabras, fueron los canguros.

Lineweaver propone que existe un «cuello de botella gaiano» (según la idea de Gaia, la Tierra como un sistema vivo autorregulado), un momento de crisis en el que todo planeta con vida naciente deriva hacia la catástrofe climática cuando la propia biología no consigue modificar el ciclo de carbonatos-silicatos para imponer unas condiciones de habitabilidad estables. Es posible que esto sucediera en Venus y Marte, y según Lineweaver la Tierra podría ser un caso insólito que consiguió superar ese cuello de botella. Con lo cual este planeta no sería un ejemplo mediocre de lo que es la norma en el universo, sino una excepción, una anomalía, un raro caso de éxito donde todos los demás fallan.

Por supuesto, la idea de Lineweaver no deja de ser otra hipótesis sin demostración. Pero quien defienda esa visión del universo rebosante de vida debe enfrentarse a la incómoda realidad de que los datos disponibles apoyan más bien lo contrario: aquí no ha venido nadie más, y en los miles de mundos ya confirmados aún no hay nada que invite fuertemente a sospechar la existencia de vida.

Cierto es que tampoco hay nada que lo excluya. Pero aunque el descubrimiento de nuevos exoplanetas ha estado afectado por un sesgo impuesto por los propios métodos de observación –por ejemplo, es más fácil descubrir planetas supergigantes gaseosos, poco aptos para la vida–, la realidad es que una vez más la Tierra sí parece ser un lugar algo especial; entre miles de mundos ya descubiertos, no parece haber tantos similares al nuestro como en un principio podría pensarse.

Lineweaver ha aportado ahora un nuevo dato más en contra de esa percepción de la Tierra como un planeta mediocre, y por tanto en contra de la idea del universo rebosante de vida. El científico australiano y sus colaboradores, los astrofísicos Sarah McIntyre y Michael Ireland, han analizado la posibilidad de que los exoplanetas rocosos conocidos hasta ahora posean un campo magnético similar al de la Tierra. El motivo, escriben los investigadores en su estudio, es que «las evidencias del Sistema Solar sugieren que, a diferencia de Venus y Marte, la presencia de un potente dipolo magnético en la Tierra ha ayudado a mantener agua líquida en su superficie», y por tanto la vida.

Los investigadores no sostienen que la existencia de un campo magnético sea un requisito mínimo obligatorio para la vida, pero sí que aumenta sus posibilidades, al proteger el agua y la atmósfera del viento y la radiación estelar.

El resultado del estudio es que solo uno de los exoplanetas analizados, Kepler-186f, tiene un campo magnético mayor que el terrestre, «mientras que aproximadamente la mitad de los exoplanetas rocosos detectados en la región habitable de sus estrellas tienen un dipolo magnético insignificante», escriben los investigadores.

Representación artística de Kepler-186f. Imagen de NASA Ames/SETI Institute/JPL-Caltech.

Representación artística de Kepler-186f. Imagen de NASA Ames/SETI Institute/JPL-Caltech.

Lineweaver y sus colaboradores se abstienen de concluir que sus datos descarten la posibilidad de vida en esos planetas, pero sí sugieren que la mayoría de los que se han descubierto en otros sistemas solares son probablemente menos hospitalarios para la vida que la Tierra. Y quien crea que hablar solo de vida basada en el agua y el carbono es reduccionista debería saber que, en realidad, es igualmente reduccionista proponer otras bioquímicas alternativas sin considerar sus numerosos e inmensos obstáculos, conocidos o no. En un futuro tal vez no lejano, es posible que los sistemas de Inteligencia Artificial puedan modelizar estas bioquímicas alternativas para tratar de obtener un veredicto sobre su plausibilidad real. Hasta entonces, son solo fantasías.

Pero en fin, al menos hay una buena noticia: Kepler-186f. Solo que, hasta ahora, ni siquiera los responsables del Instituto SETI (Búsqueda de Inteligencia Extraterrestre) albergan demasiadas esperanzas de que allí exista vida inteligente…

Esto es, según la ciencia, lo que pudo pasarle al avión de ‘Manifest’

Imagino que incluso quienes no somos adictos a las series hemos echado de menos aquella virtud que tenía Perdidos de sorprendernos en cada nuevo episodio, dejarnos hambrientos con cada cliffhanger y mantenernos ocupados rascándonos la cabeza con la incógnita de si debajo de todas aquellas capas de misterio encontraríamos una historia de ciencia ficción o una mera fantasía sobrenatural (en las que, por definición, anything goes).

Por supuesto, todo duró hasta que J. J. Abrams y Damon Lindelof decidieron que su final no debía coincidir con ninguno de los propuestos por los fanes, y solo les quedó la opción de aquello. Pero a pesar del monumental descalabro final, desde entonces hemos tratado de encontrar los mismos ingredientes en otras imitaciones, sin éxito.

Por desgracia, tampoco parece que vayamos a encontrarlos en Manifest, la nueva serie estrenada esta semana, ya que quienes la han visto entera nos aconsejan que no nos hagamos ilusiones. La serie viene lastrada por un bajón de audiencia en EEUU tras los primeros episodios, y por el momento hemos podido comprobar la flojedad de los personajes y de sus soportes físicos reales, insoportablemente inferiores a Jack/Matthew Fox, Kate/Evangeline Lilly, Sayid/Naveen Andrews, Sawyer/Josh Lee Holloway, Locke/Terry O’Quinn, Hurley/Jorge García…

Pero a quienes nos fijamos en la ciencia incluso dentro de la ducha nos divierte buscar lo científico que subyace a las historias de ficción. Y lo cierto es que la ciencia tiene una explicación a lo que le sucedió al vuelo 828 de Montego Air con el que arranca el episodio piloto de Manifest.

Para quienes no lo hayan visto, resumo que los protagonistas de la serie suben a un avión que parte de Jamaica con destino a Nueva York. Durante la travesía, experimentan unas violentas turbulencias no anticipadas por las lecturas de los instrumentos, y en especial un extraño fenómeno de luces y estrépito durante unos segundos. Después, el vuelo prosigue sin más incidencias… hasta que, a su llegada a Nueva York, los ocupantes del avión descubren que durante su viaje de unas pocas horas han transcurrido más de cinco años para el resto del mundo.

Un fofograma de la serie 'Manifest'. Imagen de Compari Entertainment / Jeff Rake Productions / Universal Television / Warner Bros. Television.

Un fofograma de la serie ‘Manifest’. Imagen de Compari Entertainment / Jeff Rake Productions / Universal Television / Warner Bros. Television.

Naturalmente, no tengo la menor idea de cuál será el desarrollo posterior de la serie ni la explicación imaginada por los guionistas. Pero por pura curiosidad, la ciencia tiene un argumento para explicar teóricamente (repito, teóricamente) la asombrosa anomalía que sirve de premisa para la serie: se conoce como dilatación del tiempo y es una consecuencia de la teoría de la relatividad especial de Einstein.

A finales del siglo XIX, Albert Michelson y Edward Morley demostraron que la luz se movía a la misma velocidad en todas direcciones, Hendrik Lorentz propuso que los objetos se contraían en la dirección de su movimiento, y Hermann Minkovski describió un espacio-tiempo de cuatro dimensiones (tres en el espacio y una temporal) aplicando las ecuaciones del electromagnetismo concebidas por James Clerk Maxwell.

Todas estas ideas confluyeron en la cabeza de Albert Einstein: el espacio y el tiempo estaban ligados a través de una constante universal, la velocidad de la luz, lo que implicaba que no eran absolutos, sino que podían deformarse dependiendo del sistema desde el cual se observaran; si se tiraba de esta manta espacio-temporal desde una esquina de la cama, los efectos se notarían en la esquina contraria para que las ecuaciones de Maxwell continuaran cumpliéndose. Estas deformaciones en el espacio y el tiempo podían predecirse por un factor matemático que Lorentz había introducido en su hipótesis de la contracción, y que se llamó transformación de Lorentz.

Pero el hecho de que la velocidad de la luz en el vacío, c, fuera una constante universal, de valor igual a casi 300.000 km/s (hoy su valor estándar es de 299.792,458 km/s), resultaba en unas consecuencias bastante exóticas. Imaginemos que una nave vuela por el espacio a una velocidad constante cercana a la de la luz, y que el piloto decide encender los faros delanteros. ¿Qué ocurre con la luz de los faros?

Dado que la luz no puede viajar más rápido que la luz, un observador sentado en un asteroide inmóvil que viera pasar la nave debería observar que el chorro luminoso apenas logra salir de los faros. Y sin embargo, el piloto vería algo muy diferente: puesto que su sistema de referencia es tan válido como el del habitante del asteroide (un curioso ejemplo que expliqué aquí es el de la mosca que vuela dentro del coche), él debería contemplar el chorro de luz de los faros proyectándose hacia delante exactamente del mismo modo que si su nave estuviera parada en el suelo.

Antes incluso de que Einstein formulara su relatividad especial, este y otros experimentos mentales llevaron a los científicos a proponer que el tiempo (y el espacio, ya que ambos están ligados en esa manta del cosmos) se comporta de forma distinta según la velocidad relativa entre un observador y otro: el piloto vería que en su nave todo transcurre de forma normal; enciende los faros, y alumbran. En cambio, el habitante del asteroide vería que esto ocurre muy despacio: se encienden los faros y la luz va avanzando poco a poco, poco a poco, mientras observa cómo el piloto parece moverse a cámara lenta.

Esto se llama dilatación del tiempo, y tomó cuerpo y coherencia gracias a la relatividad de Einstein: cuando una nave se mueve a velocidades relativísticas, próximas a la de la luz, las agujas de su reloj corren más despacio que las de otro situado en tierra; todo se ralentiza. A la vuelta de su viaje, el piloto de la nave comprobará que, durante su vuelo de unas horas, en la Tierra han transcurrido días, meses o años. Así, la dilatación del tiempo permite viajar al futuro (no al pasado).

Este recurso se ha explotado a menudo en la ficción. Uno de los ejemplos más conocidos es la primera versión de El planeta de los simios, la de 1968 con Charlton Heston (el libro original era algo diferente). Quizá no sea el mejor ejemplo, ya que en la película parecían ser los habitáculos de la nave los que protegían a los tripulantes del paso del tiempo, algo que no tiene el menor sentido; pero durante la misión espacial de Heston/Taylor y sus compañeros, en la Tierra habían transcurrido miles de años. Aquí he contado también un bonito ejemplo musical, ’39, un tema de Queen compuesto –cómo no– por el astrofísico y guitarrista Brian May.

En resumen, la dilatación del tiempo según la relatividad de Einstein podría explicar teóricamente el viaje temporal de los protagonistas de Manifest. Pero para no dejar la explicación a medias, hagamos algunos números. La dilatación del tiempo se calcula aplicando un factor de transformación llamado factor de Lorentz, o γ (la letra griega gamma minúscula):

t’ = γ . t

En la fórmula, t’ es el tiempo transcurrido en tierra, t es el tiempo transcurrido en el avión y γ es el factor de Lorentz, que se expresa así:

γ = 1 / √ (1 − v²/c²),

donde c es la velocidad de la luz y v es la velocidad (constante) del avión. Es decir, que nos queda así:

t’ = t / √ (1 − v²/c²)

A partir de aquí podemos calcular a qué velocidad tendría que volar el avión para que los pasajeros del vuelo 828 de Montego Air descubrieran que, a la llegada de su viaje de Jamaica a Nueva York, ya no estuvieran en abril de 2013, sino en noviembre de 2018.

A las velocidades normales a las que estamos acostumbrados, la dilatación del tiempo casi no se nota. Como se ve en este gráfico, es solo a partir de aproximadamente la tercera parte de la velocidad de la luz (unos 100.000 km/s, o 360.000.000 km/h) cuando el efecto en el reloj comienza a hacerse ostensible (el eje vertical representa la relación entre el tiempo en tierra y el tiempo en el avión, mientras que el eje horizontal muestra la velocidad del avión en fracciones de la velocidad de la luz).

Gráfico de la dilatación del tiempo en función de la velocidad. Imagen de Zayani / Wikipedia.

Gráfico de la dilatación del tiempo en función de la velocidad. Imagen de Zayani / Wikipedia.

Así pues, y dado que la mayor parte del vuelo transcurre normalmente –a velocidades no relativísticas–, el tiempo t del avión en el que ocurre la magia es cuando tiene lugar el fenómeno extraño de las turbulencias y las luces; se supone que es en ese momento cuando el avión se catapulta a velocidad relativística. No recuerdo exactamente de cuánto tiempo se trataba, pero supongamos que son unos 10 segundos (el resultado no variará demasiado). Mientras, el tiempo t’ en tierra es de unos 5 años y 7 meses, o unos 173.664.000 segundos. Así es como nos queda la ecuación de la dilatación del tiempo, con el valor estándar de la velocidad de la luz:

173.664.000 = 10 / √ (1 − v²/299.792,458²)

De aquí podemos despejar la incógnita, v, para averiguar así la velocidad del avión. Y el resultado es que durante esos 10 segundos de turbulencias el avión volaba a 299.792,4579999995 km/s, o 1.079.252.848,799998 km/h. O sea, a más de mil setenta y nueve millones de kilómetros por hora.

Si lo expresamos como fracción de la velocidad de la luz, v/c, es un 0,9999999999999983 de la velocidad de la luz, o un 99,99999999999983% de la velocidad de la luz.

Claro que, como ya he dicho, todo esto es teórico. En primer lugar, durante esos 10 segundos el avión habría recorrido, despreciando otros efectos, 2.997.924,579999995 de kilómetros, es decir, casi tres millones de kilómetros, o algo menos de ocho veces la distancia de la Tierra a la Luna. Claro que por la contracción del espacio de Lorentz, los pasajeros habrían visto la Luna mucho más cerca de lo normal; y por el mismo efecto, quien estuviera mirando hacia el cielo en ese momento habría observado cómo la longitud del avión se acortaba.

Pero además habría otros efectos colaterales, también consecuencia de la relatividad: los pasajeros apenas habrían notado nada raro (si es que sus cuerpos hubieran podido soportar una aceleración instantánea hasta casi la velocidad de la luz), pero para un observador externo la masa del avión y de sus ocupantes se habría multiplicado enormemente (la masa también se ve afectada por la transformación de Lorentz), lo cual haría más difícil que el aparato se mantuviera en vuelo.

Además, dado que masa y energía son proporcionales por la ecuación de la relatividad einsteniana E = mc², siendo E la energía, m la masa y c la velocidad de la luz, esto implica que también se habría disparado la cantidad de energía necesaria para hacer volar el avión; no le habría bastado con el combustible de sus depósitos. Lo cual nos lleva a la conclusión de que algo o alguien debería ser el responsable de esta jugarreta a los pasajeros del vuelo 828. ¿Alienígenas? ¿Un experimento a manos de una civilización avanzada que ha roto el espacio-tiempo de los pasajeros, y de ahí las voces, las premoniciones…?

Ah, no, espera. Olvidaba que se trata de imitar a Abrams y Lindelof. Y ellos ya optaron por el espiritismo…

¿Cómo puede una mosca volar dentro de un coche o de un avión en movimiento?

Hace unos días, durante un viaje en coche, una mosca decidió unirse a nuestro periplo en un área de servicio de la provincia de Ciudad Real, para acabar viaje con nosotros en Málaga. Si un insecto supiera geografía y pudiera extrañarse, se habría extrañado de que una mosca manchega hubiera acabado, sin saber cómo ni por qué, en la costa andaluza. Pero hete aquí que, cuando el bicho revoloteaba ante mis narices mientras yo trataba de ignorarlo conduciendo a 120 kilómetros por hora, me acordé de Galileo.

¿Quién no se ha preguntado alguna vez cómo puede una mosca volar tranquilamente dentro de un coche o de un avión, cuando estos a su vez se están moviendo a toda velocidad? Podríamos pensar que la mosca debería quedar estampada contra la luna trasera del coche a poco que intentara emprender el vuelo. Y sin embargo, sabemos que no es así: la mosca vuela tan tranquilamente y sin aparente esfuerzo como lo haría sobre un filete en perfecto reposo sobre la encimera de la cocina.

Lo cual es sorprendente, teniendo en cuenta que una mosca volando pasillo adelante dentro de un avión está sumando sus 7 km/h a los 900 km/h del aparato, alcanzando una velocidad récord de 907 km/h para un observador en tierra, y sin despeinarse, si una mosca pudiera ser despeinada. Pero ¿cómo sabe el movimiento de la mosca que debe descontar el movimiento del avión?

Mosca doméstica. Imagen de Alexey Goral / Wikipedia.

Mosca doméstica. Imagen de Alexey Goral / Wikipedia.

Aquí es donde entra Galileo, quien ya se hizo esta pregunta hace casi 400 años, y logró responderla. En 1632 publicó Diálogos sobre los dos máximos sistemas del mundo, donde escribía:

Enciérrate con algún amigo en la bodega bajo la cubierta de algún barco grande, y lleva contigo algunas moscas, mariposas y otros pequeños animales voladores. Lleva un gran cuenco de agua con algún pez dentro; cuelga una botella que se vacíe gota a gota en una vasija ancha bajo ella. Mientras el barco está parado, observa cuidadosamente cómo los pequeños animales vuelan a la misma velocidad hacia todos los lados de la bodega. Los peces nadan indiferentemente en todas direcciones; las gotas caen en la vasija; y cuando lanzas algo a tu amigo, no necesitas hacerlo con más fuerza en una dirección que en otra, a iguales distancias; saltando con los pies juntos, recorres la misma distancia en todas direcciones. Una vez que hayas observado todo esto cuidadosamente (aunque sin duda cuando el barco está detenido todo debe ocurrir de esta manera), haz que el barco se mueva a la velocidad que quieras, mientras el movimiento sea uniforme y no fluctúe. No verás el más minimo cambio en todos los efectos antedichos, ni podrás saber por ninguno de ellos si el barco se mueve o está parado.

A continuación vuelve otra vez a describir los saltos, el vuelo de las moscas, el pez y demás, para añadir:

La causa de todas estas correspondencias de los efectos es el hecho de que el movimiento del barco es común a todas las cosas contenidas en él, y también al aire.

De este modo, Galileo estaba introduciendo algo que hoy nos resulta muy familiar: la inercia. Dos mil años antes de Galileo, Aristóteles se rascaba la cabeza pensando cómo era posible que una flecha o una lanza continuaran su camino en el aire sin una fuerza aparente que siguiera empujándolas. El rascado de cabeza prosiguió durante dos milenios hasta que Galileo fue el primero en explorar y explicar con acierto el efecto de la inercia; aún sin emplear esta palabra, pero definiendo un principio fundamental de la física básica: que las leyes del movimiento son las mismas en cualquier sistema de referencia inercial, y que por tanto no existe ningún sistema privilegiado sobre otro. Medio siglo más tarde, la relatividad galileana se transformaría en las leyes del movimiento de Newton, y otros dos siglos después, serviría como base para la relatividad especial de Einstein.

En resumen, gracias a Galileo sabemos que la mosca posada cuando el coche comienza a moverse experimenta la misma inercia que nosotros en nuestros asientos. Una vez que el coche ya avanza a toda velocidad, la mosca absorbe la inercia del coche y del aire que lleva dentro en su propio movimiento, por lo que puede volar libremente a su manera normal dentro del vehículo, por grande que sea su velocidad. Incluso si la mosca está volando en el momento en que el coche comienza a acelerar, apenas notará un pequeño desplazamiento hacia la parte trasera que podrá compensar rápidamente; el aire dentro del coche se comprime ligeramente hacia atrás cuando empieza a moverse, pero rápidamente adquiere también la inercia del movimiento de todo el sistema.

En realidad, y si lo pensamos bien, nada de esto debería resultarnos sorprendente si tenemos en cuenta que la velocidad de la mosca, del coche e incluso del avión son, en el fondo, ridículas. Cuando Galileo expuso su argumento, lo hizo con un propósito más trascendente que explicar el vuelo de una mosca en la bodega de un barco: aportaba pruebas a favor del sistema heliocéntrico de Copérnico y en contra del sistema geocéntrico de Ptolomeo. Cuando Copérnico propuso que la Tierra y el resto de los planetas giraban en torno al sol, muchos vinieron a decir: tonterías; si la Tierra se moviera, tendríamos que estar continuamente agarrándonos a algo para no resultar arrastrados. Está claro que nosotros estamos en reposo, y que es el resto del universo el que se mueve.

Galileo explicando sus teorías astronómicas en la Universidad de Padua, por Félix Parra. Imagen de Wikipedia.

Galileo explicando sus teorías astronómicas en la Universidad de Padua, por Félix Parra. Imagen de Wikipedia.

Pero con su magnífico argumento del barco, Galileo demostraba que el reposo en el interior de la bodega, o para el caso, en la superficie de la Tierra, es solo una ilusión; y que es perfectamente posible que todo se esté moviendo a gran velocidad sin que nos demos cuenta, siempre que en este movimiento uniforme participe todo lo que existe a nuestro alrededor, un sistema del que somos parte.

Y vaya si nos movemos a gran velocidad: solo con la rotación de la Tierra, cualquier punto en el Ecuador se está moviendo en todo momento a unos 1.600 km/h, una velocidad que disminuye al aumentar la latitud hasta los polos, donde es cero. Y por cierto, este es el motivo de que los cohetes se lancen preferentemente desde lugares lo más cercanos al Ecuador que sea posible: al despegar desde puntos con mayor velocidad de rotación, las naves ya llevan un impulso extra que las ayuda a alcanzar la velocidad de escape de la atmósfera terrestre.

Pero la de rotación es también una velocidad insignificante si la comparamos con la de traslación de la Tierra alrededor del Sol: unos 108.000 km/h. Y esta a su vez es una minucia en comparación con la velocidad del Sistema Solar alrededor del centro de la galaxia: 792.000 km/h. Y esto sin contar el movimiento de la galaxia respecto a otras, la expansión del universo… En resumen, el reposo simplemente no existe. Porque para empezar, habría que definir: ¿reposo respecto a qué?

El argumento de Galileo era tan sólido que la Inquisición, a la que lógicamente no le placía en absoluto quitar a la Tierra del centro del universo, no pudo oponer otra respuesta más inteligente que… condenar a Galileo a reclusión domiciliaria de por vida. Esto acabó con el hombre; pero por supuesto, no con la verdad de su ciencia.

Sin la inercia, probablemente nuestra vida sería mucho más complicada. Aunque pensándolo bien, quizá tendría sus ventajas: podríamos desplazarnos de un lugar a otro del planeta simplemente dando saltitos y dejando que la Tierra corriera bajo nuestros pies. Viajaríamos gratis. Como la mosca.