BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

¿Son un placebo los botones de los semáforos?

Recuerdo un cuento de Richard Matheson titulado Button, Button, en el que un extraño ofrecía a una pareja con graves problemas económicos la posibilidad de ganar una gran cantidad de dinero simplemente pulsando el botón de una caja. Pero si decidían hacerlo, alguien a quien ellos no conocían iba a morir. Mientras discutían el dilema moral al que se enfrentaban, la mujer decidía abrir la caja y descubría que estaba vacía; bajo el botón no había ningún mecanismo.

La historia me ha venido a la mente a propósito de un artículo publicado hace unas semanas en el New York Times sobre los botones placebo. A algunos les llegará de sorpresa, a otros no, y muchos siempre lo habrán sospechado: algunos de los botones que encontramos en los ascensores y que sirven para cerrar las puertas, o que en los semáforos nos invitan a pulsar para esperar el verde, o los mandos que regulan el termostato de la temperatura en las oficinas, tal vez sean más falsos que un Mondrian pintado por mi hijo de cuatro años.

Un botón de semáforo. Imagen de Wikipedia.

Un botón de semáforo. Imagen de Wikipedia.

Según escribe Christopher Mele en el diario neoyorquino, en EEUU los botones de cerrar puertas en los ascensores funcionaban hasta 1990. Entonces se aprobó en aquel país una ley de discapacidad que obligaba a dejar un margen suficiente para que las personas en silla de ruedas o con otras dificultades de movilidad tuvieran tiempo suficiente de entrar en los acensores, lo que obligó a deshabilitar los botones de cerrar puertas. Desde entonces, al menos allí, estos pulsadores solo hacen algo si se introduce la llave que usan los empleados de mantenimiento.

Algo similar ocurre con los termostatos de muchas oficinas, que son de pega. Según explica el artículo, el simple hecho de hacer creer a los trabajadores que pueden regular la temperatura para sentirse más a gusto les hace sentirse más a gusto, aunque la manipulación del termostato no tenga ningún efecto real sobre la temperatura. Según una fuente del sector citada por Mele, un falso termostato reduce en un 75% las llamadas a la asistencia técnica.

Este último dato ilustra por qué esta existencia de botones falsos no se contempla como un resto del pasado a eliminar, sino que incluso se continúa fomentando. ¿Y por qué? En 1975, una psicóloga llamada Ellen Langer publicó un célebre estudio en la revista Journal of Personality and Social Psychology en el que acuñaba una expresión, la “ilusión del control”. Langer demostraba que muchos jugadores actúan u optan de determinadas maneras porque piensan que eso aumenta sus posibilidades de ganar, cuando en realidad esas acciones u opciones no tienen ningún efecto.

Pensemos en la Lotería de Navidad, ya tan próxima: muchos eligen números que representan fechas concretas, que les resultan significativos o que les parecen “bonitos”. Pero en realidad, todos los números del bombo tienen teóricamente la misma probabilidad de resultar premiados.

Esta ilusión de tener el control sobre un resultado que realmente escapa a nuestro poder es también la que justifica la existencia de los botones placebo: como en el caso de los termostatos, resulta satisfatorio pensar que tenemos el dominio de la situación, ya sea regular la temperatura de la oficina, cerrar las puertas del ascensor o detener el tráfico para cruzar la calle. Todo ello apela a lo que los psicólogos llaman el sentido de agencia, el sentimiento de que tenemos control sobre nuestras acciones y sus consecuencias.

El último ejemplo de los que he citado es mi favorito. Uno, como padre responsable, trata de enseñar a sus criaturas a no morir atropelladas, instruyéndoles sobre cómo cruzar la calle en tiempo y forma. Siempre que hay uno de esos botoncitos verdes que dicen “peatón pulse – espere verde”, les digo que pulsen. Lo cual hacen encantados, ya que a los niños les chifla apretar botones. Y si piensan que los coches se han parado gracias a ellos, entonces ya no caben en sí de orgullo. Pero uno siempre se pregunta: ¿realmente ese botón hace algo?

Según parece, no hay una respuesta única. El artículo de Mele cuenta que en su día los botones de los semáforos se colocaron con una finalidad genuina, para ayudar a regular el tráfico. Pero con el tiempo, cuando se introdujo el control por ordenador, dejaron de ser funcionales. Según Mele, en Nueva York hoy solo quedan unos pocos que responden a quien los pulsa.

Un estudio publicado en 2013 por investigadores de Microsoft y la Universidad de Michigan enfocaba el estudio de estos artefactos desde el punto de vista de la interacción humano-máquina para acuñar otra expresión: “engaño benevolente”, una especie de mentira piadosa que beneficia al usuario. Supuestamente, el hecho de apretar el botón de los semáforos no solo satisface el sentido de agencia, sino que al hacerlo el peatón tenderá a esperar con más paciencia el cambio de semáforo y no se lanzará a tratar de sortear el tráfico en rojo.

Un artículo de la BBC publicado en 2013 explicaba que el sistema informatizado de regulación de tráfico empleado en Reino Unido, llamado SCOOT (siglas de Split Cycle Offset Optimisation Technique), pone los botones en modo placebo durante el día, cuando el tráfico es intenso, y los activa por la noche.

Por otra parte, este trabajo de la ingeniera industrial Emma Holgado nos cuenta que el SCOOT se emplea también en Madrid, lo que nos lleva a una clara conclusión: si viven en Madrid (y supongo que en Barcelona y otras ciudades del país), apretar el botón durante el día no les servirá de nada. Pero háganlo, que los placebos también son eficaces incluso cuando sabemos que lo son. Y si van con niños, no les quiten la ilusión de pensar que son ellos quienes detienen el tráfico. Se sienten casi como superhéroes.

Pasen y vean cómo cambia el mundo en 32 años

¿Quieren ver cómo la “ciudad del Pocero” de Seseña y su infame cementerio de neumáticos surgen de la nada? ¿O cómo el desierto de El Ejido ha ido cubriéndose de plástico? ¿O cómo la valla de Melilla dibuja una frontera que antes era indistinguible? ¿O cómo brota en el mapa el aeropuerto de Castellón como si fuera una seta en otoño? ¿O cómo han crecido Valencia y su puerto desde 1984? ¿O cómo en Rivas Vaciamadrid aparece una ciudad sobre los sembrados?

El mar de plástico de los invernaderos de El Ejido. Imagen de Google.

El mar de plástico de los invernaderos de El Ejido. Imagen de Google.

Google acaba de actualizar la herramienta Timelapse de Google Earth Engine, un sistema creado en 2013 que muestra la progresión del paisaje desde 1984 hasta 2016 combinando más de cinco millones de imágenes tomadas por cinco satélites con participación de la NASA, la ESA y el Servicio Geológico de EEUU.

La nueva actualización recién publicada incluye cuatro años más de imágenes y nuevas fotografías actuales que aumentan la resolución de las vistas. El nivel de detalle no es comparable al de Google Earth, así que olvídense de ver cómo se construyó su casa. Pero es suficiente para apreciar los grandes cambios que transforman el paisaje.

Lo que traigo aquí son algunos ejemplos destacados en distintos lugares de España donde el cambio ha sido especialmente intenso, pero Timelapse da para pasar una tarde recorriendo el planeta y contemplando cómo surgen las ciudades en las arenas de los Emiratos Árabes, cómo Las Vegas devora el desierto circundante, cómo se reducen los glaciares o cómo el mar de Aral va secándose a causa del masivo proyecto de irrigación emprendido por la antigua URSS. Los responsables de Google Earth Engine han publicado vídeos con algunos de los ejemplos más brutales en su canal de YouTube.

Para ver las animaciones hay que pulsar el botoncito de “play” en el rincón inferior izquierdo. Bajo el cartel del año hay otro mando para regular la velocidad.

La “ciudad del Pocero” de Seseña aparece con forma casi triangular, lamiendo por la derecha la también nueva autopista R-4. Al otro lado de esta carretera surge el cementerio de neumáticos que ardió la pasada primavera.

El crecimiento del mar de plástico en El Ejido:

La valla de Melilla:

Valencia y su puerto:

Aeropuerto de Castellón:

Rivas Vaciamadrid, una de las ciudades españolas que más han crecido en las últimas décadas:

Selección antinatural: el mosquito del metro y elefantes sin colmillos

Ay, los humanos… Si nos paramos a pensarlo, no tiene nada de raro que nos hayamos convertido en una fuerza directora de la evolución biológica en el planeta. No solo somos una especie depredadora dominante, o la especie depredadora dominante, sino que además modificamos profundamente nuestro entorno y por tanto su ecología, levantando o allanando barreras, transformando radicalmente los ecosistemas y prendiendo así un reguero de pólvora que acaba volando por los aires el orden natural. Como resumía una revisión publicada el pasado junio, “los humanos condicionan una evolución rápida a través de la relocalización, la domesticación, la caza y la creación de nuevos ecosistemas”.

Pero no, no. Tranquilos, unos, lo siento, otros, pero no voy a sumarme a la corte plañidera que denuncia lo nocivos que somos y que desea nuestra pronta extinción. Los humanos somos tan capaces de lo sublime como de lo terrible, y aún podemos hacer el esfuerzo, individual y colectivamente, de potenciar lo primero evitando lo segundo. Quienes denostan la influencia de los humanos en el planeta deberían preguntarse si estarían dispuestos a renunciar a todo lo que esa influencia les ha legado. Incluyendo, en primer lugar, la posibilidad de su propia existencia.

En cuanto a esas transformaciones del mundo, si a veces las miráramos con una cierta perspectiva, aprenderíamos a verlas no como las vemos hoy, sino como las verán nuestros tataranietos. Cuando se construyó la Torre Eiffel, a finales del XIX, hubo una corriente de académicos y artistas de primera fila que se opuso con fiereza, calificando la torre de inútil, monstruosa, ridícula, bárbara, odiosa… Incluso dicen que Maupassant comía todos los días en su restaurante porque era el único lugar de París desde el que no se veía la torre.

Pero centrándonos en la biología, esa relación entre depredador y presas ha venido actuando como fuerza motriz de la evolución desde el principio de los tiempos. Incluso tal vez desde el origen de nuestras células. Si la teoría de la endosimbiosis o simbiogénesis de Lynn Margulis es correcta (y hoy se piensa que lo es), la célula eucariota (la nuestra) apareció cuando dos células procariotas decidieron que les iría mejor si una vivía dentro de la otra, aportando energía y recibiendo protección. De aquel acuerdo biológico proceden nuestras mitocondrias, los generadores de la célula. Pero algunos biólogos evolutivos piensan que no hubo tal acuerdo, sino una depredación: o bien un procariota se tragó al otro, o el otro invadió al uno.

Por otra parte, la ausencia de depredadores no es precisamente lo mejor para el equilibrio, como demuestran infinidad de ejemplos históricos. Quizá el más citado en las clases de biología sea el de los conejos europeos introducidos en Australia en el siglo XVIII. La escasez de depredadores llevó a que a mediados del siglo XX el país estuviera invadido por 600 millones de conejos, por lo que se decidió liberar el virus mixoma para controlarlos… Hasta que los conejos se hicieron inmunes, lo que llevó a sembrar el calicivirus que les provoca una enfermedad hemorrágica fatal. Pero en un mundo ya globalizado, estas enfermedades acabaron extendiéndose a otros continentes, por lo que hubo que crear una vacuna para proteger a los conejos de granja. Vacuna que, por cierto, se desarrolló aquí, en el Centro de Investigación en Sanidad Animal (CISA) de Valdeolmos.

Y por cierto, los efectos de la ausencia de depredadores son bien conocidos en lugares como la Sierra de Madrid, donde vivo. Quienes sacan a su perro para un tranquilo paseo nocturno a menudo se ven envueltos en un encontronazo inesperado con una piara de jabalíes, bonitos pero muy destructivos y potencialmente peligrosos.

Sobre el poder del ser humano como director de la evolución biológica, hay un ejemplo también clásico en los textos de biología, el de la polilla del abedul Biston betularia. Estas mariposas que descansan en los abedules solían tener alas moteadas en gris, confundiéndose con la corteza de los árboles para evitar convertirse en comida de pájaros. Cuando nació la industria, los humos de las fábricas en Inglaterra comenzaron a oscurecer los abedules, y poco a poco las polillas de alas grises fueron reemplazadas por las variantes oscuras, que se camuflaban mejor en el nuevo aspecto de su entorno.

¿Sabían que el metro de Londres tiene su propia (sub)especie de mosquito? Durante la Segunda Guerra Mundial, cientos de miles de londinenses se refugiaron de los bombardeos alemanes en las estaciones subterráneas. Aquello llevó bajo tierra muchas de las plagas que dependen de los humanos para su subsistencia, incluyendo los mosquitos. Con el paso de las décadas y de cientos de generaciones, los mosquitos del metro, que no hibernan, fueron separándose de su especie original, Culex pipiens, hasta formar una especie (Culex molestus) o subespecie (Culex pipiens molestus) que no puede producir descendencia mixta con la original. Lo más extraño es que desde entonces se ha encontrado esta variante en otros túneles de metro del mundo, aunque su parentesco genético sugiere que se originó en Londres.

Ejemplar de Culex molestus, el mosquito del metro de Londres. Imagen de Wikipedia.

Ejemplar de Culex molestus, el mosquito del metro de Londres. Imagen de Wikipedia.

Mucho más alarmante es el caso de la presión selectiva que la caza furtiva está ejerciendo sobre los elefantes africanos. Un reportaje publicado esta semana en Nautilus llama la atención sobre el aumento de la proporción de elefantas sin colmillos. Este es un rasgo que aparece en una población minoritaria de hembras de forma natural, pero que podría estar aumentando. Ya en 2002, un censo en el Parque Nacional de Addo, en Suráfrica, revelaba que el 98% de las elefantas de la reserva carecían de colmillos.

En aquel caso, los autores del estudio sugerían que la presión selectiva no parecía justificar por sí sola el crecimiento de este rasgo, y que probablemente actuaba una deriva genética debida a un efecto cuello de botella en una población aislada y pequeña. Pero los expertos alertan de que, a falta de estudios fenotípicos y genotípicos más precisos, tiene todo el sentido que la presión de la caza esté favoreciendo la supervivencia y la reproducción de las hembras sin colmillos, que no tienen interés para los furtivos.

El pasado 29 de agosto, un grupo de trabajo presentó en el Congreso Geológico Internacional celebrado en Ciudad del Cabo (Suráfrica) la propuesta formal de una idea que lleva decenios circulando en la comunidad científica: declarar oficialmente concluido el Holoceno, el nombre que los libros de texto asignan al período geológico en el que actualmente vivimos, y adoptar la denominación de Antropoceno para la época que ha presenciado el ascenso del ser humano, con todo lo bueno y lo malo que ello conlleva.

Un nombre es mucho más que un nombre: el eslogan de la conservación no tiene discusión, pero a menudo provoca rechazo cuando se repite de forma machacona sin explicar los fundamentos en los que se asienta. Si desde pequeños aprendemos con datos y ejemplos concretos cuál es la influencia transformadora de nuestra actividad en este planeta, tal vez se comprenda mejor que tenemos entre manos un material muy sensible.

EEUU pone coto a la homeopatía obligándola a reconocer su inutilidad

Tengo la convicción de que la mayoría de quienes consumen homeopatía lo hacen por desconocimiento. Entiéndase: todos lo hacen por desconocimiento, ya que están consumiendo un simple placebo al que atribuyen propiedades curativas más allá del efecto placebo. Lo que quiero decir es que, intuyo, quienes realmente conocen y aclaman los absurdos principios de la homeopatía son una minoría; el resto creen estar consumiendo algo diferente de lo que realmente están tomando, y muchos de ellos se quedan de piedra cuando conocen la verdad.

Un producto homeopático. Imagen de Wikipedia.

Un producto homeopático. Imagen de Wikipedia.

Extraigo esta conclusión de la pequeña muestra de mi entorno. Si preguntan a algún consumidor de homeopatía que les explique en qué consisten esos productos y cuáles son sus ventajas, probablemente su respuesta se basará en estas dos ideas:

  • La homeopatía es una medicina tradicional, cuya eficacia viene avalada por miles de años de sabiduría popular colectiva.
  • La homeopatía es una medicina natural que emplea hierbas en lugar de productos químicos.

Cuando se quedan de piedra es cuando se les hace saber que ninguna de estas dos ideas se corresponde con la realidad:

  • La homeopatía NO es una medicina tradicional. La inventó un señor concreto con nombre y apellidos, el alemán Samuel Hahnemann, en un año concreto, 1796, cuando aún no se conocían las causas de muchas enfermedades ni se disponía de tratamiento para ellas.
  • La homeopatía NO es el uso de plantas medicinales. Beber una infusión de tila para calmar los nervios NO es homeopatía. Tomar vahos de menta para la congestión NO es homeopatía.

(Nota: la medicina, la de verdad, hunde sus raíces más profundas en el uso ancestral de productos naturales con fines terapéuticos. La farmacología moderna nace cuando la ciencia hace posible aislar los principios activos de estos remedios, identificarlos, recrearlos, sintetizarlos y mejorarlos. Medicamentos como la quinina o la aspirina no cayeron de otro planeta ni se inventaron en las probetas de un científico loco, sino que se descubrieron y se extrajeron de las plantas en primer lugar.)

¿Qué es entonces la homeopatía? Hahnemann creía que las enfermedades estaban causadas por unas entidades misteriosas llamadas miasmas, un término que todavía se empleaba en tiempos de mis abuelos. Las miasmas explicaban para Hahnemann el origen de enfermedades muy variadas cuyas causas concretas aún no se conocían, ya fuera sífilis, cáncer, cataratas o epilepsia. Para tratar estas diversas dolencias, Hahnemann formuló los dos alucinatorios principios fundacionales de la homeopatía:

  • Lo similar cura lo similar: una sustancia que provoca una enfermedad en personas sanas cura esa misma dolencia en los enfermos. Hahnemann llegó a esta disparatada conclusión cuando padeció fiebre tras comer la corteza de la quina, propuesta como remedio contra la malaria.
  • Dilución límite: dado que las dosis altas de las sustancias podían agravar los síntomas, decidió diluirlas sucesivamente en agua con la idea (contraria a la evidencia y al sentido común) de que, a menos dosis, más eficacia. La homeopatía utiliza diluciones tan elevadas de las sustancias de partida que matemáticamente no queda ni una sola molécula de ellas en el agua.

En resumen: los preparados homeopáticos líquidos son solo agua. Cuando se presentan en forma de pastillas, se añade azúcar para que tengan un sustrato sólido. La idea de que los productos homeopáticos son naturales tiene en el fondo una verdad irónica, ya que no hay nada más natural que el agua. Las sustancias de partida son preferentemente (no siempre) de origen natural, ya que en tiempos de Hahnemann no las había de otra clase. Poco importa, ya que en cualquier caso no están presentes en el preparado final que es simplemente agua milagrosa, pero más cara que la de Lourdes.

Todo lo cual, por cierto, me lleva a una reflexión. Algunas organizaciones escépticas han escenificado los llamados suicidios homeopáticos, ingestiones masivas de estos productos para demostrar que carecen de ningún principio activo. Pero si se me permite la ironía, tal vez debería hacerse lo contrario: si la homeopatía afirma que a menor dosis, mayor efecto, los suicidios deberían llevarse a cabo tomando los preparados aún mucho más diluidos de como vienen de fábrica, y en cantidades infinitésimas; idealmente, como en aquel Dry Martini de Buñuel, dejar que un rayo de sol atraviese el frasquito antes de impactar en la boca debería ser mortal de necesidad.

Algo que nunca he podido comprender es bajo qué justificación las farmacias venden estos productos. Algún amigo farmacéutico me ha confirmado que la (o al menos su) carrera de Farmacia no incluye ninguna enseñanza sobre homeopatía. Pero si algún farmacéutico licenciado tratara de excusarse en este vacío formativo para no descalificar la validez de esta seudociencia, el pretexto no sirve: la ciencia que sí aprendió durante su carrera es suficiente para certificar la absoluta inutilidad de los preparados homeopáticos.

Especialmente, esto me choca con la función que los farmacéuticos defienden para sí mismos como asesores expertos en materia terapéutica. Siempre que a alguien se le ocurre levantar la mano para preguntar por qué aquí las gasolineras y los supermercados no pueden despachar medicamentos sin receta, como ocurre por ejemplo en EEUU, los cuerpos y fuerzas del sector farmacia saltan de inmediato con la cantinela de la asesoría experta. ¿Asesoría experta, alguien que vende agua milagrosa?

Dicen algunas malas lenguas que el margen comercial de estos productos es superior al de los medicamentos, y que las grandes multinacionales de la homeopatía se ocupan de mimar a los farmacéuticos con atenciones –llamémoslas– extracurriculares. Ignoro si será cierto. Por mi parte, y dado que no es fácil encontrar farmacias que no dispensen homeopatía, al menos evito aquellas que la publicitan en sus rótulos, e invito a cualquier consumidor concienciado con el fraude comercial y sanitario a que haga lo mismo.

Por todo ello, la lucha contra el gran negocio fraudulento de la homeopatía está en la información al consumidor. Por mi parte, he conseguido que algún despistado con esa idea errónea de la “medicina tradicional natural” renuncie para siempre a la homeopatía. Es obvio que a los practicantes de esta seudociencia y a las compañías que fabrican sus productos no les interesa nada la divulgación de los fundamentos reales de sus negocios.

Y en cuestión de información, la Comisión Federal de Comercio de EEUU (FTC) acaba de dar un paso ejemplar. En un nuevo dictamen, el organismo regulador estadounidense obligará a los productos homeopáticos a que justifiquen sus proclamas del mismo modo que los medicamentos. Estos están siempre sometidos a rigurosos ensayos que demuestran su eficacia; sin embargo, hasta ahora los preparados homeopáticos podían venderse en EEUU con todas las indicaciones que a su fabricante le apeteciera inventarse sin ninguna obligación de justificar su utilidad, bajo el amparo de una regulación de 1988 de la Administración de Fármacos y Alimentos (FDA) que así lo permitía.

Esto se acabó: la FTC recuerda que sus estatutos prohíben la publicidad de falsas proclamas en la información comercial sobre productos y que por tanto deben aportarse justificaciones razonables. Sin embargo, el organismo reconoce que durante décadas se ha producido una dejación de estas exigencias que debe corregirse.

“La homeopatía, que data de finales del siglo XVIII, se basa en la idea de que los síntomas de enfermedad pueden tratarse con dosis diminutas de sustancias que producen síntomas similares cuando se suministran en dosis mayores a personas sanas”, dice la FTC. “Muchos productos homeopáticos se diluyen en tal grado que no contienen niveles detectables de la sustancia inicial. En general, las proclamas de los productos homeopáticos no se basan en métodos científicos modernos y no son aceptadas por los expertos médicos modernos, pero no obstante la homeopatía tiene muchos seguidores”.

La FTC no obligará a los productos homeopáticos a nada más ni nada menos que lo obligado para los medicamentos: justificar que funcionan; y si no pueden, confesarlo en sus envases y prospectos. “La promoción de un producto homeopático para una indicación que no esté fundamentada en pruebas científicas creíbles y competentes puede no ser un engaño si tal promoción comunica de forma efectiva a los consumidores que (1) no hay pruebas científicas de que el producto funcione y (2) las proclamas del producto se basan solo en teorías de homeopatía del siglo XVIII que no son aceptadas por la mayoría de los expertos médicos modernos”.

Resulta curioso que tenga que ser la FTC y no la FDA quien ponga coto a la homeopatía, pero se trata de un asunto siempre delicado, lleno de resquicios legales por los que esta seudociencia suele colarse aprovechando la completa inocuidad de sus productos y acogiéndose a las políticas que protegen la libertad de información comercial. La FTC precisa que su dictamen es compatible con la regulación de la FDA y con la Primera Enmienda de la Constitución de EEUU, que garantiza la libertad de expresión. Esperemos que los efectos de esta nueva normativa se noten pronto, y que cunda el ejemplo en otros países.

EmDrive: publicado, pero aún sin explicación válida

Justo al día siguiente de mi anterior artículo sobre el EmDrive, lo que circulaba como un rumor fundado se hizo realidad: el estudio del equipo de NASA Eagleworks se ha publicado en la edición digital de la revista Journal of Propulsion and Power (JPP). Su versión en papel aparecerá en el número de diciembre.

Es necesario recordar que no es el primer estudio publicado que valida el funcionamiento del EmDrive; el equipo de Eagleworks ya había presentado resultados en un congreso hace dos años, pero estas comunicaciones no están sujetas al filtro de revisión por pares de las revistas. En cambio, sí lo estuvieron los estudios publicados respectivamente por el equipo chino dirigido por Yang Juan y por los alemanes Tajmar y Fiedler.

Uno de los sistemas EmDrive construidos por el equipo de Eagleworks. Imagen de White et al, JPP.

Uno de los sistemas EmDrive construidos por el equipo de Eagleworks. Imagen de White et al, JPP.

También conviene recalcar lo que ya he explicado antes: que los científicos de Eagleworks, dirigidos por Harold Sonny White, validen el funcionamiento del EmDrive, no implica que la NASA como institución respalde estos resultados, ni mucho menos la explicación que los autores aportan. Eagleworks es un poco a la NASA lo que el Equipo A al Pentágono. La agencia se ha mantenido siempre bien al margen de las proclamas de White, llegando incluso a prohibirle el contacto con los medios (nota periodística: por este motivo mi anterior artículo se titulaba “Científicos de la NASA…” y no “La NASA…”).

Además, insisto en que la publicación de los resultados con estas bendiciones oficiales significa lo que significa, y no más: que el estudio es formalmente correcto respecto a los resultados que se detallan, con las limitaciones que se especifican y las conclusiones directas que pueden derivarse de ellos.

Durante estos días se rumoreaba que el Instituto Estadounidense de Aeronáutica y Astronáutica, que edita la revista JPP, habría aceptado publicar el estudio solo a condición de que White y sus colaboradores aceptaran retirar su explicación del efecto EmDrive basada en una interpretación alternativa y minoritaria de la física cuántica que ni siquiera para sus propios defensores necesariamente justifica el funcionamiento del EmDrive.

Pero esto no tenía ningún sentido; todo científico sabe para qué sirve el apartado de discusión en un estudio. Sería absurdo aprobar los resultados de un trabajo, censurando al mismo tiempo las especulaciones que sus autores puedan verter en el espacio específicamente abierto para ello. Finalmente el estudio se ha publicado esencialmente completo respecto a la versión sin revisar filtrada antes en internet.

En resumen: ¿significa esto que el EmDrive funciona? Una pregunta aún sin respuesta definitiva, pero que sí puede descomponerse en otras más precisas:

¿El EmDrive produce una fuerza? Sí, al menos una fuerza aparente. Tres grupos de investigación distintos han publicado resultados mostrando que es así. Y eso sin contar los experimentos de los propios inventores del sistema, Roger Shawyer y Guido Fetta, que se han hecho públicos pero no se han publicado formalmente (nótese el matiz). Poner en duda los resultados de un equipo de investigadores cuestiona su honestidad o su competencia profesional; poner en duda los resultados de tres equipos independientes cuestiona la honestidad o la competencia profesional de quien los pone en duda.

¿Esa fuerza podría emplearse como propulsión? Tal vez, pero aún no puede confirmarse al cien por cien. En su estudio, White y sus colaboradores mencionan como principales objeciones un posible desplazamiento del centro de gravedad del cono o una expansión térmica, que es mayor en el vacío (donde se han hecho los experimentos del nuevo estudio) que en el aire, mientras que la señal del impulso es igual en ambos medios. Pero aunque han hecho todo lo posible por descartar estos efectos parásitos, el sistema tiene una limitación intrínseca por el mero hecho de estar atornillado al suelo por dos lugares. Los investigadores esperan diseñar un nuevo sistema con mayores grados de libertad para poder desechar definitivamente estas posibles interferencias. Sin embargo, si la señal fuera enteramente un falso positivo debido a alguno de estos efectos, sería chocante que los experimentos independientes con diferentes diseños no hubieran llegado ya a esta conclusión.

¿Expulsa propelente el EmDrive? No, al menos un propelente formado por materia. Sé que suena a perogrullada; pero como menciono más abajo, una hipótesis pretende explicar el funcionamiento del EmDrive mediante la expulsión de fotones a través del extremo cerrado del cono. Pero los fotones no tienen masa, por lo que no son materia. Al menos, no tienen masa en reposo, claro que un fotón nunca está en reposo…

¿Consume combustible el EmDrive? No. La fuente nuclear que alimentaría el generador de microondas es un consumible, pero no un combustible. Incluso es posible que en ciertos casos el magnetrón pudiera alimentarse solo con energía solar. A comienzos de este año, la sonda Juno de la NASA batió el récord del aparato más alejado del Sol alimentado por paneles solares, rompiendo la marca anterior de 792 millones de kilómetros establecida por la europea Rosetta. Deberán ser los ingenieros quienes valoren en qué casos la energía fotovoltaica sería suficiente para alimentar un generador de microondas; que yo sepa, White solo ha hablado de emplear energía nuclear.

¿Viola el EmDrive las leyes de la física? No. Nada puede violar las leyes fundamentales de la naturaleza. Pero si funciona, significa que la teoría está incompleta, y habrá que encontrar una nueva manera de explicar la realidad. Como conté recientemente a propósito de la materia oscura, no es la primera vez que esto ocurre en la historia de la ciencia, ni será la última.

Entonces, ¿cómo se explica la aparente violación de la conservación de la cantidad de movimiento (p)? Repaso brevemente, a riesgo de dejar alguna fuera, las cinco principales hipótesis que se han aportado para explicar el funcionamiento del EmDrive:

1. Presión de radiación

Shawyer, el inventor del sistema, afirma que el EmDrive genera propulsión por el empuje de los fotones de la radiación de microondas sobre el extremo cerrado del cono, por el mismo principio en el que se basan los veleros espaciales; no las velas solares, que se impulsan por el viento solar (partículas cargadas), sino las fotónicas. Pero la inmensa mayoría de los físicos rechazan esta explicación, porque es como empujar un coche desde dentro. O como me recordaba con mucho acierto un/a usuario/a en Twitter, como el barón de Münchhausen, que escapó de una ciénaga tirando de su propia coleta. En este caso habría una clara violación de la conservación de p. Shawyer sostiene que no es así; de hecho, hace tiempo me aseguró en un email que “el EmDrive claramente obedece las leyes de Newton, tanto teórica como experimentalmente, según muestran los resultados de las pruebas dinámicas; así que no viola la conservación de la cantidad de movimiento”. Pero hasta donde sé, no ha explicado cómo.

2. Fotones como propelente

El pasado junio, un equipo de investigadores finlandeses publicó un estudio (revisado por pares) que atribuye la propulsión del EmDrive a la expulsión de fotones que actúan como propelente. Según la peculiar visión de Patrick Grahn y sus colaboradores, sí existe un combustible, las microondas, y un propelente, los fotones. Grahn afirma que el emparejamiento de las partículas en fases opuestas produce una interferencia destructiva que cancela su radiación electromagnética, pero los fotones no se destruyen, sino que escapan del extremo cerrado del cono siendo indetectables como ondas y actuando como propelente. Los fotones tienen una cantidad de movimiento debida solo a su energía, pero la hipótesis de Grahn requiere asumir que de esta p se deriva una masa teórica en movimiento, que vendría aportada por el generador de microondas y que escaparía del cono hacia el exterior, moviendo el propulsor por una simple acción-reacción. Todo lo cual resulta inaceptable para la gran mayoría de los físicos.

3. Radiación Unruh

Esta es una primera hipótesis que se basa en la energía del vacío, en el marco de la física relativista. Ya la expliqué con detalle anteriormente. Como en el caso anterior, la teoría requiere adjudicar una masa relativística a los fotones. Pero aunque el efecto en el que se fundamenta no se ha descartado, y de hecho podría contemplarse como una forma particular de la radiación de Hawking que desprenden los agujeros negros, tampoco se ha corroborado de forma convincente. Hasta ahora, la idea propuesta por el físico Mike McCulloch no ha calado en la comunidad científica. Mi impresión puramente personal (como un no-físico y al margen de la discusión sobre el efecto Unruh) es que justificar el funcionamiento del EmDrive por el efecto Unruh es un poco como matar moscas a cañonazos, cuando además ni siquiera está claro que los cañonazos existan.

4. Empuje desde el vacío cuántico

White explica el funcionamiento de su sistema también por energía del vacío, pero en el contexto cuántico. La hipótesis se basa en el vacío cuántico, el estado más bajo de energía de un sistema cuántico (digamos, una visión energética de lo que se entendería como vacío normal). Esta energía no es cero, lo que puede explicarse por la acción de las oscilaciones de partículas virtuales. Este mecanismo se ha utilizado para explicar el efecto Casimir de la teoría cuántica de campos, según el cual existe una fuerza medible –de atracción o repulsión según la configuración del sistema– entre dos placas conductoras separadas por una pequeña distancia en el vacío. El problema con la explicación de White es que nadie se la cree: para la mayoría de los físicos, es imposible extraer energía aprovechable como propulsión a partir del vacío cuántico; no se puede extraer p de él, ya que no es un marco de referencia fijo desde el que empujar, así que estamos otra vez en el caso del barón de Münchhausen y su coleta.

Sin embargo, White justifica su hipótesis basándola en una teoría alternativa de la física cuántica. Todo lo que han oído mencionar sobre el extraño comportamiento de las partículas, como la paradoja del gato de Schrödinger o el experimento de la doble ranura, se basa en la llamada interpretación de Copenhague, la que prima hoy en física. Según esta teoría, las partículas no tienen una posición fija, sino que se comportan como nubes de probabilidad (por ejemplo, a lo largo de dos caminos alternativos y mutuamente excluyentes) hasta que un observador las mide, rompiendo la onda y bloqueando las partículas en una posición. Esta interpretación probabilística de la cuántica no gustaba nada a Einstein; como mencioné hace unos días, en una ocasión le preguntó a su biógrafo Abraham Pais si creía que la luna solo existía cuando alguien la miraba.

En los años 20 del siglo pasado, Louis de Broglie propuso una interpretación alternativa, la teoría de la onda piloto, que David Bohm completó en lo que hoy se conoce como mecánica de De Broglie-Bohm. La teoría es realista; es decir, afirma que las partículas sí tienen una posición concreta en todo momento, con independencia de la presencia de un observador y guiada por su onda acompañante (onda piloto). Si no conocemos estas trayectorias, decía Bohm, no se debe a que no existan, sino a la existencia de variables ocultas que se nos escapan.

La teoría implica que la mecánica cuántica no es local; las partículas pueden estar físicamente alejadas entre sí, lo mismo que los objetos grandes sujetos al comportamiento de la física clásica. En los años 60, John Bell se acogió a la teoría de la onda piloto para explicar el entrelazamiento cuántico, la capacidad de dos partículas separadas de estar sincronizadas en sus propiedades. Aunque la teoría de De Broglie-Bohm continúa sin ser aceptada mayoritariamente, en los últimos años se han publicado varios experimentos que la respaldan. Y por ejemplo, el entrelazamiento cuántico en condiciones no locales ya ha sido suficientemente validado, como he contado aquí en ocasiones anteriores.

En concreto, White se apoya en la posibilidad de que las partículas reales del vacío cuántico puedan intercambiar cantidad de movimiento para defender que esta puede cosecharse y transmitirse: “sería posible aplicar/extraer trabajo en/de el vacío, y por tanto sería posible empujar desde el vacío cuántico preservando las leyes de la conservación de la energía y de la cantidad de movimiento”, escribe. Pero si la hipótesis de White fuera aceptada, que por el momento no lo es, esto supondría cambiar radicalmente de modelo de física cuántica; algo que hasta ahora no han conseguido validaciones más sólidas de la teoría de la onda piloto.

5. Efecto Mach

Una teoría desarrollada por el físico James Woodward en los años 90 propone que la energía interna de un cuerpo varía al acelerar; es decir, que no todo se traduce en energía cinética, sino que el objeto en movimiento almacena energía potencial absorbida de su entorno mediante la interacción con el campo gravitatorio que se opone a su movimiento (la inercia). Este enriquecimiento energético, sugiere Woodward, se traslada a cambios en la masa del cuerpo, y puede ordeñarse en forma de cantidad de movimiento que el objeto le ha robado previamente al universo, conservándose todo lo que tiene que conservarse.

La hipótesis es esencialmente compatible con la relatividad general; de hecho, la idea (más filosófica que física) del origen de la inercia como una influencia del resto del universo sobre un sistema local fue una inspiración para Einstein, que profesaba un gran respeto hacia su autor, el austríaco Ernst Mach. Sin embargo, el efecto Mach derivado por Woodward aún no ha sido validado de forma concluyente. Woodward afirma que su teoría podría aprovecharse para construir propulsores sin partes móviles ni propelente, y que es la explicación que mejor encaja con la física actual para explicar la señal del EmDrive.

La ciencia de EEUU tiembla ante Trump

En la vida real, a menudo ocurre que ganan los supervillanos. Sobre todo cuando los superhéroes no existen.

El pasado 18 de octubre, la revista Nature publicaba un curioso reportaje titulado “Los científicos que apoyan a Donald Trump”. La excientífica y periodista Sara Reardon contactaba con cinco académicos estadounidenses que por razones diversas pensaban entregar su voto al candidato republicano.

Donald Trump, durante la campaña presidencial de 2016. Imagen de Wikipedia.

Donald Trump, durante la campaña presidencial de 2016. Imagen de Michael Vadon vía Wikipedia.

Algunos de ellos y sus posturas ya eran conocidos, como el geofísico David Deming, distinguido (es un decir) por sus declaraciones sexistas y homófobas, además de por su defensa a ultranza de la libre posesión de armas y su negacionismo del cambio climático antropogénico. Con esta última tesis ya se habían alineado también públicamente el bioestadístico Stanley Young y el estadístico William Briggs. Young pertenece al panel de expertos del Instituto Heartland, un think tank ultraconservador próximo al Tea Party.

Por último, un químico y una bióloga, ambos partidarios de Trump, declaraban en el reportaje bajo condición de anonimato por miedo a la descalificación. Curiosamente, la bióloga reconocía que Trump podía perjudicar sus perspectivas profesionales, pero aun así mantenía su apoyo por motivos fundamentalmente religiosos.

Por entonces, una victoria de Trump era aún algo impensable. Pero sucedió.

Las reacciones de repulsa por parte del mundo científico se han sucedido desde el día de los resultados. Aunque la ideología política de los científicos en EEUU (y probablemente en otros países, incluyendo el nuestro) está mayoritariamente desplazada hacia la izquierda, no necesariamente la ciencia de aquel país ha vivido sus mejores momentos bajo mandatos demócratas. El conocido astrofísico y divulgador Neil deGrasse Tyson opina justo lo contrario, que la financiación de la ciencia ha sido históricamente mayor bajo las administraciones republicanas; claro que fue George W. Bush quien prestó el gran empujón a su carrera pública.

Pero es evidente que Trump no era un candidato republicano cualquiera, y que no será un presidente republicano cualquiera. Algunos lo han definido como el que será el primer presidente anti-ciencia. Son conocidas sus posturas contrarias a las pruebas científicas en asuntos como el cambio climático o las vacunas, aunque en esto último parece haberse moderado. Como mínimo, es probable que Trump trate de definir una agenda científica política dirigida a favorecer sus intereses, y que las únicas áreas legítimas provechosamente beneficiadas sean aquellas que materialicen su lema de “make America great again“; por ejemplo, la exploración espacial tripulada, pero posiblemente en detrimento de la ciencia espacial.

Claro que los demócratas tampoco pueden presumir de haberse ganado el favor de la comunidad científica. Entre no pocos investigadores de EEUU ha cundido una sensación de frustración con la administración Obama, que con el Congreso en contra no aumentó la financiación de la ciencia como había anunciado. Hillary Clinton apenas mencionó la ciencia a lo largo de su campaña, más allá del eslogan sobre el cambio climático, algo que ha decepcionado a muchos. Su jefe de campaña, John Podesta, que ya ejerció como jefe de personal de la Casa Blanca para Bill Clinton, tampoco es precisamente un campeón para los científicos, sino más bien para los ufólogos: su obsesión personal es la desclasificación de documentos relacionados con los ovnis.

Aún faltaba una reacción que estábamos esperando, y por fin ha llegado esta semana: la de Rush Holt, el primer directivo de la Asociación Estadounidense para el Avance de la Ciencia, editora de la revista Science. En un artículo editorial titulado “¿Qué le espera ahora a la ciencia?” y publicado en el número de esta semana, el máximo responsable de la revista científica más influyente del planeta (siempre en rivalidad con Nature) trata de apaciguar la inquietud de los investigadores; no porque Trump vaya a sufrir de repente ninguna mutación favorable, sino porque “los miembros del Congreso y otras autoridades nacionales, estatales, locales e internacionales también hacen políticas, y colectivamente constituyen una fuerza considerable que es en muchos aspectos más influyente que el presidente solo”, escribe el físico y excongresista demócrata.

Pero en lo que respecta al Congreso, Holt reconoce que los vaticinios no pueden ser prometedores, ya que la renovación de la mayoría republicana mantendrá la tendencia de los últimos años hacia los recortes en la financiación de la ciencia. Dado que en este campo no puede esperarse una mejora, al editor de Science le preocupa más que se garantice la presencia de una asesoría científica presidencial acreditada, una conquista política de la ciencia estadounidense que podría verse ahora en peligro. “¿Se basará la próxima administración en las pruebas?”, se pregunta Holt, destacando que durante su campaña “el candidato Trump hizo declaraciones sin fundamento o refutadas por los hechos científicos aceptados”. “¿Habrá miembros de la nueva administración que estén familiarizados con las prácticas y los descubrimientos de la investigación científica?”, escribe.

Holt aclara que “la ciencia no necesita ser políticamente partidista”, pero que sus actores y sus enseñanzas deben guiar la confección de las políticas para beneficio de toda la población a través del espectro ideológico. “Debemos dejar claro que una autoridad no puede hacer desaparecer lo que se sabe sobre el cambio climático, la violencia armada, la adicción a los opiáceos, el agotamiento de las pesquerías o cualquier otro asunto público iluminado por la investigación”, afirma.

Por último, el editor de Science confía en que el rechazo al establishment político manifestado por los votantes no se confunda con un rechazo a los hechos establecidos, y en que “el presidente Trump se base más en los hechos específicos que el candidato Trump”. Una esperanza que sin duda no es exclusiva del estamento científico, sino que está presente en millones de mentes en todo el mundo.

En fin, el editorial de Science se expresa con clara intención, aunque tal vez pecando de la tibieza del discurso institucional que probablemente no refleja el sentimiento mayoritario entre los miembros de la asociación a la que Holt representa. Es evidente que la primera comunidad científica del mundo, que acoge también a miles de investigadores extranjeros (muchos de ellos españoles), no debe arriesgarse a morder la mano que la alimenta, aunque esa mano sea la del supervillano. Gotham permanece a la espera, en un estado de calma tensa.

Plutón tiene un océano granizado bajo el suelo

Antiguamente se hablaba de los Siete Mares para decir que alguien había recorrido todo el mundo a lo largo y a lo ancho. Pero naturalmente, todos los océanos de la Tierra son uno solo. Hoy podríamos volver a hablar de los Siete Mares, pero serían estos: Tierra, Ceres, Europa, Calixto, Ganímedes, Titán, Encélado, Rea, Dione, Mimas, Titania, Oberón, Tritón, Plutón, Eris, Sedna… Y posiblemente, más.

Definitivamente, salen más de siete, y es que el agua líquida parece ser mucho más abundante en el Sistema Solar de lo que jamás se había sospechado. En todos esos satélites, asteroides o planetas enanos con gran cantidad de hielo se sospecha también con mayor o menor fundamento que existen océanos líquidos bajo sus costras heladas.

Y llamarlos océanos no es ni mucho menos una exageración: quienes se han dejado convencer por ese tópico de que la Tierra es un planeta acuático, no se pierdan este gráfico publicado por Business Insider que pone las cosas como son: comparativamente, la Tierra es solo una roca mojada, como una naranja con la cáscara húmeda. Europa, satélite de Júpiter, tiene el doble de agua (líquida + hielo) que nuestro planeta. Pero es que Ganímedes, también luna de Júpiter, tiene nada menos que 39 veces más agua que la Tierra, en un mundo cuyo diámetro es más o menos un 50% mayor que el de nuestra Luna.

Representación de un corte de Plutón. La capa de azul claro es la corteza helada, y la de azul oscuro es el océano interior. Imagen de Pam Engebretson / UCSC.

Representación de un corte de Plutón. La capa de azul claro es la corteza helada, y la de azul oscuro es el océano interior. Imagen de Pam Engebretson / UCSC.

Les prometí una noticia fresca, más bien glacial, de nuestro Sistema Solar, y aquí está: nos llega desde Plutón. Aunque los científicos ya sospechaban la existencia de un océano bajo su superficie, la revista Nature publica hoy nuevas pruebas a favor de ello en dos estudios (uno y dos) que analizan los datos tomados el pasado año por la sonda New Horizons y los combinan con modelos matemáticos para llegar a una conclusión: el famoso corazón, la región más distintiva de la fisonomía plutoniana, esconde muy probablemente un océano de agua con algún anticongelante, posiblemente amoníaco, que le daría una textura viscosa, algo parecido a un granizado.

Para llegar a esta conclusión, los investigadores han modelado la dinámica del planeta para explicar la curiosa observación de que el corazón, llamado región de Tombaugh, se sitúa siempre en posición exactamente opuesta a la luna Caronte. Plutón y el mayor de sus satélites están en mutuo acomplamiento de marea, lo que significa que ambos se muestran siempre la misma cara el uno al otro. En el caso de la Tierra, la Luna está en la misma situación respecto a la Tierra (y por eso vemos siempre la misma cara), pero no al contrario.

Los investigadores concluyen que existe una anomalía de masa en la región de Tombaugh que produjo esta situación. El impacto de un objeto espacial produjo una depresión de 1.000 kilómetros de anchura llamada Sputnik Planitia, que causó un abombamiento del océano bajo la superficie. Posteriormente la llanura se llenó de nitrógeno congelado, y la combinación de estos efectos provocó que Plutón se alineara con Caronte de modo que la Sputnik Planitia queda exactamente en línea con el satélite, pero en la cara opuesta a él.

Y surge la pregunta: ¿habrá vida en el océano de Plutón? ¿De Europa? ¿De Ganímedes? Hoy no tenemos otra respuesta salvo que no es descartable. En la Tierra tenemos microorganismos que crecen allí donde el agua alcanza nuestras temperaturas más bajas. En Plutón los límites son diferentes, y por supuesto que las temperaturas del océano plutoniano serían inimaginables para nuestros microbios más amantes del frío. Pero algunos organismos han desarrollado evolutivamente sus propios anticongelantes naturales para mantener el agua de sus células en estado líquido. Y donde hay agua líquida, hay siempre una esperanza de vida.

 

Científicos de la NASA confirman que el “propulsor imposible” EmDrive funciona

Si esto fuera cierto, lo cambiaría todo. Ya, ya. Pensarán que esta frase se manosea demasiado para vender expectativas infladas sobre casi cualquier cosa, desde los cereales con chocolate hasta la última oferta de tarifas para móviles. Pero créanme: les aseguro que, si esto finalmente llega a confirmarse sin ningún género de dudas, la física y la ingeniería aeroespacial van a tener que replantearse algunos de sus fundamentos básicos, que se remontan hasta el día en que Einstein le preguntó a su biógrafo si creía que la luna solo existía cuando la mirábamos.

Desde hace unos años se viene hablando del llamado EmDrive o propulsor de cavidad resonante de radiofrecuencia. Se trata de un tipo de motor (o más bien, no-motor) que permitiría emprender largos viajes por el espacio a velocidades hoy inimaginables, sin emplear ni una sola pieza mecánica móvil que pueda desgastarse o romperse, sin consumir combustible de ninguna clase y sin expulsar ningún tipo de propelente. En resumen, el sueño más salvaje de la ciencia ficción.

El EmDrive. Imagen de SPR.

El EmDrive. Imagen de SPR.

El EmDrive fue ideado por el ingeniero británico Roger Shawyer, que a principios de este siglo creó una empresa destinada a desarrollarlo. Pocos años después, el ingeniero estadounidense Guido Fetta creó independientemente un concepto similar llamado Cannae Drive. En esencia, el EmDrive consiste en algo tan simple como un cono metálico truncado en cuyo interior se hacen rebotar microondas, un tipo de ondas de radio; o sea, luz (no visible). Supuestamente, es lo que les ocurre a estas ondas cuando rebotan en el interior del cono lo que produce la propulsión.

Solo hay un pequeño gran inconveniente; y es que, de acuerdo a la física actual, es imposible que funcione. Un cohete se mueve gracias a la tercera ley del movimiento de Newton, el principio de acción y reacción: quema un combustible, expulsa un propelente en una dirección y esto lo impulsa en sentido contrario. Esta ley fundamental de la física debe respetarse en todos los casos: cuando un velero avanza, lo hace como reacción a la fuerza que impacta sobre sus velas. En los barcos es el viento atmosférico, mientras que las naves espaciales pueden aprovechar el viento solar de partículas cargadas o el empuje de los fotones por la llamada presión lumínica.

Pero está claro que no podemos mover un barco empujando las velas desde la cubierta, igual que no podemos empujar un coche desde dentro sin un punto de apoyo exterior. Esta imposibilidad se describe por la recreación de la ley de Newton en el principio de conservación de la cantidad de movimiento, cuyo fundamento básico puede resumirse de la forma más simple en que, para que algo se mueva, otra cosa tiene que cederle ese movimiento. Y no parece que la luz rebotando dentro de un cono pueda mover a nada más que el aburrimiento. En resumen, la idea del EmDrive es parece una aberración inviable.

Pero si de ninguna manera esto puede funcionar, ¿qué sentido tiene seguir discutiendo? El problema es que el propulsor imposible parece empeñarse una y otra vez en negar la teoría. No solo Shawyer y Fetta insisten en que su motor produce una propulsión, pequeña pero real; los mismos resultados se han obtenido en China y en Alemania. Pero sin duda, lo que más revuelo ha causado es la confirmación de estos resultados en un laboratorio bastante oscuro del Centro Espacial Johnson de la NASA llamado Eagleworks, tan marginal que ni siquiera (que yo sepa) tiene apenas sitio en el dominio web de la agencia, sino solo una página en Facebook.

Todo físico que aspire a seguir siendo considerado como tal negará hasta la tortura que el EmDrive pueda hacer otra cosa que decorar un salón. Y por ello, cuando hace un par de años los científicos de Eagleworks se plantaron en un congreso afirmando que el propulsor funciona, la reacción de la comunidad no fue precisamente el aplauso. Incluso la NASA tuvo que desmarcarse de los resultados de Eagleworks, adhiriéndose a la fe pura y prohibiendo a los responsables del laboratorio todo contacto con los medios.

Pero como he explicado alguna vez aquí, los congresos son foros donde a menudo se presentan resultados en caliente, aún sin suficiente contrastación y sin validación por parte del resto de la comunidad científica. Solo cuando un estudio es formalmente revisado por otros expertos y publicado en una revista científica puede asumirse que sus conclusiones son válidas.

Hace unos días se ha filtrado (probablemente por parte de los propios responsables de Eagleworks) un estudio que pone a limpio los resultados de los investigadores de la NASA con el EmDrive. Y descartadas posibles objeciones, como la intervención de fuerzas parásitas o la interferencia del aire, los científicos de Eagleworks se ratifican en su conclusión: “el sistema funciona de forma consistente”, escriben.

Según el estudio, el EmDrive produce una fuerza de 1,2 milinewtons (mN) por kilovatio (kW). A primera vista podría no parecer una propulsión impresionante. Por ejemplo el llamado propulsor Hall, un motor de plasma que actualmente se investiga como alternativa prometedora a los actuales cohetes, genera 60 mN/kW, unas 50 veces más fuerza que el EmDrive. Pero la diferencia estriba en que este propulsor consume grandes cantidades de combustible. Y en cuanto a las opciones actuales de propulsión sin propelente, como las velas solares, solo alcanzan algo más de 6 micronewtons por kW; es decir, unas 200 veces menos que el EmDrive.

Pero sobre todo, hay que tener en cuenta que el impulso generado por el EmDrive debería ser, pura y simplemente, cero. Cualquier fuerza por encima de cero, por mínima que sea, podría ir sumando aceleración a una nave espacial hasta lograr velocidades increíbles; se ha calculado que la propulsión suministrada por el EmDrive, si realmente existe, podría poner una nave en Marte en 70 días, o llegar al sistema estelar Alfa Centauri en solo 92 años.

¿Y ahora, qué? Por supuesto que la discusión sobre el EmDrive no va a acabar aquí. Fetta ha anunciado que lanzará al espacio un Cannae Drive en un satélite para estudiar su comportamiento en condiciones reales. En cuanto al estudio de Eagleworks, aún debe pasar los filtros de publicación, aunque es de esperar que no sean un obstáculo; al fin y al cabo, anteriormente otros grupos ya han publicado formalmente resultados positivos con el EmDrive.

De hecho, antes de que el estudio se filtrara en internet ya circulaban rumores sugiriendo que el proceso de revisión se ha completado y que por tanto el trabajo se publicará próximamente, tal vez en la revista Journal of Propulsion and Power. Si los rumores son ciertos, ¿cómo reaccionará la NASA ante un estudio publicado en su nombre que sostiene una (aparente) violación flagrante de las (actuales) leyes de la física?

Claro que, si finalmente el EmDrive funciona, habrá que encontrar la manera de explicarlo sin que exista tal violación. Ya conté aquí una interesante hipótesis que sin embargo no ha sido favorecida por otros físicos. Pero los científicos de Eagleworks apuntan a una explicación incluso más audaz, que justifica lo que les decía al comienzo: el EmDrive amenaza con sacudir los cimientos fundamentales en los que se asienta la física cuántica actual. Mañana se lo contaré.

O mejor, pasado mañana; antes de eso les traeré aquí una noticia fresca, o más bien glacial, que nos descubrirá una nueva maravilla de nuestro Sistema Solar. No pierdan esta sintonía.

¿Superluna? No esperen nada espectacular

Será mejor dejarlo claro antes de que se lleven la decepción por ustedes mismos: sí, la luna llena de la noche del domingo al lunes será la más grande desde enero de 1948, y no volverá a estar tan cerca de nosotros hasta noviembre de 2034.

Pero si esperan un espectáculo sobrecogedor como en esas fotografías tomadas con teleobjetivo que muestran gigantescos discos lunares, desengáñense: esta noche la Luna estará a 348.400 kilómetros de nosotros, y la diferencia de estos especialmente cercanos perigeos (máximo acercamiento orbital) es como máximo de unos 160 kilómetros, una minucia en comparación con el abismo que nos separa.

Haciendo una grosera conversión de distancias, imaginen que están sentados en el sofá de casa viendo la tele exactamente a tres metros de distancia. Ahora acérquense al televisor 1,38 milímetros. ¿Lo ven más grande? Solo los ojos muy bien entrenados notarán la diferencia a simple vista.

Imagen de Pixabay.

Imagen de Pixabay.

Dicho todo esto, siempre es una buena ocasión para mirar al cielo y renovar nuestra sorpresa por las maravillas que nos presenta cada noche sin que habitualmente prestemos demasiada atención. Pásmense ante la luna, aunque no sea súper.

¿Pero por qué entonces hablan de “Superluna”? Eso pregúntenselo al astrólogo Richard Nolle. Repito: astrólogo. No astrónomo. Según cuentan por ahí diversas fuentes y confirma él mismo en su web, fue Nolle, astrólogo profesional certificado, quien en 1979 acuñó el término Superluna para la revista Dell Horoscope; cuyo último número, por cierto, nos ofrece una mirada a los tres planetas exteriores para entender “las tendencias en las finanzas globales, los avances tecnológicos, las crisis ideológicas y la geopolítica explosiva”.

Con este solemne acto de invención de palabras digno de Matías Martí, Nolle pretendía advertirnos de las “grandes tormentas, terremotos y erupciones volcánicas” causadas por estos perigeos lunares. Pero ¿hay algo de verdad en todo ello? Mareas más fuertes, seguro. En cuanto a lo demás, ha sido objeto de discusión durante largo tiempo.

Precisamente un estudio publicado en septiembre en Nature Geoscience correlacionaba datos sobre estrés mareal y seísmos, para concluir que “los grandes terremotos son más probables durante períodos de elevado estrés mareal”, añadiendo que “la probabilidad de que una diminuta grieta en la roca se expanda a una ruptura gigantesca aumenta con los niveles de estrés mareal”. Pero cuidado: los propios autores reconocían que “aún falta una clara relación causal entre los pequeños terremotos y la fase de estrés mareal”. En resumen, los autores no defienden que el abrazo gravitatorio de la luna provoque los temblores, sino que aquellos que tienen lugar coincidiendo con mareas más intensas (todos los días se producen terremotos) tienen mayor probabilidad de alcanzar niveles catastróficos.

Claro que, si hay que atribuirle a alguien la autoría original de todo esto, desde aquí reclamo la primicia para el maestro Fogerty, quien 10 años antes que Nolle ya nos advertía sobre el influjo de la luna en los terremotos, tormentas y huracanes.

Una nueva teoría de la gravedad prescinde de la materia oscura

Como sabe cualquiera que haya abierto una lavadora después del centrifugado, el giro tiende a expulsar las cosas hacia fuera. En la lavadora, son las paredes del tambor las que impiden que la ropa salga volando. Pero las galaxias, que también centrifugan, no tienen tambor; ¿qué es lo que evita que las estrellas salgan volando en todas direcciones?

Lo que mantiene una galaxia unida es la gravedad, que tiende a juntar las masas unas a otras. Es lo mismo que nos mantiene pegados al suelo. El problema es que, cuando los físicos calculan la masa de una galaxia, las cuentas no salen: la gravedad es demasiado baja como para compensar la inercia que tiende a dispersarla. Como conté ayer, la solución por la que se ha optado es suponer que la masa es realmente mucho mayor de lo que se ve, pero el resto es invisible: materia oscura. A más masa, más gravedad, y así todo cuadra.

Representación hipotética de la distribución de materia oscura (nube azul) en la Vía Láctea. Imagen de ESO/L. Calçada vía Wikipedia.

Representación hipotética de la distribución de materia oscura (nube azul) en la Vía Láctea. Imagen de ESO/L. Calçada vía Wikipedia.

Pero algunos físicos piensan que tal vez no sea necesario inventar un tipo de materia de la que hasta ahora no ha podido obtenerse ninguna prueba; que quizá la inercia sea menor de lo que sospechamos, o la gravedad sea mayor. Ayer conté un ejemplo de lo primero, una hipótesis que reduce el valor de la inercia. Otras propuestas se basan en un aumento del valor de la gravedad, asegurando que al menos en ciertos casos no se comporta como sospechamos.

La propuesta más conocida en esta línea fue desarrollada por el israelí Mordehai Milgrom en 1983, y se conoce como Dinámica Newtoniana Modificada, o MOND. En breve, lo que Milgrom propone es que el valor familiar proporcionado por Newton para la gravedad no funciona en escalas extremas, cuando la aceleración es enormemente baja o la distancia al centro de la galaxia es muy grande, como ocurre en las estrellas de la periferia. En estos casos la gravedad sería mayor de lo normal, compensando la inercia que tiende a dispersar la galaxia.

Un resultado similar –una gravedad mayor– se deriva de una nueva teoría propuesta ahora por el holandés Erik Verlinde, de la Universidad de Ámsterdam. Aunque en este caso, el punto de partida es completamente distinto. Verlinde comenzó su carrera bajo la dirección de Gerard ’t Hooft, conocido sobre todo (además de por su Nobel en 1999) como el creador del llamado Principio Holográfico.

El Principio Holográfico es una audaz propuesta según la cual el universo es la proyección de un holograma contenido en una esfera que lo rodea. La idea del holograma es la misma que conocemos de las tarjetas de crédito: una superficie de dos dimensiones que contiene información sobre un objeto tridimensional. Dado que el holograma tiene una dimensión menos que el objeto al que representa, en el caso del universo se trataría de un espacio tridimensional en un área bidimensional; o si añadimos el tiempo, un universo 4D en un espacio 3D, siendo el tiempo una de estas dimensiones.

El Principio Holográfico es una aplicación cosmológica de la Teoría de Cuerdas, un modelo emergente de la física que trata de conciliar la cuántica con la relativística, hasta ahora dos mundos separados. En cuántica no existe la gravedad, el concepto fundamental de la relatividad. En la Teoría de Cuerdas, la materia no está formada por esas bolitas con las que asociamos la imagen de las partículas subatómicas, sino por hilos de una sola dimensión que vibran de diferentes maneras para originar las diferentes clases de partículas. Una de esas partículas originadas por una de las muchas vibraciones posibles es el gravitón, la responsable de la gravedad, por lo que la Teoría de Cuerdas ofrece un modelo de gravedad cuántica que trata de desbrozar el camino hacia eso que habitualmente se conoce como Teoría del Todo.

El Principio Holográfico interesa a muchos físicos porque permite correlacionar dos teorías en principio muy distintas que se diferencian en una dimensión, lo que permite abordar problemas muy complejos en un marco mucho más sencillo. En el caso que nos ocupa, la ventaja es que la gravedad aparece en el universo como consecuencia de la información contenida en ese holograma.

Sin embargo, lo que propone Verlinde es una enmienda al modelo de su maestro: que en realidad el holograma es incompleto. Imaginemos uno de esos cuadros holográficos que se venden en los bazares, y supongamos que una parte de la imagen, por ejemplo la mano de un personaje, no estuviera representada en el holograma, sino que sobresaliera del cuadro como un objeto tridimensional real. Según Verlinde, al menos una parte de la gravedad no está codificada en el holograma, sino que surge intrínsecamente como una propiedad del tejido del espacio-tiempo, del mismo modo que la temperatura aparece como consecuencia del movimiento de las partículas.

En 2010 Verlinde publicó su teoría de la Gravedad Emergente, como se ha dado en llamar. Ahora, en un nuevo estudio la aplica a los movimientos de las estrellas en las galaxias, llegando a un sorprendente resultado: esa gravedad emergente explica la fuerza habitualmente atribuida a la presencia de la materia oscura. Es decir, que la desviación de la gravedad einsteniana en el caso de las grandes escalas se compensa cuando se introduce esa porción extra de gravedad oscura. No hace falta materia extra que no se ve, sino una fuerza extra que no se había calculado.

Tal vez piensen que sustituir la materia oscura por una gravedad oscura es como elegir muerte en lugar de susto. Pero lo cierto es que se trata de encontrar el origen de un balance de fuerzas que evidentemente existe. Ante el continuado fracaso en los intentos de detección de materia oscura, algunos físicos han llegado a sugerir que esta materia se encuentra escondida en otra dimensión, siendo la gravedad la única de las fuerzas fundamentales cuyos efectos son transversales a todas las dimensiones. Y esto no solo explicaría por qué la gravedad de la que tenemos constancia es tan débil (solo tendríamos constancia de una parte de ella), sino que encajaría con el universo de 11 dimensiones propuesto por una variante unificadora de la Teoría de Cuerdas llamada Teoría M. Pero la hipótesis de Verlinde prescinde por completo de la materia oscura, y es probable que algunos defensores de la Teoría de Cuerdas respirarían aliviados con esta solución.

Aún habrá que esperar para comprobar cómo la teoría de Verlinde es recibida por la comunidad física, y qué posibles objeciones plantearán los expertos. Pero como dije ayer, están surgiendo nuevas visiones alternativas que tal vez, solo tal vez, algún día podrían hacernos recordar con una sonrisa los tiempos en que teníamos inmensos, carísimos y complejos detectores buscando un tipo de materia tan invisible como –tal vez, y solo tal vez– inexistente.