Entradas etiquetadas como ‘física’

Tres millones de dólares para Jocelyn Bell, la astrofísica ignorada por el Nobel

Hace un par de años y medio conté aquí la curiosa historia del descubrimiento del primer púlsar (estrella de neutrones giratoria) y de cómo aquel hallazgo, publicado en 1968, llegó a ilustrar la icónica portada de uno de los discos más míticos de la historia musical reciente, Unknown Pleasures de Joy Division (1979).

Jocelyn Bell en 1967. Imagen de Roger W Haworth / Wikipedia.

Jocelyn Bell en 1967. Imagen de Roger W Haworth / Wikipedia.

En el devenir de aquel episodio científico, que abrió una nueva era para la astronomía, hubo una clara figura perdedora: la norirlandesa Jocelyn Bell (después Bell Burnell por matrimonio), la autora material del hallazgo. Bell recibió en su día una gran atención por parte de los medios británicos… consistente en preguntarle si tenía muchos novios o si era más alta que la princesa Margarita.

Unos años después, en 1974, el descubrimiento fue distinguido con el Premio Nobel de Física… para el supervisor de Bell, Antony Hewish. No solo se trata de que Hewish no había sido el artífice directo del descubrimiento; es que incluso el hallazgo fue posible gracias a que Bell y otros cuatro colaboradores habían pasado dos años construyendo el artefacto necesario para ello. Y no piensen en alta tecnología: allí cada becario recibía un kit de herramientas para clavar palos en una parcela de 18.000 metros cuadrados y tender 190 kilómetros de cable entre ellos. Así eran aquellos primitivos radiotelescopios.

En su día y desde entonces, la omisión de Bell en la concesión de aquel premio ha perdurado popularmente como un caso flagrante de machismo en el mundo de la ciencia. Pero ya aclaré que en realidad se trata de algo más complejo: Bell era la becaria, y con independencia de que fuera hombre o mujer, los comités de los Nobel casi nunca premian a los becarios por considerarlos meramente las manos del cerebro de su amo.

Lo cual, evidentemente, casi nunca es cierto. Pero el Premio Nobel es una institución privada y por lo tanto tiene todo el derecho a regirse por las normas que le parezca, por equivocadas que sean (ya he comentado aquí mil veces que hoy en día premiar a una sola persona por un hallazgo es un descomunal anacronismo) Y aunque las quejas por este criterio sean frecuentes, a muchos de quienes protestan por ello, en concreto a los becarios, habría que plantearles esta pregunta: ¿cuántos estarían dispuestos a que en el futuro sean sus becarios quienes se lleven el mérito? Todos los sistemas jerárquicos se perpetúan porque los de abajo acaban llegando arriba.

Por su parte, Bell atajaba las críticas hacia el fallo del premio con una humildad y una elegancia dignas de aplauso:

Es el supervisor quien tiene la responsabilidad final del éxito o el fracaso del proyecto. Oímos de casos en los que un supervisor culpa a su estudiante de un fracaso, pero sabemos que la culpa es sobre todo del supervisor. Me parece simplemente justo que él deba también beneficiarse de los éxitos. Pienso que los premios Nobel quedarían degradados si se concedieran a estudiantes de investigación, excepto en casos muy excepcionales, y no creo que este sea uno de ellos.

Existen estos casos excepcionales que mencionaba Bell. Uno reciente que me viene ahora a la memoria es el del Nobel de Medicina de 2009, que premió a Elizabeth Blackburn y a su becaria Carol Greider por el descubrimiento de la telomerasa, la enzima clave del envejecimiento celular. Blackburn relacionó el acortamiento de los telómeros (los extremos de los cromosomas) con la edad de la célula, pero la identificación de la telomerasa fue obra exclusiva de Greider, algo que el comité Nobel no pudo ignorar.

Pero en realidad, el papel de Greider en este hallazgo fue muy similar al de Bell en el suyo. Algo que nunca sabremos es si Bell habría recibido el premio junto a Hewish si su nombre de Jocelyn hubiera designado a un chico (curiosamente, este nombre en Francia es masculino, algo similar a la diferencia de uso de Andrea, que es femenino aquí y masculino en Italia).

Jocelyn Bell Burnell en 2015. Imagen de Silicon Republic / Wikipedia.

Jocelyn Bell Burnell en 2015. Imagen de Silicon Republic / Wikipedia.

En definitiva, y ya se debiera la omisión a su condición de mujer o de becaria, o a ambas, lo cierto es que el agravio del Nobel aún pedía una reparación, a pesar de que desde entonces Bell ha sido distinguida con altos honores y nombramientos, incluyendo la Orden del –ya inexistente– Imperio Británico.

La merecida reparación le ha llegado ahora a Bell en una forma de menor prestigio científico que el Nobel, pero que muchos de los nobeles cambiarían con gusto: los tres millones de dólares que otorga el Premio Especial Breakthrough en Física Fundamental. En comparación, la dotación del Nobel en cada categoría es de algo menos de un millón a repartir entre los premiados, que en ciencia suelen ser tres.

Los Premios Breakthrough fueron creados en 2012 por un grupo de magnates que incluye al físico y tecnólogo ruso-israelí Yuri Milner, al cofundador de Facebook Mark Zuckerberg y su mujer, Priscilla Chan, al cofundador de Google Sergey Brin, a la cofundadora de la empresa genómica 23andMe y exmujer de Brin, Anne Wojcicki, y al chino Jack Ma, cofundador del gigante de internet Alibaba. Es decir, un ramillete de empresarios con bolsillos sin fondo que decidieron dedicar parte de su fortuna a la promoción de la ciencia y la investigación tecnológica.

Los premios tienen su edición regular anual, a la que se añade la concesión esporádica de galardones especiales a figuras de excepcional relevancia, como es el caso de Bell. El premio recibido ahora por la astrónoma se ha concedido anteriormente a Stephen Hawking y a los principales responsables del descubrimiento del bosón de Higgs o de las ondas gravitacionales.

Así pues, enhorabuena a la premiada, que lo tenía bien merecido. Que lo disfrute con salud. Y ya que hemos mencionado el Unknown Pleasures, me sirve como excusa para dejarles con esta rara y antigua joya.

¿Existen los «pilares de la creación» en la nebulosa del Águila?

Lo que ven en esta foto podría no existir:

Los pilares de la creación, imagen tomada por el telescopio espacial Hubble en 2014. Imagen de NASA, ESA y Hubble Heritage Team (STScI/AURA).

Los pilares de la creación, imagen tomada por el telescopio espacial Hubble en 2014. Imagen de NASA, ESA y Hubble Heritage Team (STScI/AURA).

Pero no, no se trata de una manipulación digital como la falsa imagen de las puertas del Cielo que les traje aquí ayer.

En este caso se trata de una fotografía real llamada «los pilares de la creación», una de las más famosas tomadas por el telescopio espacial Hubble. Se obtuvo en 1995 y muestra las nubes de polvo y gas en la nebulosa del Águila, a 7.000 años luz de nosotros, talladas por la luz de las nuevas estrellas hasta formar esos rascacielos cósmicos de 4 años luz. En realidad la que pueden ver arriba es una nueva versión, obtenida por el Hubble en 2014 en homenaje a la imagen original, esta que sigue, y que acompaño con un panorama más amplio de la nebulosa mostrando la ubicación de esta estructura.

Los pilares de la creación, imagen tomada por el telescopio espacial Hubble en 1995. Imagen de NASA, Jeff Hester y Paul Scowen (Arizona State University).

Los pilares de la creación, imagen tomada por el telescopio espacial Hubble en 1995. Imagen de NASA, Jeff Hester y Paul Scowen (Arizona State University).

Imagen del telescopio espacial Spitzer de la nebulosa del Águila, con la ubicación y el detalle de los "pilares de la creación". Imagen de NASA/JPL-Caltech/N. Flagey/MIPSGAL Science Team.

Imagen del telescopio espacial Spitzer de la nebulosa del Águila, con la ubicación y el detalle de los «pilares de la creación». Imagen de NASA/JPL-Caltech/N. Flagey/MIPSGAL Science Team.

Pero lo que ven en estas fotos podría no existir porque quizá fue destruido hace unos 6.000 años. Lo que están viendo es el pasado, una estructura cósmica tal como era hace 7.000 años, el tiempo que ha tardado en llegarnos la luz de la nebulosa a través del universo. En 2007 un equipo de científicos dirigido por el francés Nicolas Flagey analizó las imágenes del Águila tomadas por el telescopio espacial Spitzer, capaz de ver la luz infrarroja que entonces era invisible para el Hubble. Flagey y sus colaboradores observaron lo que parecía una inmensa burbuja de gas y polvo calientes causada por la explosión de una supernova, acercándose a toda velocidad hacia los pilares. Esta burbuja es la masa roja que se observa en la imagen anterior de infrarrojos.

Dado que aquella región es una de las incubadoras de estrellas más activas y mejor estudiadas, los astrónomos consideran que varias de las estrellas masivas formadas cumplen las condiciones para estallar como supernovas, por lo que una hecatombe estelar allí es casi un desastre anunciado.

Según calculaban los investigadores en su estudio, publicado en 2009, las imágenes del Spitzer sugerían que, en aquella foto fija del Águila, a la onda expansiva de la supernova le faltaban unos 1.000 años para arrasar los pilares, por lo que la humanidad tendría que esperar unos 1.000 años para ver cómo aquellas torres quedaban deshilachadas como quien sopla un pompón de diente de león. Pero dado que nuestro retraso en recibir noticias de la nebulosa del Águila es de 7.000 años, esto implicaría que los pilares habrían dejado de existir cuando los humanos aún íbamos por el Neolítico.

Flagey calculaba que la explosión de la supernova se produjo hace entre 8.000 y 9.000 años, lo que significa que el fogonazo de este cataclismo debería haber llegado a la Tierra hace 1.000 o 2.000 años. El astrofísico, por entonces estudiante de doctorado, dijo que había identificado algunos posibles eventos candidatos en las crónicas históricas de la antigua China.

Claro que he comenzado diciendo que los pilares podrían no existir, y no que no existen. Porque no todos los expertos están de acuerdo con Flagey. En el momento de la publicación de su estudio ya hubo alguna opinión que cuestionaba la interpretación de la supernova, alegando que lo observado en las imágenes de infrarrojos podría deberse al calentamiento de la nube por estrellas masivas de la propia estructura, y no a un fenómeno que debería producir una huella de radiación mucho mayor.

Hace unos meses, el astrofísico y divulgador Ethan Siegel publicaba en su blog Starts With a Bang un artículo en el que rebatía la hipótesis de Flagey. Siegel ha analizado las nuevas imágenes tomadas por el Hubble en 2014, las ha comparado con las de 1995 y ha añadido las tomas en infrarrojo aportadas por una nueva cámara de este telescopio, concluyendo que no hay rastro de supernova y que la dinámica de las estructuras de la región se debe exclusivamente a las estrellas presentes.

Así, Siegel considera refutada la teoría de la destrucción de los pilares, que seguirán existiendo durante eras cósmicas hasta que el material de incubación de las estrellas acabe evaporado por la luz de las que ya se han formado. Pero en otro estudio publicado en 2011, Flagey admitía que la hipótesis de la supernova era algo especulativa.

Lo cual simplemente debería advertirnos contra los titulares periodísticos del estilo “los pilares de la creación ya no existen”, tanto como contra los del estilo “los pilares de la creación continúan existiendo”. El periodismo clásico odia los titulares interrogativos tanto como los condicionales. Pero la ciencia siempre está en construcción, y a veces todo lo que tiene son preguntas y condicionales. ¿Existen los pilares de la creación? Podría ser. Y podría ser que no.

Stephen Hawking no molaba nada (y ese es el problema)

La semana que termina nos ha dejado la muerte de Stephen Hawking, el científico más popular de las últimas generaciones. Los medios de todo el mundo han cubierto la noticia con amplios despliegues y con múltiples enfoques, desde lo puramente científico hasta la música que le gustaba o el maltrato que sufrió por parte de su segunda esposa. Yo mismo aporté mi granito con un pequeño obituario, pero quiero dejar un segundo granito aquí para intentar que un aspecto fundamental no se pase por alto en el que será sin duda el hito científico más negro de este 2018.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Tal vez Hawking no era después de todo tan popular como algunos pensábamos, como han revelado también varios medios al dejar en evidencia la confusión de muchos usuarios de Google sobre quién era el personaje fallecido. Pero sin duda podría decirse, como también han hecho constar muchas de las piezas publicadas sobre él, que era un icono de la cultura. Pero no de la Cultura, sino de la «cultura pop«, han precisado muchos medios.

Pero ¿qué es la cultura pop? Voy a la Wikipedia, y me dice que «la cultura popular [pop] se contempla a veces como trivial y embrutecida para encontrar una aceptación consensuada mayoritaria». A continuación, añade que las principales categorías de la cultura pop son el entretenimiento, los deportes, las noticias, la política, la moda, la tecnología y la jerga.

No, la ciencia no aparece. Pero si resulta que en realidad la ciencia sí es Cultura, ¿por qué se habla de Hawking como cultura pop? ¿Porque salió en Los Simpson? ¿Porque era famoso? No parece que cuadre mucho con alguien que no solo ha sido uno de los científicos más importantes del siglo XX, sino también uno de los principales intelectuales de nuestro tiempo, en el verdadero sentido de la palabra «intelectual».

Cuando en 1919 las fotografías de un eclipse solar confirmaron una de las predicciones de la relatividad general de Einstein (la curvatura de la luz de las estrellas por la masa del Sol), varios periódicos publicaron la noticia advirtiendo a sus lectores de que no trataran de entender la teoría del físico, ya que según él mismo había asegurado, no más de 12 personas en todo el mundo podrían entenderla. Al parecer, cuando le preguntaron a Einstein por esto se lo tomó como una broma, pero al comprobar que la historia de las 12 personas realmente se había divulgado en la prensa, aclaró que él jamás había dicho tal cosa.

No sería justo negar que la relación del público con la ciencia ha cambiado mucho desde los tiempos de Einstein, pero parece que un siglo después aún no se ha derribado la barrera. A pesar de que uno de los mayores empeños del propio Hawking durante toda su vida fue dar a entender que él era una persona normal y que la ciencia era una cosa normal, se le ha admirado mucho, pero de lejos. Imposible entenderle, inútil molestarse, no lo intenten; mejor dediquen el tiempo libre a hacer deporte.

En lugar de tratar de comprender la ciencia de Hawking, fíjense en su espíritu de superación, haber hecho todo aquello, fuera lo que fuese aquello, a pesar de su enfermedad… Ya se lo ha dejado claro en Twitter una famosa actriz: ahora es libre de sus limitaciones físicas. (¿Morir te libera de algo, aparte de la vida?)

En el fondo, probablemente Stephen Hawking no habría sido tan pop-ular si no hubiera sido diferente, batallando contra la muerte y postrado en una silla durante la mayor parte de su existencia. Esa serie, The Big Bang Theory, ya deja claro que para ser un científico hay que ser distinto; hay que ser un friqui.

Llega un momento en la vida de todo niño en que debe elegir: o ser un científico, o ser normal. Claro que es más fácil ser normal, porque un colegio puede no tener microscopios, pero que nunca falten los balones. ¿Hay algún niño que quiera ser como Stephen Hawking? No era guapo, ni futbolista, ni cantaba bien. No molaba. Muy admirado, eso sí, como icono de la cultura pop. Pero un icono no es un modelo; la gente quiere ser como los modelos, mientras que los iconos se guardan en una vitrina. Y se les limpia el polvo de vez en cuando.

Lo que me gustaría dejar como último tributo a Stephen Hawking lo cuenta mucho mejor Tuomas Holopainen, compositor y líder de Nightwish, en este tema dedicado a otro monstruo del pensamiento, Carl Sagan:

Make me wonder
Make me understand
Spark the light of doubt and a newborn mind
Bring the vast unthinkable down to Earth

Pasen y vean una alucinante reacción en cadena que descubre el orden del caos

Imagino que habrán visto infinidad de vídeos de efecto dominó, esos en los que la caída de una primera ficha pone en marcha una reacción en cadena que tumba otros miles de piezas formando figuras, hinchando globos y disparando pirotecnia. Supongo que continuarán celebrándose aquellos concursos en los que un japonés muy concentrado acababa dando saltos de alegría cuando su montaje funcionaba a la perfección hasta la traca final, pero ya no aparecen en los telediarios con tanta asiduidad como antes. Será que lo hemos visto tantas veces que ya no nos sorprende.

Pero este vídeo que les traigo hoy les va a sorprender. Del creador de esta loca genialidad solo sé lo que figura en su canal de YouTube, que se hace llamar Kaplamino y que le llevó tres meses de trabajo y más de 500 rondas de ensayo y error llegar a crear esta maravilla de la ingeniería física de mesa, que convierte un aparente caos de objetos sobre un plano inclinado en una increíble coreografía ajustada al milímetro y sincronizada a la centésima de segundo.

Imagen de Kaplamino / YouTube.

Imagen de Kaplamino / YouTube.

Los montajes de efecto dominó juegan con el concepto físico clásico de la cantidad de movimiento, una magnitud que es constante en un sistema cerrado ideal, y que un objeto puede transferir a otro dentro de ese sistema. Cuando el taco de billar golpea una bola, le transfiere su cantidad de movimiento, que a su vez la bola golpeada puede transmitir a otras al hacer carambolas. Un ejemplo de escritorio muy kitsch y nerdie es el péndulo de Newton, ese conjunto de bolitas suspendidas donde el movimiento de la primera se transmite a la última pasando por las intermedias, pero sin que estas se muevan. No lo inventó Newton, sino el francés Edme Mariotte, aunque el inglés lo mencionó en sus Principia.

Esta transferencia de la cantidad de movimiento es la que funciona cuando las fichas de dominó se empujan unas a otras o se emplean para mover bolitas u otros mecanismos. Otra manera de expresarlo es mediante la energía, que tienen los cuerpos en movimiento (cinética) o en altura (potencial), y que se va transmitiendo de unos elementos a otros, ya que (también idealmente) la energía total del sistema no varía.

Los sistemas de efecto dominó tienen que jugar con estas magnitudes para conseguir que la cantidad de movimiento y la energía no se disipen, sino que vayan transmitiéndose en cadena de unos elementos a otros. Las fichas no se mueven a lo largo del circuito, sino que es la energía la que se mueve. Los montajes que además utilizan otros tipos de objetos, como pelotas o varillas, suelen utilizar la tercera dimensión para añadir algo de energía potencial al sistema; es decir, aprovechan los desniveles para que algo al caer mueva otra cosa.

Lo que tiene de especial el montaje de Kaplamino es que la canica azul encargada de iniciar la reacción es la que va moviéndose a lo largo de todo el circuito, como en un pinball; no se limita a ceder su energía y pararse para que otros objetos tomen el relevo, sino que va recuperando energía para continuar moviéndose hasta el final. Y todo ello sobre un plano, en solo dos dimensiones. La mesa está inclinada para aprovechar algo de energía potencial en la caída de la canica, y el resto es cosa de imanes y palancas, que van devolviéndole a la canica altura y velocidad para conseguir que nunca deje de moverse. Otra genialidad del autor es aprovechar los dobles recorridos de algunos elementos para conseguir efectos diferentes en cada uno de ellos.

Es cierto, esto no sirve absolutamente para nada. ¿Y por qué debería servir? Aprovechando que se celebra ahora en Madrid la feria ARCO, ¿podríamos decir que este es el arte de la física?

Los Nobel, uno fresco, otro rancio, y siempre dejan a alguien fuera

Como cada año por estas fechas, no puede faltar en este blog un comentario sobre lo que nos ha traído la edición de turno de los premios Nobel. Y aunque cumplo con esta autoimpuesta obligación, debo confesarles que lo hago con la boca un poco pastosa. No por desmerecer a los ganadores, siempre científicos de altísimos logros, sino por otros motivos que año tras año suelo traer aquí y que conciernen a los propios premios.

Imagen de Wikipedia.

Imagen de Wikipedia.

En primer lugar, están los merecimientos no premiados de los que siempre se quedan por debajo de la línea de corte. Ya lo he dicho aquí, y no descubro nada nuevo: ya no hay Ramones y Cajales encerrados a solas en su laboratorio. Vivimos en la época de la ciencia colaborativa y a veces incluso multitudinaria, donde algunos estudios vienen firmados por miles de autores. No exagero: hace un par de años, un estudio de estimación de la masa del bosón de Higgs batió todos los récords conocidos al venir firmado por una lista de 5.154 autores. Nueve páginas de estudio, 24 páginas de nombres.

En el caso que nos ocupa, el Nobel de Física 2017 anunciado esta semana ha premiado la detección de ondas gravitacionales, un hito histórico que se anunció y publicó por primera vez en febrero de 2016, que confirmó la predicción planteada por Einstein hace un siglo y que según los físicos abre una nueva era de la astronomía, ya que enciende una nueva luz, que en este caso no es luz, para observar el universo.

Pero aunque sin duda el hallazgo merece los máximos honores que puedan concederse en el mundo de la ciencia, el problema es que los Nobel fueron instituidos por un tipo que murió hace 121 años, cuando la ciencia era cosa de matrimonios Curies investigando en un cobertizo. Y las normas de los Nobel dicen que como máximo se puede premiar a tres científicos para cada categoría.

Los agraciados en este caso han sido Rainer Weiss, Barry Barish y Kip Thorne, los tres estadounidenses, el primero nacido en Alemania. Weiss se queda con la mitad del premio, mientras que Barish y Thorne se reparten el otro 50%.

No cabe duda de que los tres lo merecen. Weiss fue quien inventó el detector que ha servido para pescar por primera vez las arrugas en el tejido del espacio-tiempo, producidas por un evento cataclísmico como la fusión de dos agujeros negros. Thorne ha sido la cabeza más visible en el desarrollo de la teoría de las ondas gravitacionales, además de ser un divulgador mediático y popular: creó el modelo de agujero negro que aparecía en la película Interstellar. Por su parte, Barish ha sido el principal artífice de LIGO, el detector que primero observó las ondas gravitacionales y que se construyó según el modelo de Weiss apoyado en la teoría de Thorne.

Pero más de mil científicos firmaron el estudio que describió la primicia de las ondas gravitacionales. Sus diversos grados de contribución no quedan reflejados en la lista de autores, ya que en casos así no se sigue la convención clásica de situar al principal autor directo del trabajo en primer lugar y al investigador senior en el último; aquí la lista es alfabética, sin un responsable identificado. El primero de la lista era un tal Abbott, cuyo único mérito para que aquel estudio histórico ahora se cite como «Abbott et al.» fue su ventaja alfabética. De hecho, había tres Abbotts en la lista de autores.

¿Se hace justicia premiando solo a tres? Tengo para mí que los físicos especializados en la materia, sobre todo quienes hayan participado de forma más directa o indirecta en este campo de estudio, tal vez tengan la sensación de que queda alguna cuenta no saldada.

Como mínimo, habrá quienes achaquen al jurado que haya olvidado la importantísima contribución de Virgo, el socio europeo del experimento LIGO. Ambos nacieron de forma independiente en los años 80, LIGO en EEUU y Virgo en Italia como producto de una iniciativa italo-francesa. Con el paso de los años, LIGO y Virgo comenzaron a trabajar en una colaboración que estaba ya muy bien trabada antes de que el detector estadounidense lograra la primera detección de las ondas gravitacionales. La cuarta detección de ondas de este tipo, anunciada hace solo unos días, se ha producido en paralelo en LIGO y en Virgo. ¿Es justo dejar a los artífices del proyecto europeo sin el reconocimiento del Nobel?

Por supuesto, son las normas de los premios. Pero miren esto: el testamento de Nobel no mencionaba en absoluto a tres premiados por cada categoría, sino que se refería simplemente a «la persona que…». Por lo tanto, si se trata de ceñirse estrictamente a la última voluntad del fundador de los premios, estos no deberían repartirse.

Pero la limitada representatividad de la lista de premiados no es el único defecto de los Nobel. Otro que también he comentado aquí en años anteriores es la tendencia a premiar trabajos tan antiguos que ni sus autores ya se lo esperaban, si es que siguen vivos. Y en esto tampoco se respetan las instrucciones de Alfred Nobel, ya que él especificó que los premios deberían concederse a quien «durante el año precedente haya conferido el mayor beneficio a la humanidad».

Si al menos este año en Física se ha premiado ciencia fresca y puntera, no ocurre lo mismo con la categoría de Fisiología o Medicina. Los tres galardonados, Jeffrey Hall, Michael Rosbash y Michael Young, todos estadounidenses, lograron sus avances fundamentales sobre los mecanismos moleculares del reloj biológico (los ritmos circadianos) allá por los años 80.

De hecho, hay un dato muy ilustrativo. A diferencia del caso de las ondas gravitacionales, en el campo de los ritmos circadianos sí hay dos nombres que muy claramente deberían encabezar una lista de candidatos a recibir los honores: Seymour Benzer y su estudiante Ron Konopka, los genetistas estadounidenses que primero descubrieron las mutaciones en los genes circadianos con las cuales pudo escribirse la ciencia moderna de la cronobiología. Pero Benzer falleció en 2007, y Konopka en 2015. Y no hay Nobel póstumo. El premio en este caso se ha concedido a una segunda generación de investigadores porque se ha concedido tan a destiempo que los de la primera murieron sin el debido reconocimiento.

En este caso, los Nobel pecan una vez más de conservadurismo, de no apostar por avances más recientes cuyo impacto está hoy de plena actualidad en las páginas de las revistas científicas. Por ejemplo, CRISPR, el sistema de corrección de genes que abre la medicina del futuro y en el que nuestro país tiene un firme candidato al premio, el alicantino Francisco Martínez Mojica. Pero dado que este avance también puede optar al Nobel de Química, que se anuncia hoy miércoles dentro de un rato, de momento sigamos conteniendo la respiración.

Así es como se ve un eclipse solar… desde la Luna

Adivina adivinanza: ¿cómo se ve un eclipse solar desde la Luna?

Dicen algunos que el eclipse solar del pasado 21 de agosto fue el más observado de la historia. Es difícil probar esta afirmación, pero es de suponer que nunca tantos ojos se habrán vuelto hacia el cielo como cuando un eclipse haya favorecido especialmente a alguna de las regiones más densamente pobladas del planeta, como por ejemplo el subcontinente indio.

Pero algo sí es probable, y es que este último haya sido el más observado científicamente, al haber agraciado con su espectáculo de totalidad a la primera potencia científica del mundo. Desde varios meses antes, todo organismo científico de EEUU con competencias en la materia nos estuvo asaeteando a las partes implicadas con andanadas de correos electrónicos informándonos de toda clase de actividades, reuniones, experimentos, viajes, distribuciones masivas de gafas y otros eventos, hasta un extremo ya ligeramente machacón; sobre todo para quienes no teníamos ninguna posibilidad de desplazarnos hasta allí.

Por mi parte, tuve la fortuna desde el punto de vista personal, pero el infortunio desde el profesional, de hallarme aquella tarde bajo un hosco muletón de nubes que arropaba por completo el cielo escocés, así que no pude presenciar ni ese diminuto mordisco al disco que podía observarse desde allí.

Pero a lo que íbamos. Si conocen el mecanismo básico de un eclipse de sol y han pensado un poco, imaginarán que el juego del escondite solar tiene un aspecto muy diferente desde la Luna. Dado que es ella la que nos oculta la luz, lo que cae sobre la Tierra es su sombra. Por tanto, desde nuestro satélite podríamos apreciar la sombra circular de la Luna moviéndose por la superficie terrestre.

Pero mejor que explicarlo es verlo: así es como lo fotografió la sonda de la NASA Lunar Reconaissance Orbiter (LRO). Este vídeo de la imagen tomada por la LRO varía la exposición de la foto para que pueda apreciarse con más facilidad la sombra de la Luna sobre el territorio continental de EEUU. En ese momento, la sombra lunar se movía sobre la Tierra a una velocidad de 670 metros por segundo, unos 2.400 km/h.

Imagen del eclipse solar del 21 de agosto de 2017 visto desde la Luna por la sonda LRO. Imagen de NASA/GSFC/Arizona State University.

Imagen del eclipse solar del 21 de agosto de 2017 visto desde la Luna por la sonda LRO. Imagen de NASA/GSFC/Arizona State University.

Si lo piensan, este efecto es exactamente el mismo que observamos desde la Tierra durante un eclipse lunar: en este caso es la sombra de nuestro planeta la que cae sobre la Luna. Pero dada la enorme diferencia de tamaño entre nuestro mundo y su satélite, toda la faz de la Luna queda bajo la sombra terrestre; allí el eclipse solar es total desde cualquier lugar en la cara visible.

De hecho, dado que el tamaño aparente de la Tierra desde la Luna es mucho mayor que el del Sol, sería de esperar que el disco solar desapareciera sin dejar rastro bajo la esfera terrestre. Sin embargo, no es así. Curiosamente, el pequeño Sol va ocultándose detrás de la gran Tierra hasta que parece que va a esfumarse por completo, pero entonces se produce una especie de milagro natural: de pronto, la Tierra queda rodeada por un fino anillo rojizo, como muestra esta imagen creada por la NASA (la animación completa está disponible aquí).

Simulación de un eclipse lunar visto desde la Luna. Imagen de NASA's Scientific Visualization Studio.

Simulación de un eclipse lunar visto desde la Luna. Imagen de NASA’s Scientific Visualization Studio.

El anillo rojo no es luz solar directa; es evidente que el disco solar no rebosa por detrás del terrestre. Es la atmósfera de la Tierra encendida por el Sol, y para comprender la razón del color rojizo no hay más que contemplar un amanecer o un atardecer, ya que de eso precisamente se trata: ese filo carmesí marca todos los lugares de nuestro planeta donde en ese momento el Sol está saliendo o poniéndose.

Y obviamente, ese tenue resplandor rojo está bañando la faz de la Luna en ese instante, motivo por el cual durante un eclipse lunar los terrícolas vemos nuestro satélite de ese color; es el brillo de nuestros miles de auroras y ocasos reflejado sobre la cara de la Luna.

Una sonda de la NASA volará a través de la atmósfera del Sol

Sunshine, de Danny Boyle, es una de las películas de ciencia ficción más interesantes que he podido ver en lo que llevamos de siglo. Según parece, sus resultados en taquilla fueron más bien discretos, algo que no me corresponde analizar a mí sino a mis compañeros Carles y Juan Carlos.

Por lo que compete a este blog, puedo decir que Boyle y Alex Garland, autor de la historia, hicieron un trabajo concienzudo basándose en una asesoría científica amplia y experta, con participación de la NASA y del físico británico y estrella mediática Brian Cox, e incluso montando a los actores en vuelos de simulación de microgravedad. Y si no todo en la película es científicamente realista, no se trata de errores, sino de licencias creativas que se tomaron siendo plenamente conscientes de que se estaban apartando de la ciencia rigurosa.

Ilustración de la Parker Solar Probe. Imagen de NASA.

Ilustración de la Parker Solar Probe. Imagen de NASA.

Sí, hubo científicos que escribieron criticando negativamente la película. A quienes nos dedicamos a esto nos gusta desentrañar cuánto hay de ciencia real y cuánto de vengayá en las películas del género. Pero una cosa es aprovechar estas licencias argumentales como herramienta de divulgación, y otra basarse en ellas para descalificar una película como si se hubiera cometido una especie de afrenta. Toda época ha tenido sus inquisidores.

Toda peli de ciencia ficción encuentra su eficacia sabiendo hasta dónde estirar la ciencia; y si hay que romperla para ir un poco más allá porque la historia lo pide, pues se rompe y no pasa nada: la ciencia no es una religión, y la ficción es ficción porque es ficción. Incluso una joya tan elogiada como 2001: Una odisea del espacio se basa en una idea hoy indefendible por criterios científicos, la existencia de inteligencias extraterrestres casi supremas, ese rollo que en Prometheus llamaban «los ingenieros». Y qué decir de toda película basada en los viajes en el tiempo.

Para quienes no la hayan visto, les resumo el argumento de Sunshine en una frase y sin spoilers: el Sol se está apagando debido a un accidente natural que en la película no se menciona, pero que sí se explica científicamente en el guión original (para los curiosos, una colisión con una Q-ball), y una nave tripulada debe viajar hasta allí para reactivarlo mediante una megaexplosión nuclear, después del fracaso de una misión anterior que desapareció sin dejar rastro.

El acierto de Sunshine, en mi opinión, está en desarrollar la quiebra psicológica de los personajes amenazados por un monstruo tan poderoso como inusual: el Sol, normalmente un elemento benéfico e imprescindible para la vida. Darle al Sol el papel del malo es un hallazgo comparable al de poner al asesino en el cuerpo de un niño; ignoro a quién se le ocurrió esto por primera vez, pero Chicho Ibáñez Serrador lo hizo magistralmente en Quién puede matar a un niño. Una película que, por cierto, también exploraba sabiamente el terror a pleno sol. En Sunshine los personajes se defienden contra un enemigo que puede liquidarlos o enloquecerlos hasta que se liquiden unos a otros, y al que jamás podrán matar ni vencer.

Comparación a escala del tamaño aparente del Sol desde la Tierra (derecha) y desde la órbita de la Parker Solar Probe (izquierda). Imagen de Wikipedia.

Comparación a escala del tamaño aparente del Sol desde la Tierra (derecha) y desde la órbita de la Parker Solar Probe (izquierda). Imagen de Wikipedia.

Me ha venido el recuerdo de Sunshine con ocasión de una rueda de prensa celebrada esta semana en la que la NASA ha presentado una misión que lanzará en 2018, y que se acercará al Sol como jamás lo ha hecho antes ningún artefacto de fabricación humana. Faltando el elemento humano, la Parker Solar Probe (bautizada en homenaje al astrofísico Eugene Parker, descubridor del viento solar y que, en contra de la costumbre en estos casos, aún vive) enfrentará sus circuitos a los mismos peligros que amenazaban a la tripulación del Icarus II en la película.

Parker se acercará a unos seis millones de kilómetros del Sol. Puede que esto no parezca demasiado si consideramos que nuestra estrella tiene un diámetro de 1,4 millones de kilómetros, pero la cosa cambia si tenemos en cuenta que Mercurio se encuentra a 58 millones de kilómetros del Sol, casi diez veces más lejos de lo que la sonda se aproximará. De hecho, Parker volará atravesando la corona, la parte exterior de la atmósfera solar. El gráfico de la derecha muestra el tamaño aparente del Sol desde la Tierra, comparado con el que verá la sonda.

Trayectoria orbital prevista para la Parker Solar Probe. Imagen de NASA.

Trayectoria orbital prevista para la Parker Solar Probe. Imagen de NASA.

Para soportar una temperatura de 1.377 ºC, con una intensidad solar 520 veces superior a la que existe en la Tierra, Parker esconderá sus instrumentos detrás de una sombrilla de 11,5 centímetros de grosor fabricada con carbono reforzado con fibra de carbono, el mismo material que protegía a los shuttles de la NASA durante la reentrada en la atmósfera. Eso sí, energía solar no le faltará.

La misión se lanzará el 31 de julio de 2018, pero durante seis años se dedicará a sobrevolar Venus. Deberemos esperar hasta el 19 de diciembre de 2024 para su primera aproximación al Sol. Parker conseguirá además otro récord, el del objeto de fabricación humana más rápido de la historia: durante su recorrido alrededor del Sol, su velocidad alcanzará los 700.000 km/h.

Thomson, el físico que (realmente no) descubrió el electrón

Dicen los libros de texto que el físico inglés Joseph John Thomson descubrió el electrón el 30 de abril de 1897. De lo cual se sigue que la primera partícula subatómica acaba de cumplir 120 años.

Pero en realidad no fue exactamente así.

J. J. Thomson en su laboratorio. Imagen de Wikipedia.

J. J. Thomson en su laboratorio. Imagen de Wikipedia.

A los humanos nos vuelven locos los aniversarios, sobre todo cuando hacen números redondos. En cuanto algo cumple un año, ya nos estamos lanzando a celebrarlo, y luego vienen los cinco, los diez… Y todo hay que decirlo, es uno de los recursos de los que vive el periodismo, incluido el que practica este que suscribe. Y tampoco está mal recordar nuestra historia reconociendo a quienes lo merecen.

Pero a veces, estas efemérides deben servir para aclarar cómo no sucedieron las cosas. Los grandes descubrimientos científicos no suelen ser cuestión de una fecha concreta, ya que normalmente son fruto de un largo proceso de investigación. Incluso cuando hay un momento de eureka, un experimento que revela de súbito un resultado largamente esperado, este deberá esperar a ser divulgado, y a que la comunidad científica le dé su asentimiento.

Las fechas que asociamos a ciertos hallazgos, como la relatividad general de Einstein cuyo  centenario celebrábamos en 2015, suelen ser las de su divulgación. Antes era común que los científicos leyeran sus trabajos ante los miembros de alguna institución científica. Hoy la fecha de un descubrimiento es la de su publicación en una revista después de que los resultados hayan sido validados por otros expertos en un proceso llamado revisión por pares.

En el caso de Thomson, la fecha del 30 de abril corresponde al día en que presentó sus resultados ante la Royal Institution. Pero el físico no presentó el electrón, sino el «corpúsculo», una partícula constituyente de los rayos catódicos que tenía carga negativa y cuya masa era unas mil veces menor que la del ion de hidrógeno.

En realidad, Thomson no fue el primero en intuir que el átomo no era tal á-tomo (indivisible), sino que contenía partículas subatómicas. Tampoco fue el primero en sugerir que esas partículas eran unidades elementales de carga eléctrica. Tampoco fue el primero en deducir que los rayos catódicos estaban formados por algo cargado negativamente, ni fue el primero en intentar calcular una masa para ese algo. Y por último, tampoco inventó la palabra «electrón»; esta había sido acuñada por el irlandés George Johnstone Stoney en 1891, un término esperando algo que designar.

El de Thomson es un caso peculiar. Acudo a Isobel Falconer, historiadora de matemáticas y física de la Universidad de St. Andrews (Reino Unido), experta en la figura de Thomson y autora del libro J.J. Thompson And The Discovery Of The Electron (CRC Press, 1997), entre otros muchos trabajos sobre el físico. Le pregunto si debemos considerar a Thomson el descubridor del electrón, y esta es su respuesta: «descubrir es una palabra muy resbaladiza».

«El trabajo de Thomson reunió un número de líneas separadas que presagiaron el electrón como lo conocemos», prosigue Falconer. «Al demostrar que podía manipular y adscribir masa y velocidad a cargas unitarias, concebidas como estructuras en el éter, reunió la visión mecanística británica y la visión continental de la relación entre electricidad y materia, haciendo de los electrones algo real para los físicos experimentales».

Más que un padre natural para el electrón, Thomson fue el padre adoptivo; recogió a una criatura ya casi existente entonces para presentarla en sociedad y hacerla visible ante los demás. La historiadora añade que la constatación de que los electrones podían explicar las propiedades periódicas de los elementos de la tabla consiguió unificar las visiones del átomo que hasta entonces separaban a físicos y químicos.

Todo lo cual es motivo más que suficiente para conceder a Thomson un lugar de privilegio en el hall of fame de la ciencia, sin necesidad de recordarle por el electrón. «Pienso que Thomson debería ser recordado como un físico prolífico y muy creativo, con gran visión y con olfato para los problemas interesantes, que estaba preparado para romper las reglas en la prosecución de esos problemas», dice Falconer. Tanto la historiadora como otros expertos en la obra de Thomson coinciden en su papel crucial en el cambio de siglo de la física, en su transición hacia la física de partículas. Y no solo a través de su propio trabajo, sino como director del laboratorio Cavendish de la Universidad de Cambridge, un criadero de premios Nobel.

De hecho, cuando Thomson recibió el Nobel en 1906 no fue por el electrón, sino por su línea principal de trabajo, la conducción de electricidad en recipientes llenos de gas. Curiosamente, el electrón llegó en tubos al vacío, algo que era más bien una rareza en su trabajo.

Tal vez al propio Thomson le sorprendería verse hoy en los libros como el padre del electrón. Según Falconer, era un tipo modesto. Y seguro que de otra paternidad se sentía mucho más orgulloso: vivió para ver cómo su hijo George Paget Thomson le seguía los pasos hasta el mismísimo altar de los Nobel, donde un segundo Thomson recogería su premio en 1937.

¿Realmente Einstein se equivocó?

Cuando en 1919 las fotografías de un eclipse de sol demostraron que la luz de las estrellas se curvaba al interponer la pesada masa del sol, como había predicho la relatividad general de Einstein, la prensa británica y estadounidense anunció una revolución científica liderada por aquel físico que hoy habría cumplido 138 años. A pesar de que pocos realmente entendían en qué consistía: en EEUU, el diario The New York Times publicaba la noticia señalando que «no más de 12 personas en todo el mundo podrían entenderla».

Albert Einstein en 1921. Imagen de Wikipedia.

Albert Einstein en 1921. Imagen de Wikipedia.

Por fortuna, hoy no solo son miles los físicos en todo el mundo que entienden a la perfección el trabajo de Albert Einstein y han construido sobre los cimientos que él sentó, sino que además hay también miles de canales por los que cualquier persona interesada sin conocimientos de física puede hacerse con unos conceptos básicos sobre la relatividad especial y la general.

Y sin embargo, los especialistas continúan hoy desgranando la obra de Einstein, desde sus artículos científicos a su correspondencia, para entender y explicar cuál era su visión de la naturaleza, ese objeto del que trata el estudio de la física. No todo está dicho sobre el trabajo de Einstein. Y de hecho, en algún sentido aún no se le ha entendido bien, a decir de algunos expertos.

Uno de los aspectos más discutidos del pensamiento del científico más famoso de todos los tiempos es su relación con la mecánica cuántica, una disciplina que él contribuyó a crear cuando explicó el efecto fotoeléctrico, lo que le valió el Nobel; pero con cuya interpretación mayoritaria siempre mantuvo una seria discrepancia.

En un reportaje publicado hoy con motivo del aniversario he explicado con más detalle en qué consistía la objeción de Einstein hacia la física cuántica. En pocas palabras y según la versión más corriente, el físico pensaba que la dependencia de la cuántica del concepto de probabilidad revelaba en realidad un agujero en la teoría, un territorio en el que debían existir variables ocultas no contempladas por la interpretación manejada por sus contemporáneos y que eran fundamentales para explicar cómo funcionaba la realidad. En resumen, Einstein no pensaba que la cuántica estuviera equivocada, pero sí incompleta.

Un ejemplo estaba en el principio de incertidumbre o de indeterminación de Heisenberg, según el cual no era posible medir la posición y la velocidad de una partícula al mismo tiempo, dado que la intervención del observador modifica las propiedades del sistema observado. La física cuántica resultaba extraña en su día, y todavía hoy, porque es diferente a la clásica; esta es determinista, mientras que la cuántica es probabilista. El comportamiento de las cosas grandes, que la experiencia nos hace interpretar como de sentido común, no funciona con lo infinitamente pequeño, y viceversa. Pero Einstein pensaba que algo estaba escapando a los teóricos para poder explicar también el funcionamiento de las cosas pequeñas desde una visión realista.

En 1935, y junto a sus colegas Nathan Rosen y Boris Podolsky, el físico publicaba un artículo bajo un título en forma de pregunta que claramente sugería la respuesta: ¿Puede considerarse completa la descripción mecano-cuántica de la realidad física? En aquel trabajo, los tres científicos planteaban un experimento mental que más tarde se conocería como la Paradoja Einstein-Podolsky-Rosen (EPR).

Suponiendo dos partículas que interaccionan entre ellas antes de separarse y cuya interacción vincula entre sí las propiedades de ambas, sería posible conocer la segunda propiedad de una partícula midiéndola en la otra, ya que una vez separadas no hay posibilidad de que la observación de una influya sobre la otra; a menos, claro, que existiera lo que Einstein denominaba una «truculenta acción a distancia» instantánea; pero no hay nada instantáneo, ya que cualquier posible interacción está limitada por la velocidad de la luz.

La Paradoja EPR fue discutida durante décadas, pero hoy hay una potente corriente entre los físicos que considera probada la «truculenta acción a distancia», el fenómeno llamado entrelazamiento cuántico (más detalles aquí y aquí). En los últimos años varios experimentos cada vez más finos y blindados parecen demostrar que las predicciones de la cuántica se cumplen, que las partículas se comunican entre ellas a pesar de estar separadas y que, en consecuencia, Einstein acertó al describir un fenómeno, pero se equivocó al creer que tal fenómeno no era posible.

Sin embargo, tal vez no todo es realmente lo que parece, o lo que asume la versión corriente. Hace unos días estuve hablando con Don Howard, profesor de filosofía de la Universidad de Notre Dame (EEUU) especializado en filosofía de la ciencia, y en concreto en el pensamiento de Einstein. Howard me contaba un detalle tal vez poco conocido, y es que en realidad la mayor objeción del alemán a la cuántica no era la ausencia de determinismo; pero es que su mayor objeción no estaba reflejada en el estudio EPR por una razón: «como sabemos por su correspondencia posterior, Einstein de hecho no escribió el EPR, sino que lo hizo Podolsky, y realmente no le gustaba el estudio».

Según Howard, «en una carta a Schrödinger poco después de la publicación del estudio EPR, Einstein explicaba que el punto principal quedaba enterrado por la erudición o por el excesivo formalismo del estudio». Para Einstein, el artículo se había centrado en justificar que la cuántica estaba incompleta basándose en la existencia de un caso especial de la realidad física que no tenía cabida en la teoría, pero su verdadera objeción era más profunda y general; la cuántica no era incompleta por no poder explicar algo muy concreto, sino más bien por no poder explicarlo todo en su conjunto.

Einstein veía más bien que la cuántica solo podía explicar la realidad si se prescindía de rasgos esenciales de la realidad tal como es, tal como él la había descrito a través de la relatividad aplicable a las cosas grandes. Podría decirse que los cuánticos describían retratos mediante ecuaciones, pero no narraban el relato de la realidad; por ejemplo, no tenía cabida hablar del pasado de una partícula; no sale en el retrato.

¿Estaba Einstein realmente equivocado? Desde luego, no creía en el entrelazamiento cuántico entre partículas separadas (que los físicos llaman no-localidad). Y para Howard, en esto hoy se habría rendido a las pruebas: «creo que habría cedido, por dolorosa que fuera esa concesión», dice. «¿Por qué? Porque, como dejó claro en muchas ocasiones, al final es la prueba empírica la que decide las cuestiones sobre la elección de teoría». Einstein era un realista, y hoy parece cada vez más claro que el entrelazamiento cuántico es real.

Pero según la visión de Howard y otros pensadores sobre cuál era el verdadero sentido de la objeción de Einstein a la cuántica, se entiende que históricamente tal vez un solo árbol, la paradoja EPR, ha tapado todo un bosque. Lo cierto es que hoy los físicos aún continúan batallando por darse la mano uniendo los dos túneles perforados desde ambos extremos, el de la cuántica y el de la relativística. Y está claro que Einstein acertó cuando escribió:

En cualquier caso, en mi opinión, uno debería guardarse de comprometerse dogmáticamente con el esquema de la teoría actual en la búsqueda de una base unificada para la física en su conjunto.

Haga sus propios copos de nieve, e ilumine su árbol con peces eléctricos

Ya que el anticiclón no parece dispuesto a soltarnos y a falta de Navidades blancas, ¿qué tal aprovechar las vacaciones para fabricar sus propios copos de nieve en casa?

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

El físico de Caltech (EEUU) Kenneth G. Libbrecht es probablemente el mayor experto mundial en cristales de hielo: los crea, los estudia y los fotografía para comprender cómo se forman y en qué medida sus simétricas formas caprichosas dependen de factores como el grado de humedad, la presión o las variaciones sutiles de temperatura. Sus hermosas imágenes están libres de Photoshop; son fotomicrografías reales de copos sabiamente iluminados para que la luz se descomponga en los colores del arco iris.

Y por cierto, hasta tal punto las condiciones de crecimiento del cristal determinan su forma que Libbrecht ha desmontado el viejo mito según el cual no existen dos copos de nieve iguales: utilizando condiciones idénticas, el físico ha logrado crear cristales que son auténticos gemelos idénticos. Y no solo de dos en dos, sino hasta en grupos de varios.

En su web, Libbrecht detalla paso a paso una receta para crear copos de nieve en casa, que resumo aquí. Estos son los materiales necesarios:

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

  • Una botella pequeña de plástico (con tapón)
  • Tres vasos de poliestireno
  • Una esponja pequeña de 1 cm de grosor
  • Hilo de náilon
  • Aguja de coser
  • Cuatro alfileres
  • Un clip
  • Toallas de papel
  • Cinta adhesiva
  • Unos cinco kilos de hielo seco (puede comprarse por ejemplo aquí)

Primero, se corta el fondo de la botella de plástico a 1 cm de la base. En este fondo se encaja una esponja circular, que se fija clavando cuatro alfileres en los laterales. La esponja y el fondo de la botella se perforan en su centro con una aguja en la que se ha enhebrado el hilo de náilon. Este se fija al exterior de la base con cinta adhesiva, y en el otro extremo se ata el clip para que sirva de peso. La longitud total del hilo debe ser tal que, al volver a colocar el fondo a la botella y ponerla boca abajo, el clip quede dentro de la botella sin llegar al borde del cuello.

Todo este tinglado de la botella, una vez mojada la esponja con agua del grifo, se introduce en los vasos de poliestireno rellenos de hielo seco machacado, como muestra la figura, y se cubre con toallas de papel alrededor de la botella. Con los materiales que Libbrecht utiliza, el vaso que rodea la botella debe agujerearse por la base, pero el físico aclara que esta disposición es solo una sugerencia.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Lo importante es que en la botella se creen dos zonas, templada y húmeda arriba, fría y seca abajo. El agua de la esponja supersatura el aire de vapor, que difunde pasivamente hacia abajo (el aparato se llama cámara de difusión). Al encontrar la zona fría, comienza a cristalizar en torno a un sitio de nucleación, suministrado por las irregularidades del hilo, y a los pocos minutos comenzarán a aparecer los cristales como los de la foto.

Según explica Libbrecht, esto mismo sucede en la atmósfera cuando el aire cálido y húmedo encuentra aire frío. Según la temperatura de este sea mayor o menor de 0 ºC , se forma lluvia o nieve. Cada gota de lluvia o copo de nieve lleva en su interior alguna partícula de polvo que sirve para la nucleación.

Obtener fotografías como las de Libbrecht es algo mucho más complicado, ya que esto requiere un microscopio en frío. Pero los cristales de nieve que se forman pueden verse a simple vista o con una lupa.

Otra sugerencia para Navidad es controlar las luces del árbol mediante peces eléctricos, para quienes tengan acuario y sean además un poco frikis. La propuesta viene del Laboratorio de Peces Eléctricos dirigido por Jason Gallant en la Universidad Estatal de Michigan (EEUU).

Gallant aclara que los peces realmente no alimentan la iluminación del árbol, sino que controlan el parpadeo de las luces. Es decir, que el montaje es una manera navideña y original de comprobar cómo los peces eléctricos africanos Gymnarchus, según el científico fáciles de encontrar en las tiendas de acuarios, navegan y se comunican con impulsos eléctricos; cada vez que el pez emite un pulso, el árbol se ilumina.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Para poner en práctica la idea de Gallant se necesita algo de material electrónico, pero también ciertos conocimientos de informática para programar una plataforma Arduino. La lista de los componentes necesarios y el código para programar el sistema se detallan en el blog de Gallant. Feliz navidad y felices experimentos.