BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Física’

Las ondas gravitacionales, un nuevo color en la paleta de los astrónomos

Las ondas gravitacionales se han convertido en el Titanic de la ciencia. No por el naufragio, sino por la película: en 1997 era casi inútil que ninguna otra producción aspirara a llevarse un premio de cualquier categoría en la que tuviera que competir contra la cinta de James Cameron. Como conté ayer, los descubridores (o más bien confirmadores) de las ondas gravitacionales se han llevado este mes el Nobel y el Princesa de Asturias, pero anteriormente ya habían caído en sus redes otros premios de primera fila como el Kavli de Astrofísica y el Breakthrough Prize, ambos económicamente muy jugosos.

Pero el Princesa, entregado este viernes a tres máximos responsables del hallazgo y simbólicamente a más de mil investigadores de la colaboración LIGO, ha caído por suerte en la misma semana en que la detección de las ondas gravitacionales ha comenzado a hacer realidad la promesa de convertirse en un nuevo color de la paleta astronómica.

El pasado lunes se anunciaba la quinta detección de este tipo de arrugas en la alfombra del espacio-tiempo que sostiene el universo, pero con una novedad que comienza a explicar por qué este método de observación abre una nueva era para la astronomía.

Mientras que los cuatro eventos anteriores se produjeron por la fusión de pares de agujeros negros, en este último caso, ocurrido el pasado 17 de agosto, ha sido la colisión de dos estrellas de neutrones, que se cuentan entre los objetos más densos del cosmos. Las estrellas de neutrones se forman cuando una estrella supermasiva explota en una supernova y sufre un colapso gravitatorio que comprime el material estelar hasta reducir su tamaño a unos pocos kilómetros, a pesar de que su masa excede en varias veces la del Sol.

Ilustración de la colisión entre dos estrellas de neutrones. Imagen de NSF/LIGO/Sonoma State University/A. Simonnet.

Ilustración de la colisión entre dos estrellas de neutrones. Imagen de NSF/LIGO/Sonoma State University/A. Simonnet.

El resultado es un objeto extremadamente denso, una especie de pelota de núcleos atómicos comprimidos con electrones fluyendo entre los huecos. Suele decirse que, si pudiéramos acercarnos a una estrella de neutrones y recoger una cucharadita de su superficie (por supuesto, algo imposible en la práctica), esa cantidad de material pesaría mil millones de toneladas.

Durante años los científicos han teorizado que la fusión de dos estrellas de neutrones es uno de los procesos responsables de los llamados Brotes de Rayos Gamma (BRG), lo cual equivale a decir que son las explosiones más potentes del universo. Un BRG puede liberar en unos segundos más energía que nuestro Sol a lo largo de toda su existencia. Son fenómenos raros, y por suerte se han detectado en otras galaxias, a miles de millones de años luz de nosotros. Pero en realidad, el hecho de que no nos haya caído ninguno en las cercanías no es casualidad, sino causalidad: muchos científicos piensan que si hubiera ocurrido, sencillamente no estaríamos aquí.

Imagen de la galaxia NGC 4993 tomada desde el observatorio de La Silla, en Chile. Imagen de ESO/S. Smartt & T.-W. Chen.

Imagen de la galaxia NGC 4993 tomada desde el observatorio de La Silla, en Chile. Imagen de ESO/S. Smartt & T.-W. Chen.

Pues bien, lo que tiene de única la nueva onda gravitacional detectada no es solo el fenómeno que la ha originado, sino que además también ha podido recogerse el BRG producido por la fusión de las dos estrellas, así como el rastro de luz de todo ello, lo que ha sido descrito por los astrofísicos como el principio de la era de la astronomía multimensajero.

Imaginemos una tormenta de las normales en la Tierra. Cuando cae un rayo, lo detectamos de dos maneras distintas, por la luz (el relámpago) y el sonido (el trueno). Los astrofísicos hacen algo parecido con los fenómenos astronómicos, registrándolos a través de sus diferentes emisiones.

Ahora la detección de ondas gravitacionales se ha unido a ese repertorio de ojos y oídos del que disponen los científicos. La colisión de las dos estrellas de neutrones en la galaxia NGC 4993, a 130 millones de años luz, fue registrada por los tres detectores de ondas gravitacionales (dos de LIGO y el de Virgo), por los telescopios espaciales de rayos gamma Fermi e INTEGRAL, y por una multitud de telescopios terrestres en la banda óptica, en la de rayos X y en la de ondas de radio. Todo esto convierte la GW170817 (GW de Gravitational Wave) en el primer fenómeno astronómico observado de tantas maneras distintas.

Los puntos marcan todos los observatorios en la Tierra y en el espacio que registraron la fusión entre dos estrellas de neutrones. Imagen de Abbott et al. 2017.

Los puntos marcan todos los observatorios en la Tierra y en el espacio que registraron la fusión entre dos estrellas de neutrones. Imagen de Abbott et al. 2017.

Pero si les parece que la colisión de dos estrellas a más de 1.200 trillones de kilómetros es algo muy ajeno a ustedes, sepan que tal vez lleven el producto de un fenómeno como este en el dedo, alrededor del cuello o en los lóbulos de las orejas: los astrofísicos pensaban que explosiones tan energéticas como esta son la fragua donde se crean los elementos más pesados del universo, por ejemplo el oro, la plata, el platino o el uranio. En el GW170817, la lectura de las emisiones permitió confirmar que la colisión de las dos estrellas creó una masa de oro similar a la de la Tierra. Una buena pepita; eso sí, habría que juntarla átomo a átomo.

El Princesa de Asturias de ciencia acierta este año, pero tiene una deuda pendiente

Ayer las gaitas sonaron en Oviedo un año más para acoger la entrega anual de los premios Princesa de Asturias. Los que hemos crecido con media pata en el Principado envidiamos profundamente a los galardonados, no por el premio, sino porque a diferencia de nosotros anoche cenaron allí, y a gastos pagados. Pero en fin; en el culín de sidra meramente simbólico que le toca beberse a este blog figuran tres nombres propios y un inmenso colectivo de cerebros: los físicos Rainer Weiss, Kip Thorne y Barry Barish, junto con los más de mil integrantes de la Colaboración Científica LIGO, han recibido el premio de Investigación Científica y Técnica 2017.

El físico Rainer Weiss recibe el premio Princesa de Asturias 2017 de Investigación Científica y Técnica de manos del rey Felipe. Imagen de EFE/Chema Moya.

El físico Rainer Weiss recibe el premio Princesa de Asturias 2017 de Investigación Científica y Técnica de manos del rey Felipe. Imagen de EFE/Chema Moya.

Cada año se establece una comparación interesante entre los Nobel y nuestra propia versión, que obviamente no alcanza la misma repercusión internacional que los premios suecos, al menos en ciencia. El paralelismo es relativo, porque los Nobel distinguen tres categorías científicas, mientras que en los nuestros todo entra en un mismo saco.

A pesar de esto, los Princesa de Asturias no tienen una capacidad más limitada para premiar a los científicos, sino todo lo contrario: hay muchas disciplinas científicas que no tienen cabida en los Nobel, mientras que la categoría más amplia de los Princesa permite incluir a los paleoantropólogos, biólogos evolutivos, matemáticos, ingenieros de computación, ecólogos, científicos planetarios o climatólogos, por citar solo algunos ejemplos.

En este blog ya respondí a la clásica pregunta de por qué no hay un Nobel de matemáticas, pero aclarando que la respuesta más bien explica por qué estos premios solo contemplan un espectro muy estrecho de ciencias, dejando fuera a todas las demás. Algunas de las que he mencionado aún no existían en tiempos de Alfred Nobel, pero sí otras. Y la verdadera pregunta debería ser por qué no hay Nobel de invención o tecnología, el campo al que el inventor de la dinamita dedicó toda su vida.

Pero salvando las diferencias entre ambos premios, es interesante comparar dónde ponen el foco cada año dos jurados formados por un puñado de reconocidas personalidades de la ciencia y adláteres. Y dado que los Princesa se anuncian en junio y los Nobel en septiembre, los premios españoles sirven como antesala, recurriendo al tópico y sin que suponga ningún demérito abrir el camino hacia la máxima distinción científica del único planeta habitado conocido (por nosotros, claro).

Lo cierto es que este año los jurados lo tenían fácil. Tanto el Princesa como el Nobel de Física han reconocido lo que muchos han llamado el hallazgo del siglo, la confirmación de las ondas gravitacionales que Einstein predijo hace cien años y que se anunció por primera vez en febrero de 2016.

A diferencia de los Nobel, los Princesa no limitan la concesión a un máximo de tres nombres. El jurado de los premios españoles escogió a los mismos tres responsables de la detección de ondas gravitacionales que aún viven (uno de ellos murió este mismo año) y que este mes han sido agraciados también con el Nobel: el impulsor de todo ello, Rainer Weiss; el teórico, Kip Thorne; y el que lo hizo realidad, Barry Barish.

Pero además, el Princesa ha incluido también de forma más simbólica a todo el equipo que participa en el experimento LIGO, la máquina que permitió llevar a cabo el hallazgo. Como ya conté aquí, más de mil investigadores firmaron el estudio que describió la primera detección de ondas gravitacionales.

Como en el caso de los Nobel, se echa de menos un reconocimiento para los responsables y los integrantes del experimento Virgo, el homólogo europeo del estadounidense LIGO. Virgo no es una sucursal, sino que ambos comenzaron su andadura de forma independiente, para luego entablar una colaboración que ya estaba consolidada antes de que LIGO consiguiera cazar por primera vez las arrugas espaciotemporales. Aquella primera detección no cayó en las redes de Virgo, pero no por ello su contribución a este titánico esfuerzo colectivo e internacional debería quedar sin premio.

En resumen, aunque en este caso los Princesa han acertado al marcar la senda que luego han seguido los Nobel, y además reparten la distinción de una manera más ajustada al formato cooperativo de la investigación científica actual, siempre se olvida a alguien.

En el caso de los Princesa, sin duda el error más imperdonable en la historia de estos galardones se cometió en 2015, cuando se premió a las investigadoras Emmanuelle Charpentier y Jennifer Doudna por el desarrollo de la herramienta de edición genómica CRISPR, dejando fuera al descubridor del sistema; que para más escarnio es español, el alicantino Francis Mojica. Una deuda aún pendiente, y una mancha que debe borrarse cuanto antes: ¿hará falta que Mojica reciba el Nobel para que el jurado del Princesa deje de mirar para otro lado?

Los Nobel, uno fresco, otro rancio, y siempre dejan a alguien fuera

Como cada año por estas fechas, no puede faltar en este blog un comentario sobre lo que nos ha traído la edición de turno de los premios Nobel. Y aunque cumplo con esta autoimpuesta obligación, debo confesarles que lo hago con la boca un poco pastosa. No por desmerecer a los ganadores, siempre científicos de altísimos logros, sino por otros motivos que año tras año suelo traer aquí y que conciernen a los propios premios.

Imagen de Wikipedia.

Imagen de Wikipedia.

En primer lugar, están los merecimientos no premiados de los que siempre se quedan por debajo de la línea de corte. Ya lo he dicho aquí, y no descubro nada nuevo: ya no hay Ramones y Cajales encerrados a solas en su laboratorio. Vivimos en la época de la ciencia colaborativa y a veces incluso multitudinaria, donde algunos estudios vienen firmados por miles de autores. No exagero: hace un par de años, un estudio de estimación de la masa del bosón de Higgs batió todos los récords conocidos al venir firmado por una lista de 5.154 autores. Nueve páginas de estudio, 24 páginas de nombres.

En el caso que nos ocupa, el Nobel de Física 2017 anunciado esta semana ha premiado la detección de ondas gravitacionales, un hito histórico que se anunció y publicó por primera vez en febrero de 2016, que confirmó la predicción planteada por Einstein hace un siglo y que según los físicos abre una nueva era de la astronomía, ya que enciende una nueva luz, que en este caso no es luz, para observar el universo.

Pero aunque sin duda el hallazgo merece los máximos honores que puedan concederse en el mundo de la ciencia, el problema es que los Nobel fueron instituidos por un tipo que murió hace 121 años, cuando la ciencia era cosa de matrimonios Curies investigando en un cobertizo. Y las normas de los Nobel dicen que como máximo se puede premiar a tres científicos para cada categoría.

Los agraciados en este caso han sido Rainer Weiss, Barry Barish y Kip Thorne, los tres estadounidenses, el primero nacido en Alemania. Weiss se queda con la mitad del premio, mientras que Barish y Thorne se reparten el otro 50%.

No cabe duda de que los tres lo merecen. Weiss fue quien inventó el detector que ha servido para pescar por primera vez las arrugas en el tejido del espacio-tiempo, producidas por un evento cataclísmico como la fusión de dos agujeros negros. Thorne ha sido la cabeza más visible en el desarrollo de la teoría de las ondas gravitacionales, además de ser un divulgador mediático y popular: creó el modelo de agujero negro que aparecía en la película Interstellar. Por su parte, Barish ha sido el principal artífice de LIGO, el detector que primero observó las ondas gravitacionales y que se construyó según el modelo de Weiss apoyado en la teoría de Thorne.

Pero más de mil científicos firmaron el estudio que describió la primicia de las ondas gravitacionales. Sus diversos grados de contribución no quedan reflejados en la lista de autores, ya que en casos así no se sigue la convención clásica de situar al principal autor directo del trabajo en primer lugar y al investigador senior en el último; aquí la lista es alfabética, sin un responsable identificado. El primero de la lista era un tal Abbott, cuyo único mérito para que aquel estudio histórico ahora se cite como “Abbott et al.” fue su ventaja alfabética. De hecho, había tres Abbotts en la lista de autores.

¿Se hace justicia premiando solo a tres? Tengo para mí que los físicos especializados en la materia, sobre todo quienes hayan participado de forma más directa o indirecta en este campo de estudio, tal vez tengan la sensación de que queda alguna cuenta no saldada.

Como mínimo, habrá quienes achaquen al jurado que haya olvidado la importantísima contribución de Virgo, el socio europeo del experimento LIGO. Ambos nacieron de forma independiente en los años 80, LIGO en EEUU y Virgo en Italia como producto de una iniciativa italo-francesa. Con el paso de los años, LIGO y Virgo comenzaron a trabajar en una colaboración que estaba ya muy bien trabada antes de que el detector estadounidense lograra la primera detección de las ondas gravitacionales. La cuarta detección de ondas de este tipo, anunciada hace solo unos días, se ha producido en paralelo en LIGO y en Virgo. ¿Es justo dejar a los artífices del proyecto europeo sin el reconocimiento del Nobel?

Por supuesto, son las normas de los premios. Pero miren esto: el testamento de Nobel no mencionaba en absoluto a tres premiados por cada categoría, sino que se refería simplemente a “la persona que…”. Por lo tanto, si se trata de ceñirse estrictamente a la última voluntad del fundador de los premios, estos no deberían repartirse.

Pero la limitada representatividad de la lista de premiados no es el único defecto de los Nobel. Otro que también he comentado aquí en años anteriores es la tendencia a premiar trabajos tan antiguos que ni sus autores ya se lo esperaban, si es que siguen vivos. Y en esto tampoco se respetan las instrucciones de Alfred Nobel, ya que él especificó que los premios deberían concederse a quien “durante el año precedente haya conferido el mayor beneficio a la humanidad”.

Si al menos este año en Física se ha premiado ciencia fresca y puntera, no ocurre lo mismo con la categoría de Fisiología o Medicina. Los tres galardonados, Jeffrey Hall, Michael Rosbash y Michael Young, todos estadounidenses, lograron sus avances fundamentales sobre los mecanismos moleculares del reloj biológico (los ritmos circadianos) allá por los años 80.

De hecho, hay un dato muy ilustrativo. A diferencia del caso de las ondas gravitacionales, en el campo de los ritmos circadianos sí hay dos nombres que muy claramente deberían encabezar una lista de candidatos a recibir los honores: Seymour Benzer y su estudiante Ron Konopka, los genetistas estadounidenses que primero descubrieron las mutaciones en los genes circadianos con las cuales pudo escribirse la ciencia moderna de la cronobiología. Pero Benzer falleció en 2007, y Konopka en 2015. Y no hay Nobel póstumo. El premio en este caso se ha concedido a una segunda generación de investigadores porque se ha concedido tan a destiempo que los de la primera murieron sin el debido reconocimiento.

En este caso, los Nobel pecan una vez más de conservadurismo, de no apostar por avances más recientes cuyo impacto está hoy de plena actualidad en las páginas de las revistas científicas. Por ejemplo, CRISPR, el sistema de corrección de genes que abre la medicina del futuro y en el que nuestro país tiene un firme candidato al premio, el alicantino Francisco Martínez Mojica. Pero dado que este avance también puede optar al Nobel de Química, que se anuncia hoy miércoles dentro de un rato, de momento sigamos conteniendo la respiración.

Así es como se ve un eclipse solar… desde la Luna

Adivina adivinanza: ¿cómo se ve un eclipse solar desde la Luna?

Dicen algunos que el eclipse solar del pasado 21 de agosto fue el más observado de la historia. Es difícil probar esta afirmación, pero es de suponer que nunca tantos ojos se habrán vuelto hacia el cielo como cuando un eclipse haya favorecido especialmente a alguna de las regiones más densamente pobladas del planeta, como por ejemplo el subcontinente indio.

Pero algo sí es probable, y es que este último haya sido el más observado científicamente, al haber agraciado con su espectáculo de totalidad a la primera potencia científica del mundo. Desde varios meses antes, todo organismo científico de EEUU con competencias en la materia nos estuvo asaeteando a las partes implicadas con andanadas de correos electrónicos informándonos de toda clase de actividades, reuniones, experimentos, viajes, distribuciones masivas de gafas y otros eventos, hasta un extremo ya ligeramente machacón; sobre todo para quienes no teníamos ninguna posibilidad de desplazarnos hasta allí.

Por mi parte, tuve la fortuna desde el punto de vista personal, pero el infortunio desde el profesional, de hallarme aquella tarde bajo un hosco muletón de nubes que arropaba por completo el cielo escocés, así que no pude presenciar ni ese diminuto mordisco al disco que podía observarse desde allí.

Pero a lo que íbamos. Si conocen el mecanismo básico de un eclipse de sol y han pensado un poco, imaginarán que el juego del escondite solar tiene un aspecto muy diferente desde la Luna. Dado que es ella la que nos oculta la luz, lo que cae sobre la Tierra es su sombra. Por tanto, desde nuestro satélite podríamos apreciar la sombra circular de la Luna moviéndose por la superficie terrestre.

Pero mejor que explicarlo es verlo: así es como lo fotografió la sonda de la NASA Lunar Reconaissance Orbiter (LRO). Este vídeo de la imagen tomada por la LRO varía la exposición de la foto para que pueda apreciarse con más facilidad la sombra de la Luna sobre el territorio continental de EEUU. En ese momento, la sombra lunar se movía sobre la Tierra a una velocidad de 670 metros por segundo, unos 2.400 km/h.

Imagen del eclipse solar del 21 de agosto de 2017 visto desde la Luna por la sonda LRO. Imagen de NASA/GSFC/Arizona State University.

Imagen del eclipse solar del 21 de agosto de 2017 visto desde la Luna por la sonda LRO. Imagen de NASA/GSFC/Arizona State University.

Si lo piensan, este efecto es exactamente el mismo que observamos desde la Tierra durante un eclipse lunar: en este caso es la sombra de nuestro planeta la que cae sobre la Luna. Pero dada la enorme diferencia de tamaño entre nuestro mundo y su satélite, toda la faz de la Luna queda bajo la sombra terrestre; allí el eclipse solar es total desde cualquier lugar en la cara visible.

De hecho, dado que el tamaño aparente de la Tierra desde la Luna es mucho mayor que el del Sol, sería de esperar que el disco solar desapareciera sin dejar rastro bajo la esfera terrestre. Sin embargo, no es así. Curiosamente, el pequeño Sol va ocultándose detrás de la gran Tierra hasta que parece que va a esfumarse por completo, pero entonces se produce una especie de milagro natural: de pronto, la Tierra queda rodeada por un fino anillo rojizo, como muestra esta imagen creada por la NASA (la animación completa está disponible aquí).

Simulación de un eclipse lunar visto desde la Luna. Imagen de NASA's Scientific Visualization Studio.

Simulación de un eclipse lunar visto desde la Luna. Imagen de NASA’s Scientific Visualization Studio.

El anillo rojo no es luz solar directa; es evidente que el disco solar no rebosa por detrás del terrestre. Es la atmósfera de la Tierra encendida por el Sol, y para comprender la razón del color rojizo no hay más que contemplar un amanecer o un atardecer, ya que de eso precisamente se trata: ese filo carmesí marca todos los lugares de nuestro planeta donde en ese momento el Sol está saliendo o poniéndose.

Y obviamente, ese tenue resplandor rojo está bañando la faz de la Luna en ese instante, motivo por el cual durante un eclipse lunar los terrícolas vemos nuestro satélite de ese color; es el brillo de nuestros miles de auroras y ocasos reflejado sobre la cara de la Luna.

Una sonda de la NASA volará a través de la atmósfera del Sol

Sunshine, de Danny Boyle, es una de las películas de ciencia ficción más interesantes que he podido ver en lo que llevamos de siglo. Según parece, sus resultados en taquilla fueron más bien discretos, algo que no me corresponde analizar a mí sino a mis compañeros Carles y Juan Carlos.

Por lo que compete a este blog, puedo decir que Boyle y Alex Garland, autor de la historia, hicieron un trabajo concienzudo basándose en una asesoría científica amplia y experta, con participación de la NASA y del físico británico y estrella mediática Brian Cox, e incluso montando a los actores en vuelos de simulación de microgravedad. Y si no todo en la película es científicamente realista, no se trata de errores, sino de licencias creativas que se tomaron siendo plenamente conscientes de que se estaban apartando de la ciencia rigurosa.

Ilustración de la Parker Solar Probe. Imagen de NASA.

Ilustración de la Parker Solar Probe. Imagen de NASA.

Sí, hubo científicos que escribieron criticando negativamente la película. A quienes nos dedicamos a esto nos gusta desentrañar cuánto hay de ciencia real y cuánto de vengayá en las películas del género. Pero una cosa es aprovechar estas licencias argumentales como herramienta de divulgación, y otra basarse en ellas para descalificar una película como si se hubiera cometido una especie de afrenta. Toda época ha tenido sus inquisidores.

Toda peli de ciencia ficción encuentra su eficacia sabiendo hasta dónde estirar la ciencia; y si hay que romperla para ir un poco más allá porque la historia lo pide, pues se rompe y no pasa nada: la ciencia no es una religión, y la ficción es ficción porque es ficción. Incluso una joya tan elogiada como 2001: Una odisea del espacio se basa en una idea hoy indefendible por criterios científicos, la existencia de inteligencias extraterrestres casi supremas, ese rollo que en Prometheus llamaban “los ingenieros”. Y qué decir de toda película basada en los viajes en el tiempo.

Para quienes no la hayan visto, les resumo el argumento de Sunshine en una frase y sin spoilers: el Sol se está apagando debido a un accidente natural que en la película no se menciona, pero que sí se explica científicamente en el guión original (para los curiosos, una colisión con una Q-ball), y una nave tripulada debe viajar hasta allí para reactivarlo mediante una megaexplosión nuclear, después del fracaso de una misión anterior que desapareció sin dejar rastro.

El acierto de Sunshine, en mi opinión, está en desarrollar la quiebra psicológica de los personajes amenazados por un monstruo tan poderoso como inusual: el Sol, normalmente un elemento benéfico e imprescindible para la vida. Darle al Sol el papel del malo es un hallazgo comparable al de poner al asesino en el cuerpo de un niño; ignoro a quién se le ocurrió esto por primera vez, pero Chicho Ibáñez Serrador lo hizo magistralmente en Quién puede matar a un niño. Una película que, por cierto, también exploraba sabiamente el terror a pleno sol. En Sunshine los personajes se defienden contra un enemigo que puede liquidarlos o enloquecerlos hasta que se liquiden unos a otros, y al que jamás podrán matar ni vencer.

Comparación a escala del tamaño aparente del Sol desde la Tierra (derecha) y desde la órbita de la Parker Solar Probe (izquierda). Imagen de Wikipedia.

Comparación a escala del tamaño aparente del Sol desde la Tierra (derecha) y desde la órbita de la Parker Solar Probe (izquierda). Imagen de Wikipedia.

Me ha venido el recuerdo de Sunshine con ocasión de una rueda de prensa celebrada esta semana en la que la NASA ha presentado una misión que lanzará en 2018, y que se acercará al Sol como jamás lo ha hecho antes ningún artefacto de fabricación humana. Faltando el elemento humano, la Parker Solar Probe (bautizada en homenaje al astrofísico Eugene Parker, descubridor del viento solar y que, en contra de la costumbre en estos casos, aún vive) enfrentará sus circuitos a los mismos peligros que amenazaban a la tripulación del Icarus II en la película.

Parker se acercará a unos seis millones de kilómetros del Sol. Puede que esto no parezca demasiado si consideramos que nuestra estrella tiene un diámetro de 1,4 millones de kilómetros, pero la cosa cambia si tenemos en cuenta que Mercurio se encuentra a 58 millones de kilómetros del Sol, casi diez veces más lejos de lo que la sonda se aproximará. De hecho, Parker volará atravesando la corona, la parte exterior de la atmósfera solar. El gráfico de la derecha muestra el tamaño aparente del Sol desde la Tierra, comparado con el que verá la sonda.

Trayectoria orbital prevista para la Parker Solar Probe. Imagen de NASA.

Trayectoria orbital prevista para la Parker Solar Probe. Imagen de NASA.

Para soportar una temperatura de 1.377 ºC, con una intensidad solar 520 veces superior a la que existe en la Tierra, Parker esconderá sus instrumentos detrás de una sombrilla de 11,5 centímetros de grosor fabricada con carbono reforzado con fibra de carbono, el mismo material que protegía a los shuttles de la NASA durante la reentrada en la atmósfera. Eso sí, energía solar no le faltará.

La misión se lanzará el 31 de julio de 2018, pero durante seis años se dedicará a sobrevolar Venus. Deberemos esperar hasta el 19 de diciembre de 2024 para su primera aproximación al Sol. Parker conseguirá además otro récord, el del objeto de fabricación humana más rápido de la historia: durante su recorrido alrededor del Sol, su velocidad alcanzará los 700.000 km/h.

Thomson, el físico que (realmente no) descubrió el electrón

Dicen los libros de texto que el físico inglés Joseph John Thomson descubrió el electrón el 30 de abril de 1897. De lo cual se sigue que la primera partícula subatómica acaba de cumplir 120 años.

Pero en realidad no fue exactamente así.

J. J. Thomson en su laboratorio. Imagen de Wikipedia.

J. J. Thomson en su laboratorio. Imagen de Wikipedia.

A los humanos nos vuelven locos los aniversarios, sobre todo cuando hacen números redondos. En cuanto algo cumple un año, ya nos estamos lanzando a celebrarlo, y luego vienen los cinco, los diez… Y todo hay que decirlo, es uno de los recursos de los que vive el periodismo, incluido el que practica este que suscribe. Y tampoco está mal recordar nuestra historia reconociendo a quienes lo merecen.

Pero a veces, estas efemérides deben servir para aclarar cómo no sucedieron las cosas. Los grandes descubrimientos científicos no suelen ser cuestión de una fecha concreta, ya que normalmente son fruto de un largo proceso de investigación. Incluso cuando hay un momento de eureka, un experimento que revela de súbito un resultado largamente esperado, este deberá esperar a ser divulgado, y a que la comunidad científica le dé su asentimiento.

Las fechas que asociamos a ciertos hallazgos, como la relatividad general de Einstein cuyo  centenario celebrábamos en 2015, suelen ser las de su divulgación. Antes era común que los científicos leyeran sus trabajos ante los miembros de alguna institución científica. Hoy la fecha de un descubrimiento es la de su publicación en una revista después de que los resultados hayan sido validados por otros expertos en un proceso llamado revisión por pares.

En el caso de Thomson, la fecha del 30 de abril corresponde al día en que presentó sus resultados ante la Royal Institution. Pero el físico no presentó el electrón, sino el “corpúsculo”, una partícula constituyente de los rayos catódicos que tenía carga negativa y cuya masa era unas mil veces menor que la del ion de hidrógeno.

En realidad, Thomson no fue el primero en intuir que el átomo no era tal á-tomo (indivisible), sino que contenía partículas subatómicas. Tampoco fue el primero en sugerir que esas partículas eran unidades elementales de carga eléctrica. Tampoco fue el primero en deducir que los rayos catódicos estaban formados por algo cargado negativamente, ni fue el primero en intentar calcular una masa para ese algo. Y por último, tampoco inventó la palabra “electrón”; esta había sido acuñada por el irlandés George Johnstone Stoney en 1891, un término esperando algo que designar.

El de Thomson es un caso peculiar. Acudo a Isobel Falconer, historiadora de matemáticas y física de la Universidad de St. Andrews (Reino Unido), experta en la figura de Thomson y autora del libro J.J. Thompson And The Discovery Of The Electron (CRC Press, 1997), entre otros muchos trabajos sobre el físico. Le pregunto si debemos considerar a Thomson el descubridor del electrón, y esta es su respuesta: “descubrir es una palabra muy resbaladiza”.

“El trabajo de Thomson reunió un número de líneas separadas que presagiaron el electrón como lo conocemos”, prosigue Falconer. “Al demostrar que podía manipular y adscribir masa y velocidad a cargas unitarias, concebidas como estructuras en el éter, reunió la visión mecanística británica y la visión continental de la relación entre electricidad y materia, haciendo de los electrones algo real para los físicos experimentales”.

Más que un padre natural para el electrón, Thomson fue el padre adoptivo; recogió a una criatura ya casi existente entonces para presentarla en sociedad y hacerla visible ante los demás. La historiadora añade que la constatación de que los electrones podían explicar las propiedades periódicas de los elementos de la tabla consiguió unificar las visiones del átomo que hasta entonces separaban a físicos y químicos.

Todo lo cual es motivo más que suficiente para conceder a Thomson un lugar de privilegio en el hall of fame de la ciencia, sin necesidad de recordarle por el electrón. “Pienso que Thomson debería ser recordado como un físico prolífico y muy creativo, con gran visión y con olfato para los problemas interesantes, que estaba preparado para romper las reglas en la prosecución de esos problemas”, dice Falconer. Tanto la historiadora como otros expertos en la obra de Thomson coinciden en su papel crucial en el cambio de siglo de la física, en su transición hacia la física de partículas. Y no solo a través de su propio trabajo, sino como director del laboratorio Cavendish de la Universidad de Cambridge, un criadero de premios Nobel.

De hecho, cuando Thomson recibió el Nobel en 1906 no fue por el electrón, sino por su línea principal de trabajo, la conducción de electricidad en recipientes llenos de gas. Curiosamente, el electrón llegó en tubos al vacío, algo que era más bien una rareza en su trabajo.

Tal vez al propio Thomson le sorprendería verse hoy en los libros como el padre del electrón. Según Falconer, era un tipo modesto. Y seguro que de otra paternidad se sentía mucho más orgulloso: vivió para ver cómo su hijo George Paget Thomson le seguía los pasos hasta el mismísimo altar de los Nobel, donde un segundo Thomson recogería su premio en 1937.

¿Realmente Einstein se equivocó?

Cuando en 1919 las fotografías de un eclipse de sol demostraron que la luz de las estrellas se curvaba al interponer la pesada masa del sol, como había predicho la relatividad general de Einstein, la prensa británica y estadounidense anunció una revolución científica liderada por aquel físico que hoy habría cumplido 138 años. A pesar de que pocos realmente entendían en qué consistía: en EEUU, el diario The New York Times publicaba la noticia señalando que “no más de 12 personas en todo el mundo podrían entenderla”.

Albert Einstein en 1921. Imagen de Wikipedia.

Albert Einstein en 1921. Imagen de Wikipedia.

Por fortuna, hoy no solo son miles los físicos en todo el mundo que entienden a la perfección el trabajo de Albert Einstein y han construido sobre los cimientos que él sentó, sino que además hay también miles de canales por los que cualquier persona interesada sin conocimientos de física puede hacerse con unos conceptos básicos sobre la relatividad especial y la general.

Y sin embargo, los especialistas continúan hoy desgranando la obra de Einstein, desde sus artículos científicos a su correspondencia, para entender y explicar cuál era su visión de la naturaleza, ese objeto del que trata el estudio de la física. No todo está dicho sobre el trabajo de Einstein. Y de hecho, en algún sentido aún no se le ha entendido bien, a decir de algunos expertos.

Uno de los aspectos más discutidos del pensamiento del científico más famoso de todos los tiempos es su relación con la mecánica cuántica, una disciplina que él contribuyó a crear cuando explicó el efecto fotoeléctrico, lo que le valió el Nobel; pero con cuya interpretación mayoritaria siempre mantuvo una seria discrepancia.

En un reportaje publicado hoy con motivo del aniversario he explicado con más detalle en qué consistía la objeción de Einstein hacia la física cuántica. En pocas palabras y según la versión más corriente, el físico pensaba que la dependencia de la cuántica del concepto de probabilidad revelaba en realidad un agujero en la teoría, un territorio en el que debían existir variables ocultas no contempladas por la interpretación manejada por sus contemporáneos y que eran fundamentales para explicar cómo funcionaba la realidad. En resumen, Einstein no pensaba que la cuántica estuviera equivocada, pero sí incompleta.

Un ejemplo estaba en el principio de incertidumbre o de indeterminación de Heisenberg, según el cual no era posible medir la posición y la velocidad de una partícula al mismo tiempo, dado que la intervención del observador modifica las propiedades del sistema observado. La física cuántica resultaba extraña en su día, y todavía hoy, porque es diferente a la clásica; esta es determinista, mientras que la cuántica es probabilista. El comportamiento de las cosas grandes, que la experiencia nos hace interpretar como de sentido común, no funciona con lo infinitamente pequeño, y viceversa. Pero Einstein pensaba que algo estaba escapando a los teóricos para poder explicar también el funcionamiento de las cosas pequeñas desde una visión realista.

En 1935, y junto a sus colegas Nathan Rosen y Boris Podolsky, el físico publicaba un artículo bajo un título en forma de pregunta que claramente sugería la respuesta: ¿Puede considerarse completa la descripción mecano-cuántica de la realidad física? En aquel trabajo, los tres científicos planteaban un experimento mental que más tarde se conocería como la Paradoja Einstein-Podolsky-Rosen (EPR).

Suponiendo dos partículas que interaccionan entre ellas antes de separarse y cuya interacción vincula entre sí las propiedades de ambas, sería posible conocer la segunda propiedad de una partícula midiéndola en la otra, ya que una vez separadas no hay posibilidad de que la observación de una influya sobre la otra; a menos, claro, que existiera lo que Einstein denominaba una “truculenta acción a distancia” instantánea; pero no hay nada instantáneo, ya que cualquier posible interacción está limitada por la velocidad de la luz.

La Paradoja EPR fue discutida durante décadas, pero hoy hay una potente corriente entre los físicos que considera probada la “truculenta acción a distancia”, el fenómeno llamado entrelazamiento cuántico (más detalles aquí y aquí). En los últimos años varios experimentos cada vez más finos y blindados parecen demostrar que las predicciones de la cuántica se cumplen, que las partículas se comunican entre ellas a pesar de estar separadas y que, en consecuencia, Einstein acertó al describir un fenómeno, pero se equivocó al creer que tal fenómeno no era posible.

Sin embargo, tal vez no todo es realmente lo que parece, o lo que asume la versión corriente. Hace unos días estuve hablando con Don Howard, profesor de filosofía de la Universidad de Notre Dame (EEUU) especializado en filosofía de la ciencia, y en concreto en el pensamiento de Einstein. Howard me contaba un detalle tal vez poco conocido, y es que en realidad la mayor objeción del alemán a la cuántica no era la ausencia de determinismo; pero es que su mayor objeción no estaba reflejada en el estudio EPR por una razón: “como sabemos por su correspondencia posterior, Einstein de hecho no escribió el EPR, sino que lo hizo Podolsky, y realmente no le gustaba el estudio”.

Según Howard, “en una carta a Schrödinger poco después de la publicación del estudio EPR, Einstein explicaba que el punto principal quedaba enterrado por la erudición o por el excesivo formalismo del estudio”. Para Einstein, el artículo se había centrado en justificar que la cuántica estaba incompleta basándose en la existencia de un caso especial de la realidad física que no tenía cabida en la teoría, pero su verdadera objeción era más profunda y general; la cuántica no era incompleta por no poder explicar algo muy concreto, sino más bien por no poder explicarlo todo en su conjunto.

Einstein veía más bien que la cuántica solo podía explicar la realidad si se prescindía de rasgos esenciales de la realidad tal como es, tal como él la había descrito a través de la relatividad aplicable a las cosas grandes. Podría decirse que los cuánticos describían retratos mediante ecuaciones, pero no narraban el relato de la realidad; por ejemplo, no tenía cabida hablar del pasado de una partícula; no sale en el retrato.

¿Estaba Einstein realmente equivocado? Desde luego, no creía en el entrelazamiento cuántico entre partículas separadas (que los físicos llaman no-localidad). Y para Howard, en esto hoy se habría rendido a las pruebas: “creo que habría cedido, por dolorosa que fuera esa concesión”, dice. “¿Por qué? Porque, como dejó claro en muchas ocasiones, al final es la prueba empírica la que decide las cuestiones sobre la elección de teoría”. Einstein era un realista, y hoy parece cada vez más claro que el entrelazamiento cuántico es real.

Pero según la visión de Howard y otros pensadores sobre cuál era el verdadero sentido de la objeción de Einstein a la cuántica, se entiende que históricamente tal vez un solo árbol, la paradoja EPR, ha tapado todo un bosque. Lo cierto es que hoy los físicos aún continúan batallando por darse la mano uniendo los dos túneles perforados desde ambos extremos, el de la cuántica y el de la relativística. Y está claro que Einstein acertó cuando escribió:

En cualquier caso, en mi opinión, uno debería guardarse de comprometerse dogmáticamente con el esquema de la teoría actual en la búsqueda de una base unificada para la física en su conjunto.

Esta noche las campanadas llegarán un segundo más tarde… en Canarias

Quienes esta noche estén pendientes de la hora en su móvil podrán asistir a una rareza: un segundo de regalo, que dejará el reloj durante un breve suspenso en los 59 minutos y 60 segundos antes de comenzar una nueva hora.

Reloj de la Puerta del Sol (Madrid). Imagen de Albeins / WIkipedia.

Reloj de la Puerta del Sol (Madrid). Imagen de Albeins / WIkipedia.

Pero cuidado: esto no sucederá con las campanadas del reloj de la Puerta del Sol. El llamado segundo intercalar se introduce de forma simultánea en todos los relojes del mundo. Y dado que hay que elegir un momento concreto común para todo el planeta, se hace a las 23:59:59 del 31 de diciembre según el Tiempo Universal Coordinado (UTC).

En España, solo Canarias se ciñe a la hora UTC; en el resto del territorio seguimos el horario UTC+1. Esto implica que en el archipiélago el segundo intercalar se introducirá justo con el comienzo del año nuevo, pero los demás veremos ese instante de más cuando nuestros relojes marquen las 00:59:59 del 1 de enero, es decir, pasada la primera hora del primer día de 2017. En ese momento, el reloj pasará a marcar 00:59:60.

Para la mayoría de nosotros esta corrección, que hasta ahora se ha introducido un total de 26 veces, no es más que una curiosidad. Pero para algunos es un quebradero de cabeza: el segundo de más debe insertarse forzadamente en los servidores que controlan el tiempo en internet, que se rigen por relojes atómicos muy precisos pero desconectados del “tiempo real”, si por tiempo real entendemos el día solar verdadero. La Tierra no tarda exactamente los 86.400 segundos contenidos en 24 horas en dar una vuelta a su eje, sino una fracción de segundo más.

Lo peor de todo es que esta fracción de diferencia no es fija, sino que varía por las irregularidades de la naturaleza. Estos segundos siempre se insertan el 30 de junio y el 31 de diciembre, pero no todos los 30 de junio ni todos los 31 de diciembre. El organismo encargado, el Servicio Internacional de Rotación de la Tierra y Sistemas de Referencia, va dictaminando los segundos intercalares en función de las observaciones de la diferencia entre el tiempo del reloj atómico, UTC, y el tiempo real de la Tierra, que se conoce como Horario Universal (la versión moderna de la hora de Greenwich).

Algo parecido ocurre con el día de más de los años bisiestos, como también lo ha sido 2016. El 29 de febrero se introduce de forma regular para compensar también la diferencia entre la duración del año en nuestros relojes y el año real, el que tarda la Tierra en recorrer una órbita completa en torno al Sol. Pero en el caso del año bisiesto se sigue una programación regular, y además introducir un día completo según el calendario local en cada lugar de la Tierra no provoca perturbaciones.

En cambio, el segundo intercalar no tiene programación regular. Cuando se introdujo este sistema, en 1972, el mundo no dependía tanto de los sistemas electrónicos como hoy. Todos los relojes de nuestros dispositivos se regulan por sistemas en internet que a su vez dependen de esos servidores maestros encargados de guardar el tiempo siguiendo el tictac de los relojes atómicos. Pero no todos los sistemas aceptan de buen grado repetir un segundo, por lo que esta corrección puede tirar abajo redes informáticas vitales.

Posiblemente en el futuro el segundo intercalar se sustituya por una corrección periódica regular, como se hace con el año bisiesto. Pero de momento, esta noche tendremos un segundo más para felicitarnos el año nuevo. Que lo disfruten.

Haga sus propios copos de nieve, e ilumine su árbol con peces eléctricos

Ya que el anticiclón no parece dispuesto a soltarnos y a falta de Navidades blancas, ¿qué tal aprovechar las vacaciones para fabricar sus propios copos de nieve en casa?

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

El físico de Caltech (EEUU) Kenneth G. Libbrecht es probablemente el mayor experto mundial en cristales de hielo: los crea, los estudia y los fotografía para comprender cómo se forman y en qué medida sus simétricas formas caprichosas dependen de factores como el grado de humedad, la presión o las variaciones sutiles de temperatura. Sus hermosas imágenes están libres de Photoshop; son fotomicrografías reales de copos sabiamente iluminados para que la luz se descomponga en los colores del arco iris.

Y por cierto, hasta tal punto las condiciones de crecimiento del cristal determinan su forma que Libbrecht ha desmontado el viejo mito según el cual no existen dos copos de nieve iguales: utilizando condiciones idénticas, el físico ha logrado crear cristales que son auténticos gemelos idénticos. Y no solo de dos en dos, sino hasta en grupos de varios.

En su web, Libbrecht detalla paso a paso una receta para crear copos de nieve en casa, que resumo aquí. Estos son los materiales necesarios:

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

  • Una botella pequeña de plástico (con tapón)
  • Tres vasos de poliestireno
  • Una esponja pequeña de 1 cm de grosor
  • Hilo de náilon
  • Aguja de coser
  • Cuatro alfileres
  • Un clip
  • Toallas de papel
  • Cinta adhesiva
  • Unos cinco kilos de hielo seco (puede comprarse por ejemplo aquí)

Primero, se corta el fondo de la botella de plástico a 1 cm de la base. En este fondo se encaja una esponja circular, que se fija clavando cuatro alfileres en los laterales. La esponja y el fondo de la botella se perforan en su centro con una aguja en la que se ha enhebrado el hilo de náilon. Este se fija al exterior de la base con cinta adhesiva, y en el otro extremo se ata el clip para que sirva de peso. La longitud total del hilo debe ser tal que, al volver a colocar el fondo a la botella y ponerla boca abajo, el clip quede dentro de la botella sin llegar al borde del cuello.

Todo este tinglado de la botella, una vez mojada la esponja con agua del grifo, se introduce en los vasos de poliestireno rellenos de hielo seco machacado, como muestra la figura, y se cubre con toallas de papel alrededor de la botella. Con los materiales que Libbrecht utiliza, el vaso que rodea la botella debe agujerearse por la base, pero el físico aclara que esta disposición es solo una sugerencia.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Lo importante es que en la botella se creen dos zonas, templada y húmeda arriba, fría y seca abajo. El agua de la esponja supersatura el aire de vapor, que difunde pasivamente hacia abajo (el aparato se llama cámara de difusión). Al encontrar la zona fría, comienza a cristalizar en torno a un sitio de nucleación, suministrado por las irregularidades del hilo, y a los pocos minutos comenzarán a aparecer los cristales como los de la foto.

Según explica Libbrecht, esto mismo sucede en la atmósfera cuando el aire cálido y húmedo encuentra aire frío. Según la temperatura de este sea mayor o menor de 0 ºC , se forma lluvia o nieve. Cada gota de lluvia o copo de nieve lleva en su interior alguna partícula de polvo que sirve para la nucleación.

Obtener fotografías como las de Libbrecht es algo mucho más complicado, ya que esto requiere un microscopio en frío. Pero los cristales de nieve que se forman pueden verse a simple vista o con una lupa.

Otra sugerencia para Navidad es controlar las luces del árbol mediante peces eléctricos, para quienes tengan acuario y sean además un poco frikis. La propuesta viene del Laboratorio de Peces Eléctricos dirigido por Jason Gallant en la Universidad Estatal de Michigan (EEUU).

Gallant aclara que los peces realmente no alimentan la iluminación del árbol, sino que controlan el parpadeo de las luces. Es decir, que el montaje es una manera navideña y original de comprobar cómo los peces eléctricos africanos Gymnarchus, según el científico fáciles de encontrar en las tiendas de acuarios, navegan y se comunican con impulsos eléctricos; cada vez que el pez emite un pulso, el árbol se ilumina.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Para poner en práctica la idea de Gallant se necesita algo de material electrónico, pero también ciertos conocimientos de informática para programar una plataforma Arduino. La lista de los componentes necesarios y el código para programar el sistema se detallan en el blog de Gallant. Feliz navidad y felices experimentos.

Cuidado con el radón, el monstruo que vive en el sótano

Como en los cuentos de Lovecraft, la amenaza llega desde el submundo. Si usted vive en la franja occidental de la Península que desciende desde Galicia hasta el Sistema Central, esto le interesa. Sepa que tal vez se encuentre en una zona de alta exposición al radón, un gas radiactivo que aparece en el ambiente durante la desintegración del uranio-238 atrapado en el suelo y en las rocas, y que está presente de forma natural en pequeñísima proporción en el aire que respiramos.

Con el radón sucede como con los virus: la percepción pública tiende a desplazarse fácilmente del cero al infinito sin término medio. La mayoría de la gente no conoce el problema de este gas, pero a veces ocurre que quienes se enteran de ello pasan de inmediato al extremo del pánico.

Lo cierto es que el radón es un problema de salud pública reconocido por la Organización Mundial de la Salud, que mantiene un proyecto internacional al respecto. Pero como recordaba el pasado 7 de noviembre (Día Europeo del Radón) el experto del Ilustre Colegio Oficial de Geólogos (ICOG) Luis S. Quindós Poncela, que dirige el Grupo Radón en la Cátedra de Física Médica de la Universidad de Cantabria, lo prioritario es presentar el problema a los poderes públicos y a los ciudadanos para facilitar la información primero, y la actuación después.

El problema con el radón no es que estemos potencialmente expuestos a una fuente de radiación externa, como cuando nos hacemos una radiografía, sino que estamos potencialmente expuestos a contaminación radiactiva: cuando respiramos, introducimos el radón en nuestros pulmones, y así llevamos la fuente de radiación con nosotros. Y si bien el propio gas se desintegra en unos propios días, al hacerlo origina otros compuestos también radiactivos que nos someten a una exposición más prolongada. Esta radiación sostenida puede provocar mutaciones en el ADN cuya consecuencia más fatal es el cáncer.

El radón se filtra al aire desde el suelo, por lo que el riesgo es mayor cuanto más permeable es el terreno bajo nuestros pies. Según Quindós Poncela, las arcillas contienen una concentración de uranio apreciable, pero “su elevada impermeabilidad hace que la cantidad de radón que alcanza la superficie sea muy pequeña”. En cambio el granito es más poroso y suele formar paisajes muy rotos, como ocurre en la Sierra de Guadarrama, y es en este tipo de suelos donde “el radón se desplaza más fácilmente y puede alcanzar la superficie del suelo en mayor proporción”, añade el experto.

Vías de entrada del radón en una casa. Imagen de la Universidad de Cantabria.

Vías de entrada del radón en una casa. Imagen de la Universidad de Cantabria.

Dado que el radón surge desde lo profundo, las zonas de mayor riesgo en las viviendas son los sótanos y plantas bajas. Suele decirse que a partir del segundo piso ya no existe riesgo, pero no siempre es así: Quindós Poncela advierte de que el suelo no es la única fuente del gas. Los materiales de construcción, si se han extraído de una zona con presencia de uranio, también pueden desprender radón. Además el gas se disuelve en el agua, lo que añade otro factor de riesgo en viviendas que reciban el suministro de un pozo.

Curiosamente, la eficiencia energética de las viviendas actuales es un factor que juega en contra de la seguridad contra el radón. Según Quindós Poncela, la construcción de casas cada vez más herméticas no favorece la eliminación del gas: “Mientras que una vivienda antigua renueva el aire de su interior unas tres veces por hora, una moderna necesita dos horas para llevar a cabo dicha renovación. Este hecho favorece la presencia y acumulación de radón en el interior de las casas”, dice.

En los años 90 se emprendió una campaña de medición de radón en viviendas en toda España, gracias a la cual hoy tenemos el mapa de riesgo publicado por el Consejo de Seguridad Nuclear y que pego a continuación. Pero para Quindós Poncela, las 9.000 mediciones tomadas todavía son insuficientes. Y no solo hace falta una mayor vigilancia: el ICOG reclama a las autoridades “que se apliquen cuanto antes medidas constructivas frente al radón (diseño de cimentaciones, ventilación pasiva, análisis de materiales de construcción, etc.), incluyéndolas en el Código Técnico de la Edificación, y mejorando además la definición de las zonas de riesgo en nuestro país”.

Mapa de riesgo del radón en España. Imagen del Consejo de Seguridad Nuclear.

Mapa de riesgo del radón en España. Imagen del Consejo de Seguridad Nuclear.

En cuanto a las zonas de riesgo, un caso particular estudiado por el Grupo Radón de Quindós Poncela es el de Torrelodones, el pueblo de la sierra madrileña donde vivo, y donde el granito aflora del suelo en cada recodo del paisaje.

Las medidas tomadas en Torrelodones muestran una amplia variación de los niveles de radón, pero en casi todos los casos se mantienen bastante por debajo de los 200 becquerelios por metro cúbico (Bq/m³). En este rango, los expertos recomiendan simplemente “incrementar la ventilación natural de la vivienda para conseguir concentraciones tan bajas como sea posible”.

Solo en una ubicación la medida llega a los 266 Bq/m³, y es en la zona de Colonia Varela; si lo conocen, a la espalda del centro comercial Espacio Torrelodones. Pero incluso en este lugar no hay motivo para la alarma: por debajo de 400 Bq/m³ no se considera necesario aplicar medidas de remedio, sino solo aumentar la ventilación, especialmente en sótanos y plantas a ras de suelo.

Es de esperar que la insistencia de los expertos y la divulgación del problema del radón facilite una mayor vigilancia y una ampliación de las mediciones. Pero si viven en una zona propensa a este riesgo y quieren quedarse más tranquilos, ustedes mismos pueden medir el nivel de radón en su casa: la web del Grupo Radón ofrece un kit, con dos detectores y sus instrucciones, por 80 euros más IVA y gastos de envío.