Archivo de la categoría ‘Física’

Las dos medallas del Nobel que escaparon a los nazis

Por Mar Gulis (CSIC)*

9 de abril de 1940: el químico húngaro George Hevesy, conocido por haber descubierto el hafnio, acude como cada mañana a su trabajo en el Instituto de Física Teórica de la Universidad de Copenhague, Dinamarca. No es un día como cualquier otro: Alemania está invadiendo el país. Los ataques han comenzado durante la madrugada y el gobierno danés, consciente del desequilibrio de fuerzas, no ha tardado en presentar la rendición.

A su llegada, Hevesy encuentra a Niels Bohr, premio Nobel de Física en 1922 y director del instituto. El ‘padre’ de la mecánica cuántica está preocupado. No es ser hijo de madre judía lo que le inquieta en ese momento –al fin y al cabo, al nacer fue bautizado en el catolicismo–, sino que los ocupantes encuentren lo que obra en su poder. Bohr esconde las medallas del premio Nobel de dos físicos alemanes que, de una u otra forma, se han significado como opositores al régimen nazi: Max Von Laue, galardonado en 1914 por sus trabajos en cristalografía de rayos X, y James Franck, premiado en 1925 por sus investigaciones sobre el comportamiento de los electrones. Ambos han depositado sus condecoraciones en el instituto precisamente para evitar que caigan en manos de las autoridades de su país.

Se trata de un legado demasiado comprometedor. La Alemania de Hitler castiga incluso con la pena de muerte sacar oro del país; y las medallas están hechas con 200 gramos de oro de 23 quilates cada una. Franck, de origen judío, vive exiliado en Estados Unidos, pero Von Laue permanece en Alemania. “El nombre de Laue estaba grabado en la medalla, su descubrimiento por las fuerzas invasoras habría tenido muy serias consecuencias para él”, escribe Hevesy acabada la Segunda Guerra Mundial.

De izquierda a derecha: James Franck, Max Von Laue, George Hevesy y Niels Bohr.

Hay que darse prisa. El húngaro propone enterrar los metales, pero Bohr teme que alguien pueda descubrirlos. Entonces, echan mano de sus conocimientos sobre química. El oro es inalterable por el aire, el calor, la humedad y la mayoría de los elementos químicos, pero puede disolverse con agua regia, una combinación de una parte de ácido clorhídrico y tres de ácido nítrico.

Hevesy se pone manos a la obra y pasa la jornada encerrado en el laboratorio disolviendo las medallas. No es un trabajo fácil: “El oro es extremadamente no reactivo y difícil de disolver”, cuenta años después a Von Laue. Mientras tanto, en las calles de Copenhague ya desfilan las tropas invasoras.

Hasta 1980 todas las medallas del premio Nobel fueron acuñadas en oro de 23 quilates.

Cuando los nazis ocupan el instituto no advierten nada sospechoso. En 1943, Bohr y Hevesy, que acaba de recibir el Nobel por el estudio de organismos vivos mediante trazas radioactivas, parten al exilio. Temeroso de que Alemania se adelante en la carrera armamentística, el primero acaba en Estados Unidos colaborando con el proyecto Manhattan, que da lugar a la primera bomba atómica.

El oro permanece disuelto en agua regia hasta el fin de la guerra. Tras su regreso a Dinamarca, Bohr lo recupera y en 1950 lo envía a la Real Academia Sueca de Ciencias junto con una carta en la que explica lo sucedido. La Fundación Nobel refunde el metal y acuña con él nuevas medallas similares a las originales. Frank recibe el galardón en 1952 en una ceremonia celebrada en la Universidad Chicago. El relato más extendido sostiene que Von Laue también ‘recupera’ su medalla, aunque de esto no queda registro oficial.

 

* Si quieres descubrir más historias sorprendentes relacionadas con la química, consulta la web de la Yincana Virtual Entre Matraces, organizada por el Instituto de Química Médica del CSIC en colaboración con la FECYT. 

¿Cuánto pesa un fantasma? Los aprietos de la ciencia para averiguar la masa del neutrino

Por Pablo Fernández de Salas*

Todo lo que podemos ver en el planeta Tierra, en nuestra galaxia o incluso más allá de sus límites se ha formado a partir de bloques pequeños. Como piezas de LEGO muy avanzadas, se combinan hasta dar forma a los objetos que existen en el mundo. Estos bloques son las partículas elementales, es decir, partículas indivisibles, las pequeñas piezas que ya no podemos separar más. Entre las partículas elementales más conocidas están los fotones (los constituyentes de la luz) y los electrones (los que permiten que haya corriente eléctrica). Los protones y neutrones, sin embargo, son en realidad partículas compuestas, formadas por la unión de tres partículas elementales llamadas quarks.

Todas las partículas elementales conocidas son diferentes. Algunas tienen carga eléctrica, otras no tienen masa, pero entre ellas hay una que ha fascinado especialmente a los físicos, incluso después de que se supiera su existencia. Se trata del neutrino. En realidad, neutrino no hay solo uno, sino tres tipos distintos que se diferencian según su forma de interactuar con las demás partículas. Pero esta interacción es tan débil que los neutrinos pueden atravesar fácilmente materiales muy densos, ¡incluso el planeta Tierra! Por este motivo, al neutrino a veces se lo conoce como la partícula fantasma.

Experimento KATRIN

Espectrómetro del experimento KATRIN, cuyo objetivo es descubrir la masa del neutrino, pasando por Eggenstein-Leopoldshafen, Alemania, en 2006 de camino al Instituto Tecnológico de Karlsruhe. / Karlsruhe Institute of Technology.

Los neutrinos son unas partículas elementales muy especiales, ya que no se comportan como las demás. En concreto, como vemos, su capacidad de interacción es inusualmente baja, pero lo que más sorprende a los físicos es que los neutrinos cambian de tipo según se mueven. Son, por así decirlo, como jugadores de fútbol que pasan continuamente de un equipo a otro, cambiando su chaqueta con un patrón oscilatorio, de ida y vuelta constante. Precisamente, el descubrimiento de esta propiedad, conocida como oscilación de los neutrinos, motivó la concesión del Premio Nobel de Física al físico japonés Takaaki Kajita y al físico canadiense Arthur B. McDonald en 2015.

La oscilación de los neutrinos es importante porque nos asegura que estas partículas elementales tienen masa. Podría no haber sido así. De hecho, el modelo estándar de física de partículas, la teoría que describe el comportamiento de todas las partículas elementales conocidas, predice que los neutrinos son partículas sin masa, al igual que los fotones. Pero, si este fuera el caso, ¡los neutrinos no cambiarían de tipo cuando se propagan! Este es otro motivo por el que la oscilación de los neutrinos es tan importante: nos indica que hay física por descubrir más allá del modelo estándar.

Modelo estándar

Conjunto de partículas elementales conocidas y que constituyen el denominado modelo estándar de la física de partículas.

Entonces, ahora que sabemos que los neutrinos tienen masa es cuando nos podemos hacer la pregunta: ¿cuánto pesa un neutrino? (o lo que es casi lo mismo: ¿cuánto pesa un fantasma?). La dificultad de esta tarea es obvia: no podemos atrapar un neutrino, que se mueve a velocidades muy, muy cercanas a la de la luz, y ponerlo en una balanza. Además, debido a la poca capacidad de interacción que tienen estas partículas, tampoco podemos aplicar las técnicas que fueron utilizadas para conocer el peso de los electrones, cuya manera de curvarse en un campo magnético depende del valor de su masa.

No puedes poner un neutrino en una balanza

A día de hoy, los físicos han ideado varias formas independientes de pesar los neutrinos, de las cuales destacan dos. La primera consiste en estudiar el efecto de la masa de estas partículas en el universo. Pero, ¿cómo puede una partícula tan pequeña afectar a todo el universo? La clave está en la exorbitante cantidad de neutrinos que surca el espacio desde los primeros instantes tras el Big Bang. Aproximadamente, el volumen de un vaso de agua contiene unos cien mil neutrinos cósmicos. ¡Imagina cuántos vasos de agua son necesarios para llenar no solo el planeta Tierra, sino todo el universo! La presencia de tal cantidad de neutrinos a lo largo de la historia del cosmos cambia, entre otras cosas, la manera en que las galaxias se distribuyen en el espacio. En especial, cuanto más ligeros son los neutrinos, más dispersa es la distribución de las galaxias, y eso es algo que podemos observar.

Distribución de galaxias locales generada con los datos del Sloan Digital Sky Survey (SDSS). Cada punto representa una galaxia. / SDSS

El segundo método consiste en estimar la masa de los neutrinos en el laboratorio. Como ya hemos mencionado, no podemos colocar un neutrino en una balanza, así, sin más. En lugar de ello, para pesar un neutrino en un laboratorio los científicos explotamos uno de los principios más básicos de la física: la conservación de la energía.

Uno de los procesos en los que se producen los neutrinos es en un tipo de desintegración radiactiva de los núcleos atómicos. Por ejemplo, cuando un neutrón que forma parte del núcleo se transforma en un protón. Como resultado de esta desintegración, el núcleo atómico produce un electrón (la conocida radiación beta) y un neutrino. De hecho, fue estudiando la energía de los electrones de la radiación beta como se supo en primer lugar que tenía que existir el neutrino, conclusión a la que llegó el físico Wolfgang Pauli en el año 1930.

Hoy en día, varios experimentos siguen estudiando la energía de dichos electrones, esta vez en busca del valor de la masa de los neutrinos. Cuando un átomo se desintegra emitiendo radiación beta, produce tanto un electrón como un neutrino, de modo que toda la energía que es radiada se distribuye entre estas dos partículas.

Si los neutrinos no tuvieran masa, podría ocurrir de vez en cuando que el electrón emitido adquiriera toda la energía liberada en el proceso. Sin embargo, como sabemos gracias a la famosa expresión E=mc² de Albert Einstein, crear cierta cantidad de masa cuesta una determinada cantidad de energía. Y los neutrinos tienen masa, algo que hemos aprendido al descubrir que oscilan al desplazarse. Por lo tanto, el electrón emitido en la radiación beta nunca podrá absorber toda la energía liberada en la desintegración atómica, ya que una parte es necesaria para crear la masa del neutrino, aunque este se produzca en reposo.

Uno de los experimentos más importantes que busca descubrir la masa del neutrino, basándose en la conservación de la energía en la radiación beta, es el experimento alemán KATRIN. Desafortunadamente, la masa del neutrino es tan pequeña que incluso la avanzada tecnología actual no nos ha permitido discernir todavía el peso de estas partículas. Sin embargo, los físicos podemos poner un límite superior al valor de su masa.

Recientemente, el equipo de investigadores que pertenecen al experimento KATRIN ha publicado sus primeros resultados, que nos dicen que el valor de la masa de los neutrinos tiene que ser inferior a dos millonésimas partes de la masa de un electrón. ¡Haría falta cerca de un cuatrillón (¡un uno seguido de veinticuatro ceros!) de neutrinos para alcanzar el peso de una minúscula mota de polvo! Por otro lado, el estudio de las propiedades cosmológicas de nuestro universo nos indica que los neutrinos podrían ser incluso diez veces más ligeros que el límite obtenido por KATRIN.

Con una masa tan pequeña y una capacidad de interacción casi nula, no es de extrañar que el neutrino sea conocido como la partícula fantasma.

 

* Pablo Fernández de Salas es investigador de la Universidad de Estocolmo. Hizo el doctorado en el Instituto de Física Corpuscular (IFIC), centro mixto del CSIC y la Universidad de Valencia.

¿Para qué sirve un láser?

Por José Vicente García Ramos (CSIC)*

Cuando se inventó, en 1960, el láser no servía para nada. De hecho, en aquellos tiempos algunos científicos se referían a él como “una solución en busca de problema”. Entonces, ¿para qué lo inventaron? Parece que querían probar, experimentalmente, que el mecanismo de amplificación de la luz por emisión estimulada, predicho por Einstein en 1917 y demostrado con microondas en 1954, podía extenderse a la luz visible.

Hoy, sin embargo, la situación es muy diferente y el láser ha encontrado tantas aplicaciones que nos resulta casi imposible enumerarlas. Las tres características que diferencian la luz de un láser de la luz del Sol o de la generada por una bombilla son que, en el caso del láser, se trata de un haz de luz monodireccional, monocromático y coherente.

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Cualquier láser contiene al menos tres elementos fundamentales: un medio activo, un sistema de bombeo y una cavidad resonante. El medio activo es el material (sólido, líquido o gaseoso) que emite la luz. Para que este medio activo emita luz hay que excitarlo de alguna manera, del mismo modo que el filamento de una bombilla necesita una corriente eléctrica que pase por él. En el caso de un láser se trata del sistema de bombeo, que puede consistir en otro láser, una lámpara convencional o una corriente o descarga eléctrica. El medio activo se coloca entre dos espejos que forman una cavidad resonante donde la luz rebota entre ellos y ayuda a la amplificación, como lo que ocurre en la caja de resonancia de una guitarra que amplifica las ondas acústicas. Uno de los espejos es semirreflectante, por lo que parte de la luz amplificada sale de la cavidad resonante en forma de haz.

El volumen de información que transmite una onda electromagnética depende de su frecuencia; en este sentido, la luz de un rayo láser resulta idónea para la transmisión de señales. Por eso, entre sus aplicaciones más usadas está la lectura de discos compactos, la fabricación de circuitos integrados y la lectura de códigos de barras. En el ámbito de la medicina, la tecnología láser se aplica a los bisturís cauterizantes, ya que permite realizar cortes muy finos de gran precisión, evitar cualquier riesgo de contagio y cauterizar de manera inmediata, alejando el peligro de hemorragias.

Fibra óptica, impresoras o espionaje

Sin embargo, muchas de las aplicaciones del láser no dependen tanto de su capacidad para generar un rayo de luz como del hecho de que representa una concentración extremadamente intensa de energía. Basándonos en esta propiedad, podemos enumerar tres aplicaciones sumamente importantes en el terreno de la óptica. Una de ellas son las telecomunicaciones mediante fibra óptica. En este caso, las señales eléctricas que hasta hace poco tiempo se desplazaban a través de conductores metálicos han sido reemplazadas por pulsos ópticos que se transmiten a través de fibra de vidrio del grosor de un cabello. Como potente fuente de luz, el láser confiere a estas fibras una elevada capacidad de transmisión.

Espectáculo de luces con láseres. / kpr2 - Pixabay

Espectáculo de luces con láseres. / kpr2 – Pixabay

La segunda aplicación óptica importante está en la holografía, que es una técnica para crear imágenes tridimensionales, inventada en 1947 por el ingeniero eléctrico húngaro Dennis Gabor (1900-1979), que obtuvo por ello el Premio Nobel en 1971. Esta técnica se basa en la interferencia entre dos rayos de luz. Uno de los aspectos básicos del sistema es la necesidad de utilizar luz coherente, y cuando se inventó solo se disponía de fuentes relativamente débiles de este tipo de luz. La llegada del láser transformó la situación, porque la generación de una poderosa fuente de luz coherente es su esencia. Con el tiempo, la holografía llegó a hacerse muy familiar en una variedad de formas, como en la marca de seguridad de las tarjetas de crédito y en publicidad.

La tercera aplicación importante está en las impresoras de los ordenadores, donde, controlando un haz láser, se dibujan las palabras que se quieren imprimir.

También podemos destacar las aplicaciones que dependen de su capacidad para concentrar una gran cantidad de energía sobre una superficie muy pequeña (alrededor de un millón de vatios por centímetro cuadrado) durante un periodo de tiempo extremadamente breve. Algunas de las más importantes aplicaciones industriales de los láseres son fruto de esta capacidad: la perforación, la soldadura y el corte de distintos materiales.

Además, puesto que un rayo láser es muy fino y prácticamente no sufre divergencias, se puede usar para medir largas distancias con gran precisión. La técnica (semejante a la del radar) consiste en captar el rayo reflejado por el objeto distante y medir el tiempo transcurrido desde el envío de la señal hasta la recepción de su reflejo. Conociendo la velocidad de la luz, resulta fácil calcular la distancia. En los años setenta, este método se empleó para determinar con precisión la distancia de la Luna, utilizando los reflectores que habían instalado allí los astronautas norteamericanos.

Pero eso no es todo, también se han empleado láseres hasta para temas relacionados con el espionaje. En 1968 se descubrió que un láser puede detectar perfectamente desde el exterior las vibraciones del cristal de las ventanas producidas por las conversaciones en el interior de una casa. Vemos cómo el láser, que en un principio era como “un invento en busca de un empleo”, tiene en la actualidad un sinfín de variadas aplicaciones.

 

* José Vicente García Ramos es Vocal del Comité de Ética del CSIC y autor del libro Las moléculas: cuando la luz te ayuda a vibrar (Editorial CSIC-Los Libros de la Catarata). Hasta su jubilación en 2016 fue investigador en el Instituto de Estructura de la Materia del CSIC.

Blockchain, tierras raras, aceleradores de partículas… El CSIC lleva la actualidad científica a la Feria del Libro

Por Mar Gulis (CSIC)

¿Sabes cómo funcionan el bitcoin y otras criptomonedas? Si quieres algunas pistas, el martes 11 de junio en la Feria del Libro de Madrid David Arroyo, Jesús Díaz y Luis Hernández presentarán su libro Blockchain. Los autores explicarán al público los entresijos de esta tecnología y sus aplicaciones en la denominada criptoeconomía.

Como cada año, investigadores e investigadoras del CSIC acudirán a esta emblemática cita para dar a conocer los últimos libros publicados en las colecciones ‘¿Qué sabemos de?’ y ‘Divulgación’ (CSIC-Catarata), que acercan la ciencia al público general. El mismo día 11, además de criptoeconomía, se hablará del futuro de la óptica; el LHC, el mayor acelerador de partículas del mundo; y las tierras raras, 17 elementos químicos omnipresentes en las sociedades tecnológicamente avanzadas y, sin embargo, poco conocidos.

El 12 de junio, la investigadora Pilar Ruiz Lapuente se ocupará de la energía oscura, del posible final “frío y estéril” del cosmos y de otras cuestiones relacionadas con la astrofísica que aborda en su libro La aceleración del universo. En la misma jornada tendrán cabida temas como la tabla periódica de los elementos químicos, el albinismo y otras mutaciones genéticas o el papel de las áreas protegidas en la sostenibilidad ambiental.

En total, el CSIC y la editorial Los Libros de la Catarata, presentarán ocho obras de divulgación a través de las intervenciones de sus propios autores.

Estas son las coordenadas

Las presentaciones se realizarán los días 11 y 12 de junio, a partir de las 12:30 horas, en el Pabellón Bankia de Actividades Culturales, situado en las proximidades de los jardines de Cecilio Rodríguez del parque de El Retiro. De acceso libre, estas citas son una oportunidad para escuchar y plantear preguntas a los protagonistas de la ciencia.

Quienes busquen actividades para público más joven, el sábado 8 de junio tienen además una cita en el Pabellón infantil. Allí, investigadores del CSIC que han participado en la obra Descubriendo la luz. Experimentos divertidos de óptica realizarán demostraciones para niños y niñas. Las sesiones, de entrada libre y una duración de 15 minutos, se prolongarán desde las 12:30 hasta las 15:00 horas.

Y si la prioridad es llevarte tu libro con dedicatoria incluida, pásate por la caseta del CSIC (número 19) o la de Los Libros de la Catarata (número 336). Durante toda la feria, los autores de las novedades editoriales estarán en firmando ejemplares.

La información de las firmas se puede consultar aquí.

Ni estrellas ni planetas, ¿qué son las enanas marrones?

Por Mar Gulis (CSIC)

En los sesenta, nadie las había observado, pero Shiv S. Kumar predijo su existencia y las llamó enanas negras. En 1975, la astrofísica Jill Tarter las denominó enanas marrones, su nombre definitivo, dado que el término de Kumar también podía referirse a otros objetos estelares. Tarter no iba desencaminada al intuirlas marrones, sin embargo, estos cuerpos celestes suelen tener en realidad un color parecido al magenta o morado. Pero, más allá de su color, ¿sabes qué es una enana marrón?

Las enanas marrones son objetos subestelares que se encuentran a caballo entre las estrellas y los planetas. Un cuerpo celeste con composición similar a la solar y con masa mayor que 75 veces la masa de Júpiter sería una estrella, mientras que uno por debajo de esta masa (entre 65-75 masas) sería una enana marrón. No obstante, hay que tener en cuenta otros factores para determinar ante qué objeto nos encontramos. Una de las principales peculiaridades de la enana marrón es que en su núcleo no se llega a alcanzar, de manera estable, la temperatura de fusión necesaria para la quema de hidrógeno, como ocurre en una estrella, y en su lugar se quema deuterio.

Ilustración de una enana marrón. / NASA/JPL-Caltech

Ilustración de una enana marrón. / NASA/JPL-Caltech

Las características espectrales de las enanas marrones, como el pico de emisión centrado en longitudes de onda larga, la luminosidad o las temperaturas superficiales más bajas que las de una estrella, les otorgan precisamente ese color magenta o morado. En la clasificación espectral, las estrellas más calientes y luminosas tienen un color azul y a medida que se van enfriando, pasan al amarillo, al anaranjado y, por último, al rojizo. Después encontramos a las enanas marrones, que van del color rojizo al morado.

Primera enana marrón, primer exoplaneta

Teide 1 fue la primera enana marrón confirmada, gracias a un equipo español del Instituto de Astrofísica de Canarias, en 1995, el mismo año del descubrimiento del primer exoplaneta: 51 Pegasi b. ¿Coincidencia? La autora del libro Enanas marrones (Editorial CSIC – Los Libros de la Catarata), María Cruz Gálvez Ortiz, antes investigadora del Centro de Astrobiología (CSIC-INTA), explica las evidencias sobre las conexiones que existen entre ellas y los exoplanetas (planetas que se encuentran fuera del sistema solar), más allá de que coincidan en el momento del hallazgo.

Las enanas marrones también limitan en el rango de masa y temperatura con los planetas, e incluso presentan atmósferas similares. De hecho, algunos de los métodos empleados para descubrir enanas marrones han permitido dar con planetas extrasolares. En ambos casos, a pesar de la mejora y afinamiento de los instrumentos y técnicas de investigación en astrofísica, las teorías sobre su formación, el cálculo de sus edades y la naturaleza de sus atmósferas se encuentran todavía en desarrollo.

En cuanto a las enanas marrones, a pesar de que se conoce relativamente poco sobre ellas, en las últimas dos décadas se han identificado cerca de 2.000 (cifra que va en aumento). Respecto a los exoplanetas, son ya más de 3.000 confirmados (otra cifra que sigue creciendo), de los cuales alrededor de 20 son de tipo terrestre y se encuentran en una zona de habitabilidad. Como señala Gálvez Ortiz, desde que comenzó la búsqueda de planetas extrasolares, “uno de los objetivos principales ha sido encontrar un planeta similar a la Tierra en tamaño y composición y en condiciones similares, de tal manera que pudiera albergar vida”.

Los estudios están profundizando también en el hallazgo de planetas alrededor de enanas marrones y, por el momento, se han detectado casi una decena de objetos de masa planetaria orbitando estos cuerpos subestelares. La búsqueda sigue…

 

* Puedes leer más en el libro Enanas marrones (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Henry Moseley, el joven que ordenó el rompecabezas de la tabla periódica

Por Mar Gulis (CSIC)

Moseley

Moseley (año 1910) en el laboratorio del Balliol-Trinity College poco después de su graduación. En su mano derecha sostiene un globo de vidrio grueso para bajas presiones que utilizaba en la medida del número atómico de gases.

A comienzos del siglo XX los avances en la comprensión de la estructura del átomo no solo removieron los cimientos de la física, sino también los de la química.

Sin ir más lejos, el creador de la tabla periódica, Dimitri Mendeleiev, creía que el hallazgo del electrón amenazaba sus postulados. Décadas antes, en 1869, el científico ruso había propuesto ordenar los 63 elementos químicos entonces conocidos en una particular disposición. En la primera formulación de su tabla periódica, muy distinta de la que conocemos en la actualidad, las columnas mostraban los elementos ordenados de menor a mayor según su peso atómico  –por ejemplo, berilio = 9,1 (su peso real es de 9,01); boro = 11 (10,81); carbono = 12 (12,01); etc.–, de tal forma que en las filas quedaban agrupados elementos que compartían propiedades químicas semejantes –por ejemplo, el litio, el sodio, el rubidio y el cesio, que junto al francio constituyen el grupo de los metales alcalinos–.

Tabla Mendeleiev

Tabla periódica propuesta por Mendeleiev en 1869.

La propuesta tuvo un tímido reconocimiento al inicio, pero fue haciéndose cada vez más popular a medida que fueron confirmándose muchas de sus predicciones. Mendeleiev había dejado huecos para ser completados con elementos aún no descubiertos, de los cuales no solo pronosticó acertadamente su existencia sino también algunas de sus propiedades. Esto fue posible porque fue una de las primeras personas en comprender que las propiedades químicas de los elementos se ‘repetían’ de forma periódica a medida que se incrementaba su peso atómico.

Sin embargo, Mendeleiev había trabajado con la idea de que el átomo era indivisible. En 1897 Joseph Thomson descubre el electrón y en 1911 Ernest Rutherford formula su famoso modelo atómico, en el que un número variable de electrones (de carga negativa) giran alrededor de un pequeño núcleo de carga positiva. ¿Cómo iban a afectar estos avances a la tabla periódica?

Contrariamente a lo que Mendeleiev creía, iban a perfeccionar sus teorías. También en 1911, antes de que se descubrieran los protones (de carga positiva) en el núcleo atómico, el físico aficionado Antonius van den Broek propuso en Nature que el orden de los elementos en la tabla periódica dependía del número de cargas positivas del núcleo o número atómico. Es decir, el hidrógeno ocupa el primer lugar de la tabla periódica porque solo tiene una carga positiva en el núcleo (hoy diríamos un protón) y, por tanto, su número atómico es el uno; el helio ocupa la segunda posición porque tiene dos cargas positivas (dos protones) y su número atómico es el dos; y así sucesivamente.

Sin embargo, fue Henry Moseley en 1913 quien logró probar esta hipótesis estudiando los espectros de rayos X de 50 elementos químicos. Moseley demostró que la frecuencia de los rayos X era proporcional (concretamente, la raíz cuadrada) al número atómico del elemento. Con este hallazgo, daba una justificación cuantitativa al concepto de número atómico y un apoyo fundamental al modelo atómico de Rutherford.

La utilización del número atómico para ordenar los elementos iba a resolver muchos problemas que habían traído de cabeza a quienes trabajaban en química hasta entonces. Por ejemplo, de acuerdo con su peso atómico, el níquel (58,693) debía situarse antes que el cobalto (58,933) en la tabla periódica; sin embargo, Mendeleiev había intercambiado sus posiciones para que resultaran más congruentes con sus propiedades químicas. La incoherencia desapareció cuando pudo conocerse que el número atómico del níquel era 28 y el del cobalto 27. Efectivamente, aunque el níquel pese un poco menos que el cobalto, tiene una carga positiva más en su núcleo, y por tanto puede agruparse junto a los elementos con los que compartía propiedades sin violar la ley periódica de Mendeleiev.

Tabla periódica moderna

Tabla periódica moderna, en la que los elementos aparecen ordenados según su número atómico.

Además, el número atómico permitió saber de forma inequívoca qué casillas faltaban por rellenar en la tabla periódica (43, 61, 72, 75, 85, 87 y 91) y la técnica de Moseley hizo posible identificar elementos de una forma mucho más rápida y certera. Hasta entonces las llamadas tierras raras, una denominación que engloba al escandio, el itrio y los quince elementos del grupo de los lantánidos, habían resultado enormemente difíciles de separar e identificar en el laboratorio. En el libro Las tierras raras (CSIC-Catarata), el investigador del CSIC Ricardo Prego cuenta que George Urbain, uno de los mayores expertos en este ámbito, viajó a Oxford en cuanto conoció el innovador trabajo de Moseley. Allí el francés le entregó una muestra que contenía una mezcla de tierras raras que le había llevado meses identificar con métodos químicos y desafió a su joven colega a intentarlo. Moseley tardó solo una hora en llegar al resultado de Urbain: la mezcla contenía erbio, tulio, iterbio y lutecio. La crisis de las tierras raras había quedado resuelta.

Mendeleiev murió en 1907, sin saber que la ‘intrusión’ de la física en la química no iba a contradecir sus planteamientos sino a darles un nuevo fundamento. Sus aportaciones siguen tan vigentes a día de hoy que la ONU ha declarado 2019 como Año internacional de la tabla periódica y de los elementos químicos precisamente porque se cumplen 150 años desde que Mendeleiev formulara por primera vez su sistema periódico. Moseley, que estuvo nominado tanto al Premio Nobel de Física como al de Química, falleció en 1915, a la temprana edad de 28 años, mientras luchaba con el ejército inglés en la famosa batalla de Galípoli. No pudo participar en los siguientes descubrimientos sobre la estructura del átomo, que seguirían revolucionando la física y la química.

Canibalismo… y otras formas de interacción galáctica

Por Mariano Moles y Mar Gulis (CSIC)*

Las galaxias son sistemas de estrellas, gas y polvo encerrados en un enorme halo de materia oscura. La mayoría de ellas forman sistemas múltiples en los que viven y evolucionan. De hecho, es complicado encontrar galaxias verdaderamente aisladas, es decir, que hayan evolucionado fuera de la influencia de otras, al menos durante los últimos dos mil millones de años. La interacción de las galaxias con otras del entorno, aun si esta no es violenta ni destructiva, juega un papel esencial en sus propiedades.

Vamos a considerar tres situaciones que nos permiten visualizar, brevemente, lo que puede significar esta interacción gravitatoria para la evolución de las galaxias.

Interacción secular

En las regiones externas de los cúmulos de galaxias o de grupos dispersos, la interacción entre galaxias no es en general violenta sino que va actuando a lo largo del tiempo, produciendo transformaciones paulatinas. Incluso las galaxias que están en situación de interacción suave presentan propiedades claramente distintas a las de las galaxias aisladas en las masas, los tamaños e incluso los colores fotométricos. Las galaxias aisladas son más pequeñas, menos masivas y más azuladas.

Galaxy Cluster Abell 1689. Los cúmulos de galaxias, en tanto que entidades gobernadas por la interacción gravitatoria, son lugares ideales para estudiar la evolución de las galaxias bajo los efectos de esa interacción. / hubblesite

Galaxy Cluster Abell 1689. Los cúmulos de galaxias, en tanto que entidades gobernadas por la interacción gravitatoria, son lugares ideales para estudiar la evolución de las galaxias bajo los efectos de esa interacción. / hubblesite

Choques de galaxias

Aunque no es muy frecuente, en los cúmulos también se producen agrupamientos y hasta colisiones destructivas de galaxias. Esto suele ocurrir en las etapas iniciales de la formación de la parte central del cúmulo. Pero hay casos, como el de la galaxia IC 1182, en los que la colisión de dos galaxias se produce en etapas posteriores.

¿Qué sucede en estas colisiones galácticas? Sabemos que las estrellas por su lado y la materia oscura por el suyo solo responden a las fuerzas gravitatorias. Además, lo que podríamos llamar gas de estrellas, es decir, el conjunto de todas las estrellas con sus velocidades respectivas, es de muy baja densidad. En efecto, la distancia media entre dos estrellas es más de un millón de veces superior al tamaño medio de estas. De modo que la probabilidad de colisión entre estrellas de una galaxia es, por lo general, muy baja.

Cuando dos galaxias colisionan, sus respectivos gases de estrellas pueden pasar uno a través del otro casi inalterados salvo por efectos de larga escala cuando una de ellas es capturada por otra y empieza a orbitar en espiral a su alrededor. Entonces pueden producirse largas colas o apéndices que se extienden a gran distancia de la galaxia y que evidencian la interacción. También el gas puede ser arrancado del cuerpo de la galaxia y formar apéndices y estructuras de gran escala. Magníficas muestras de esos procesos son la galaxia que se denomina, por su forma, del renacuajo (Tadpole Galaxy), catalogada como NGC 4676; y la galaxia llamada de los ratones (Mice Galaxy).

La galaxia IC 1182 está ya en una fase avanzada del proceso de fusión. La larga cola de marea atestigua la violencia del choque. / eso

La galaxia IC 1182 está en una fase avanzada del proceso de fusión. La larga cola de marea atestigua la violencia del choque. / eso.org

Por otra parte, la interacción violenta altera fuertemente el ritmo de formación estelar de una galaxia y provoca una aceleración notable de su evolución. Quizá uno de los ejemplos más espectaculares de este proceso es el que puede apreciarse en la galaxia de las Antenas. La extensión total abarcada por las dos antenas es de casi cuatro veces la dimensión de nuestra Galaxia (Vía Láctea). En la zona central capturada por el telescopio espacial Hubble se observa una intensísima formación estelar, con más de 1.000 cúmulos jóvenes de estrellas.

El resultado final de esas grandes colisiones es una única galaxia de forma esferoidal, relajada y exhausta, evolucionando tranquilamente a medida que sus estrellas jóvenes desaparecen y las demás van envejeciendo. A veces ocurre que las colisiones no sólo dan lugar a nuevas estrellas, sino también a nuevas galaxias que se van construyendo en las colas de marea o en los aledaños de la zona más directamente afectada por la interacción. Estas galaxias, llamadas enanas de marea, por producirse en esas situaciones, se han detectado en el apéndice de IC1182 o en las colas producidas en el Quinteto de Stephan.

Canibalismo galáctico

Cuando una de las galaxias que interaccionan es mucho mayor que la otra puede ocurrir que la segunda acabe siendo engullida por la primera, sin que se produzcan los fenómenos que acabamos de ilustrar, propios de colisiones entre dos galaxias más o menos similares. Los signos de este canibalismo galáctico son mucho menos espectaculares y difíciles de detectar. Por eso el estudio de este fenómeno y su importancia para la evolución de las galaxias es reciente.

Simulación por ordenador del proceso de canibalismo: una galaxia enana está siendo desorganizada para ser luego engullida por una galaxia como la Vía Láctea. / astro.virginia.edu

Simulación por ordenador del proceso de canibalismo: una galaxia enana está siendo desorganizada para ser luego engullida por una galaxia como la Vía Láctea. / astro.virginia.edu

En nuestro Grupo Local de galaxias hay tan solo tres masivas: Andrómeda, la Vía Láctea y M33 (mucho menos masiva que las otras dos), mientras que existen cerca de 50 galaxias enanas, poco masivas, pequeñas, meros satélites de las dominantes. A lo largo de la evolución del sistema puede ocurrir que una de esas galaxias sea atrapada definitivamente por una de las masivas y acabe siendo tragada por ella. Las estrellas de la galaxia canibalizada van a constituir una corriente estelar en la galaxia grande, que solo con muy sofisticados medios se puede detectar, medir y caracterizar. Aunque de momento solo podemos conjeturarlo, ese parece ser el caso de la galaxia enana Sagitario, que podría estar siendo engullida por nuestra galaxia.

 

* Este texto está basado en contenidos del libro de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata) ‘El jardín de las galaxias’, escrito por Mariano Moles.

Fibra óptica: cómo tus ‘mails’ pueden viajar a 200.000 km/s

Por Mar Gulis (CSIC)*

Cable de fibra óptica iluminado con un puntero láser / Hustvedt

Sabemos que la velocidad de la luz alcanza los 300.000 kilómetros por segundo en el vacío. Ese es el límite máximo que determinan las leyes físicas. Nada en el universo puede viajar más rápido. Por eso, el reto de las tecnologías de telecomunicaciones es alcanzar ese límite: lograr que la información, los millones de datos que intercambiamos cada día en mails, llamadas, compras on line y transacciones de todo tipo, ‘viajen’ a la velocidad de la luz.

De momento, la fibra óptica es la tecnología que más se ha acercado. A partir de la herencia del telégrafo y el teléfono, “los cables de fibra óptica han reemplazado a los hilos de cobre porque pueden transportar una mayor cantidad de datos y más deprisa que su contraparte electrónica”, explica el libro Descubriendo la luz. Experimentos divertidos de óptica (CSIC-Los libros de la Catarata). Aun así, las fibras ópticas tienen limitaciones. No pueden reproducir el vacío del espacio, donde, al no existir atmósfera, la luz se mueve sin resistencia, de ahí que a través de la fibra los datos viajen a ‘tan solo’ 200.000 kilómetros por segundo (la cifra es aproximada).

En las comunicaciones ópticas se envía información codificada en un haz de luz por un hilo de vidrio o de plástico muy procesado. “Este sistema fue originalmente desarrollado para los endoscopios en la década de los 50, con el objetivo de ayudar a los médicos a ver el interior del cuerpo humano sin necesidad de abrirlo. En 1960, los ingenieros encontraron una forma de utilizar esta misma tecnología para transmitir llamadas telefónicas a la velocidad de la luz”, continúa el libro.

Sin embargo, las leyes físicas que explican el funcionamiento de esta tecnología se descubrieron tiempo atrás. Ya en el siglo XIX, el físico irlandés John Tyndall demostró a la Royal Society en Londres que la luz podía viajar a través de un chorro de agua. En óptica, este fenómeno se conoce como reflexión interna, y se produce cuando un rayo de luz atraviesa un medio con un índice de refracción menor que el índice de refracción en el que este se encuentra. Así, el haz luminoso se refracta de tal modo que no es capaz de atravesar la superficie entre ambos medios, reflejándose completamente. La reflexión interna total solo se produce en rayos que están viajando de un medio de alto índice refractivo hacia medios de menor índice de refracción. Precisamente este principio explica la conducción de la luz a través de la fibra sin que haya fugas.

La reflexión total puede realizarse mediante el experimento de Tyndall. En la imagen, un puntero láser (a la dcha.) atraviesa el plástico del recipiente y el agua que hay en su interior, para ‘salir’ por el agujero realizado previamente en el recipiente. Al atravesar los dos medios, la luz queda confinada dentro del chorro viajando con su misma curvatura / Juan Aballe / CSIC-IOSA

Una fibra óptica está formada por un núcleo, que es por donde viajan las señales luminosas, y una cubierta o revestimiento transparente. Intuitivamente, cualquiera pensaría que la luz que transita por este tipo de hilos transparentes se saldría por los bordes. Sin embargo, los fotones (partículas elementales en que se puede dividir un rayo de luz) viajan por el núcleo de la fibra óptica rebotando contras sus paredes constantemente, como una pelota entre las paredes de vidrio de una pista de squash. De este modo el haz de luz  queda confinado y se propaga sin que se produzcan pérdidas de información. Esto es posible porque el material interno tiene un índice de refracción más grande que el material que lo rodea.

Ocurre algo parecido con el agua: si un haz de luz incide en un chorro de agua bajo un cierto ángulo, la luz quedará confinada dentro del chorro, viajando con su misma curvatura, tal y como demostró Tyndall en su experimento. La superficie agua-aire actuaría como un espejo en el que la luz se refleja y, por tanto, sigue la trayectoria del líquido. En una fibra óptica la luz viaja de forma similar: va rebotando por sus paredes internas, pero manteniendo la dirección del cable, sin detenerse y pudiendo recorrer miles de kilómetros en segundos.

 

*Este post se basa en varios fragmentos del libro Descubriendo la luz. Experimentos divertidos de óptica (CSIC-Los libros de la catarata), coordinado por María Viñas Peña.

¿Cómo funciona un espejismo? El misterio de la ‘fata morgana’

Por Mar Gulis (CSIC)*

Hace ya tiempo que las gentes de Reggio Calabria, ciudad costera del sur de Italia, están acostumbradas a ver imágenes surreales, que parecen espectros, cuando miran al horizonte. Sobre el mar, en la línea donde este parece juntarse con el cielo, pueden observarse embarcaciones navegando por encima del agua, como si estuvieran en suspensión.

Lo que ven los lugareños no es una alucinación ni una ilusión óptica, sino un espejismo, una visión real que se produce por la confluencia de varios factores. Hoy tenemos una explicación científica sobre esta anomalía, pero antiguamente marineros y navegantes sentían pánico cuando veían estas imágenes en alta mar, pues las atribuían a maldiciones o hechizos. Estos espejismos distorsionan la apariencia de los objetos situados en el horizonte, que son proyectados como si flotaran.

esquema espejismo

Esquema del proceso de formación de los espejismos. / Camilo Florian Baron

El fenómeno del que hablamos se conoce como ‘fata morgana’, una denominación que procede del latín y significa hada Morgana, en alusión a la hermana del legendario rey Arturo, que según la leyenda era un hada cambiante. El espejismo, frecuente en el estrecho de Mesina, hace que las personas vean cosas donde no las hay debido a la existencia de distintas capas de aire con densidades diferentes. Como resultado, los rayos de luz se refractan, pero quien ve el espejismo no percibe esas diferentes capas, y de ahí el desconcierto.

Para entenderlo, hay que acudir a la óptica. El libro Descubriendo la luz (Editorial CSIC – Los Libros de la Catarata) explica cómo se produce la ‘fata morgana’. “Los espejismos son fenómenos asociados a la propagación de la luz en medios no homogéneos, donde el índice de refracción varía continuamente con la altura y, por tanto, la luz describe trayectorias curvas. Dichas curvas presentan una concavidad en la dirección de aumento del índice de refracción. Es decir, la luz se curva hacia el medio (agua, aire, etc.) con mayor índice de refracción”. En otras palabras, en un espejismo la luz ‘se dobla’ al atravesar las capas de aire a distinta temperatura. Como resultado, “la posición real del objeto está sujeta a la interpretación humana, ya que la formación de la imagen está condicionada por la refracción de la luz”.

Fenómeno de la fata morgana. / Wikimedia commons

Fenómeno de la fata morgana. / Wikimedia commons

Los espejismos pueden clasificarse en inferiores y superiores. La ‘fata morgana’ que alucina a los habitantes y turistas de la costa meridional de Sicilia es un ejemplo de espejismo superior. Como explica el libro Descubriendo la luz, “este se produce cuando el índice de refracción disminuye con la altura, algo que suele darse en zonas frías, donde la capa de aire próxima al suelo es muy fría y es más densa que las capas superiores”. Precisamente lo que sucede en el mar, donde generalmente el agua está a menor temperatura que el aire, produciendo un enfriamiento de las capas de aire más próximas a la superficie del agua. De este modo cambia su densidad y, por tanto, la forma en la que los rayos de luz se refractan. El resultado es el espejismo, bajo la apariencia de barcos que flotan sobre el mar o elementos en el horizonte como islas, acantilados o témpanos de hielo, con siluetas alargadas que les dan una apariencia fantasmal. Estos efectos suelen ser visibles por la mañana, después de una noche fría.

* Este texto está inspirado en los contenidos del libro Descubriendo la luz. Experimentos divertidos de óptica (Editorial CSIC – Los Libros de la Catarata), coordinado por María Viñas, investigadora del Instituto de Óptica del CSIC.

¿Pueden existir estrellas y galaxias de antimateria?

Por Beatriz Gato Rivera y Mar Gulis (CSIC)*

Quizás lo más distintivo de la antimateria es que al entrar en contacto con la materia se aniquilan la una a la otra produciendo una gran cantidad de radiación. Si se pudiera almacenar un gramo de antimateria –algo imposible con la tecnología actual–, al entrar en contacto con la materia generaría una deflagración equivalente a más de dos veces la bomba atómica que asoló Hiroshima en 1945.

La física de partículas y la cosmología han llegado a la conclusión de que en el Big Bang se crearon idénticas cantidades de materia y antimateria que, solo unos breves instantes después, se aniquilaron casi totalmente entre sí. Algo sucedió, sin embargo, justo antes de la Gran Aniquilación para que se generara un ligerísimo excedente de partículas sobre antipartículas, el cual bastó para que el universo material pudiese tomar forma y llegar a existir tal como lo conocemos. En efecto, de las observaciones se deduce que por cada protón primordial –originado en el Big Bang– que sobrevivió, miles de millones sucumbieron a la extinción, junto a la misma cantidad de antiprotones primordiales.

aniquilación de un antiátomo

Aniquilación de un átomo de antihidrógeno observada por el detector ATHENA en 2002. / CERN

Sin embargo, no es posible descartar que haya sobrevivido una pequeñísima cantidad de antimateria primordial en nuestro universo observable, quizás un antiprotón por cada decena de millones de protones. En este caso no es impensable que pudieran existir estrellas e incluso galaxias pequeñas de antimateria, como predicen algunos modelos teóricos propuestos por varios grupos de investigación, siempre que estas estuviesen suficientemente aisladas de la materia –y lo cierto es que en el universo hay regiones extremadamente vacías–. De confirmarse esta circunstancia tampoco sería inimaginable que orbitando dichas antiestrellas existieran antiplanetas habitados por seres vivos e incluso civilizaciones tecnológicas, compuestos todos ellos por antimateria.


¿Qué es la antimateria?

Para comprender mejor las consecuencias de esta posibilidad, hay que entender qué es la antimateria. En un sentido amplio, la antimateria puede considerarse como el reverso de la materia o como una imagen especular de la misma respecto a varios ‘espejos’. Como sabemos por experiencia propia, cuando nos miramos en un espejo el rostro que vemos no es nuestro rostro sino que tiene intercambiados los lados derecho e izquierdo. Del mismo modo, las partículas de antimateria tienen sus propiedades opuestas respecto a las de las partículas de materia. Esto se refiere solo a aquellas propiedades que admiten valores opuestos, ya que las propiedades que no admiten valores opuestos son idénticas para las partículas y sus antipartículas. Por ejemplo, el electrón y su antipartícula, el positrón, con la misma masa y el mismo espín, tienen valores opuestos de la carga eléctrica, la carga débil y la carga leptónica.

Todas las partículas elementales tienen su antipartícula, aunque hay partículas que son sus propias antipartículas. Es el caso del fotón –la partícula de luz– o del bosón de Higgs. Se da la curiosa circunstancia de que la única antipartícula con nombre propio es el positrón –“electrón positivo”–, así denominado por Carl Anderson tras descubrirlo en 1932. Las demás antipartículas se denominan como las partículas ordinarias pero anteponiendo el prefijo anti.

Al igual que las partículas, las antipartículas pueden dar lugar a estructuras más complejas, como átomos de antimateria, que están constituidos por las antipartículas de los átomos de materia. En su núcleo, en lugar de protones (de carga eléctrica +1) y neutrones, compuestos todos ellos por quarks, hay antiprotones (de carga eléctrica -1) y antineutrones, compuestos por antiquarks –los quarks y sus antiquarks tienen valores opuestos de la carga fuerte, la carga débil, la carga eléctrica y la carga bariónica–. Orbitando alrededor del núcleo, en lugar de electrones (de carga eléctrica -1), encontramos positrones (de carga eléctrica +1).

átomo y antiátomo

A la izquierda, un átomo de helio. A la derecha, uno de antihelio.


Antimateria primordial y antimateria secundaria

Estamos conviviendo constantemente con la antimateria y con los productos de su aniquilación con la materia. Por una parte, una lluvia incesante de partículas de materia y de antimateria, producidas por las colisiones de los rayos cósmicos con los átomos de nuestra atmósfera, cae sobre la superficie terrestre y nos alcanza. Es más, neutrinos y muones muy energéticos (y sus antipartículas) atraviesan casas y edificios.

Por otra parte, las mismas estrellas producen antimateria en grandes cantidades en sus hornos nucleares en forma de positrones. Y sucede que la aniquilación de estos con los electrones del plasma del interior produce parte de la luz y del calor que emiten. En el caso del Sol, aproximadamente un 10% de la luz visible que irradia proviene de tales aniquilaciones.

Además, algunas sustancias radiactivas naturales que abundan en compuestos orgánicos, como el Potasio-40, emiten positrones, los cuales se aniquilan de inmediato con los electrones de su entorno. Esto hace, por ejemplo, que un plátano mediano emita cada 24 horas 15 positrones, aproximadamente, provenientes de los núcleos radioactivos de los átomos de Potasio-40.

La inmensa mayoría de las partículas de antimateria con las que convivimos y que observamos es antimateria secundaria, pues se ha creado en colisiones entre partículas de materia ordinaria o en procesos astrofísicos conocidos muy energéticos, como las reacciones nucleares en el interior de las estrellas. Pero, como decíamos, cabe la posibilidad de que todavía haya en el universo partículas de antimateria primordiales.

El experimento AMS (Alpha Magnetic Spectrometer), instalado en la Estación Espacial Internacional, se afana por encontrar indicios de tal posibilidad, escudriñando el espacio en busca de núcleos de antiátomos. Si encontrase un solo antinúcleo mayor que el de antihelio, como un núcleo de antilitio o antiberilio (con tres y cuatro antiprotones respectivamente), esto constituiría un gran acontecimiento, pues indicaría que la antimateria primordial no desapareció totalmente, ya que estos núcleos no se pueden producir en nuestro universo material, a diferencia del núcleo de antihelio. Pero si el experimento AMS encontrase un solo antinúcleo aún mayor, como un núcleo de antiboro o anticarbono (con cinco y seis antiprotones respectivamente), este hallazgo sería la prueba definitiva de la existencia de antiestrellas, pues estos antinúcleos solo podrían haberse generado en los hornos de las capas más profundas de estas.

AMS2

Simulación del detector AMS2 montado en la Estación Espacial Internacional. / NASA-JSC

Civilizaciones extraterrestres de antimateria

Ahora dejemos volar nuestra imaginación y vayamos hacia el futuro, a una época en la que pudiéramos realizar viajes intergalácticos de forma eficiente; por ejemplo, a través de atajos espacio-temporales o por otras dimensiones. Supongamos que descubrimos una estrella de antimateria, porque emite antineutrinos en lugar de neutrinos, y que al acercarnos avistamos todo un sistema planetario con algunos planetas localizados en la zona de habitabilidad. Así que decidimos enviar señales que denoten su procedencia inteligente, y con este propósito elegimos unas secuencias de flashes de luz láser con los números impares: 1, 3, 5, 7, 9…

Si nos encontramos lo suficientemente cerca de estos antiplanetas, por ejemplo a tan solo dos horas luz de distancia, nuestras señales tardarán dos horas en llegar a su destino. Imaginemos entonces que, para nuestro asombro, unas seis horas después recibimos una respuesta inteligente, consistente en otras secuencias de flashes de luz láser, pero esta vez con los números pares: 2, 4, 6, 8…

¡Nuestras señales han sido interceptadas por seres inteligentes de una civilización tecnológica!, y nos envían acuse de recibo utilizando señales similares aunque no idénticas, para que no las confundamos con un eco de nuestras propias señales. Con gran entusiasmo, esta vez les enviamos un vídeo amistoso enseñándoles la Tierra y sus gentes, al que nos responden con otro vídeo amistoso enseñándonos su planeta e invitándonos a visitarlo, como se deduce de su lenguaje no verbal y sus gesticulaciones.

Obviamente, estos seres ignoran que nosotros somos de antimateria en relación a la materia de la que ellos y su mundo están constituidos. Pero nosotros sí sabemos que ellos lo son, en relación a la nuestra. Así que no podemos aceptar la invitación y hemos de restringir nuestro contacto al intercambio de ondas electromagnéticas exclusivamente. Nada de recepciones oficiales, ni de intercambios de obsequios: la aniquilación mutua estaría asegurada.

 

* Beatriz Gato Rivera es investigadora del CSIC en el Instituto de Física Fundamental y autora del libro Antimateria (Editorial CSIC-Los libros de la Catarata).