Archivo de la categoría ‘Física’

FOTCIENCIA18: descubre en un minuto las mejores imágenes científicas de 2021

Por Mar Gulis (CSIC)

Una dalia artificial de carbonato cálcico, la intrincada red de nanofibras de una mascarilla FFP2 o el volcán de colores creado por un singular organismo conocido como ‘huevas de salmón’ son algunos de los temas retratados en las imágenes seleccionadas en la 18ª edición de FOTCIENCIA, una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT) con el apoyo de la Fundación Jesús Serra.

En esta edición, a las modalidades de participación habituales –Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula– se ha sumado una modalidad especial para recoger imágenes que hayan plasmado la importancia de la ciencia y la tecnología frente al COVID. Un comité formado por doce profesionales relacionados con la fotografía, la microscopía, la divulgación científica y la comunicación ha valorado y seleccionado las imágenes más impactantes y que mejor describen algún hecho científico.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

Los transistores con forma de jeroglífico de un microprocesador, la transformación de las flores de girasol en frutos o el envés de la hoja del olivo son otros de los temas retratados. El objetivo es acercar la ciencia a la sociedad a través de fotografías que abordan cuestiones científicas mediante una perspectiva artística y estética.

Con estas imágenes, que puedes ver en el vídeo que acompaña a este texto, y una selección más amplia de entre las 556 recibidas en esta ocasión, próximamente se realizará un catálogo y una exposición itinerante, que será inaugurada en primavera de 2022 y recorrerá diferentes salas expositivas por toda España a lo largo del año.

En esta 18ª edición, FOTCIENCIA se ha sumado nuevamente a los 17 Objetivos de Desarrollo Sostenible declarados por Naciones Unidas. Más información en www.fotciencia.es

Para saber más sobre las imágenes escogidas, pincha aquí.

Imágenes seleccionadas:

Modalidad Micro:

– ‘Ser o no ser’. Autoría: Isabel María Sánchez Almazo. Coautoría: Lola Molina Fernández, Concepción Hernández Castillo

– ‘Jeroglíficos del microprocesador’. Autoría: Evgenii Modin

Modalidad General:

– ‘Volcán de mixomicetos’. Autoría: José Eladio Aguilar de Dios Liñán

– ‘Todo es polvo de estrellas’. Autoría: David Sánchez Hernández Modalidad

La ciencia frente al COVID:

– ‘Pequeña gran muralla’. Autoría: Alberto Martín Pérez. Coautoría: Raquel Álvaro Bruna, Eduardo Gil Santos

Modalidad Alimentación y nutrición:

– ‘Metamorfosis floral’. Autoría: David Talens Perales

Modalidad Agricultura Sostenible:

– ‘El bosque de parasoles’. Autoría: Enrique Rodríguez Cañas

Modalidad La ciencia en el aula:

– ‘El arcoíris digital’. Autoría: Carlota Abad Esteban, Lourdes González Tourné

Olas monstruo eléctricas: el fenómeno que explica el riesgo de un gran apagón

Por Antonio Turiel* y Mar Gulis

A lo largo de los tiempos, los marinos han relatado historias de enormes olas que aparecen de la nada en mar abierto, se elevan 10 o 20 metros, recorren uno o dos kilómetros y desaparecen tras arrasar todo lo que encuentran a su paso. Sin embargo, hasta la década de los 90 del siglo pasado, las olas monstruo no fueron objeto de estudio científico. Pertenecían al terreno de las leyendas urbanas… o, mejor dicho, marinas. La mayoría de la gente creía que solo eran fabulaciones de viejos y ebrios lobos de mar, y las compañías de seguros que eran historias inventadas para encubrir negligencias causantes del hundimiento o la desaparición de barcos. Hasta que las imágenes de cámaras instaladas en navíos, plataformas marinas y satélites acabaron por dar la razón a los marinos: las olas monstruo existen.

Las causas del fenómeno son complejas, pero no hay duda de que en algunos casos ocurre simplemente porque es estadísticamente posible. En el mar hay muchas olas. La mayoría están generadas por el viento, aunque en su formación también intervienen otros factores, como tormentas lejanas o el relieve del suelo marino. Normalmente, esas olas se propagan en diferentes direcciones, cada una con una amplitud, una frecuencia y una longitud de onda diferente, algunas más rápido, otras más lento… Pero a veces, por puro azar, durante un pequeño periodo de tiempo se sincronizan, llegan todas a la vez al máximo, y se genera una auténtica pared de agua que se lleva todo por delante.

Algo parecido puede ocurrir en los sistemas eléctricos. Mucha gente piensa que la electricidad es como el agua, que fluye de forma continua por las tuberías. Pero no es así; la corriente de la red eléctrica es alterna: oscila como una onda. Por eso es muy importante que todos los sistemas que vuelcan electricidad en la red estén sincronizados. Por decirlo así, todos tienen que subir y bajar al mismo tiempo. Cuando esto no ocurre, se empiezan a propagar ondas de forma desordenada, como en el mar, que pueden acabar provocando daños graves en la infraestructura eléctrica.

Si la frecuencia no está perfectamente afinada en la red, puede darse el caso de que en determinados sitios la tensión baje a cero de golpe –lo que produce apagones en cascada– y en otros que la potencia se junte por completo, se sincronice y sea 10 o 20 veces mayor de lo que tendría que ser. Cuando esto ocurre, no hay nada que lo resista: literalmente las líneas de alta tensión y las estaciones transformadoras se desintegran.


Los peligros de una gran red interconectada

Obviamente, la formación de este tipo de turbulencias es un riesgo que Red Eléctrica Española y el regulador europeo siempre están vigilando. El problema es que las posibilidades de que ocurran eventos de este tipo han ido en aumento a medida que se han ido instalando más y más sistemas renovables en una red cada vez más grande e interconectada.

Los mecanismos de protección de la red eléctrica europea (en la que la frecuencia es de 50 hercios) están pensados para un modelo de grandes centrales –hidroeléctricas, térmicas, nucleares, de ciclo combinado, etc.– que suministran mucha potencia. Cuando una anomalía supera el umbral de los 0,2 hercios durante más de dos minutos, el sistema desconecta la parte de la red en la que se está produciendo la perturbación. Lo que pasa es que ahora, además de grandes centrales, tenemos un gran número de unidades de producción que generan menos cantidad de energía –paneles solares y turbinas eólicas, fundamentalmente–en una red que se ha integrado a escala europea y que, por tanto, es mucho más grande. En este esquema, las anomalías se producen con mayor frecuencia y se propagan en tiempos mucho más cortos, por lo que el umbral de tolerancia establecido resulta excesivamente relajado. Esto está generando problemas continuamente. De hecho, el 8 de enero de este año hubo un incidente grave: una subfrecuencia en Croacia se combinó con una superfrecuencia en Alemania y no hubo más remedio que separar la red en dos.

Si los problemas suceden sobre todo en Europa Central no es por casualidad. Alemania en 20 años ha pasado de producir un 6% de su electricidad con energías renovables a un 38%. Además, ha integrado su red de alta tensión con la de sus vecinos de forma mucho más intrincada que en otras partes del continente.

Desde el punto de vista económico, resultaba muy interesante integrar todas las redes del continente lo máximo posible para transportar la energía intermitente de las renovables. Si el viento sopla en Polonia, pero no en Galicia, ¿por qué no llevar la energía de un lugar al otro? Lo que pasa es que en Europa Central este planteamiento se ha llevado a cabo sin instalar sistemas adicionales de estabilización, que hubieran encarecido el coste de la implantación de las energías renovables.

Por fortuna, actualmente España está relativamente a salvo de este riesgo. Como nuestra red eléctrica está poco interconectada con la del resto del continente, en caso de que se produzca una ola monstruo eléctrica en Europa, será relativamente sencillo desconectarnos mientras dure el peligro. En cualquier caso, esto debería hacernos reflexionar y ser más previsores a la hora de implantar nuevos sistemas renovables en nuestro territorio.


*
Antonio Turiel es investigador del CSIC en el Instituto de Ciencias del Mar. Su trabajo se centra en la oceanografía por satélite, pero es también un experto en recursos energéticos. En el blog The Oil Crash y el libro Petrocalípsis analiza el agotamiento de los combustibles fósiles y las dificultades de la transición a un modelo ‘eléctrico’ de renovables.

Arte y matemáticas en los mosaicos de la Alhambra

Por Mar Gulis (CSIC)

La Alhambra es un excepcional conjunto monumental que se localiza sobre una colina rocosa situada en los márgenes del río Darro, en Granada. Su nombre procede de la palabra árabe al-ḥamrā, que significa ‘la roja’, se cree que por el tono de color rojizo de sus torres y muros. Creado originalmente con propósitos militares, el recinto fortificado fue al mismo tiempo una alcazaba (fortín), un alcázar (palacio) y una pequeña medina (ciudad).

Los inicios constructivos de la fortificación se remontan al siglo IX, aunque la fortaleza alcanzó su esplendor en la segunda mitad del siglo XIV, concretamente bajo los sultanatos de Yusuf I (1333-1353) y Mohamed V (1353-1391). En 1492, la Alhambra se convirtió en corte cristiana cuando los Reyes Católicos conquistaron Granada. Desde entonces a nuestros días, ha pasado por diversas etapas de mayor o menor abandono. En la actualidad, la Alhambra es el principal referente de la arquitectura hispanomusulmana y, gracias a su enorme valor histórico y artístico, fue declarada Patrimonio Mundial de la Humanidad por la UNESCO en 1984.

Claude Valette – Flickr

Así, la Alhambra es admirada por amantes de la historia, la arquitectura, el arte, la artesanía… Pero, ¿sabías que, además, este conjunto monumental crea una especial fascinación en las personas aficionadas a las matemáticas? Te contamos por qué.

Mosaicos, geometría y los 17 grupos de simetría

Al hablar de la Alhambra, con frecuencia se nos vienen a la mente imágenes de los maravillosos mosaicos geométricos de azulejos que recubren buena parte de sus paredes y suelos. Estos revestimientos cerámicos constituyen una de sus mayores bellezas artísticas y también una de las curiosidades matemáticas de la Alhambra.

Para comprender qué son los mosaicos, podemos definirlos a grandes rasgos como una composición, en este caso geométrica, de figuras que recubren todo el plano, de tal forma que cumplen dos condiciones: las figuras no se solapan y no quedan huecos entre ellas. Las piezas que se utilizan se denominan teselas (o, según sus usos, baldosas, losetas, etc.).

Podemos encontrar diversos tipos de mosaicos: regulares, semirregulares, simples, complejos… Los más sencillos están formados por polígonos regulares del mismo tipo (por ejemplo, solo cuadrados, solo triángulos equiláteros o solo hexágonos). Pero también se pueden formar mosaicos combinando varios tipos de polígonos.

En cuanto a la manera de combinarlos, existen cuatro estrategias para rellenar un plano con losetas (o ‘teselar un plano’), es decir, cuatro tipos de movimientos, basados en simetrías, desplazamientos y/o rotaciones:

  1. Traslación: añadir nueva loseta sin ningún giro respecto a la anterior.
  2. Rotación: añadir nueva loseta con algún giro sobre un punto fijo.
  3. Reflexión o simetría: añadir nueva loseta de modo especular respecto a la anterior, con un eje de simetría.
  4. Simetría con deslizamiento: añadir nueva loseta usando la traslación de la reflexión en el mismo eje sin un punto fijo.

Katie Beuerlein – Flickr

Estos movimientos poseen una estructura matemática que se denomina grupo. Como explican Manuel de León y Ágata Timón en el libro de la colección ¿Qué sabemos de? Las matemáticas de los cristales (CSIC-Catarata, 2015), las transformaciones del plano que dejan invariante una figura forman lo que se llama su grupo de simetrías. Si combinamos dos de estas transformaciones, volvemos a obtener una simetría; cada una tiene una inversa, y la transformación identidad acontece cuando no cambiamos nada. Una de las formas de recubrir (teselar) un plano es comenzar con un motivo simple y repetirlo utilizando esos elementos de simetría. Y hay solo 17 grupos posibles que hacen esto, los llamados grupos cristalográficos.

En principio, podría parecer que existen infinitos grupos de simetría diferentes, o infinitas formas de combinar polígonos en un plano, pero no es así. En 1891, el matemático y cristalógrafo ruso Evgraf Fedorov demostró que solo existen 17 posibles grupos cristalográficos para las figuras del plano, denominados grupos cristalográficos planos.

La Alhambra: un caso único

Pues bien, aquí viene la curiosidad matemática que alberga la Alhambra: en los adornos ornamentales que están presentes en sus suelos y muros se pueden encontrar ejemplos de cada uno de estos 17 grupos cristalográficos planos. Los artistas musulmanes, por preceptos religiosos, no podían representar seres vivientes en sus creaciones. Sin embargo, esta limitación sirvió de aliciente para estimular su creatividad y explorar caminos geométricos de gran belleza y originalidad. Su conocimiento de las simetrías alcanzó tal magnitud que fueron los únicos en descubrir y utilizar sabiamente en sus decoraciones los 17 tipos de simetría plana. De esto se percató por primera vez la matemática Edith Alice Muller, cuya tesis Aplicación de la teoría de grupos y análisis estructural de la decoración morisca en la Alhambra de Granada, defendida en 1944, fue clave para entender los patrones geométricos islámicos, mucho más complejos de lo que se pensaba hasta el momento.

Los creadores de los mosaicos de la Alhambra no conocían la afirmación del teorema de clasificación de Fedorov, que se produjo varios siglos después. Sin embargo, aunque quizás no supieran que eran los únicos grupos de simetrías, sí conocían todos y cada uno de los 17 existentes para rellenar el plano con baldosas (mediante teselaciones del plano). De hecho, el autor y la autora del libro citado más arriba, del Instituto de Ciencias Matemáticas del CSIC, nos recuerdan que, en la actualidad, es el único monumento construido antes del descubrimiento de la teoría de grupos que cuenta con al menos un ejemplo de cada uno de los grupos cristalográficos planos.

Por este motivo, la Alhambra tiene un especial interés para personas interesadas en las matemáticas, pues el libre y audaz método creativo empleado para elaborar los mosaicos pone de manifiesto el uso de conceptos científicos basados en hacer variaciones sobre una misma figura. Sin entrar en otros detalles relacionados con estos revestimientos cerámicos en los que sus constructores eran verdaderos maestros, podemos afirmar que la Alhambra es un ejemplo esplendoroso del hermanamiento entre arte y matemáticas.

 

Tú también puedes enviar globos sonda a la estratosfera y hacer ciencia ciudadana con Servet V

Por Mar Gulis (CSIC)

Lanzamiento en 3, 2, 1… ¡Deja de soñar con que formas parte de una misión espacial! Ahora puedes hacerlo realidad con la quinta edición de la iniciativa de ciencia ciudadana Servet. Si te gusta la astronáutica, la navegación espacial y todo aquello que se mueva a más de 12.000 metros sobre el nivel del mar, Servet V te está esperando, independientemente de la formación y los conocimientos que tengas. Este proyecto científico abierto a la ciudadanía busca democratizar el acceso al espacio e invita al público a proponer, diseñar y ejecutar sus propias misiones subespaciales. Pero lo primero que debes hacer es rellenar, antes del domingo 29 de agosto de 2021, el formulario de participación.

Proyecto Servet IV. / Germán Martín

Proyecto Servet IV. / Germán Martín

Servet V lanzará tres globos sonda (Hwoyee HY-1600, con capacidad para portar varias cápsulas de hasta 400 gramos cada una), que pondrán rumbo a la estratosfera y volverán a la Tierra tras haber recogido multitud de datos científicos en su viaje hasta los 36.000 metros de altura. Se medirán, entre otros parámetros, la radiación y la temperatura, se harán pruebas de transmisiones mediante LoRaWAN y de vídeo a larga distancia, etc. Entonces, ¿quieres formar parte de Servet V? Consulta las bases, existen dos modalidades de participación:

  • CÁPSULA DE HASTA 400 g. Tú pones la cápsula y el proyecto toda la infraestructura -globos, helio, seguros, organización del lanzamiento, etc.-. Aunque se intentará recuperar la carga, esto no está garantizado. Se seleccionarán nueve cápsulas de hasta 400 gramos.
  • CÁPSULA 0 g. Si lo que deseas es participar en el evento, ayudar en la logística, aprender y echar una mano en la organización, no lo dudes, esta es tu modalidad.

Una vez finalizado el plazo de recepción de solicitudes, que concluye el próximo 29 de agosto, el 6 de septiembre se dará a conocer la selección de participantes. El lanzamiento de Servet V está previsto para el sábado 30 de octubre de 2021 en una localidad zaragozana aún por definir. El día previo se realizarán los preparativos y el domingo 31 se presentarán los resultados al público general. Los datos obtenidos en las distintas ediciones de Servet se irán publicando de forma libre y gratuita en la web del proyecto para que cualquier persona los pueda consultar y analizar.

Proyecto Servet II

Proyecto Servet II

Esta iniciativa ciudadana arrancó en junio de 2017 con el lanzamiento del primer globo sonda, Servet I, y desde entonces, el proyecto ha seguido reuniendo a público experto y aficionado de la navegación espacial, makers, desarrolladores/as, radioaficionados/as, etc. Además, otro de los objetivos del proyecto es acercar la ciencia al entorno rural, por eso, las zonas de lanzamiento elegidas en años previos han sido pequeños municipios de la provincia de Zaragoza, como Alpartir o Alfamén. En este último se realizó, en 2019, el lanzamiento de los globos sonda equipados con las misiones aeronáuticas del proyecto Servet IV.

Récord mundial de distancia de transmisión a través de LoRaWAN

Uno de los globos de Servet IV, “tras mandar sus últimas señales el día del lanzamiento por la noche mientras cruzaba Soria, revivió inesperadamente. Tres ‘latidos’ fueron detectados dos días después en su paso por las Azores”, relataba Francisco Sanz, director ejecutivo de la Fundación Ibercivis. Con este globo se batió el récord mundial de distancia alcanzada por una comunicación transmitida a través del protocolo de red LoRaWAN. Con una potencia de 0,025 vatios, su señal se recibió a una distancia de 766 kilómetros.

LoRaWAN es una tecnología de red de área amplia y baja potencia (LPWAN: Low Power Wide Area Network), diseñada para que dispositivos de baja potencia se comuniquen con aplicaciones conectadas a Internet a través de conexiones inalámbricas de largo alcance utilizando las bandas de radio ISM -reservadas internacionalmente para el uso de energía de radiofrecuencia para fines industriales, científicos y médicos distintos de las telecomunicaciones-.

Récord de distancia de transmisión de 766 kilómetros, conseguido por uno de los globos sonda lanzados con Servet IV. / The Things Network

Récord de distancia de transmisión de 766 kilómetros, conseguido por uno de los globos sonda lanzados con Servet IV. / The Things Network

Con otro globo también se consiguió transmitir a 744 km mediante TTN (The Things Network), a través de LoRaWAN. Además, se midió radiación, se transmitió en APRS (Automatic Packet Reporting System, un sistema de radioaficionado para comunicaciones digitales en tiempo real), se envió vídeo en tiempo real, etc. Estas cápsulas lograron recuperarse en Buñuel, Navarra, pero las que viajaban en otros globos no corrieron la misma suerte.

Proyecto Servet II

Proyecto Servet II

Servet cuenta con el apoyo de la Fundación Ibercivis -de la que forma parte el Consejo Superior de Investigaciones Científicas-, Etopia Centro de Arte y Tecnología, los Laboratorios CESAR en Etopia, la Universidad de Zaragoza, la Unión de Radioaficionados Españoles y la Fundación Española para la Ciencia y la Tecnología-Ministerio de Ciencia e Innovación. Si tienes alguna duda puedes contactar con info@ibercivis.es

Siete libros de ciencia para tu maleta veraniega

Por Mar Gulis (CSIC)

Las deseadas y merecidas vacaciones están cerca, por eso nos gustaría proponerte unas lecturas de divulgación con las que disfrutar del verano. Las colecciones ¿Qué sabemos de? y Divulgación (CSIC-Catarata) cuentan con más de 150 títulos de libros fáciles de llevar y leer. Aquí te presentamos algunos de los números más recientes.

¿Existe una filosofía en español?

Decía Heidegger que pensar, lo que se dice pensar, solo es posible en griego y en alemán. Entonces, ¿no es factible la existencia de un pensamiento filosófico en nuestro idioma? El investigador del CSIC Reyes Mate aborda esta cuestión el libro Pensar en español, el primer volumen de estas colecciones dedicado a la filosofía. En un mundo dominado por el inglés, el autor trata de “crear un marco de referencia que nos sitúe frente a otros pensares en otras lenguas y, también, establezca vínculos entre nuestros propios intentos de pensamiento, en el primer caso para diferenciarnos, y en el segundo caso para unirnos”.

Para los que gusten de la reflexión en nuestra lengua, este texto es más que recomendable. Además, viene con contenido extra: un vídeo resumen de un minuto y una entrevista al autor en el nuevo pódcast del CSIC ‘Ciencia para leer’.

La enfermedad de las mil caras

La esclerosis múltiple es una enfermedad crónica, inflamatoria y neurodegenerativa del sistema nervioso central. Tiene un marcado componente autoinmune, y aparece generalmente en personas de entre 20 y 40 años, lo que supone un enorme impacto en su calidad de vida, importantes repercusiones sociales, y un elevado coste sanitario. Esta patología afecta a 2,5 millones de pacientes en el mundo y, a pesar de la investigación desarrollada desde su descubrimiento en el siglo XIX, aún presenta muchos interrogantes.

La esclerosis múltiple afecta a 700.000 personas en Europa. En España, la incidencia es de 100 casos por 100.000 habitantes, en su mayoría mujeres. / CSIC-Catarata

Las científicas Leyre Mestre y Carmen Guaza del Instituto Cajal del CSIC se adentran en su evolución, sintomatología, tratamientos y líneas futuras de estudio en La esclerosis múltiple, un libro que da a conocer una enfermedad muy heterogénea y difícil de tratar.

Los entresijos de la ciencia

Desde que alguien formula una hipótesis en un despacho o laboratorio de cualquier parte del planeta hasta que esa idea aparece publicada en una revista científica en forma de nueva teoría, tecnología o producto existe un largo y complicado proceso poco conocido más allá de los campus universitarios y los centros de investigación. Por qué y cómo se hace la ciencia está escrito “desde dentro” por Pere Puigdomènech, un profesional que ha dedicado su vida a esta labor. “Condensar en un libro de bolsillo un texto sobre la ciencia en sí misma no era tarea fácil, pero esta actividad tiene tal impacto tanto por los millones de personas que se dedican a ella como por su influencia en cómo vivimos y en las decisiones que toman los gobiernos, que merecía la pena intentarlo”, comenta el autor.

Con este libro, el investigador del Centro de Investigación en Agrigenómica adscrito al CSIC pretende describir la evolución histórica de la actividad investigadora, qué papel cumple en nuestra sociedad y cuál es su funcionamiento interno. Sus páginas, idóneas para curiosos y curiosas de los vericuetos científicos, responden a preguntas como quién investiga, dónde lo hace, qué método y reglas sigue o con qué financiación cuenta.

Nanotecnología y desarrollo sostenible

Desde 2010 se han publicado más de un millón de artículos científicos sobre descubrimientos o desarrollos relacionados con la nanotecnología y se han concedido cinco premios Nobel de Física o Química a personas que han realizado aportaciones significativas en este ámbito. Estos dos datos son solo una muestra de la relevancia que ha adquirido la llamada ‘ciencia de lo pequeño’ en los últimos años. Objetos o partículas que miden la milmillonésima parte de un metro (10-9) se perfilan como una de las soluciones para lograr la supervivencia de la especie humana en imprescindible equilibrio con el planeta que habita.

Por su carácter transversal, la nanotecnología impacta en la mayoría de los objetivos de la Agenda 2030. 

El investigador del CSIC en el Instituto de Ciencia de Materiales de Madrid Pedro Serena firma Nanotecnología para el desarrollo sostenible, un libro que explica cómo el conocimiento acumulado sobre el nanomundo puede ayudar a mejorar nuestra calidad de vida sin comprometer el futuro de nuestros descendientes. El autor introduce los aspectos fundamentales de la nanotecnología y su salto de los laboratorios al mercado, para luego conectar las aplicaciones existentes y las futuras con los Objetivos de Desarrollo Sostenible (ODS) establecidos por la ONU en su Agenda 2030.

¿Qué tienen en común la niebla y la cerveza?

Rodrigo Moreno, investigador del CSIC en el Instituto de Cerámica y Vidrio es autor de Los coloides, el libro que responde a esta pregunta. El arcoíris, un flan, la ropa deportiva impermeable que transpira y no pesa, la espuma con la que rizamos nuestro pelo o el famoso gel hidroalcohólico que nos aplicamos continuamente. Los coloides están presentes en muchos procesos y productos cotidianos, aunque la mayoría no hayamos oído hablar nunca de ellos. Son mezclas no homogéneas de dos o más fases (gas, líquido o sólido) en las que una de ellas tiene un tamaño menor a un micrómetro (0,001 milímetros) y que hacen posible la existencia de muchos materiales que usamos a diario. También se encuentran detrás de complejas tecnologías que en el futuro podrían permitir reutilizar materias primas o eliminar microplásticos de ríos y océanos. Este texto describe las características, técnicas de preparación y algunas de las numerosas aplicaciones de los sistemas coloidales.

La espuma de la cerveza es un coloide en el que partículas de gas, las burbujas, se encuentran dispersas en un medio líquido. 

La sorprendente vegetación de Atacama

Entre el océano Pacífico y la cordillera de los Andes se extiende un territorio de unos 178.000 kilómetros cuadrados donde predominan los tonos rojizos y, a simple vista, no se percibe rastro alguno de vegetación. Atacama, ubicado en el norte de Chile, es el desierto cálido más árido del mundo. Allí hay lugares donde no llueve en años, incluso en décadas, y otros en los que la media anual de precipitaciones no llega a los 5 milímetros de agua. Las temperaturas oscilan unos 30 grados entre el día y la noche, y la radiación solar es implacable. A pesar de las condiciones climáticas tan extremas, en este desierto se han descrito miles de especies de plantas que el investigador del Centro Nacional de Biotecnología del CSIC Carlos Pedrós-Alió nos invita a descubrir.

El ‘desierto florido’ es uno de los fenómenos más llamativos que suceden en Atacama. Solo algunos años, y en zonas diferentes, la superficie se transforma en un campo de flores de distintas especies que dura varios meses. / Gerhard Hüdepohl

“Después de veinte años visitando este territorio para estudiar microorganismos, vi que en algunos sitios había plantas. Quise saber de qué especies se trataba, cómo se las arreglan para vivir en este entorno, qué adaptaciones tienen a la aridez, de dónde sacan el agua, cómo se distribuyen y cuánto tiempo hace que aparecieron en la evolución”, cuenta el científico. El resultado de esta investigación es el libro Las plantas de Atacama. El desierto cálido más árido del mundo, un recorrido por una de las zonas naturales más espectaculares del planeta.

La expedición Magallanes-Elcano

El 10 de agosto de 1519 partían desde Sevilla cinco naves con unos 250 tripulantes a bordo. Era el comienzo de la famosa expedición capitaneada por Fernando de Magallanes y finalizada gracias a Juan Sebastián Elcano. Financiada por la Corona de Castilla, su objetivo principal era llegar por occidente a un lugar llamado La Especiería – en el archipiélago de Las Molucas, ubicado en Indonesia– y crear así una ruta marítima alternativa a la establecida por Portugal para controlar el comercio de especias como el clavo de olor, la canela, la nuez moscada y la pimienta negra.

Terra Brasilis y el Atlántico Sur (Atlas Miller, 1519). Imagen del mapa que forma parte de la portada del libro. / CSIC

Más de tres años después, el 6 de septiembre de 1522, 18 europeos y 3 orientales enfermos y agotados arribaron a Sanlúcar de Barrameda. Después de recorrer 14.460 leguas, habían conseguido culminar la primera vuelta al mundo. En la conmemoración de su quinto centenario, Las plantas de la expedición Magallanes-Elcano (1519-1522)  rinde tributo a esta hazaña promovida por la búsqueda de nuevas plantas y nos propone viajar a través de unas páginas impregnadas de olores y sabores exóticos. El libro de la colección Divulgación está coordinado por el investigador del CSIC en el Real Jardín Botánico Pablo Vargas y escrito por una veintena de investigadores e investigadoras procedentes de aquellos países por los que transcurrió esta azarosa singladura.

La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

Los riesgos del teletrabajo: ¿es seguro trabajar en la red?

Por David Arroyo, Víctor Gayoso y Luis Hernández (CSIC)*

El confinamiento ha sido uno de los principales elementos de contención de la COVID-19 desde el inicio de la crisis pandémica. Para mantener la actividad laboral y educativa ha sido necesario desplegar un conjunto de soluciones tecnológicas que han hecho que el teletrabajo y la enseñanza online cobren un peso muy significativo en nuestra sociedad. Así, por ejemplo, se ha estimado que entre marzo y septiembre de 2020 hubo un incremento del 84% en el uso de herramientas de teletrabajo. En paralelo, sin embargo, también han proliferado los ciberataques y los cibercrímenes: a lo largo de 2020, se estima que hubo un incremento del 6.000% en ataques por spam, ransomware (programas de secuestro de datos) y phishing (suplantación de la identidad de un tercero –persona, empresa o servicio– para que un usuario proporcione datos confidenciales creyendo que trata con un interlocutor de confianza).

Un ejemplo de los riesgos que trae consigo el teletrabajo es el de las aplicaciones de videoconferencia, como Zoom, Skype o Teams, que nos han permitido seguir manteniendo reuniones. El uso de herramientas como estas, desarrolladas por terceros, puede hacer mucho más vulnerable la seguridad de la información intercambiada; sobre todo, cuando se recurre a ellas con urgencia y no son debidamente auditadas y verificadas.

La amenaza del espionaje afecta también a las reuniones presenciales, pero acceder maliciosamente a la información que se comparte en estos encuentros supone que los atacantes pongan en marcha procedimientos y técnicas de alto coste y específicos para cada situación. En el caso de las videoconferencias, si existen vulnerabilidades de seguridad en una aplicación, todas las reuniones celebradas usando ese software estarán afectadas por un riesgo de interceptación de la información intercambiada. Esto es, existiría una vulnerabilidad matriz que puede ser explotada de modo generalizado.

El software que se emplea en videoconferencias solo es una pieza dentro del complejo del teletrabajo, que constituye un verdadero reto para las políticas de ciberseguridad. Lo es en situaciones de normalidad, pero mucho más en escenarios de crisis similares al deparado por la COVID-19. En este contexto, el teletrabajo se ha adoptado en la mayor parte de los casos de modo improvisado, sin una política de seguridad previamente definida y debidamente evaluada. Baste mencionar como ejemplo de ello los recientes ataques contra el Servicio Público de Empleo Estatal (SEPE) y el Ayuntamiento de Castellón, o los mensajes fraudulentos relacionados con el ofrecimiento de servicios a domicilio para la vacunación contra la COVID-19.

Ciberhigiene y ciberseguridad

Sin duda, es deseable que todas las personas que teletrabajan sigan unas buenas prácticas de ciberhigiene, como evitar la instalación de software no recomendado por los responsables de cibersegu­ridad, no conectarse a redes wifi públicas o no responder correos sospechosos de phishing. Ahora bien, una buena política de seguridad no asume sin más que esas normas de ciberhigiene se vayan a cumplir, sino que establece mecanismos de control para salvaguardar la seguridad, o al menos paliar las consecuencias de posibles ataques, en caso de incumplimiento.

Pues bien, en la crisis de la COVID-19 el teletrabajo se ha desplegado, en muchos casos, sin que las plantillas tengan arraigada esa disciplina de ciberhigiene y sin que su empresa haya diseñado una política de seguridad adecuada. Es más, en muchas situaciones los teletrabajadores han tenido que utilizar ordenadores y dispositivos propios. Dada la situación de confinamiento generalizado y la limitación de recursos tecnológicos en el hogar, es de suponer que en muchos domicilios los ordenadores han sido compartidos entre varios integrantes de la unidad familiar. Esta práctica tiene que ser considerada como un riesgo de seguridad adicional, ya que cada miembro del hogar tiene, a priori, una cultura de ciberseguridad distinta y usa la tecnología para objetivos diferentes.

Por ello, es preciso formar de modo adecuado a las personas que potencialmente van a teletrabajar para que tomen conciencia de los riesgos de ciberseguridad asociados a entornos de trabajo fuera del perímetro de seguridad de su empresa. En este sentido, sería de alto interés la planificación de simulacros y ciberejercicios en los que la interacción con las personas responsables de la ciberseguridad permitiera fortalecer rutinas de ciberhigiene, así como establecer pautas para la resolución de problemas de seguridad con el apoyo telemático de especialistas.

Si se ejecutan de modo correcto y de forma regular, estos ejercicios pueden servir para disminuir el impacto de los ciberataques al mejorar las competencias tecnológicas de la plantilla y la gestión de factores psicológicos que pueden ser explotados por ciberatacantes en periodos de crisis. Es el caso del estrés, la ansiedad o la falta de concentración motivada por las distracciones que se dan en un entorno distinto del laboral. Aquí conviene tener presente que la cadena de ataque habitual incluye estrategias de ingeniería social y phishing mediante las que los usuarios pueden bajar la guardia e instalar software sin evaluación de seguridad, acceder a sitios web asociados a campañas de malware y ser víctimas de robo de información o de ciberacoso.

Fomentar una cultura de ciberseguridad y ciberresiliencia puede y debe contribuir a reducir el impacto de estos ataques en posibles crisis futuras.

* David Arroyo, Víctor Gayoso y Luis Hernández son investigadores del CSIC en el Instituto de Tecnologías Físicas y de la Información “Leonardo Torres Quevedo” y autores del libro Ciberseguridad (CSIC-Catarata). Este post es un extracto del mismo.

¿Cómo se mide el tiempo en Marte?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

La respuesta, a priori, es sencilla: en Marte, el tiempo se mide utilizando el Sol. El segundo planeta más pequeño del Sistema Solar y cuarto en cercanía al Sol gira en torno a su eje con un periodo de 24,6 horas, lo que supone que el día solar marciano es aproximadamente un 3% más largo que el día solar terrestre. En concreto, un día en Marte tiene una duración de 24 horas, 39 minutos y 32,55 segundos, lo que se denomina sol.

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

En la superficie de Marte se utiliza la hora solar local para la medida del tiempo de las misiones que han aterrizado allí. Cada misión tiene su propio tiempo solar local, que estará determinado por su ubicación en el planeta. A pesar de que Marte dispone de un meridiano cero para referir las longitudes geográficas, no tiene zonas horarias definidas a partir de ese meridiano como ocurre en la Tierra. Por tanto, la separación en longitud geográfica de las misiones entre sí determinará la diferencia horaria entre las mismas.

Para determinar el calendario marciano hubo más controversia. Sin embargo, para el día a día de las misiones que han aterrizado en Marte, se ha optado por un criterio más simple: contar los días (soles) en Marte a partir del momento del aterrizaje, que pasa a denominarse sol 0. Por ejemplo, la misión InSight de la NASA (que, por cierto, contiene un instrumento español desarrollado en el Centro de Astrobiología (CSIC-INTA): los sensores mediambientales TWINS) ha sido la última en aterrizar sobre la superficie marciana. Lo hizo el 26 de noviembre de 2018, lo que supone que la nave pasa en Marte hoy su sol 784.

InSight en la superficie marciana. / NASA/JPL-Caltech

InSight en la superficie marciana. / NASA/JPL-Caltech

Las estaciones en el planeta rojo

Del mismo modo que un sol en Marte dura más que un día en la Tierra, la duración del año marciano es también mayor que el terrestre, pues al estar más alejado, describe su órbita alrededor del Sol más lentamente que la Tierra. Un año marciano tiene 668,6 soles, lo que equivale a 687 días terrestres. Esta mayor duración del año hace que las estaciones en Marte sean más largas que las terrestres.

Entonces, ¿hay también estaciones en Marte? Pues sí, en Marte se producen estaciones a lo largo del año debido a que el eje de rotación de Marte también está inclinado respecto al plano de la eclíptica (el plano imaginario en el que los planetas del Sistema Solar giran alrededor del Sol). Esta inclinación del eje, conocida como oblicuidad, es de 25,2° en Marte, un poco mayor que los 23,4393° de la Tierra. Además, la órbita de Marte es más excéntrica que la terrestre.

La órbita más elíptica de Marte provoca que sus estaciones tengan duraciones muy diferentes entre sí, de manera que las primaveras marcianas en el hemisferio norte y los otoños en el hemisferio sur duran 194 soles, siendo así las estaciones más largas. Las estaciones más cortas en Marte son los otoños en el hemisferio norte y las primaveras en el sur, con una duración de solo 142 soles. Los inviernos en el hemisferio norte y los veranos en el sur duran 154 soles; y, finalmente, los veranos en el hemisferio norte y los inviernos en el sur duran 178 soles.

A vueltas con el calendario marciano

Pero, ¿qué ocurre con el calendario marciano? En la Tierra los meses vienen determinados por el ciclo lunar, pero Marte tiene dos lunas, los dos satélites naturales llamados Fobos y Deimos. Como curiosidad, las lunas del planeta vecino reciben sus nombres de la mitología griega: Fobos significa ‘miedo’ y Deimos ‘terror’, y son los nombres de los caballos que tiraban del carro de Ares, el dios griego de la guerra, equivalente al dios romano Marte.

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Los periodos de Fobos y Deimos son muy cortos, por lo que utilizar el mismo sistema que en la Tierra resulta inútil. Por ello, se eligió dividir el año en segmentos más o menos similares, más largos que nuestros meses, que cubrieran todo el periodo orbital. Los astrónomos Percival Lowell, Andrew E. Douglass y William H. Pickering, Robert G. Aitken y sir Patrick Moore diseñaron calendarios marcianos con mayor o menor suerte, pero no fue hasta 1986 cuando el ingeniero norteamericano Thomas Gangale publicó el calendario dariano, llamado así en honor a su hijo Darius.

En el calendario dariano, el año marciano se divide en 24 meses para acomodarlo manteniendo la noción de un “mes” razonablemente similar a la duración de un mes de la Tierra. El año cero del calendario se situó inicialmente en 1975, año del primer aterrizaje con éxito en la superficie de Marte de una nave estadounidense, con las misiones Viking. Más tarde, se definió como nuevo año cero para el calendario el año 1609, como doble homenaje a la publicación de las leyes de Kepler y la primera observación con un telescopio realizada por Galileo.

MY (martian year) y Ls (longitud planetocéntrica)

La Planetary Society decidió finalmente no emplear un calendario como tal, sino utilizar la longitud planetocéntrica del Sol, conocida como Ls (ángulo que indica la posición de Marte en su órbita alrededor del Sol), para medir la época del año en Marte y que funcionaría a modo de fecha marciana. Así, el valor Ls = 0° corresponde al paso de Marte por el punto vernal, es decir, el equinoccio de primavera en el hemisferio norte marciano; el valor 90° corresponde al solsticio de verano boreal; 180° al equinoccio de otoño boreal y 270° al solsticio de invierno boreal.

En este calendario, el año marciano 1 o MY1 (por sus siglas en inglés) comenzó oficialmente el día 11 de abril de 1955 a las 00:00 h UTC y terminó el 26 de febrero de 1957 a las 00:00 h UTC. El motivo de elegir esta fecha fue hacer coincidir el comienzo del calendario con la tormenta global de polvo que se observó en Marte en 1956. El comienzo de la estación de tormentas de polvo en Marte se produce justo después del paso por el perihelio, el punto de la órbita más cercana al Sol y donde más rápido se desplaza, sobre Ls = 260°.

Posteriormente, el calendario se extendió y se determinó el año marciano 0, MY0, que comenzó el día 24 de mayo de 1953 a las 00:00 h UTC. Cualquier año anterior llevaría delante el signo menos. Por tanto, MY-1 comenzó el 7 de julio de 1951, el MY-2 el 19 de agosto de 1949, y así sucesivamente. Como curiosidad, la primera observación conocida de Marte con un telescopio, realizada por Galileo a finales del año 1610, correspondería al MY-183.

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

Así pues, con este criterio de designación de fechas, el róver Curiosity (que lleva a bordo el otro instrumento español en Marte: REMS, la estación medioambiental también del Centro de Astrobiología) aterrizó en Marte el MY31 Ls150, es decir, el 6 de agosto de 2012. Y por su parte, InSight el MY35 Ls112.

Sea cual fuere el modo de medir el tiempo en Marte, dado que la idea de enviar seres humanos a explorar Marte es ya un proyecto consolidado, no estaría de más ir buscando un criterio unificado. No vaya a ser que el primer ser humano que ponga el pie en Marte no sepa cómo poner su reloj en hora.

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro ‘Marte y el enigma de la vida’ (CSIC-Catarata) de la colección ¿Qué sabemos de?

Puentes que se derrumban y copas que estallan: el fenómeno de la resonancia mecánica

Por Daniel Ramos Vega y Mar Gulis (CSIC) *

El 12 de abril de 1831, una compañía del cuerpo de fusileros del ejército británico regresaba al cuartel después de unas maniobras militares. Al cruzar el puente de Broughton (Manchester), los 74 hombres que componían la compañía notaron un ligero balanceo. Comenzaron entonces a marcar el paso más firmemente e incluso llegaron a cantar canciones de marcha militar, cuando se escuchó un ruido atronador, como si de una descarga de armas se tratase. Uno de los cuatro pilares que sostenían la cadena que soportaba el peso del puente se desplomó y provocó su colapso: el puente acabó derrumbándose por completo sobre el río arrastrando consigo a 40 soldados. Por fortuna, en esa época del año aún no había crecido el nivel del agua y no hubo que lamentar víctimas mortales. Eso sí, 20 soldados resultaron heridos.

Puente de Tacoma Narrows oscilando

¿Por qué se derrumbó el puente? La causa más probable del colapso la encontramos en el fenómeno de la resonancia mecánica.

Para entenderlo, antes tenemos que hablar de ondas y frecuencias. Una onda es una perturbación que se trasmite por el espacio, lleva implícito un cambio de energía y puede viajar a través de diferentes materiales. Imaginemos por ejemplo las ondas que se generan cuando lanzamos una piedra a un estanque o cuando sacudimos una cuerda de arriba a abajo. Para definir una onda utilizamos conceptos como la amplitud, que es la distancia vertical entre el punto de máximo desplazamiento y el punto medio; el periodo, que se define como el tiempo completo en que la onda tarda en describir una oscilación completa; o la frecuencia, que es el número de veces que se repite la oscilación en un tiempo dado.

Onda, magnitud y frecuencia. / Daniel Ramos Vega.

Todo cuerpo presenta una o varias frecuencias especiales que se denominan frecuencias características o propias. Dependen de la elasticidad del objeto, sus dimensiones o su masa. Como los objetos transmiten mejor unas frecuencias que otras, cuando aplicamos una fuerza que oscila a la frecuencia propia del objeto, logramos hacer que el efecto se magnifique. Entonces decimos que entra en resonancia.

Una resonancia, por tanto, se produce cuando sometemos un cuerpo a una fuerza periódica igual a su frecuencia característica. En el caso del puente, la amplitud de las vibraciones es cada vez más grande, hasta el punto que se produce un colapso de la estructura. De esta forma, una fuerza relativamente pequeña, como pueden ser los pasos de unos soldados al marchar sobre él, puede causar una amplitud de oscilación muy grande.

Este curioso episodio tuvo una consecuencia inesperada que aún perdura hasta nuestros días: desde ese accidente, las tropas británicas tienen orden de romper la formación y el paso cuando cruzan un puente.

A lo largo de la historia ha habido episodios similares y han sido varios los puentes que han terminado derrumbándose por el efecto de la resonancia mecánica. Tal vez el más significativo sea el Puente de Tacoma Narrows (Washington), construido en 1940 y que acabó desplomándose violentamente cuatro meses después de su construcción. En este caso fue el viento el que provocó que el puente entrara en resonancia y hay varias filmaciones que muestran el momento del derrumbe.

Vibraciones que hacen estallar copas de cristal

Otro ejemplo de cómo la resonancia mecánica puede tener unos efectos cuanto menos sorprendentes es el siguiente. A principios del siglo XX la cantante de ópera australiana Nellie Melba era conocida por hacer estallar las copas de cristal al cantar. También el famoso tenor italiano Enrico Caruso conseguía este fenómeno cuando cantaba ópera. Y el marido de María Callas, considerada la cantante más eminente del siglo XX, afirmaba que se cortó el brazo al estallar una copa cuando su mujer ensayaba en casa.

¿Puede realmente una cantante de ópera hacer estallar una copa al cantar? La respuesta es sí y la razón es que se ha excitado la resonancia del cristal. Como hemos explicado, este fenómeno físico tiene lugar cuando se ejerce una fuerza sobre un cuerpo con una frecuencia que coincide con la frecuencia propia del sistema. Es lo que pasa cuando empujamos un columpio en el parque: no lo hacemos de cualquier forma, sino que damos un pequeño empujón en el momento adecuado, justo cuando el columpio alcanza su máxima amplitud. Si conseguimos aplicar la fuerza con la misma frecuencia que la frecuencia del balanceo del columpio, somos más efectivos. En el caso de la cantante y la copa de cristal, bastará con que se emita una nota musical cuya frecuencia coincida con la vibración propia de la copa. Manteniendo la nota con la potencia necesaria, como pasaba con el columpio, la energía que se acumula en ella gracias al fenómeno de la resonancia hará que se produzcan vibraciones tan grandes dentro del cristal que la copa estalle.

Eso sí, si algún cantante de ópera quisiera emular a Melba, Caruso o Callas, no le valdría cualquier copa. Debería ser de cristal muy fino y de gran calidad, cuya composición química sea homogénea para que la copa tenga una única frecuencia propia y se comporte como un sistema limpio, de forma que toda su estructura pueda entrar en resonancia. Afinen esas cuerdas vocales mientras alejan su cristalería más preciada.

 

*Daniel Ramos Vega es investigador del Instituto de Micro y Nanotecnología (IMN) del CSIC y autor del libro Nanomecánica (CSIC-Catarata) de la colección ¿Qué sabemos de?

¿Cómo funciona en realidad un ordenador cuántico?

Por Carlos Sabín (CSIC)*

En una entrada reciente hablábamos de uno de los tópicos más resistentes en la divulgación de la física cuántica, aquel según el cual las cosas estarían en «dos sitios a la vez». Cuando esa manera de pensar se traslada a los computadores, el ordenador cuántico es presentado como una máquina que estaría en un montón de estados a la vez y que, por tanto, sería capaz de “hacer un montón de cálculos en paralelo». Este suele ser el enfoque, de hecho, en casi todos los textos divulgativos que se escriben sobre computación cuántica. Es un enfoque consistente desde el punto de visto lógico, pero tiene un problemilla: es falso.

Interior de un ordenador cuántico

Interior de un ordenador cuántico. / IBM Research (CC-BY-SA).

Como explica brillantemente Scott Aaronson en un cómic ilustrado por Zach Weinersmith, la computación cuántica tiene poco que ver con un montón de ordenadores clásicos trabajando en paralelo. De hecho, no sería tan interesante si fuera así, ¿no? En realidad, la computación cuántica se basa en dos ideas, digamos, ‘genuinamente cuánticas’, que en jerga técnica se denominan con las palabrejas ‘superposición’ e ‘interferencia’.

La primera es precisamente la palabra para designar que en la física cuántica las propiedades pueden estar indefinidas o, mejor dicho, definidas solo por probabilidades. Esto hace que el cúbit, la unidad mínima de información en computación cuántica, pueda comportarse de un modo muy distinto a los bits clásicos. Mientras que un bit tiene que estar necesariamente en uno de sus dos estados posibles, 0 ó 1, un cúbit se puede preparar para que tenga una cierta probabilidad de estar en 0 y otra cierta probabilidad de estar en 1. Lo mismo puede hacerse con un conjunto de cubits: se pueden preparar para tener una cierta probabilidad de estar en, digamos, 0000011000… y una cierta probabilidad de estar en 0000111111… o lo que sea.

La segunda palabreja quiere decir que en física cuántica las cosas pueden interferir, de la misma forma que interfiere la luz: cuando dos ondas de luz se encuentran en un sitio, el resultado puede ser que no haya la misma luz que la suma de la luz de las dos ondas por separado: puede haber más luz (interferencia constructiva) o menos luz (interferencia destructiva). Un ordenador usaría la interferencia constructiva para aumentar la probabilidad de tener una de las posibilidades iniciales (la solución del problema) y la interferencia destructiva para reducir las de todas las demás. Esto sólo es posible si en el proceso se genera el famoso entrelazamiento cuántico: es decir, en algún punto es preciso que un conjunto de cubits no solo esté en superposición, sino que existan correlaciones muy fuertes entre ellos, correlaciones que solo pueden alcanzarse en un sistema cuántico. No todas las superposiciones tienen esa propiedad.

Un ejemplo que sí la tiene sería un caso con dos cubits preparados para que tengan una probabilidad del 50% de estar en 00 y la misma probabilidad de estar en 11. El estado de cada cúbit es completamente aleatorio (cada uno de ellos tiene la misma probabilidad de estar en 0 o en 1) pero está totalmente correlacionado con el de su compañero: si hago una medida y determino que el estado de uno de ellos es, por ejemplo, 0, inmediatamente sé que el estado del otro cúbit es también 0.

Circuito de cuatro cubits

Circuito de cuatro cubits. / IBM Research (CC-BY-SA).

El ejemplo de la guía telefónica

Veamos un ejemplo bonito de esto. Por diversos motivos, el interés de este ejemplo es meramente académico, pero confío en que sirva para entender mejor cómo podría funcionar un ordenador cuántico.

Imagine que tiene un número de teléfono pero no sabe a qué persona pertenece. Imagine también que se le ocurre usar la guía telefónica para esto. Puesto que el orden de la guía es alfabético para los nombres, resulta que los números no tienen ninguna ordenación en absoluto, así que ya se puede preparar para una búsqueda lenta y tediosa.

¡Ah, pero podemos usar un ordenador! El ordenador, básicamente, hará lo mismo que haría usted: ir número por número y compararlo con el que tiene usted, hasta que haya una coincidencia. Podría haber mucha suerte y que el ordenador encontrase esa coincidencia tras comparar pocos números… pero también podría haber muy mala suerte y que el ordenador tuviese que rastrear casi toda la guía.

En general, podemos decir que el número de búsquedas que habrá que hacer (el número de pasos del algoritmo que está aplicando el ordenador) crecerá linealmente con el número total de teléfonos de la guía: si multiplicamos por dos el número total de números de teléfono, también aumentará por dos el número de pasos. Pues bien: si tenemos un ordenador cuántico, podemos usar una receta, el ‘algoritmo de Grover’, que hará que encontremos el resultado correcto en menos pasos. Con este algoritmo si aumentamos por dos el número total de teléfonos, el número de pasos aumentará sólo en la raíz cuadrada de dos.

Simplifiquemos aún un poco más, para ver exactamente de qué estamos hablando. Imagine que tras una fiesta usted ha apuntado cuatro números de teléfono en un ordenador (por supuesto, a estos efectos, un teléfono móvil es un pequeño ordenador), cada uno con su nombre correspondiente. Unas semanas más adelante, vaciando los bolsillos, usted se encuentra con una servilleta arrugada donde hay un número escrito, pero ya no se distingue el nombre. No hay problema: solo tiene que introducir el número en su ordenador para que busque a cuál de los cuatro contactos que usted apuntó corresponde.

Si su aparato es clásico, su agenda digital de cuatro números necesitará unos cuantos bits: la información de cada número (por ejemplo, «Nombre: …, Número: …») estará clasificada por el valor de dos bits: o bien 00, o bien 01, o bien 10, o bien 11. Pongamos que el número que busca está guardado en la casilla 10. Cuando usted teclee el número de la servilleta, el ordenador irá casilla por casilla hasta encontrar la 10, identificar el nombre asociado al número y devolvérselo. Con mucha suerte, su número estará en la primera casilla de búsqueda, pero con mala suerte estará en la última, y el ordenador tendrá que dar cuatro pasos antes de encontrar lo que usted busca.

Pero usted mola mucho más que todo eso y tiene un pequeño ordenador cuántico. Entonces, para encontrar su número solo necesita dos cubits y haberse bajado la app ‘Grover’. El primer paso que dará la app será preparar los cubits para que tengan una probabilidad del 25% de estar en 00, una probabilidad del 25% de estar en 01… y así con las cuatro posibilidades. Cuando usted introduzca el número, la app lo identificará como el correspondiente a, por ejemplo, 01, y entonces sabrá la operación (puerta lógica cuántica) que tiene que aplicar sobre el ambos cúbits. Tras esa operación, el algoritmo de Grover nos dice que los cubits ahora estarán en un estado tal que la probabilidad de estar en 01 (o el que sea) es exactamente el 100%. Es decir, en este caso concreto, con solo cuatro números, usted encontrará siempre el número en un solo paso.

Errores cuánticos

Naturalmente, esto (aunque es muy molón) no tiene gran aplicación práctica: la diferencia en el número de pasos no es muy grande, y usted puede encontrar un número en una lista de cuatro con un golpe de vista. Pero si pensamos en una guía de un millón de números, estamos hablando de la diferencia entre hacer un número de pasos del orden de un millón (con un ordenador convencional) o del orden de mil (con un ordenador cuántico). Por supuesto, para eso necesitamos correr la app Grover en un ordenador cuántico con muchos más cubits, y eso todavía no es posible. De momento, los ordenadores cuánticos tienen a lo sumo unas cuantas decenas de cubits, y todavía cometen muchos errores.

Uso dos cubits del ordenador cuántico de IBM para encontrar un número de teléfono en una lista de 4.

Uso dos cubits del ordenador cuántico de IBM para encontrar un número de teléfono en una lista de 4.

Para hacernos una idea, he lanzado el experimento que acabo de describir con dos cubits en el ordenador cuántico de IBM, que es accesible en línea. En la imagen, vemos las operaciones que hay que hacer en el caso de estar buscando el 00. En el primer instante de tiempo (todo lo que ocurre en la misma línea vertical es simultáneo) las dos puertas H sirven para preparar a los cubits en el estado inicial descrito más arriba. Todo lo demás, salvo las dos últimas operaciones, es el proceso de transformación de los cubits, y podemos considerar que es un paso del algoritmo de Grover (este paso sería distinto si estuviera buscando el 01, el 10 o el 11). En el camino, los cubits se entrelazan. Para una búsqueda en una lista más larga, ese paso tendría que repetirse un cierto número de veces.

Las dos últimas operaciones son medidas del estado de los dos cubits. La teoría nos dice que en un ordenador cuántico ideal el resultado de estas medidas sería siempre 00, con probabilidad 100 %. Como los ordenadores cuánticos reales todavía tienen errores que los alejan del comportamiento ideal, el resultado real no es perfecto: como vemos en la segunda imagen, tras 1024 repeticiones del experimento, la probabilidad de obtener el 00 fue del 87 % (ocurrió en 890 ocasiones). Esto nos da una idea realista del estado de la computación cuántica en la actualidad: incluso en ejemplos sencillos y académicos como este los errores son todavía significativos. Por supuesto, esto podría cambiar rápidamente en los próximos años, pero, como ven, hay mucho trabajo por delante todavía.

Resultados de 1024 repeticiones del experimento de la imagen anterio

Resultados de 1024 repeticiones del experimento de la imagen anterior. El resultado correcto se obtuvo el 87% de las veces.

Como resumen, confiamos en que haya quedado claro que un ordenador cuántico no es un aparato que realiza muchas operaciones a la vez o en paralelo. Si así fuera, no sería muy distinto de un supercomputador clásico. Al contrario, un ordenador cuántico usa las propiedades de la física cuántica para acelerar un cálculo concreto. Las correlaciones entre los distintos bits cuánticos pueden hacer que se llegue al resultado deseado significativamente antes de lo que lo haría un ordenador convencional. Eso requiere de recetas específicas para cada problema, las cuales conocemos en un número pequeño de casos, de momento. En el futuro, no solo habrá que diseñar esas recetas para cada caso de interés, sino que habrá que conseguir que los ordenadores cuánticos cometan muchos menos errores, o sean capaces de corregirlos.

* Carlos Sabín es investigador del CSIC en el Instituto de Física Fundamental, responsable del blog Cuantos completos y autor del libro Verdades y mentiras de la física cuántica (CSIC-Catarata).