Archivo de la categoría ‘Física’

Ciencia de lo cotidiano: el experimento en una cocina que se publicó en ‘Nature’

Por Alberto Martín Pérez (CSIC)*

¿Has visto que hay insectos capaces de caminar sobre el agua? Es un fenómeno cotidiano pero muy sorprendente. Y, aunque parezca magia, no lo es. Si lo fuera, al preguntarnos por qué ocurre, la única respuesta que obtendríamos sería un frustrante “porque sí”. Por suerte, la ciencia nos proporciona respuestas mucho más gratificantes.

‘La gota que colma la moneda’, fotografía seleccionada en FOTCIENCIA13, en la modalidad La ciencia en el aula / Aránzazu Carnero Tallón y Mª de los Ángeles de Andrés Laguillo

Lo que hacen estos insectos es aprovechar un fenómeno conocido como tensión superficial del agua. El agua (y cualquier otro líquido) tiene una propiedad muy curiosa: su superficie se comporta como un sólido elástico. Si recibe fuerza sobre su superficie, se deforma y, cuanta más fuerza recibe, mayor es su deformación. Dicho con otras palabras: la superficie del agua se comporta igual que una cama elástica.

Pero, ¿por qué los insectos pueden obrar el ‘milagro’ de caminar sobre las aguas y los seres humanos nos tenemos que conformar con aprender a nadar? La analogía de la cama elástica nos vuelve a dar la respuesta. Si en una cama elástica depositamos un peso demasiado grande, la lona se romperá y caeremos al suelo. Ocurre lo mismo en el agua, aunque el peso mínimo para romper su superficie es mucho menor que en el caso de la lona. Como los insectos tienen un peso minúsculo, pueden caminar sobre el agua sin romper su superficie mientras que las personas, al tener un peso mayor, rompemos la superficie del agua al rozarla.

Los insectos tienen un peso minúsculo que les permite caminar sobre el agua sin romper su superficie

La tensión superficial del agua en un experimento de Agnes Pockels

Ahora que conoces una posible explicación a este hecho cotidiano, ¿te lo crees o intentarías comprobarlo? Puede que mucha gente no se moleste en hacerlo pensando que para hacer una demostración científica se necesita utilizar máquinas y métodos muy complejos. Sin embargo, esta idea está tan equivocada como extendida. Aunque es cierto que no podemos construir en casa un acelerador de partículas como el LHC del CERN o un súper telescopio como el James Webb, lo cierto es que puede haber ciencia en todo lo que hacemos, hasta en las acciones y objetos más simples del día a día (cocinar, hacer deporte, escuchar música…). Podemos hacer y aprender mucha ciencia a partir de los fenómenos cotidianos; solo tenemos que fijarnos un poco en aquello que nos rodea. De hecho, la científica que en el siglo XIX sentó las bases del estudio de la física y química de las superficies fue Agnes Pockels, que utilizó exclusivamente objetos de su cocina.

Pockels era una científica poco convencional. No pudo estudiar en la universidad y su ocupación no era la que esperarías, ya que no era profesora ni investigadora, sino ama de casa. Pero consiguió superar las barreras para dedicarse a la ciencia e ideó el siguiente experimento. Llenó una cubeta con agua hasta hacerla rebosar y, después, depositó una lámina de metal muy fina sobre la superficie, que quedaba flotando –igual que los insectos que hemos mencionado antes–. Al mirar la cubeta de frente, se apreciaba a simple vista cómo la superficie del agua se deformaba cerca de la lámina.

Este experimento sería suficiente para probar que lo que ocurre con los insectos es cierto, pero Pockels quiso ir más lejos y decidió estudiar cómo cambia la tensión cuando se disuelven distintas sustancias en el agua. Utilizó azúcar, sal o alcanfor que encontró en su cocina-laboratorio, y con una regla midió cuánto se deformaba la superficie del líquido al depositar la lámina. Si la deformación es más grande en el caso de la disolución que en el agua pura, la sustancia disuelta disminuía la tensión superficial del agua y viceversa. Gracias a este sencillo método, Pockels llegó a conclusiones de gran importancia en física y química relacionadas con la estructura de la materia a escala atómica. Las investigaciones de Pockels fueron tan relevantes que acabaron publicándose en la revista Nature y sentaron las bases para investigaciones posteriores.

Este no es un caso aislado. Hay muchísimos fenómenos físicos y químicos que se pueden observar y comprobar fácilmente a través de situaciones y objetos de uso cotidiano. La ciencia no es algo reservado en exclusiva a las universidades y los laboratorios de investigación. Olvidarse de esta faceta cotidiana significa perderse la mejor parte de la ciencia.

*Alberto Martín Pérez es investigador en el grupo de Optomecánica del Instituto de Ciencia de Materiales de Madrid (ICMM) del CSIC. Con el objetivo de romper la equivocada idea de que la ciencia es algo opaco e inaccesible, lleva a cabo el proyecto de divulgación ‘La mejor parte de la ciencia’. Con vídeos breves (Tik Tok, Instagram, Twitter y YouTube) muestra que la ciencia se encuentra en nuestra vida cotidiana a través de preguntas aparentemente simples: ¿te has fijado que cuando caminas, conduces o vas en bicicleta utilizas las tres leyes del movimiento de Newton?, ¿sabías que al practicar fútbol, tenis o baloncesto usas el tiro parabólico? o ¿te has parado a pensar que al cocinar preparas disoluciones y se producen reacciones químicas?

Ultrasonidos: la revolución silenciosa de la medicina moderna

Por Francisco Camarena (CSIC-UPV)*

En 1983 nació la primera persona de mi familia sabiéndose de antemano cuál iba a ser su sexo. A su madre le habían hecho unas pruebas un poco raras echándole un gel pastoso y frío sobre el vientre, y el ginecólogo se había adelantado a la naturaleza diciendo: “creo que es una niña”. Las imágenes eran grises, ruidosas, bastante confusas y con mucho movimiento. ¿Cómo iba a deducirse de ese enredo de sombras que aquello iba a ser una niña?, debió pensar su madre con escepticismo.

Medida de la translucencia nucal con ecografía en la semana 13 de embarazo.

Corrían los años de la movida y las técnicas de imagen para diagnósticos médicos también se revolucionaban: acababan de concederles el Premio Nobel a los creadores de esa maravilla de imagen 3D que es la Tomografía Axial Computerizada (TAC). Los inventores de la resonancia magnética, también premiados con el Nobel, andaban haciendo imágenes espectaculares del cerebro humano utilizando propiedades cuánticas de la materia; y había unos científicos que obtenían imágenes de los procesos metabólicos del organismo con nada más y nada menos que antimateria, que es lo que se usa para obtener una imagen PET (Tomografía por Emisión de Positrones). Así que, ¿quién iba a dar importancia a unas imágenes tan pobres como las que se empezaban a tomar con sonidos?

Ventajas de los ultrasonidos

Lo cierto es que las imágenes tomadas con ultrasonidos no eran 3D, pero eran en tiempo real. Solo daban información anatómica, pero era complementaria a la que proporcionaban los Rayos X. Eran ruidosas, sí, pero incluso del ruido se podía extraer información relevante para el diagnóstico. Es verdad que dependían del operador que manejase la máquina, pero como no era más que sonido, y no podía ionizar átomos y afectar a nuestras moléculas de ADN, siempre se podía repetir la prueba las veces que fuese necesario. Y, sobre todo, se podía tener cien máquinas de ultrasonidos con lo que cuesta un TAC, una resonancia o un PET, y eso sí que es harina de otro costal.

Imagen de Microscopia de Localización con Ultrasonidos y Doppler Color de un corte coronal del cerebro de un ratón

Las décadas de los ochenta y noventa del S.XX permitieron la consolidación a nivel mundial de la técnica, con sus grandes éxitos en el campo de la obstetricia y la cardiología, que prácticamente no existirían sin esta modalidad de imagen, y con el desarrollo de la imagen Doppler, 3D y, en el campo de la terapia, de la litotricia para el tratamiento de cálculos renales y biliares con ondas de choque. El arranque del siglo XXI no fue menos fructífero: la elastografía, una variante de imagen ecográfica, permitió la mejora de los diagnósticos mediante la obtención de mapas de la dureza de los tejidos, y la aparición de sistemas cada vez más pequeños y económicos posibilitó la implantación de la tecnología en pequeñas clínicas de todo el mundo. En 2014, el número de pruebas con ultrasonidos a nivel mundial ascendió a 2.800 millones (éramos 7.200 millones de habitantes sobre la faz de la Tierra en ese momento), lo que aupó esta tecnología, junto con la de Rayos X, a la cima de las modalidades de imagen más utilizadas en medicina. Además, durante la segunda década de este siglo se ha extendido el uso del ultrasonido terapéutico, principalmente para producir quemaduras internas en los tejidos mediante la focalización del sonido, de un modo parecido a como focaliza una lupa la luz solar, lo que está permitiendo tratar de forma no invasiva enfermedades como el temblor esencial, la enfermedad de Parkinson, el cáncer de próstata o la fibrosis uterina.

Nuevas terapias contra el cáncer

El futuro próximo se vislumbra muy prometedor. Las mejoras técnicas están disparando el número de aplicaciones y en pocos años veremos consolidarse nuevas formas de terapia, como la histotripsia: ultrasonidos focalizados de altísima intensidad que trituran literalmente los tejidos tumorales y esparcen en derredor antígenos que favorecen la respuesta inmunológica del cuerpo contra el propio tumor. Otras novedades serán los dispositivos para modular con precisión quirúrgica el funcionamiento del cerebro humano y modalidades de imagen de una espectacularidad propia de la ciencia ficción, como la optoacústica o la microscopía de localización por ultrasonidos.

Mapeo de los vasos sanguíneos del cerebro humano realizado con ultrasonidos. 

Los ultrasonidos, ese sonido que los humanos no podemos oír, son la base de una tecnología que ha sido uno de los pilares sobre los que se ha construido el edificio de la medicina moderna. Han supuesto una revolución trascendental en el modo de observar el interior del cuerpo humano, hasta hace poco tan misterioso y opaco, y nos han permitido verlo como veríamos con los oídos, como ven los murciélagos, como componen su mundo las personas invidentes. Puede parecer menos, pero los murciélagos vuelan a oscuras y eso no lo pueden hacer los pájaros con sus flamantes ojos. Ha sido una revolución tranquila, de avances graduales pero fiables, sin excesivo ruido mediático, sin premios Nobel, sin estridencias, como no podía ser de otra manera al tratarse, como se trata, de sonido inaudible. Una revolución silenciosa, sí, pero una revolución, al fin y al cabo.

 

*Francisco Camarena Fermenía trabaja en el Instituto de Instrumentación para Imagen Molecular (i3M, CSIC-UPV), donde dirige el Laboratorio de Ultrasonidos Médicos e Industriales (UMIL)

Escuchar los virus y las bacterias para el diagnóstico de enfermedades

Por Eduardo Gil (CSIC)*

Imagina que estiras un muelle. Esto hace que lo muevas de su posición de reposo. Se contrae, se estira y vuelve a su forma original. Mantendrá este movimiento oscilatorio durante cierto tiempo. El número de veces que se repite en un segundo se llama frecuencia, medida en hercios (Hz) – un hercio equivale a una oscilación por segundo-. Las oscilaciones de los muelles podemos observarlas con nuestros ojos, e incluso contarlas sin gran dificultad. Sin embargo, cuanto más pequeño sea un objeto, las oscilaciones tendrán una menor amplitud y una mayor frecuencia y, por tanto, será más difícil verlas.

Otro ejemplo clásico de resonador mecánico es el de la cuerda de una guitarra. Cada una de las cuerdas tiene dimensiones diferentes y por ello emiten sonidos distintos. Por ejemplo, cuando se toca la nota musical LA3 la cuerda vibra a 440 Hz, es decir, se comprime y expande 440 veces por segundo. Las vibraciones de una cuerda son más difíciles de observar con nuestros ojos y, por supuesto, no es posible contarlas. Sin embargo, estas vibraciones las percibimos con nuestros oídos, que son sensibles a su frecuencia, por ello distinguimos entre vibraciones que producen sonidos graves o agudos.

Microdiscos optomecánicos que actúan como sensores y bacterias Staphylococcus Epidermidis, que vibran a frecuencias de cientos de megahercios, cayendo sobre ellos. / Imagen: Scixel

Toda estructura mecánica es elástica en mayor o menor medida. Pero cada objeto vibra a frecuencias determinadas que dependen de sus propiedades morfológicas (forma) y mecánicas (densidad, rigidez, viscosidad, etc.). Por lo tanto, ‘escuchando’ las frecuencias de las vibraciones de un objeto podemos inferir sus propiedades físicas. Como se ha mencionado anteriormente, cuanto más pequeño es un objeto, mayores son sus frecuencias de vibración. En el caso de las bacterias y los virus, sus tamaños microscópicos e incluso nanoscópicos hacen que sus frecuencias de vibración sean extremadamente altas. Las bacterias suelen tener tamaños en torno a las micras (una millonésima parte de un metro), vibran a frecuencias de cientos de millones de hercios (cientos de millones de oscilaciones por segundo) con una amplitud extremadamente pequeña, en torno al tamaño de un átomo. Los virus son entidades aún más pequeñas, por lo que oscilan con amplitudes aún menores. Sus dimensiones se encuentran en torno a los cien nanómetros, e incluso por debajo. Son entre 10 y 1.000 veces más pequeños que las bacterias y, por lo tanto, oscilan a frecuencias entre 10 y 1.000 veces más altas. Así, los virus vibran más de mil millones de veces por segundo con amplitudes menores al tamaño de un átomo.

Nanosensores para detectar virus y bacterias

¿Y si hubiera aparatos para identificar y medir estas vibraciones? Desde el grupo de Bionanomecánica del Instituto de Micro y Nanotecnología del CSIC trabajamos desde hace casi dos décadas en el desarrollo de nanosensores para la detección, caracterización e identificación de todo tipo de entidades biológicas (células humanas, bacterias, virus, proteínas, etc.). Estos nanosensores también se pueden considerar como muelles. Vibran a ciertas frecuencias que se ven modificadas cuando las entidades biológicas se adhieren a ellos. A través de estas variaciones se pueden determinar la masa y las propiedades mecánicas de las bacterias o los virus, además de poder identificarse a nivel individual.

Hace poco más de un año se descubrió que estos mismos nanosensores eran capaces de detectar las vibraciones de las bacterias, es decir, de escucharlas. Pero, ¿para qué sirve escuchar las bacterias? Con esta nueva aproximación, los nanosensores poseen una sensibilidad muchísimo mayor que sus predecesores en la caracterización de los objetos analizados y, por tanto, en su identificación. Una de las aplicaciones de esta técnica consiste en desarrollar sensores universales que sean capaces de detectar la presencia de todo tipo de bacterias y virus en un único test. El fin último sería el diagnóstico de enfermedades infecciosas.

Una tecnología que reduciría el coste de los diagnósticos

Hoy en día, para diagnosticar una enfermedad infecciosa, es necesario que desde la medicina se intuya previamente qué patógeno podría estar causándola. Después, deben realizarse pruebas específicas para determinar si el patógeno concreto se encuentra en el cuerpo del paciente. Si la prueba es positiva, problema resuelto. Sin embargo, si la prueba arroja un resultado negativo o no concluyente, el diagnóstico de la enfermedad se retrasa. Esto obliga a hacer nuevas pruebas y demora el tratamiento del paciente. Al disponer de una tecnología que permitiese diagnosticar las enfermedades infecciosas de forma universal, se reduciría el coste del diagnóstico de manera significativa. Y lo que es más importante, los pacientes recibirían el tratamiento adecuado lo antes posible. Por otro lado, ser capaces de caracterizar las propiedades físicas de estas entidades biológicas con suficiente precisión tendrá un gran impacto en la biomedicina, dado que este avance que permitirá desarrollar nuevos medicamentos y tratamientos. La aplicación de estos nanosensores no se limita al estudio o detección de bacterias y virus, sino que se podría extender la tecnología a otras entidades biológicas como proteínas o células humanas y aplicarla, por ejemplo, a la detección temprana del cáncer.

*Eduardo Gil es investigador en el grupo de Bionanomecánica del Instituto de Micro y Nanotecnología del CSIC.

FOTCIENCIA18: descubre en un minuto las mejores imágenes científicas de 2021

Por Mar Gulis (CSIC)

Una dalia artificial de carbonato cálcico, la intrincada red de nanofibras de una mascarilla FFP2 o el volcán de colores creado por un singular organismo conocido como ‘huevas de salmón’ son algunos de los temas retratados en las imágenes seleccionadas en la 18ª edición de FOTCIENCIA, una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT) con el apoyo de la Fundación Jesús Serra.

En esta edición, a las modalidades de participación habituales –Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula– se ha sumado una modalidad especial para recoger imágenes que hayan plasmado la importancia de la ciencia y la tecnología frente al COVID. Un comité formado por doce profesionales relacionados con la fotografía, la microscopía, la divulgación científica y la comunicación ha valorado y seleccionado las imágenes más impactantes y que mejor describen algún hecho científico.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

Los transistores con forma de jeroglífico de un microprocesador, la transformación de las flores de girasol en frutos o el envés de la hoja del olivo son otros de los temas retratados. El objetivo es acercar la ciencia a la sociedad a través de fotografías que abordan cuestiones científicas mediante una perspectiva artística y estética.

Con estas imágenes, que puedes ver en el vídeo que acompaña a este texto, y una selección más amplia de entre las 556 recibidas en esta ocasión, próximamente se realizará un catálogo y una exposición itinerante, que será inaugurada en primavera de 2022 y recorrerá diferentes salas expositivas por toda España a lo largo del año.

En esta 18ª edición, FOTCIENCIA se ha sumado nuevamente a los 17 Objetivos de Desarrollo Sostenible declarados por Naciones Unidas. Más información en www.fotciencia.es

Para saber más sobre las imágenes escogidas, pincha aquí.

Imágenes seleccionadas:

Modalidad Micro:

– ‘Ser o no ser’. Autoría: Isabel María Sánchez Almazo. Coautoría: Lola Molina Fernández, Concepción Hernández Castillo

– ‘Jeroglíficos del microprocesador’. Autoría: Evgenii Modin

Modalidad General:

– ‘Volcán de mixomicetos’. Autoría: José Eladio Aguilar de Dios Liñán

– ‘Todo es polvo de estrellas’. Autoría: David Sánchez Hernández Modalidad

La ciencia frente al COVID:

– ‘Pequeña gran muralla’. Autoría: Alberto Martín Pérez. Coautoría: Raquel Álvaro Bruna, Eduardo Gil Santos

Modalidad Alimentación y nutrición:

– ‘Metamorfosis floral’. Autoría: David Talens Perales

Modalidad Agricultura Sostenible:

– ‘El bosque de parasoles’. Autoría: Enrique Rodríguez Cañas

Modalidad La ciencia en el aula:

– ‘El arcoíris digital’. Autoría: Carlota Abad Esteban, Lourdes González Tourné

Olas monstruo eléctricas: el fenómeno que explica el riesgo de un gran apagón

Por Antonio Turiel* y Mar Gulis

A lo largo de los tiempos, los marinos han relatado historias de enormes olas que aparecen de la nada en mar abierto, se elevan 10 o 20 metros, recorren uno o dos kilómetros y desaparecen tras arrasar todo lo que encuentran a su paso. Sin embargo, hasta la década de los 90 del siglo pasado, las olas monstruo no fueron objeto de estudio científico. Pertenecían al terreno de las leyendas urbanas… o, mejor dicho, marinas. La mayoría de la gente creía que solo eran fabulaciones de viejos y ebrios lobos de mar, y las compañías de seguros que eran historias inventadas para encubrir negligencias causantes del hundimiento o la desaparición de barcos. Hasta que las imágenes de cámaras instaladas en navíos, plataformas marinas y satélites acabaron por dar la razón a los marinos: las olas monstruo existen.

Las causas del fenómeno son complejas, pero no hay duda de que en algunos casos ocurre simplemente porque es estadísticamente posible. En el mar hay muchas olas. La mayoría están generadas por el viento, aunque en su formación también intervienen otros factores, como tormentas lejanas o el relieve del suelo marino. Normalmente, esas olas se propagan en diferentes direcciones, cada una con una amplitud, una frecuencia y una longitud de onda diferente, algunas más rápido, otras más lento… Pero a veces, por puro azar, durante un pequeño periodo de tiempo se sincronizan, llegan todas a la vez al máximo, y se genera una auténtica pared de agua que se lleva todo por delante.

Algo parecido puede ocurrir en los sistemas eléctricos. Mucha gente piensa que la electricidad es como el agua, que fluye de forma continua por las tuberías. Pero no es así; la corriente de la red eléctrica es alterna: oscila como una onda. Por eso es muy importante que todos los sistemas que vuelcan electricidad en la red estén sincronizados. Por decirlo así, todos tienen que subir y bajar al mismo tiempo. Cuando esto no ocurre, se empiezan a propagar ondas de forma desordenada, como en el mar, que pueden acabar provocando daños graves en la infraestructura eléctrica.

Si la frecuencia no está perfectamente afinada en la red, puede darse el caso de que en determinados sitios la tensión baje a cero de golpe –lo que produce apagones en cascada– y en otros que la potencia se junte por completo, se sincronice y sea 10 o 20 veces mayor de lo que tendría que ser. Cuando esto ocurre, no hay nada que lo resista: literalmente las líneas de alta tensión y las estaciones transformadoras se desintegran.


Los peligros de una gran red interconectada

Obviamente, la formación de este tipo de turbulencias es un riesgo que Red Eléctrica Española y el regulador europeo siempre están vigilando. El problema es que las posibilidades de que ocurran eventos de este tipo han ido en aumento a medida que se han ido instalando más y más sistemas renovables en una red cada vez más grande e interconectada.

Los mecanismos de protección de la red eléctrica europea (en la que la frecuencia es de 50 hercios) están pensados para un modelo de grandes centrales –hidroeléctricas, térmicas, nucleares, de ciclo combinado, etc.– que suministran mucha potencia. Cuando una anomalía supera el umbral de los 0,2 hercios durante más de dos minutos, el sistema desconecta la parte de la red en la que se está produciendo la perturbación. Lo que pasa es que ahora, además de grandes centrales, tenemos un gran número de unidades de producción que generan menos cantidad de energía –paneles solares y turbinas eólicas, fundamentalmente–en una red que se ha integrado a escala europea y que, por tanto, es mucho más grande. En este esquema, las anomalías se producen con mayor frecuencia y se propagan en tiempos mucho más cortos, por lo que el umbral de tolerancia establecido resulta excesivamente relajado. Esto está generando problemas continuamente. De hecho, el 8 de enero de este año hubo un incidente grave: una subfrecuencia en Croacia se combinó con una superfrecuencia en Alemania y no hubo más remedio que separar la red en dos.

Si los problemas suceden sobre todo en Europa Central no es por casualidad. Alemania en 20 años ha pasado de producir un 6% de su electricidad con energías renovables a un 38%. Además, ha integrado su red de alta tensión con la de sus vecinos de forma mucho más intrincada que en otras partes del continente.

Desde el punto de vista económico, resultaba muy interesante integrar todas las redes del continente lo máximo posible para transportar la energía intermitente de las renovables. Si el viento sopla en Polonia, pero no en Galicia, ¿por qué no llevar la energía de un lugar al otro? Lo que pasa es que en Europa Central este planteamiento se ha llevado a cabo sin instalar sistemas adicionales de estabilización, que hubieran encarecido el coste de la implantación de las energías renovables.

Por fortuna, actualmente España está relativamente a salvo de este riesgo. Como nuestra red eléctrica está poco interconectada con la del resto del continente, en caso de que se produzca una ola monstruo eléctrica en Europa, será relativamente sencillo desconectarnos mientras dure el peligro. En cualquier caso, esto debería hacernos reflexionar y ser más previsores a la hora de implantar nuevos sistemas renovables en nuestro territorio.


*
Antonio Turiel es investigador del CSIC en el Instituto de Ciencias del Mar. Su trabajo se centra en la oceanografía por satélite, pero es también un experto en recursos energéticos. En el blog The Oil Crash y el libro Petrocalípsis analiza el agotamiento de los combustibles fósiles y las dificultades de la transición a un modelo ‘eléctrico’ de renovables.

Arte y matemáticas en los mosaicos de la Alhambra

Por Mar Gulis (CSIC)

La Alhambra es un excepcional conjunto monumental que se localiza sobre una colina rocosa situada en los márgenes del río Darro, en Granada. Su nombre procede de la palabra árabe al-ḥamrā, que significa ‘la roja’, se cree que por el tono de color rojizo de sus torres y muros. Creado originalmente con propósitos militares, el recinto fortificado fue al mismo tiempo una alcazaba (fortín), un alcázar (palacio) y una pequeña medina (ciudad).

Los inicios constructivos de la fortificación se remontan al siglo IX, aunque la fortaleza alcanzó su esplendor en la segunda mitad del siglo XIV, concretamente bajo los sultanatos de Yusuf I (1333-1353) y Mohamed V (1353-1391). En 1492, la Alhambra se convirtió en corte cristiana cuando los Reyes Católicos conquistaron Granada. Desde entonces a nuestros días, ha pasado por diversas etapas de mayor o menor abandono. En la actualidad, la Alhambra es el principal referente de la arquitectura hispanomusulmana y, gracias a su enorme valor histórico y artístico, fue declarada Patrimonio Mundial de la Humanidad por la UNESCO en 1984.

Claude Valette – Flickr

Así, la Alhambra es admirada por amantes de la historia, la arquitectura, el arte, la artesanía… Pero, ¿sabías que, además, este conjunto monumental crea una especial fascinación en las personas aficionadas a las matemáticas? Te contamos por qué.

Mosaicos, geometría y los 17 grupos de simetría

Al hablar de la Alhambra, con frecuencia se nos vienen a la mente imágenes de los maravillosos mosaicos geométricos de azulejos que recubren buena parte de sus paredes y suelos. Estos revestimientos cerámicos constituyen una de sus mayores bellezas artísticas y también una de las curiosidades matemáticas de la Alhambra.

Para comprender qué son los mosaicos, podemos definirlos a grandes rasgos como una composición, en este caso geométrica, de figuras que recubren todo el plano, de tal forma que cumplen dos condiciones: las figuras no se solapan y no quedan huecos entre ellas. Las piezas que se utilizan se denominan teselas (o, según sus usos, baldosas, losetas, etc.).

Podemos encontrar diversos tipos de mosaicos: regulares, semirregulares, simples, complejos… Los más sencillos están formados por polígonos regulares del mismo tipo (por ejemplo, solo cuadrados, solo triángulos equiláteros o solo hexágonos). Pero también se pueden formar mosaicos combinando varios tipos de polígonos.

En cuanto a la manera de combinarlos, existen cuatro estrategias para rellenar un plano con losetas (o ‘teselar un plano’), es decir, cuatro tipos de movimientos, basados en simetrías, desplazamientos y/o rotaciones:

  1. Traslación: añadir nueva loseta sin ningún giro respecto a la anterior.
  2. Rotación: añadir nueva loseta con algún giro sobre un punto fijo.
  3. Reflexión o simetría: añadir nueva loseta de modo especular respecto a la anterior, con un eje de simetría.
  4. Simetría con deslizamiento: añadir nueva loseta usando la traslación de la reflexión en el mismo eje sin un punto fijo.

Katie Beuerlein – Flickr

Estos movimientos poseen una estructura matemática que se denomina grupo. Como explican Manuel de León y Ágata Timón en el libro de la colección ¿Qué sabemos de? Las matemáticas de los cristales (CSIC-Catarata, 2015), las transformaciones del plano que dejan invariante una figura forman lo que se llama su grupo de simetrías. Si combinamos dos de estas transformaciones, volvemos a obtener una simetría; cada una tiene una inversa, y la transformación identidad acontece cuando no cambiamos nada. Una de las formas de recubrir (teselar) un plano es comenzar con un motivo simple y repetirlo utilizando esos elementos de simetría. Y hay solo 17 grupos posibles que hacen esto, los llamados grupos cristalográficos.

En principio, podría parecer que existen infinitos grupos de simetría diferentes, o infinitas formas de combinar polígonos en un plano, pero no es así. En 1891, el matemático y cristalógrafo ruso Evgraf Fedorov demostró que solo existen 17 posibles grupos cristalográficos para las figuras del plano, denominados grupos cristalográficos planos.

La Alhambra: un caso único

Pues bien, aquí viene la curiosidad matemática que alberga la Alhambra: en los adornos ornamentales que están presentes en sus suelos y muros se pueden encontrar ejemplos de cada uno de estos 17 grupos cristalográficos planos. Los artistas musulmanes, por preceptos religiosos, no podían representar seres vivientes en sus creaciones. Sin embargo, esta limitación sirvió de aliciente para estimular su creatividad y explorar caminos geométricos de gran belleza y originalidad. Su conocimiento de las simetrías alcanzó tal magnitud que fueron los únicos en descubrir y utilizar sabiamente en sus decoraciones los 17 tipos de simetría plana. De esto se percató por primera vez la matemática Edith Alice Muller, cuya tesis Aplicación de la teoría de grupos y análisis estructural de la decoración morisca en la Alhambra de Granada, defendida en 1944, fue clave para entender los patrones geométricos islámicos, mucho más complejos de lo que se pensaba hasta el momento.

Los creadores de los mosaicos de la Alhambra no conocían la afirmación del teorema de clasificación de Fedorov, que se produjo varios siglos después. Sin embargo, aunque quizás no supieran que eran los únicos grupos de simetrías, sí conocían todos y cada uno de los 17 existentes para rellenar el plano con baldosas (mediante teselaciones del plano). De hecho, el autor y la autora del libro citado más arriba, del Instituto de Ciencias Matemáticas del CSIC, nos recuerdan que, en la actualidad, es el único monumento construido antes del descubrimiento de la teoría de grupos que cuenta con al menos un ejemplo de cada uno de los grupos cristalográficos planos.

Por este motivo, la Alhambra tiene un especial interés para personas interesadas en las matemáticas, pues el libre y audaz método creativo empleado para elaborar los mosaicos pone de manifiesto el uso de conceptos científicos basados en hacer variaciones sobre una misma figura. Sin entrar en otros detalles relacionados con estos revestimientos cerámicos en los que sus constructores eran verdaderos maestros, podemos afirmar que la Alhambra es un ejemplo esplendoroso del hermanamiento entre arte y matemáticas.

 

Tú también puedes enviar globos sonda a la estratosfera y hacer ciencia ciudadana con Servet V

Por Mar Gulis (CSIC)

Lanzamiento en 3, 2, 1… ¡Deja de soñar con que formas parte de una misión espacial! Ahora puedes hacerlo realidad con la quinta edición de la iniciativa de ciencia ciudadana Servet. Si te gusta la astronáutica, la navegación espacial y todo aquello que se mueva a más de 12.000 metros sobre el nivel del mar, Servet V te está esperando, independientemente de la formación y los conocimientos que tengas. Este proyecto científico abierto a la ciudadanía busca democratizar el acceso al espacio e invita al público a proponer, diseñar y ejecutar sus propias misiones subespaciales. Pero lo primero que debes hacer es rellenar, antes del domingo 29 de agosto de 2021, el formulario de participación.

Proyecto Servet IV. / Germán Martín

Proyecto Servet IV. / Germán Martín

Servet V lanzará tres globos sonda (Hwoyee HY-1600, con capacidad para portar varias cápsulas de hasta 400 gramos cada una), que pondrán rumbo a la estratosfera y volverán a la Tierra tras haber recogido multitud de datos científicos en su viaje hasta los 36.000 metros de altura. Se medirán, entre otros parámetros, la radiación y la temperatura, se harán pruebas de transmisiones mediante LoRaWAN y de vídeo a larga distancia, etc. Entonces, ¿quieres formar parte de Servet V? Consulta las bases, existen dos modalidades de participación:

  • CÁPSULA DE HASTA 400 g. Tú pones la cápsula y el proyecto toda la infraestructura -globos, helio, seguros, organización del lanzamiento, etc.-. Aunque se intentará recuperar la carga, esto no está garantizado. Se seleccionarán nueve cápsulas de hasta 400 gramos.
  • CÁPSULA 0 g. Si lo que deseas es participar en el evento, ayudar en la logística, aprender y echar una mano en la organización, no lo dudes, esta es tu modalidad.

Una vez finalizado el plazo de recepción de solicitudes, que concluye el próximo 29 de agosto, el 6 de septiembre se dará a conocer la selección de participantes. El lanzamiento de Servet V está previsto para el sábado 30 de octubre de 2021 en una localidad zaragozana aún por definir. El día previo se realizarán los preparativos y el domingo 31 se presentarán los resultados al público general. Los datos obtenidos en las distintas ediciones de Servet se irán publicando de forma libre y gratuita en la web del proyecto para que cualquier persona los pueda consultar y analizar.

Proyecto Servet II

Proyecto Servet II

Esta iniciativa ciudadana arrancó en junio de 2017 con el lanzamiento del primer globo sonda, Servet I, y desde entonces, el proyecto ha seguido reuniendo a público experto y aficionado de la navegación espacial, makers, desarrolladores/as, radioaficionados/as, etc. Además, otro de los objetivos del proyecto es acercar la ciencia al entorno rural, por eso, las zonas de lanzamiento elegidas en años previos han sido pequeños municipios de la provincia de Zaragoza, como Alpartir o Alfamén. En este último se realizó, en 2019, el lanzamiento de los globos sonda equipados con las misiones aeronáuticas del proyecto Servet IV.

Récord mundial de distancia de transmisión a través de LoRaWAN

Uno de los globos de Servet IV, “tras mandar sus últimas señales el día del lanzamiento por la noche mientras cruzaba Soria, revivió inesperadamente. Tres ‘latidos’ fueron detectados dos días después en su paso por las Azores”, relataba Francisco Sanz, director ejecutivo de la Fundación Ibercivis. Con este globo se batió el récord mundial de distancia alcanzada por una comunicación transmitida a través del protocolo de red LoRaWAN. Con una potencia de 0,025 vatios, su señal se recibió a una distancia de 766 kilómetros.

LoRaWAN es una tecnología de red de área amplia y baja potencia (LPWAN: Low Power Wide Area Network), diseñada para que dispositivos de baja potencia se comuniquen con aplicaciones conectadas a Internet a través de conexiones inalámbricas de largo alcance utilizando las bandas de radio ISM -reservadas internacionalmente para el uso de energía de radiofrecuencia para fines industriales, científicos y médicos distintos de las telecomunicaciones-.

Récord de distancia de transmisión de 766 kilómetros, conseguido por uno de los globos sonda lanzados con Servet IV. / The Things Network

Récord de distancia de transmisión de 766 kilómetros, conseguido por uno de los globos sonda lanzados con Servet IV. / The Things Network

Con otro globo también se consiguió transmitir a 744 km mediante TTN (The Things Network), a través de LoRaWAN. Además, se midió radiación, se transmitió en APRS (Automatic Packet Reporting System, un sistema de radioaficionado para comunicaciones digitales en tiempo real), se envió vídeo en tiempo real, etc. Estas cápsulas lograron recuperarse en Buñuel, Navarra, pero las que viajaban en otros globos no corrieron la misma suerte.

Proyecto Servet II

Proyecto Servet II

Servet cuenta con el apoyo de la Fundación Ibercivis -de la que forma parte el Consejo Superior de Investigaciones Científicas-, Etopia Centro de Arte y Tecnología, los Laboratorios CESAR en Etopia, la Universidad de Zaragoza, la Unión de Radioaficionados Españoles y la Fundación Española para la Ciencia y la Tecnología-Ministerio de Ciencia e Innovación. Si tienes alguna duda puedes contactar con info@ibercivis.es

Siete libros de ciencia para tu maleta veraniega

Por Mar Gulis (CSIC)

Las deseadas y merecidas vacaciones están cerca, por eso nos gustaría proponerte unas lecturas de divulgación con las que disfrutar del verano. Las colecciones ¿Qué sabemos de? y Divulgación (CSIC-Catarata) cuentan con más de 150 títulos de libros fáciles de llevar y leer. Aquí te presentamos algunos de los números más recientes.

¿Existe una filosofía en español?

Decía Heidegger que pensar, lo que se dice pensar, solo es posible en griego y en alemán. Entonces, ¿no es factible la existencia de un pensamiento filosófico en nuestro idioma? El investigador del CSIC Reyes Mate aborda esta cuestión el libro Pensar en español, el primer volumen de estas colecciones dedicado a la filosofía. En un mundo dominado por el inglés, el autor trata de “crear un marco de referencia que nos sitúe frente a otros pensares en otras lenguas y, también, establezca vínculos entre nuestros propios intentos de pensamiento, en el primer caso para diferenciarnos, y en el segundo caso para unirnos”.

Para los que gusten de la reflexión en nuestra lengua, este texto es más que recomendable. Además, viene con contenido extra: un vídeo resumen de un minuto y una entrevista al autor en el nuevo pódcast del CSIC ‘Ciencia para leer’.

La enfermedad de las mil caras

La esclerosis múltiple es una enfermedad crónica, inflamatoria y neurodegenerativa del sistema nervioso central. Tiene un marcado componente autoinmune, y aparece generalmente en personas de entre 20 y 40 años, lo que supone un enorme impacto en su calidad de vida, importantes repercusiones sociales, y un elevado coste sanitario. Esta patología afecta a 2,5 millones de pacientes en el mundo y, a pesar de la investigación desarrollada desde su descubrimiento en el siglo XIX, aún presenta muchos interrogantes.

La esclerosis múltiple afecta a 700.000 personas en Europa. En España, la incidencia es de 100 casos por 100.000 habitantes, en su mayoría mujeres. / CSIC-Catarata

Las científicas Leyre Mestre y Carmen Guaza del Instituto Cajal del CSIC se adentran en su evolución, sintomatología, tratamientos y líneas futuras de estudio en La esclerosis múltiple, un libro que da a conocer una enfermedad muy heterogénea y difícil de tratar.

Los entresijos de la ciencia

Desde que alguien formula una hipótesis en un despacho o laboratorio de cualquier parte del planeta hasta que esa idea aparece publicada en una revista científica en forma de nueva teoría, tecnología o producto existe un largo y complicado proceso poco conocido más allá de los campus universitarios y los centros de investigación. Por qué y cómo se hace la ciencia está escrito “desde dentro” por Pere Puigdomènech, un profesional que ha dedicado su vida a esta labor. “Condensar en un libro de bolsillo un texto sobre la ciencia en sí misma no era tarea fácil, pero esta actividad tiene tal impacto tanto por los millones de personas que se dedican a ella como por su influencia en cómo vivimos y en las decisiones que toman los gobiernos, que merecía la pena intentarlo”, comenta el autor.

Con este libro, el investigador del Centro de Investigación en Agrigenómica adscrito al CSIC pretende describir la evolución histórica de la actividad investigadora, qué papel cumple en nuestra sociedad y cuál es su funcionamiento interno. Sus páginas, idóneas para curiosos y curiosas de los vericuetos científicos, responden a preguntas como quién investiga, dónde lo hace, qué método y reglas sigue o con qué financiación cuenta.

Nanotecnología y desarrollo sostenible

Desde 2010 se han publicado más de un millón de artículos científicos sobre descubrimientos o desarrollos relacionados con la nanotecnología y se han concedido cinco premios Nobel de Física o Química a personas que han realizado aportaciones significativas en este ámbito. Estos dos datos son solo una muestra de la relevancia que ha adquirido la llamada ‘ciencia de lo pequeño’ en los últimos años. Objetos o partículas que miden la milmillonésima parte de un metro (10-9) se perfilan como una de las soluciones para lograr la supervivencia de la especie humana en imprescindible equilibrio con el planeta que habita.

Por su carácter transversal, la nanotecnología impacta en la mayoría de los objetivos de la Agenda 2030. 

El investigador del CSIC en el Instituto de Ciencia de Materiales de Madrid Pedro Serena firma Nanotecnología para el desarrollo sostenible, un libro que explica cómo el conocimiento acumulado sobre el nanomundo puede ayudar a mejorar nuestra calidad de vida sin comprometer el futuro de nuestros descendientes. El autor introduce los aspectos fundamentales de la nanotecnología y su salto de los laboratorios al mercado, para luego conectar las aplicaciones existentes y las futuras con los Objetivos de Desarrollo Sostenible (ODS) establecidos por la ONU en su Agenda 2030.

¿Qué tienen en común la niebla y la cerveza?

Rodrigo Moreno, investigador del CSIC en el Instituto de Cerámica y Vidrio es autor de Los coloides, el libro que responde a esta pregunta. El arcoíris, un flan, la ropa deportiva impermeable que transpira y no pesa, la espuma con la que rizamos nuestro pelo o el famoso gel hidroalcohólico que nos aplicamos continuamente. Los coloides están presentes en muchos procesos y productos cotidianos, aunque la mayoría no hayamos oído hablar nunca de ellos. Son mezclas no homogéneas de dos o más fases (gas, líquido o sólido) en las que una de ellas tiene un tamaño menor a un micrómetro (0,001 milímetros) y que hacen posible la existencia de muchos materiales que usamos a diario. También se encuentran detrás de complejas tecnologías que en el futuro podrían permitir reutilizar materias primas o eliminar microplásticos de ríos y océanos. Este texto describe las características, técnicas de preparación y algunas de las numerosas aplicaciones de los sistemas coloidales.

La espuma de la cerveza es un coloide en el que partículas de gas, las burbujas, se encuentran dispersas en un medio líquido. 

La sorprendente vegetación de Atacama

Entre el océano Pacífico y la cordillera de los Andes se extiende un territorio de unos 178.000 kilómetros cuadrados donde predominan los tonos rojizos y, a simple vista, no se percibe rastro alguno de vegetación. Atacama, ubicado en el norte de Chile, es el desierto cálido más árido del mundo. Allí hay lugares donde no llueve en años, incluso en décadas, y otros en los que la media anual de precipitaciones no llega a los 5 milímetros de agua. Las temperaturas oscilan unos 30 grados entre el día y la noche, y la radiación solar es implacable. A pesar de las condiciones climáticas tan extremas, en este desierto se han descrito miles de especies de plantas que el investigador del Centro Nacional de Biotecnología del CSIC Carlos Pedrós-Alió nos invita a descubrir.

El ‘desierto florido’ es uno de los fenómenos más llamativos que suceden en Atacama. Solo algunos años, y en zonas diferentes, la superficie se transforma en un campo de flores de distintas especies que dura varios meses. / Gerhard Hüdepohl

“Después de veinte años visitando este territorio para estudiar microorganismos, vi que en algunos sitios había plantas. Quise saber de qué especies se trataba, cómo se las arreglan para vivir en este entorno, qué adaptaciones tienen a la aridez, de dónde sacan el agua, cómo se distribuyen y cuánto tiempo hace que aparecieron en la evolución”, cuenta el científico. El resultado de esta investigación es el libro Las plantas de Atacama. El desierto cálido más árido del mundo, un recorrido por una de las zonas naturales más espectaculares del planeta.

La expedición Magallanes-Elcano

El 10 de agosto de 1519 partían desde Sevilla cinco naves con unos 250 tripulantes a bordo. Era el comienzo de la famosa expedición capitaneada por Fernando de Magallanes y finalizada gracias a Juan Sebastián Elcano. Financiada por la Corona de Castilla, su objetivo principal era llegar por occidente a un lugar llamado La Especiería – en el archipiélago de Las Molucas, ubicado en Indonesia– y crear así una ruta marítima alternativa a la establecida por Portugal para controlar el comercio de especias como el clavo de olor, la canela, la nuez moscada y la pimienta negra.

Terra Brasilis y el Atlántico Sur (Atlas Miller, 1519). Imagen del mapa que forma parte de la portada del libro. / CSIC

Más de tres años después, el 6 de septiembre de 1522, 18 europeos y 3 orientales enfermos y agotados arribaron a Sanlúcar de Barrameda. Después de recorrer 14.460 leguas, habían conseguido culminar la primera vuelta al mundo. En la conmemoración de su quinto centenario, Las plantas de la expedición Magallanes-Elcano (1519-1522)  rinde tributo a esta hazaña promovida por la búsqueda de nuevas plantas y nos propone viajar a través de unas páginas impregnadas de olores y sabores exóticos. El libro de la colección Divulgación está coordinado por el investigador del CSIC en el Real Jardín Botánico Pablo Vargas y escrito por una veintena de investigadores e investigadoras procedentes de aquellos países por los que transcurrió esta azarosa singladura.

La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

Los riesgos del teletrabajo: ¿es seguro trabajar en la red?

Por David Arroyo, Víctor Gayoso y Luis Hernández (CSIC)*

El confinamiento ha sido uno de los principales elementos de contención de la COVID-19 desde el inicio de la crisis pandémica. Para mantener la actividad laboral y educativa ha sido necesario desplegar un conjunto de soluciones tecnológicas que han hecho que el teletrabajo y la enseñanza online cobren un peso muy significativo en nuestra sociedad. Así, por ejemplo, se ha estimado que entre marzo y septiembre de 2020 hubo un incremento del 84% en el uso de herramientas de teletrabajo. En paralelo, sin embargo, también han proliferado los ciberataques y los cibercrímenes: a lo largo de 2020, se estima que hubo un incremento del 6.000% en ataques por spam, ransomware (programas de secuestro de datos) y phishing (suplantación de la identidad de un tercero –persona, empresa o servicio– para que un usuario proporcione datos confidenciales creyendo que trata con un interlocutor de confianza).

Un ejemplo de los riesgos que trae consigo el teletrabajo es el de las aplicaciones de videoconferencia, como Zoom, Skype o Teams, que nos han permitido seguir manteniendo reuniones. El uso de herramientas como estas, desarrolladas por terceros, puede hacer mucho más vulnerable la seguridad de la información intercambiada; sobre todo, cuando se recurre a ellas con urgencia y no son debidamente auditadas y verificadas.

La amenaza del espionaje afecta también a las reuniones presenciales, pero acceder maliciosamente a la información que se comparte en estos encuentros supone que los atacantes pongan en marcha procedimientos y técnicas de alto coste y específicos para cada situación. En el caso de las videoconferencias, si existen vulnerabilidades de seguridad en una aplicación, todas las reuniones celebradas usando ese software estarán afectadas por un riesgo de interceptación de la información intercambiada. Esto es, existiría una vulnerabilidad matriz que puede ser explotada de modo generalizado.

El software que se emplea en videoconferencias solo es una pieza dentro del complejo del teletrabajo, que constituye un verdadero reto para las políticas de ciberseguridad. Lo es en situaciones de normalidad, pero mucho más en escenarios de crisis similares al deparado por la COVID-19. En este contexto, el teletrabajo se ha adoptado en la mayor parte de los casos de modo improvisado, sin una política de seguridad previamente definida y debidamente evaluada. Baste mencionar como ejemplo de ello los recientes ataques contra el Servicio Público de Empleo Estatal (SEPE) y el Ayuntamiento de Castellón, o los mensajes fraudulentos relacionados con el ofrecimiento de servicios a domicilio para la vacunación contra la COVID-19.

Ciberhigiene y ciberseguridad

Sin duda, es deseable que todas las personas que teletrabajan sigan unas buenas prácticas de ciberhigiene, como evitar la instalación de software no recomendado por los responsables de cibersegu­ridad, no conectarse a redes wifi públicas o no responder correos sospechosos de phishing. Ahora bien, una buena política de seguridad no asume sin más que esas normas de ciberhigiene se vayan a cumplir, sino que establece mecanismos de control para salvaguardar la seguridad, o al menos paliar las consecuencias de posibles ataques, en caso de incumplimiento.

Pues bien, en la crisis de la COVID-19 el teletrabajo se ha desplegado, en muchos casos, sin que las plantillas tengan arraigada esa disciplina de ciberhigiene y sin que su empresa haya diseñado una política de seguridad adecuada. Es más, en muchas situaciones los teletrabajadores han tenido que utilizar ordenadores y dispositivos propios. Dada la situación de confinamiento generalizado y la limitación de recursos tecnológicos en el hogar, es de suponer que en muchos domicilios los ordenadores han sido compartidos entre varios integrantes de la unidad familiar. Esta práctica tiene que ser considerada como un riesgo de seguridad adicional, ya que cada miembro del hogar tiene, a priori, una cultura de ciberseguridad distinta y usa la tecnología para objetivos diferentes.

Por ello, es preciso formar de modo adecuado a las personas que potencialmente van a teletrabajar para que tomen conciencia de los riesgos de ciberseguridad asociados a entornos de trabajo fuera del perímetro de seguridad de su empresa. En este sentido, sería de alto interés la planificación de simulacros y ciberejercicios en los que la interacción con las personas responsables de la ciberseguridad permitiera fortalecer rutinas de ciberhigiene, así como establecer pautas para la resolución de problemas de seguridad con el apoyo telemático de especialistas.

Si se ejecutan de modo correcto y de forma regular, estos ejercicios pueden servir para disminuir el impacto de los ciberataques al mejorar las competencias tecnológicas de la plantilla y la gestión de factores psicológicos que pueden ser explotados por ciberatacantes en periodos de crisis. Es el caso del estrés, la ansiedad o la falta de concentración motivada por las distracciones que se dan en un entorno distinto del laboral. Aquí conviene tener presente que la cadena de ataque habitual incluye estrategias de ingeniería social y phishing mediante las que los usuarios pueden bajar la guardia e instalar software sin evaluación de seguridad, acceder a sitios web asociados a campañas de malware y ser víctimas de robo de información o de ciberacoso.

Fomentar una cultura de ciberseguridad y ciberresiliencia puede y debe contribuir a reducir el impacto de estos ataques en posibles crisis futuras.

* David Arroyo, Víctor Gayoso y Luis Hernández son investigadores del CSIC en el Instituto de Tecnologías Físicas y de la Información “Leonardo Torres Quevedo” y autores del libro Ciberseguridad (CSIC-Catarata). Este post es un extracto del mismo.