La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

Sobrevivir en el desierto: ¿cómo se adaptan los cactus a la falta de agua?

Por Carlos Pedrós-Alió y Mar Gulis (CSIC)*

Si hay una planta emblemática del desierto, esa es el cactus. Es difícil imaginar una película del Oeste sin un saguaro o dos (Carnegiea gigantea), pero ¿cómo se las arreglan las especies de esta familia para soportar unas condiciones de aridez tan extremas? Pues básicamente recurriendo a dos estrategias: hacer todo lo posible por no perder agua y esforzarse al máximo por obtenerla.

Para entender cómo los cactus consiguen retener agua hay que tener en cuenta que en un ambiente húmedo una planta está constantemente transpirando. El agua es absorbida por las raíces, sube hacia las hojas como parte de la savia y allí se evapora a través de los estomas. Estas estructuras de la hoja tienen que abrirse para aspirar CO2 y espirar O2, los gases que intervienen en la fotosíntesis. De esa forma, en condiciones normales, una planta pierde el 75% del agua que absorben sus raíces, algo que no tiene ninguna trascendencia en un bosque lluvioso tropical, pero que resulta imposible en un desierto.

Plantas que transpiran solo de noche

Esto ha hecho que los cactus conviertan sus hojas, por donde principalmente pierden agua las plantas, en espinas. No obstante, como sabemos, las hojas hacen la fotosíntesis, y una planta necesita este proceso para vivir. Por eso los cactus han transferido el proceso fotosintético a los tallos. Además, para evitar que se escape el vapor de agua, los cactus cierran los estomas durante el día y solamente los abren durante la noche, cuando la temperatura es baja y no va a haber tanta evaporación.

Sin embargo, durante la noche no hay luz. ¿Cómo compaginar la apertura de estomas con la fotosíntesis, que requiere la energía solar? Los cactus han resuelto el problema separando los dos procesos: durante la noche abren los estomas y absorben el CO2; durante el día cierran los estomas y aprovechan la energía de la luz para hacer la fotosíntesis. Con el fin de conservar el CO2 hasta que llegue la luz del día, los cactus y otras muchas plantas crasas han desarrollado un tipo de metabolismo que les permite almacenarlo en vacuolas por la noche y transportarlo a los cloroplastos cuando sale el sol. De este modo, hacen un uso del agua mucho más eficiente.

Cera impermeabilizante, tallos inclinados y segunda piel de espinas

Aquí no se acaban los recursos que tienen los cactus para no perder agua. Otro de ellos es recubrir su tallo de una cutícula de cera que lo impermeabiliza todavía más y que, al ser de color claro, refleja la radiación solar. Esto contribuye a reducir la temperatura de la planta y, por tanto, la evaporación.

El ecólogo Harold A. Mooney y sus colaboradores estudiaron este fenómeno en Copiapoa gigantea, un cactus que se encuentra en el desierto de Atacama. Insertando sensores de temperatura en el tallo, comprobaron que la temperatura debajo de tejidos cubiertos con cera era de 0,5 a 2 grados menor que bajo las zonas en las que se había perdido esa cubierta.

‘Copiapoa gigantea’ inclinada al norte en el desierto de Atacama. / Carlos Pedrós-Alió

Otro mecanismo observado por Mooney fue que la mayoría de los tallos estaban inclinados hacia el norte, de modo que la radiación solar solamente incidía perpendicularmente sobre la cima del tallo, pero no sobre los lados. Así, estos cactus minimizaban la radiación que les llegaba y esto contribuía a que no se calentaran tanto. Como en el ápice se encuentra el tejido de un cactus capaz de crecer y de producir flores, el ecólogo norteamericano especuló que su elevada temperatura ayudaría a que los procesos de crecimiento, floración y fructificación fueran más rápidos. A mayor temperatura, mayor actividad biológica.

Además, las espinas de los cactus forman una segunda piel unos milímetros más allá del tallo. Esta piel refleja una parte de la radiación solar y crea una capa de aire parcialmente aislante alrededor del tallo que reduce la temperatura y la evaporación en su superficie. La arquitectura del siglo XXI también ha descubierto este mecanismo y muchos de los edificios actuales tienen una segunda piel de vidrio separada de la cortina de cristal principal. El aire entre las dos superficies de cristal se calienta, sube y crea así corrientes que contribuyen a refrigerar el edificio.

Sección transversal de un cactus del género ‘Cereus’. Espinas y pelos surgen de las areolas, en las que se interrumpe la dermis y la cutícula que la protege. En el interior, de fuera hacia dentro, encontramos el clorénquima, donde se realiza la fotosíntesis; el hidrénquima, que es el tejido que puede acumular agua; el sistema vascular, que transporta la savia y los nutrientes de una parte a otra de la planta; y el parénquima medular. / Wikipedia

Capacidad para condensar agua

Todos estos mecanismos hacen que un cactus pierda poca agua. Pero, ¿cómo se las ingenia para conseguirla? La estrategia de algunas especies estudiadas por el propio Mooney es tener en sus espinas ranuras que hacen que las gotas de agua se deslicen hacia el tallo. En su recorrido por la espina, las gotas se encuentran con una serie de pelos que quedan empapados y hacen que el agua se escurra hasta el suelo, donde pueden absorberla las raíces.

Esta capacidad para condensar agua a partir de la niebla tiene un potencial de aplicaciones enorme. Si se lograran reproducir las propiedades de los cactus, podrían instalarse sistemas artificiales para atrapar las nieblas en muchos lugares áridos de la Tierra. De hecho, en los últimos años este tema ha recibido una gran atención. Estudiando la estructura microscópica de las espinas y los tricomas –apéndices finos– de un cactus mexicano, Opuntia microdasys, investigadores del Laboratorio Nacional de Pekín para Estudios Moleculares descubrieron que las gotas de agua siempre se deslizaban hacia el tallo, incluso cuando la espina se colocaba cabeza abajo y las gotas tenían que desafiar a la gravedad. Este fenómeno era posible gracias a la forma cónica de las espinas y sus ranuras longitudinales, más gruesas cuanto más cerca están del tallo.

Más recientemente, un grupo de la Universidad de Ciencia y Tecnología de Pohang (Corea del Sur) ha demostrado que las espinas de este mismo cactus condensan el vapor de agua en pequeñas gotas, que luego se depositan sobre los tricomas. Estos tricomas son hidrofóbicos, de modo que la gota reposa sobre ellos sin mojarlos mientras se va evaporando poco a poco. Cuando el tamaño de la gota es el adecuado, es absorbida en microsegundos por la zona hidrofílica que hay por debajo de los tricomas.

Microscopía óptica de la recolección de gotas de agua por las espinas del cactus orientadas de distintas maneras. Las gotas se desplazan hacia la base de la espina incluso en contra de la gravedad. / Ju et al. (2012) y Springer Nature

Por otra parte, algunos cactus tienen un sistema radicular capaz de absorber mucha agua cuando llueve. Por ejemplo, se ha estimado que un saguaro puede llegar a recoger 760 litros después de una tormenta. Para que esto sea posible, el cactus tiene que ser capaz de almacenar el agua. Y esto es justamente lo que permite la estructura en acordeón del tallo: los cactus tienen costillas gracias a las cuales pueden aumentar su volumen cuando hay agua disponible y disminuirlo a medida que la van perdiendo.

En resumen, que un cactus puede ser perfectamente feliz en el desierto.

* Carlos Pedrós-Alió es investigador del CSIC en el Centro Nacional de Biotecnología y autor de los libros de divulgación La vida al límite y Las plantas de Atacama (CSIC-Catarata), del que ha sido adaptado este texto.

Azúcar, miel, edulcorantes… ¿existe una forma sana de endulzar?

Por Jara Pérez Jiménez (CSIC)*

Cada vez más gente reduce su consumo de azúcares porque ha escuchado que estos componentes tienen múltiples efectos negativos en la salud. Al mismo tiempo, aparecen otros edulcorantes que son promocionados como saludables: la panela, la miel, el azúcar de coco, la estevia… ¿Cuál de todos ellos elegir? ¿Qué edulcorante es más saludable? Vamos a verlo en detalle.

En primer lugar, hay que señalar que no todos los azúcares de los alimentos son iguales. Por un lado, existen los denominados azúcares intrínsecos: son azúcares que, como en el caso de la fruta o la leche, están incluidos dentro del alimento. Esto hace que el cuerpo necesite realizar múltiples reacciones químicas para poder liberarlos y que pasen a la sangre, lo que hacen lentamente junto con los otros nutrientes y compuestos beneficiosos que están en estos alimentos. Por el contrario, en el caso de los azúcares libres la estructura original del alimento se rompe y el compuesto pasa rápidamente a la sangre, sin ser acompañado de otros componentes beneficiosos. Los azúcares libres son los que se añaden al alimento, ya sea por el consumidor en casa o por la industria alimentaria, y también los que se encuentran en mieles, siropes y zumos. Sí, por muy natural y casero que sea un zumo, en él  se ha roto la estructura del alimento y por tanto ya no tenemos azúcares intrínsecos, sino azúcares libres.

La Organización Mundial de la Salud (OMS) ha establecido un consumo diario responsable de azúcares libres en torno al 5% de las calorías consumidas en un día  (ojo, que este valor podría ser del 0% si consumimos fuentes de carbohidratos complejos) y de un máximo, en cualquier caso, del 10%. Esto se traslada, para un adulto, a un valor de 25 a 50 gramos de azúcares libres al día, cantidad que superan muchas personas en España. Además, la evidencia científica ha demostrado que la ingesta excesiva de azúcares libres está asociada no solo con aquellas enfermedades con las que la relacionamos más inmediatamente, como la diabetes tipo 2, sino también con enfermedades cardiovasculares , el hígado graso no alcóholico  (una situación en la que el hígado aparece tan dañado como en el alcoholismo pero por causa del consumo excesivo de ciertos azúcares libres) o algunos tipos de cáncer.

Por tanto, debemos reducir el consumo de azúcares libres en nuestra alimentación. Pero, ¿qué ocurre con productos como el azúcar moreno o la panela? Pues que, frente al 100% de azúcar contenido en el azúcar blanco, tienen un 95-98%, lo cual no implica diferencias nutricionales en la práctica. Sí, aunque hayas escuchado que tienen más vitaminas o minerales que el azúcar blanco, lo cual es cierto, debemos tener en cuenta que, por ejemplo, para consumir el mismo magnesio que está contenido en 30 gramos de almendras tendríamos que tomar 100 gramos de panela, lo que son 95 gramos de azúcares libres. De manera que los efectos perjudiciales superarían ampliamente a los beneficios que pudiéramos obtener. Lo mismo ocurre con la miel: a pesar de las múltiples propiedades que se le han atribuido, contiene un 70-80% de azúcares libres.

¿Son los edulcorantes artificiales una alternativa?

Últimamente se está promocionando mucho la estevia como un edulcorante natural. Debemos aclarar que, al comprar un producto que se anuncia como endulzado con estevia, en realidad lo que lleva es el E-960: un conjunto de compuestos con poder edulcorante llamados glucósidos de esteviol que son extraídos a partir de la planta de estevia mediante un proceso similar al utilizado para extraer el azúcar de la remolacha o la caña azucarera. En este caso, efectivamente, estos compuestos dan sabor dulce sin tener calorías, lo que ocurre también con edulcorantes artificiales como el aspartamo o el ciclamato.

Sin embargo, el consumo frecuente de estos edulcorantes también presenta problemas, que no tienen nada que ver con riesgos de toxicidad o con que sean cancerígenos, como se suele pensar. Lo que ocurre es que, con estos edulcorantes, por un lado, se produce el denominado ‘efecto halo’: como pensamos que estamos tomando algo saludable, acabamos añadiendo más de lo que tomaríamos de un producto que percibimos como insano, como el azúcar blanco. Por ejemplo, en un estudio se vio que las personas que usaban mermelada para endulzar el yogur acababan añadiendo más azúcar que el que llevaba un yogur azucarado. Por otro lado, estos compuestos tienden a alterar nuestro umbral del dulce: es decir, los receptores que tenemos para detectar el sabor dulce se están saturando y necesitamos cada vez más dulce para identificarlo. Por ejemplo, si acompañamos la comida con un refresco edulcorado, aunque sea sin calorías, estamos recibiendo constantemente ese sabor dulce y en el postre necesitaremos un producto con grandes cantidades de azúcar para reconocerlo como dulce.

Por tanto, la mala noticia es que no existe realmente un edulcorante saludable, sino que deberíamos limitar el consumo de estos productos a algo esporádico. Y cuando, puntualmente (lo que no significa varias veces por semana), vayamos a consumir un producto de repostería, sea industrial o casera, podemos escoger simplemente el que prefiramos por sus características sensoriales, pero sin pensar que nutricionalmente está aportando algo diferente. La buena noticia, por el contrario, es que podemos consumir piezas de frutas (sin procesar) sin preocuparnos, ya que la OMS no ha establecido ninguna recomendación para reducir su consumo porque contienen azúcares intrínsecos y no libres. De hecho, se ha asociado claramente un consumo escaso de frutas con múltiples efectos adversos para la salud, incluido un aumento en el riesgo global de mortalidad. Y esto incluye todas esas frutas que siguen “malditas” en muchas listas, como el higo, el plátano o la uva. La otra buena noticia es que, si vamos reduciendo la cantidad de azúcares libres en nuestra dieta, poco a poco nuestro umbral del dulce se irá rebajando, y aprenderemos a disfrutar cada vez más de los sabores originales de los alimentos.

* Jara Pérez Jiménez es investigadora del Instituto de Ciencia y Tecnología de los Alimentos y Nutrición (ICTAN) del CSIC.

Esclerosis múltiple: la enfermedad de las mil caras

Por Mar Gulis (CSIC)

La esclerosis múltiple (EM) es una patología crónica e inflamatoria, con un componente autoinmune, que afecta a 2,5 millones de personas en el mundo y a 700.000 personas en Europa. En España, la incidencia es de 100 casos por 100.000 habitantes, en su mayoría mujeres (3 de cada 4 pacientes). Afecta al sistema nervioso central y aparece generalmente en personas de entre 20 y 40 años, por lo que es la mayor causa de discapacidad no traumática en adultos jóvenes. Entre los múltiples y variados síntomas que provoca se encuentran la pérdida de visión, ciertos problemas en el habla, alteraciones motoras, falta de coordinación muscular, sensación de hormigueo, alteraciones gastrointestinales o disfunción urinaria y/o sexual. Esto supone un enorme impacto en la calidad de vida de los pacientes, importantes repercusiones sociales y un elevado coste sanitario.

Si quieres saber más sobre esta enfermedad, respondemos a algunas preguntas con el libro La esclerosis múltiple (CSIC-Catarata), firmado por las investigadoras Leyre Mestre y Carmen Guaza, del Instituto Cajal del CSIC.

¿Cuál es la causa de la esclerosis múltiple?

Para comprender la EM, hay que tener en cuenta la variedad de estímulos que llegan y activan las neuronas del cerebro y la médula espinal, y que actúan como control a todas nuestras actividades. En la EM se produce la desmielinización o la pérdida de la mielina de los axones, un proceso que te contamos a continuación.

“En algún momento todos hemos tenido un cable entre las manos y hemos comprobado que está compuesto por un material conductor recubierto de un material aislante. Algo parecido encontramos en el sistema nervioso central”, explican las investigadoras. Las neuronas tienen su axón, una prolongación que conduce el impulso nervioso de una célula a otra, rodeado por la mielina. Esta substancia protege las fibras nerviosas y contribuye a que los mensajes viajen de manera más rápida y fluida. En la EM, “la destrucción de la mielina convierte a los axones en una especie de ‘cables pelados’ que van a transmitir peor la información, o incluso dejarán de transferirla. Dependiendo de dónde se haya producido la desmielinización y su grado, las consecuencias para el sistema nervioso central del paciente serán distintas”, apuntan las científicas. En este sentido, “la diversidad en el grado y en la localización donde se produce la falta de mielina es lo que genera los distintos síntomas. Son dos de las características básicas de la esclerosis múltiple, por eso se denomina la enfermedad de las mil caras”, afirman Mestre y Guaza. Además, en fases iniciales, la percepción de los síntomas puede ser muy leve y suelen pasar desapercibidos, lo que dificulta su diagnóstico. Por tanto, la mielina o, mejor dicho, la desaparición de la misma, es una de las claves de esta patología; aunque a día de hoy aún se desconoce la causa de la pérdida de esta substancia.

¿Cómo evoluciona la enfermedad?

La heterogeneidad que caracteriza a la EM también puede verse en que presenta hasta tres fases diferentes. La primera y más frecuente es la denominada remitente recurrente. Supone un 85-90% de los casos y se manifiesta en brotes temporales de deficiencias neurológicas, que remiten al poco tiempo totalmente, aunque a veces dejan secuelas de discapacidad en los pacientes.

La siguiente forma (remitente progresiva) puede aparecer entre 8 y 20 años después de la manifestación del primer brote, y puede desencadenarse tras un brote temporal. En esta fase, explican las investigadoras, “se produce una acumulación de discapacidad neurológica progresiva, sin que haya brotes”. Por último, hay otra variedad clínica, la primaria progresiva, que afecta a un 10-15% de los pacientes. En este caso, desde el principio de la enfermedad aparece discapacidad neurológica y se produce un empeoramiento gradual desde los primeros síntomas.

¿Cómo puede diagnosticarse la enfermedad?

Mestre y Guaza explican que los avances tecnológicos y metodológicos han ayudado mucho al diagnóstico. Un ejemplo es el desarrollo de la resonancia magnética, que ha facilitado la detección de lesiones desmielinizantes. Además, se han incluido en los criterios diagnósticos elementos radiológicos y de análisis de líquido cefalorraquídeo, que protege la parte interna del cerebro. De esta forma, se consigue una mayor especificidad y un diagnóstico y tratamiento más temprano. Sin embargo, las investigadoras inciden en la necesidad de evaluar la actividad y la progresión de la enfermedad. La progresión de la EM se define “como el empeoramiento de más de un punto en la escala de discapacidad neurológica de Kurtzke que se mantiene durante al menos seis meses”, apuntan.

En la EM se produce la pérdida de la mielina de los axones / Freepik

¿Su origen es genético o ambiental?

Un posible origen de la enfermedad podría estar en el resultado de mutaciones genéticas en la población escandinava durante el primer milenio que, posteriormente, se expandieron por las migraciones de la descendencia y las invasiones vikingas. Esta teoría, no demostrada de forma concluyente, explicaría la mayor prevalencia de la EM en países poblados por descendientes escandinavos (Islandia, Reino Unido, Canadá, Australia y Nueva Zelanda).

Al margen de esta hipótesis, sí es posible afirmar que la EM no es una enfermedad hereditaria, aunque existe evidencia científica de que, al comparar a los pacientes con personas sanas, presentan diferencias en genes relacionados con los mecanismos reguladores de la respuesta inmune, entre otros. La genética es por tanto un factor relevante pero no suficiente para explicar la causa de la enfermedad, ya que también entran en juego factores ambientales.

Las investigadoras señalan algunos de estos factores, como el déficit de vitamina D. Diferentes estudios han demostrado que individuos con niveles altos de esta vitamina disminuían el riesgo de desarrollar EM. La obtención de vitamina D está relacionada con la exposición a la luz solar, por lo que esta circunstancia podría determinar la distribución irregular de la enfermedad según la zona geográfica, ya que es más común en latitudes altas y muy escasa en regiones cercanas al trópico.

Otros factores de riesgo, como el consumo de tabaco o los procesos infecciosos, pueden afectar al desarrollo y evolución de la patología, así como la obesidad en edades tempranas y la ingesta de sal. También la microbiota intestinal ha cobrado protagonismo en los últimos años en este sentido: al ser clave en el entrenamiento del sistema inmunitario para discriminar lo propio de lo extraño, puede influir en el desarrollo de una patología autoinmune como esta.

¿Se puede curar?

Las autoras señalan que, por el momento, no existe una cura definitiva, aunque son optimistas, ya que en los últimos años han surgido “nuevos tratamientos farmacológicos modificadores de la enfermedad que han logrado reducir la frecuencia e intensidad de los brotes, prevenir la aparición de nuevas lesiones o retrasar y disminuir la discapacidad contraída”.

Un total de 15 compuestos, aprobados por la Agencia Europea del Medicamento, han demostrado su eficacia, pero “hay que tener siempre en cuenta el beneficio/riesgo para cada persona, así como la influencia del tratamiento en la vida cotidiana del paciente”, precisan. Como complemento a la terapia farmacológica, proponen la fisioterapia, el ejercicio físico, el acompañamiento psicológico o una correcta alimentación para la mejora funcional de las actividades desarrolladas por los pacientes y de su estado de ánimo.

A pesar de la investigación desarrollada en torno a la EM desde su descubrimiento en el siglo XIX, este ámbito de estudio aún presenta muchos interrogantes. Para mejorar el tratamiento y calidad de vida de los pacientes en el futuro serán claves el diagnóstico temprano, asociado a tecnologías como la genómica y al manejo del big data, y la medicina regenerativa con terapia celular.

 

* Leyre Mestre y Carmen Guaza son investigadoras del CSIC en el Instituto Cajal y autoras de La esclerosis múltiple, de la colección de divulgación ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

De los Beatles a Taylor Swift: un análisis de la música más versionada del siglo XXI

Por José Luis Ortega (CSIC)*

Versionar una canción implica de alguna forma un tributo o reconocimiento a la influencia de un grupo o artista anterior. Por eso, conocer qué artistas y géneros son los más versionados puede darnos muchas pistas sobre cómo evolucionan los gustos y las preferencias musicales a lo largo del tiempo. Con este objetivo, en el Instituto de Estudios Avanzados (IESA) del CSIC hemos utilizado técnicas de big data para extraer y procesar información sobre más de 800.000 versiones y 100.000 intérpretes que albergan las plataformas web SecondHandSongs y Allmusic.

En un primer análisis observamos que hasta la década de los cincuenta el género más versionado fue el Jazz de los años veinte; y que, a partir de entonces hasta hoy, ese lugar lo ha ocupado el Pop/Rock de los años sesenta. En la actualidad, sin embargo, vemos cómo las nuevas generaciones de artistas parecen protagonizar una nueva ola musical, al igual que lo fue el Jazz en los años veinte y el Pop/Rock en los años cincuenta y sesenta.

Antes de nada, veamos cómo se distribuyen los músicos y músicas actuales teniendo en cuenta sus géneros y estilos (Figura 1). El género más dominante es el Pop/Rock, al que se dedican más de la mitad de artistas contemporáneos (55,6%) y que tiene como subgéneros más destacados el Rock Alternativo y el Pop. Otros géneros importantes hoy en día, pero con muchos menos artistas, son el Jazz (8,3%), la Música Electrónica (6,4%) y el Country (5,1%).

Figura 1. Distribución del número de artistas por género y subgénero musical que iniciaron su carrera en el siglo XXI. / Fuente: Allmusic.org

La hegemonía del Pop/Rock viene de lejos. La Figura 2 muestra que la mayoría de géneros musicales en el siglo XXI versionan con mayor frecuencia a músicos surgidos en la década de los sesenta, lo que nos viene a decir dos cosas: la primera es que, para la gran mayoría de géneros, los artistas surgidos en los sesenta al albor del Pop/Rock siguen siendo influencia; y segundo, que la música Pop/Rock es un referente independientemente del género musical de los intérpretes. Artistas del Reggae, R&B o Country versionan por igual a artistas de los sesenta. También se puede apreciar cómo algunos estilos pre-Rock y con un notable pasado mantienen sus referencias a épocas anteriores. Jazz, Blues y Vocal centran sus versiones en artistas surgidos antes de los años cincuenta, cuando estos estilos aparecieron y tuvieron su momento más álgido.

Figura 2. Porcentaje de versiones por géneros musicales a artistas de distintas generaciones. / Fuente: SecondHandSongs y Allmusic.org

De todas formas, si nos detenemos en el Pop/Rock, podemos ver que las versiones a artistas de los años sesenta constituyen sólo el 23%. En este caso, hay una distribución más equitativa y homogénea entre las distintas décadas en que fueron compuestas las canciones originales. Es más, si distinguimos entre las versiones realizadas por los artistas surgidos en las décadas de 1990, 2000 y 2010 (Figura 3), podemos ver claramente cómo los músicos y músicas de esta última década rompen el patrón y, por primera vez, versionan más a artistas coetáneos de la década del 2000 (22%) que a la generación de los años sesenta (16%).

 

Figura 3. Distribución del porcentaje de versiones de los artistas surgidos en las décadas de 1990, 2000 y 2010 a artistas pertenecientes a generaciones anteriores. / Fuente: SecondHandSongs y Allmusic.org

En la década de 2000, los grupos y artistas más versionados siguen siendo las figuras claves del Pop/Rock de los sesenta, con los Beatles, Bob Dylan y David Bowie a la cabeza. También se puede apreciar la aparición de figuras más recientes como Queen, Bruce Springsteen o Pink Floyd, pero aun así pertenecen a las alejadas décadas de los setenta y ochenta (Tabla 1).

Sin embargo, en la década de 2010 aparece una gran proporción de artistas surgidos en el siglo XXI entre quienes atraen más versiones. Por primera vez desde los años sesenta, los Beatles dejan de ser el grupo más versionado en favor de Taylor Swift, la cantante más influyente en la década de 2010. Junto a ella, aparecen también Justin Bieber, Ed Sheeran o Adele. Esto demuestra que no estamos solo ante la influencia de una artista concreta, sino que hay todo un cambio generacional que toma como referente a sus coetáneos y desplaza a las viejas glorias del Pop/Rock de los sesenta.


2000s 2010s
Nombre Sub-género Versiones Versiones % Nombre Sub-género Versiones Versiones %
The Beatles British Invasion 972 3,09% Taylor Swift Pop 208 1,58%
Bob Dylan Folk/Country Rock 549 1,74% The Beatles British Invasion 160 1,22%
David Bowie Soft Rock 237 0,75% Justin Bieber Dance 135 1,03%
Elvis Presley Rock & Roll/Roots 230 0,73% Ed Sheeran Singer/Songwriter 129 0,98%
Queen Hard Rock 194 0,62% Adele Pop 115 0,87%
Bruce Springsteen Hard Rock 180 0,57% Katy Perry Dance 111 0,84%
Bing Crosby Vocal 141 0,45% Rihanna Dance 101 0,77%
Pink Floyd Hard Rock 128 0,41% Maroon 5 Alternative/Indie Rock 91 0,69%
The Rolling Stones Hard Rock 122 0,39% David Bowie Soft Rock 90 0,68%
Ramones Punk/New Wave 121 0,38% Bob Dylan Folk/Country Rock 89 0,68%
TOTAL 31.481 TOTAL 13.167

Tabla 1. Ranking de los 10 artistas más versionados por cantantes de Pop/Rock surgidos en la década de 2000 y 2010. / Fuente: SecondHandSongs y Allmusic.org

En conclusión, las versiones entre artistas nos han permitido observar cómo cambian las influencias en la música a lo largo del tiempo y qué estilos o géneros musicales marcan la pauta en cada momento. Lo más interesante de este análisis es constatar indicios de que una nueva revolución musical está surgiendo en estos días. Liderada por Taylor Swift, una nueva generación de artistas Pop está convirtiéndose en la principal influencia de artistas de Pop/Rock actuales, y quizás para quienes vengan después.

La razón de este relevo generacional podría estar relacionada con la aparición de nuevos medios (YouTube, TikTok) y concursos de televisión (Idol, The Voice) que estarían popularizando a jóvenes artistas que optan por versionar a los ídolos de hoy en día. Aun así, debemos tener cautela con estos resultados ya que muchos de los datos necesitan más tiempo para ser consolidados, y la imagen que hemos visto de la generación del 2010 puede que en el futuro sea más completa y consistente.

 

* José Luis Ortega es investigador del CSIC en el Instituto de Estudios Sociales Avanzados (IESA).

El clavo: la especia protagonista de la primera vuelta al mundo

Por Esteban Manrique Reol (RJB-CSIC)*

A principios del siglo XVI, se desató en Europa una verdadera vorágine por el descubrimiento de nuevas tierras y tesoros. Durante las décadas y siglos siguientes, una inmensa cantidad de información cartográfica, semillas de plantas tropicales, especias, plantas medicinales y, sobre todo, especímenes vegetales inundaron los gabinetes de historia natural y los jardines botánicos europeos. Una de las plantas más emblemáticas de este periodo fue el clavo de olor. Sin duda, tenía todos los componentes para ser protagonista de una película de aventuras: intriga, ambición, riqueza, misterio…

Las especias no solo fueron muy importantes económicamente hablando, sino que también sirvieron para impulsar el crecimiento y el desarrollo del conocimiento del mundo natural y de la ciencia botánica en particular. En los siglos venideros, especialmente durante el siglo XVIII, las expediciones a los nuevos territorios ya siempre incluirían a geógrafos, geólogos, botánicos y zoólogos, entre otros naturalistas, pertenecientes a los más prestigiosos gabinetes de historia natural y jardines botánicos. La descripción exacta de la planta o el animal para su posterior reconocimiento, así como de sus hábitats naturales, pasó a ser un elemento importante de las expediciones.

Mapa de las islas Molucas, 1594. / Petrus Plancius/Claesz

El árbol del clavo de olor –conocido popularmente como ‘clavero’ (Sizygium aromaticum)­– puede alcanzar los seis metros de altura y sus flores reúnen una serie de características (sabor, olor, capacidad de conservación de alimentos, propiedades medicinales) que hicieron que esta especia fuera ya objeto de comercio en la Antigüedad. Hay restos arqueológicos del III milenio a. C. en Terqa, Siria, que nos hacen pensar que entonces ya había un activo comercio de clavo de olor entre Oriente Medio, la India y las islas del sudeste asiático, de donde es originaria la planta.

La misteriosa procedencia del clavo

Sin embargo, y a pesar de que las referencias sobre el clavo dadas por Plinio el Viejo en el siglo I apuntaban hacia la India, el origen del clavo fue un misterio durante muchos siglos. Hay que tener en cuenta la cantidad de relatos fantasiosos que transmitían los viajeros en la época de las grandes expediciones. Y, para mayor confusión, se sabe que algunos mapas se falseaban a propósito.

Sizygium aromaticum. Köhler’s Medizinal-Pflanzen (vol II, 1890)

El clavo de olor o aromático es, de todas aquellas especias asiáticas que alcanzaban Europa, por la que se llegaba a pagar los precios más altos. Fluctuaba mucho, pero se dice que el precio del kilo de clavo se tasaba en oro. Había, pues, un gran interés en mantener oculta su procedencia. Ejemplo de ello es el Atlas Miller elaborado en Portugal hacia 1519, que mostraba datos falsos para impedir que otros navegantes, particularmente españoles, pudieran llegar al lugar de las especias.

A mediados del siglo XV, Niccolò Da Conti se convirtió en el primer europeo en informar con cierta precisión sobre la procedencia de la especia. Esta información fue presentada por el monje y cosmógrafo Fra Mauro en su obra maestra, el Mapamundi (1459). De alguna manera, Da Conti estaba poniendo en manos de los portugueses el comercio mundial de las especias y propiciando la caída del monopolio veneciano y otomano en la comercialización de los productos provenientes del Oriente.

Mapamundi o hemisferio circular del Atlas Miller (c. 1519)

El dominio portugués

A partir de 1511, los portugueses se establecieron definitivamente en Asia y así tuvieron acceso directo a los mercados y productos del Lejano Oriente. Pronto, Alfonso de Albuquerque intentó establecer relaciones amistosas con los gobernantes locales y alianzas comerciales con proveedores de drogas y especias, clavo en particular. En 1513 los viajes entre los puertos portugueses en Malaca (en la actual Malasia) y Ternate (islas Molucas, actual Indonesia) llegaron a ser regulares. Jorge de Albuquerque fue nombrado capitán general de Malaca en 1514. En enero de 1515 envió una misiva del rey de Ternate a Manuel I prometiendo lealtad al soberano portugués, y también envió un regalo peculiar: un tronco de árbol de clavo y una pequeña rama con algunas hojas y capullos de flores. A partir de este momento los portugueses conocieron en detalle el aspecto del árbol y con ello se hicieron con el control de la producción y el comercio de clavo de olor.

Eran pues las islas Molucas el misterioso lugar donde crecía de forma exclusiva (endémica) el árbol del clavo de olor, pero solo lo hacía en las montañas de cinco islas del archipiélago. En concreto, los mejores clavos eran los provenientes de la isla de Ternate.

De la primera vuelta al mundo a la expansión del clavo

La lucha por el comercio del clavo no había hecho más que empezar. De hecho, esta especia fue la protagonista absoluta de la primera vuelta al mundo. Fernando de Magallanes, tras la negativa del rey Manuel I a financiar un nuevo viaje a su cargo, pues Portugal ya tenía establecida una ruta por oriente para llegar a las islas de las Especias, presentó en 1519 a Carlos I su audaz plan de una ruta alternativa viajando hacia el oeste: fue la expedición de Magallanes y Elcano (1519-1522). Después del largo viaje transoceánico de tres años de duración, la nave Victoria retornó a Sanlúcar de Barrameda tras realizar la primera circunnavegación de la historia. Aunque Magallanes murió en Filipinas, regresaron Juan Sebastián Elcano y Antonio Pigafetta, relator del viaje. En el informe presentado al emperador, el cronista italiano incluía una muy clara descripción del árbol de clavo.

El navegante Fernando de Magallanes descubrió en 1520 el Estrecho de Magallanes, durante la expedición española a las Molucas. Cuadro del pintor chileno Álvaro Casanova Zenteno (1857-1939)

Posteriormente, debido a la relevancia económica de esta especia, franceses y holandeses consiguieron sacar semillas de clavero de las islas originarias e introdujeron la planta en otras áreas tropicales. Los primeros en plantar el árbol del clavo fuera de su lugar de origen fueron los franceses, quienes lo introdujeron en las islas Mauricio durante el siglo XVIII. Más tarde se introdujo en el suroeste de la India, Sri Lanka, Zanzíbar y Madagascar.

Propiedades químicas del clavo y su uso en la actualidad

Además de los capullos de flores aromáticos, hay otras dos partes del clavero que se utilizan como especias: los pedúnculos florales y los frutos. El aroma proviene de varios compuestos volátiles que constituyen el aceite esencial del clavo y que se obtiene por destilación en etanol. La composición en principios activos y aromas es compleja e interesante ya que es la especia que tiene más cantidad de eugenol, el principal principio activo del aceite esencial.

En relación a su peso seco, el clavo contiene entre el 15 y el 20% de aceite esencial, en el que el eugenol es el principal componente (entre el 85 y el 95% del aceite esencial). El eugenol también se encuentra en otras especias como la nuez moscada (miristicáceas) y la canela (lauráceas). El químico italiano Ascanio Sobrero (1812-1888), descubridor de la nitroglicerina, aisló el eugenol a mediados del siglo XIX y, a partir de entonces, se empleó en medicina. Una de sus mayores propiedades es la de ser un eficaz antioxidante. De ahí su utilización en la conservación de alimentos.

Hoy el clavo como especia se sigue usando ampliamente en todas las cocinas del mundo. Su mercado no ha disminuido desde el siglo XV, sino muy al contrario. Son muchos los trabajos científicos que han publicado estudios de las propiedades terapéuticas del clavo o de los componentes de su aceite esencial, principalmente del eugenol. El tipo y número de productos en los que se añade el clavo de olor o su esencia ha ido creciendo exponencialmente en todos los sectores, tanto en medicina como en cosmética y, por supuesto, en la alimentación.

 

* Esteban Manrique Reol es doctor en biología y actual Director del Real Jardín Botánico de Madrid (CSIC). Este texto es una adaptación del capítulo que firma dentro del libro de la colección Divulgación En búsqueda de las especias. Las plantas de la expedición Magallanes-Elcano (1519-1522) (CSIC-Catarata), coordinado por Pablo Vargas. El libro se presenta el jueves 13 de mayo de 2021 a las 12:00 horas en el Real Jardín Botánico, en un acto con entrada libre que también podrá seguirse online.

Células estrelladas: ‘agentes dobles’ en el hígado

Por Raquel Benítez Ruiz (CSIC)

¿Qué es una célula estrellada? ¿Cómo nos ayuda a mantener la salud del hígado? Y, sobre todo, ¿por qué a veces se desata y provoca más daño del que intenta reparar? Raquel Benítez Ruiz, investigadora del CSIC en el Instituto de Parasitología y Biomedicina ‘López Neyra’, nos lo cuenta en el vídeo y el relato que os presentamos a continuación. El audiovisual ganó la última edición del certamen ‘Yo Investigo. Yo Soy CSIC’, en la que participaron cerca de 100 investigadores e investigadoras predoctorales del CSIC. Si quieres descubrir el importante papel que las células estrelladas juegan en nuestro organismo, no te los pierdas.

UNA NOCHE CON LA CÉLULA ESTRELLADA

Ahí estaba yo, haciendo tiempo leyendo algunos artículos cuando de repente, aparecida de la nada, ahí estaba ella también. Como si de una película del agente 007 se tratase, me encontraba frente a una espía. Aunque de esta espía no había películas en la gran pantalla, sólo fotografías y más bien de tamaño reducido, muy reducido.

–Sí, sí, sí. Sé lo que estás pensando, que todos estos días de confinamiento te han vuelto loca. Y, la verdad, no te culpo, es una suposición bastante razonable.

La célula me hablaba a mí y os juro que, por más que me pellizqué, no despertaba de lo que yo pensaba que era una alucinación hiperrealista.

–Bueno, empecemos. Me llamo Estrellada, Célula Estrellada –me dijo mientras se acomodaba.

–¿Perdón? –Evidentemente yo seguía sin salir de mi asombro.

–Sí, mira, dejémonos de tonterías. La cosa es así, nos hemos cansado de que nuestro trabajo se lo atribuyan a otros y de que la gente aún no entienda quiénes somos o lo que hacemos. Así que he decidido darnos a conocer en profundidad y para la exclusiva te hemos elegido a ti, enhorabuena.

–¿Nos? –De normal suelo ser más locuaz, os lo aseguro.

–Nos, sí, las células implicadas en estas misiones. Hoy estamos algo lentas, ¿eh? –De verdad, a esta célula sólo le faltaba tener un cigarro para agarrarlo con sus ramificaciones a modo de manos y cruzar las ‘piernas’ para ser la viva imagen de esos individuos de peli policiaca antigua que tan seguros de sí mismos parecen en los interrogatorios.

–Pues sí, discúlpeme señora… Estrellada. Pero no todas las noches me encuentro con una célula en mi salón hablándome –dije empezando a recobrar algo de capacidad verbal.

–Bueno, pues va siendo hora de recuperarse de la sorpresa, que mi tiempo es muy importante y no estoy para tonterías. Mis compañeras ya me estarán echando en falta en el hígado.

–Entonces, ¿qué quiere que haga? –le pregunté.

–Creo que va a ser más rápido si yo hablo y tú apuntas, porque como tenga que esperar a que me hagas una entrevista con esa labia que tienes ahora, lo llevamos claro…

Decidí dejarme llevar por el momento y ya cuando despertase, si lo recordaba, me echaría unas risas con el sueño que aún creía estar teniendo. Aparté lo que tenía en la mesa, cogí un bolígrafo y empecé a anotar todo lo que empezó a contarme:

“Mi primera aparición pública se remonta al siglo XIX cuando fui descubierta por un famoso investigador llamado Kupffer. El caso es que, como es normal debido a mi importante labor, desde aquel momento el dosier que tienen sobre mí las agencias de espionaje ha ido engordando. Me han llamado de muchas formas, célula rica en vitamina A, célula Ito, lipocito, célula perisinusoidal, hasta célula almacén de grasa… Y sí, bueno, soy todo eso, pero me identifico más como Célula Estrellada hepática.”

La verdad, mirándola detenidamente tenía sentido. Mi interlocutora poseía una serie de elongaciones que partían de su cuerpo central y que le permitían tantear todo lo que tenía alrededor, recordando así a la figura estrellada que le daba nombre.

“Soy una agente de tipo fibroblasto y las misiones que mejor domino son las de fibrosis hepática.”

–Entiendo que entonces trabajas en el hígado, ¿no?, por lo de ‘hepática’ me refiero –le interrumpí.

–Correcto. Se me puede encontrar en una zona que se llama Espacio de Disse. Es una zona pequeñita dentro del hígado que está entre los hepatocitos y los sinusoides por los que discurre la sangre. Y cuando digo pequeñita evidentemente es a vuestra escala, para mí es todo un mundo. –El orgullo al hablar de su hogar se reflejaba claramente en su citoplasma. –El tema es que ahí yo me puedo enterar de todo y, si me dan el chivatazo de que algo está pasando, entro en acción.

–Espera un momento, antes me pareció escucharte mencionar a unas compañeras, ¿eso es que sueles tener colaboradores en tus misiones?

–Sí, muy bien, y eso que parecía que no estabas atenta. En mis misiones no estoy sola, cuento con la ayuda de otros agentes, mis compañeras celulares, los hepatocitos, los macrófagos, los linfocitos, las células endoteliales… Todas tenemos nuestro propio objetivo, pero siempre que es necesario colaboramos entre nosotras. En fin, déjame que continúe con mi historia que el tiempo apremia.

“El caso es que yo siempre me encuentro preparada y lista para actuar. En una situación normal, lo que sería dentro de un hígado sano, estoy en estado quiescente, es decir, tranquila y centrada en el almacenamiento de vitamina A. Sin embargo, si se produce un daño en el tejido hepático, la cosa cambia, me enfado, entro en modo combate y asciendo al rango de Miofibroblasto.”

Observé que cuando hizo mención a esto se empezó a remover en su sitio, no estaba cómoda con lo que ahora me iba a confesar.

“La verdad es que todas en algún momento hemos tenido algún enfado que se nos ha ido de las manos… Y me temo que yo no soy menos. El problema reside en que cuando yo pierdo el control al estar demasiado furiosa pues provoco más daño del que intento reparar y es cuando la fibrosis hepática se desarrolla.”

–Perdona que te vuelva a interrumpir, pero esto de la fibrosis que tanto mencionas, ¿en qué consiste? –Me sonaba el término, pero hasta ese momento no me había parado a pensar en qué era eso realmente.

–A ver, la fibrosis, en condiciones normales, es un proceso de cierre de heridas. Cuando se producen daños en el tejido, en este caso el hígado, por un ataque de enemigos como los maquiavélicos virus, como el de la hepatitis C, o agentes tóxicos, como el abuso de alcohol, o por una inflamación crónica que se infiltra en nuestro territorio, pues yo me activo y diferencio a Miofibroblasto. En este estado lo que hago, entre otras funciones, es generar matriz extracelular para reparar esa herida inicial. El problema viene cuando esto se me va de las manos y genero demasiada. –Se notaba que le afectaba profundamente y no se sentía nada orgullosa de ello. –Lo que provoco entonces es aún más daño el tejido y, si no recupero el control y la fibrosis progresa, se puede llegar a un fallo hepático, lo cual es terrible… Y, por eso mismo era necesario que te contara nuestra historia.

–Entiendo, pero ¿qué puedo hacer yo? –le pregunté.

–Pues lo que puedes hacer es divulgar a los cuatro vientos todo lo que te he contado. Es muy importante que el conocimiento se difunda e inspire tanto a investigadores como tú como a gente ajena a ese mundo. A los primeros, para que entiendan más sobre nuestra existencia y que así puedan encontrar tratamientos para curar los estragos que causo sin querer; y a los segundos, para que sepan lo que sucede en el interior de su propio cuerpo y lo esencial que somos todas y cada una de las células que les componemos.

–Está bien, eso haré –le prometí haciéndome cargo del que ahora era mi cometido.

–De acuerdo, pues ya me marcho. Estaré vigilando que cumplas tu misión igual que yo cumplo la mía. –Y tal cual dijo estas palabras se desvaneció en el aire de la misma sorprendente forma en que había aparecido.

Aún no sé si fue un sueño inducido por el calor de aquella noche o un delirio de mi desmedida imaginación. Pero de lo que sí estoy segura es de dos cosas, que por fin pude entender eso de la fibrosis hepática y que ya nunca olvidaría la noche en que conocí a aquella célula, la Célula Estrellada.

 

Los riesgos del teletrabajo: ¿es seguro trabajar en la red?

Por David Arroyo, Víctor Gayoso y Luis Hernández (CSIC)*

El confinamiento ha sido uno de los principales elementos de contención de la COVID-19 desde el inicio de la crisis pandémica. Para mantener la actividad laboral y educativa ha sido necesario desplegar un conjunto de soluciones tecnológicas que han hecho que el teletrabajo y la enseñanza online cobren un peso muy significativo en nuestra sociedad. Así, por ejemplo, se ha estimado que entre marzo y septiembre de 2020 hubo un incremento del 84% en el uso de herramientas de teletrabajo. En paralelo, sin embargo, también han proliferado los ciberataques y los cibercrímenes: a lo largo de 2020, se estima que hubo un incremento del 6.000% en ataques por spam, ransomware (programas de secuestro de datos) y phishing (suplantación de la identidad de un tercero –persona, empresa o servicio– para que un usuario proporcione datos confidenciales creyendo que trata con un interlocutor de confianza).

Un ejemplo de los riesgos que trae consigo el teletrabajo es el de las aplicaciones de videoconferencia, como Zoom, Skype o Teams, que nos han permitido seguir manteniendo reuniones. El uso de herramientas como estas, desarrolladas por terceros, puede hacer mucho más vulnerable la seguridad de la información intercambiada; sobre todo, cuando se recurre a ellas con urgencia y no son debidamente auditadas y verificadas.

La amenaza del espionaje afecta también a las reuniones presenciales, pero acceder maliciosamente a la información que se comparte en estos encuentros supone que los atacantes pongan en marcha procedimientos y técnicas de alto coste y específicos para cada situación. En el caso de las videoconferencias, si existen vulnerabilidades de seguridad en una aplicación, todas las reuniones celebradas usando ese software estarán afectadas por un riesgo de interceptación de la información intercambiada. Esto es, existiría una vulnerabilidad matriz que puede ser explotada de modo generalizado.

El software que se emplea en videoconferencias solo es una pieza dentro del complejo del teletrabajo, que constituye un verdadero reto para las políticas de ciberseguridad. Lo es en situaciones de normalidad, pero mucho más en escenarios de crisis similares al deparado por la COVID-19. En este contexto, el teletrabajo se ha adoptado en la mayor parte de los casos de modo improvisado, sin una política de seguridad previamente definida y debidamente evaluada. Baste mencionar como ejemplo de ello los recientes ataques contra el Servicio Público de Empleo Estatal (SEPE) y el Ayuntamiento de Castellón, o los mensajes fraudulentos relacionados con el ofrecimiento de servicios a domicilio para la vacunación contra la COVID-19.

Ciberhigiene y ciberseguridad

Sin duda, es deseable que todas las personas que teletrabajan sigan unas buenas prácticas de ciberhigiene, como evitar la instalación de software no recomendado por los responsables de cibersegu­ridad, no conectarse a redes wifi públicas o no responder correos sospechosos de phishing. Ahora bien, una buena política de seguridad no asume sin más que esas normas de ciberhigiene se vayan a cumplir, sino que establece mecanismos de control para salvaguardar la seguridad, o al menos paliar las consecuencias de posibles ataques, en caso de incumplimiento.

Pues bien, en la crisis de la COVID-19 el teletrabajo se ha desplegado, en muchos casos, sin que las plantillas tengan arraigada esa disciplina de ciberhigiene y sin que su empresa haya diseñado una política de seguridad adecuada. Es más, en muchas situaciones los teletrabajadores han tenido que utilizar ordenadores y dispositivos propios. Dada la situación de confinamiento generalizado y la limitación de recursos tecnológicos en el hogar, es de suponer que en muchos domicilios los ordenadores han sido compartidos entre varios integrantes de la unidad familiar. Esta práctica tiene que ser considerada como un riesgo de seguridad adicional, ya que cada miembro del hogar tiene, a priori, una cultura de ciberseguridad distinta y usa la tecnología para objetivos diferentes.

Por ello, es preciso formar de modo adecuado a las personas que potencialmente van a teletrabajar para que tomen conciencia de los riesgos de ciberseguridad asociados a entornos de trabajo fuera del perímetro de seguridad de su empresa. En este sentido, sería de alto interés la planificación de simulacros y ciberejercicios en los que la interacción con las personas responsables de la ciberseguridad permitiera fortalecer rutinas de ciberhigiene, así como establecer pautas para la resolución de problemas de seguridad con el apoyo telemático de especialistas.

Si se ejecutan de modo correcto y de forma regular, estos ejercicios pueden servir para disminuir el impacto de los ciberataques al mejorar las competencias tecnológicas de la plantilla y la gestión de factores psicológicos que pueden ser explotados por ciberatacantes en periodos de crisis. Es el caso del estrés, la ansiedad o la falta de concentración motivada por las distracciones que se dan en un entorno distinto del laboral. Aquí conviene tener presente que la cadena de ataque habitual incluye estrategias de ingeniería social y phishing mediante las que los usuarios pueden bajar la guardia e instalar software sin evaluación de seguridad, acceder a sitios web asociados a campañas de malware y ser víctimas de robo de información o de ciberacoso.

Fomentar una cultura de ciberseguridad y ciberresiliencia puede y debe contribuir a reducir el impacto de estos ataques en posibles crisis futuras.

* David Arroyo, Víctor Gayoso y Luis Hernández son investigadores del CSIC en el Instituto de Tecnologías Físicas y de la Información “Leonardo Torres Quevedo” y autores del libro Ciberseguridad (CSIC-Catarata). Este post es un extracto del mismo.

Agroecología, la agricultura de la biodiversidad

Por Mar Gulis (CSIC)

¿Sabías que los suelos acogen una cuarta parte de la biodiversidad de nuestro planeta? El suelo es uno de los ecosistemas más complejos de la naturaleza y uno de los hábitats más diversos de la Tierra. Cobija infinidad de organismos diferentes que interactúan entre sí y contribuyen a los procesos y ciclos globales que hacen posible la vida.

Sin embargo, el uso que hacemos de él se encuentra entre las actividades humanas que más inciden en el cambio global y climático. Los modelos agrícolas dominantes durante los últimos cien años, junto con el sobrepastoreo y la deforestación, son responsables de un deterioro del suelo que implica la desertificación y la transferencia de grandes cantidades de carbono desde la materia orgánica que se encuentra bajo nuestros pies hacia la atmósfera, lo que contribuye al calentamiento global y, por ende, afecta a la salud de los seres vivos.

¿Es posible un modelo agroalimentario que ayude a regenerar los ecosistemas y que, a su vez, asegure los alimentos y la salud en un planeta con más de 7.700 millones de seres humanos y en pleno cambio climático? De ello se ocupa la agroecología, una disciplina que integra los conocimientos de la ecología, la biología, las ciencias agrarias y las ciencias sociales.

Primeros brotes en la huerta del proyecto agroecológico L’Ortiga, en el Parque Natural de Collserola, provincia de Barcelona.

La agroecología establece las bases científicas para una gestión de los sistemas agrarios en armonía con la salud de los ecosistemas y de las personas. Y esto lo hace estudiando las relaciones entre los organismos biológicos (cultivos, ganado, especies del entorno y, por supuesto, organismos del suelo), los elementos abióticos (minerales, clima, etc.) y los organismos sociales implicados en el proceso (desde las comunidades agrícolas y los hogares hasta las políticas agrarias y alimentarias globales).

También lo hace fomentando la capacidad de los agroecosistemas para autorregularse. Esta capacidad es muy importante, pues tanto las plagas como otras enfermedades son menos frecuentes en los sistemas biológicos equilibrados y este equilibrio es el que asegura la rentabilidad y la estabilidad en la producción. Para ello, la agroecología se preocupa por el mantenimiento de la mayor diversidad posible en el ecosistema, especialmente la diversidad funcional: cuando lo que importa no es tanto el número de especies como su función dentro del agrosistema y lo que cada una aporta al conjunto. Esto es algo que difícilmente se da en la agricultura convencional, ya que, como explican los investigadores Antonio Bello, Concepción Jordá y Julio César Tello en Agroecología y producción ecológica (CISC-Catarata), con el uso generalizado de agroquímicos la biodiversidad queda muy reducida o prácticamente eliminada.

Vegetales agroecológicos. Cooperativa Germinando Iniciativas Socioambientales, Madrid.

Para preservar esta biodiversidad se emplean prácticas agrarias que regulan de forma orgánica tanto las poblaciones de patógenos como de organismos que naturalmente son mejoradores del suelo. Un ejemplo de esto es la extendida tradición de introducir leguminosas en los cultivos. Las plantas de la familia leguminosae, de las que forman parte las legumbres, establecen naturalmente simbiosis con rizobios, bacterias del suelo con el potencial de fijar el nitrógeno atmosférico. Esta unión aporta cerca del 80% del total del nitrógeno atmosférico fijado de forma biológica y proporciona a las plantas el segundo nutriente más necesario, después del agua, para su crecimiento.

La milpa tradicional mesoamericana es un cultivo de origen precolombino que incluye maíz (Zea mays L.), calabaza (Cucurbita spp.) y frijol (Phaseolus vulgaris L.). Como explican en el diplomado ‘Alimentación, comunidad y aprendizaje’ del grupo Laboratorios para la Vida (LabVida) de ECOSUR Chiapas (México), la milpa se caracteriza por una sinergia entre estos tres cultivos que favorece su rendimiento en conjunto y genera resiliencia ante perturbaciones externas, además de ofrecer proteínas completas al combinar estos alimentos.

Suelos vivos versus suelos degradados

Con este planteamiento incluso los organismos eventualmente patógenos tienen su función en los cultivos. Al haber una diversidad mucho mayor, estos organismos patógenos no llegan a ser tan invasivos ni a causar grandes daños, y el ecosistema se puede autorregular fácilmente con solo introducir especies adecuadas. Un ejemplo de esto son las mariquitas (coccinélidos) y otros insectos que depredan a los pulgones. Otro ejemplo es el de los nematodos, un grupo de animales mayormente microscópicos y potencialmente patógenos que ocupa el cuarto filo más numeroso del reino animal en cuanto al número de especies. Los nematodos son los principales herbívoros del suelo y, junto con los hongos, son uno de los principales grupos descomponedores de la materia orgánica. La actividad de estos invertebrados es fundamental para la renovación de las raíces, pues permite optimizar su capacidad de absorber agua y nutrientes para el correcto desarrollo de las plantas. Según la agroecología, los nematodos causan problemas solo en los sistemas desequilibrados y hay maneras de controlar su población y los problemas de plagas desde un manejo ecológico, como por ejemplo introduciendo especies con propiedades repelentes o nematicidas.

Huerta agroecológica de Ruth Labad, quien produce para el grupo de consumo Xurumelxs en Ourense, Galicia.

La recuperación ecológica de suelos degradados, cuando es posible, se produce con prácticas que ayudan a la salud de todo el ecosistema agrario: abonando con materia orgánica libre de tóxicos, mediante la gestión de cultivos y utilizando las características funcionales de las plantas, principalmente. Para ello se emplean los policultivos (rotativos e intercalados), así como una mayor variedad de semillas y especies vegetales. También se alternan los pequeños invernaderos dentro del cultivo y las plantas que ejercen de barreras ecológicas naturales frente a posibles agentes patógenos, como algunas hierbas aromáticas. Además, se usan coberturas vegetales, que ayudan en la conservación del agua y del suelo y regulan la temperatura del terreno, así como la presencia de malas hierbas. Con estas y otras estrategias se favorece la salud de la microbiota del suelo y de todos los organismos de los que depende el ciclo de nutrientes y la buena respiración del suelo.

El Concello de Allariz, en Galicia, es pionero en la gestión de residuos orgánicos: recogen y compostan los residuos de los restaurantes para ofrecer abono orgánico a los agricultores de la zona.

Frente a la agricultura industrial, orientada de manera lineal a los insumos y productos, que rompe con los ciclos del agua, los elementos y los nutrientes de la naturaleza, que depende de los insumos fósiles para mantener la producción y que contribuye al cambio climático, la agroecología comprende la complejidad de la naturaleza y la interdependencia entre los organismos. Además, la agroecología considera los sistemas agrarios como ecosistemas que han llegado a ser equilibrados tras años de experiencia y conocimiento campesino, y se enriquece de toda la diversidad de saberes propios de cada región, clima y ecosistema. Por eso, la mayoría de las veces pone en práctica programas de investigación multidisciplinares en los que se integra y armoniza el conocimiento científico con el saber tradicional de las comunidades agricultoras y ganaderas locales.

Huerto escolar del CEIP Venezuela, en Madrid, dinamizado por Germinando Iniciativas Socioambientales.

Por otro lado, como señalan Bello, Jordá y Tello, establece que los ‘problemas del campo’ no son solo asunto de las personas que se dedican a la agricultura y la ganadería, sino que, por sus repercusiones, requieren de la participación y el compromiso del conjunto de la sociedad. Este compromiso debe estar fundamentado en la soberanía alimentaria (entendida como el derecho de la ciudadanía a elegir qué quiere o no quiere comer) y orientado a desarrollar un modelo alimentario justo, responsable y solidario, que se pregunte cómo se producen los alimentos y cuáles son sus implicaciones tanto sociales como ambientales. Por todo ello, se prefieren los pequeños mercados locales y la venta directa por parte de los grupos productores agrarios, lo cual ayuda a reducir las emisiones de gases de efecto invernadero y los costes asociados al transporte internacional de alimentos y a las grandes superficies de producción y venta.

Venta directa de productos de la iniciativa Barazkilo Agroecologiko, en Bizkaia.

Para saber más:

Encuentros temporales entre astronomía y prehistoria

Por Enrique Pérez Montero y Juan F. Gibaja Bao (CSIC) *

Entre las estrategias que usa la ciencia para facilitar el entendimiento de la naturaleza está la de proporcionar medidas que ayuden a fijar en una escala espacio-temporal aquellos objetos o eventos que estudia. No obstante, si el objeto de estudio sobrepasa las escalas que nos son familiares, puede ser complicado hacerse una idea de lo que esos números representan.

Uno de los casos donde esto ocurre de forma más clara es en la astronomía. Suele ser muy complejo distinguir la diferencia entre los cientos de miles de kilómetros a los que un asteroide ha pasado de la Tierra (en algunos medios de comunicación a veces se dice que nos ha pasado rozando), y los miles de millones de pársecs (unidad de longitud equivalente a 3,2616 años luz) a los que se encuentra la última galaxia de turno que ha roto el récord de distancia en el universo.

Esto mismo sucede incluso con escalas más pequeñas y cercanas, como la histórica. Al hablar de la prehistoria metemos en el mismo saco temporal a los primeros homínidos de hace unos 2,5 millones de años y a los últimos cazadores-recolectores del Mesolítico, que habitaron en ciertas zonas del Atlántico y Norte de Europa hace cerca de 5.000 años.

En el caso de la astronomía, una escala de distancia que trata de solventar esta dificultad es la basada en la velocidad de la luz, que viaja a unos 300.000 kilómetros por segundo. En el entorno de nuestro planeta esta escala no resulta práctica, ya que a un rayo de luz le da tiempo a dar siete vueltas y media a la Tierra en un solo segundo. Sin embargo, resulta mucho más cómodo y fácil imaginar que el Sol, la estrella que ilumina cada día nuestras vidas, está a 8 minutos y 20 segundos de distancia-luz, en vez de expresar que está a 150 millones de kilómetros. Es decir, podríamos recordar qué hicimos durante esos 8’20’’ transcurridos desde que los primeros rayos salieron del sol y llegaron a nuestro planeta.

El nacimiento de la escritura y la nebulosa de la Mariposa

Para poder entender la magnitud de la que hablamos proponemos hacer coincidir varios eventos de la historia de la humanidad con la distancia-luz a la que se encuentran algunos de los objetos astronómicos más notables. Así, por ejemplo, tomemos como punto de partida de nuestro viaje el momento en que se fija el inicio de la historia, el nacimiento de la escritura hace unos 3.500 años en Mesopotamia, en el extremo oriental del Mediterráneo. Poco después de ese momento partió la luz que los telescopios captan hoy en día desde la nebulosa de la Mariposa, también denominada NGC 6302, a 3.400 años-luz en la dirección de la constelación de Escorpio.

Nebulosa de la Mariposa. / NASA, ESA, and the Hubble SM4 ERO Team

Estas nubes de gas se produjeron cuando una estrella de masa intermedia, más o menos como nuestro Sol, terminó de fusionar los últimos elementos ligeros que se encuentran en el núcleo para crear otros más pesados. En ese momento, dicho núcleo se compactó para formar una enana blanca y las capas externas fueron eyectadas al medio interestelar.

¿Qué pasó en el cielo durante el inicio del Neolítico?

Otro momento relevante del desarrollo de la humanidad es el inicio de la domesticación de animales y vegetales, lo que conocemos como Neolítico. Aunque las primeras evidencias se documentan en Próximo Oriente hace unos 10.000 años, en pocos siglos aquellas comunidades ocuparon toda Europa. Sin duda, nosotros y nosotras somos sus más directos herederos. En ese mismo momento el cúmulo globular Messier 22, a 10.400 años-luz de distancia, nos envió la luz que hoy podemos ver. Este cúmulo se sitúa en la dirección de la constelación de Sagitario y está muy cerca del bulbo de nuestra galaxia. Está formado por una asociación de decenas o centenas de miles de estrellas, algunas de las cuales se cuentan entre las más antiguas de la Vía Láctea.

En la actualidad los observatorios infrarrojos espaciales y radiotelescopios de la Tierra recogen la radiación electromagnética que salió hace 28.000 años de Sagitario A*, que es como se denomina al núcleo de nuestra galaxia. Hoy sabemos que en el centro de la Vía Láctea hay un agujero negro supermasivo con una masa equivalente a cuatro millones de veces la de nuestro Sol. La presencia de un agujero negro tan enorme en esta posición no es algo anormal, sino un hecho común a todas las galaxias de tamaño similar a la nuestra. Cuando la radiación electromagnética porcedente de Sagitario A* inició su camino hacia la Tierra, algunos de nuestros antepasados más antiguos como especie, el Homo Sapiens, entraban en las cuevas de Altamira para pintar los magníficos bisontes, ciervos, manos y signos, tan enigmáticos a nuestros ojos contemporáneos.

Imagen de las cuevas de Altamira. / Museo de Altamira, D. Rodríguez

El origen del Homo Sapiens y la Gran Nube de Magallanes

Los Homo Sapiens aparecieron en África hace unos 150.000 años, momento en el que la luz emergía de la Gran Nube de Magallanes, más allá de los límites de nuestra galaxia. Esta es la más brillante entre las numerosas galaxias enanas satélite de la Vía Láctea. En ella se encuentra la nebulosa de la Tarántula, donde se halla el criadero de estrellas más masivo de todo nuestro grupo local de galaxias. En esta región se están creando más de diez nuevas estrellas por año y algunas de ellas son tan masivas que provocan vientos galácticos que arrastran el gas a cientos de kilómetros por segundo.

Los primeros homínidos y la galaxia de Andrómeda

Finalmente, si mirásemos por una máquina del tiempo qué ocurría en la Tierra hace dos millones y medio de años, observaríamos el origen de la Humanidad. En aquel momento, nuestros tatarabuelos los Homo Habilis habitaban en África y comenzaban a hacer algo que ninguna especie en nuestro planeta había hecho: transformar la naturaleza para crear instrumentos. Es el inicio de la tecnología, los primeros pasos de lo que hoy son nuestros móviles, telescopios o naves espaciales. Precisamente, a esa distancia espacio-temporal se encuentra la galaxia de Andrómeda o M31. Es el objeto más cercano a la Vía Láctea de un tamaño y masa parecidos. Su descubrimiento, realizado en la década de 1920 gracias a Edwin Hubble, nos concienció de que las galaxias eran numerosas y de que la nuestra no constituía todo el universo.

Galaxia Andrómeda. / Wikipedia, Boris Štromar

Todavía nos parece irreal pensar que su luz haya viajado más tiempo del recorrido por nuestra especie desde nuestro tatarabuelo Habilis. Y eso que es la galaxia más cercana a nosotros, en un universo que alberga miles de millones de ellas. Todo un desafío para nuestra comprensión sobre su inmensidad.

 

* Enrique Pérez Montero es investigador del el Instituto de Astrofísica de Andalucía del CSIC e investigador principal del proyecto de divulgación Astronomía Accesible, que tiene como fin el fomento de la astronomía entre las personas con discapacidad. Juan F. Gibaja Bao es investigador en la Escuela Española de Historia y Arqueología en Roma del CSIC y dirige y participa en diversos proyectos de divulgación científica, como Ciencia Incluisva.