Archivo de la categoría ‘Ciencias de la Tierra’

¿Cuál será la primera planta en colonizar el volcán de La Palma? Tenemos una candidata: la lechuga de mar

Por Alberto J. Coello (CSIC)*

Las erupciones volcánicas son uno de los eventos de la naturaleza más increíbles y peligrosos que pueden producirse. Hace poco fuimos testigos de la última, ocurrida en la isla canaria de La Palma y que ha dejado patente el efecto destructivo de estos fenómenos. Durante 85 días, el volcán de Cumbre Vieja expulsó inmensas coladas de lava a más de mil grados de temperatura que alcanzaron la costa, cubriendo más de 1200 hectáreas y arrasando edificaciones, campos de cultivo y ecosistemas. Esta erupción recuerda, en muchos aspectos, a otra que ocurrió hace cinco décadas, la del volcán Teneguía, en el sur de la misma isla y que hoy es un espacio natural protegido.

Volcán de Cumbre Vieja en erupción. / César Hernández

Aquella erupción de 1971 duró varias semanas y dejó coladas de lava que alcanzaron también el océano y ampliaron la superficie isleña. Cabía esperar que la destrucción en la naturaleza producida por el volcán dejase daños irreparables por el efecto de la lava, pero la realidad fue diferente. Las coladas de lava depositaron sobre la superficie de la tierra material capaz de albergar vida al cesar las erupciones.

La llegada de organismos vivos a zonas recientemente bañadas de lava es un proceso lento. De hecho, tras 50 años desde la erupción del Teneguía, la diversidad que podemos observar en esa zona es todavía baja. Muchas especies necesitan la acción de otras con las que establecer estrechas relaciones para poder sobrevivir. Por ello, los primeros organismos que llegan a esos nuevos territorios, conocidos como pioneros, son fundamentales para la explosión de biodiversidad que sucederá más tarde en esas zonas.

Las coladas de lava de la erupción del Teneguía en 1971 cercanas a la costa, en la Punta de Fuencaliente, donde se aprecian individuos de la lechuga de mar (los verdes más brillantes con toques amarillos). / Alberto J. Coello

Pioneras tras la lava

Una de esas especies pioneras que podemos encontrar en abundancia creciendo sobre los depósitos de las coladas de lava del Teneguía es la lechuga de mar o servilletero (Astydamia latifolia). Esta especie de la familia Apiaceae vive en las costas de todas las islas del archipiélago canario y llega a alcanzar incluso la costa de Marruecos. Es una planta de hojas suculentas de un color verde muy brillante y con unas flores amarillas muy vistosas, que forma unos reconocibles paisajes de hasta kilómetros de extensión.

A pesar de que la Punta de Fuencaliente, al extremo más al sur de La Palma, no cuenta con un gran número de especies, la lechuga de mar es la más abundante, lo que deja patente su capacidad colonizadora en estos ambientes. De hecho, los análisis genéticos de esta especie han revelado que se ha movido múltiples veces entre las islas de todo el archipiélago. Esta gran capacidad colonizadora parece guardar relación con las estructuras de sus frutos.

La lechuga de mar (Astydamia latifolia) en El Cotillo, Fuerteventura. / Alberto J. Coello

Por un lado, presentan un ala que les permite moverse fácilmente por el aire, lejos de la planta en que se formaron. Por otro, cuentan con tejido corchoso, de tal manera que, una vez caen en el agua del océano, pueden mantenerse a flote y conservar la viabilidad de las semillas tras ser expuestas a la salinidad del agua. La capacidad que tiene la lechuga de mar de sobrevivir al agua marina es fundamental para especies que, como ella, viven en zonas de litoral. Esto le permite moverse entre islas con bastante más facilidad que otras plantas que no cuentan con este tipo de estructuras.

Con todo ello queda claro que la lechuga de mar posee una capacidad de supervivencia y colonización enormes, lo que la convierte en una importante especie pionera de nuevos ambientes como el que podemos encontrar tras las erupciones volcánicas en Canarias, y parece una gran candidata a ser de las primeras plantas en crecer sobre la lava de Cumbre Vieja. Solo el tiempo desvelará si estamos en lo cierto, pero los antecedentes permiten apostar por ella. De lo que no hay duda es que habrá vida después del volcán.

 

*Alberto J. Coello es investigador del Real Jardín Botánico (RJB) del CSIC. Este texto es un extracto del artículo ‘Habrá vida después del volcán’ publicado en El Diario del Jardín Botánico.

El cambio climático y la guerra en Ucrania están en nuestro plato

Por Daniel López García (CSIC) *

¿Cómo va a impactar la guerra de Ucrania en nuestra alimentación? La respuesta dependerá de las medidas que tomemos. Y también de si estas tienen en cuenta los efectos que el cambio climático está teniendo sobre el sistema alimentario y la relación entre cambio climático y sistema productivo. Trataré de explicarlo en las siguientes líneas.

Gurra contra la naturaleza

Traspasar las tensiones sociales a la naturaleza

Durante las últimas décadas, las desigualdades sociales se han tratado de aliviar facilitando el acceso a bienes de consumo baratos a toda la población. Esto ha supuesto un incremento creciente de la producción intensiva y el consumo desmesurado, que se ha asentado en una mayor presión sobre los recursos naturales. Por ello podemos decir que las desigualdades se han aliviado en buena medida gracias a traspasar la tensión social hacia la naturaleza… y eso a pesar de que esas desigualdades no han dejado de crecer.

El problema es que la naturaleza está mostrando un elevado nivel de agotamiento: cuanta más presión introducimos, más se desequilibra, lo que a su vez genera nuevas tensiones sociales. La guerra en Ucrania es una buena muestra de ello: un conflicto relacionado con el control de los recursos naturales –el gas ruso atraviesa Ucrania, un territorio rico en minerales y productos agrícolas– provoca un alza de precios y desabastecimiento que dan lugar a tensiones sociales en todo el planeta, como las recientes movilizaciones del sector agrícola y del transporte que hemos vivido en España. Algo similar ocurre con el cambio climático y la pandemia de COVID19, dos fenómenos que tienen su origen en la creciente presión humana sobre los recursos naturales y que han producido ya tensiones sociales a escala global: desempleo, empeoramiento de la calidad de vida, estancamiento de la actividad económica, migraciones, etc.

Un modelo agrícola en crisis

En estos bucles de insostenibilidad social e insostenibilidad ecológica nuestra alimentación juega un papel relevante. Por un lado, la producción de alimentos a gran escala se encuentra en crisis por su elevada dependencia de materias primas que han alcanzado o se encuentran cerca de su pico de extracción: el petróleo que mueve la maquinaria o el gas, los nitratos y los fosfatos que se utilizan en la producción de fertilizantes y pesticidas. Por otro lado, los rendimientos agrícolas generan y a su vez se ven afectados por algunos de los procesos ecológicos y geológicos en los que los límites planetarios están desbordados en mayor grado, como el cambio climático, la pérdida de biodiversidad, el agotamiento de los ciclos geoquímicos de nitrógeno y fósforo o el cambio en los usos del suelo. Y, por último, los flujos globales de alimentos baratos entre unas partes del mundo y otras han quedado en entredicho después de que la pandemia dificultara los transportes internacionales y el alza de precios del petróleo los haya encarecido sobremanera. Todo ello amenaza nuestra seguridad alimentaria, algo que se deja ver en parte en el alza de los precios de los alimentos.

En este contexto, ¿cómo deberíamos gestionar los impactos de la guerra en Ucrania sobre nuestra alimentación? Para intentar que el sector alimentario europeo no colapse, algunas voces están proponiendo rebajar los estándares ambientales en la producción de alimentos. Se plantea, por ejemplo, importar piensos transgénicos y alimentos cultivados con pesticidas prohibidos en la UE; o incrementar las superficies de cultivo en detrimento de los barbechos.

Esto supone un auténtico paso atrás con respecto a la estrategia “De la granja a la mesa”, aprobada en 2020 por la Comisión Europea tras un arduo debate, y que entre otras cosas establece reducciones en los usos de antibióticos en ganadería y de fertilizantes y pesticidas químicos en agricultura, así como el objetivo de que un 25% de la superficie cultivada europea en 2030 sea de producción ecológica. No nos podemos permitir retrasar los cambios a los que ya estamos llegando tarde, como evidencia el último informe del Panel Intergubernamental de Cambio Climático (IPCC), que asigna un tercio de las emisiones de efecto invernadero al sistema alimentario, o las elevadas cifras de enfermedades no transmisibles (y el gasto sanitario asociado), relacionadas con pesticidas y con dietas insostenibles y poco saludables.

La hora de actuar

El cambio climático será (y en buena medida ya lo está siendo) mucho más destructivo que una guerra, y sus impactos durarán mucho más que la guerra más larga. El último informe del IPCC, presentado el 28 de febrero, hace hincapié en la necesidad urgente de adoptar medidas inmediatas y más ambiciosas para hacer frente a los riesgos climáticos. “Ya no es posible continuar con medias tintas”, asegura su presidente.

La gravedad del cambio climático y los últimos informes del IPCC han alentado a parte de la comunidad científica a movilizarse para demandar cambios urgentes. Durante la segunda semana de abril de 2022, científicos y científicas de todo el mundo llevarán a cabo acciones de desobediencia civil aliados con diversas organizaciones ambientalistas, como Extinction Rebellion.

La comparación entre cambio climático y guerra es muy clarificadora. A lo largo de los últimos siglos, y especialmente desde el siglo XX, nuestras sociedades han entendido la relación con la naturaleza a través de la dominación, como una guerra contra la naturaleza que ahora parece que vamos perdiendo. Pero ni la naturaleza está en guerra contra la humanidad ni esa guerra es posible, porque somos parte de la naturaleza y esta vive en cada uno de nosotros y nosotras. De hecho, para poder superar ambos problemas –la guerra en Ucrania y el cambio climático– será necesario salir del escenario bélico entre sociedad y naturaleza, plagado de ‘daños colaterales’, como la idea de que para enfrentar los impactos de la guerra podemos presionar más sobre los recursos naturales. Esta idea de guerra sociedad-naturaleza solo generará nuevas crisis que se solaparán con las actuales.

El caso es que hay un consenso elevado acerca de qué camino tomar respecto a la alimentación entre los estados nacionales y las instituciones globales, como la UE, el IPCC o las agencias de Naciones Unidas para la Agricultura y la Alimentación (FAO), el Medio Ambiente (UNEP) o la Salud (OMS). Recientes informes y acuerdos globales coinciden en que es urgente, posible y necesario alimentar al mundo a través de sistemas alimentarios agroecológicos; basar nuestra alimentación en alimentos locales, frescos, sostenibles (ecológicos) y de temporada; y modificar la dieta para reducir la ingesta de carnes (y limitarla a aquellas procedentes de la ganadería extensiva) y de alimentos procesados. La combinación de crisis sociales y ecológicas que hoy nos asola debe servir para iniciar ya los cambios necesarios, y no para seguir echando leña al fuego.

* Daniel López García es investigador del CSIC en el Instituto de Economía, Geografía y Demografía (IEGD-CSIC).

FOTCIENCIA18: descubre en un minuto las mejores imágenes científicas de 2021

Por Mar Gulis (CSIC)

Una dalia artificial de carbonato cálcico, la intrincada red de nanofibras de una mascarilla FFP2 o el volcán de colores creado por un singular organismo conocido como ‘huevas de salmón’ son algunos de los temas retratados en las imágenes seleccionadas en la 18ª edición de FOTCIENCIA, una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT) con el apoyo de la Fundación Jesús Serra.

En esta edición, a las modalidades de participación habituales –Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula– se ha sumado una modalidad especial para recoger imágenes que hayan plasmado la importancia de la ciencia y la tecnología frente al COVID. Un comité formado por doce profesionales relacionados con la fotografía, la microscopía, la divulgación científica y la comunicación ha valorado y seleccionado las imágenes más impactantes y que mejor describen algún hecho científico.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

Los transistores con forma de jeroglífico de un microprocesador, la transformación de las flores de girasol en frutos o el envés de la hoja del olivo son otros de los temas retratados. El objetivo es acercar la ciencia a la sociedad a través de fotografías que abordan cuestiones científicas mediante una perspectiva artística y estética.

Con estas imágenes, que puedes ver en el vídeo que acompaña a este texto, y una selección más amplia de entre las 556 recibidas en esta ocasión, próximamente se realizará un catálogo y una exposición itinerante, que será inaugurada en primavera de 2022 y recorrerá diferentes salas expositivas por toda España a lo largo del año.

En esta 18ª edición, FOTCIENCIA se ha sumado nuevamente a los 17 Objetivos de Desarrollo Sostenible declarados por Naciones Unidas. Más información en www.fotciencia.es

Para saber más sobre las imágenes escogidas, pincha aquí.

Imágenes seleccionadas:

Modalidad Micro:

– ‘Ser o no ser’. Autoría: Isabel María Sánchez Almazo. Coautoría: Lola Molina Fernández, Concepción Hernández Castillo

– ‘Jeroglíficos del microprocesador’. Autoría: Evgenii Modin

Modalidad General:

– ‘Volcán de mixomicetos’. Autoría: José Eladio Aguilar de Dios Liñán

– ‘Todo es polvo de estrellas’. Autoría: David Sánchez Hernández Modalidad

La ciencia frente al COVID:

– ‘Pequeña gran muralla’. Autoría: Alberto Martín Pérez. Coautoría: Raquel Álvaro Bruna, Eduardo Gil Santos

Modalidad Alimentación y nutrición:

– ‘Metamorfosis floral’. Autoría: David Talens Perales

Modalidad Agricultura Sostenible:

– ‘El bosque de parasoles’. Autoría: Enrique Rodríguez Cañas

Modalidad La ciencia en el aula:

– ‘El arcoíris digital’. Autoría: Carlota Abad Esteban, Lourdes González Tourné

Olas monstruo eléctricas: el fenómeno que explica el riesgo de un gran apagón

Por Antonio Turiel* y Mar Gulis

A lo largo de los tiempos, los marinos han relatado historias de enormes olas que aparecen de la nada en mar abierto, se elevan 10 o 20 metros, recorren uno o dos kilómetros y desaparecen tras arrasar todo lo que encuentran a su paso. Sin embargo, hasta la década de los 90 del siglo pasado, las olas monstruo no fueron objeto de estudio científico. Pertenecían al terreno de las leyendas urbanas… o, mejor dicho, marinas. La mayoría de la gente creía que solo eran fabulaciones de viejos y ebrios lobos de mar, y las compañías de seguros que eran historias inventadas para encubrir negligencias causantes del hundimiento o la desaparición de barcos. Hasta que las imágenes de cámaras instaladas en navíos, plataformas marinas y satélites acabaron por dar la razón a los marinos: las olas monstruo existen.

Las causas del fenómeno son complejas, pero no hay duda de que en algunos casos ocurre simplemente porque es estadísticamente posible. En el mar hay muchas olas. La mayoría están generadas por el viento, aunque en su formación también intervienen otros factores, como tormentas lejanas o el relieve del suelo marino. Normalmente, esas olas se propagan en diferentes direcciones, cada una con una amplitud, una frecuencia y una longitud de onda diferente, algunas más rápido, otras más lento… Pero a veces, por puro azar, durante un pequeño periodo de tiempo se sincronizan, llegan todas a la vez al máximo, y se genera una auténtica pared de agua que se lleva todo por delante.

Algo parecido puede ocurrir en los sistemas eléctricos. Mucha gente piensa que la electricidad es como el agua, que fluye de forma continua por las tuberías. Pero no es así; la corriente de la red eléctrica es alterna: oscila como una onda. Por eso es muy importante que todos los sistemas que vuelcan electricidad en la red estén sincronizados. Por decirlo así, todos tienen que subir y bajar al mismo tiempo. Cuando esto no ocurre, se empiezan a propagar ondas de forma desordenada, como en el mar, que pueden acabar provocando daños graves en la infraestructura eléctrica.

Si la frecuencia no está perfectamente afinada en la red, puede darse el caso de que en determinados sitios la tensión baje a cero de golpe –lo que produce apagones en cascada– y en otros que la potencia se junte por completo, se sincronice y sea 10 o 20 veces mayor de lo que tendría que ser. Cuando esto ocurre, no hay nada que lo resista: literalmente las líneas de alta tensión y las estaciones transformadoras se desintegran.


Los peligros de una gran red interconectada

Obviamente, la formación de este tipo de turbulencias es un riesgo que Red Eléctrica Española y el regulador europeo siempre están vigilando. El problema es que las posibilidades de que ocurran eventos de este tipo han ido en aumento a medida que se han ido instalando más y más sistemas renovables en una red cada vez más grande e interconectada.

Los mecanismos de protección de la red eléctrica europea (en la que la frecuencia es de 50 hercios) están pensados para un modelo de grandes centrales –hidroeléctricas, térmicas, nucleares, de ciclo combinado, etc.– que suministran mucha potencia. Cuando una anomalía supera el umbral de los 0,2 hercios durante más de dos minutos, el sistema desconecta la parte de la red en la que se está produciendo la perturbación. Lo que pasa es que ahora, además de grandes centrales, tenemos un gran número de unidades de producción que generan menos cantidad de energía –paneles solares y turbinas eólicas, fundamentalmente–en una red que se ha integrado a escala europea y que, por tanto, es mucho más grande. En este esquema, las anomalías se producen con mayor frecuencia y se propagan en tiempos mucho más cortos, por lo que el umbral de tolerancia establecido resulta excesivamente relajado. Esto está generando problemas continuamente. De hecho, el 8 de enero de este año hubo un incidente grave: una subfrecuencia en Croacia se combinó con una superfrecuencia en Alemania y no hubo más remedio que separar la red en dos.

Si los problemas suceden sobre todo en Europa Central no es por casualidad. Alemania en 20 años ha pasado de producir un 6% de su electricidad con energías renovables a un 38%. Además, ha integrado su red de alta tensión con la de sus vecinos de forma mucho más intrincada que en otras partes del continente.

Desde el punto de vista económico, resultaba muy interesante integrar todas las redes del continente lo máximo posible para transportar la energía intermitente de las renovables. Si el viento sopla en Polonia, pero no en Galicia, ¿por qué no llevar la energía de un lugar al otro? Lo que pasa es que en Europa Central este planteamiento se ha llevado a cabo sin instalar sistemas adicionales de estabilización, que hubieran encarecido el coste de la implantación de las energías renovables.

Por fortuna, actualmente España está relativamente a salvo de este riesgo. Como nuestra red eléctrica está poco interconectada con la del resto del continente, en caso de que se produzca una ola monstruo eléctrica en Europa, será relativamente sencillo desconectarnos mientras dure el peligro. En cualquier caso, esto debería hacernos reflexionar y ser más previsores a la hora de implantar nuevos sistemas renovables en nuestro territorio.


*
Antonio Turiel es investigador del CSIC en el Instituto de Ciencias del Mar. Su trabajo se centra en la oceanografía por satélite, pero es también un experto en recursos energéticos. En el blog The Oil Crash y el libro Petrocalípsis analiza el agotamiento de los combustibles fósiles y las dificultades de la transición a un modelo ‘eléctrico’ de renovables.

La expansión del océano: un descubrimiento de la Guerra Fría

Por Luis Carcavilla Urquí (IGME-CSIC)*

A mediados de los años 50 del pasado siglo, las dos superpotencias del momento mantenían un tenso equilibrio político y militar. La URSS y Estados Unidos se enfrentaban en un conflicto no bélico, la Guerra Fría, por demostrar su supremacía mundial. Con el fin de rebajar la tensión y frenar la imparable carrera armamentística nuclear, rusos y estadounidenses acordaron una suspensión parcial de las pruebas nucleares a principios de los años 60.

Se prohibieron las pruebas en la atmósfera y bajo el agua, pero quedaron permitidas las realizadas bajo el subsuelo, que son como terremotos artificiales: en vez de producirse la vibración por la rotura de las rocas, se produce por una explosión nuclear.  Sin embargo, el grado de desconfianza era tal entre ambas partes que el ejército norteamericano decidió vigilar el cumplimiento del acuerdo por parte de los soviéticos y, de paso, saber la frecuencia de sus ensayos nucleares subterráneos. Para ello, instalaron una red global de sismógrafos, el aparato utilizado habitualmente para detectar vibraciones de la tierra y, por tanto, terremotos.

Mapa del fondo oceánico elaborado en 1974 por la American Geographical Society con apoyo de la Armada norteamericana.

Al margen de su aplicación militar, este sistema de seguimiento permitió obtener por primera vez una visión completa de la distribución de los terremotos en todo el planeta. Esta información llevó a un descubrimiento sorprendente: los terremotos se alineaban perfectamente dibujando estrechas franjas que parecían partir la superficie terrestre en varios bloques o placas. En realidad, desde mediados del siglo XIX esto ya se sabía, pero solo para los continentes, porque no se tenían datos de lo que ocurría en los lechos oceánicos. Ahora, con la información marina, se tenía una primera perspectiva global.

Un geólogo contra los submarinos nazis

No era la primera vez que el uso de las técnicas geofísicas con fines militares arrojaba interesantes descubrimientos científicos. Durante la Segunda Guerra Mundial, el geólogo norteamericano Harry H. Hess utilizó geófonos –instrumentos que convierten el movimiento del suelo en señales eléctricas– para detectar las posiciones de los submarinos alemanes en el Atlántico norte. El sistema no pudo ser más eficaz: en tan solo dos años, la amenaza por este tipo de ataque fue neutralizada. Así que enviaron a Hess donde se desarrollaba entonces la gran batalla submarina: el Pacífico. Allí participó en cuatro grandes batallas marinas, incluida la de Iwo Jima.

Su misión incluía cartografiar el fondo marino para diseñar la estrategia militar, así que tras la guerra Hess dispuso de información topográfica detallada de amplias regiones oceánicas. Resultó que el fondo marino no era plano ni homogéneo, sino que tenía largas cordilleras submarinas llamadas dorsales y profundas fosas de más de diez kilómetros de profundidad.

Localización de epicentros de terremotos registrados entre 1963 y 1998. / NASA

La exploración marina continuó y, en 1956, se descubrió que la dorsal medioatlántica era, en realidad, una cordillera sin fin, pues enlazaba con otras y continuaba a lo largo de 75.000 kilómetros. Pero lo más importante fue descubrir que en el eje de la dorsal se situaba un interminable valle estrecho en el que se concentraban los terremotos y que mostraba una intensa actividad térmica. En palabras del propio Hess, ese descubrimiento “sacudía los cimientos de la geología”, pues era la pieza que faltaba para dar sentido a los datos del fondo oceánico que había recopilado durante décadas.

De los terremotos submarinos al crecimiento oceánico

Entre otras cosas, Hess se había percatado de que el escaso espesor de los sedimentos que cubren el fondo oceánico demostraba que este es mucho más reciente que los continentes, donde se llegan a acumular miles de metros de materiales sedimentarios. Además, el espesor de esos sedimentos se incrementaba cuanto más lejos estuvieran de la dorsal oceánica. Eso significaba que las dorsales eran más modernas que el resto del fondo oceánico, pero también, y eso era aún más difícil de explicar, que en las dorsales se estaba creando nuevo fondo oceánico que hacía cada vez más ancho el océano. Pero, ¿cómo? Las alineaciones de focos de terremotos parecían indicar que el fondo oceánico se ‘partía’ a través de estas líneas, y el descubrimiento del valle en el eje de la dorsal en el que se detectaba calor fue la clave para confirmarlo.

Así, en 1962 Hess propuso que rocas fundidas procedentes del interior terrestre ascendían a través de las dorsales y salían a la superficie en el valle del eje de la dorsal, y este material solidificado creaba nuevos fondos oceánicos. A este proceso de crecimiento del océano desde la dorsal lo llamaron “expansión oceánica”.

Harry Hess en 1968 mientras explica el ciclo de la corteza oceánica.

Este descubrimiento tuvo aún más repercusiones: Hess se dio cuenta de que el fondo oceánico que se creaba en unas regiones debía destruirse en otras o, si no, la Tierra estaría creciendo. Propuso que las profundas fosas oceánicas eran los lugares donde el fondo marino se hundía en el interior terrestre. Los epicentros de los terremotos confirmaban esta teoría: los profundos se situaban en zonas coincidentes con fosas marinas –lo que evidenciaba que se introducían en profundidad– y los superficiales se ubicaban a lo largo de las dorsales –lo que reflejaba que la actividad volcánica creaba nueva corteza–.

Hacia la tectónica de placas

El hallazgo de Hess se vio confirmado solo un año después por Frederick John y Drummond Hoyle Matthews, que observaron el comportamiento magnético del lecho marino. Así descubrieron que la polaridad de las rocas variaba de una forma muy particular: existían extensas franjas perpendiculares a la dorsal con una polaridad normal y otras con una polaridad invertida, que se alternaban como en la piel de las cebras. Lo más llamativo era que el dibujo que describían esas franjas era simétrico a uno y otro lado de la dorsal.

Eso solo podía tener una explicación. Las rocas generadas en el fondo marino se magnetizan según la orientación del campo magnético terrestre, que cambia cada cierto tiempo. Por tanto, las rocas que emergían en el centro de la dorsal debían tener siempre la misma polaridad, aunque se situaran del lado europeo o americano. Las rocas situadas en los distintos lados de la dorsal se irían distanciando a medida que se fuera formando nuevo lecho oceánico y, en el momento en que cambiase el campo magnético terrestre, aparecería entre ellas una franja de rocas con distinta polaridad.

Registro de los cambios de polaridad magnética en las rocas del fondo oceánico en expansión. / Dr. T (CC3.0-By-SA)

Las piezas encajaban y la expansión oceánica era un hecho. Gracias a esta evidencia, pronto Tuzo Wilson acabaría por armar el puzle de la tectónica de placas y demostrar, tras décadas de encendidas polémicas, la existencia de la deriva continental, pero esa es otra historia.

 

* Luis Carcavilla Urquí es investigador del Instituto Geológico y Minero de España, adscrito al CSIC, y autor del libro de divulgación Montañas (IGME-Catarata), del que ha sido extractado este texto.

Almacenamiento geológico de carbono: el patito feo de la descarbonización

Por Víctor Vilarrasa (CSIC)*

Ahora que aprieta el calor, no puedo dejar de pensar en el cambio climático. Los registros nos indican que aumenta el número de olas de calor, de noches tropicales y de episodios de gota fría o DANAs –depresiones aisladas en los niveles altos de la atmósfera que provocan fuertes tormentas–. Para mitigar estos y otros efectos del cambio climático, debemos conseguir un balance neto de emisiones de dióxido de carbono (CO2) igual o menor que cero en un futuro cercano. Es decir, la cantidad de CO2 que emitamos a la atmósfera tendrá que ser igual o inferior al CO2 que extraigamos de ella. En España, con unas emisiones de gases de efecto invernadero de 334 millones de toneladas equivalentes de CO2 en 2018, todavía nos queda un largo camino para conseguirlo. Aunque las hemos disminuido un 25% con respecto a 2005, siguen siendo un 15% mayores que las de 1990, año que se toma como referencia para cuantificar las reducciones en las emisiones.

Planta de almacenamiento de carbono. / Pexels

Planta de almacenamiento de carbono. / Pexels

Descarbonizar la economía

El primer paso para la neutralidad de carbono consiste en descarbonizar todos los sectores de la economía. El sector que emite más CO2 es el energético, ya que en la actualidad el 85% de la energía que consumimos se genera a partir de hidrocarburos. Las grandes petroleras y empresas energéticas se están comprometiendo a lograr el balance neto de emisiones de CO2 igual a cero en 2050. Esta transición implica basar la producción de energía en fuentes renovables; mayoritariamente las energías solar, eólica e hidroeléctrica, pero complementadas por la geotérmica, la mareomotriz (que aprovecha las mareas) y la undimotriz (que se obtiene del movimiento de las olas). También se plantea sustituir los hidrocarburos por biomasa en la producción de electricidad, dado que el carbono que se emitiría al quemarla sería el mismo que habrían capturado previamente las plantas. Igualmente, la energía nuclear, que no tiene emisiones de CO2 asociadas, seguirá formando parte del mix energético con gran probabilidad.

Esta transformación es más compleja que instalar una capacidad de producción igual a la demanda, dado que las fluctuaciones que se producen en la mayoría de las fuentes de energías renovables (luz solar, viento, caudal hidrológico, etc.) requieren la capacidad de almacenar cantidades ingentes de energía para compensar los déficits de producción con los excedentes. Cómo almacenar esta energía no es trivial, dado que las baterías no tienen suficiente capacidad y la producción de combustibles sin carbono para su uso posterior, como el hidrógeno, conlleva una eficiencia bastante baja. A pesar de estos retos, se considera que la descarbonización del sector energético es viable.

Al sector energético le siguen en emisiones de CO2 los sectores del transporte e industrial. Para reducir sus emisiones, estos sectores se tendrán que electrificar, lo que aumentará la demanda del sector energético. No obstante, al contrario que el sector de la energía, estos sectores difícilmente se podrán descarbonizar por completo. En el sector del transporte, el transporte marítimo y, sobre todo, el aéreo no cuentan, por el momento, con combustibles alternativos a los actuales. Por otra parte, aunque el sector industrial se abastezca de energías renovables, seguirá emitiendo millones de toneladas de CO2, porque la fabricación de ciertos productos, como el cemento, el acero y el etanol, conlleva la emisión de CO2 por las reacciones químicas que tienen lugar en su proceso de producción. En algunos casos, la investigación, desarrollo e innovación (I+D+i) podrá permitir la descarbonización de alguno de estos procesos mediante procedimientos alternativos, como en el caso del acero, que en la actualidad es responsable del 8% de las emisiones de CO2 a escala global. Sin embargo, otros procesos industriales solo se podrán descarbonizar mediante la captura del CO2 antes de ser emitido a la atmósfera y su posterior almacenamiento geológico. En España, 16 millones de toneladas de CO2 al año (Mt/a) son emitidas por 23 industrias que, a largo plazo, solo se podrán descarbonizar con la captura y almacenamiento de CO2 (CCS, por sus siglas en inglés); y 53 Mt/a, por 38 plantas de producción de energía, en las que se podría aplicar CCS a corto plazo para acelerar la transición hacia la neutralidad de carbono.

Devolver el carbono al subsuelo

El almacenamiento geológico de carbono tiene como objetivo devolverlo a su lugar de origen: bajo tierra. Tecnológicamente, este procedimiento está probado con éxito con caudales de inyección de 1 Mt/a. El Panel Intergubernamental de Expertos sobre el Cambio Climático (IPCC, por sus siglas en inglés) estima que la cantidad de CO2 almacenado en formaciones geológicas profundas debe aumentar de los 40 Mt/a actuales a 8.000 Mt/a en 2050. Esto implicaría tener unos 8.000 pozos inyectando 1 Mt/a de CO2. Puede parecer un número muy grande, pero es pequeño en comparación con los 8 millones de pozos que se han perforado para extraer gas y petróleo. No obstante, multiplicar por 200 el almacenamiento de CO2 en 30 años es sin duda un gran reto que implica un aumento del CO2 almacenado del 6% anual.

Víctor Vilarrasa

Víctor Vilarrasa

El almacenamiento se realiza a profundidades mayores de 800 metros en acuíferos salinos o en yacimientos agotados de gas o petróleo. A medida que aumenta la profundidad, como el subsuelo está saturado, es decir, los poros de las rocas están llenos de agua, la presión del agua que llena estos poros aumenta de forma equivalente al peso de la columna de agua que hay por encima. De manera similar, la temperatura también aumenta con la profundidad una media de 30°C por kilómetro. A profundidades mayores de 800 metros, la presión y la temperatura son suficientemente elevadas para que el CO2 se encuentre en su estado supercrítico. A pesar de lo extraño que pueda parecer el nombre de este estado, lo que nos indica es que el CO2 tiene propiedades tanto de un gas como de un líquido. Por un lado, su viscosidad es como la de un gas, es decir, muy baja, por lo que va a poder fluir con facilidad. Por otro, su densidad es como la de un líquido, es decir, elevada, y, por lo tanto, su almacenamiento va a ser eficiente porque ocupará un volumen relativamente pequeño. A pesar de presentar una densidad elevada, el CO2 es más ligero que el agua, por lo que tiende a flotar. Por este motivo, se necesita la presencia de una roca impermeable ubicada encima de la formación almacén, que se conoce como roca sello y que impide que el CO2 vuelva a la superficie. La formación almacén, al contrario que la roca sello, se caracteriza por una alta permeabilidad y porosidad, para albergar grandes cantidades de CO2 sin generar sobrepresiones elevadas.

Las posibilidades del CO2 almacenado

Socialmente, el almacenamiento geológico de carbono no acaba de estar bien aceptado, al menos en algunos países. Existe el efecto NIMBY (no en mi jardín trasero, por sus siglas en inglés), por el que se puede llegar a rechazar el desarrollo de proyectos de este tipo en ciertas zonas. Una posible solución es el almacenamiento en alta mar, como sucede en Noruega, donde llevan 25 años inyectando CO2 con éxito en acuíferos marinos, lo que convierte al país nórdico en líder mundial en almacenamiento de este gas. La manera en que esta tecnología es vista por la sociedad también puede mejorar cuando se aplica al CO2 que se genera en la combustión de biomasa para producir electricidad, ya que de esta forma conseguimos extraer CO2 de la atmósfera, en lo que se conoce como BECCS (por sus siglas en inglés).

Otra estrategia que puede ayudar a mejorar la imagen del almacenamiento geológico de carbono es utilizar el CO2 inyectado de alguna forma, para darle valor y que el proceso no se limite a deshacerse de un residuo. La opción más viable consiste en utilizar el CO2 inyectado para producir energía geotérmica, dado que, por sus propiedades, es un fluido mucho más eficiente que el agua en la extracción del calor de las profundidades de la Tierra. El CO2 inyectado se calienta cuando entra en contacto con la roca almacén, por lo que, si se extrae, se puede aprovechar la alta temperatura que ha adquirido para producir electricidad. Este ciclo es muy eficiente porque apenas se requiere energía para bombear el CO2: como tiende a flotar, sube hasta la superficie por sí solo. El CO2, una vez enfriado después de aprovechar la energía geotérmica, puede reinyectarse junto con más CO2 para su almacenamiento geológico. De esta forma, se reduciría la cantidad de CO2 en la atmósfera y se generaría energía limpia.

El tratamiento del CO2 debe seguir una evolución similar a la que ha tenido la gestión de nuestros residuos domésticos. Antiguamente se desechaban en cualquier parte, que es lo que hacemos ahora con el CO2. Posteriormente se recogían y se llevaban a vertederos, que es lo que se está empezando a hacer con el almacenamiento geológico de carbono. En la actualidad, reciclamos la mayoría de nuestros residuos y solo una fracción pequeña va a parar a los vertederos. En un futuro próximo deberemos hacer lo mismo con el CO2: almacenarlo y utilizarlo para conseguir que el balance neto de emisiones sea cero y así podamos mitigar los efectos del cambio climático.

 

* Víctor Vilarrasa es investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA-CSIC) y del Instituto Mediterráneo de Estudios Avanzados (IMEDEA, CSIC-UIB). Actualmente dirige un proyecto del European Research Council (ERC) para conseguir que los recursos de la Tierra contribuyan a la descarbonización.

Incendios forestales: la geometría del fuego

Por Serafín J. González Prieto (CSIC)*

Tradicionalmente se ha considerado que tanto el inicio como la propagación del fuego son una cuestión de triángulos. Para que se inicie un fuego son necesarios tres factores: combustible, comburente y fuente de ignición. Los dos primeros son casi omnipresentes en condiciones naturales, en forma de vegetación y oxígeno de la atmósfera, y el tercero surge con frecuencia variable a partir de rayos o erupciones volcánicas, por ejemplo. La propagación del fuego también está controlada por tres factores: el combustible disponible, la topografía y las condiciones meteorológicas (humedad, viento, temperatura).

Sin embargo, con demasiada frecuencia se olvida que desde hace miles de años a los triángulos anteriores les ha crecido un ‘cuarto vértice’, que condiciona decisivamente a los otros tres vértices en la mayor parte del planeta: las actividades humanas. Con el dominio del fuego los humanos pasamos a ser la principal ‘fuente de ignición’ en la naturaleza. Con la extinción de los mega-herbívoros silvestres en amplísimas zonas (en parte sustituidos por ganado), la agricultura y ciertas plantaciones forestales masivas –con especies pirófitas de interés económico, como eucaliptos y pinos– pasamos a controlar la cantidad y continuidad del combustible, es decir, las posibilidades de inicio y propagación del fuego. Sobre estas posibilidades de inicio y propagación inciden también el cambio climático que estamos provocando y las labores de extinción de los incendios cuando y donde nos interesa, incluso cuando estos son naturales. Por último, con la imparable expansión, a menudo caótica, de las áreas urbanizadas y las infraestructuras, nos hemos metido, literalmente, en la ‘boca del fuego’ que nosotros mismos atizamos. Así, además de la sexta extinción masiva de especies, la actividad humana está generando lo que ya se denomina mega-incendios de sexta generación: humanamente imposibles de apagar; humana y ecológicamente devastadores.

Ilustración: Irene Cuesta (CSIC)

Los riesgos de las quemas controladas o ‘pastorear’ el fuego

Llegados a este punto, ¿qué podemos hacer? Pensando solamente en el primero de los triángulos mencionados, algunos aseguran que únicamente podemos gestionar el ‘combustible’ y propugnan realizar quemas controladas o prescritas, ‘pastorear’ el fuego. Antes de optar por esta alternativa, conviene recordar que la sabiduría popular nos advierte que, si jugamos con fuego, es probable que acabemos quemándonos. Debemos tener presente que tanto las quemas prescritas como los incendios tienen efectos sobre la salud humana, la economía, la atmósfera, el agua, el suelo, la vegetación, la fauna e, incluso, el patrimonio cultural. Estos efectos pocas veces, o nunca, son tenidos en cuenta adecuadamente y en su conjunto.

Como realizar quemas prescritas con las necesarias garantías es laborioso y costoso, con relativa frecuencia se hacen mal y afectan a más superficie de la prevista, llegando incluso a convertirse en grandes incendios forestales. Pero, aún siendo técnicamente bien realizadas y de baja severidad, las quemas controladas o prescritas provocan pérdidas elevadas de nutrientes y organismos del suelo (lo que disminuye su fertilidad) y reducen su capacidad para actuar como una gigantesca ‘esponja’ que se empapa cuando llueve. Gracias a esta función de ‘esponja’, un suelo sano y rico en biodiversidad reduce las inundaciones y libera lentamente el agua después, lo que reduce las sequías.

Pérdida de áreas forestales por la erosión del terreno tras incendio (Ourense, Galicia)

Además, ya sea en un incendio forestal o en una quema prescrita, la combustión incompleta de materia orgánica de los suelos y vegetación genera inevitablemente hidrocarburos aromáticos policíclicos (HAPs) tóxicos, que la erosión arrastra a embalses y zonas costeras y que afectan a la potabilidad del agua, la riqueza pesquera y marisquera, y, una vez más, a la biodiversidad. Las cenizas suelen también contener concentraciones demasiado elevadas de algunos micronutrientes y metales pesados, con riesgos aún no evaluados para los lugares donde se sedimentan.

Sedimentos de cenizas en costas gallegas

Pastoreo sí, pero de ganado extensivo y sostenible

Entonces, ¿qué otras cosas podemos hacer? En primer lugar, convencernos de que actualmente la figura geométrica del fuego, más que a un triángulo, se parece a un rombo, en cuyo vértice superior está la actividad humana influyendo decisivamente sobre el inicio y la propagación de los incendios. Los datos oficiales indican que el 78% de los incendios en España son de origen antrópico (quemas deliberadas, accidentes y descuidos). Por tanto, nada conseguiremos si no actuamos sobre la principal ‘fuente de ignición’ en los incendios forestales, grandes y pequeños: la actividad humana.

Salamandra calcinada por un incendio (Galicia)

Para dificultar la propagación y facilitar la extinción de los incendios debemos actuar sobre la biomasa vegetal, mal llamada combustible: aunque arde, nadie en su sano juicio llama combustible a una biblioteca, a un retablo barroco o a los tejados de Notre Dame. Una superficie continua de hierba seca, matorral, eucaliptos, pinos o acacias puede facilitar mucho la propagación de un incendio. Para reducirla, debemos generar discontinuidades y crear un mosaico de hábitats diferentes que, además, es muy beneficioso para la biodiversidad. Para eso disponemos básicamente de tres herramientas: diente, hierro y fuego; pastorear, rozar y quemar. Más allá de unos puestos de trabajo coyunturales, las quemas prescritas y el ‘pastoreo de incendios’ no producen bienes o riqueza y tienen en contra los mayores efectos ambientales. En circunstancias parecidas están las rozas, pero con menor impacto ambiental. Y luego está el pastoreo real, trashumante o con ganado en régimen extensivo o semi-extensivo, es decir, en el que este pasa la mayor parte de su vida en libertad. Al suplir a los grandes herbívoros salvajes que hemos diezmado o extinguido, el ganado en semi-libertad controla el crecimiento de la biomasa vegetal, contribuye a conservar un mosaico diverso de hábitats, genera puestos de trabajo estructurales, ayuda a mantener la población rural y produce alimentos.

Por todo ello, la solución del grave problema de los incendios forestales en nuestro país pasa por actuar cuanto antes sobre las causas de origen humano, promocionar un pastoreo semi-extensivo bien gestionado y recurrir a desbroces mecánicos donde sea necesario. Y solo cuando el número, extensión, severidad y frecuencia de los incendios sea más o menos natural podremos plantearnos no extinguir o ‘pastorear’ los incendios naturales.

* Serafín J. González Prieto es experto en restauración de suelos tras incendio e investigador del CSIC en el Instituto de Investigaciones Agrobiológicas de Galicia (IIAG-CSIC).

El gran ‘fake’ científico del siglo XX: el hombre de Piltdown

Por Ana Rodrigo Sanz (IGME-CSIC) y Mar Gulis*

Casi con toda seguridad, el engaño más famoso, espectacular y controvertido de la ciencia de la segunda mitad del pasado siglo es el fraude del ‘hombre’ de Piltdown. Durante cerca de 40 años, la mayoría de la comunidad científica dio por válida la existencia de este supuesto eslabón perdido de la evolución, con cerebro humano y cuerpo de simio, que habría vivido en las islas británicas hace dos millones de años. La mentira puso en evidencia las malas artes de quienes la urdieron, pero también que los prejuicios culturales y el nacionalismo pueden dar alas a los peores bulos científicos.

Reconstrucción de ‘Eoanthropus dawsoni’ de 1913.

Vayamos al comienzo de la historia. En 1908, unos trabajadores de una cantera de grava situada en Piltdown, un pueblo de Sussex (Inglaterra), informaron a Charles Dawson (1864-1916), abogado y arqueólogo aficionado, de que habían encontrado un cráneo aplastado. Dawson se desplazó a la zona y continuó excavando, según dijo, hasta encontrar algunas piezas más del cráneo y fragmentos de otros mamíferos fósiles. En 1912, llevó sus hallazgos a Arthur Smith Woodward (1864-1944), conservador de paleontología del Museo de Historia Natural de Londres, quien los presentó ante la Sociedad Geológica de Londres.

El aspecto del cráneo recordaba al de un humano actual mientras que las características de la mandíbula eran notablemente simiescas. Eso sí, los dos molares que conservaba estaban desgastados de forma similar a la observada en los seres humanos. Asociados a estos restos aparecieron también dientes de hipopótamo y de elefante, así como utensilios de piedra primitivos. Estas herramientas parecían una evidencia palpable de que el individuo de Piltdown habría tenido una inteligencia muy superior a la de los monos.

El eslabón perdido de Darwin

El descubrimiento encajaba perfectamente en el esquema de la evolución humana propuesto por Darwin en El origen de las especies, muy extendido entre quienes se dedicaban a la paleoantropología a comienzos del siglo pasado. Según esta hipótesis, en el transcurso de la evolución humana un cerebro de gran tamaño debía de haber precedido al desarrollo de otros caracteres considerados como humanos. Por eso, se esperaba encontrar fósiles con cráneos que delataran un gran volumen cerebral articulados con esqueletos de aspecto simiesco.

Cuando Woodward presentó los fósiles, la comunidad científica manifestó sus dudas arguyendo que quizás mandíbula y cráneo no correspondían al mismo individuo. Sin embargo, varias autoridades en anatomía, como Grafton Elliot Smith o Arthur Keith, defendieron la autenticidad del descubrimiento.

Retrato de 1915 del examen del cráneo de Piltdown. Desde la izquierda, arriba: F. O. Barlow, G. Elliot Smith, Charles Dawson, Arthur Smith Woodward. Abajo: A. S. Underwood, Arthur Keith, W. P. Pycraft y Ray Lankester. / John Cooke

El hallazgo de un diente aislado puso fin a la polémica: en 1913, el padre Teilhard de Chardin (1881-1955), jesuita, filósofo y paleontólogo francés, encontró un canino inferior que podía ser asimilado a un mono, pero que presentaba marcas de desgaste parecidas a las humanas. La cuadratura del círculo se completó cuando dos años después el propio Dawson encontró en un segundo yacimiento próximo al original otros dos fragmentos craneales típicamente humanos y otra pieza dental más bien simiesca pero desgastada que, en su opinión, debían de pertenecer a un segundo individuo. Muchos de los detractores iniciales de Piltdown, como el gran paleontólogo francés Marcellin Boule (1861-1942), se retiraron del debate asumiendo su equivocación y reconociendo que estaban ante el tan esperado eslabón perdido.

Un hallazgo a la altura de Gran Bretaña

Fue entonces cuando se asignó una edad de unos dos millones de años a los restos y el nuevo fósil recibió el nombre de Eoanthropus (“el hombre del alba”) dawsoni en honor a su descubridor. Inglaterra, que hasta entonces no había contado con ningún hallazgo fósil de relevancia a pesar de ser la cuna de la teoría de la evolución, se cubrió de gloria científica. El hombre de Piltdown era mucho más antiguo que los neandertales, cuyos restos se habían encontrado en otros lugares de Europa y Asia, pero de los que solo había registro desde hace 230.000 años. Por tanto, los neandertales ‘franceses’ y ‘prusianos’ quedaban relegados a una segunda posición como rama colateral en la evolución humana.

Todo ello llevó a que Woodward y Keith fueran nombrados barones y a que a Dawson, fallecido en 1916, se lo recordara con una placa honorífica en Piltdown. Por si esto fuera poco, el lugar de los afortunados hallazgos fue declarado monumento nacional en 1950.

Sin embargo, en ese periodo las dudas sobre la autenticidad de los fósiles no se disiparon del todo y los nuevos descubrimientos en yacimientos de África y Asia comenzaron a contradecir el paradigma evolutivo que sugería el individuo de Piltdown. Es el caso, por ejemplo, del niño Taung, descubierto por el antropólogo australiano Taymond Dart (1893-1988) en Sudáfrica en 1924. El cráneo presentaba un excelente estado de conservación y su morfología recordaba a la de un simio: era muy pequeño, pero sus piezas dentales eran más semejantes a las humanas que a las de gorilas y chimpancés. Y aún había más: Dart afirmaba que el niño había caminado erguido, lo que le hacía aún más próximo a la especie humana. En 1925, se publicaron los resultados de su investigación en la revista Nature: el niño Taung recibió el nombre de Australopithecus africanus y su antigüedad fue datada en dos millones y medio de años. Pero la ciencia oficial no hizo mucho caso: el hombre de Piltdown era un peso pesado.

Reconstrucción de ‘Australopithecus africanus’ en el Museo de la Evolución Humana

El fin de la mascarada

Hubo que esperar a 1953 para que se descubriera la gran mentira. El geólogo del Museo de Historia Natural de Londres Keneth P. Oakley (1911-1981) dudaba de que los restos de Piltdown tuvieran la misma edad que los restos del estrato que supuestamente los contenía. Decidido a demostrar su corazonada, puso a punto un método de datación para calcular la edad relativa de los huesos fósiles a partir de su contenido en flúor. El fundamento del método es sencillo: la composición química del hueso puede verse alterada por la presencia de determinados elementos en las aguas filtradas a través de los sedimentos, como el flúor. De este modo, el incremento paulatino en flúor puede ayudar a distinguir huesos de edades diferentes aparentemente asociados en el mismo nivel estratigráfico.

El museo permitió a Oakley acceder a las piezas y, en 1950, descubrió que los restos de uno de los animales de Piltdown contenían un 2% de flúor, mientras que los fragmentos humanos tenían entre 0,1 y 0,4%. ¿Qué significaba esto? Que el hombre de Piltdown no superaba los 50.000 años. Pero había más dudas: ¿cómo era posible que Eoanthropus dawsoni tuviese mandíbulas similares a las de los monos cuando las de otros ancestros más antiguos eran iguales a las nuestras?

Izquierda: El cráneo del hombre de Piltdown, en una reconstrucción realizada por el Museo de Historia Natural de Londres. Derecha: cráneo de ‘Australopithecus africanus’ en el Augsburg Naturmuseum.

Oakley volvió a analizar las muestras utilizando nuevos métodos químicos, esta vez en colaboración con el paleoantropólogo británico W. E. le Gros Clark (1895-1971). Sus resultados demostraron que los restos fósiles de Piltdown habían sido teñidos con dicromático potásico para aparentar antigüedad y los dientes limados cuidadosamente para semejar un desgaste similar al de las piezas humanas. Los huesos del cráneo correspondían a los de un humano moderno mientras que la mandíbula y la pieza dental aislada a un orangután. En cuanto a los restos fósiles de mamíferos supuestamente presentes en la cantera de grava, se determinó que procedían de Malta o Túnez. Dataciones posteriores realizadas con radiocarbono fecharon la antigüedad del cráneo humano en unos 620 años.

En 1953, el periódico Times publicó que el supuesto ‘hombre’ de Piltdown era, en realidad, un fraude. El sentimiento de vergüenza nacional y la indignación fueron tales que la Cámara de los Comunes se planteó reducir los fondos del Museo de Historia Natural como castigo a la institución por no haber descubierto antes el engaño. Afortunadamente la flema británica se impuso y el museo quedó exonerado de culpabilidad.

Quienes no llegaron a sufrir las consecuencias de sus actos fueron los que la investigación histórica ha señalado como los artífices del engaño: Dawson, que murió en 1916, y su amigo desde 1909 Teilhard de Chardin, que falleció dos años después de que la mentira se desvelara, todavía como miembro de la Academia de las Ciencias de Francia. El papel controvertido de Woodward y Keith tampoco pudo esclarecerse con ellos en vida: el primero falleció en 1944 y los estudios que implican al segundo en el fraude no se difundieron hasta después de su muerte en 1955.

 

* Ana Rodrigo Sanz es directora del Museo Geominero del Instituto Geológico y Minero de España, recientemente adscrito al CSIC. Es también autora del libro de divulgación La edad de la Tierra (IGME-Catarata), del que ha sido adaptado este texto.

La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

El clavo: la especia protagonista de la primera vuelta al mundo

Por Esteban Manrique Reol (RJB-CSIC)*

A principios del siglo XVI, se desató en Europa una verdadera vorágine por el descubrimiento de nuevas tierras y tesoros. Durante las décadas y siglos siguientes, una inmensa cantidad de información cartográfica, semillas de plantas tropicales, especias, plantas medicinales y, sobre todo, especímenes vegetales inundaron los gabinetes de historia natural y los jardines botánicos europeos. Una de las plantas más emblemáticas de este periodo fue el clavo de olor. Sin duda, tenía todos los componentes para ser protagonista de una película de aventuras: intriga, ambición, riqueza, misterio…

Las especias no solo fueron muy importantes económicamente hablando, sino que también sirvieron para impulsar el crecimiento y el desarrollo del conocimiento del mundo natural y de la ciencia botánica en particular. En los siglos venideros, especialmente durante el siglo XVIII, las expediciones a los nuevos territorios ya siempre incluirían a geógrafos, geólogos, botánicos y zoólogos, entre otros naturalistas, pertenecientes a los más prestigiosos gabinetes de historia natural y jardines botánicos. La descripción exacta de la planta o el animal para su posterior reconocimiento, así como de sus hábitats naturales, pasó a ser un elemento importante de las expediciones.

Mapa de las islas Molucas, 1594. / Petrus Plancius/Claesz

El árbol del clavo de olor –conocido popularmente como ‘clavero’ (Sizygium aromaticum)­– puede alcanzar los seis metros de altura y sus flores reúnen una serie de características (sabor, olor, capacidad de conservación de alimentos, propiedades medicinales) que hicieron que esta especia fuera ya objeto de comercio en la Antigüedad. Hay restos arqueológicos del III milenio a. C. en Terqa, Siria, que nos hacen pensar que entonces ya había un activo comercio de clavo de olor entre Oriente Medio, la India y las islas del sudeste asiático, de donde es originaria la planta.

La misteriosa procedencia del clavo

Sin embargo, y a pesar de que las referencias sobre el clavo dadas por Plinio el Viejo en el siglo I apuntaban hacia la India, el origen del clavo fue un misterio durante muchos siglos. Hay que tener en cuenta la cantidad de relatos fantasiosos que transmitían los viajeros en la época de las grandes expediciones. Y, para mayor confusión, se sabe que algunos mapas se falseaban a propósito.

Sizygium aromaticum. Köhler’s Medizinal-Pflanzen (vol II, 1890)

El clavo de olor o aromático es, de todas aquellas especias asiáticas que alcanzaban Europa, por la que se llegaba a pagar los precios más altos. Fluctuaba mucho, pero se dice que el precio del kilo de clavo se tasaba en oro. Había, pues, un gran interés en mantener oculta su procedencia. Ejemplo de ello es el Atlas Miller elaborado en Portugal hacia 1519, que mostraba datos falsos para impedir que otros navegantes, particularmente españoles, pudieran llegar al lugar de las especias.

A mediados del siglo XV, Niccolò Da Conti se convirtió en el primer europeo en informar con cierta precisión sobre la procedencia de la especia. Esta información fue presentada por el monje y cosmógrafo Fra Mauro en su obra maestra, el Mapamundi (1459). De alguna manera, Da Conti estaba poniendo en manos de los portugueses el comercio mundial de las especias y propiciando la caída del monopolio veneciano y otomano en la comercialización de los productos provenientes del Oriente.

Mapamundi o hemisferio circular del Atlas Miller (c. 1519)

El dominio portugués

A partir de 1511, los portugueses se establecieron definitivamente en Asia y así tuvieron acceso directo a los mercados y productos del Lejano Oriente. Pronto, Alfonso de Albuquerque intentó establecer relaciones amistosas con los gobernantes locales y alianzas comerciales con proveedores de drogas y especias, clavo en particular. En 1513 los viajes entre los puertos portugueses en Malaca (en la actual Malasia) y Ternate (islas Molucas, actual Indonesia) llegaron a ser regulares. Jorge de Albuquerque fue nombrado capitán general de Malaca en 1514. En enero de 1515 envió una misiva del rey de Ternate a Manuel I prometiendo lealtad al soberano portugués, y también envió un regalo peculiar: un tronco de árbol de clavo y una pequeña rama con algunas hojas y capullos de flores. A partir de este momento los portugueses conocieron en detalle el aspecto del árbol y con ello se hicieron con el control de la producción y el comercio de clavo de olor.

Eran pues las islas Molucas el misterioso lugar donde crecía de forma exclusiva (endémica) el árbol del clavo de olor, pero solo lo hacía en las montañas de cinco islas del archipiélago. En concreto, los mejores clavos eran los provenientes de la isla de Ternate.

De la primera vuelta al mundo a la expansión del clavo

La lucha por el comercio del clavo no había hecho más que empezar. De hecho, esta especia fue la protagonista absoluta de la primera vuelta al mundo. Fernando de Magallanes, tras la negativa del rey Manuel I a financiar un nuevo viaje a su cargo, pues Portugal ya tenía establecida una ruta por oriente para llegar a las islas de las Especias, presentó en 1519 a Carlos I su audaz plan de una ruta alternativa viajando hacia el oeste: fue la expedición de Magallanes y Elcano (1519-1522). Después del largo viaje transoceánico de tres años de duración, la nave Victoria retornó a Sanlúcar de Barrameda tras realizar la primera circunnavegación de la historia. Aunque Magallanes murió en Filipinas, regresaron Juan Sebastián Elcano y Antonio Pigafetta, relator del viaje. En el informe presentado al emperador, el cronista italiano incluía una muy clara descripción del árbol de clavo.

El navegante Fernando de Magallanes descubrió en 1520 el Estrecho de Magallanes, durante la expedición española a las Molucas. Cuadro del pintor chileno Álvaro Casanova Zenteno (1857-1939)

Posteriormente, debido a la relevancia económica de esta especia, franceses y holandeses consiguieron sacar semillas de clavero de las islas originarias e introdujeron la planta en otras áreas tropicales. Los primeros en plantar el árbol del clavo fuera de su lugar de origen fueron los franceses, quienes lo introdujeron en las islas Mauricio durante el siglo XVIII. Más tarde se introdujo en el suroeste de la India, Sri Lanka, Zanzíbar y Madagascar.

Propiedades químicas del clavo y su uso en la actualidad

Además de los capullos de flores aromáticos, hay otras dos partes del clavero que se utilizan como especias: los pedúnculos florales y los frutos. El aroma proviene de varios compuestos volátiles que constituyen el aceite esencial del clavo y que se obtiene por destilación en etanol. La composición en principios activos y aromas es compleja e interesante ya que es la especia que tiene más cantidad de eugenol, el principal principio activo del aceite esencial.

En relación a su peso seco, el clavo contiene entre el 15 y el 20% de aceite esencial, en el que el eugenol es el principal componente (entre el 85 y el 95% del aceite esencial). El eugenol también se encuentra en otras especias como la nuez moscada (miristicáceas) y la canela (lauráceas). El químico italiano Ascanio Sobrero (1812-1888), descubridor de la nitroglicerina, aisló el eugenol a mediados del siglo XIX y, a partir de entonces, se empleó en medicina. Una de sus mayores propiedades es la de ser un eficaz antioxidante. De ahí su utilización en la conservación de alimentos.

Hoy el clavo como especia se sigue usando ampliamente en todas las cocinas del mundo. Su mercado no ha disminuido desde el siglo XV, sino muy al contrario. Son muchos los trabajos científicos que han publicado estudios de las propiedades terapéuticas del clavo o de los componentes de su aceite esencial, principalmente del eugenol. El tipo y número de productos en los que se añade el clavo de olor o su esencia ha ido creciendo exponencialmente en todos los sectores, tanto en medicina como en cosmética y, por supuesto, en la alimentación.

 

* Esteban Manrique Reol es doctor en biología y actual Director del Real Jardín Botánico de Madrid (CSIC). Este texto es una adaptación del capítulo que firma dentro del libro de la colección Divulgación En búsqueda de las especias. Las plantas de la expedición Magallanes-Elcano (1519-1522) (CSIC-Catarata), coordinado por Pablo Vargas. El libro se presenta el jueves 13 de mayo de 2021 a las 12:00 horas en el Real Jardín Botánico, en un acto con entrada libre que también podrá seguirse online.