Entradas etiquetadas como ‘CSIC’

El misterio de los ríos que se comportan como ríos

Por Daniel Bruno* (CSIC)

Un río no es estático, no sigue siempre el mismo curso. Si pudiéramos ver el trazado de un río pintado en un mapa a lo largo de los siglos veríamos que no es una mera línea azul, sino un intrincado conjunto de líneas que se contrae, expande, y cambia su curso a lo largo del tiempo. Las lluvias provocan crecidas naturales en los ríos; especialmente en los ubicados en la cuenca mediterránea, que periódicamente reciben episodios de lluvias torrenciales. Pero esto no es un misterio. Nunca lo ha sido. Pese a su poder destructivo si no se gestionan adecuadamente, las crecidas son necesarias tanto para el propio río como para el mar que va a alimentarse de él.

Los ríos no son meros canales de agua, su dinámica natural implica la ocupación periódica de sus cauces mayores e incluso la llanura de inundación durante las crecidas. Generalmente vemos esta realidad de manera sesgada por nuestra corta perspectiva temporal de lo que es un río. Solo en los últimos siglos hemos conseguido moldear esa dinámica fluvial a nuestros intereses y necesidades. Y lo hemos hecho básicamente gracias a dos estrategias: la construcción de embalses y la canalización de los ríos.

Crecida extraordinaria del río Ebro a su paso por Zaragoza, en abril de 2018. / Daniel Bruno

La falsa domesticación de los ríos españoles y sus consecuencias

Los ríos de España se encuentran entre los más regulados del mundo, con un mayor número de presas por kilómetro de río y una gran capacidad de agua embalsada (top 5 mundial) para la precipitación que se recibe. Somos el país de Europa con mayor número de grandes presas (1.200), duplicando a Turquía, segundo del ranking, según la Agencia Europea de Medioambiente (2018). La labor de presas y embalses para almacenar agua, laminar avenidas y producir energía es inestimable. Sin embargo, interrumpen el flujo de especies, agua y sedimento con graves implicaciones ecológicas y socioeconómicas. En el río Ebro, por ejemplo, están provocando que cada vez llegue menos sedimento al delta, lo que agrava su hundimiento, y afecta así a la pesca en el Mediterráneo, la formación de playas o la producción de arroz. Un impacto menos evidente de las presas es la interrupción del ciclo del fósforo. Con los grandes embalses impedimos que especies anádromas (aquellas que viven en el mar, pero durante su vida remontan los ríos para reproducirse y morir) migren aguas arriba transportando desde el mar al interior un elemento clave para la agricultura: el fósforo. Otro impacto social que pasa a veces desapercibido es la inundación de pueblos y de las tierras más fértiles para cultivos como consecuencia de la construcción de presas.

Una estrategia que se ha desarrollado en paralelo a la construcción de presas y embalses es la canalización y construcción de defensas laterales. Esto ha supuesto un estrangulamiento de los ríos y la degradación de las riberas fluviales con numerosos daños económicos en las zonas bajas. El levantamiento de defensas cada vez más altas, junto a los dragados y la eliminación de vegetación (mal llamada limpieza de cauces) son estrategias que solo aumentan el potencial efecto devastador aguas abajo al aumentar el poder erosivo del agua que discurre por el cauce. Con ello, se crea una falsa sensación de seguridad que nos lleva a construir cada vez más cerca del río.

En un contexto de cambio climático en el que las lluvias serán más irregulares y destructivas, siempre habrá un punto débil a lo largo del recorrido del río donde los daños sean máximos. Además, hay que tener en cuenta que la defensa hace de efecto barrera en las dos direcciones: si la avenida consigue superar la altura de la defensa o sube el nivel freático a la superficie (cuando hay crecidas el río también puede inundar “por debajo”, por filtración, como consecuencia de la subida del nivel freático), el agua tardará más en evacuarse de la zona anegada, con los correspondientes perjuicios económicos para estas tierras. Por tanto, las defensas fijas se deberían reservar exclusivamente para áreas urbanas en las que no hay posibilidad de alejar las edificaciones y darle espacio al río. Afortunadamente, la ciencia, la política y la gestión ambiental han identificado medidas más eficaces en las últimas décadas y nos encontramos inmersos en un cambio de paradigma potenciado por la Directiva Europea de Inundaciones (2007/60/CE) y su transposición al ordenamiento español (RD 903/2010). Este cambio está centrado en la gestión del territorio a escala de cuenca hidrológica para mitigar inundaciones.

Hay que empezar a interiorizar que las inundaciones tienen su origen en una mala gestión del territorio, en una mala planificación a nivel de cuenca hidrológica, especialmente en todo el territorio que queda aguas arriba del lugar donde estas se producen. En este sentido, se expone a la población a un riesgo que es, en la mayoría de los casos, evitable con una correcta gestión. Y existen herramientas tanto para mejorar esta gestión, como para que la población tenga información precisa y fiable de las zonas susceptibles de inundarse durante las crecidas y episodios de lluvias fuertes. El conocimiento nos permite tomar decisiones informadas. Por ejemplo, si fuera a comprarme una casa, consultaría con detalle si una vivienda se encuentra en una zona de alto riesgo de inundación, es decir con una probabilidad de inundación alta, cada 10 años de media.

Crecida del río Gállego a su paso por Zaragoza, en abril de 2018 / Daniel Bruno

De luchar contra el río a colaborar con él

El daño que genera una riada no depende solo de su magnitud sino de la exposición de la población a la misma. El nuevo paradigma en la gestión de ríos establece que la cuestión no es si un río mediterráneo se desborda o no, es decir, que se expanda más allá de su cauce habitual, sino dónde y cuándo lo hace para maximizar los beneficios y minimizar los daños. Esto implica primar la protección de núcleos urbanos a cambio de facilitar que el río ocupe esporádicamente su lugar en zonas no pobladas, como son zonas naturales y campos. Cuando dejamos espacio al río (alejando las defensas o haciéndolas permeables) o permitimos que se desborde de forma controlada (es decir, planificando a nivel de cuenca los lugares más óptimos) estamos disminuyendo la velocidad del agua y su destrucción aguas abajo. Además, al mismo tiempo, permitimos que multitud de funciones y servicios de los ecosistemas tengan lugar en nuestro propio beneficio.

Es comprensible que la medida pueda suscitar polémica en el sector agrícola que puede perder puntualmente sus cosechas, pero no hay que perder de vista que las avenidas son un proceso histórico y a la larga beneficioso para el río, para las riberas e incluso para los propios campos de cultivo, si sabemos gestionarlas adecuadamente. Por ejemplo, la resistencia a la inundación puede variar de unas pocas horas a semanas, dependiendo de la especie que se plante. No es casualidad que las vegas fluviales sean los terrenos más fértiles para la agricultura, dado que las crecidas e inundaciones aportan limos y nutrientes esenciales a las tierras bajas, y más en un futuro próximo donde los fertilizantes químicos o de síntesis podrían escasear. Además, unas riberas bien conservadas producen innumerables beneficios, como la mejora de la calidad del agua, la fijación de suelo o la disminución de la erosión, y actúan a su vez como corredor ecológico para numerosas especies de animales y plantas.

Por último, en los próximos años, la frecuencia e intensidad de los fenómenos extremos como las avenidas y las sequías aumentará, por lo que deberíamos pasar de una visión de dominancia sobre la naturaleza a una de convivencia, adaptación e integración de la dinámica fluvial en la planificación territorial. Solo si la ciencia, la naturaleza, la sociedad, la política y la gestión van de la mano aplicando el conocimiento científico en la toma de decisiones y en las medidas a implementar sobre el terreno tendremos la oportunidad de minimizar los daños y maximizar los beneficios de fenómenos naturales cada vez más extremos. Lo contrario traerá más sufrimiento del necesario para hacer frente al enorme reto que supone el cambio climático en curso.

 

*Daniel Bruno es investigador del CSIC en el Instituto Pirenaico de Ecología (IPE).

¿Es posible la recuperación del Mar Menor?

Por Juan Manuel Ruiz Fernández* y Mar Gulis (CSIC)

El ecosistema lagunar del Mar Menor experimentó hace seis años un repentino colapso que supuso el final de una larga etapa (más de cinco décadas) de presiones antropogénicas continuas y crecientes.

Uno de los primeros retos de la ciencia para recuperar el Mar Menor es identificar y cuantificar las causas del actual deterioro, lo que requiere necesariamente un adecuado conocimiento científico del Mar Menor y su funcionamiento. El Mar Menor es objeto de estudios científicos desde la primera mitad del siglo XX, como los realizados para valorar sus recursos pesqueros (Navarro, 1927), sus depósitos minerales y su posible interés para la industria minera (Simmoneau, 1973) o la dinámica del intercambio de agua con el Mediterráneo (Arabio Torre y Arévalo, 1971). Desde entonces, instituciones públicas como el Instituto Español de Oceanografía (IEO-CSIC), la Universidad de Murcia o el Instituto Geológico y Minero de España (IGME-CSIC) han desarrollado su actividad investigadora tanto en la albufera como en su cuenca vertiente, dando lugar a una creciente producción científica.

Las praderas de la angiosperma marina Cymodocea nodosa son un componente clave para el funcionamiento del ecosistema lagunar, aunque su pérdida en una amplia superficie del fondo es por ahora irreversible. / Javier Murcia Requena

Las praderas de la angiosperma marina Cymodocea nodosa son un componente clave para el funcionamiento del ecosistema lagunar, aunque su pérdida en una amplia superficie del fondo es por ahora irreversible./ Javier Murcia Requena

Sin embargo, si superponemos los resultados de todos estos estudios en un mapa del complejo entramado de compartimentos e interacciones que conforman el ecosistema lagunar (y los ecosistemas vecinos con los que se encuentra conectado: la cuenca vertiente y el Mediterráneo adyacente), comprobaremos que apenas hemos conseguido rasgar las capas más superficiales del conocimiento. Todavía tenemos importantes carencias en nuestro conocimiento más básico sobre cuestiones que son clave para comprender el estado actual del Mar Menor y sus causas.

Un claro ejemplo de eutrofización

El colapso experimentado por el Mar Menor se ajusta a un caso icónico (“de libro”) de proceso de eutrofización, y se une a una larga lista de casos similares documentados en otras zonas costeras, como Cheesapeak bay (USA) o las lagunas de Venecia (Italia). No obstante, entre otros muchos aspectos, existe un importante vacío de conocimiento sobre los ciclos biogeoquímicos en general, y del nitrógeno y del fósforo en particular, el principal desencadenante del proceso de eutrofización. Por tanto, la recuperación del Mar Menor debe pasar necesariamente por un programa serio y ambicioso de mejora del conocimiento científico, conectado e integrado a sistemas de análisis y predicción que apoyen la toma de decisiones.

Las proliferaciones masivas de macroalgas bentónicas como Caulerpa prolifera y Chaetomorpha linum son síntoma evidente del proceso de eutrofización y de los severos desequilibrios que experimenta el ecosistema lagunar. / Juan M. Ruiz

Las proliferaciones masivas de macroalgas bentónicas como Caulerpa prolifera y Chaetomorpha linum son síntoma evidente del proceso de eutrofización y de los severos desequilibrios que experimenta el ecosistema lagunar./ Juan M. Ruiz

Necesitamos un sistema de monitorización

Otro pilar importante de este plan de recuperación es disponer de un sistema de monitorización científica robusto y permanente, que permita obtener datos en continuo y de la forma más inmediata posible. La ausencia de un sistema de estas características ha dado lugar a todo tipo de especulaciones que no han hecho más que alimentar la demagogia política y, por tanto, confundir a la sociedad y a la opinión pública. Por ejemplo, se ha atribuido el deterioro del Mar Menor a eventos climáticos extremos como riadas (DANAs), olas de calor o episodios de calimas (polvo sahariano), lo que ha desviado la atención respecto al auténtico origen del problema: el exceso de nutrientes antropogénicos.

Este sistema de monitorización debe contemplar no solo la parte hidrográfica y oceanográfica, sino también los componentes biológicos del ecosistema, los procesos ecológicos implicados en su dinámica y el conjunto de su biodiversidad, que al fin y al cabo son los auténticos indicadores del estado del ecosistema y de su posible recuperación.

Biodiversidad en peligro

Muy a menudo se transmite la idea de recuperación a medida que el agua gana en transparencia, lo que no tiene base científica alguna. No se puede hablar de recuperación si el ecosistema lagunar ha perdido el 85% de sus praderas marinas, que a fecha de hoy no han mostrado síntomas de recuperación; o si la Nacra (Pinna nobilis), especie prácticamente extinta en el Mediterráneo español, ha pasado de tener una población del orden de 1,4 millones de individuos a unos pocos cientos. Ambos elementos, Nacra y praderas marinas, ejercieron probablemente un papel clave en el control de los nutrientes de la laguna, pero estos mecanismos de resiliencia hoy día han quedado notablemente debilitados. Especies tan singulares y vulnerables, estrechamente ligadas a las praderas marinas, como el caballito de mar y las agujas (varias especies de Sygnátidos) han experimentado un declive tras el colapso ecosistémico de la albufera.

Especies de peces tan características y singulares como los de la familia de los Sygnátidos (en la imagen) y los caballitos de mar han visto mermadas sus poblaciones en los fondos del Mar Menor hasta mínimos históricos./ Javier Murcia Requena

Especies de peces tan características y singulares como los de la familia de los Sygnátidos (en la imagen) y los caballitos de mar han visto mermadas sus poblaciones en los fondos del Mar Menor hasta mínimos históricos./ Javier Murcia Requena

Éstos son solo unos pocos ejemplos de las especies más emblemáticas, pero ¿qué ha pasado con el resto de la biodiversidad? ¿cómo han afectado estos cambios al funcionamiento del ecosistema? Como se conoce en ecología marina, los cambios observados en unos niveles del ecosistema pueden ser transmitidos al resto de niveles en lo que se conoce como “efecto cascada”, tanto desde los niveles basales (bottom-up) como desde los apicales (top-down). El resultado final es un nuevo estado del ecosistema que tiene consecuencias incluso a nivel socioeconómico, tal y como se empieza a sentir en sectores como la pesca y el turismo. Sin embargo, ni los estudios disponibles ni los datos de los programas de monitorización existentes nos permiten evaluar dichas consecuencias y su evolución.

A tiempo de actuar

Estamos a tiempo de recuperar el Mar Menor y su entorno, y todas las iniciativas orientadas a subsanar las deficiencias mencionadas en los puntos anteriores contribuirán a tal fin. Hasta la fecha, la apuesta más clara y contundente ha venido por parte del gobierno de España, a través del Ministerio para la Transición Ecológica, que ha invertido 485 millones de euros en un amplio programa de actuaciones con diferentes objetivos entre los que se encuentra el de reforzar el conocimiento científico y establecer un sistema de monitorización.

El IEO-CSIC es el responsable de gestionar e implementar este punto en el ámbito de la laguna (los responsables en el ámbito de la cuenca son la Dirección General de Agua y la Confederación Hidrográfica del Segura). Para ello hemos desarrollado un programa específico dotado de unos 5 millones de euros denominado BELICH, que es como los romanos se referían al Mar Menor.

El programa implica la puesta en marcha de un sistema avanzado de monitorización compuesto por diferentes tipos de plataformas completamente sensorizadas (boyas oceanográficas, plataformas sumergidas, mareógrafos, etc.), un servicio de monitorización remota a partir de datos satelitales (mapas de clorofila y otras variables ópticas de interés) y un programa de monitorización in situ, es decir, a partir de mediciones realizadas en muestras de agua. Estas mediciones permitirán calibrar los datos obtenidos de los diferentes sensores y obtener información de otras variables; en particular, aquellas relacionadas con la composición y abundancia de comunidades bacterianas, fitoplancton y zooplancton.

Más investigación básica

Lo anterior representa la parte más básica del sistema, pero necesita ser complementado para poder comprender e interpretar la información obtenida en un contexto adecuado. Para ello se ha propuesto un grupo de trabajo dedicado exclusivamente a obtener conocimiento científico de aspectos clave del funcionamiento del ecosistema, como el origen y las rutas de los nutrientes que alcanzan la laguna o los procesos de asimilación, transformación, almacenamiento y escape del nitrógeno y del fósforo, precursores del proceso de eutrofización.

El cangrejo Carcinus aestuarii era muy abundante en el Mar Menor. Su declive puede estar relacionado con la transformación del ecosistema, pero también por la llegada de un cangrejo invasor, Callinectes sapidus o cangrejo azul./ Juan M. Ruiz

El cangrejo Carcinus aestuarii era muy abundante en el Mar Menor. Su declive puede estar relacionado con la transformación del ecosistema, pero también por la llegada de un cangrejo invasor, Callinectes sapidus o cangrejo azul./ Juan M. Ruiz

Los resultados de estos trabajos de investigación servirán además para alimentar y calibrar modelos numéricos capaces de simular los procesos hidrodinámicos y biogeoquímicos que rigen la dinámica actual del ecosistema lagunar, incluidos los episodios de desarrollo explosivo del fitoplancton, los eventos de anoxia o la mortalidad masiva de organismos marinos. Estos modelos, una vez ajustados a la variabilidad espacial y temporal propia del Mar Menor, podrán servir para predecir los efectos de nuevos eventos climáticos (riadas) y del calentamiento global o la respuesta del ecosistema a acciones específicas de gestión (por ejemplo, la reducción de entradas de nutrientes y de sedimentos terrígenos o la alteración de los flujos de agua entre la laguna, su cuenca y el Mediterráneo).

En esta misma línea se realizarán evaluaciones experimentales sobre la viabilidad y eficacia de métodos y propuestas de restauración de las funciones y servicios ecosistémicos. Todos los datos y el conocimiento generados, así como los modelos obtenidos, deberán confluir en una plataforma digital capaz de integrar y procesar toda esta información que sirva de herramienta de gestión y apoyo a la toma de decisiones.

El desarrollo de este sistema es un gran reto científico. Sin embargo, nada de este esfuerzo tendrá sentido si no existen mecanismos de coordinación e integración dentro y entre los diferentes programas y equipos, y será un fracaso total si, una vez conseguido, no somos capaces de derivar todo lo invertido en infraestructuras permanentes que garanticen series temporales de datos en continuo y a largo plazo, que es lo que en realidad provee al personal científico y de gestión de las herramientas adecuadas para responder a las demandas de la sociedad y asistir a la recuperación del Mar Menor.

 

*Juan Manuel Ruiz Fernández es investigador del CSIC en el Instituto Español de Oceanografía

Astrocitos: estrellas que hablan en nuestro cerebro

Por Irene Serra Hueto (CSIC)*

Seguro que has oído alguna vez que nuestro cerebro es el ordenador más potente del mundo. Ahora bien, ¿en qué piensas cuando te preguntan de qué está formado? Lo más probable es que lo primero que te venga a la cabeza sean las neuronas. No está mal, pero para que esta máquina tan singular funcione con todo su potencial necesita del trabajo de otras células igual de importantes. Entre ellas se encuentran los astrocitos, que reciben su nombre de las estrellas.

Empecemos por el principio. El cerebro funciona gracias a que las neuronas transmiten información a través de corrientes eléctricas. Los puntos de conexión entre una neurona y otra se conocen como sinapsis. En ellas se liberan sustancias llamadas neurotransmisores que permiten que el impulso eléctrico continúe de una neurona a otra. En este punto de conexión, en este diálogo entre las neuronas, el astrocito juega un papel fundamental, modulando y regulando la comunicación entre ellas.

Nuestro cerebro habla bajo sus propias reglas. Esquema de una sinapsis cerebral donde se intercambia la información entre las células, como en una conversación de WhatsApp. / Irene Serra. Células creadas con Biorender.com.

¿Qué ventajas puede tener una conversación a tres? Este sistema, más complejo que una conversación a dos, permite más variedad de mensajes y añade un elemento mediador que asegura que la información se transmite correctamente, el astrocito. La cuestión es que no tenemos un solo astrocito por cada sinapsis. En ratones, una sola de estas células es capaz de modular, mediar y participar en más de 100.000 sinapsis simultáneamente. Es como si un único astrocito estuviese presente y hablando en 100.000 grupos de WhatsApp al mismo tiempo. En humanos, un solo astrocito interviene en 2 millones de sinapsis. Es decir, que nuestros astrocitos tienen 20 veces más capacidad de procesar información… Y, además, tenemos millones de ellos. ¿Y si la explicación (o, al menos, parte de ella) a nuestra inteligencia residiera en el gran refinamiento que los astrocitos aportan a nuestro cerebro?

Para poder contestar esta pregunta necesitamos saber más. Precisamente, mi investigación en el Instituto Cajal (IC) del CSIC se centra en estudiar los circuitos astrocito-neurona; en concreto, los que se establecen en el núcleo Accumbens, la zona del cerebro que se activa cuando algo nos gusta. Esta zona recibe información de otras regiones del cerebro relacionadas con la memoria (hipocampo), las emociones (amígdala) y la toma de decisiones (corteza prefrontal), y es muy importante porque se ve afectada, entre otros casos, en trastornos de adicción.

Ejemplo de cómo es la información que pasa por el núcleo Accumbens vista desde una conversación de WhatsApp./ Irene Serra

Sabemos que los astrocitos son parte fundamental de la regulación de este núcleo y, desde hace poco, también que el cerebro tiene distintos tipos de astrocitos, del mismo modo que tiene distintos tipos de neuronas. Sin embargo, todavía no hemos comprendido en profundidad para qué son los astrocitos diferentes entre ellos ni cómo son de diferentes. En el núcleo Accumbens, ¿tenemos astrocitos especializados regulando la información de recuerdos de aquello que nos gusta? ¿Hay otros asociados a las emociones? ¿Intervienen en los circuitos de toma de decisión?

Un sensor de calcio para superar las limitaciones de los microscopios

En el último trabajo publicado por el Laboratorio de Plasticidad Sináptica e Interacciones astrocito-neurona del IC-CSIC, dirigido por Marta Navarrete, profundizamos en estas preguntas y presentamos una nueva herramienta que nos ha permitido estudiar, por primera vez, la actividad de los astrocitos a gran escala y con precisión temporal. Se trata de CaMPARIGFAP, un sensor de calcio con el que hemos podido observar el núcleo Accumbens al completo y detectar qué astrocitos responden a un estímulo concreto.

El tamaño de las lentes de los microscopios es limitado y hace que no sea posible observar al mismo tiempo todos los astrocitos de una región cerebral. La particularidad de CaMPARIGFAP es que detecta, mediante la fluorescencia, el calcio que emiten los astrocitos cuando se activan. Es como hacer una foto: al enviar un ‘flash’ de luz violeta, los astrocitos inactivos se muestran en verde y los activos en rojo. De este modo, podemos analizar cómo responden regiones amplias del cerebro a un estímulo determinado.

Tejido del núcleo Accumbens en el que cambia el color de CaMPARIGFAP según la actividad de los astrocitos. / Irene Serra

Utilizando esta herramienta hemos descubierto que los astrocitos del núcleo Accumbens forman redes funcionales que responden de diferente forma según la procedencia de los estímulos -memoria, emociones o decisiones­-. Los resultados indican que los astrocitos son capaces de distinguir de dónde viene la información y, también, que integran las diferentes señales en un procesamiento paralelo al de las neuronas. Todo apunta a que los astrocitos están mucho más especializados en los circuitos cerebrales de lo que pensábamos.

Comprender en detalle cómo interaccionan con las neuronas y cómo regulan la información que llega de las diferentes zonas del cerebro nos acercaría mucho a encontrar soluciones eficaces para tratar la adicción. Y eso solo en el núcleo de Accumbens: llegar a entender cómo interaccionan los astrocitos en otras regiones cerebrales nos permitiría comprender mucho mejor el potencial de nuestro cerebro, que a día de hoy esconde tantos misterios como el universo.

*Irene Serra Hueto es investigadora predoctoral en el Laboratorio de plasticidad sináptica e interacciones astrocito-neurona del Instituto Cajal del CSIC, dirigido por Marta Navarrete.

La polémica construcción del Teatro de la Zarzuela: ¿Un género para la corte?

Por Mar Gulis (CSIC)

Si te ha tocado en suerte o en desgracia (dependiendo de si un foco te tapa la mitad de la escena) asistir al Teatro de la Zarzuela desde el tercer piso, seguro que has sido testigo de la curiosa heterogeneidad de espectadores que allí convergen. Desde quienes tienen por costumbre acudir a la obra con sus binoculares y programa de mano estudiado; hasta esos otros que esperan para poder comprar las entradas “último minuto” y toman asiento cuando ya se han apagado las luces, momento en el que se desplazan a una visión más central. La obra comienza con el teatro lleno y la actitud del público vuelve a ser de lo más variopinta: se dan cita quienes piden el silencio sepulcral que les pertenece para analizar la obra con los que tararean al ritmo de su pieza emblema. Entre ambos grupos surge una pugna cuya tensión aumenta o no en función de quienes ocupen ese día las localidades (e incluso de la popularidad de la obra representada). A veces hay un claro bando ganador, y otras, quedas con la sensación de no acabar de entender muy bien a quién pertenece verdaderamente este género patrio.

Interior del Teatro de la Zarzuela visto desde el escenario.

Interior del Teatro de la Zarzuela, s. XXI. / Teatro de la Zarzuela

Todo esto cobra sentido si se tiene en cuenta el propio origen de la Zarzuela, que debe su nombre al representarse en el siglo XVIII en el Real Sitio de El Pardo -paraje de espinos y zarzas- dramas con música compuestos por Lope o Calderón. Con el devenir de la historia, la zarzuela salió de palacio para entrar en los teatros, pero entonces se dio de bruces con dos grandes realidades: críticos y entendidos la mantenían a la sombra de la gran ópera italiana; y el éxito de las obras empezaba a depender de las cancioncillas que las gentes de clase más humilde tarareaban en las plazas de Madrid. Todo esto llevó al género lírico español a mantener una existencia precaria a lo largo de los siglos, hasta su práctica extinción. Y es que: ¿a quién pertenecía ahora este género de origen palaciego, pero ya de argumento costumbrista? ¿Era posible salvarlo?

El intento más interesante a la hora de definir e institucionalizar la zarzuela vino consolidado por la construcción del Teatro de la Zarzuela en Madrid (el primero dedicado en exclusiva al género), cuya accidentada historia recoge la investigadora del CSIC Carmen Simón Palmer en el artículo Construcción y apertura de teatros madrileños en el s. XIX (Editorial CSIC, 1974), que vale la pena traer a colación para entender y dar respuesta a todas estas cuestiones.

En él se señala que a finales de la primera mitad del siglo XIX ya hubo campañas para crear una ópera nacional, en español, que no quedaron más que en “algunos folletos, artículos periodísticos y ensayos no muy afortunados”. Todo esto no se consolidó hasta que, bajo la iniciativa privada del banquero Francisco de la Rivas, un grupo de artistas -entre los que se encontraba Barbieri-, decidió crear la sociedad “La España musical”, que se dedicó a introducir avances literarios y musicales al género de la zarzuela. Este se revitalizó con tanto éxito que pronto resultó conveniente la idea de crear un teatro propio y dejar de pagar el excesivo alquiler que pedían establecimientos como el Teatro del Circo para estrenar las obras. La zarzuela no estaría en Palacio para un público de corte aristocrático, pero tampoco sería el género “bastardo” que poblaba las calles. Este espacio estaría destinado a un público burgués al que se le ofrecerían dramas líricos que nada tendrían que envidiar en cuanto a calidad a las grandes óperas italianas.

La prensa en contra de un “género bastardo”

Una vez se firmó el contrato para construir este esperanzador espacio en la calle Jovellanos (tomando como modelo la Scala de Milán), se solicitaron al ayuntamiento los permisos de construcción. Estos fueron ampliamente aceptados al cumplir el proyecto con la normativa de incendios (que ya habían acabado con varios teatros de la época) y ser propuesta una fachada de estilo entre toscano y arabesco con grandes medallones de compositores líricos españoles, que guardaba relación con el género del teatro. Así, el 6 de marzo de 1856, Carmen de la Rivas (hija de Francisco) colocaba la primera piedra de una obra que, con suerte, estaría finalizada en poco más de medio año. Y aquí hay que hablar de suerte porque la prensa siempre había mostrado una postura contraria a este proyecto que significaba la “salvación” del género y no dudó en poner todas las trabas posibles a su ejecución.

Plano de la planta del Teatro de la Zarzuela.

Planta del Teatro de la Zarzuela, 1856. / Gerónimo de la Gandara

La campaña de desprestigio comenzó -casi a la par que las obras- con esta polémica: los promotores solicitaron al ayuntamiento que revisasen las obras, pero esto fue algo que muchos no llegaron a entender, teniendo en cuenta que este era un proyecto privado. Finalmente, el ayuntamiento cedió y se concedieron dos revisiones al mes, pero el Teatro de la Zarzuela ya se encontraba bajo el ojo público. La siguiente polémica llegaba en el mes de mayo, cuando se decidió suprimir las localidades de quinto orden para mejorar la visibilidad, pero la prensa comenzó a infundir rumores de que la decisión obedecía a motivos económicos. En medio de toda esta tensión, el diario La Iberia sentenciaba en el mes de julio en un artículo titulado Bombo y platillo: “Todo lo que se relaciona con el nuevo teatro de Jovellanos, destinado a la Zarzuela adquiere en boca de ciertos interesados para encumbrar este género bastardo una importancia de que carece”. Las auténticas razones del malestar de la prensa se ponían así de manifiesto.

A pesar de todo esto, ahora que las obras estaban bastante avanzadas, era el momento de que los artistas presentaran sus proyectos para decorar el que iba a ser “uno de los principales teatros de la corte y el más importante debido a la iniciativa privada”, tal y como recoge el artículo de la investigadora del CSIC. Las pinturas del techo se encargaron a Manuel Castellanos, que propuso cuatro grandes cuadros alegóricos de la poesía y la música que serían embellecidos con adornos renacentistas y una moderna araña construida en París. Con todo prácticamente a punto, hizo su aparición la Real Academia de San Fernando, reclamando no haber sido informada de la construcción del teatro, por lo que resultaba ilegal. Sin embargo, esta nueva polémica quedó zanjada al alegar de la Rivas, que teatros semejantes de iniciativa privada se habían erigido sin oposición por parte de la Academia. La Iberia, una vez más, aprovechaba la ocasión para afirmar que a la empresa “no le llegaba la camisa al cuerpo, temerosa de que sus santos propósitos se convirtieran en humo”. Ahora sí, superados todos estos contratiempos, era hora de que comenzasen a barajarse los nombres que constituirían la compañía del nuevo teatro, así como los de los autores dramáticos que tendrían la oportunidad de estrenar sus obras para “hacer más gloriosa y digna la apertura del Teatro de la Zarzuela”.

Parece casi un milagro afirmar que las obras cumplieron con los plazos previstos y se pudo albergar la función inaugural el 10 de octubre, fecha que se había escogido al coincidir con el cumpleaños de la reina. Al esperado estreno acudió lo más selecto de la corte, que no prestó tanta atención a la obra musical como al lujo con el que todo estaba dispuesto y a la ostentosa decoración… De hecho, la crítica finalmente etiquetó el espacio como “muy superior a todos los de la corte, después del regio coliseo”.

Fotografía en blanco y negro (1929) del interior del Teatro de la Zarzuela visto desde el escenario.

Interior del Teatro de la Zarzuela, 1929. / Anónimo

Todo habría sido perfecto de no ser por el desaire de la reina, que no acudió al estreno aludiendo a que tenía “besamanos y baile en palacio”. La pieza que cerró aquel 10 de octubre fue una alegoría de la zarzuela de Barbieri, Arrieta y Gaztambide en la que Carolina di Franco simbolizaba a la música francesa, Adelaida Latorre a la italiana e Isabel Valentín a la zarzuela, “que finalmente quedaba libre e independiente”. Asumiendo este final tan redondo de un espacio concebido para la burguesía, estrenado para la corte y que llegó a abrirse más tarde a una clase popular, parece oportuno volver al comienzo de este artículo para preguntarnos: la zarzuela, libre e independiente, pero, ¿de quién?

*Artículo basado en Construcción y apertura de teatros madrileños en el s. XIX de Carmen Simón Palmer, investigadora en el Instituto de Lengua, Literatura y Antropología del CSIC.

Extractos vegetales o aditivos E: ¿cuál es la mejor opción para conservar los productos cárnicos?

Por Mónica Flores (CSIC) * y Mar Gulis (CSIC)

En los últimos 40 años, el consumo de alimentos de origen animal ha aumentado considerablemente, sobre todo en los países asiáticos. Hoy, la demanda de este tipo de alimentos se encuentra al mismo nivel en América y Europa que en China. En paralelo a este proceso, la demanda de productos cárnicos se ha visto afectada por la preocupación por el bienestar animal y por el consumo de alimentos orgánicos. En este sentido, una de las tendencias de mercado más importante está siendo la eliminación de aditivos y, por tanto, de los números E de las etiquetas.

Entre los aditivos más afectados por esta dinámica se encuentran los denominados “agentes de curado”, es decir, el nitrito potásico y sódico (E 249 y E 250) y el nitrato sódico y potásico (E 251 y E 252). Estos agentes se emplean en la elaboración de muchos productos cárnicos -como el jamón serrano y cocido, el chorizo, el salchichón, etc.- para mantener su seguridad y sus características organolépticas (color, aroma y sabor).

De hecho, en el ámbito internacional el término “curado” hace referencia al uso de sales de nitrito y nitrato junto con cloruro de sodio y otros ingredientes como conservantes de la carne. El nitrito es el principio activo que produce el efecto conservante mientras el nitrato actúa como fuente de nitrito en los procesos largos de secado y maduración de los productos.

Pros y contras de los aditivos E

El empleo de este tipo de aditivos en los productos cárnicos ha sido respaldado por la Agencia Europea de Seguridad Alimentaria (EFSA), que en el año 2003 concluyó que son fundamentales para proteger los alimentos frente al bacilo Clostridum botulinum, causante del botulismo. En la misma línea se ha pronunciado la Agencia Francesa de Seguridad y Salud Alimentaria, Ambiental y Ocupacional (ANSES) en su “Evaluación de riesgos relacionados con el consumo de nitratos y nitritos”. El informe, publicado en 2022, indica que los nitritos y nitratos contribuyen eficazmente a limitar el desarrollo de agentes patógenos como Listeria, Salmonella o Clostridium botulinum.

Estos aditivos, por tanto, son excelentes antimicrobianos y antioxidantes que permiten que tengamos unos productos cárnicos seguros y con propiedades sensoriales características. A pesar de ello, nitritos y nitratos se encuentran en el punto de mira debido a que pueden dar lugar a la formación de las denominadas nitrosaminas, agentes cancerígenos formados por la reacción del nitrito residual en los productos cárnicos con aminas secundarias. Por eso, la ESFA recomienda restringir su uso en los productos cárnicos al mínimo posible.

En cualquier caso, conviene no olvidar que la principal fuente de exposición humana a los nitratos es el consumo de verduras y hortalizas, no el de carne: el 80% de la ingesta total de nitratos procede de dichos alimentos. Estos nitratos son resultado del empleo de fertilizantes en los cultivos, aunque el contenido en nitratos de los vegetales varía mucho según la parte anatómica del vegetal que se consuma y de las prácticas agrícolas.

Por su parte, la fuente más importante de nitrito en la dieta es el consumo de alimentos y agua que contienen nitrato, el cual se convierte en nitrito en la saliva por acción de las bacterias orales. Un informe de la EFSA de 2017 señala que la contribución de los nitritos por su uso como aditivos alimentarios (principalmente en productos cárnicos) representa aproximadamente un 17% de la exposición total a los nitritos.

El auge de los productos ‘etiqueta limpia’

Aun así, en los últimos años se ha acentuado la búsqueda de alternativas a los nitrificantes para crear productos ‘etiqueta limpia’ (clean label). A principios del siglo XXI, en Estados Unidos se propuso el empleo de extractos vegetales con altos contenidos de nitratos para la fabricación de productos cárnicos. Los extractos vegetales, fermentados o no, que se han comercializado en el país anglosajón con estos fines proceden del apio y, en menor medida, de la remolacha, la lechuga, la espinaca, la acelga o la zanahoria, todos ellos ricos en nitrato, así como de la acerola y las cerezas, que aportan ascorbato.

Sin embargo, esta estrategia de sustitución plantea limitaciones, como las debidas al posible aporte de aromas vegetales y pigmentos procedentes del extracto. Además, en estos extractos la concentración de nitrato y nitrito es variable y requiere la adición de bacterias que permitan la formación del nitrito. Al ser el nitrito el verdadero agente antimicrobiano en los productos, el desconocer la dosis real de nitrito empleada conlleva riesgos de seguridad alimentaria y requiere el empleo de otras sustancias antimicrobianas.

Además, esta estrategia no impide que en el caso de que exista nitrito residual se formen nitrosaminas, por lo que el riesgo de formación de las sustancias cancerígenas sigue existiendo. Incluso otros contaminantes presentes en los extractos vegetales, como micotoxinas, metales pesados y contaminantes orgánicos, pueden ser transferidos al producto cárnico.

Por último, una de las principales limitaciones en el uso de extractos vegetales es su posible potencial alergénico. De hecho, el apio está incluido en el listado de alérgenos identificables en la Unión Europea.

Autorizados en EEUU y Canadá, pero no en Europa

En Estados Unidos y Canadá esta práctica está autorizada, pero ha creado cierta polémica por el empleo de mensajes como “no curado” en el etiquetado de los productos cárnicos procesados con extractos vegetales, ya que pueden confundir a los consumidores, que no entienden las prácticas realizadas. Por ello, se exige que el etiquetado sea preciso y no engañoso.

En Europa, la EFSA realiza la evaluación de la seguridad de los aditivos. Sus criterios de seguridad establecen que los aditivos no deben contener residuos que puedan presentar algún riesgo de tipo toxicológico. En este sentido, los extractos vegetales no presentan los mismos criterios de pureza que los aditivos agentes de curado e impiden una correcta evaluación de su seguridad. Este aspecto es muy importante, pero desconocido para los consumidores, que perciben más naturalidad en un extracto vegetal que en un aditivo, lo que conlleva falsas apreciaciones.

* Mónica Flores es investigadora del CSIC en el Instituto de Agroquímica y Tecnología de Alimentos.

Fibra óptica, implantes médicos o paneles solares: ‘La Edad del Vidrio’ ya está aquí

Por Mar Gulis (CSIC)

Te encuentras atravesando un espeso bosque lleno de secuoyas cuando de repente un sonido familiar se oye a lo lejos, repetitivo, cada vez más elevado, hasta que, ¡ZAS!, te percatas de que se trata de la alarma del móvil. Es la hora de ponerse en pie… Te pones las gafas y miras la pantalla: las 7:00 h, comienza un nuevo día. Te lavas la cara frente al espejo, te cepillas los dientes y te asomas por la ventana. Ves que hace un sol radiante, promete ser un gran día. Mientras abres el tarro de una deliciosa mermelada y pones la cafetera en la vitrocerámica, enciendes el portátil para ver si hay alguna novedad. La jornada comienza bien a pesar de que un mensaje te recuerda que hoy tienes cita para ponerte un implante dental y que además te toca la siguiente dosis de la vacuna.

Esta podría ser una mañana más en la vida de una persona cualquiera, pero en esas primeras horas ya aparecen varios elementos en los que el vidrio juega un papel determinante. Aunque no hayas reparado en ello, la lente de las gafas, la pantalla del móvil, el espejo, el acristalamiento de la ventana, la placa vitrocerámica, la fibra óptica que te permite navegar por Internet y los envases que aseguran la correcta conservación de alimentos y vacunas están hechos de vidrio… Este material está presente en todo tipo objetos, algunos de ellos tan sorprendentes como los implantes de piezas dentales o los dentífricos que emplean nanopartículas de vidrio.

Descubierto por casualidad en Siria hace 5.000 años, cuando unos mercaderes utilizaron natrón para apoyar sus ollas sobre las fogatas en las que iban a cocinar, en la actualidad el vidrio nos rodea, forma parte de nuestras vidas. No es de extrañar, por tanto, que haya sido el primer material en protagonizar una conmemoración internacional, la correspondiente al año 2022, declarado por Naciones Unidas Año internacional del Vidrio.

El vidrio es uno de los materiales más transformadores de la historia de la humanidad. A lo largo de la historia ha desempeñado importantes funciones en la arquitectura, los artículos para el hogar, los envases… Y hoy es un elemento esencial en sectores clave como el de la energía, la biomedicina, la información y las comunicaciones o la óptica y la optoelectrónica.

Una exposición para descubrir las aplicaciones del vidrio

¿Sabías que existen vidrios diseñados para disolverse dentro del cuerpo humano? ¿O que es posible fabricarlos para que emitan luz en la oscuridad? Entre otras muchas aplicaciones, el vidrio resulta indispensable en los paneles solares y las palas de las turbinas eólicas que nos proporcionan energía limpia, la conservación de vacunas como las diseñadas para hacer frente al virus de la COVID-19, la curación de tejidos dañados o la fabricación de implantes.

Precisamente de sus aplicaciones nos habla la exposición itinerante y virtual La Edad del Vidrio, elaborada por el Consejo Superior de Investigaciones Científicas (CSIC) con apoyo de la Fundación Española para la Ciencia y la Tecnología (FECYT). A través de ellas, la muestra invita al público a averiguar todo lo que este material puede hacer para ayudarnos a alcanzar los Objetivos de Desarrollo Sostenible de la ONU: 17 retos globales encaminados a erradicar la pobreza, proteger el planeta y asegurar la prosperidad de sus habitantes.

Exposición La Edad del Vidrio en la Biblioteca Municipal Eugenio Trías (Madrid) / Laura Llera

Por el momento, la muestra podrá visitarse del 4 al 27 de octubre en el parque de El Retiro de Madrid y del 2 de noviembre al 11 de diciembre en la Real Fábrica de Cristales de La Granja (Segovia), aunque después seguirá recorriendo otros lugares. Además, sus contenidos se encuentran también completamente disponibles en la web www.edaddelvidrio.es. En ella, podrás navegar por la exposición en castellano o inglés, descargártela y escuchar sus audioguías, que también puedes encontrar en las principales plataformas de audio (Ivoox, Spotify, Google podcast, Apple podcast o Amazon music), buscando ‘La edad del vidrio’.

Experimentos y propuestas didácticas

Además, si quieres profundizar en la exposición de manera lúdica y didáctica, también encontrarás materiales educativos para ESO y Bachillerato que estimulan la creatividad e invitan al debate. Sus contenidos incluyen un endemoniado juego de Verdadero o falso relacionado con las aplicaciones del vidrio o una Sopa de letras en las que buscar términos relacionados con este material. Crear una tabla periódica vidriera, convertirse en un superhéroe o una superheroína del clima o diseñar una campaña de sensibilización para fomentar el reciclaje del vidrio son otras de las actividades propuestas.

Y para quienes decidan adentrarse en el mundo del vidrio de forma más práctica (y dulce), también hay experimentos. Con ellos se pueden crear cristales de azúcar y  experimentar con algunas de las propiedades del vidrio con poco más que unos caramelos, un martillo y una bandeja de hielos. La actividad te ayudará a comprender el proceso de fabricación del vidrio y a entender por qué, en las películas, el vidrio que se quiebra, estalla o explota, rara vez es vidrio real… De hecho, se trata de vidrio falso hecho a partir de azúcar para que nadie resulte herido.

En cualquier caso, aunque haya vidrios fake, el verdadero vidrio está muy presente en nuestras vidas y juega un papel fundamental en el mundo contemporáneo. Descúbrelo navegando por la exposición y descargando sus unidades didácticas y sus fichas de experimentos de manera gratuita. ¡Que su transparencia no lo haga pasar desapercibido!

¡Participa con tus fotos en la nueva edición de FOTCIENCIA!

Por Mar Gulis (CSIC)

Si te gusta el arte, la fotografía y eres capaz de ver la ciencia que nos rodea en la vida cotidiana, es el momento de participar en FOTCIENCIA19. Tanto si te dedicas a la ciencia como si no, esperamos tus imágenes: lo importante es que reflejen algún aspecto relacionado con la ciencia o la tecnología. Eso sí, no lo dejes pasar mucho tiempo, porque el plazo de participación estará abierto hasta el próximo 3 de noviembre de 2022 a las 13:00 h, hora española peninsular.

Todos los años, FOTCIENCIA realiza una selección de fotografías de fotografías de temática científica. En esta edición, al igual que en las anteriores, las mejores imágenes recibirán una remuneración de hasta 1.500 € y alrededor de unas cincuenta serán elegidas para formar parte de un catálogo y una exposición itinerante que recorrerá España durante 2023-24. Ahora mismo, de hecho, puedes visitar la exposición de la edición anterior, FOTCIENCIA18, y consultar el catálogo para hacerte una idea de cómo quedarían tus fotos si resultasen seleccionadas. Un poco más abajo de estas líneas verás un breve vídeo inspirador.

Hay seis modalidades para participar: las dos básicas, que son Fotografía general y Microscopía; y cuatro modalidades específicas: Alimentación y nutrición, Agricultura sostenible, La ciencia en el aula (que está dirigida a estudiantes de secundaria y ciclos formativos) y, como no podía ser menos en esta edición, una modalidad especial centrada en el Año Cajal.

Con esta conmemoración vamos a poder redescubrir al genial Santiago Ramón y Cajal (1852-1934), que obtuvo el Premio Nobel en Medicina en 1906 por sus trabajos sobre el sistema nervioso. Además de ser un excelente científico, muy valorado dentro y fuera de España por sus aportaciones a la neurología, Cajal fue un gran amante del arte y la belleza. Prueba de ello son sus exquisitos dibujos en los que está inspirada la gráfica de esta edición de FOTCIENCIA… ¿Lo habías notado?

Pero no solo el cerebro y las neuronas tienen cabida en FOTCIENCIA19. El vidrio, los fenómenos físicos, los seres vivos o los objetos de la vida cotidiana: casi todo puede ser mirado desde una óptica científica. Ingeniería, matemáticas, química, biología, ciencias de materiales, ciencias sociales… ¡Las opciones son prácticamente infinitas y hay para todos los gustos! Si necesitas un extra de inspiración (aunque te recomendamos proponer nuevos enfoques), aquí puedes ver las imágenes seleccionadas en ediciones anteriores.

Para participar, debes ser mayor de edad y enviar tus fotografías, hasta un máximo de tres, en formato digital a través de un formulario disponible en la página web www.fotciencia.es. Tendrán que ir acompañadas de un breve texto, original y de tu autoría, que permita interpretarlas. El jurado valorará tanto la imagen –su calidad técnica, originalidad y valor estético– como la claridad de la explicación aportada en el texto.

Las ocho mejores imágenes de la edición anterior, FOTCIENCIA18

Las ocho mejores imágenes de la edición anterior, FOTCIENCIA18

FOTCIENCIA es una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT), con la colaboración de la Fundación Jesús Serra, del Grupo Catalana Occidente.

No olvides que el plazo de presentación finaliza a las 13:00 h del 3 de noviembre de 2022 (hora española peninsular). Puedes consultar toda la información y las normas de participación en www.fotciencia.es.

 

De los móviles a las renovables: las baterías ya no son lo que eran

Por Pedro Gómez-Romero (ICN2-CSIC) *

De las pilas de simpáticos conejitos a las baterías de iones de litio encerradas en nuestros móviles, pasando por las pesadas baterías de plomo de los coches, las baterías del siglo XX nunca fueron actores principales de nuestras tecnologías. Parecían los parientes pobres de los móviles o de los coches, y, además, solo nos acordábamos de ellas cuando se gastaban, siempre en el peor momento, claro. Pero eso está a punto de cambiar.

El crecimiento de las renovables solo es posible de la mano de un crecimiento simultáneo del almacenamiento estacionario de energía.

Tomemos como ejemplo las baterías de iones de litio, bendecidas por Sony en 1991 para alimentar nuestros móviles. Ante todo, se les exigía (y se les sigue exigiendo) ligereza y compacidad, para ocupar poco espacio en la obra maestra de ingeniería y arquitectura que es nuestro móvil. El coste era secundario ante los desorbitados precios que el consumidor estaba dispuesto a pagar por la última versión del objeto de deseo. Y de su vida útil ya ni hablemos, puesto que las estadísticas confirman que cambiamos de móvil a mayor velocidad que lo que tarda en jubilarse su batería.

Pero las cosas están cambiando. De entrada, la consolidación de la tecnología de litio ha hecho que sus nichos de aplicación se extiendan a campos en tremenda expansión, como el vehículo eléctrico. Y entonces, de repente, la cosa cambia: tanto el precio de las baterías como su vida útil adquieren una importancia vital.

Además, la misma tecnología de litio se aplica ya en otros campos estratégicos como el almacenamiento estacionario de electricidad. Os cuento un caso real que conozco bien: el de mi propia casa. Vivo en una casa pasiva, que produce toda la energía que necesita y más, y que está aislada de la red eléctrica. De noche mi casa vive alimentada por un par de módulos de baterías de litio, que son esencialmente las mismas que se usan en móviles y en coches eléctricos. Todas descansan sobre el uso de iones de litio. Pues bien, el fabricante de mi sistema ya ha informado a todos sus clientes que sube los precios debido al encarecimiento de las materias primas. No es un caso aislado, las baterías de iones de litio están subiendo de precio este año 2022 después de décadas de continuos abaratamientos debidos a la economía de escala.

La excusa es la guerra de Putin, pero el rápido aumento de la demanda y los límites de producción de litio permiten predecir que los precios del litio seguirán altos después de la guerra. La crisis de materias primas (especialmente las más escasas) está aquí para quedarse.

batería

Las baterías de litio también se utilizan en ordenadores.

Más allá de litio

Así, ha llegado el momento para el que la comunidad científica llevaba preparándose desde hace tiempo. Es la hora de sacar nuestras nuevas baterías del laboratorio y lanzarlas al mercado. Las conocemos como baterías “post-lithium” y las hay de sodio (Na), potasio (K), magnesio (Mg), calcio (Ca), cinc (Zn)… e incluso de aluminio (Al) o de hierro (Fe), que habrían sido impensables hasta hace poco tiempo. Todos estos elementos son mucho más abundantes que el litio (Li), aunque también más pesados, y algunos de ellos son capaces de producir dos y hasta tres electrones por átomo, mientras que cada átomo de litio solo es capaz de producir uno.

Pero además de estas baterías, de iones diferentes al litio, las baterías de un futuro más cercano de lo que creemos se basarán en químicas y formatos completamente diferentes. Por ejemplo, las baterías de tipo Metal-Aire (O2) o Metal-Azufre que han sido obstinadamente impracticables durante décadas y que ahora, con nuevos conocimientos, nanomateriales y herramientas científicas, están más cerca del éxito comercial. Estas baterías aportarían de hecho una gran mejora en la densidad de energía de las baterías: es decir, en la cantidad de energía que pueden almacenar en una unidad de volumen.

Aunque no todo depende de la densidad de energía de una batería. También es importante el tiempo de carga. Los supercondensadores, permiten cargas ultrarrápidas, con altas densidades de potencia y son capaces de brindar del orden de cientos de miles de ciclos de carga y descarga.

Además, los nuevos dispositivos híbridos que integran componentes o materiales de baterías con otros típicos de supercondensadores aspiran a brindar prestaciones similares a las de los supercondensadores, pero con mayor densidad de energía. Esta es la especialidad de mi grupo de investigación, NEO-Energy, en el Instituto Catalán de Nanociencia y Nanotecnología (ICN2, CSIC-BIST).

Aparte de baterías de todo tipo, supercondensadores y dispositivos híbridos, también tenemos en nuestro catálogo nuevos formatos de tecnologías de almacenamiento de energía. Por ejemplo, las baterías de Flujo Redox en las que los elementos activos fluyen en lugar de estar encerrados en una celda electroquímica, como ocurre en las baterías convencionales. Este tipo de baterías es muy prometedor para el almacenamiento estacionario de electricidad renovable a gran escala, aunque es necesario seguir mejorando su densidad de energía.

Un futuro renovable

El almacenamiento de electricidad renovable no es la única nueva aplicación de las baterías, pero sí una de las más importantes entre las que hacen que las baterías ya no sean lo que fueron. La contribución de las energías renovables a la producción de electricidad en España roza el 50%. Hasta ahora, la variabilidad de la producción solar y eólica se compensaba con las energías de plantas nucleares de fisión o plantas de ciclo combinado (es decir, quemando gas natural). Sin embargo, en el futuro esta variabilidad se tendrá que compensar con una combinación de mayores interconexiones en la red eléctrica, almacenamiento masivo y gestión de la demanda. Cuando se alcance el 60% de electricidad renovable, habremos llegado a un punto crítico para el que tendremos que haber puesto en marcha cambios estructurales.

Panel solar y batería

Instalación solar con batería incorporada.

La penetración de las renovables en nuestro mix energético deberá seguir creciendo, sin duda. Pero eso sólo será posible de la mano de un crecimiento simultaneo del almacenamiento estacionario de energía, que permita compensar la variabilidad solar y eólica. Además, dicho almacenamiento tendrá que desarrollarse sobre diversas tecnologías, que se adapten a los cortos, medios y largos periodos de almacenamiento en respuesta a la variabilidad a corto, medio y largo plazo de nuestras tecnologías de generación.

No es una transición fácil, pero sí absolutamente necesaria. Debemos acelerar para sacar del laboratorio todas esas tecnologías de almacenamiento y ponerlas a trabajar para lograr un nuevo modelo de energía verdaderamente sostenible. Porque es ahora cuando estamos creando la historia de nuestro futuro.

* Pedro Gómez-Romero es profesor de investigación, divulgador científico del CSIC y responsable del canal de youtube de divulgación científica Tecnosfera.

Mendeléiev, Penrose o Meitner: 6 casos de inspiración científica súbita

Por Pedro Meseguer (CSIC)*

A menudo creemos que, con la formación adecuada, estudiar en profundidad un problema es suficiente para atacarlo con probabilidades de éxito. Analizamos su historia, el contexto, las cuestiones cercanas, sus formulaciones y métodos de solución, etcétera. Y si se resiste profundizamos más. Insistimos hasta que encontramos la solución al problema que nos habíamos planteado. Pero, a veces, esto no basta y nos estrellamos contra un muro que parece infranqueable. En esas ocasiones, no es infrecuente experimentar el siguiente hecho singular: cuando nos damos un respiro o dejamos el problema a un lado, como por arte de magia, la solución aparece nítida en nuestra mente. ¿Qué ha sucedido? Se trata de la llamada inspiración súbita.

Una experiencia común

En ciencia, estas experiencias no son desconocidas. Hay diversas anécdotas sobre cómo la solución de un problema ha sido revelada a la persona que lo investigaba sin aparente esfuerzo por su parte, bien en el periodo de vigilia o bien en sueños. A continuación, detallamos seis ejemplos de inspiración súbita protagonizados por personajes relevantes de la historia de la ciencia.

William Rowan Hamilton, el matemático de cuyo nombre proviene el término “hamiltoniano”, halló la multiplicación de los cuaterniones de forma súbita, mientras se dirigía con su mujer a una sesión de la Royal Irish Academy dando un paseo a lo largo del Royal Canal, en 1843. El impacto de la idea fue muy intenso: lo describió como “un circuito eléctrico que se cierra”. Al no disponer de pluma ni papel, marcó con su navaja la fórmula de la operación en una piedra del puente de Brougham, por el que circulaba en ese momento.

August Kekulé, uno de los padres de la química orgánica, descubrió la estructura de anillo del benceno tras soñar con una serpiente que se mordía la cola. Se cree que sucedió en 1862. La composición química de este elemento se conocía, pero no su disposición en el espacio. Antes de formarse en química, Kekulé estudió arquitectura y era un delineante competente, por lo que se puede suponer que poseía una buena imaginación espacial.

Dmitri Mendeléiev, el creador de la tabla periódica, era catedrático en San Petersburgo, en 1869. Tuvo un sueño en el que vio “una tabla en la que todos los elementos encajaban en su lugar”. “Al despertar, tomé nota de todo”, declaró. Y así nació la clasificación de los elementos químicos.

Mendeléiev, el creador de la tabla periódica, tuvo un sueño en el que vio “una tabla en la que todos los elementos encajaban en su lugar”. / Imagen: Studio4rt – Freepik

Henri Poincaré, el gran matemático y físico teórico francés, fue profesor en la universidad de Caen, en febrero de 1881. Llevaba trabajando varios días sobre una cuestión que se le resistía. Frustrado, decidió tomarse un descanso y se unió a una expedición geológica. Al subir al autobús, la solución del problema —un importante descubrimiento sobre funciones fuchsianas— apareció clara en su mente, acompañada de la certeza de su validez.

Lise Meitner, física responsable de la fisión nuclear, huyó en 1938 de Berlín por su origen judío. Su antiguo jefe, Otto Hahn, bombardeó átomos de uranio con neutrinos, esperando obtener un elemento más pesado, pero sucedió al revés, obtuvo elementos más ligeros. Le preguntó a Lise por carta, y ella le contestó con la posibilidad de que el átomo se hubiera partido. Tras enviar su respuesta, Lise salió a dar un paseo por el bosque. De pronto sacó un papel del bolsillo y comenzó a hacer cálculos. Comprobó que la energía generada se correspondía con el defecto de masa observado, a través de la ecuación de Einstein E=mc2. Y así descubrió la fisión nuclear; aunque no obtuvo el reconocimiento correspondiente. A pesar de que ella proporcionó la explicación, Otto Hahn no incluyó su nombre entre las personas firmantes del artículo que lo describía, y recibió en solitario el Premio Nobel de Química en 1944.

Roger Penrose, que recibió el Premio Nobel de Física del año 2020, tuvo una experiencia singular. En 1964, un colega estadounidense lo visitó en Londres. Durante un paseo, y al cruzar la calle, a Penrose le vino la solución al problema en el que trabajaba en esa época. La conversación siguió al otro lado de la calle y ocultó la idea, pero no su alegría. Cuando el visitante se marchó, Penrose buscó la causa de su júbilo, y volvió a encontrar la idea que había tenido al cruzar la calle.

Las tres fases de la inspiración

Grandes investigadores e investigadoras se han interesado por los aspectos psicológicos del descubrimiento científico, en particular, del matemático. Han escrito obras de títulos en ocasiones autoexplicativos: Ciencia y Método, de Poincaré, La psicología de la invención en el campo matemático, de Hadamard, La nueva mente del emperador, de Penrose.

A partir de estos análisis, destacaría tres fases sobre la iluminación o inspiración súbita. Primero, hay una etapa de trabajo intenso sobre el problema en cuestión, sin que se produzcan resultados; allí es donde se realiza una labor profunda en el inconsciente. En segundo lugar, hay un periodo de relax, durante un paseo o un viaje, a veces en un sueño, donde la mente consciente está ocupada en ‘otra cosa’ y espontáneamente surge la iluminación o inspiración súbita. Por último, una nueva etapa de trabajo consciente, donde se verifica la validez de esa iluminación. Aunque la inspiración súbita haya sido acompañada de la certeza de su corrección, es un paso muy necesario para formalizar sus resultados.

En todas estas historias, se vislumbra que los procesos mentales humanos de la inspiración súbita comparten una naturaleza común y siguen circuitos similares. Estas vivencias refuerzan la utilidad del descanso para alcanzar soluciones creativas a problemas complejos. Evidentemente la mente consciente se ha de enfocar en ellos, pero solo concentra una parte del esfuerzo. La otra radica en la mente inconsciente, con unos ritmos internos que se han de respetar para que rinda sus frutos y nos permita avanzar en la comprensión del mundo.

 

*Pedro Meseguer es investigador en el Instituto de Investigación en Inteligencia Artificial del CSIC.

¿Puedes ver a Galileo en esta Inmaculada de Rubens?

Por Montserrat Villar (CSIC)*

Durante dos mil años, la Luna se consideró un cuerpo perfecto. A principios del siglo XVII se descubrió lo contrario: que en ella había valles y montañas, como en la Tierra, y se confirmó que nuestro ‘corrupto’ planeta era capaz de iluminarla. Estos descubrimientos no solo impactaron en la astronomía, la filosofía y la doctrina de la Iglesia; también lo hicieron en las representaciones artísticas de la época.

La Inmaculada Concepción de Pedro Pablo Rubens resulta una obra fascinante en este sentido. Pintada entre 1628 y 1629, y expuesta en el Museo Nacional del Prado, es uno de los primeros cuadros en los que la Luna se representa como la mostró el telescopio: imperfecta y opaca, en contradicción con la idea de la pureza lunar defendida desde los tiempos de Aristóteles.

‘La Inmaculada Concepción’, Pedro Pablo Rubens (1628-1629). Museo Nacional del Prado.

‘La Inmaculada Concepción’, Pedro Pablo Rubens (1628-1629). Museo Nacional del Prado.

Galileo versus Aristóteles

En los albores del siglo XVII, la naturaleza y la composición de la Luna seguían sin dilucidarse. Fieles a una tradición de casi 2000 años de antigüedad, muchos mantenían que nuestro satélite era una esfera perfecta, hecha de una sustancia cristalina o vaporosa, reflectante o transparente. Eran ideas heredadas de Aristóteles, que en el siglo IV a.C. había dividido el cosmos en el mundo celestial o supralunar, donde todo era puro e inmutable, y el mundo sublunar, el de la Tierra y el ser humano, sometido a lo corrupto y cambiante. La Luna, habitante del ámbito celeste, se consideraba perfecta, al igual que los demás astros.

En el otro lado estaban quienes proponían que la Luna era un cuerpo sucio y áspero. Así lo mostraban las observaciones realizadas por Galileo Galilei a partir de 1609, para las que utilizó el recién inventado telescopio. El astrónomo descubrió que la Luna tenía relieve, al igual que la Tierra.

El misterio de la luz cenicienta

Había otra pieza que no encajaba en el rompecabezas lunar, y que separaba aún más las posturas. En días próximos al novilunio, cuando nuestro satélite tiene el aspecto de un delgado arco luminoso, se aprecia una luz débil de color grisáceo en la parte oscura. Es la llamada luz cenicienta. Para explicarla, quienes defendían la pureza lunar habían planteado que la luz de Venus o de las estrellas fijas iluminaba débilmente la zona sombría de nuestro satélite. O que quizás este emitía su propia luz. Alternativamente, la explicación también se hacía recaer en la luz del Sol, que en parte se reflejaba y en parte atravesaba la esfera semitransparente de la Luna.

Como antes hizo Leonardo da Vinci (1452-1519), en los primeros años del siglo XVII Kepler y Galileo defendieron la idea rompedora (y correcta) de que la luz cenicienta se producía porque la Tierra iluminaba la esfera sólida y opaca de la Luna con los rayos solares que reflejaba hacia ella. Es decir, de la misma manera que la Luna ilumina nuestras noches con la luz que refleja del Sol, así hace la Tierra con la Luna.

Las consecuencias de este planteamiento eran profundas y polémicas. ¿Cómo podía un cuerpo corrupto iluminar un astro perfecto? Esto implicaba que hay fenómenos del mundo celestial que son el efecto de lo que ocurre en el ámbito terrestre. De ser así, aquella división tradicional del cosmos debía descartarse.

Inmaculadas para frenar el protestantismo

Mientras se producía este debate, los artistas pintaban la Luna. En aquella época, la Iglesia Católica promovía el culto a la Inmaculada Concepción como parte de su estrategia para frenar el avance del protestantismo. Por esta razón, en el siglo XVII proliferaron las representaciones de la Inmaculada, que tomaron como base este pasaje del Apocalipsis de la Biblia: “Un gran signo apareció en el cielo: una mujer vestida del Sol, y la Luna bajo sus pies y una corona de doce estrellas sobre su cabeza”.

Esta es la razón por la que la Luna aparece en todas las Inmaculadas. Nuestro satélite se convirtió en alegoría de la pureza de María y, como tal, se representaba siempre como un cuerpo perfecto: llena, creciente o menguante, de alabastro o cristal; siempre inmaculada, como la Virgen.

La Inmaculada Concepción pintada por Francisco de Zurbarán (hacia 1630), izquierda, y Bartolomé Esteban Murillo (hacia 1675), derecha. Ambas obras, expuestas en el Museo Nacional del Prado, reflejan una concepción clásica y prefecta de la luna. 

La Inmaculada Concepción pintada por Francisco de Zurbarán (hacia 1630), izquierda; y la de Bartolomé Esteban Murillo (hacia 1675), derecha. Ambas obras, expuestas en el Museo Nacional del Prado, reflejan una concepción clásica y perfecta de la luna.

La excepción de Rubens

Los nuevos descubrimientos sobre la imperfección de la Luna y el origen terrestre de la luz cenicienta penetraron en círculos religiosos y artísticos, aunque se mantuvo la tradición de representar el astro impoluto por motivos obvios. Rubens fue una excepción. El artista, contemporáneo de Galileo, estaba al tanto de los descubrimientos realizados por el astrónomo y así lo reflejan otras de sus obras, como Saturno devorando a un hijo, donde dejó constancia de la apariencia de estrella triple del planeta Saturno, y El nacimiento de la Vía Láctea, donde nuestra galaxia aparece representada como un conjunto de infinidad de estrellas.

Detalle de ‘La Inmaculada Concepción’ de Rubens.

En su Inmaculada Concepción, la Virgen María está de pie sobre la Luna, que es una bola maciza y opaca, como hecha de plomo, muy diferente del ideal de pureza defendido durante siglos.

Es casi Luna nueva y, aunque solamente se ve iluminado un arco delgado en la parte inferior, identificamos perfectamente el globo completo de nuestro satélite. Rubens podría haber representado la luz cenicienta. El destello en la mitad superior de la esfera implica que el artista interpreta este fenómeno como luz reflejada en la Luna. No es luz emitida por ella o luz del Sol que la atraviesa, como proponían algunos eruditos de la época. La fuente de luz que produce ese reflejo ha de estar en la parte superior izquierda, fuera del plano del cuadro, en la dirección opuesta a la posición del Sol que ilumina el arco brillante. Por lógica, es la posición que esperamos para la Tierra cuando la Luna es casi nueva. La fuente de luz que ilumina y se refleja en la parte oscura de la Luna es, por tanto, la propia Tierra. Indirectamente, Rubens parece plasmar en su pintura el origen terrestre de la luz cenicienta.

La Luna de Rubens es la Luna de Galileo.

* Montserrat Villar es investigadora del CSIC en el Centro de Astrobiología (CSIC-INTA) y creadora del itinerario “Reflejos del cosmos en el Museo del Prado”, que puede disfrutarse hasta el 16 de octubre de 2022.