Entradas etiquetadas como ‘cultura científica’

Cómo nos puede ayudar la ciencia frente al despilfarro de alimentos

Por Ana Mª Veses (CSIC)*

El otro día fui a un restaurante con mi familia. En la mesa de al lado, un niño se puso a protestar porque no le gustaba la comida que le habían servido; inmediatamente, un camarero acudió para retirarle el plato.

Esta anécdota contrasta con la realidad que nos muestra la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO): mientras cerca de 800 millones de personas sufren desnutrición en el mundo, según datos de 2017, aproximadamente un tercio de la producción mundial de alimentos se pierde o se desperdicia.

Además, este despilfarro produce graves consecuencias para el medioambiente. Tirar comida supone una notable pérdida de recursos naturales (tierra, agua y energía) y un incremento de emisiones de gases de efecto invernadero, para producir unos alimentos que finalmente nadie consumirá. Si ‘dilapidar comida’ fuera un país, sería el tercero con más emisiones de dióxido de carbono, detrás de China y EEUU. Asimismo, los alimentos que producimos pero luego no comemos consumen un volumen de agua equivalente al caudal anual del río Volga.

¿Por qué pasa esto? ¿Alguien se ha planteado hacer algo al respecto?

En los países industrializados principalmente se desperdician tantos alimentos porque la producción excede a la demanda, porque los supermercados imponen altos estándares estéticos a los productos frescos y descartan aquellos que son más feos, y porque se piensa que tirar es más cómodo que reutilizar.

En cambio, en países en vías de desarrollo, según indican estudios de la FAO, el desperdicio de alimentos por parte de los consumidores es mínimo. En estos países, sin embargo, son los inadecuados sistemas comerciales y las escasas y deficientes instalaciones de almacenamiento y procesamiento los que provocan grandes pérdidas de alimentos.

Desde las instituciones públicas se están desarrollando diversas estrategias y planes de actuación, a distintos niveles, para controlar y reducir estos desperdicios. Se han puesto en marcha planes de sensibilización cuya finalidad es modificar hábitos y modelos de consumo en las comunidades, como la difusión de buenas prácticas de conservación de productos en los hogares a través de los medios de comunicación o aplicaciones móviles para la sensibilización e innovación social o para la redistribución de excedentes.

Ciencia y tecnología para desperdiciar menos

Por otro lado, la ciencia y la tecnología contribuyen a generar herramientas que puedan disminuir el desperdicio de alimentos a lo largo de toda la cadena alimentaria. La creación de nuevas técnicas de conservación de alimentos, diseños de envases más resistentes, así como el uso de tecnologías limpias y la identificación de dónde se producen las pérdidas de producto son algunas de las alternativas que se investigan. Por ejemplo, ya se está trabajando en el desarrollo de envases más resistentes al transporte, que puedan volver a cerrarse fácilmente o divididos en porciones que aumenten la vida útil de los alimentos.

El catálogo de iniciativas nacionales e internacionales sobre el desperdicio alimentario realizado por la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) reúne iniciativas como un papel diseñado en 2010 (por la empresa Fenugreen) que consigue duplicar el tiempo de conservación de frutas y verduras frescas. Está impregnado con distintas especias que inhiben el crecimiento de hongos y bacterias y, además, contiene un determinado aroma que informa de si el sistema sigue siendo efectivo. Este papel, utilizado tanto en la agricultura como en hogares de todo el mundo, tiene una vida de tres semanas y después se puede aprovechar como abono.

Otras iniciativas aseguran la integridad del sellado en los envases mediante la selección de materiales de difícil perforación o desarrollan envases activos que evitan la entrada de sustancias indeseables al tiempo que liberan otras beneficiosas para la conservación del producto, como biocidas, antioxidantes o compuestos que absorben el oxígeno y la humedad.

Algunas líneas de investigación se basan en la reutilización y el reciclaje de subproductos industriales para evitar la disposición en vertedero, de manera que se puedan desarrollar nuevos productos a partir de los materiales excedentarios, recuperar compuestos de interés para utilizarlos como aditivos o ingredientes en otras industrias, así como obtener nuevos productos más saludables.

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, diversos grupos de investigación trabajan con residuos alimentarios procedentes de las industrias que usan productos vegetales y animales, con el objetivo de revalorizarlos. Uno de ellos es la okara, un subproducto de la soja que se obtiene tras extraer la fracción soluble para la producción de bebida de soja o tofu, y que antes era eliminado en las industrias de procesamiento. Al tratarla con altas presiones hidrostáticas y enzimas específicas, se consigue por un lado aumentar los carbohidratos solubles al doble de los valores iniciales y, por otro, incrementar sus capacidades prebióticas, favoreciendo el crecimiento de bacterias beneficiosas (Bifidobacterium y Lactobacillus) y la inhibición de otras potencialmente perjudiciales. Se ha comprobado que la okara tratada, suministrada a ratas que habían seguido una dieta grasa, frena la ganancia de peso, reduce los niveles de triglicéridos en plasma y aumenta la absorción mineral y la producción de ácidos grasos de cadena corta.

Estos ejemplos reflejan que se están empleando muchos recursos para frenar este problema y buscar soluciones. Pero no hay que olvidar el importante papel que tenemos los consumidores. Cada uno desde su posición, el personal investigador en sus laboratorios, los gobiernos en sus políticas y los consumidores en sus hogares, debemos colaborar para evitar que comida y productos válidos para el consumo sean desaprovechados, mientras en otra parte del mundo se pasa hambre.

* Ana Mª Veses es investigadora del Instituto de Ciencia y Tecnología de Alimentos y Nutrición del CSIC.

La mineralogía salva la vida a Iron Man

Por Carlos M. Pina (CSIC-UCM) y Carlos Pimentel (UPM, UCM)*

[Contiene spoilers] Han pasado ya casi 6 meses desde que los Vengadores nos salvaron por última vez. Después de que Thanos asesinase a la mitad de los seres vivos del Universo utilizando las Gemas del Infinito, estas fueron utilizadas por Bruce Banner (Hulk) para devolverles a la vida. Tras ello, los ejércitos de Thanos se enfrentaron a los Vengadores y sus aliados en una cruenta batalla. Para detenerla, Tony Stark (Iron Man) utilizó el Guantelete del Infinito, con el que logró destruir a Thanos y sus ejércitos. Sin embargo, las heridas producidas por el poder de las gemas también causaron su muerte. ¿Fue el sacrificio de Tony Stark en vano?

Miremos detenidamente el Guantelete del Infinito. Está compuesto por 6 gemas con distintos poderes y colores, que juntas tienen un poder inimaginable. Pero lo que todos podemos apreciar es su color, no su poder, incluido Thanos por muy titán que sea. ¿Qué hubiese ocurrido si los Vengadores hubiesen sabido algo de mineralogía? Podrían haberle dado el cambiazo a Thanos y haber sustituido las Gemas del Infinito por gemas iguales pero que careciesen de poderes, como la amatista (morado), el rubí (rojo), el zafiro (azul), el crisoberilo (amarillo), el topacio (naranja) y la esmeralda (verde); gemas muy comunes y mucho más baratas que cualquier armadura de Iron Man. Así, los Vengadores hubiesen ganado la Guerra del Infinito antes de comenzar, Tony Stark seguiría vivo y Steve Rogers continuaría siendo el Capitán América.

Partiendo de la idea de que los minerales que aparecen en la ciencia ficción y la fantasía (por ejemplo, Star Wars, Star Trek, Mundodisco o X-men) hemos escrito una Pequeña guía de minerales inexistentes (Ediciones Complutense, 2019) y organizado una exposición con el mismo nombre en Madrid, que podrá visitarse en la Biblioteca María Zambrano de la UCM hasta el 6 de noviembre. En ellos presentamos 16 minerales ficticios, indicando su origen, sus imposibles propiedades y aplicaciones, e incluso información sobre sus imposibles estructuras y composiciones químicas. El libro también describe minerales o materiales similares reales que muestran propiedades análogas.

¿Hay algún mineral tan radiactivo como la kryptonita que aparece en Superman? En la naturaleza existen algunos minerales altamente radiactivos, como por ejemplo, la uraninita, la pechblenda (variedad impura de la uraninita) y la becquerelita. Sin embargo, ninguno de estos minerales sería capaz de derrotar a Superman, para decepción de Lex Luthor.

¿Existe algún material tan duro como el adamantium que recubre los huesos de Lobezno? Sí, aunque sin su increíble dureza. Se trata de la widia, un metal que se usa, por ejemplo, en las brocas de los taladros.

¿Qué minerales se han usado para comerciar como el tiberium del popular videojuego Command & Conquer? Los metales preciosos, las gemas, la sal común (que es un mineral llamado halita) han sido utilizados históricamente como moneda de cambio.

Tiberium realizado con impresora 3D y que forma parte de la exposición.

¿Podemos pensar en algún mineral como los cristales de adegan de Star Wars? Por supuesto. El rubí fue el mineral con el que se fabricaron los primeros láseres, aunque no sirve para hacer sables láser como los de las películas (una lástima para los frikis).

¿Algún mineral mágico como el octirón de Mundodisco? Por supuesto que no, ya que los minerales no tienen propiedades mágicas. Por más que en muchas tiendas de minerales se les atribuyan ciertos poderes, esto es completamente falso.

¿Y por qué es importante saber de minerales? No es sólo para saber cómo salvar a nuestros personajes de cómics, películas o videojuegos preferidos. Los minerales también son esenciales en nuestra vida diaria. Para fabricar el móvil o la tablet en la que estás leyendo esta noticia se han utilizado al menos 13 minerales distintos, la electricidad llega a tu casa a través de cables de cobre que se extraen de minerales y hay minerales y rocas en tu cocina, como la sal o la encimera de granito. Además, los minerales nos cuentan, a geólogos y mineralogistas, cómo fue la Tierra en épocas pasadas. Gracias a su estudio, se ha podido determinar, por ejemplo, cómo era el clima en la época de los dinosaurios o cómo era la Tierra en el pasado.

La exposición podrá visitarse en la Biblioteca María Zambrano de la UCM hasta el 6 de noviembre. El 16 de octubre a las 18:00 habrá un acto de presentación tanto de la exposición como de la guía de minerales inexistentes.

* Carlos M. Pina es profesor titular de Cristalografía y Mineralogía en la Facultad de Ciencias Geológicas de la Universidad Complutense de Madrid e investigador del Instituto de Geociencias (IGEO, CSIC-UCM). Carlos Pimentel es investigador en la E.T.S.I. de Montes, Forestal y del Medio Natural de la Universidad Politécnica de Madrid y colaborador honorífico del Departamento de Mineralogía y Petrología de la Facultad de Ciencias Geológicas de la Universidad Complutense.

¿Cómo funcionan el bitcoin y otras monedas virtuales? La clave es la tecnología blockchain

Por Mar Gulis (CSIC)

Basada en la tecnología blockchain, la moneda virtual bitcoin no cuenta con el respaldo de ningún gobierno  o banco central.

En 2008 alguien que firmaba bajo el seudónimo de Sataoshi Nakamoto creó el bitcoin. La famosa moneda virtual ha sido la punta de lanza de un fenómeno más amplio: la criptoeconomía. Este concepto se refiere a toda la actividad financiera basada en el uso de criptomonedas y tecnología blockchain (cadena de bloques), un sistema descentralizado de recolección de datos en el que la información se agrupa en bloques, es de acceso público y, mediante técnicas criptográficas, solo puede ser editada o alterada modificando toda la cadena de bloques previa.

Los investigadores del CSIC David Arroyo y Luis Hernández, y su colega Jesús Díaz, de IBM,  explican que el éxito de cualquier criptomoneda no reside solo en esta base criptográfica, sino que es necesario que exista un conjunto de usuarios que pongan sus ordenadores al servicio del ecosistema, actuando como nodos activos en la generación de criptomonedas. Así es como funciona la red Bitcoin. Expertos en telecomunicaiones, matemáticas e informática, los tres autores acaban de publicar Blockchain (Editorial CSIC-Los libros de la Catarata), donde explican el significado y alcance de este vocablo. A lo largo del libro cuentan cómo funciona y para qué sirve una tecnología que puede ser clave para transitar a una nueva economía digital y a la denominada web 4.0.

Portada del libro Blockchain, editado por el CSIC y Los Libros de la Catarata.

Como decíamos, blockchain es un sistema descentralizado de recolección de datos que elimina a los intermediarios, los bancos en el caso de Bitcoin, desconcentrando todas las tareas de gestión. Son los usuarios quienes controlan el proceso, como si se tratase de un enorme banco con millones de nodos, de modo que cada uno se convierte en partícipe y gestor de los libros de cuentas de esta peculiar entidad. En ese contexto de aplicación, blockchain sería una especie de libro de contabilidad gigante en el que los registros (bloques) están enlazados y validados criptográficamente para proteger la seguridad de las transacciones. En otras palabras, es una base de datos distribuida (no se almacena en una sola ubicación) y segura que se puede aplicar a todo tipo de transacción, no solo económica.

Precisamente por esta particular estructura, blockchain se está empleando para crear sistemas financieros alternativos, al margen del tradicional control de los bancos centrales. Ejemplos de ello son las plataformas Bitcoin y Etherum, a través de las cuales cualquiera puede registrar transacciones con sus respectivas monedas virtuales, el bitcoin y el ether. Como apuntan los investigadores en su libro, la utilización de este dinero virtual y la tecnología en la que se sustenta –blockchain– ha pasado de cierto rechazo institucional, e incluso mala fama, a representar una oportunidad para nuevos modelos de negocio y actividad financiera, en medio de una ola de entusiasmo hacia la denominada criptoeconomía. El potencial de blockchain es diverso, y pasa por la construcción de sistemas de protección de derechos de autor; la configuración de organizaciones autónomas basadas en ‘contratos inteligentes’ o la gestión del Internet de las cosas, entre otras aplicaciones.

Pero sus múltiples oportunidades conviven con varios puntos débiles: por ejemplo, la no trazabilidad de las criptomonedas, frente al pago tradicional con tarjeta de crédito o mediante transferencia bancaria, dificulta la persecución del lavado de dinero; sus limitaciones en la gestión de la identidad y privacidad de los usuarios; las fluctuaciones en la cotización de las monedas virtuales; la gran cantidad de energía que requieren los modelos de generación de moneda en Bitcoin y Ethereum; el déficit en escalabilidad de la red blockchain de acceso abierto; o ciertos incidentes de seguridad. “En los últimos años podemos hallar errores en la implementación de protocolos criptográficos, robos de credenciales en plataformas digitales, incluso fallas graves de seguridad en dispositivos hardware resistentes a la manipulación”, señalan los autores. Como explica David Arroyo, del Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI-CSIC), “el trabajo teórico que sustenta esta tecnología está aún en fase de desarrollo, y los organismos de estandarización quieren establecer un marco de referencia básico que ofrezca garantías a su utilización”.

Con todo, la obra incide en que blockchain va más allá de posibilitar meros intercambios económico-financieros. Es una herramienta para desarrollar nuevos protocolos que permitan la gestión de todo tipo de datos en esta sociedad de la información.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

Listeriosis: a veces ocurre

Por Marta López Cabo (CSIC)*

El 41% de los europeos considera la seguridad alimentaria una preocupación. Así lo reflejan las encuestas recogidas en el Eurobarómetro publicado recientemente por la Agencia Europea en Seguridad Alimentaria (EFSA, 2019). En España, esta cifra se sitúa en el 37%. No son porcentajes muy elevados porque la aparición de brotes o problemas de salud asociados con el consumo de alimentos no es frecuente. Pero a veces ocurre.

Es el caso del brote de listeriosis de Andalucía, asociado con el consumo de carne mechada y otros productos contaminados con la bacteria Listeria monocytogenes, y que ha provocado 3 defunciones, 2 abortos, 2 muertes fetales intraútero y alrededor de 212 personas afectadas, algunas de ellas hospitalizadas.

¿Qué es Listeria monocytogenes?

Frotis sobre cupón de acero inoxidable utilizado para la toma de muestras de biofilms de Listeria monocytogenes potencialmente presentes en superficies de la industria alimentaria / IIM-CSIC

Listeria monocytogenes es una bacteria patógena de alta relevancia transmitida por alimentos. Decimos ‘alta relevancia’ no tanto por el número de casos declarados, sino por los casos de muerte asociados a grupos de riesgo (embarazadas, inmunodeprimidos y población de elevada edad). Ello la ha convertido en un objetivo prioritario para la comunidad científica y las agencias de seguridad alimentaria, lo que ha resultado en el avance en el conocimiento de su biología y el desarrollo e implementación de diferentes soluciones para su control y eliminación.

A pesar de ello, los datos de los últimos informes publicados por EFSA (2017, 2018) ponen de manifiesto una tendencia creciente del número de casos notificados de listeriosis en humanos en Europa. En 2017, la listeriosis causó cerca del 50% de las muertes por zoonosis alimentarias (enfermedades que se transmiten entre los animales y el ser humano a través del consumo de alimentos) en la Unión Europea y el 98% de los casos registrados requirió hospitalización.

¿Qué está ocurriendo?

Que L. monocytogenes, como la mayoría de las bacterias patógenas, tiene unas características biológicas peculiares que favorecen su prevalencia en superficies de plantas de procesado y en alimentos. Ubicua, resistente al ácido y a bajas condiciones de actividad de agua, es además capaz de crecer a temperaturas de refrigeración, las mismas que utilizamos para prolongar la vida comercial de los alimentos.

Pero L. monocytogenes tiene otra particularidad: su condición de bacteria-parásito. Quizás se trata de un estado intermedio de la evolución entre ambas formas biológicas que puede implicar ventajas en su ecología y capacidad infectiva. Sin embargo, esto aún está por dilucidar.

Imagen de microscopía de fluorescencia de biofilms formados por L. monocytogenes (células rojas) y Acinetobacter jonhsonii (células azules) sobre superficies de acero inoxidable / IIM-CSIC

Son varios los grupos de investigación que estudian esta bacteria. El grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) investiga desde 2006 la incidencia y prevalencia de L. monocytogenes en plantas de procesado de alimentos; también la relación entre su ecología (especies bacterianas con las que se asocia y convive) y la resistencia a desinfectantes de uso industrial. Más recientemente, los estudios se han orientado a la búsqueda de alternativas basadas en moléculas de comunicación bacteriana (quorum sensing) que interrumpan o dificulten el agrupamiento de la bacteria y por tanto la aparición de estructuras estables que puedan convertirse en focos de contaminación. Con ello, el microorganismo no desaparecería, pero podría evitarse o ralentizarse la formación de estos focos.

Nuestras conclusiones son claras. L. monocytogenes puede persistir asociada a diferentes especies bacterianas y adherida a superficies y maquinaria de las plantas de procesado de alimentos formando estructuras complejas o biofilms (comunidades de células bacterianas) potencialmente resistentes a los protocolos de desinfección aplicados. Estas colonias constituyen focos de contaminación y puntos críticos para la contaminación cruzada, bien directamente, por contacto de alimentos, o indirectamente a través de utensilios o mediante los propios operarios y trabajadores de la planta. Porque, aunque no es habitual, a veces ocurre.

La solución también es clara: mejorar los sistemas de control y autocontrol de la industria y a lo largo de la cadena de valor y seguir avanzando en la investigación de L. monocytogenes y otros patógenos para poder ofrecer al consumidor alimentos seguros.

 

*Marta López Cabo  es responsable del Grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) y coordinadora de la Red Gallega de Riesgos Emergentes en Seguridad Alimentaria (RISEGAL).

Crímenes con rigor químico: los venenos de Agatha Christie

Por Pilar Goya (CSIC), José Elguero (CSIC) y Pascual Román (UPV/EHU)*

Agatha Christie, veneno, talio, arsénico

La escritora británica Agatha Mary Clarissa Miller, más conocida como Agatha Christie, en una imagen de archivo. / Wikipedia

En las novelas de Agatha Christie (1890-1976) se puede morir de muy diversas formas, pero el veneno era sin duda su arma preferida, ya fuese un solo elemento químico o complejas sustancias naturales. La escritora plasmó en su obra los conocimientos de química que había adquirido en las dos guerras mundiales, al trabajar como enfermera en los dispensarios de los hospitales de Torquay y del University College de Londres, una experiencia que ayudó a que los protagonistas de sus historias fueran asesinados con mucho rigor químico.

En un libro sobre ella escrito por Kathryn Harkup, titulado A is for arsenic: the poisons of Agatha Christie, su autora analiza las novelas en las que el agente homicida es un veneno.

Agatha Christie se basaba generalmente en datos lo más exactos posibles en términos de disponibilidad y trazabilidad de sus venenos, que conocía bien por su trabajo en la farmacia. Hay que recordar que algunos elementos tóxicos como el arsénico y el talio estaban presentes en determinadas for­mulaciones médicas en los primeros años del siglo XX.

El elemento que más aparece en sus novelas es el arsénico, “el veneno de los reyes y el rey de los venenos”. Ocho personajes de cuatro novelas y de cuatro cuen­tos cortos mueren por ingerirlo. El arsénico es conocido como veneno desde la Antigüedad, aunque en realidad el agente letal no es el elemento puro, sino el trióxido de arsénico, que se absorbe más fácilmente por el organismo. Este compuesto no se disuelve en agua fría, pero sí en agua caliente, lo que lo hace muy apto para ser camuflado en infusiones.

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Cuenta la leyenda que cuando Cleopatra decidió acabar con su vida ensayó distin­tos venenos en sus sirvientas, entre ellos el arsénico, pero al final optó por la mordedura de áspid (una especie de víbora) porque le pareció una muerte menos desagradable. El en­venenamiento por arsénico fue popular durante el Renacimiento, en particular entre los Borgia. Parece ser que añadían arsénico a las entrañas de un cerdo sacrificado y lo dejaban pudrir. Esa masa se secaba y el polvo resultante, llamado “la cantarella”, se incorporaba a la comida o bebida, de forma que lo que no hacía el veneno lo remataban las toxinas del animal. Entre las ventajas de esta sustancia estaba que, sorprendentemente, era bastante insípida y que los síntomas se confundían con los del cólera o la disentería. En general, el envenenamiento por ar­sénico puede identificarse erróneamente con causas naturales. Además, en la época en la que transcurren las primeras novelas de Agatha Christie era fácil comprar compuestos de ar­sénico en el Reino Unido, como herbicidas, matarratas e incluso tónicos que contenían este elemento.

Otro elemento venenoso al que hace referencia la autora británica es el talio, que aparece en su novela El misterio de Pale Horse. El talio es conocido como el “veneno de los envenena­dores” y también produce síntomas que pueden atribuirse a causas naturales. Christie solo utiliza el talio como veneno en esta novela, que trata de una organización criminal que ofrece ase­sinatos “a demanda”. El libro dio cierta notoriedad al talio, ya que en la fecha de su publicación, 1961, esta forma de enve­nenamiento era poco conocida, si bien en la novela de Ngaio Marsh, Final Curtain, escrita en 1947, ya aparece este elemento como veneno. El misterio de Pale Horse suscitó cierta polémica, ya que se sugirió que podía haber inspirado algunos asesinatos en la vida real pero, sin embargo, su minuciosa descripción de los síntomas del envenenamiento con talio fue útil para salvar algunas vidas.

El primer caso de un envenenamiento real con talio fue el de Molly Young, ocurrido en el Reino Unido en 1962, solo unos meses después de que se publicara la novela. Graham Young, autor de este crimen y otros más, negó haber leído la novela, lo que probablemente fuera cierto, ya que Young era un verdadero experto en venenos.

A favor de la novelista está otro caso real. En 1977, después de que ella hubiera fallecido, una niña de 19 meses fue llevada a un hospital de Londres con síntomas de una enfermedad extraña. La enferme­ra Marsha Maitland, que había leído El misterio de Pale Horse, sugirió que podía tratarse de un envenenamiento con talio. Se analizaron muestras en el laboratorio forense de Scotland Yard y se encontró efectivamente la presencia de este elemento. El ori­gen parecía ser un producto utilizado por los padres para aca­bar con cucarachas y ratas, al que la niña de alguna forma había tenido acceso y había ingerido. Finalmente, la pequeña se recuperó y en el artículo que apareció en el British Journal of Hospital Medicine los autores agradecen a “Agatha Christie sus excelentes descripciones clínicas y a la enfermera por mantenerles al día con la bibliografía”.

 

* Este post se basa en varios fragmentos del libro La tabla periódica (Editorial CSIC-Los libros de la Catarata), escrito por José Elguero Bertolini, Pilar Goya Laza (ambos, investigadores del Instituto de Química Médica del CSIC) y Pascual Román Polo (Universidad del País Vasco).

¿Por qué oímos hasta con los oídos tapados?

Por Mar Gulis (CSIC)

Imagina que oyes de repente un ruido muy molesto, como una alarma a todo volumen, un pitido intenso que no cesa durante minutos o que estás en medio de una conversación bulliciosa entre varias personas. Seguramente lo primero que vas a hacer es taparte los oídos, pero te darás cuenta de que lo vas a seguir oyendo… aunque sea de una forma más leve. ¿Por qué ocurre esto?

Nuestros oídos son un laberinto para el sonido. Un laberinto dividido en tres partes: oído externo, medio e interno. El recorrido comienza cuando el sonido llega al oído externo y golpea al tímpano, haciéndolo vibrar, y esa vibración se transmite a través de la cadena de huesecillos (martillo, yunque y estribo) que se encuentran en el oído medio. Las vibraciones continúan hasta la cóclea, en el oído interno y en forma de espiral, también conocida como caracol, donde se convierten en impulsos electroquímicos que viajan hasta el cerebro, capaz de interpretar y entender a través de las terminaciones nerviosas del ganglio auditivo. Esto es lo que nos permite oír.

oído, sonido, sordera

Así lo explican la investigadora Isabel Varela Nieto, del Instituto de Investigaciones Biomédicas Alberto Sols (CSIC-UAM), y el otorrinolaringólogo Luis Lassaletta Atienza, autores del libro La sordera, de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata). La energía acústica se transmite desde el exterior hasta la cóclea, y toda esa cadena “proporciona una amplificación a la señal sonora de unos 35 decibelios (dB)”. Oímos, incluso aunque tengamos los oídos tapados, porque el sonido puede llegar hasta la cóclea a través de la vía ósea. De esta forma la vibración sonora se transmite a través del cráneo, que pone en marcha los líquidos del laberinto de nuestro oído.

Exposición constante al ruido: trauma acústico y la sordera del siglo XXI

La explosión de un petardo, un disparo o la música de una discoteca a todo volumen. Estos son algunos de los ruidos que si escuchas de forma intensa o prolongada podrían pasarte factura: desde provocar lesiones en el oído hasta el conocido como trauma acústico, que se produce cuando el deterioro es irreversible, señalan los investigadores. Por ello, advierten sobre una serie de factores a tener en cuenta para prevenir estos trastornos: la intensidad sonora (límite de 80 dB), el tiempo de exposición, la frecuencia de ruido (las más lesivas, comprendidas entre 2.000 y 3.000 Hz) y la susceptibilidad de cada persona.

De hecho, hay personas que por su profesión están más expuestas al ruido, incluso a más de 80 dB, como por ejemplo armeros, militares o personal de una discoteca. Sobrepasar este límite “produce de forma característica una pérdida de audición bilateral con afectación inicial en 4.000 Hz que con el tiempo afecta al resto de frecuencias”. Y peor aún, el impacto sonoro puede desembocar en hipoacusia neurosensorial –que responde a problemas en el receptor auditivo, la cóclea o en las vías nerviosas– o en acúfenos, es decir, la sensación de oír ruidos dentro de la cabeza.

El ruido es, por tanto, la principal causa evitable de sordera en el mundo. Aunque no siempre llega del exterior: el uso de dispositivos de audio a una intensidad alta durante varias horas también puede derivar en esta dolencia. Por ello, los autores destacan que “el mejor tratamiento para el trauma acústico es la prevención”, ya que todavía no existe un tratamiento específico, lo que constituye uno de los retos de la medicina del siglo XXI. De hecho, evitar el ruido puede ser una opción recomendable.

 

* Puedes leer más en el libro La sordera (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Arte y ciencia se alían contra la contaminación urbana

Por Fernando del Blanco Rodríguez (CSIC)*

Zabol, Onitsha, Peshawar, Gwalior… Tal vez a un oído europeo no le diga mucho el nombre de estas ciudades. Sin embargo, cada una de ellas se encuentra representada en uno de los doce relojes que conforman la instalación artística conTIMEminación, que se exhibe el Centro de Investigación y Desarrollo de Barcelona (CID-CSIC). ¿Por qué?

conTIMEminacio

Pues precisamente porque estas ciudades presentan algunos de los índices de polución ambiental más altos del mundo si atendemos a los datos de la Organización Mundial de la Salud (OMS) de 2016 sobre calidad de aire y, en concreto, a los indicadores de presencia de material particulado en suspensión (PM).

Este material particulado al que alude la OMS y que es posible detectar en la atmósfera de nuestras ciudades se suele clasificar en dos grupos según el tamaño de las partículas que lo constituyen: por un lado, las partículas de diámetro aerodinámico igual o inferior a los 10 micrómetros (µm) –un micrómetro equivale a una milésima parte de un milímetro–, denominadas PM10; y, por otro, la fracción respirable más pequeña, las partículas de diámetro aerodinámico inferior o igual a los 2,5 micrómetros, a las que nos referimos como PM2,5.

El tamaño no supone la única diferencia entre ambos grupos. Las PM2,5, consideradas las más potencialmente peligrosas para la salud, se originan sobre todo en fuentes de combustión creadas por los seres humanos, como las emisiones de los motores diésel. Mientras, una parte significativa de las partículas de mayor tamaño suele ser de tipo metálico o mineral, ya sea de origen antrópico (humano) o natural.

La instalación conTIMEminación, creada por el artista Francisco Martínez Gómez, explora los problemas derivados de la presencia de estas partículas en nuestros entornos. Consta de doce relojes en funcionamiento, cada uno de los cuales ha sido inyectado con un producto metafóricamente tóxico que detendrá su mecanismo a medida que la agujas ya no sean capaces de superar la resistencia creciente e incesante de la sustancia extraña que las entorpece.

El proyecto, que cuenta con la colaboración de los investigadores del CSIC Xavier Querol y Sergi Díez, propone una reflexión en torno al volumen de contaminación al que estamos sometidos los habitantes de los núcleos urbanos y esboza el desenlace alegórico al que nos abocaría no comprender la magnitud de este riesgo.

Cada reloj representa una ciudad: Zabol (Irán), Onitsha (Nigeria), Peshawar (Pakistán), Riyadh (Arabia Saudí), Gwalior (India), Guangzhou (China), Moscú (Rusia), Estambul (Turquía), Buenos Aires (Argentina), París (París), Barcelona (España) y Lima (Perú). El artista y los investigadores matizan que la instalación no pretende reflejar los datos científicos de forma precisa, sino ilustrar la dimensión global del problema. Estas ciudades sufren significativos problemas de polución, aunque no todas presentan los indicadores más altos de contaminación.

Tendencias opuestas

“La tendencia de la calidad del aire en el mundo puede llegar a seguir evoluciones temporales opuestas en función del desarrollo económico”, explica Querol. “Mientras en Europa, Australia, EEUU, Japón y otras sociedades desarrolladas, la calidad ha mejorado drásticamente en las últimas décadas, en algunas ciudades de Irán, Pakistán, India y China se evidencia un empeoramiento muy marcado”, aclara este investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA) del CSIC.

Concentración de material particulado con diámetro aerodinámico igual o menor a 2,5 micrómetros (PM2,5) en cerca de 3.000 áreas urbanas, 2008-2015. / Organización Mundial de la Salud, 2016

Mapa PM 10

Concentración de material particulado con diámetro aerodinámico igual o menor a 10 micrómetros (PM10) en cerca de 3.000 áreas urbanas, 2008-2015. / Organización Mundial de la Salud, 2016

El caso de España está en sintonía con el europeo. Si en 2005 en nuestro país 49 zonas incumplían la normativa para PM, en la actualidad solo lo hace una (Avilés). Esta tendencia ha reducido notablemente las muertes prematuras anuales atribuibles a la mala calidad del aire en la Unión Europea: según la Agencia Europea de Medio Ambiente, se ha pasado de una estimación de un millón de muertes al año en 1990 a otra de 400.000 en 2016.

Querol considera que “los países y ciudades más avanzados en política ambiental han asumido social y políticamente que la calidad del aire no es un tema solamente de ecologismo, sino que lo es de salud pública en primer lugar”. Sin embargo, estos avances no han servido para alcanzar metas como la estrategia europea inicial en materia ambiental. “Prueba de ello es que desde 2010 debíamos cumplir una legislación en dióxido de nitrógeno que se ha infringido ampliamente en toda la Europa urbana; o que aún no se han adoptado como normativos los valores guía para PM de la OMS, a pesar de que la primera directiva de calidad del aire en Europa establecía que esto debía hacerse en 2010”, afirma el investigador.

A su juicio, para reducir la contaminación urbana es necesario adoptar medidas que “afectan al vehículo privado y la distribución de mercancías”. En esta dirección se enfoca el proyecto europeo Airuse Life +, galardonado como el mejor proyecto `Ciudades Verdes´ de 2018 y coordinado por este especialista. La iniciativa propone una reformulación urbanística, logística y del transporte muy profunda como estrategia para conseguir reducir la contaminación del aire en nuestras ciudades.

Mientras esto pasa en Europa, conTIMEminación se pregunta si estas medidas –en caso de que se implementen– llegarán a tiempo, y si lo harán en aquellos entornos –como los de los países en desarrollo– donde sus habitantes sufren un tipo de pobreza aun escasamente contemplada como un fenómeno de desigualdad geoeconómica: la pobreza ambiental. La imposibilidad de respirar aire digno.

Zabol, Onitsha, Peshawar, Gwalior…

* Fernando del Blanco Rodríguez es bibliotecario en el Centro de Investigación y Desarrollo del CSIC.

Si los muros del Metro hablaran… ¿Qué nos dicen los azulejos de una ‘estación fantasma’?

Por Elena Mercedes Pérez Monserrat y Mar Gulis (CSIC)*

El Metro de Madrid cumple 100 años en 2019. Esta red de Metro, que hoy es una de las mejores del mundo y cuenta con 302 estaciones a lo largo de 294 kilómetros de recorrido, fue inaugurada en 1919 por el rey Alfonso XIII con una sola línea Norte-Sur que iba desde Puerta del Sol a Cuatro Caminos (el germen de la que hoy se denomina Línea 1), con un total de 8 estaciones y que no llegaba a cubrir 3,5 kilómetros.

En los años 60 del siglo XX, cuando la compañía Metropolitano decidió alargar los trenes, se reformaron las estaciones para que los andenes pasaran de tener 60 a 90 metros. Pero hubo una estación en la que, por su situación en curva y por la cercanía a las paradas colindantes, no se pudo acometer esta reforma y acabó siendo clausurada por el Ministerio de Obras Públicas: la estación de Chamberí.

 

La icónica decoración de las estaciones del Metro de Madrid, incluidos vestíbulos, andenes o bocas de acceso, fue diseño del arquitecto Antonio Palacios. / Laura Llera

La icónica decoración de las estaciones del Metro de Madrid, incluidos vestíbulos, andenes o bocas de acceso, fue diseño del arquitecto Antonio Palacios. / Laura Llera

Tras más de 40 años cerrada y siendo objeto de curiosidades varias, la estación de Chamberí, después de una importante actuación de limpieza, restauración y conservación, fue reabierta en 2008 como centro de interpretación visitable del Metro de Madrid. Durante esas décadas en las que la “estación fantasma” permaneció cerrada al público, los accesos exteriores fueron vallados, hecho que permitió que se conservaran muchos de los objetos cotidianos de la época, como carteles publicitarios, tornos, papeleras… así como las cerámicas que recubrían toda la estación. Es decir, lo excepcional del lugar es que se trata de la única estación del Metropolitano que conserva su estado original casi en su práctica totalidad.

Luz y color para el Metropolitano de Madrid

En 1913 los ingenieros Carlos Mendoza (1872-1950), Miguel Otamendi (1878-1958) y Antonio González Echarte (1864-1942) presentaban un proyecto de red de metro para la ciudad de Madrid. El arquitecto Antonio Palacios (1874-1945) fue el encargado de diseñar las estaciones, los accesos y los edificios del proyecto. Se buscaba integrar el uso de materiales tradicionales en un entorno tecnológico completamente nuevo, dando un resultado muy decorativo de marcado estilo español. Con la aplicación de azulejería en el suburbano se pretendía proporcionar luminosidad y color a unos nuevos espacios -bajo tierra- que iban a ser utilizados por personas acostumbradas a la luz natural. La rica variedad de cerámicas de las diversas regiones españolas facilitó poner en práctica este empeño.

Estado actual de la estación de Metro de Chamberí (Madrid), alicatada con azulejos blancos y decorada con piezas coloreadas y/o con reflejo metálico. / Laura Llera

Estado actual de la estación de Metro de Chamberí (Madrid), alicatada con azulejos blancos y decorada con piezas coloreadas y/o con reflejo metálico. / Laura Llera

En Madrid, la cerámica vidriada aplicada a la arquitectura tuvo su máximo apogeo a finales del siglo XIX y principios del XX. Entonces, la azulejería publicitaria -especialmente en las estaciones del Metropolitano- y la urbana cobraron un especial significado. Este material favoreció el auge de las industrias cerámicas de los principales centros productores. Así, en la arquitectura madrileña de principios del siglo XX la cerámica vidriada desempeñaba un papel esencial desde la concepción inicial de los proyectos; y cabe resaltar la apuesta por seleccionar materias primas nacionales para su elaboración. En cuanto a las piezas de reposición que se han elaborado recientemente para las labores de restauración, se han respetado los aspectos formales de las originales, pero utilizando materiales y tecnologías que incrementan su resistencia.

El uso de la cerámica vidriada respondía también al apogeo en la época de la publicidad alicatada, así como a las condiciones de buena conservación y fácil limpieza que presenta la azulejería. Tras la Guerra Civil española (1936-1939) la publicidad en cerámica de la estación fue cubierta por tela y papel, que protegieron las cerámicas.

Qué nos dice el análisis científico de las cerámicas vidriadas de Chamberí

Un estudio multidisciplinar coordinado por personal investigador del Instituto de Geociencias (CSIC/UCM) ha permitido conocer las materias primas y las tecnologías de fabricación de unas cerámicas vidriadas extraordinarias, especialmente elaboradas para este emplazamiento excepcional: la estación de Metro de Chamberí (Madrid). El conocimiento adquirido pretende apostar por la conservación y puesta en valor de estos materiales, tanto de las piezas originales como de las de reposición.

Conforme a la función que desempeñan en la estación, las piezas estudiadas se agrupan en:

  • Azulejos blancos y lisos, que revisten la práctica totalidad de los paramentos y desempeñan una función esencialmente práctica, al otorgar luminosidad y resultar de fácil limpieza.
  • Piezas con reflejo metálico y superficies adornadas, con un carácter marcadamente decorativo, resaltando los encuentros de los planos y el enmarcado de la publicidad alicatada en los andenes.
Piezas originales. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos). Superior: azulejos blancos. Inferior: piezas decorativas con reflejo metálico

Piezas originales. Arriba: azulejos blancos, elaborados en Onda (Castellón). Abajo: piezas con reflejo metálico, elaboradas en Triana (Sevilla). Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos).

Los azulejos blancos originales fueron fabricados en Onda (Castellón) a partir de mezclas arcillosas muy ricas en carbonatos y cocidas a unos 950 ºC. Presentan un vidriado plúmbico alcalino cuya opacidad es en gran parte otorgada por partículas ricas en plomo y arsénico. Las piezas originales de carácter decorativo -con reflejo metálico- fueron elaboradas en Triana (Sevilla) a partir de arcillas illíticas calcáreas y cocidas entre 850-950 ºC. Se cubrieron con vidriados plúmbicos transparentes, con la adición de cobre y estaño.

Piezas de reposición. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos). Superior: azulejos blancos. Inferior: piezas decorativas con reflejo metálico

Piezas de reposición, elaboradas en Madrid. Arriba: azulejos blancos. Abajo: piezas con reflejo metálico. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos).

Las piezas de reposición se elaboraron según el aspecto de las originales y se apostó por la utilización de materiales y técnicas que otorgaran especial resistencia a las piezas. Se fabricaron en Madrid con materias primas principalmente procedentes de Barcelona, Castellón y Teruel. Las blancas, a partir de arcillas illítico-caoliníticas y calcáreas ricas en cuarzo cocidas a >950 ºC, aplicando un vidriado alcalino muy rico en zircona y alúmina. Las nuevas piezas con reflejo se elaboraron a partir de arcillas illítico-caoliníticas muy alumínicas cocidas a <850 ºC y con la importante adición de una chamota especialmente refractaria, cubriéndose con un vidriado plúmbico-potásico rico en alúmina.

 

* Este proyecto de investigación ha sido realizado por un equipo multidisciplinar del Instituto de Geociencias (CSIC/UCM), la Universidad de Granada, el Museo Nacional de Ciencias Naturales (CSIC) y la Universidad Nacional de Educación a Distancia. Puedes leer el artículo completo aquí.