La mineralogía salva la vida a Iron Man

Por Carlos M. Pina (CSIC-UCM) y Carlos Pimentel (UPM, UCM)*

[Contiene spoilers] Han pasado ya casi 6 meses desde que los Vengadores nos salvaron por última vez. Después de que Thanos asesinase a la mitad de los seres vivos del Universo utilizando las Gemas del Infinito, estas fueron utilizadas por Bruce Banner (Hulk) para devolverles a la vida. Tras ello, los ejércitos de Thanos se enfrentaron a los Vengadores y sus aliados en una cruenta batalla. Para detenerla, Tony Stark (Iron Man) utilizó el Guantelete del Infinito, con el que logró destruir a Thanos y sus ejércitos. Sin embargo, las heridas producidas por el poder de las gemas también causaron su muerte. ¿Fue el sacrificio de Tony Stark en vano?

Miremos detenidamente el Guantelete del Infinito. Está compuesto por 6 gemas con distintos poderes y colores, que juntas tienen un poder inimaginable. Pero lo que todos podemos apreciar es su color, no su poder, incluido Thanos por muy titán que sea. ¿Qué hubiese ocurrido si los Vengadores hubiesen sabido algo de mineralogía? Podrían haberle dado el cambiazo a Thanos y haber sustituido las Gemas del Infinito por gemas iguales pero que careciesen de poderes, como la amatista (morado), el rubí (rojo), el zafiro (azul), el crisoberilo (amarillo), el topacio (naranja) y la esmeralda (verde); gemas muy comunes y mucho más baratas que cualquier armadura de Iron Man. Así, los Vengadores hubiesen ganado la Guerra del Infinito antes de comenzar, Tony Stark seguiría vivo y Steve Rogers continuaría siendo el Capitán América.

Partiendo de la idea de que los minerales que aparecen en la ciencia ficción y la fantasía (por ejemplo, Star Wars, Star Trek, Mundodisco o X-men) hemos escrito una Pequeña guía de minerales inexistentes (Ediciones Complutense, 2019) y organizado una exposición con el mismo nombre en Madrid, que podrá visitarse en la Biblioteca María Zambrano de la UCM hasta el 6 de noviembre. En ellos presentamos 16 minerales ficticios, indicando su origen, sus imposibles propiedades y aplicaciones, e incluso información sobre sus imposibles estructuras y composiciones químicas. El libro también describe minerales o materiales similares reales que muestran propiedades análogas.

¿Hay algún mineral tan radiactivo como la kryptonita que aparece en Superman? En la naturaleza existen algunos minerales altamente radiactivos, como por ejemplo, la uraninita, la pechblenda (variedad impura de la uraninita) y la becquerelita. Sin embargo, ninguno de estos minerales sería capaz de derrotar a Superman, para decepción de Lex Luthor.

¿Existe algún material tan duro como el adamantium que recubre los huesos de Lobezno? Sí, aunque sin su increíble dureza. Se trata de la widia, un metal que se usa, por ejemplo, en las brocas de los taladros.

¿Qué minerales se han usado para comerciar como el tiberium del popular videojuego Command & Conquer? Los metales preciosos, las gemas, la sal común (que es un mineral llamado halita) han sido utilizados históricamente como moneda de cambio.

Tiberium realizado con impresora 3D y que forma parte de la exposición.

¿Podemos pensar en algún mineral como los cristales de adegan de Star Wars? Por supuesto. El rubí fue el mineral con el que se fabricaron los primeros láseres, aunque no sirve para hacer sables láser como los de las películas (una lástima para los frikis).

¿Algún mineral mágico como el octirón de Mundodisco? Por supuesto que no, ya que los minerales no tienen propiedades mágicas. Por más que en muchas tiendas de minerales se les atribuyan ciertos poderes, esto es completamente falso.

¿Y por qué es importante saber de minerales? No es sólo para saber cómo salvar a nuestros personajes de cómics, películas o videojuegos preferidos. Los minerales también son esenciales en nuestra vida diaria. Para fabricar el móvil o la tablet en la que estás leyendo esta noticia se han utilizado al menos 13 minerales distintos, la electricidad llega a tu casa a través de cables de cobre que se extraen de minerales y hay minerales y rocas en tu cocina, como la sal o la encimera de granito. Además, los minerales nos cuentan, a geólogos y mineralogistas, cómo fue la Tierra en épocas pasadas. Gracias a su estudio, se ha podido determinar, por ejemplo, cómo era el clima en la época de los dinosaurios o cómo era la Tierra en el pasado.

La exposición podrá visitarse en la Biblioteca María Zambrano de la UCM hasta el 6 de noviembre. El 16 de octubre a las 18:00 habrá un acto de presentación tanto de la exposición como de la guía de minerales inexistentes.

* Carlos M. Pina es profesor titular de Cristalografía y Mineralogía en la Facultad de Ciencias Geológicas de la Universidad Complutense de Madrid e investigador del Instituto de Geociencias (IGEO, CSIC-UCM). Carlos Pimentel es investigador en la E.T.S.I. de Montes, Forestal y del Medio Natural de la Universidad Politécnica de Madrid y colaborador honorífico del Departamento de Mineralogía y Petrología de la Facultad de Ciencias Geológicas de la Universidad Complutense.

¿Cómo funcionan el bitcoin y otras monedas virtuales? La clave es la tecnología blockchain

Por Mar Gulis (CSIC)

Basada en la tecnología blockchain, la moneda virtual bitcoin no cuenta con el respaldo de ningún gobierno  o banco central.

En 2008 alguien que firmaba bajo el seudónimo de Sataoshi Nakamoto creó el bitcoin. La famosa moneda virtual ha sido la punta de lanza de un fenómeno más amplio: la criptoeconomía. Este concepto se refiere a toda la actividad financiera basada en el uso de criptomonedas y tecnología blockchain (cadena de bloques), un sistema descentralizado de recolección de datos en el que la información se agrupa en bloques, es de acceso público y, mediante técnicas criptográficas, solo puede ser editada o alterada modificando toda la cadena de bloques previa.

Los investigadores del CSIC David Arroyo y Luis Hernández, y su colega Jesús Díaz, de IBM,  explican que el éxito de cualquier criptomoneda no reside solo en esta base criptográfica, sino que es necesario que exista un conjunto de usuarios que pongan sus ordenadores al servicio del ecosistema, actuando como nodos activos en la generación de criptomonedas. Así es como funciona la red Bitcoin. Expertos en telecomunicaiones, matemáticas e informática, los tres autores acaban de publicar Blockchain (Editorial CSIC-Los libros de la Catarata), donde explican el significado y alcance de este vocablo. A lo largo del libro cuentan cómo funciona y para qué sirve una tecnología que puede ser clave para transitar a una nueva economía digital y a la denominada web 4.0.

Portada del libro Blockchain, editado por el CSIC y Los Libros de la Catarata.

Como decíamos, blockchain es un sistema descentralizado de recolección de datos que elimina a los intermediarios, los bancos en el caso de Bitcoin, desconcentrando todas las tareas de gestión. Son los usuarios quienes controlan el proceso, como si se tratase de un enorme banco con millones de nodos, de modo que cada uno se convierte en partícipe y gestor de los libros de cuentas de esta peculiar entidad. En ese contexto de aplicación, blockchain sería una especie de libro de contabilidad gigante en el que los registros (bloques) están enlazados y validados criptográficamente para proteger la seguridad de las transacciones. En otras palabras, es una base de datos distribuida (no se almacena en una sola ubicación) y segura que se puede aplicar a todo tipo de transacción, no solo económica.

Precisamente por esta particular estructura, blockchain se está empleando para crear sistemas financieros alternativos, al margen del tradicional control de los bancos centrales. Ejemplos de ello son las plataformas Bitcoin y Etherum, a través de las cuales cualquiera puede registrar transacciones con sus respectivas monedas virtuales, el bitcoin y el ether. Como apuntan los investigadores en su libro, la utilización de este dinero virtual y la tecnología en la que se sustenta –blockchain– ha pasado de cierto rechazo institucional, e incluso mala fama, a representar una oportunidad para nuevos modelos de negocio y actividad financiera, en medio de una ola de entusiasmo hacia la denominada criptoeconomía. El potencial de blockchain es diverso, y pasa por la construcción de sistemas de protección de derechos de autor; la configuración de organizaciones autónomas basadas en ‘contratos inteligentes’ o la gestión del Internet de las cosas, entre otras aplicaciones.

Pero sus múltiples oportunidades conviven con varios puntos débiles: por ejemplo, la no trazabilidad de las criptomonedas, frente al pago tradicional con tarjeta de crédito o mediante transferencia bancaria, dificulta la persecución del lavado de dinero; sus limitaciones en la gestión de la identidad y privacidad de los usuarios; las fluctuaciones en la cotización de las monedas virtuales; la gran cantidad de energía que requieren los modelos de generación de moneda en Bitcoin y Ethereum; el déficit en escalabilidad de la red blockchain de acceso abierto; o ciertos incidentes de seguridad. “En los últimos años podemos hallar errores en la implementación de protocolos criptográficos, robos de credenciales en plataformas digitales, incluso fallas graves de seguridad en dispositivos hardware resistentes a la manipulación”, señalan los autores. Como explica David Arroyo, del Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI-CSIC), “el trabajo teórico que sustenta esta tecnología está aún en fase de desarrollo, y los organismos de estandarización quieren establecer un marco de referencia básico que ofrezca garantías a su utilización”.

Con todo, la obra incide en que blockchain va más allá de posibilitar meros intercambios económico-financieros. Es una herramienta para desarrollar nuevos protocolos que permitan la gestión de todo tipo de datos en esta sociedad de la información.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Matemáticas para hacer más seguro el coche autónomo

Por Mar Gulis y Ágata Timón (CSIC)*

El coche autónomo ya es una realidad. Las principales compañías de automóviles tienen previsto lanzar comercialmente sus prototipos entre 2020 y 2021, pero ¿está la sociedad preparada para este salto cualitativo? Entre los retos científicos y tecnológicos que supone la conducción automática en un entorno complejo e imprevisible, la comunidad investigadora se tiene que enfrentar a cuestiones como analizar los riesgos de este nuevo tipo de conducción, diseñar la comunicación entre la máquina y el humano, o estudiar el impacto que tendrá en la economía y en ciertos sectores industriales. De todo esto se ocupa el proyecto Trustonomy. Building Acceptance and Trust in Autonomous Mobility, financiado por la Unión Europea. Su objetivo principal es crear aceptación y confianza en la movilidad autónoma.

El proyecto, en el que participa el investigador del Instituto de Ciencias Matemáticas (ICMAT) del CSIC David Ríos, propondrá mejoras en los algoritmos que dirigen la conducción autónoma. Estos identifican la posición y el estado del coche y de todos los agentes que están a su alrededor, predicen su evolución en el tiempo y toman decisiones, minimizando los riesgos. “El coche ejecuta elecciones sencillas: frenar, acelerar o cambiar su dirección, pero tiene que evaluar las consecuencias de esas decisiones”, explica Ríos. Su misión es producir modelos de análisis de riesgos que permitan predecir y responder ante los peligros específicos vinculados a esta forma de movilidad emergente.

¿Cómo nos relacionamos con un vehículo autónomo?

También es indispensable prestar atención a la interacción entre el conductor y el vehículo. Siguiendo la clasificación más común, los coches autónomos se diferencian en seis categorías, del 0 al 5: los vehículos del nivel 0 dependen totalmente del conductor, y en el nivel 5 supone la conducción plenamente autónoma sin intervención humana. Hasta el momento los coches más avanzados han conseguido alcanzar el nivel 4, en el que solo se requiere la conducción humana en casos de falta de visibilidad o fallo del sistema, por lo que el papel humano seguirá siendo determinante en el transporte.

“Las últimas muertes provocadas por coches autónomos han sido causadas porque los humanos que los supervisaban no estaban prestando atención”, afirma Ríos. Para evitar estas situaciones, el coche debe ser capaz de comunicarse de forma efectiva con el conductor, saber cuál es su grado de atención (mediante cámaras y sensores) y lanzar advertencias cuando se requiera. Además, durante un tiempo coexistirán en la carretera los vehículos totalmente autónomos, los semiautónomos y los no autónomos. Esto presentará nuevos riesgos en la conducción, que también deberán ser analizados.

Otro problema importante es el de la ciberseguridad. “Un coche autónomo funciona a través de un sistema informático, y puede ser atacado, por ejemplo, por medio del reconocimiento de imágenes. Modificando unos pocos píxeles de una imagen, se puede identificar un obstáculo de manera errónea y, como consecuencia, frenar o acelerar cuando no corresponde. Es un riesgo grave”, explica el investigador.

Para analizar todos estos riesgos se desarrollarán modelos de aprendizaje automático, basados principalmente en estadística bayesiana y teoría de juegos. El catálogo resultante será útil para rediseñar las pólizas de seguro y revisar las regulaciones de seguridad vial, pero también servirá para estudiar los procesos éticos de toma de decisiones y los métodos de verificación en caso de accidentes o ambigüedad.

El proyecto, que cuenta con 3,9 millones de euros del programa H2020 de la Unión Europea, se desarrollará hasta el 30 de abril de 2022. En él participan, además del ICMAT, otras 15 organizaciones de diferentes países europeos.

 

*Ágata Timón trabaja en el Instituto de Ciencias Matemáticas (ICMAT), centro de investigación mixto del CSIC y tres universidades madrileñas: la Universidad Autónoma de Madrid (UAM), la Universidad Carlos III de Madrid (UC3M), y la Universidad Complutense de Madrid (UCM).

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

Listeriosis: a veces ocurre

Por Marta López Cabo (CSIC)*

El 41% de los europeos considera la seguridad alimentaria una preocupación. Así lo reflejan las encuestas recogidas en el Eurobarómetro publicado recientemente por la Agencia Europea en Seguridad Alimentaria (EFSA, 2019). En España, esta cifra se sitúa en el 37%. No son porcentajes muy elevados porque la aparición de brotes o problemas de salud asociados con el consumo de alimentos no es frecuente. Pero a veces ocurre.

Es el caso del brote de listeriosis de Andalucía, asociado con el consumo de carne mechada y otros productos contaminados con la bacteria Listeria monocytogenes, y que ha provocado 3 defunciones, 2 abortos, 2 muertes fetales intraútero y alrededor de 212 personas afectadas, algunas de ellas hospitalizadas.

¿Qué es Listeria monocytogenes?

Frotis sobre cupón de acero inoxidable utilizado para la toma de muestras de biofilms de Listeria monocytogenes potencialmente presentes en superficies de la industria alimentaria / IIM-CSIC

Listeria monocytogenes es una bacteria patógena de alta relevancia transmitida por alimentos. Decimos ‘alta relevancia’ no tanto por el número de casos declarados, sino por los casos de muerte asociados a grupos de riesgo (embarazadas, inmunodeprimidos y población de elevada edad). Ello la ha convertido en un objetivo prioritario para la comunidad científica y las agencias de seguridad alimentaria, lo que ha resultado en el avance en el conocimiento de su biología y el desarrollo e implementación de diferentes soluciones para su control y eliminación.

A pesar de ello, los datos de los últimos informes publicados por EFSA (2017, 2018) ponen de manifiesto una tendencia creciente del número de casos notificados de listeriosis en humanos en Europa. En 2017, la listeriosis causó cerca del 50% de las muertes por zoonosis alimentarias (enfermedades que se transmiten entre los animales y el ser humano a través del consumo de alimentos) en la Unión Europea y el 98% de los casos registrados requirió hospitalización.

¿Qué está ocurriendo?

Que L. monocytogenes, como la mayoría de las bacterias patógenas, tiene unas características biológicas peculiares que favorecen su prevalencia en superficies de plantas de procesado y en alimentos. Ubicua, resistente al ácido y a bajas condiciones de actividad de agua, es además capaz de crecer a temperaturas de refrigeración, las mismas que utilizamos para prolongar la vida comercial de los alimentos.

Pero L. monocytogenes tiene otra particularidad: su condición de bacteria-parásito. Quizás se trata de un estado intermedio de la evolución entre ambas formas biológicas que puede implicar ventajas en su ecología y capacidad infectiva. Sin embargo, esto aún está por dilucidar.

Imagen de microscopía de fluorescencia de biofilms formados por L. monocytogenes (células rojas) y Acinetobacter jonhsonii (células azules) sobre superficies de acero inoxidable / IIM-CSIC

Son varios los grupos de investigación que estudian esta bacteria. El grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) investiga desde 2006 la incidencia y prevalencia de L. monocytogenes en plantas de procesado de alimentos; también la relación entre su ecología (especies bacterianas con las que se asocia y convive) y la resistencia a desinfectantes de uso industrial. Más recientemente, los estudios se han orientado a la búsqueda de alternativas basadas en moléculas de comunicación bacteriana (quorum sensing) que interrumpan o dificulten el agrupamiento de la bacteria y por tanto la aparición de estructuras estables que puedan convertirse en focos de contaminación. Con ello, el microorganismo no desaparecería, pero podría evitarse o ralentizarse la formación de estos focos.

Nuestras conclusiones son claras. L. monocytogenes puede persistir asociada a diferentes especies bacterianas y adherida a superficies y maquinaria de las plantas de procesado de alimentos formando estructuras complejas o biofilms (comunidades de células bacterianas) potencialmente resistentes a los protocolos de desinfección aplicados. Estas colonias constituyen focos de contaminación y puntos críticos para la contaminación cruzada, bien directamente, por contacto de alimentos, o indirectamente a través de utensilios o mediante los propios operarios y trabajadores de la planta. Porque, aunque no es habitual, a veces ocurre.

La solución también es clara: mejorar los sistemas de control y autocontrol de la industria y a lo largo de la cadena de valor y seguir avanzando en la investigación de L. monocytogenes y otros patógenos para poder ofrecer al consumidor alimentos seguros.

 

*Marta López Cabo  es responsable del Grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) y coordinadora de la Red Gallega de Riesgos Emergentes en Seguridad Alimentaria (RISEGAL).

¿Quieres participar en el calendario científico de 2020? ¡Envía tu efeméride!

Por Mar Gulis (CSIC)

El 7 de noviembre podría dedicarse a Marie Curie. Ese día, en 1867, nació esta científica, Premio Nobel de física y química y descubridora del polonio y el radio. / Imagen extraída de un panel de la exposición Entre moléculas.

Un 3 de octubre de 1916 nació Mª Ángeles Alvariño González, primera mujer científica que trabajó a bordo de un buque británico de investigación. Diez años después, el día 17 de agosto, lo hacía Margaret Hamilton, matemática que desarrolló el programa informático de navegación del Programa Apolo de la NASA. Estas y otras efemérides aparecerán en un calendario que también recogerá conmemoraciones de hallazgos e inventos destacables, pasados o de épocas recientes. Así, el 16 de noviembre podría reflejar que ese día, pero del año 1989, los investigadores del CSIC Javier Borderías y Margarita Tejada patentaron el procedimiento para fabricar las famosas gulas, mientras que el 21 de junio de 2002 recogería que, gracias a las vacunas, Europa logró erradicar la poliomielitis.

Lo decimos en condicional porque este calendario científico está en proceso de elaboración. El proyecto, coordinado por el investigador Pablo G. Toral, del Instituto de Ganadería de Montaña (CSIC-Universidad de León), se inspira en las versiones existentes en Rumanía y Escocia, pero el objetivo es incluir contenidos adaptados a nuestro contexto. “A partir de la información que tenemos de otros calendarios científicos, hemos preparado un primer borrador que está disponible online”, explica Toral. Su idea es que cualquiera pueda aportar información para incluir en la versión final. “Vamos a dar de plazo hasta el próximo 6 de septiembre para que la gente envíe sus propuestas. Si conseguimos varios aniversarios para un mismo día, haremos una selección con los temas prioritarios. El resto se aprovecharán en futuras versiones del calendario, pues nace con vocación de continuar”. Ya sabes, si se te ocurre alguna efeméride relacionada con la ciencia, este es el sitio para contarla.

¿Y para qué un almanaque de estas características? El principal objetivo es acercar la cultura científica a la población más joven –especialmente al alumnado de primaria y ESO– y crear referentes que le resulten cercanos. Por esta razón, el calendario científico escolar hace hincapié en mostrar personas y descubrimientos del presente, y en visibilizar a las investigadoras para promover las vocaciones científico-técnicas entre las niñas y adolescentes. Otro de sus propósitos es divulgar la actividad de los centros de investigación españoles y aprovechar el 150º aniversario de la creación de la tabla periódica de los elementos químicos para incluir contenidos relacionados con este icono de la ciencia. Para lograrlo, el calendario irá acompañado de guías didácticas que podrán utilizarse en las aulas.

Y como la idea es llegar a cuanto más público, mejor, todos los materiales estarán disponibles online para su descarga gratuita y se traducirán, además, al  euskera, catalán, gallego y asturiano.

Este proyecto cuenta con la colaboración de la Fundación Española para la Ciencia y la Tecnología-Ministerio de Ciencia, Innovación y Universidades. Asimismo, asociaciones enfocadas a promover la divulgación de la ciencia y el pensamiento crítico, y profesionales del ámbito educativo, respaldan la propuesta. A su vez, el calendario se basa en las versiones existentes en Rumanía, donde esta iniciativa se desarrolla desde 2011, y Escocia, en la que el Daily Discovery Calendar se ha popularizado más recientemente.

¡Busca tu efeméride y participa!

Crímenes con rigor químico: los venenos de Agatha Christie

Por Pilar Goya (CSIC), José Elguero (CSIC) y Pascual Román (UPV/EHU)*

Agatha Christie, veneno, talio, arsénico

La escritora británica Agatha Mary Clarissa Miller, más conocida como Agatha Christie, en una imagen de archivo. / Wikipedia

En las novelas de Agatha Christie (1890-1976) se puede morir de muy diversas formas, pero el veneno era sin duda su arma preferida, ya fuese un solo elemento químico o complejas sustancias naturales. La escritora plasmó en su obra los conocimientos de química que había adquirido en las dos guerras mundiales, al trabajar como enfermera en los dispensarios de los hospitales de Torquay y del University College de Londres, una experiencia que ayudó a que los protagonistas de sus historias fueran asesinados con mucho rigor químico.

En un libro sobre ella escrito por Kathryn Harkup, titulado A is for arsenic: the poisons of Agatha Christie, su autora analiza las novelas en las que el agente homicida es un veneno.

Agatha Christie se basaba generalmente en datos lo más exactos posibles en términos de disponibilidad y trazabilidad de sus venenos, que conocía bien por su trabajo en la farmacia. Hay que recordar que algunos elementos tóxicos como el arsénico y el talio estaban presentes en determinadas for­mulaciones médicas en los primeros años del siglo XX.

El elemento que más aparece en sus novelas es el arsénico, “el veneno de los reyes y el rey de los venenos”. Ocho personajes de cuatro novelas y de cuatro cuen­tos cortos mueren por ingerirlo. El arsénico es conocido como veneno desde la Antigüedad, aunque en realidad el agente letal no es el elemento puro, sino el trióxido de arsénico, que se absorbe más fácilmente por el organismo. Este compuesto no se disuelve en agua fría, pero sí en agua caliente, lo que lo hace muy apto para ser camuflado en infusiones.

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Cuenta la leyenda que cuando Cleopatra decidió acabar con su vida ensayó distin­tos venenos en sus sirvientas, entre ellos el arsénico, pero al final optó por la mordedura de áspid (una especie de víbora) porque le pareció una muerte menos desagradable. El en­venenamiento por arsénico fue popular durante el Renacimiento, en particular entre los Borgia. Parece ser que añadían arsénico a las entrañas de un cerdo sacrificado y lo dejaban pudrir. Esa masa se secaba y el polvo resultante, llamado “la cantarella”, se incorporaba a la comida o bebida, de forma que lo que no hacía el veneno lo remataban las toxinas del animal. Entre las ventajas de esta sustancia estaba que, sorprendentemente, era bastante insípida y que los síntomas se confundían con los del cólera o la disentería. En general, el envenenamiento por ar­sénico puede identificarse erróneamente con causas naturales. Además, en la época en la que transcurren las primeras novelas de Agatha Christie era fácil comprar compuestos de ar­sénico en el Reino Unido, como herbicidas, matarratas e incluso tónicos que contenían este elemento.

Otro elemento venenoso al que hace referencia la autora británica es el talio, que aparece en su novela El misterio de Pale Horse. El talio es conocido como el “veneno de los envenena­dores” y también produce síntomas que pueden atribuirse a causas naturales. Christie solo utiliza el talio como veneno en esta novela, que trata de una organización criminal que ofrece ase­sinatos “a demanda”. El libro dio cierta notoriedad al talio, ya que en la fecha de su publicación, 1961, esta forma de enve­nenamiento era poco conocida, si bien en la novela de Ngaio Marsh, Final Curtain, escrita en 1947, ya aparece este elemento como veneno. El misterio de Pale Horse suscitó cierta polémica, ya que se sugirió que podía haber inspirado algunos asesinatos en la vida real pero, sin embargo, su minuciosa descripción de los síntomas del envenenamiento con talio fue útil para salvar algunas vidas.

El primer caso de un envenenamiento real con talio fue el de Molly Young, ocurrido en el Reino Unido en 1962, solo unos meses después de que se publicara la novela. Graham Young, autor de este crimen y otros más, negó haber leído la novela, lo que probablemente fuera cierto, ya que Young era un verdadero experto en venenos.

A favor de la novelista está otro caso real. En 1977, después de que ella hubiera fallecido, una niña de 19 meses fue llevada a un hospital de Londres con síntomas de una enfermedad extraña. La enferme­ra Marsha Maitland, que había leído El misterio de Pale Horse, sugirió que podía tratarse de un envenenamiento con talio. Se analizaron muestras en el laboratorio forense de Scotland Yard y se encontró efectivamente la presencia de este elemento. El ori­gen parecía ser un producto utilizado por los padres para aca­bar con cucarachas y ratas, al que la niña de alguna forma había tenido acceso y había ingerido. Finalmente, la pequeña se recuperó y en el artículo que apareció en el British Journal of Hospital Medicine los autores agradecen a “Agatha Christie sus excelentes descripciones clínicas y a la enfermera por mantenerles al día con la bibliografía”.

 

* Este post se basa en varios fragmentos del libro La tabla periódica (Editorial CSIC-Los libros de la Catarata), escrito por José Elguero Bertolini, Pilar Goya Laza (ambos, investigadores del Instituto de Química Médica del CSIC) y Pascual Román Polo (Universidad del País Vasco).

Cremas solares: ¿una amenaza para el Mediterráneo?

Por Antonio Tovar (CSIC)*

¿Sabías que España es, sólo por detrás de Francia, el segundo destino mundial en cuanto a visitantes extranjeros? Cada año batimos nuestro récord, con 82,6 millones de visitantes en 2018, casi el doble de la población española. La mayoría buscan un turismo de sol y playa: cerca de la mitad se concentran en las zonas costeras, muy particularmente en la costa mediterránea durante los meses de verano. Si contamos los turistas que reciben otros países del área (por ejemplo, Italia, Francia, Turquía, Grecia, Croacia o Marruecos) veremos que en 2016 se alcanzaron en el Mediterráneo 329,2 millones de visitas, cifra equivalente a la población del tercer país más poblado del mundo, Estados Unidos. Esta afluencia afecta positivamente a la economía de estos países –la actividad turística generó a la Unión Europea 1,1 billones de euros durante 2016–, pero supone también un impacto en el medio ambiente, especialmente en el medio marino, que requiere de una urgente atención.

Crema solar

Entre los múltiples impactos que tiene el turismo sobre los mares, la contaminación por el uso de las cremas solares está recibiendo especial atención de la comunidad científica, ya que nos encontramos ante un problema de alcance global. Las pruebas que sustentan esta afirmación son:

  • La creciente preocupación en las últimas décadas sobre los riesgos asociados con la exposición de la piel a la radiación ultravioleta (UV) se traduce en un incremento en el uso de protectores solares. Estos productos acaban en el mar, bien durante el baño o indirectamente a través de las plantas de aguas residuales.
  • El aumento del turismo de sol y playa lleva aparejado un incremento del consumo de cosméticos. De hecho, el valor de los protectores solares en el mercado alcanzó en 2018 los 7.350 millones de euros y se pronostica que llegará a los 10.430 millones de euros en 2025.
  • Se trata de cosméticos en cuya formulación se incluyen multitud de ingredientes químicos, no todos específicamente indicados en sus etiquetas.
  • Estudios científicos recientes han demostrado la toxicidad de las cremas solares en su conjunto o de alguno de sus ingredientes (como el dióxido de titanio, el óxido de zinc, o la oxibenzona) sobre organismos del ecosistema marino (microalgas, mejillones, erizos, crustáceos, peces, corales, etc.).
  • Se han encontrado ingredientes químicos usados en la formulación de las cremas solares en multitud de animales, como peces, delfines o huevos de aves, y en lugares muy remotos del planeta, como la Antártida.

Todo apunta, por tanto, a que nos encontramos con un problema real, de alcance global y con efectos de magnitud aún desconocida. Ante tales ‘pistas’, algunos gobiernos ya han adoptado medidas sin precedentes para tratar de proteger sus ecosistemas. Así, el estado de Hawái (Estados Unidos) aprobó en 2018 una ley para prohibir la venta y distribución de protectores solares que contengan entre sus ingredientes oxibenzona y sus derivados, que resultan tóxicos para los corales. En el mismo año, y por el mismo motivo, el archipiélago de Palaos (Micronesia) aprobó una ley para prohibir por completo el uso de cremas solares, convirtiéndose en el primer país del mundo en adoptar dicha medida. Sin embargo, existen otras zonas del planeta, como el Mediterráneo, donde el problema puede estar especialmente magnificado, y donde no se ha adoptado ninguna medida encaminada a evaluar o minimizar el impacto de las cremas solares en sus ecosistemas marinos.

Punto caliente de biodiversidad

A pesar de que este impacto no ha sido aún evaluado, el Mediterráneo presenta una serie de características físicas, químicas, biológicas y socioeconómicas que hace que sus ecosistemas sean, desde el punto de vista de la contaminación, unos de los más amenazados del mundo.

Este mar es una cuenca semi-cerrada donde la pérdida de agua por evaporación supera la entrada por precipitaciones y descargas de los ríos. Esto genera un déficit hídrico que se compensa parcialmente con un intercambio limitado de agua con el océano Atlántico a través del Estrecho de Gibraltar (de tan solo 12,8 km de ancho y unos 300 metros de profundidad), y que es la única conexión con el océano abierto. Todo ello hace que la renovación del agua del Mediterráneo sea mucho más lenta que la de cualquier otra zona oceánica, y por tanto el efecto de cualquier contaminante, como podrían ser las cremas solares, permanezca en sus aguas durante más tiempo.

Posidonia

Posidonia oceanica. / Alberto Romeo (CC BY-SA 2.5).

Con más de 17.000 especies marinas, el Mediterráneo es uno de los puntos calientes de biodiversidad del planeta, con especies endémicas de gran valor ecológico y muy sensibles a la contaminación, como las praderas de Posidonia oceanica. A pesar de su riqueza biológica, es un mar oligotrófico, es decir, su producción primaria es muy baja como resultado de la escasa concentración de determinados nutrientes disueltos en sus aguas, principalmente el fósforo. Esta característica confiere a sus aguas un aspecto azulado y cristalino.

Además tiene una media de 250 días de sol al año, el clima es suave y húmedo durante el invierno, y cálido y seco durante el verano. Todo esto, junto con un rico patrimonio cultural y una situación sociopolítica favorable, crea en las regiones costeras mediterráneas un escenario idílico que atrae a millones de turistas cada año.

Nos encontramos, por tanto, ante una región que recibe de manera masiva turistas atraídos en buena parte por las características medioambientales y ecológicas del medio. Esto genera una gran riqueza económica, pero a la vez perjudica y amenaza los recursos ambientales. Es una responsabilidad de los gobiernos buscar alternativas que garanticen un turismo sostenible que priorice la conservación de los ecosistemas y evitar que el crecimiento turístico del que presumimos se convierta en víctima de su propio éxito. La búsqueda de dichas alternativas requiere ineludiblemente de la cooperación entre la comunidad científica, empresas cosméticas y farmacéuticas, gestores ambientales y políticos.

 

* Antonio Tovar es investigador en el Instituto de Ciencias Marinas de Andalucía, del CSIC.

De Granada a la Luna: cuatro décadas de astrofísica en Andalucía

Por Manuel González (CSIC)*

El 20 de julio de 1969 una persona pisó por primera vez la superficie de nuestro satélite. “Un pequeño salto para el hombre, un gran paso para la humanidad”, como afirmó Neil Armstrong, el artífice de una hazaña -o por lo menos su cara más visible-, de la que ahora se cumplen 50 años. Tras años de estudios, pruebas, misiones de exploración y algún que otro fracaso, por fin se conseguía hacer llegar la nave Apolo XI a la Luna. Aunque aquella vez no fue la única (entre 1969 y 1972 otras cinco misiones cumplieron el objetivo de transportar astronautas a nuestro satélite) sí fue la más icónica. Habíamos logrado abandonar nuestro planeta, posarnos en el cuerpo más cercano del Sistema Solar y volver. Algo impensable a principios del siglo XX.

El astronauta Buzz Aldrin durante el primer aterrizaje lunar, el 20 de julio de 1969./ NASA/ Neil A. Armstrong

Quizás una de las consecuencias que tuvo esa misión, y en particular la foto de la bandera americana ondeando sobre nuestro satélite, es que cada vez que se habla de la exploración espacial se tiende a pensar únicamente en Estados Unidos. Algunas personas también pensarán en la antigua Unión Soviética y China. Sin embargo, son varios los países que han participado desde hace años en misiones espaciales cuyo objetivo es desentrañar los misterios de los cuerpos del sistema solar. Sí, España también forma parte de la carrera espacial.

De cohetes estratosféricos a la superficie de Venus

En esta carrera, el Instituto de Astrofísica de Andalucía (IAA) del CSIC ha jugado un importante papel desde su fundación en 1975. El 20 de julio de 1969 el IAA todavía no existía. Seis años después, en julio de 1975, este centro se inauguró en el palacio de la Madraza, un edificio histórico junto a la catedral de Granada, con un puñado de científicos y científicas dispuestos a hacer ciencia de la mejor calidad. En poco más de 40 años, el Instituto de Astrofísica de Andalucía ha participado activamente en la exploración de los cuerpos más importantes del Sistema Solar: la atmósfera de nuestra Tierra, el Sol, la mayoría de los planetas, algunas lunas, e incluso en un cometa. También fuera de nuestro Sistema Solar, ya que ha conseguido detectar planetas que orbitan alrededor de otras estrellas.

Uno de los primeros proyectos consistió en estudiar la luminiscencia nocturna en 1976. Se trataba de efectuar una exploración de la alta atmósfera terrestre con cohetes de sondeo. Se lanzaron varios desde el Arenosillo, Huelva, que ascendían unos kilómetros y que medían y caracterizaban la atmósfera terrestre según caían al mar. Este proyecto pionero daba el pistoletazo de salida al IAA en su aventura espacial.

Años después, tras estudiar la atmósfera de nuestro planeta, se saltó a la de Marte. La sonda Mars 96, lanzada en 1996, tenía como uno de sus objetivos el estudio de ciertas moléculas en la atmósfera marciana. Esta misión nunca llegó a Marte porque no consiguió abandonar la órbita terrestre, pero sentó las bases para construir un satélite que sí lograría su objetivo, Mars Express. Esta segunda misión, que comenzó en 2003 fue todo un éxito. Lanzó un orbitador que ha estado realizando investigaciones científicas desde entonces. La mayor parte de la instrumentación de este satélite es europea, con importante participación del IAA.

Entre Mars 96 y Mars Express el instituto participó en Cassini-Huygens, un proyecto para estudiar el planeta Saturno y sus lunas que data de 1997. La nave contaba con una sonda denominada Cassini que orbitaba alrededor del planeta, y de un módulo de descenso, Huygens, para estudiar la atmósfera de Titán. Huygens fue el primer objeto que aterrizó en una luna que no fuera la terrestre, y cumplió con éxito la mayoría de sus objetivos científicos.

Tras este hito, la misión Rosetta, lanzada en 2004 hacia el cometa 67P/Churiumov-Gerasimenko, fue el siguiente proyecto en el que se embarcó el instituto granadino. El desafío era mayúsculo. Por primera vez en la historia, la humanidad colocó un artefacto en un cometa: el módulo de aterrizaje Philae se posó sobre 67P en 2014. Pese a que el aterrizaje de Philae fue accidentado, porque rebotó y terminó posándose en una zona más escarpada de lo previsto, consiguió obtener muchas imágenes durante el aterrizaje y tomar datos sobre la superficie del cometa.

La misión Venus Express, lanzada en 2005, permitió estudiar la atmósfera y la superficie de Venus. Por su parte, CoRoT iniciada en 2006, estaba dedicada a la búsqueda de planetas extrasolares. Ambas también contaron con la participación tecnológica y científica del IAA.

 

La sonda Venus Express, sobre una imagen real de las ondas atmosféricas de Venus. / IAA

 Júpiter y exoplanetas: los retos del futuro

La Unidad de Desarrollo Instrumental y Tecnológico (UDIT) del IAA, un equipo dedicado especialmente al desarrollo de instrumentación, ha crecido considerablemente a lo largo de las últimas décadas. En su agenda se suman proyectos como Exomars o BepiColombo, lanzadas en 2016. La primera es una misión espacial a Marte que intentará averiguar si hubo vida en el planeta rojo en un pasado (o si la hay ahora). La segunda tiene como objetivo el estudio de Mercurio, uno de los planetas menos explorados hasta el momento.

¿Qué nos deparará el futuro? El año que bien comenzará el vuelo de Solar Orbiter, el primer satélite que observará los polos del Sol. Parte de su instrumentación ya fue probada con éxito en otro proyecto del centro, Sunrise, un globo que estudió en dos ocasiones (en 2009 y 2013) nuestra estrella desde la Tierra. Además, el IAA está fuertemente implicado científica y tecnológicamente en JUICE, prevista para 2022, que explorará tanto Júpiter como sus satélites Ganímedes, Europa y Calisto. Y en PLATO, que comenzará en 2026 y buscará y caracterizará planetas extrasolares rocosos alrededor de estrellas similares al Sol.

Esta exitosa actividad espacial ha contribuido a que el IAA sea reconocido como centro de excelencia Severo Ochoa, el único de Andalucía con esta distinción a día de hoy. Todo esto no habría sido posible sin el empeño y esfuerzo de unos científicos y científicas que, desde su despacho de la Madraza, quizás inspirados por los pasos de Neil Armstrong sobre la Luna, soñaron un día con conquistar el cielo.

* Manuel González trabaja en la Unidad de Cultura Científica del Instituto de Astrofísica de Andalucía del CSIC y es responsable, entre otros proyectos de divulgación, del videoblog El astrónomo indignado.