Archivo de la categoría ‘Química’

¿Para qué sirve un láser?

Por José Vicente García Ramos (CSIC)*

Cuando se inventó, en 1960, el láser no servía para nada. De hecho, en aquellos tiempos algunos científicos se referían a él como “una solución en busca de problema”. Entonces, ¿para qué lo inventaron? Parece que querían probar, experimentalmente, que el mecanismo de amplificación de la luz por emisión estimulada, predicho por Einstein en 1917 y demostrado con microondas en 1954, podía extenderse a la luz visible.

Hoy, sin embargo, la situación es muy diferente y el láser ha encontrado tantas aplicaciones que nos resulta casi imposible enumerarlas. Las tres características que diferencian la luz de un láser de la luz del Sol o de la generada por una bombilla son que, en el caso del láser, se trata de un haz de luz monodireccional, monocromático y coherente.

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Cualquier láser contiene al menos tres elementos fundamentales: un medio activo, un sistema de bombeo y una cavidad resonante. El medio activo es el material (sólido, líquido o gaseoso) que emite la luz. Para que este medio activo emita luz hay que excitarlo de alguna manera, del mismo modo que el filamento de una bombilla necesita una corriente eléctrica que pase por él. En el caso de un láser se trata del sistema de bombeo, que puede consistir en otro láser, una lámpara convencional o una corriente o descarga eléctrica. El medio activo se coloca entre dos espejos que forman una cavidad resonante donde la luz rebota entre ellos y ayuda a la amplificación, como lo que ocurre en la caja de resonancia de una guitarra que amplifica las ondas acústicas. Uno de los espejos es semirreflectante, por lo que parte de la luz amplificada sale de la cavidad resonante en forma de haz.

El volumen de información que transmite una onda electromagnética depende de su frecuencia; en este sentido, la luz de un rayo láser resulta idónea para la transmisión de señales. Por eso, entre sus aplicaciones más usadas está la lectura de discos compactos, la fabricación de circuitos integrados y la lectura de códigos de barras. En el ámbito de la medicina, la tecnología láser se aplica a los bisturís cauterizantes, ya que permite realizar cortes muy finos de gran precisión, evitar cualquier riesgo de contagio y cauterizar de manera inmediata, alejando el peligro de hemorragias.

Fibra óptica, impresoras o espionaje

Sin embargo, muchas de las aplicaciones del láser no dependen tanto de su capacidad para generar un rayo de luz como del hecho de que representa una concentración extremadamente intensa de energía. Basándonos en esta propiedad, podemos enumerar tres aplicaciones sumamente importantes en el terreno de la óptica. Una de ellas son las telecomunicaciones mediante fibra óptica. En este caso, las señales eléctricas que hasta hace poco tiempo se desplazaban a través de conductores metálicos han sido reemplazadas por pulsos ópticos que se transmiten a través de fibra de vidrio del grosor de un cabello. Como potente fuente de luz, el láser confiere a estas fibras una elevada capacidad de transmisión.

Espectáculo de luces con láseres. / kpr2 - Pixabay

Espectáculo de luces con láseres. / kpr2 – Pixabay

La segunda aplicación óptica importante está en la holografía, que es una técnica para crear imágenes tridimensionales, inventada en 1947 por el ingeniero eléctrico húngaro Dennis Gabor (1900-1979), que obtuvo por ello el Premio Nobel en 1971. Esta técnica se basa en la interferencia entre dos rayos de luz. Uno de los aspectos básicos del sistema es la necesidad de utilizar luz coherente, y cuando se inventó solo se disponía de fuentes relativamente débiles de este tipo de luz. La llegada del láser transformó la situación, porque la generación de una poderosa fuente de luz coherente es su esencia. Con el tiempo, la holografía llegó a hacerse muy familiar en una variedad de formas, como en la marca de seguridad de las tarjetas de crédito y en publicidad.

La tercera aplicación importante está en las impresoras de los ordenadores, donde, controlando un haz láser, se dibujan las palabras que se quieren imprimir.

También podemos destacar las aplicaciones que dependen de su capacidad para concentrar una gran cantidad de energía sobre una superficie muy pequeña (alrededor de un millón de vatios por centímetro cuadrado) durante un periodo de tiempo extremadamente breve. Algunas de las más importantes aplicaciones industriales de los láseres son fruto de esta capacidad: la perforación, la soldadura y el corte de distintos materiales.

Además, puesto que un rayo láser es muy fino y prácticamente no sufre divergencias, se puede usar para medir largas distancias con gran precisión. La técnica (semejante a la del radar) consiste en captar el rayo reflejado por el objeto distante y medir el tiempo transcurrido desde el envío de la señal hasta la recepción de su reflejo. Conociendo la velocidad de la luz, resulta fácil calcular la distancia. En los años setenta, este método se empleó para determinar con precisión la distancia de la Luna, utilizando los reflectores que habían instalado allí los astronautas norteamericanos.

Pero eso no es todo, también se han empleado láseres hasta para temas relacionados con el espionaje. En 1968 se descubrió que un láser puede detectar perfectamente desde el exterior las vibraciones del cristal de las ventanas producidas por las conversaciones en el interior de una casa. Vemos cómo el láser, que en un principio era como “un invento en busca de un empleo”, tiene en la actualidad un sinfín de variadas aplicaciones.

 

* José Vicente García Ramos es Vocal del Comité de Ética del CSIC y autor del libro Las moléculas: cuando la luz te ayuda a vibrar (Editorial CSIC-Los Libros de la Catarata). Hasta su jubilación en 2016 fue investigador en el Instituto de Estructura de la Materia del CSIC.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

Crímenes con rigor químico: los venenos de Agatha Christie

Por Pilar Goya (CSIC), José Elguero (CSIC) y Pascual Román (UPV/EHU)*

Agatha Christie, veneno, talio, arsénico

La escritora británica Agatha Mary Clarissa Miller, más conocida como Agatha Christie, en una imagen de archivo. / Wikipedia

En las novelas de Agatha Christie (1890-1976) se puede morir de muy diversas formas, pero el veneno era sin duda su arma preferida, ya fuese un solo elemento químico o complejas sustancias naturales. La escritora plasmó en su obra los conocimientos de química que había adquirido en las dos guerras mundiales, al trabajar como enfermera en los dispensarios de los hospitales de Torquay y del University College de Londres, una experiencia que ayudó a que los protagonistas de sus historias fueran asesinados con mucho rigor químico.

En un libro sobre ella escrito por Kathryn Harkup, titulado A is for arsenic: the poisons of Agatha Christie, su autora analiza las novelas en las que el agente homicida es un veneno.

Agatha Christie se basaba generalmente en datos lo más exactos posibles en términos de disponibilidad y trazabilidad de sus venenos, que conocía bien por su trabajo en la farmacia. Hay que recordar que algunos elementos tóxicos como el arsénico y el talio estaban presentes en determinadas for­mulaciones médicas en los primeros años del siglo XX.

El elemento que más aparece en sus novelas es el arsénico, “el veneno de los reyes y el rey de los venenos”. Ocho personajes de cuatro novelas y de cuatro cuen­tos cortos mueren por ingerirlo. El arsénico es conocido como veneno desde la Antigüedad, aunque en realidad el agente letal no es el elemento puro, sino el trióxido de arsénico, que se absorbe más fácilmente por el organismo. Este compuesto no se disuelve en agua fría, pero sí en agua caliente, lo que lo hace muy apto para ser camuflado en infusiones.

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Cuenta la leyenda que cuando Cleopatra decidió acabar con su vida ensayó distin­tos venenos en sus sirvientas, entre ellos el arsénico, pero al final optó por la mordedura de áspid (una especie de víbora) porque le pareció una muerte menos desagradable. El en­venenamiento por arsénico fue popular durante el Renacimiento, en particular entre los Borgia. Parece ser que añadían arsénico a las entrañas de un cerdo sacrificado y lo dejaban pudrir. Esa masa se secaba y el polvo resultante, llamado “la cantarella”, se incorporaba a la comida o bebida, de forma que lo que no hacía el veneno lo remataban las toxinas del animal. Entre las ventajas de esta sustancia estaba que, sorprendentemente, era bastante insípida y que los síntomas se confundían con los del cólera o la disentería. En general, el envenenamiento por ar­sénico puede identificarse erróneamente con causas naturales. Además, en la época en la que transcurren las primeras novelas de Agatha Christie era fácil comprar compuestos de ar­sénico en el Reino Unido, como herbicidas, matarratas e incluso tónicos que contenían este elemento.

Otro elemento venenoso al que hace referencia la autora británica es el talio, que aparece en su novela El misterio de Pale Horse. El talio es conocido como el “veneno de los envenena­dores” y también produce síntomas que pueden atribuirse a causas naturales. Christie solo utiliza el talio como veneno en esta novela, que trata de una organización criminal que ofrece ase­sinatos “a demanda”. El libro dio cierta notoriedad al talio, ya que en la fecha de su publicación, 1961, esta forma de enve­nenamiento era poco conocida, si bien en la novela de Ngaio Marsh, Final Curtain, escrita en 1947, ya aparece este elemento como veneno. El misterio de Pale Horse suscitó cierta polémica, ya que se sugirió que podía haber inspirado algunos asesinatos en la vida real pero, sin embargo, su minuciosa descripción de los síntomas del envenenamiento con talio fue útil para salvar algunas vidas.

El primer caso de un envenenamiento real con talio fue el de Molly Young, ocurrido en el Reino Unido en 1962, solo unos meses después de que se publicara la novela. Graham Young, autor de este crimen y otros más, negó haber leído la novela, lo que probablemente fuera cierto, ya que Young era un verdadero experto en venenos.

A favor de la novelista está otro caso real. En 1977, después de que ella hubiera fallecido, una niña de 19 meses fue llevada a un hospital de Londres con síntomas de una enfermedad extraña. La enferme­ra Marsha Maitland, que había leído El misterio de Pale Horse, sugirió que podía tratarse de un envenenamiento con talio. Se analizaron muestras en el laboratorio forense de Scotland Yard y se encontró efectivamente la presencia de este elemento. El ori­gen parecía ser un producto utilizado por los padres para aca­bar con cucarachas y ratas, al que la niña de alguna forma había tenido acceso y había ingerido. Finalmente, la pequeña se recuperó y en el artículo que apareció en el British Journal of Hospital Medicine los autores agradecen a “Agatha Christie sus excelentes descripciones clínicas y a la enfermera por mantenerles al día con la bibliografía”.

 

* Este post se basa en varios fragmentos del libro La tabla periódica (Editorial CSIC-Los libros de la Catarata), escrito por José Elguero Bertolini, Pilar Goya Laza (ambos, investigadores del Instituto de Química Médica del CSIC) y Pascual Román Polo (Universidad del País Vasco).

Si los muros del Metro hablaran… ¿Qué nos dicen los azulejos de una ‘estación fantasma’?

Por Elena Mercedes Pérez Monserrat y Mar Gulis (CSIC)*

El Metro de Madrid cumple 100 años en 2019. Esta red de Metro, que hoy es una de las mejores del mundo y cuenta con 302 estaciones a lo largo de 294 kilómetros de recorrido, fue inaugurada en 1919 por el rey Alfonso XIII con una sola línea Norte-Sur que iba desde Puerta del Sol a Cuatro Caminos (el germen de la que hoy se denomina Línea 1), con un total de 8 estaciones y que no llegaba a cubrir 3,5 kilómetros.

En los años 60 del siglo XX, cuando la compañía Metropolitano decidió alargar los trenes, se reformaron las estaciones para que los andenes pasaran de tener 60 a 90 metros. Pero hubo una estación en la que, por su situación en curva y por la cercanía a las paradas colindantes, no se pudo acometer esta reforma y acabó siendo clausurada por el Ministerio de Obras Públicas: la estación de Chamberí.

 

La icónica decoración de las estaciones del Metro de Madrid, incluidos vestíbulos, andenes o bocas de acceso, fue diseño del arquitecto Antonio Palacios. / Laura Llera

La icónica decoración de las estaciones del Metro de Madrid, incluidos vestíbulos, andenes o bocas de acceso, fue diseño del arquitecto Antonio Palacios. / Laura Llera

Tras más de 40 años cerrada y siendo objeto de curiosidades varias, la estación de Chamberí, después de una importante actuación de limpieza, restauración y conservación, fue reabierta en 2008 como centro de interpretación visitable del Metro de Madrid. Durante esas décadas en las que la “estación fantasma” permaneció cerrada al público, los accesos exteriores fueron vallados, hecho que permitió que se conservaran muchos de los objetos cotidianos de la época, como carteles publicitarios, tornos, papeleras… así como las cerámicas que recubrían toda la estación. Es decir, lo excepcional del lugar es que se trata de la única estación del Metropolitano que conserva su estado original casi en su práctica totalidad.

Luz y color para el Metropolitano de Madrid

En 1913 los ingenieros Carlos Mendoza (1872-1950), Miguel Otamendi (1878-1958) y Antonio González Echarte (1864-1942) presentaban un proyecto de red de metro para la ciudad de Madrid. El arquitecto Antonio Palacios (1874-1945) fue el encargado de diseñar las estaciones, los accesos y los edificios del proyecto. Se buscaba integrar el uso de materiales tradicionales en un entorno tecnológico completamente nuevo, dando un resultado muy decorativo de marcado estilo español. Con la aplicación de azulejería en el suburbano se pretendía proporcionar luminosidad y color a unos nuevos espacios -bajo tierra- que iban a ser utilizados por personas acostumbradas a la luz natural. La rica variedad de cerámicas de las diversas regiones españolas facilitó poner en práctica este empeño.

Estado actual de la estación de Metro de Chamberí (Madrid), alicatada con azulejos blancos y decorada con piezas coloreadas y/o con reflejo metálico. / Laura Llera

Estado actual de la estación de Metro de Chamberí (Madrid), alicatada con azulejos blancos y decorada con piezas coloreadas y/o con reflejo metálico. / Laura Llera

En Madrid, la cerámica vidriada aplicada a la arquitectura tuvo su máximo apogeo a finales del siglo XIX y principios del XX. Entonces, la azulejería publicitaria -especialmente en las estaciones del Metropolitano- y la urbana cobraron un especial significado. Este material favoreció el auge de las industrias cerámicas de los principales centros productores. Así, en la arquitectura madrileña de principios del siglo XX la cerámica vidriada desempeñaba un papel esencial desde la concepción inicial de los proyectos; y cabe resaltar la apuesta por seleccionar materias primas nacionales para su elaboración. En cuanto a las piezas de reposición que se han elaborado recientemente para las labores de restauración, se han respetado los aspectos formales de las originales, pero utilizando materiales y tecnologías que incrementan su resistencia.

El uso de la cerámica vidriada respondía también al apogeo en la época de la publicidad alicatada, así como a las condiciones de buena conservación y fácil limpieza que presenta la azulejería. Tras la Guerra Civil española (1936-1939) la publicidad en cerámica de la estación fue cubierta por tela y papel, que protegieron las cerámicas.

Qué nos dice el análisis científico de las cerámicas vidriadas de Chamberí

Un estudio multidisciplinar coordinado por personal investigador del Instituto de Geociencias (CSIC/UCM) ha permitido conocer las materias primas y las tecnologías de fabricación de unas cerámicas vidriadas extraordinarias, especialmente elaboradas para este emplazamiento excepcional: la estación de Metro de Chamberí (Madrid). El conocimiento adquirido pretende apostar por la conservación y puesta en valor de estos materiales, tanto de las piezas originales como de las de reposición.

Conforme a la función que desempeñan en la estación, las piezas estudiadas se agrupan en:

  • Azulejos blancos y lisos, que revisten la práctica totalidad de los paramentos y desempeñan una función esencialmente práctica, al otorgar luminosidad y resultar de fácil limpieza.
  • Piezas con reflejo metálico y superficies adornadas, con un carácter marcadamente decorativo, resaltando los encuentros de los planos y el enmarcado de la publicidad alicatada en los andenes.
Piezas originales. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos). Superior: azulejos blancos. Inferior: piezas decorativas con reflejo metálico

Piezas originales. Arriba: azulejos blancos, elaborados en Onda (Castellón). Abajo: piezas con reflejo metálico, elaboradas en Triana (Sevilla). Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos).

Los azulejos blancos originales fueron fabricados en Onda (Castellón) a partir de mezclas arcillosas muy ricas en carbonatos y cocidas a unos 950 ºC. Presentan un vidriado plúmbico alcalino cuya opacidad es en gran parte otorgada por partículas ricas en plomo y arsénico. Las piezas originales de carácter decorativo -con reflejo metálico- fueron elaboradas en Triana (Sevilla) a partir de arcillas illíticas calcáreas y cocidas entre 850-950 ºC. Se cubrieron con vidriados plúmbicos transparentes, con la adición de cobre y estaño.

Piezas de reposición. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos). Superior: azulejos blancos. Inferior: piezas decorativas con reflejo metálico

Piezas de reposición, elaboradas en Madrid. Arriba: azulejos blancos. Abajo: piezas con reflejo metálico. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos).

Las piezas de reposición se elaboraron según el aspecto de las originales y se apostó por la utilización de materiales y técnicas que otorgaran especial resistencia a las piezas. Se fabricaron en Madrid con materias primas principalmente procedentes de Barcelona, Castellón y Teruel. Las blancas, a partir de arcillas illítico-caoliníticas y calcáreas ricas en cuarzo cocidas a >950 ºC, aplicando un vidriado alcalino muy rico en zircona y alúmina. Las nuevas piezas con reflejo se elaboraron a partir de arcillas illítico-caoliníticas muy alumínicas cocidas a <850 ºC y con la importante adición de una chamota especialmente refractaria, cubriéndose con un vidriado plúmbico-potásico rico en alúmina.

 

* Este proyecto de investigación ha sido realizado por un equipo multidisciplinar del Instituto de Geociencias (CSIC/UCM), la Universidad de Granada, el Museo Nacional de Ciencias Naturales (CSIC) y la Universidad Nacional de Educación a Distancia. Puedes leer el artículo completo aquí.

SOS: estos elementos químicos están en peligro de extinción

Por Pilar Goya (CSIC)*

La tabla periódica constituye un verdadero icono de la ciencia y la cultura. La Sociedad Europea de Química (EuchemS, por sus siglas en inglés) ha contribuido al “Año Internacional de la Tabla Periódica de los Elementos Químicos”, que se está celebrando en 2019, con la elaboración de su propia tabla, presentada en el Parlamento Europeo el pasado 22 de enero.

Junto con su estética colorista, esta tabla incorpora un mensaje claramente conservacionista: no todos los elementos tienen la misma presencia en la corteza terrestre y los más escasos merecen un cuidado especial; no se pueden malgastar.

 

 

Esta tabla está basada en la diseñada por W. F. Sheehan, pero se ha modificado para reflejar la abundancia de los elementos a escala logarítmica, y se ha coloreado para llamar la atención sobre aquellos que pueden estar en peligro de desaparición a corto plazo. La tabla recoge los 90 elementos naturales constitutivos de todas las cosas, desde las maravillas de la naturaleza hasta los dispositivos electrónicos más sofisticados. A ellos se han sumado el tecnecio y el prometio, que son elementos radiactivos sintéticos, de los que, sin embargo, se han hallado trazas en la naturaleza. No figuran, por el contrario, los elementos transuránidos. La estructura de la tabla no deja espacio entre el berilio y el boro, ni entre el magnesio y el aluminio. Los lantánidos aparecen en su posición correcta.

El código de colores hace referencia a la disponibilidad y vulnerabilidad de los diferentes elementos. En rojo aparecen 12 elementos químicos cuya disponibilidad será considerablemente menor en los próximos 100 años: el helio, el zinc, el galio, el germanio, el arsénico, el estroncio, el itrio, la plata, el indio, el telurio, el hafnio y el tántalo. Por poner algún ejemplo, el helio se utiliza para la resonancia magnética nuclear, las sales de estroncio se añaden a los fuegos artificiales y bengalas para producir el color rojo, mientras que el galio se emplea en dispositivos optoelectrónicos y células solares, y el indio forma parte de la mayoría de las pantallas táctiles.

Los colores naranja y amarillo alertan sobre el riesgo que corren los correspondientes elementos si continuamos con su uso creciente; por ejemplo, el litio, cuya demanda aumenta progresivamente a causa de su presencia en baterías recargables para automóviles, aunque es un metal que puede ser reciclado de manera bastante sencilla. En verde se muestran los elementos químicos más abundantes.

Finalmente, hay cuatro elementos que aparecen en negro: el estaño, el tántalo, el wolframio y el oro, porque frecuentemente se obtienen de minerales extraídos en las denominadas zonas de conflicto.

Además, se ha incluido un icono de un teléfono móvil en las casillas de los 31 elementos que forman parte de los smartphones (algunos autores discrepan de esta cifra). La existencia de muchos de estos elementos estará en riesgo si seguimos usándolos con la frecuencia con la que lo hacemos en este momento. Solo en Europa se sustituyen unos 10 millones de teléfonos móviles al mes. Es cierto que una buena parte de ellos se envían a países en desarrollo para su uso o para su reciclaje, aunque sobre la eficacia de estos envíos hay dudas más que razonables.

En definitiva, el mensaje de esta tabla periódica es que hay que hacer todo lo posible para proteger y reciclar los elementos químicos amenazados. Además, quienes investigamos en química debemos trabajar en la búsqueda de alternativas que permitan utilizar elementos abundantes para sustituir aquellos que están en peligro, ya sea por su uso creciente o por su escasa disponibilidad.

* Pilar Goya es investigadora del CSIC en el Instituto de Química Médica y coautora del libro La tabla periódica de los elementos químicos . Este texto está extraído del artículo “La tabla periódica de EuChemS”, publicado en un número monográfico dedicado al Año Internacional de la Tabla Periódica de los Elementos Químicos por la revista Anales de Química.

La EuChemS es una organización supranacional que engloba a 42 sociedades químicas de 33 países y que representa a más de 160.000 químicos. En España, pertenecen a la EuChemS, la Real Sociedad Española de Química (RSEQ), la Asociación Nacional de Químicos de España (ANQUE), la Societat Catalana de Química (SCQ) y la Sociedad de Química Analítica (SEQA).

Blockchain, tierras raras, aceleradores de partículas… El CSIC lleva la actualidad científica a la Feria del Libro

Por Mar Gulis (CSIC)

¿Sabes cómo funcionan el bitcoin y otras criptomonedas? Si quieres algunas pistas, el martes 11 de junio en la Feria del Libro de Madrid David Arroyo, Jesús Díaz y Luis Hernández presentarán su libro Blockchain. Los autores explicarán al público los entresijos de esta tecnología y sus aplicaciones en la denominada criptoeconomía.

Como cada año, investigadores e investigadoras del CSIC acudirán a esta emblemática cita para dar a conocer los últimos libros publicados en las colecciones ‘¿Qué sabemos de?’ y ‘Divulgación’ (CSIC-Catarata), que acercan la ciencia al público general. El mismo día 11, además de criptoeconomía, se hablará del futuro de la óptica; el LHC, el mayor acelerador de partículas del mundo; y las tierras raras, 17 elementos químicos omnipresentes en las sociedades tecnológicamente avanzadas y, sin embargo, poco conocidos.

El 12 de junio, la investigadora Pilar Ruiz Lapuente se ocupará de la energía oscura, del posible final “frío y estéril” del cosmos y de otras cuestiones relacionadas con la astrofísica que aborda en su libro La aceleración del universo. En la misma jornada tendrán cabida temas como la tabla periódica de los elementos químicos, el albinismo y otras mutaciones genéticas o el papel de las áreas protegidas en la sostenibilidad ambiental.

En total, el CSIC y la editorial Los Libros de la Catarata, presentarán ocho obras de divulgación a través de las intervenciones de sus propios autores.

Estas son las coordenadas

Las presentaciones se realizarán los días 11 y 12 de junio, a partir de las 12:30 horas, en el Pabellón Bankia de Actividades Culturales, situado en las proximidades de los jardines de Cecilio Rodríguez del parque de El Retiro. De acceso libre, estas citas son una oportunidad para escuchar y plantear preguntas a los protagonistas de la ciencia.

Quienes busquen actividades para público más joven, el sábado 8 de junio tienen además una cita en el Pabellón infantil. Allí, investigadores del CSIC que han participado en la obra Descubriendo la luz. Experimentos divertidos de óptica realizarán demostraciones para niños y niñas. Las sesiones, de entrada libre y una duración de 15 minutos, se prolongarán desde las 12:30 hasta las 15:00 horas.

Y si la prioridad es llevarte tu libro con dedicatoria incluida, pásate por la caseta del CSIC (número 19) o la de Los Libros de la Catarata (número 336). Durante toda la feria, los autores de las novedades editoriales estarán en firmando ejemplares.

La información de las firmas se puede consultar aquí.

LiquenCity: busca líquenes urbanitas y conoce la calidad del aire de tu ciudad

Por Mar Gulis (CSIC)

La clasificación de los líquenes fotografiados es la base de este proyecto de ciencia ciudadana.

“En 1866, William Nylander fue el primer investigador que observó la desaparición de los líquenes según se adentraba en el centro de París durante el auge de la revolución industrial”, señala la web del proyecto LiquenCity. En efecto, durante décadas la comunidad científica ha utilizado los denominados epífitos, que crecen en la corteza de los árboles, para conocer el grado de contaminación atmosférica.

¿Por qué los líquenes? Estos organismos, formados por la unión simbiótica de un hongo y, al menos, un organismo fotosintético (un alga verde o una cianobacteria), son muy sensibles a los cambios ambientales en general y a la contaminación atmosférica en particular; por eso son buenos bioindicadores. “A diferencia de las plantas, no tienen estructuras activas para regular la entrada y salida del agua y los gases del aire, por lo que las sustancias que hay en la atmósfera, entre ellas las contaminantes, se acumulan fácilmente en su interior. Esto provoca síntomas de deterioro mucho más rápido que en otros organismos, lo que les convierte en excelentes centinelas de problemas potenciales para nuestra salud”, explica la misma web. De hecho, “se han publicado más de 2.000 trabajos científicos basados en el uso de líquenes como bioindicadores de la calidad del aire y los niveles de contaminación por dióxido de azufre, óxidos de nitrógeno, metales pesados… en los 5 continentes”.

Si te interesa saber cuál es la calidad del aire de tu ciudad o cómo varía de unos distritos a otros, quizá puedas participar en LiquenCity. En este proyecto de ciencia ciudadana, cuyo investigador principal es el liquenólogo Sergio Pérez Ortega, cualquiera puede identificar líquenes urbanos que servirán después para medir la contaminación atmosférica.

El equipo que impulsa la iniciativa, del Real Jardín Botánico (RJB) del CSIC y el Nodo Nacional de Información de la Biodiversidad (GBIF), trabaja bajo la hipótesis de que, tras analizar los datos recopilados, se confirmará que cuanta mayor diversidad de líquenes se observe en un área, mejor será la calidad del aire, y viceversa. Sin embargo, no todas las especies de líquenes tienen la misma sensibilidad hacia la contaminación. Algunas desaparecen al menor atisbo de polución en el aire, mientras que otras son capaces de medrar en áreas muy contaminadas. De momento, LiquenCity se basa en una selección de especies que viven en Madrid y Barcelona con distinta resistencia a la contaminación.

¿Cómo puedes participar?

Dos estudiantes toman una muestra de líquen.

Muestrear líquenes es sencillo. Solo tienes que buscarlos en los troncos de los árboles de tu ciudad, hacerles una foto y colgarla en Natusfera a través de su página web o la app móvil. La comunidad de Natusfera –que incluye a expertos del RJB y de la Universidad de Barcelona– te ayudará a identificar la especie que hayas visto. El proyecto se ha diseñado para que la ciudadanía, de forma voluntaria, realice el monitoreo de los líquenes. Acompañados por alguien experto, los participantes, lupa en mano, acuden a un punto de la ciudad para buscar ejemplares y obtener muestreos en distintas zonas. De momento, LiquenCity se ha centrado en el ámbito educativo: desde el pasado octubre, esta iniciativa se ha presentado en más de 50 centros escolares, donde ha llegado a más de 2.000 estudiantes que han realizado unas 4.000 observaciones. Estos datos se han volcado en Natusfera y han permitido identificar más de 30 especies de líquenes.

También se busca la participación del público general. Por ejemplo, en Madrid LiquenCity ha reunido a grupos de 50 personas de diversos perfiles en la Casa de Campo y el Parque del Oeste para que, durante unas horas, se convirtieran en ‘buscadoras de líquenes’.

Ahora el proyecto está en la segunda fase, que consiste en analizar la información recopilada para elaborar mapas de contaminación de varios distritos de Madrid y Barcelona. Estos mapas se basarán en el cruce de datos sobre la diversidad de líquenes detectada y los niveles de contaminación registrados por los medidores que gestionan los respectivos ayuntamientos. Uno de los objetivos de LiquenCity es dar recomendaciones para que se adopten medidas que mitiguen la contaminación en las zonas más afectadas.

Si te interesa lo que has leído hasta ahora, echa un ojo a la web del proyecto. En los próximos meses, el equipo de LiquenCity pretende ampliar su radio de acción, así que previsiblemente se necesitarán más personas dispuestas a detectar líquenes urbanitas en otras ciudades como Zaragoza, Pontevedra, Pamplona y Oviedo.

Esta iniciativa cuenta con el apoyo de la FECYT, y en ella participan también el Instituto de Ciencias del Mar (ICM-CSIC), el Centro de Investigación Ecológica y Aplicaciones Forestales (CREAF) y el Instituto de Investigación de la Biodiversidad (IRBio-UB), todos en Barcelona.

Henry Moseley, el joven que ordenó el rompecabezas de la tabla periódica

Por Mar Gulis (CSIC)

Moseley

Moseley (año 1910) en el laboratorio del Balliol-Trinity College poco después de su graduación. En su mano derecha sostiene un globo de vidrio grueso para bajas presiones que utilizaba en la medida del número atómico de gases.

A comienzos del siglo XX los avances en la comprensión de la estructura del átomo no solo removieron los cimientos de la física, sino también los de la química.

Sin ir más lejos, el creador de la tabla periódica, Dimitri Mendeleiev, creía que el hallazgo del electrón amenazaba sus postulados. Décadas antes, en 1869, el científico ruso había propuesto ordenar los 63 elementos químicos entonces conocidos en una particular disposición. En la primera formulación de su tabla periódica, muy distinta de la que conocemos en la actualidad, las columnas mostraban los elementos ordenados de menor a mayor según su peso atómico  –por ejemplo, berilio = 9,1 (su peso real es de 9,01); boro = 11 (10,81); carbono = 12 (12,01); etc.–, de tal forma que en las filas quedaban agrupados elementos que compartían propiedades químicas semejantes –por ejemplo, el litio, el sodio, el rubidio y el cesio, que junto al francio constituyen el grupo de los metales alcalinos–.

Tabla Mendeleiev

Tabla periódica propuesta por Mendeleiev en 1869.

La propuesta tuvo un tímido reconocimiento al inicio, pero fue haciéndose cada vez más popular a medida que fueron confirmándose muchas de sus predicciones. Mendeleiev había dejado huecos para ser completados con elementos aún no descubiertos, de los cuales no solo pronosticó acertadamente su existencia sino también algunas de sus propiedades. Esto fue posible porque fue una de las primeras personas en comprender que las propiedades químicas de los elementos se ‘repetían’ de forma periódica a medida que se incrementaba su peso atómico.

Sin embargo, Mendeleiev había trabajado con la idea de que el átomo era indivisible. En 1897 Joseph Thomson descubre el electrón y en 1911 Ernest Rutherford formula su famoso modelo atómico, en el que un número variable de electrones (de carga negativa) giran alrededor de un pequeño núcleo de carga positiva. ¿Cómo iban a afectar estos avances a la tabla periódica?

Contrariamente a lo que Mendeleiev creía, iban a perfeccionar sus teorías. También en 1911, antes de que se descubrieran los protones (de carga positiva) en el núcleo atómico, el físico aficionado Antonius van den Broek propuso en Nature que el orden de los elementos en la tabla periódica dependía del número de cargas positivas del núcleo o número atómico. Es decir, el hidrógeno ocupa el primer lugar de la tabla periódica porque solo tiene una carga positiva en el núcleo (hoy diríamos un protón) y, por tanto, su número atómico es el uno; el helio ocupa la segunda posición porque tiene dos cargas positivas (dos protones) y su número atómico es el dos; y así sucesivamente.

Sin embargo, fue Henry Moseley en 1913 quien logró probar esta hipótesis estudiando los espectros de rayos X de 50 elementos químicos. Moseley demostró que la frecuencia de los rayos X era proporcional (concretamente, la raíz cuadrada) al número atómico del elemento. Con este hallazgo, daba una justificación cuantitativa al concepto de número atómico y un apoyo fundamental al modelo atómico de Rutherford.

La utilización del número atómico para ordenar los elementos iba a resolver muchos problemas que habían traído de cabeza a quienes trabajaban en química hasta entonces. Por ejemplo, de acuerdo con su peso atómico, el níquel (58,693) debía situarse antes que el cobalto (58,933) en la tabla periódica; sin embargo, Mendeleiev había intercambiado sus posiciones para que resultaran más congruentes con sus propiedades químicas. La incoherencia desapareció cuando pudo conocerse que el número atómico del níquel era 28 y el del cobalto 27. Efectivamente, aunque el níquel pese un poco menos que el cobalto, tiene una carga positiva más en su núcleo, y por tanto puede agruparse junto a los elementos con los que compartía propiedades sin violar la ley periódica de Mendeleiev.

Tabla periódica moderna

Tabla periódica moderna, en la que los elementos aparecen ordenados según su número atómico.

Además, el número atómico permitió saber de forma inequívoca qué casillas faltaban por rellenar en la tabla periódica (43, 61, 72, 75, 85, 87 y 91) y la técnica de Moseley hizo posible identificar elementos de una forma mucho más rápida y certera. Hasta entonces las llamadas tierras raras, una denominación que engloba al escandio, el itrio y los quince elementos del grupo de los lantánidos, habían resultado enormemente difíciles de separar e identificar en el laboratorio. En el libro Las tierras raras (CSIC-Catarata), el investigador del CSIC Ricardo Prego cuenta que George Urbain, uno de los mayores expertos en este ámbito, viajó a Oxford en cuanto conoció el innovador trabajo de Moseley. Allí el francés le entregó una muestra que contenía una mezcla de tierras raras que le había llevado meses identificar con métodos químicos y desafió a su joven colega a intentarlo. Moseley tardó solo una hora en llegar al resultado de Urbain: la mezcla contenía erbio, tulio, iterbio y lutecio. La crisis de las tierras raras había quedado resuelta.

Mendeleiev murió en 1907, sin saber que la ‘intrusión’ de la física en la química no iba a contradecir sus planteamientos sino a darles un nuevo fundamento. Sus aportaciones siguen tan vigentes a día de hoy que la ONU ha declarado 2019 como Año internacional de la tabla periódica y de los elementos químicos precisamente porque se cumplen 150 años desde que Mendeleiev formulara por primera vez su sistema periódico. Moseley, que estuvo nominado tanto al Premio Nobel de Física como al de Química, falleció en 1915, a la temprana edad de 28 años, mientras luchaba con el ejército inglés en la famosa batalla de Galípoli. No pudo participar en los siguientes descubrimientos sobre la estructura del átomo, que seguirían revolucionando la física y la química.

¿Sabes cuánto tarda un nuevo medicamento en llegar a tus manos?

Por Mar Gulis (CSIC)*

Hay que remontarse al siglo XVIII para dar con el origen de los ensayos clínicos. El cirujano escocés James Lind (1716-1794) decidió probar distintos remedios frente al escorbuto, enfermedad causada por la deficiencia en vitamina C. Así, tomó a doce pacientes, los dividió en parejas y aplicó una terapia distinta a cada una: vinagre, nuez moscada o agua de mar, entre otras sustancias. Al parecer, el resultado fue que se curaron los que recibieron cítricos, mientras que los que llevaban una dieta escasa o nula en frutas y verduras siguieron padeciendo ese mal. Con este experimento, mediante la planificación de diversas curas, se consiguió demostrar la más eficaz.

En el siglo XIX, el médico francés Pierre Charles Alexandre Louis (1787-1872) propuso un método numérico para cuantificar los resultados de la experimentación. Cien años más tarde, el epidemiólogo británico Bradford-Hill (1897-1991) encontró una fórmula que hacía comparables los distintos grupos de estudio y estableció los “criterios de causalidad”. En ese momento se inició la era moderna de los ensayos clínicos.

Se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento

A pesar de que para entonces empezaba a adquirirse conciencia del valor de la investigación, no fue hasta los años setenta cuando empezó a considerarse esencial el estudio de la eficacia y la seguridad de un medicamento antes de su lanzamiento al mercado. El punto de inflexión se produjo en los años cincuenta, cuando la administración de la recientemente descubierta ‘talidomida’ produjo un efecto indeseado, ocasionando malformaciones en recién nacidos, y poniendo de manifiesto la necesidad de establecer una regulación.

Actualmente se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento. Se trata de un largo y costoso proceso en el que el fármaco ha evolucionado, sorteando obstáculos, hasta su lanzamiento como producto final, cuando se convierte en el posible remedio para nuestras dolencias. En el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), las investigadoras del Centro de Investigaciones Biológicas del CSIC María del Carmen Fernández y Nuria E. Campillo señalan que “una vez que en el laboratorio se identifica una molécula prometedora comienza el verdadero reto: ponerla en el mercado”.

El proceso se inicia con la búsqueda de la diana terapéutica, seguido de la identificación y desarrollo de moléculas que pueden interaccionar con dicha diana. De estas primeras etapas de identificación, síntesis y evaluación biológica (in vitro) nacerán las primeras moléculas o hits con potencial para llegar a ser un fármaco. Las etapas más complicadas comienzan ahora, con la fase preclínica, en la que se recurre a modelos celulares y a animales de experimentación para estudiar la seguridad y la toxicidad de las moléculas. Esta fase es el “puente necesario para pasar del laboratorio –etapa de descubrimiento– a la fase clínica”, en la que se realizan estudios en humanos, explican las investigadoras.

Esto es lo que se conoce como ‘desarrollo clínico’, del que forman parte los ensayos clínicos, centrados en descubrir o comprobar los efectos clínicos y farmacológicos, así como en identificar cualquier reacción adversa a los mismos y determinar su seguridad y eficacia en voluntarios y pacientes.

Proceso del desarrollo clínico de un medicamento

Proceso del desarrollo clínico de un medicamento. / María del Carmen Fernández y Nuria E. Campillo

Antes de que llegue hasta nuestras manos, el medicamento en cuestión debe ser autorizado y estará sujeto a diferentes regulaciones para su comercialización, por lo que el mundo farmacéutico se convierte en un entorno hiperregulado y sometido a una exigencia de alta calidad. Es una exigencia justificada porque precisamente es en las primeras fases de la investigación clínica donde pueden surgir reacciones adversas y, de hecho, alrededor de la mitad de los efectos indeseables de los fármacos se identifican solo en los ensayos clínicos en humanos, es decir, el éxito no siempre está garantizado ya que, como aseguran las investigadoras, “la probabilidad general de éxito clínico, es decir, que un fármaco pase con éxito todos los ensayos, es inferior al 12%”.

En definitiva, para comprender el proceso del desarrollo clínico habría que imaginarse un embudo: durante varios años se caracterizan entre 5.000 y 10.000 moléculas prometedoras, y solo unas 250 pasan a las fases preclínicas (un año), hasta llegar menos de 10 a los ensayos clínicos en humanos (seis-siete años). En ese momento, se da con un compuesto que podría ser el nuevo medicamento y si todo va bien… se lanza al mercado.

 

* Puedes leer más en el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?