Entradas etiquetadas como ‘CSIC Divulga’

¿Sabes cuánto tarda un nuevo medicamento en llegar a tus manos?

Por Mar Gulis (CSIC)*

Hay que remontarse al siglo XVIII para dar con el origen de los ensayos clínicos. El cirujano escocés James Lind (1716-1794) decidió probar distintos remedios frente al escorbuto, enfermedad causada por la deficiencia en vitamina C. Así, tomó a doce pacientes, los dividió en parejas y aplicó una terapia distinta a cada una: vinagre, nuez moscada o agua de mar, entre otras sustancias. Al parecer, el resultado fue que se curaron los que recibieron cítricos, mientras que los que llevaban una dieta escasa o nula en frutas y verduras siguieron padeciendo ese mal. Con este experimento, mediante la planificación de diversas curas, se consiguió demostrar la más eficaz.

En el siglo XIX, el médico francés Pierre Charles Alexandre Louis (1787-1872) propuso un método numérico para cuantificar los resultados de la experimentación. Cien años más tarde, el epidemiólogo británico Bradford-Hill (1897-1991) encontró una fórmula que hacía comparables los distintos grupos de estudio y estableció los “criterios de causalidad”. En ese momento se inició la era moderna de los ensayos clínicos.

Se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento

A pesar de que para entonces empezaba a adquirirse conciencia del valor de la investigación, no fue hasta los años setenta cuando empezó a considerarse esencial el estudio de la eficacia y la seguridad de un medicamento antes de su lanzamiento al mercado. El punto de inflexión se produjo en los años cincuenta, cuando la administración de la recientemente descubierta ‘talidomida’ produjo un efecto indeseado, ocasionando malformaciones en recién nacidos, y poniendo de manifiesto la necesidad de establecer una regulación.

Actualmente se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento. Se trata de un largo y costoso proceso en el que el fármaco ha evolucionado, sorteando obstáculos, hasta su lanzamiento como producto final, cuando se convierte en el posible remedio para nuestras dolencias. En el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), las investigadoras del Centro de Investigaciones Biológicas del CSIC María del Carmen Fernández y Nuria E. Campillo señalan que “una vez que en el laboratorio se identifica una molécula prometedora comienza el verdadero reto: ponerla en el mercado”.

El proceso se inicia con la búsqueda de la diana terapéutica, seguido de la identificación y desarrollo de moléculas que pueden interaccionar con dicha diana. De estas primeras etapas de identificación, síntesis y evaluación biológica (in vitro) nacerán las primeras moléculas o hits con potencial para llegar a ser un fármaco. Las etapas más complicadas comienzan ahora, con la fase preclínica, en la que se recurre a modelos celulares y a animales de experimentación para estudiar la seguridad y la toxicidad de las moléculas. Esta fase es el “puente necesario para pasar del laboratorio –etapa de descubrimiento– a la fase clínica”, en la que se realizan estudios en humanos, explican las investigadoras.

Esto es lo que se conoce como ‘desarrollo clínico’, del que forman parte los ensayos clínicos, centrados en descubrir o comprobar los efectos clínicos y farmacológicos, así como en identificar cualquier reacción adversa a los mismos y determinar su seguridad y eficacia en voluntarios y pacientes.

Proceso del desarrollo clínico de un medicamento

Proceso del desarrollo clínico de un medicamento. / María del Carmen Fernández y Nuria E. Campillo

Antes de que llegue hasta nuestras manos, el medicamento en cuestión debe ser autorizado y estará sujeto a diferentes regulaciones para su comercialización, por lo que el mundo farmacéutico se convierte en un entorno hiperregulado y sometido a una exigencia de alta calidad. Es una exigencia justificada porque precisamente es en las primeras fases de la investigación clínica donde pueden surgir reacciones adversas y, de hecho, alrededor de la mitad de los efectos indeseables de los fármacos se identifican solo en los ensayos clínicos en humanos, es decir, el éxito no siempre está garantizado ya que, como aseguran las investigadoras, “la probabilidad general de éxito clínico, es decir, que un fármaco pase con éxito todos los ensayos, es inferior al 12%”.

En definitiva, para comprender el proceso del desarrollo clínico habría que imaginarse un embudo: durante varios años se caracterizan entre 5.000 y 10.000 moléculas prometedoras, y solo unas 250 pasan a las fases preclínicas (un año), hasta llegar menos de 10 a los ensayos clínicos en humanos (seis-siete años). En ese momento, se da con un compuesto que podría ser el nuevo medicamento y si todo va bien… se lanza al mercado.

 

* Puedes leer más en el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Cometas: el terror que vino del cielo

Por Montserrat Villar (CSIC)*

Concebidos como profetas de la muerte, los cometas han inspirado terror en muchas culturas a lo largo de más de veinte siglos. Aparecían de pronto y se mantenían en el cielo durante semanas o incluso meses, perturbando su armonía. Se consideraban portadores de grandes desventuras: lluvias de sangre, animales nacidos con dos cabezas, enfermedades mortales… Una larga lista de horrores fue atribuida a los cometas hasta el Renacimiento. El pavor que causaban impulsó su observación, registro y clasificación para tratar de descifrar su significado y prepararse para las fatalidades que anunciaban.

China, siglo II antes de nuestra era. El aristócrata y político Li Cang, su esposa Xin Zhui y su hijo renacen tras la muerte y emprenden el viaje hacia la inmortalidad. Más de 2000 años después, en la década de 1970, se descubren sus tumbas en el yacimiento arqueológico de Mawangdui. Entre los miles de objetos encontrados, se halla un delicado lienzo de seda manuscrito. Contiene los dibujos de alrededor de 30 cometas, cada uno acompañado por un texto breve que previene sobre el mal concreto que causará (hambruna, derrota en una batalla, epidemia…).

En 1587 se publicaba el manuscrito Libro sobre cometas, con hermosas ilustraciones. El texto, anónimo, describe la materia de los cometas, su conexión con los planetas y su significado según la forma, color y posición. Así, cuando el cometa Aurora aparece sobre oriente habrá sequía, incendios y guerra. En la ilustración, una ciudad es devastada por las llamas bajo su auspicio sangriento. El resplandor de la conflagración ilumina la escena, mientras el brillo de Aurora se refleja en las nubes. El artista, por tanto, identifica los cometas como fenómenos atmosféricos. Diez años antes de la edición de este libro, el Gran Cometa de 1577 apareció en los cielos de Europa asombrando a sus gentes durante semanas. Tras estudiar sus movimientos, el astrónomo danés Tycho Brahe confirmó que se trataba de un acontecimiento celeste situado mucho más allá de la luna, y no de un fenómeno atmosférico, como creían numerosos eruditos de la época.

A principios del siglo XIV un joven pintor florentino rompía con la tradición. Cumpliendo el encargo de decorar el interior de la capilla de los Scrovegni en Pádova (Italia), Giotto de Bondone cubrió sus paredes de maravillosos frescos referentes a la vida de Jesús y de la Virgen María. En La adoración de los Reyes Magos representa la estrella de Belén como un cometa. Es probable que el artista viera el cometa Halley en 1301 y se inspirara en su aspecto. En este caso el mensaje es de esperanza: Cristo ha venido a salvar el mundo. Seis siglos después, en 1985, la Agencia Espacial Europea (ESA) lanzó la misión Giotto, con cuyo nombre rendía tributo al artista. Se acercó a unos 600 kilómetros del cometa Halley, del que obtuvo imágenes espectaculares.

En octubre de 1858 el artista escocés William Dyce pasó unos días de descanso en Pegwell Bay, un popular lugar de vacaciones en la Inglaterra de la Reina Victoria. En su obra Pegwell Bay, Kent – Recuerdo del 5 de Octubre de 1858, el artista representa una escena entrañable en la que su familia pasea por la playa mientras recoge piedras y conchas. El esbozo apenas perceptible del cometa Donati descubierto ese año se aprecia en el cielo de la tarde. Es un elemento más del paisaje, ya no simboliza desgracias venideras: en el siglo XIX los cometas habían perdido su aura de terror. Desde el siglo XVII, las investigaciones de científicos como Edmund Halley habían ido desenmascarando la inocuidad de estos astros. Su significado en la obra de Dyce es aún más profundo: ese trazo sutil en el cielo sugiere que la existencia del ser humano es efímera, casi instantánea.

Obra de la artista rusa Ekaterina Smirnova

Obra de la artista rusa Ekaterina Smirnova

Comenzaba el año 2015 cuando la artista rusa Ekaterina Smirnova aprendía a producir agua pesada mediante electrólisis. Quería conseguir una composición similar a la hallada unos meses antes en forma de hielo en el cometa 67P/Churyumov–Gerasimenko por la misión Rosetta-Philae de la ESA. Con esta agua, Smirnova creó una serie de acuarelas de considerables dimensiones a partir de las imágenes del cometa obtenidas por la exitosa misión. Además, utilizó pigmentos oscuros mezclados a mano para recrear el bajo albedo (capacidad reflectora) de la superficie del cometa. Smirnova se sumerge en la ciencia para crear una obra bella e inspiradora, retrato de un astro distante y frío.

Decía Séneca en sus Cuestiones Naturales en el siglo I: “¡Tan natural es admirar lo nuevo más que lo grande! Lo mismo acontece con los cometas. Si se presenta alguno de estos cuerpos inflamados con forma rara y desacostumbrada, todos quieren saber lo que es; se olvida todo lo demás para ocuparse de él; ignórase si se debe admirar o temblar, porque no faltan gentes que difunden el terror, deduciendo de estos hechos espantosos presagios”. Dos mil años después, el mensaje cifrado de los cometas, esos ‘misteriosos’ cuerpos celestes compuestos por hielo, polvo y rocas que orbitan alrededor del Sol, nos habla de mundos primitivos y helados, del origen del Sistema Solar e incluso, quizás, de la propia vida.

 

* Montserrat Villar es investigadora del Centro de Astrobiología (CSIC-INTA). Coordina ‘Cultura con C de Cosmos’, un proyecto que surge del diálogo entre el estudio del universo y su reflejo en las diferentes manifestaciones artísticas a lo largo de la historia.

Canibalismo… y otras formas de interacción galáctica

Por Mariano Moles y Mar Gulis (CSIC)*

Las galaxias son sistemas de estrellas, gas y polvo encerrados en un enorme halo de materia oscura. La mayoría de ellas forman sistemas múltiples en los que viven y evolucionan. De hecho, es complicado encontrar galaxias verdaderamente aisladas, es decir, que hayan evolucionado fuera de la influencia de otras, al menos durante los últimos dos mil millones de años. La interacción de las galaxias con otras del entorno, aun si esta no es violenta ni destructiva, juega un papel esencial en sus propiedades.

Vamos a considerar tres situaciones que nos permiten visualizar, brevemente, lo que puede significar esta interacción gravitatoria para la evolución de las galaxias.

Interacción secular

En las regiones externas de los cúmulos de galaxias o de grupos dispersos, la interacción entre galaxias no es en general violenta sino que va actuando a lo largo del tiempo, produciendo transformaciones paulatinas. Incluso las galaxias que están en situación de interacción suave presentan propiedades claramente distintas a las de las galaxias aisladas en las masas, los tamaños e incluso los colores fotométricos. Las galaxias aisladas son más pequeñas, menos masivas y más azuladas.

Galaxy Cluster Abell 1689. Los cúmulos de galaxias, en tanto que entidades gobernadas por la interacción gravitatoria, son lugares ideales para estudiar la evolución de las galaxias bajo los efectos de esa interacción. / hubblesite

Galaxy Cluster Abell 1689. Los cúmulos de galaxias, en tanto que entidades gobernadas por la interacción gravitatoria, son lugares ideales para estudiar la evolución de las galaxias bajo los efectos de esa interacción. / hubblesite

Choques de galaxias

Aunque no es muy frecuente, en los cúmulos también se producen agrupamientos y hasta colisiones destructivas de galaxias. Esto suele ocurrir en las etapas iniciales de la formación de la parte central del cúmulo. Pero hay casos, como el de la galaxia IC 1182, en los que la colisión de dos galaxias se produce en etapas posteriores.

¿Qué sucede en estas colisiones galácticas? Sabemos que las estrellas por su lado y la materia oscura por el suyo solo responden a las fuerzas gravitatorias. Además, lo que podríamos llamar gas de estrellas, es decir, el conjunto de todas las estrellas con sus velocidades respectivas, es de muy baja densidad. En efecto, la distancia media entre dos estrellas es más de un millón de veces superior al tamaño medio de estas. De modo que la probabilidad de colisión entre estrellas de una galaxia es, por lo general, muy baja.

Cuando dos galaxias colisionan, sus respectivos gases de estrellas pueden pasar uno a través del otro casi inalterados salvo por efectos de larga escala cuando una de ellas es capturada por otra y empieza a orbitar en espiral a su alrededor. Entonces pueden producirse largas colas o apéndices que se extienden a gran distancia de la galaxia y que evidencian la interacción. También el gas puede ser arrancado del cuerpo de la galaxia y formar apéndices y estructuras de gran escala. Magníficas muestras de esos procesos son la galaxia que se denomina, por su forma, del renacuajo (Tadpole Galaxy), catalogada como NGC 4676; y la galaxia llamada de los ratones (Mice Galaxy).

La galaxia IC 1182 está ya en una fase avanzada del proceso de fusión. La larga cola de marea atestigua la violencia del choque. / eso

La galaxia IC 1182 está en una fase avanzada del proceso de fusión. La larga cola de marea atestigua la violencia del choque. / eso.org

Por otra parte, la interacción violenta altera fuertemente el ritmo de formación estelar de una galaxia y provoca una aceleración notable de su evolución. Quizá uno de los ejemplos más espectaculares de este proceso es el que puede apreciarse en la galaxia de las Antenas. La extensión total abarcada por las dos antenas es de casi cuatro veces la dimensión de nuestra Galaxia (Vía Láctea). En la zona central capturada por el telescopio espacial Hubble se observa una intensísima formación estelar, con más de 1.000 cúmulos jóvenes de estrellas.

El resultado final de esas grandes colisiones es una única galaxia de forma esferoidal, relajada y exhausta, evolucionando tranquilamente a medida que sus estrellas jóvenes desaparecen y las demás van envejeciendo. A veces ocurre que las colisiones no sólo dan lugar a nuevas estrellas, sino también a nuevas galaxias que se van construyendo en las colas de marea o en los aledaños de la zona más directamente afectada por la interacción. Estas galaxias, llamadas enanas de marea, por producirse en esas situaciones, se han detectado en el apéndice de IC1182 o en las colas producidas en el Quinteto de Stephan.

Canibalismo galáctico

Cuando una de las galaxias que interaccionan es mucho mayor que la otra puede ocurrir que la segunda acabe siendo engullida por la primera, sin que se produzcan los fenómenos que acabamos de ilustrar, propios de colisiones entre dos galaxias más o menos similares. Los signos de este canibalismo galáctico son mucho menos espectaculares y difíciles de detectar. Por eso el estudio de este fenómeno y su importancia para la evolución de las galaxias es reciente.

Simulación por ordenador del proceso de canibalismo: una galaxia enana está siendo desorganizada para ser luego engullida por una galaxia como la Vía Láctea. / astro.virginia.edu

Simulación por ordenador del proceso de canibalismo: una galaxia enana está siendo desorganizada para ser luego engullida por una galaxia como la Vía Láctea. / astro.virginia.edu

En nuestro Grupo Local de galaxias hay tan solo tres masivas: Andrómeda, la Vía Láctea y M33 (mucho menos masiva que las otras dos), mientras que existen cerca de 50 galaxias enanas, poco masivas, pequeñas, meros satélites de las dominantes. A lo largo de la evolución del sistema puede ocurrir que una de esas galaxias sea atrapada definitivamente por una de las masivas y acabe siendo tragada por ella. Las estrellas de la galaxia canibalizada van a constituir una corriente estelar en la galaxia grande, que solo con muy sofisticados medios se puede detectar, medir y caracterizar. Aunque de momento solo podemos conjeturarlo, ese parece ser el caso de la galaxia enana Sagitario, que podría estar siendo engullida por nuestra galaxia.

 

* Este texto está basado en contenidos del libro de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata) ‘El jardín de las galaxias’, escrito por Mariano Moles.

¿Qué nos dicen los anillos de los árboles sobre el calentamiento global?

Por Elena Granda (Universitat de Lleida) *

Una de las características más increíbles de los árboles es su longevidad; son seres vivos capaces de vivir muchísimos años. Sin ir muy lejos, en el Pirineo se pueden encontrar pinos de alta montaña que tienen más de 800 años y que, por tanto, germinaron en el siglo XIII. Incluso se han encontrado en Estados Unidos árboles con unos 5.000 años. Dado que los árboles son capaces de almacenar información (ecológica, histórica y climática) en cada año de crecimiento, encontrar un árbol viejo es como descubrir un archivo muy antiguo repleto de información. La dendroecología (rama de la biología especializada en el estudio de la ecología de los árboles a través del análisis de los anillos de crecimiento) se encarga de recopilar esa información para responder preguntas de ecología general y abordar problemas relacionados con los cambios ambientales a nivel local y global.

Para poder acceder a dicha información se obtiene un testigo de madera (o core en inglés), ”pinchando” el tronco con una barrena desde la corteza hasta el centro del árbol (médula). Así, se extrae un cilindro de madera en el que se ven todos los anillos de crecimiento. El estudio de estos cilindros ayuda a desvelar cómo ha sido el funcionamiento de distintos individuos y especies durante toda su vida.

De estos análisis se obtiene una valiosísima información que nos ayuda a comprender a qué peligros están expuestos actualmente nuestros bosques, cómo han actuado en el pasado ante factores de estrés y qué peligro corren en el futuro si no conseguimos reducir sus principales amenazas, como las emisiones de gases de efecto invernadero a la atmósfera, los incendios provocados, las especies invasoras o la desaparición de sus hábitats.

Gracias a la dendroecología podemos estudiar las causas de la mortalidad de los árboles, como el pino albar de las siguientes fotografías, a través de la comparación de árboles muertos (primera imagen) con aquellos vivos, mediante la extracción y posterior análisis de los anillos de crecimiento que se pueden observar en los testigos de madera (segunda imagen).

 

Los beneficios que aportan las plantas terrestres son incontables: dan cobijo a los animales, absorben contaminantes, favorecen las características del suelo, evitan la erosión, etc. Pero, sobre todo, son las responsables de generar gran parte del oxígeno (O2) que respiramos y de absorber de la atmósfera el dióxido de carbono (CO2), que es uno de los principales causantes del calentamiento global. Y, en el caso particular de las plantas leñosas, árboles y arbustos, su importancia radica en que son perennes; es decir, que no mueren tras la estación de crecimiento y reproducción. Esto implica que la cantidad de CO2 que pueden captar es muy grande y que este queda almacenado en los bosques, retenido en la madera, raíces, ramas y hojas durante mucho tiempo.

Durante las últimas décadas, y debido al aumento de gases de efecto invernadero en la atmósfera como el CO2 , se han producido alteraciones de la temperatura y las precipitaciones a nivel global. En países de clima mediterráneo, por ejemplo, se han registrado aumentos de temperatura en torno a 1,3 grados centígrados desde la revolución industrial, cuando se aceleró la emisión de estos gases a la atmósfera. Además han aumentado recientemente las condiciones extremas de sequía y hay mayor riesgo de incendios y lluvias torrenciales.

Cabría pensar que un aumento de CO2 atmosférico podría ser beneficioso para los árboles, ya que son organismos que se alimentan de dióxido de carbono. Sin embargo, esto normalmente no ocurre porque el aumento de CO2 está asociado a la sequía y al calentamiento global, y estos son factores que pueden producir estrés en las plantas. Dicho estrés da lugar al cierre de los estomas (poros que hay en las hojas por donde entran y salen moléculas de CO2 y agua) y, como consecuencia, no pueden aprovechar esa mayor cantidad de alimento. Si lo comparamos con los humanos, sería como si nos encontráramos ante una mesa llena de comida pero tuviéramos la boca cerrada y no pudiésemos comer nada. Dado que el cambio climático y la alteración de la atmósfera pueden perjudicar al funcionamiento de las especies leñosas, se esperan cambios en la composición de los bosques como los conocemos en la actualidad.

Por eso es importante conocer qué árboles están estresados, las causas y consecuencias, así como la forma en la que actúan ante ese estrés. Con el fin de predecir qué va a pasar en el futuro con nuestros bosques para poder minimizar las consecuencias del cambio climático, es de gran utilidad el estudio del crecimiento de los árboles a lo largo del tiempo: cuánto carbono han consumido y utilizado cada año, cómo han influido en ellos los cambios de temperaturas, las plagas, las sequías o los incendios, de manera que podamos desarrollar modelos de evolución de los futuros bosques.

Ilustración que representa las distintas fases en el estudio de los anillos de crecimiento: extracción del testigo de madera con una barrena (a); datación de los anillos para saber a qué año corresponde cada uno (b) y análisis de la información contenida en los mismos (c)

Gracias a la dendroecología podemos estudiar las causas de la mortalidad de los árboles, como el pino albar en la fotografía, a través de la comparación de árboles muertos (a) con aquellos vivos (b), mediante la extracción y posterior análisis de los anillos de crecimiento que se pueden observar en los testigos de madera.

 

Elena Granda es investigadora postdoctoral de la Universitat de Lleida y colaboradora del Instituto Pirenaico de Ecología (CSIC).

 

Organismos a la fuga: ¿escapan los seres vivos de la contaminación?

Por Ignacio Moreno-Garrido y Cristiano Venicius de Matos Araujo (CSIC)*

Pez cebra / Flickr-Photo-by-Lynn-Ketchum

Pez cebra / Flickr-Lynn Ketchum

Faraones, reyes, emperadores y nobles de tiempos pretéritos descubrieron, hace ya siglos, cómo funcionaban los ensayos de toxicidad. Ya que siempre hay gente interesada en cambiar unos gobernantes por otros, y dado que la mayor parte de los venenos preferidos por los asesinos actuaban por vía digestiva, era frecuente que los pretendientes al trono o sus aliados añadieran algunos simpáticos polvitos a las comidas de estos dirigentes con la aviesa intención de allanarles el camino a sus correspondientes sepulturas. Como el problema es que todo el mundo conoce el manual, estos gobernantes hacían probar la comida a sus sirvientes, y si estos ponían mala cara, mudaban el color epidérmico a tonos más verdosos y, acto seguido, se morían, aquellos solían pasar directamente a los postres obviando los segundos platos. Por supuesto, tales ensayos adolecían de rigor científico (aunque algunos tuvieran rigor mortis), y bastaba con procurarse un veneno de efecto retardado para solucionar el ligero inconveniente (y si no, que se lo cuenten al pobre emperador Claudio, por ejemplo).

Como quiera que sea, la base de los ensayos de toxicidad estaba servida: para conocer cómo de tóxica es una sustancia casi no nos queda otra que exponer material biológico a distintas concentraciones de tal sustancia, y observar qué pasa. Estos materiales biológicos, hoy día, pueden ser simples enzimas, cultivos celulares, tejidos, organismos, conjuntos de organismos o incluso ecosistemas, más o menos complejos. Sin embargo, los ensayos de toxicidad “clásicos” casi siempre se han centrado en la mortalidad (en el caso de organismos superiores) o en la inhibición del crecimiento (en el caso de poblaciones de microorganismos).

Pero, ¿qué pasa si los organismos, a concentraciones más bajas de las que les producen un efecto nocivo, detectan la contaminación y se fugan a sitios más limpios? Desde el punto de vista de la ecología, la fuga de los organismos de una zona equivale a su extinción, de modo que tal vez hayamos subestimado los efectos tóxicos de los contaminantes durante todos estos años.

Sistema lineal para estudiar el desplazamiento de los organismos / ICMAN-CSIC

Sistema lineal para estudiar el desplazamiento de los organismos / Cristiano Araújo

El primer paso que nos permite evaluar la capacidad de los organismos para huir de los contaminantes consiste en ponerlos en condiciones de elegir entre diferentes ambientes. En el Instituto de Ciencias Marinas de Andalucía (CSIC), miembros del grupo de investigación EEBAS (Ecotoxicología, Ecofisiología y Biodiversidad de Sistemas Acuáticos) estamos desarrollando dispositivos que simulan gradientes o manchas de contaminación en sistemas que permiten el libre desplazamiento de los organismos entre sus compartimentos, tanto en diseños lineales como en pequeños laberintos, como muestran las imágenes.

Con estos sistemas hemos realizado en el grupo de investigación diversos estudios que involucraban diferentes organismos. Ya se han llevado a cabo ensayos sobre microalgas (como la diatomea bentónica Cylindrotheca closterium), crustáceos (como el camarón Atyaephyra desmaresti o el anostráceo Artemia salina), peces (como Danio rerio –pez cebra– o Poecilia reticulata –guppy–) y renacuajos de tres especies de anfibios (Leptodactylus latrans, Lithobates catesbeianus y Pelophylax perezi). Los resultados, algunos ya publicados en revistas de ámbito internacional (Chemosphere, Environment International, Science of the Total Environment, Aquatic Toxicology o Plos One) muestran de manera inequívoca que prácticamente todos los organismos ensayados detectan la mayoría de los contaminantes y buscan las zonas menos contaminadas.

Sistema de laberinto / ICMAN-CSIC

Sistema de laberinto / Cristiano Araújo

Estos estudios de selección de hábitats también indican que, a pesar de ser la contaminación un factor capaz de expulsar organismos de una zona, la presencia de potenciales competidores en los tramos limpios o la presencia de comida en la zona contaminada pueden variar en gran medida la decisión, por parte de los organismos expuestos, de evitar o no los tramos con mayores cargas de contaminantes.

Este novedoso enfoque de estudio, que simula gradientes o manchas de contaminación, nos ha permitido incluir un nuevo concepto en los estudios medioambientales: la fragmentación química de los hábitats, basada en los efectos que un vertido contaminado puede tener impidiendo el paso de los organismos entre dos zonas limpias.

En resumen, nuestros resultados indican que los estudios sobre los efectos de los contaminantes no deberían estar exclusivamente enfocados en evaluar cómo los contaminantes dañan los organismos, ya que se ha puesto de manifiesto que el potencial “repelente” de las sustancias contaminantes, incluso a concentraciones muy por debajo de los valores letales, puede acarrear serias consecuencias para la estructura y dinámica de los ecosistemas, así como para la distribución espacial de los organismos.

* Ignacio Moreno-Garrido y Cristiano Venicius de Matos Araujo son investigadores en el Instituto de Ciencias Marinas de Andalucía (CSIC).

Cerebros de plastilina: ¿es posible conseguir una “supermemoria”?

Por Sandra Jurado Sánchez (CSIC)*

Ilustración de Silvia Jurado Sánchez

       Ilustración de Silvia Jurado Sánchez

En estas fechas de junio ya casi se pueden tocar las tan ansiadas vacaciones… Durante este mes, miles de estudiantes se han tenido que enfrentar a los exámenes de fin de curso, a la temida EBAU (antes Selectividad o PAU) o incluso a los exámenes de recuperación. En estas semanas el alumnado pone a prueba su templanza, pero sobre todo su memoria y conocimiento. Algunos demuestran una excelente capacidad de retención de manera innata (o, más probablemente, producto del trabajo continuado durante el curso), mientras que otros creen “conveniente” mejorar sus posibilidades con la ayuda de suplementos alimenticios. También hay quienes, dudando de su propia capacidad, se dedican al diseño de complejas formas de outsourcing intelectual o “chuletas” de última generación.

En estos momentos de incertidumbre, qué no daríamos por conocer los secretos de la memoria: ¿cómo aprendemos?, ¿cómo se forman nuestras memorias y recuerdos? Y sobre todo, ¿cómo podemos potenciar estas capacidades y generar una “supermemoria”? El cerebro guarda la clave de estos misterios, y la neurociencia, la ciencia encargada de estudiar el funcionamiento cerebral, trabaja sin descanso para entenderlos.

El desarrollo temprano durante la infancia es un momento crítico para el aprendizaje, pero las personas adultas seguimos aprendiendo y formando recuerdos sin que se produzcan cambios significativos en nuestro volumen cerebral. Una posible estrategia del cerebro adulto para codificar nueva información implicaría remodelar las conexiones neuronales ya existentes en función de su frecuencia de uso. Por ejemplo, consideremos el aprendizaje de un instrumento musical principalmente adquirido a través de constante repetición. Aquellos contactos neuronales o sinapsis que comienzan a emplearse con mayor frecuencia podrían verse potenciados, mientras que si abandonamos el entrenamiento, estos contactos o conexiones podrían comenzar a debilitarse, llegando incluso a desaparecer. Los puntos de contacto entre neuronas, o sinapsis, son regiones extremadamente flexibles que tienen la capacidad de responder a distintas necesidades según los estímulos que reciben, potenciándose o debilitándose en función de la frecuencia de uso durante un proceso conocido  como plasticidad sináptica.

El concepto del cerebro como una estructura plástica se introduce por primera vez en el siglo XIX por el psicólogo estadounidense William James, y posteriormente es asimilado por los padres de la neurociencia moderna, con su máximo exponente en la figura de Santiago Ramón y Cajal. Meticulosas observaciones de las redes neuronales en cerebros embrionarios convencieron a Cajal de que el tejido neuronal era lo suficientemente flexible como para permitir la formación y desaparición de conexiones dependiendo del momento del desarrollo, y que posiblemente esta flexibilidad se encontrara en la base de la formación de memorias y recuerdos en el cerebro adulto.

Dibujo de corteza cerebelosa realizado por Santiago Ramón y Cajal en 1904. / Ministerio de Ciencia, Innovación y Universidades

Dibujo de corteza cerebelosa realizado por Santiago Ramón y Cajal en 1904. / Ministerio de Ciencia, Innovación y Universidades

Aunque plausible e interesante, la plasticidad cerebral acabó siendo un concepto puramente teórico. Habría que esperar hasta principios de los años setenta para que los investigadores Timothy Bliss y Terje Lømo, de la Universidad de Oslo, detectaran por primera vez un fenómeno de plasticidad sináptica. Así, lograron demostrar que en respuesta a un aumento de la frecuencia de estimulación, la fuerza de las sinapsis en el hipocampo, una región cerebral importante para la memoria y afectada severamente en la enfermedad de Alzheimer, aumentaba muy rápidamente: ¡en cuestión de segundos podía aumentar hasta un 200%! Lo más importante era que estas conexiones permanecían potenciadas durante horas. Este aumento en la frecuencia de estimulación en el laboratorio mediante técnicas de electrofisiología in vivo pretendía mimetizar el aumento de la actividad de determinadas conexiones durante el proceso de aprendizaje. El resultado fue que estas conexiones eran capaces de adaptarse muy rápidamente y facilitarse tal y como se venía especulando desde el siglo XIX.

Este hallazgo revolucionó la neurociencia, ya que proporcionaba evidencias experimentales para el concepto de plasticidad cerebral, que hasta entonces era una mera hipótesis. En los años sucesivos, numerosos laboratorios profundizaron en el estudio de la plasticidad sináptica y, gracias al avance de las técnicas de biología molecular, electrofisiología y microscopía, se pudieron identificar diferentes moléculas claves para este fenómeno neuronal.

La identificación de estas moléculas abre la puerta al diseño de nuevas estrategias y fármacos destinados a potenciar los procesos cognitivos, principalmente en individuos afectados por patologías que afectan a la memoria, como las enfermedades neurodegenerativas. Aunque la tan ansiada “píldora de la memoria” aún está fuera de nuestro alcance, es intrigante pensar qué efectos podrían provocar estos fármacos en individuos sanos. Intuitivamente podríamos imaginar la aparición de una “supermemoria”. Sin embargo, es probable que llegar a obtenerla no sea tan sencillo. Consideremos que el efecto de estos fármacos, aún en vías de desarrollo, podría ser diferente en un cerebro sano y en un cerebro afectado por neurodegeneración, en donde el entorno neuronal se ve profundamente alterado con la aparición de agregados moleculares inexistentes en situaciones normales. En este escenario, es esperable que el uso de fármacos que modulan moléculas cuyo efecto es predominante en el cerebro enfermo no tendría por qué afectar positivamente a las capacidades de memoria de un cerebro saludable que carece de estas dianas.

Todas estas cuestiones han de ser analizadas meticulosamente, incluyendo la reflexión acerca de si es necesario desarrollar una “píldora para la memoria” en un mundo en donde gran parte de nuestros recuerdos se almacenan de manera digital. Tal vez mucha memoria no suponga ya una ventaja pues, como dijo Nietzsche, “la buena memoria es a veces un obstáculo al buen pensamiento”.

* Sandra Jurado Sánchez es investigadora en el Instituto de Neurociencias de Alicante, del CSIC y la Universidad Miguel Hernández. Más sobre su trabajo en: https://www.juradolab.com/

El altramuz, de humilde aperitivo a “superalimento”

Por José Carlos Jiménez-López (CSIC)*

Altramuces en el mercado. / Tamorlan - Wikimedia Commons

Altramuces en el mercado. / Tamorlan – Wikimedia Commons

El altramuz (Lupinus albus) es una legumbre conocida popularmente por ser una planta ornamental en jardines rurales, con bellas y coloridas flores. Su semilla es denominada con varios términos como altramuces, lupín, lupinos, tremosos, así como “chochos” en determinadas localidades de la geografía española, concretamente en Andalucía. Es difícil que en algún momento, tomando una cerveza en el bar, no nos hayan puesto un cuenco de altramuces para picar.

Los altramuces se han consumido tradicionalmente en toda la región mediterránea durante miles de años. En España, las semillas del altramuz se convirtieron en un bien bastante preciado, y casi el único sustento que muchas familias tenían para “llevarse a la boca” tras la guerra civil. Hoy, 28 de mayo, se celebra el Día Nacional de la Nutrición (DNN), que este año está dedicado a promover el consumo de legumbres. Es un buen contexto para destacar los excelentes valores nutricionales de esta leguminosa que suele pasar inadvertida.

Las semillas del altramuz son consumidas típicamente como aperitivo en salmuera. Su harina se usa para la fabricación de horneados como pizza, pan, y repostería. Además de ser un buen acompañamiento en ensaladas, también es utilizado en la elaboración de humus, patés, quesos vegetales, y como integrantes principales de platos más elaborados, dignos de restaurantes renombrados con estrella Michelín. Numerosos productos basados en semillas de lupino están siendo actualmente introducidos comercialmente en tiendas de alimentación como alimentos fermentados, bebidas energéticas, snacks, leche, yogurt, productos de repostería, alimentación vegana, tofu, sustitutos de carnes, salsas, tempe, pastas y como base en dietas de adelgazamiento.

Pese a ello, el altramuz está infravalorado, siendo una legumbre que no está “de moda”, al contrario que otros alimentos como la soja, la quinoa o la chía, con un mayor auge debido a un marketing publicitario agresivo, haciéndolos llegar al consumidor de manera apetecible, para introducirlos en la dieta como productos saludables. Sin embargo, y respecto a beneficios para la salud y aporte nutricional, el altramuz no tiene nada que envidiar a estos alimentos tan publicitados, por ello se le puede adjudicar igualmente el término acuñado como “superalimento”, que puede ser sinónimo de alimento funcional, cuyo consumo proporciona beneficios para la salud más allá de los puramente nutricionales. Hay muchas razones por las cuales se puede incluir el altramuz en esa lista privilegiada, empezando porque es una fuente muy importante de proteínas, aproximadamente el 40%, lo que equivale al doble del contenido en proteínas que los garbanzos, y cuatro veces más que el trigo.

Plantas de lupino. /José Carlos Jiménez-López

Plantas de altramuz (Lupinus). /José Carlos Jiménez-López

Su contenido en fibra dietética es del 34%, que actúa como fibra soluble (como la de la avena) e insoluble (como la del salvado de trigo), incrementando la saciedad, reduciendo la ingesta calórica para un mejor control del peso corporal y ayudando además a la reducción del colesterol y la prevención de dislipemia (altos niveles de lípidos). Posee bajos niveles de grasa (menos de un 6%) y abundantes ácidos grasos insaturados, sobre todo omega-6 y omega-9. El 24% de su contenido es un tipo de hidratos de carbono que favorecen un índice glucémico más bajo que otros granos comúnmente consumidos, ayudando a equilibrar el nivel de glucosa en sangre y, de este modo, a prevenir la hiperglicemia, lo que está especialmente indicado para personas que padecen diabetes tipo 2.

El altramuz es una legumbre naturalmente libre de gluten, por lo que es un alimento apto para personas con intolerancia al mismo (celiaquía). Por otro lado, son una excelente fuente de minerales (hierro, calcio, magnesio, fósforo y zinc), vitaminas B1, B2, B3, B6, B9 (ácido fólico) y Vitamina C, además de contener todos los aminoácidos esenciales, indicado para una correcta actividad intelectual y del sistema inmune. La semilla del altramuz también tiene entre sus componentes compuestos prebióticos, que ayudan al crecimiento de microflora bacteriana beneficiosa para una correcta salud intestinal. Estas semillas son también una de las mejores fuentes naturales del aminoácido arginina, el cual mejora la funcionalidad de los vasos sanguíneos y ayuda a la disminución de la presión sanguínea. Al contrario que otras legumbres como la soja, su contenido en fitoestrógenos (componentes similares a las hormonas) es insignificante, lo que evita problemas potenciales asociados a ellos.

Son abundantes los estudios científicos realizados en los últimos cinco años que demuestran el valor de algunos componentes de estas semillas en la lucha contra enfermedades consideradas como las nuevas epidemias del siglo XXI. Algunos de estos estudios se han realizado en nuestro grupo de investigación de la Estación Experimental del Zaidín (EEZ-CSIC, Granada), donde proteínas denominadas beta-conglutinas podrían ser utilizadas para la prevención y tratamiento de la diabetes tipo 2. Se ha demostrado que estas proteínas favorecen la activación de la ruta de señalización de la insulina, con la consiguiente captación de glucosa por los tejidos (disminución de la glicemia), así como la reversión del estado de resistencia a la insulina por sus tejidos diana, todo ello favoreciendo que el organismo recupere un estado similar a una persona no diabética. Además, numerosas pruebas experimentales han indicado que estas mismas proteínas son capaces de disminuir el estado de inflamación de pacientes diabéticos. Debido a que determinadas enfermedades, cuyo progreso cursa mediante un estado inflamatorio crónico sostenido (síndrome metabólico, obesidad, diabetes, enfermedades cardiovasculares), los altramuces, y concretamente las proteínas beta-conglutinas, constituyen un componente funcional que puede jugar un papel crucial como una nueva opción terapéutica para la prevención y tratamiento de estas enfermedades que tienen una base inflamatoria.

Seguro que a partir de ahora y con todos estos argumentos, recuperaréis el buen hábito de “coger un puñado de altramuces para llevároslos a la boca”, o prepararéis sabrosos platos que sorprenderán incluso a los paladares más exigentes.

 

*José Carlos Jiménez-López es investigador en la Estación Experimental del Zaidín (CSIC) y actualmente desarrolla una línea de investigación sobre las propiedades potencialmente beneficiosas del consumo de altramuces.

‘Operación polinizador’: el imprescindible trabajo de los insectos para el futuro de la agricultura

Por Alberto Fereres (CSIC) *

Trichodes octopunctatus (Familia Cleridae) / Alberto Fereres

Trichodes octopunctatus (Familia Cleridae) / Alberto Fereres

Con la llegada de la primavera, en plena ‘operación polinización’, esta imagen se repite cada año en campos, parques y jardines. Insecto y planta cooperan para obtener un beneficio mutuo, fenómeno que en biología se llama simbiosis. Estas interacciones, de crucial importancia en los ecosistemas naturales y en los agrícolas, se iniciaron hace más de 200 millones de años, en el Jurásico.

Las primeras angiospermas, plantas con flor, dependían del viento para asegurar su reproducción, igual que las gimnospermas, pinos y especies relacionadas. El ovario producía una secreción pegajosa llamada exudado para atrapar los granos de polen que llegaban a él. Este exudado contenía proteínas y azúcares y servía de alimento a los insectos, que empezaron a transportar de manera accidental el polen de una flor a otra. Así comenzó la polinización.

Se ha estimado que este gesto, en apariencia insignificante, representa la nada desdeñable cifra del 9,5% del valor de la producción agrícola dedicada al consumo humano, lo que a nivel europeo supone un total de 5.000 millones de euros al año. Atendiendo a estos datos, no cabe duda de que el servicio ecológico que ofrecen los polinizadores posee una enorme repercusión ambiental, social y económica en nuestro planeta.

La biodiversidad de los insectos que actúan como potenciales polinizadores es muy elevada. El 20% de estos organismos, unas 200.000 especies, visitan las flores. Hay familias de insectos polinizadores importantes entre los coleópteros (escarabajos), dípteros (moscas) y lepidópteros (mariposas) entre otros órdenes, pero los polinizadores por excelencia son los himenópteros: las abejas y abejorros de la superfamilia Apoidea. Son especies en las que el polen se adhiere a sus característicos pelos corporales. Además, pueden disponer de adaptaciones para facilitar su transporte, como las corbículas o cestillos de las patas traseras. En el campo agrícola, las especies que destacan por su importancia son la abeja común Apis mellifera L., los abejorros del género Bombus sp. y otras abejas menos conocidas que son las llamadas abejas solitarias.

Apis mellifera (Familia Apidae) / Alberto Fereres

Apis mellifera (Familia Apidae) / Alberto Fereres

La abeja común produce miel, jalea real, propóleo, cera, y poliniza un amplio espectro de flora silvestre. Es vital para algunos cultivos como los frutales, ya que asegura la polinización cuando otros insectos están ausentes. Su ‘transferencia de polen’ garantiza una tasa elevada de cuajado de frutos, mayor resistencia a las heladas y mejor calidad en los mismos. Esta especie de abeja común, natural de Europa, Asia y África, incluye 26 subespecies agrupadas en cuatro linajes.

Por su parte, los Bombus o abejorros han supuesto una enorme revolución para el sector de la horticultura, especialmente bajo invernadero. A partir de 1987 se empezaron a usar en la polinización de tomate y otras hortícolas. En la actualidad se emplean en más de 40 países. Se conocen más de 240 especies de abejorros a nivel mundial, y la mitad de ellas viven en la región Paleártica (Europa y Norte de Asia). La especie que más se cría para su uso en agricultura es el Bombus terrestris L., ampliamente distribuida por casi toda la zona Paleártica. En España tenemos una especie endémica de las Islas Canarias, B. canariensis Pérez.

A pesar de su papel imprescindible, la población de polinizadores está en declive en todo el mundo. Entre los factores que han contribuido a esta situación, destacan las técnicas agrícolas de producción intensiva que han conducido a la desaparición de hábitats, lo que ha modificado notablemente la estructura del paisaje y ha llevado a la eliminación de recursos alimenticios y refugios esenciales para este importante grupo de artrópodos beneficiosos.

Para intentar compensar esta disminución, las investigaciones en este ámbito apuestan por el uso de márgenes florales, es decir, plantar setos y vegetación entre las parcelas de cultivo que permitan el incremento de los insectos polinizadores y otros artrópodos, a la vez que consiguen preservar y mejorar la biodiversidad en las zonas agrarias. Además de favorecer la polinización, los márgenes florales suavizan el rigor de los elementos climáticos protegiendo los cultivos contra las heladas y la insolación; mantienen la humedad y funcionan como cortavientos; protegen contra la erosión y también aportan valor paisajístico y cultural.

Entre otras iniciativas, desde el Instituto de Ciencias Agrarias del CSIC hemos desarrollado un protocolo para el establecimiento de márgenes y lindes de especies herbáceas con flores que atraen estos insectos beneficiosos y que están bien adaptados a los suelos y condiciones de cultivo de la zona Centro de la Península Ibérica.

 

* Alberto Fereres Castiel es investigador del Instituto de Ciencias Agrarias del CSIC. Junto a investigadores/as de la Universidad Politécnica de Madrid y la empresa Syngenta ha trabajado en el proyecto ‘Operación polinizador’.

¿Sabías que el primer “viaje” bajo los efectos del LSD se realizó en bicicleta?

Por José Antonio López Sáez y Mar Gulis (CSIC)*

Corría el año 1938 cuando el prestigioso químico suizo Albert Hofmann (1906-2008), en su búsqueda de aplicaciones medicinales de los alcaloides ergolínicos procedentes del hongo cornezuelo del centeno, consiguió sintetizar un nuevo derivado del ácido lisérgico. Como este nuevo compuesto ocupaba el puesto 25 de la serie de dietilamidas del ácido lisérgico que hasta entonces este eminente investigador había sintetizado en su laboratorio, lo llamó LSD-25.

El consumo de LSD produce notables alteraciones en la percepción visual y auditiva como cambios en el color, forma y brillo de objetos. // Mark Bray. Flickr (modificada)

El consumo de LSD produce notables alteraciones en la percepción visual y auditiva.  / Mark Bray. Flickr (modificada)

En principio, este nuevo alcaloide semisintético pretendía obtener pro­piedades estimulantes de la respiración y la circulación sanguínea. Sin em­bargo, tras numerosos ensayos clínicos acabó siendo desechado por los laboratorios Sandoz, donde trabajaba Hofmann. El LSD fue encerrado en un cajón y pasó a mejor vida, pero el químico no desistió en su empeño: en 1943 decidió sin­tetizar de nuevo el compuesto, a la vez que sintetizaba otro, el LA-111, que resultó ser la ergina, y su isómero isoergina.

Mientras realizaba su trabajo de laboratorio en Basilea (Suiza), sin dar­se cuenta sus dedos se impregnaron de estas tres ergolinas (LSD, ergina e isoergina). De repente comenzó a sentirse extraño, inquieto y mareado, según describió en su propio diario. Dejó el trabajo y se marchó a casa. Allí, tumbado y con los ojos cerrados, comenzaron las alucinaciones: luces deslumbrantes, colores caleidoscópi­cos, imágenes fantásticas… Había descubierto, sin quererlo, el poder alucinógeno de los alcaloides del ergot, aunque a partir de productos sintéticos.

Como buen científico, para estar realmente seguro de lo que había descubierto, unos días después, concretamente el 19 de abril de 1943, decidió hacer un experimento consigo mismo. Ingirió una dosis (que pensaba que era una dosis baja) de 0,25 miligramos (250 microgramos), pero como él mismo narraba más tarde, “resultó que era cinco veces la dosis debida. La dosis normal es 0,05 miligramos, y yo, para mi primer viaje, había tomado cinco veces más”.

Estando en el laboratorio, después de la ingesta, comenzó a sentirse mal. Al parecer se quedó casi sin habla y a duras penas consiguió pedir a su ayudante que le acompañara a casa. Según se cuenta, los vehículos motorizados estaban prohibidos a causa de las restricciones impuestas por la II Guerra Mundial. Así, aquel camino en bicicleta se convertiría en uno de los episodios psicodélicos más emblemáticos de la contracultura de los años 60. “Fue una experiencia terrible, un mal viaje. Todo cambió, y tuve la sensación de que había abandonado mi cuerpo, estaba en el espacio y podía ver mi cuerpo allí, y pensé: tal vez te has vuelto loco, o a lo mejor ya estás muerto. Fue realmente terrible, porque seguía consciente de mi situación y de la realidad cotidiana al mismo tiempo”.

El consumo de LSD produce notables alteraciones en la percepción visual y auditiva como cambios en el color, forma y brillo de objetos. También son frecuentes las sinestesias entre sentidos, es decir, ver un sonido u oír un color. A menudo provoca taquicardias, náu­seas, vómitos y disminución del apetito, incluso temblores y cierta descoordinación motora. Los efectos psicológicos pueden llegar a provocar cambios de ánimo brutales, incapacidad de comunicación, manías o depresio­nes profundas, así como psicosis persistente, cuyos efectos pueden ser devastadores en algunas perso­nas, incapaces de sentir la realidad de su vivir cotidiano y de pensar racionalmente.

El Dr. Albert Hofmann en 2006, con 100 años. // Stepan vía Wikipedia

El Dr. Albert Hofmann en 2006, con 100 años. / Stepan vía Wikipedia.

Prosigue Hofmann el relato de su autoexperimento: “Después de cinco o seis horas volví de nuevo a la normalidad, y entonces realmente me lo pasé muy bien. Disfruté con la sensación de haber vuelto a nacer. Volver de un mundo muy extraño y encontrarme con el mundo cotidiano y familiar. (…) Todas esas cosas que uno no valora en estado normal me parecían bellísimas, me di cuenta de lo bonito que es nuestro mundo, y estaba realmente feliz. Y así fue como descubrí la LSD”.

El LSD es una sustancia líquida, inodora e incolora. Su presentación usual es impregnada en pequeñas planchas de papel secante, que se dividen en cuadraditos o monodosis —conocidos como tripis, ácidos, micropuntos, bichos, secantes, ajos…— que se consumen por vía oral. Los efectos de esta droga psicodélica forman parte del llamado viaje o trip, de ahí que popularmente se la haya co­nocido como “tripi”.

La fecha de aquel viaje en bicicleta, que reveló a Hofmann el descubrimiento de una sustancia psicotrópica de enorme potencia a dosis muy bajas (recordemos que el químico veía el potencial del fármaco como herramienta médica y psiquiátrica, no para uso lúdico), sirvió para que años más tarde, en 1985, se celebrara por primera vez en Illinois (EEUU) el 19 de abril como Día Internacional de la Bicicleta.

Hofmann falleció en su casa de Basilea en 2008 a la increíble edad de 102 años. Un año antes, Lorenzo Veracini, Nandini Nambiar y Marco Avoletta recreaban en el cortometraje de animación A Bicycle Trip lo que pudo ser la experiencia de Hofmann en aquel emblemático viaje:

Aunque el LSD está incluido en la Lista I de los tratados y convenios sobre estupefacientes, es decir, es considerado una sustancia prohibida, la Administración para el Control de Drogas de los Estados Unidos ha aceptado su uso terapéuti­co. En la actualidad se siguen realizando estudios sobre esta sustancia en pacientes con determinadas problemáticas psíquicas, especialmente en aquellos que no han obtenido resultados beneficiosos con tratamientos tradicionales.

 

* José Antonio López Sáez es investigador del Instituto de Historia del CSIC en Madrid y autor del libro Los alucinógenos, disponible en la Editorial CSIC y Los Libros de la Catarata.

¿Es posible un ‘apocalipsis zombi’? Aquí, una perspectiva científica

Por Omar Flores (CSIC)*

Uno de los recursos más habituales de la ficción posapocalíptica son los zombis. Buena parte del público se ha preguntado alguna vez cómo actuaría en tal escenario; lo que, a su vez, lleva inevitablemente a la cuestión de si es realmente posible que existan los zombis y, de ser así, cómo serían. La ciencia, como siempre, acude para resolver nuestras dudas, incluso sobre no-muertos.

En primer lugar, vamos a desmentir una de las características más imposibles: los zombis como ‘máquinas de movimiento perpetuo’, que pase lo que pase nunca se detienen; cadáveres andantes que, encuentren o no comida, siguen caminando meses, años o toda la no-vida. Esto es totalmente imposible, pues, sin importar qué haya causado la zombificación, estas criaturas deben estar sujetas a los límites de la física. Ningún organismo, vivo o no-muerto, puede mantener su actividad sin recibir un aporte de energía que la sustente. Por tanto, los zombis desaparecerían por simple inanición.

Diferentes representaciones de zombies en las películas.  / AMC, Fox Searchlight y Screengems.

La siguiente cuestión es cómo se verían afectadas las capacidades físicas de los zombis al pasar a ese estado. En la ficción encontramos tres opciones básicas: zombis con fuerza o agilidad similares a las de los vivos (28 días después), con habilidades reducidas (The Walking Dead) o zombis con habilidades potenciadas, más fuertes y letales que en vida (Resident Evil). Desde el punto de vista científico, lo más probable es que los zombis tuvieran unas habilidades inferiores a las que tenían en vida, debido al deterioro físico de su organismo. Sería posible, aunque menos probable, que mantuvieran las mismas capacidades si, en vez de morir, solo perdieran su mente consciente, caso en el que podrían conservar su fuerza o agilidad siempre que consiguieran mantenerse bien alimentados. Lo que definitivamente no parece posible es que su fuerza se incrementase. Por tanto, parece evidente que podríamos enfrentarnos a los zombis y derrotarlos.

Otra idea tradicional del género es que los zombis se alimentan de cerebros. Sin embargo, no cabe esperar que los zombis sean selectivos con la comida. De hecho, las sagas más modernas ya presentan zombis que se alimentan de cualquier cosa para subsistir.

Tampoco parece muy razonable el comportamiento gregario por el cual los zombis tenderían a reconocerse y formar grupos. Sería más probable que se atacasen entre ellos, salvo que su carne no fuera útil para los propios zombis y que conservasen la capacidad de detectarse y descartarse mutuamente; algo complicado pero que podríamos aceptar. En cualquier caso, si así fuera, como mucho se ignorarían entre ellos.

Analizadas esas características secundarias (sobre las que podéis encontrar más detalles aquí), vamos por fin con la más importante de todas: ¿podrían existir realmente los zombis? Parece imposible que después de muertos algo nos vaya a hacer salir de las tumbas. En cambio, si aceptamos como zombis a aquellos cuerpos cuyo cerebro ha sido parcialmente destruido o anulado, dejando un organismo funcional pero reducido a un ente sin consciencia que solo busca satisfacer su impulso más básico de alimentarse, entonces sí podríamos llegar a enfrentarnos a una epidemia zombi. Para ello bastaría con que apareciese algún patógeno (virus, hongo o bacteria) que pudiese infectarnos, llegar a nuestro cerebro y dañarlo de esa manera. Otra posibilidad sería que un patógeno nos infectase en otra parte del cuerpo y que su actividad produjera una sustancia que llegase a nuestro cerebro y provocase esos síntomas, como si fuese una potente droga.

Pero si todo lo anterior es pura especulación, hay algo que es muy real, y es que, de hecho, ya existen zombis entre nosotros. Aunque solo en el caso de animales infectados por patógenos que los convierten en cierta clase de zombis.

El caso más simple sería el de la rabia, causada por un virus y cuyos síntomas se asemejan mucho a los de la ficción zombi (pérdida del control, agresividad, mordeduras y contagio a través de ellas), aunque los organismos infectados no son ‘muertos vivientes’.

Para encontrar animales cuyo comportamiento se aproxima más al de ‘muertos vivientes’ podríamos considerar el de los insectos que son hospedadores de parásitos como los gusanos nematomorfos (Nematomorpha o Gordiacea). Estos gusanos en su fase adulta viven en el agua (podemos encontrarlos incluso en charcos de lluvia), donde ponen sus huevos, que son ingeridos por los insectos. Los gusanos nacen en el cuerpo de su hospedador y se alimentan de él hasta que crecen lo suficiente para poder vivir libres. Cuando llega el momento de salir, el gusano toma cierto control del cuerpo del insecto y le provoca la necesidad autodestructiva de buscar agua y lanzarse dentro (Video de arriba).

A partir de ese momento, aunque el insecto se siga moviendo, ya es prácticamente un muerto viviente, pues no es dueño de sus acciones, y literalmente se suicida para que su parásito viva y continúe el ciclo.

El caso más extremo lo encontramos sin duda en el hongo Cordyceps unilateralis, que infecta a hormigas como las de la especie Camponotus leonardi. Las esporas de este hongo que alcanzan a las hormigas crecen dentro de ellas, comiéndoselas por dentro. En poco tiempo consiguen alterar el comportamiento de la hormiga, provocando que haga cosas extrañas como separarse del resto de hormigas, morder hojas y quedarse colgando de ellas, o lanzarse desde la vegetación al suelo. En este caso sí que podemos hablar de verdaderos ‘muertos vivientes’, ya que el hongo infecta completamente su cuerpo y su mente. Incluso llega a mover la mandíbula de la hormiga después de que esta haya muerto, lo que la convierte en una auténtica hormiga zombi. Al final el hongo desarrolla una seta que sale de la cabeza de la hormiga, para dispersar sus esporas e infectar a más hormigas. Esto sucede también con otros Cordyceps que infectan a otros insectos (como se puede ver también en este vídeo).

Hongo Cordyceps unilateralis en hormiga y representación humana (The Last of US). / Penn State y  Naughty Dog.

¿Podría pasar algo como eso en seres humanos? Ese es justo el argumento del videojuego The Last of Us, en el que una mutación de Cordyceps infecta a personas. Sin embargo, esta no parece una amenaza real, pues estos hongos han coevolucionado con los insectos, y no están adaptados para infectarnos (no bastaría una simple mutación para lograr que nos controlen como a las hormigas). En todo caso, podríamos especular sobre que en algún futuro llegase a aparecer (por evolución natural o de forma intencionada por nuestra intervención) una forma de patógeno que logre provocarnos una zombificación. Así que podemos concluir que, aun siendo poco probable, científicamente cabe la posibilidad de que lleguemos a convertirnos en zombis.

 

* Omar Flores es biólogo del CSIC en el Museo Nacional de Ciencias Naturales.