Entradas etiquetadas como ‘CSIC Divulga’

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

¿Por qué oímos hasta con los oídos tapados?

Por Mar Gulis (CSIC)

Imagina que oyes de repente un ruido muy molesto, como una alarma a todo volumen, un pitido intenso que no cesa durante minutos o que estás en medio de una conversación bulliciosa entre varias personas. Seguramente lo primero que vas a hacer es taparte los oídos, pero te darás cuenta de que lo vas a seguir oyendo… aunque sea de una forma más leve. ¿Por qué ocurre esto?

Nuestros oídos son un laberinto para el sonido. Un laberinto dividido en tres partes: oído externo, medio e interno. El recorrido comienza cuando el sonido llega al oído externo y golpea al tímpano, haciéndolo vibrar, y esa vibración se transmite a través de la cadena de huesecillos (martillo, yunque y estribo) que se encuentran en el oído medio. Las vibraciones continúan hasta la cóclea, en el oído interno y en forma de espiral, también conocida como caracol, donde se convierten en impulsos electroquímicos que viajan hasta el cerebro, capaz de interpretar y entender a través de las terminaciones nerviosas del ganglio auditivo. Esto es lo que nos permite oír.

oído, sonido, sordera

Así lo explican la investigadora Isabel Varela Nieto, del Instituto de Investigaciones Biomédicas Alberto Sols (CSIC-UAM), y el otorrinolaringólogo Luis Lassaletta Atienza, autores del libro La sordera, de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata). La energía acústica se transmite desde el exterior hasta la cóclea, y toda esa cadena “proporciona una amplificación a la señal sonora de unos 35 decibelios (dB)”. Oímos, incluso aunque tengamos los oídos tapados, porque el sonido puede llegar hasta la cóclea a través de la vía ósea. De esta forma la vibración sonora se transmite a través del cráneo, que pone en marcha los líquidos del laberinto de nuestro oído.

Exposición constante al ruido: trauma acústico y la sordera del siglo XXI

La explosión de un petardo, un disparo o la música de una discoteca a todo volumen. Estos son algunos de los ruidos que si escuchas de forma intensa o prolongada podrían pasarte factura: desde provocar lesiones en el oído hasta el conocido como trauma acústico, que se produce cuando el deterioro es irreversible, señalan los investigadores. Por ello, advierten sobre una serie de factores a tener en cuenta para prevenir estos trastornos: la intensidad sonora (límite de 80 dB), el tiempo de exposición, la frecuencia de ruido (las más lesivas, comprendidas entre 2.000 y 3.000 Hz) y la susceptibilidad de cada persona.

De hecho, hay personas que por su profesión están más expuestas al ruido, incluso a más de 80 dB, como por ejemplo armeros, militares o personal de una discoteca. Sobrepasar este límite “produce de forma característica una pérdida de audición bilateral con afectación inicial en 4.000 Hz que con el tiempo afecta al resto de frecuencias”. Y peor aún, el impacto sonoro puede desembocar en hipoacusia neurosensorial –que responde a problemas en el receptor auditivo, la cóclea o en las vías nerviosas– o en acúfenos, es decir, la sensación de oír ruidos dentro de la cabeza.

El ruido es, por tanto, la principal causa evitable de sordera en el mundo. Aunque no siempre llega del exterior: el uso de dispositivos de audio a una intensidad alta durante varias horas también puede derivar en esta dolencia. Por ello, los autores destacan que “el mejor tratamiento para el trauma acústico es la prevención”, ya que todavía no existe un tratamiento específico, lo que constituye uno de los retos de la medicina del siglo XXI. De hecho, evitar el ruido puede ser una opción recomendable.

 

* Puedes leer más en el libro La sordera (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

De la investigación a tu casa: ¿cómo controlar el gas radón?

Por Borja Frutos Vázquez* y Mar Gulis (CSIC)

Llega el día en el que por fin decides mudarte a otra vivienda. Has escogido una bonita casa ubicada en la sierra, alejada de la gran ciudad, el tráfico, el bullicio y la contaminación. La situación te parece idílica y vives con ilusión el cambio hasta que un día, hablando con tus nuevos vecinos, descubres que vivir en ella te podría acarrear serios problemas de salud. Te informas y descubres que la mayoría de las casas construidas en esa zona tienen, en su interior, concentraciones de un gas que es considerado cancerígeno y que este se adentra en la vivienda de manera natural a través del suelo… ¿verdad que la situación ha empeorado bastante?

Esto nos podría suceder a cualquiera que decidamos ir a vivir a alguna de las zonas consideradas de potencial riesgo por presencia de radón según los mapas publicados por el Consejo de Seguridad Nuclear (CSN). Esta cartografía representa, para todo el territorio nacional, los posibles niveles de presencia de gas radón según tres categorías.

Mapa de exposición potencial al radón elaborado por el CSN que muestra las tres zonas de riesgo, siendo la categoría 2 (color naranja) la de máximo riesgo

Pero tratemos de conocer mejor este gas, cómo puede estar presente en nuestros hogares y cómo podría afectar a nuestra salud.

El isótopo del radón Rn-222 aparece en la naturaleza como producto de la desintegración natural del radio-226, común en la corteza terrestre. La cantidad de este gas que puede exhalar viene definida, por un lado, por el contenido de radio del sustrato (por ejemplo, los graníticos), y por otro, por la permeabilidad del mismo, que facilita la movilidad a través de los poros. El radón, como elemento gaseoso, posee una alta movilidad y puede penetrar en los edificios a través de fisuras o grietas o por la propia permeabilidad de los materiales que estén en contacto con el terreno. Así, puede entrar fácilmente en el interior de la vivienda, atravesando los forjados, soleras y muros.

Caminos de mayor entrada de gas radón, que suelen coincidir con los puntos débiles de estanquidad de la envolvente en contacto con el terreno, fisuras, juntas, cámara de aire, chimeneas, conductos de saneamiento o materiales de cerramiento/ Elaboración propia

La acumulación de este gas en los recintos cerrados puede elevar las concentraciones y constituir un riesgo para la salud de las personas que lo inhalen. La OMS advierte de sus efectos, situándolo como agente cancerígeno de grado uno (es decir, probado), y alerta de que se trata de la segunda causa de cáncer de pulmón, detrás del tabaquismo. En otros documentos, como los publicados por la Agencia Estadounidense para la Protección Ambiental (EPA), se ofrecen datos de muertes asociadas a la inhalación de gas radón del mismo orden que las atribuidas a los accidentes de tráfico.

Dada la gravedad de la problemática y a partir de la percepción del riesgo derivada de estudios médicos epidemiológicos, algunos países han establecido unos niveles de concentración de radón de referencia, por encima de los cuales se recomienda, o se obliga según el caso, a una intervención arquitectónica para reducir los niveles. La concentración de este gas se expresa en bequerelios (número de desintegraciones subatómicas por segundo) por metro cúbico de aire y los valores límite que se están manejando a nivel internacional oscilan entre 100 y 300 Bq/m3, publicados en documentos de la OMS, la EPA o la Comisión Europea, mediante la Directiva 2013/59/EURATOM. Sobrepasados los niveles citados, resulta necesario realizar actuaciones correctoras para reducir las concentraciones.

¿Cómo se puede actuar frente al radón en las viviendas?

El CSN ha publicado una guía sobre las diferentes técnicas que se pueden emplear. Estas actuaciones se pueden clasificar en tres categorías. Ordenadas de mayor a menor eficacia, serían las siguientes:

  • Técnicas de despresurización del terreno. Se centran en drenar el gas contaminado en el terreno mediante redes o puntos de captación insertados en el subsuelo con conexión al ambiente exterior. Suelen usarse equipos de extracción para mejorar el rendimiento y radio de acción. Es una técnica de alta eficacia, aunque requiere de técnicos especializados.
  • Técnicas de barreras frente al radón. Se basan en la instalación de barreras estancas frente al paso del gas en todo elemento constructivo que separe el edificio del terreno. La colocación idónea es bajo la solera y por el exterior de los muros de sótano, por lo que suele usarse en proyectos en fase de ejecución y no en viviendas existentes.
  • Técnicas de ventilación. Mediante el intercambio de aire con el exterior se consigue reducir la concentración por dilución. Esta técnica puede requerir altas tasas de intercambio de aire que en muchos de los casos puede perjudicar la eficiencia energética por pérdidas de confort térmico. Se aconseja para situaciones de concentración baja o moderada.

Desde la identificación del radón como agente cancerígeno se ha incrementado el interés por el desarrollo de técnicas de protección. Durante las últimas dos décadas, se han venido probando soluciones y estudiando sus efectividades. En nuestro país, hace ya tiempo que se llevan a cabo estudios relacionados con la medida del gas, las concentraciones, los mecanismos de transporte o los efectos sobre la salud. Sin embargo, la investigación sobre las técnicas de protección y las experiencias de aplicación son aún escasas. En esta línea, en el Instituto de Ciencias de la Construcción Eduardo Torroja del CSIC se están desarrollando, en la actualidad, dos proyectos con el objetivo de controlar con mayor precisión la eficacia y optimizar el diseño de técnicas de protección. En concreto, el proyecto RADONCERO, busca obtener datos de optimización de los sistemas de protección frente a la entrada de gas radón en edificios para desarrollar una metodología de intervención que tenga en cuenta la diversidad de terrenos, las tipologías edificatorias más comunes en España y el uso que se les vaya a dar.

Para ello, en primer lugar, se evalúa la penetración de radón en edificios existentes analizando varias tipologías de terrenos y técnicas constructivas. En segundo lugar, se estudian los sistemas de protección como las barreras y los basados en extracciones de gas y ventilaciones (mediante el uso de herramientas informáticas que permiten simular procesos de movimiento del gas en todo el recorrido, desde el terreno hasta el interior del edificio). La última fase del proyecto consiste en la intervención en los edificios previamente analizados, aplicando el método resultante de los estudios de simulación antes citados y el método que ha sido propuesto para la protección frente al radón.

Dado que, a pesar de su importancia, aún no existe una reglamentación específica al respecto en nuestro país, los resultados de este proyecto constituyen una referencia técnica para el documento básico de protección frente al gas radón que se encuentra en la actualidad en fase de desarrollo en el ámbito del Código Técnico de la Edificación.


* Borja Frutos Vázquez es investigador del Instituto de Ciencias de la Construcción Eduardo Torroja (IETcc), del CSIC y lidera el proyecto RADONCERO.

Ni estrellas ni planetas, ¿qué son las enanas marrones?

Por Mar Gulis (CSIC)

En los sesenta, nadie las había observado, pero Shiv S. Kumar predijo su existencia y las llamó enanas negras. En 1975, la astrofísica Jill Tarter las denominó enanas marrones, su nombre definitivo, dado que el término de Kumar también podía referirse a otros objetos estelares. Tarter no iba desencaminada al intuirlas marrones, sin embargo, estos cuerpos celestes suelen tener en realidad un color parecido al magenta o morado. Pero, más allá de su color, ¿sabes qué es una enana marrón?

Las enanas marrones son objetos subestelares que se encuentran a caballo entre las estrellas y los planetas. Un cuerpo celeste con composición similar a la solar y con masa mayor que 75 veces la masa de Júpiter sería una estrella, mientras que uno por debajo de esta masa (entre 65-75 masas) sería una enana marrón. No obstante, hay que tener en cuenta otros factores para determinar ante qué objeto nos encontramos. Una de las principales peculiaridades de la enana marrón es que en su núcleo no se llega a alcanzar, de manera estable, la temperatura de fusión necesaria para la quema de hidrógeno, como ocurre en una estrella, y en su lugar se quema deuterio.

Ilustración de una enana marrón. / NASA/JPL-Caltech

Ilustración de una enana marrón. / NASA/JPL-Caltech

Las características espectrales de las enanas marrones, como el pico de emisión centrado en longitudes de onda larga, la luminosidad o las temperaturas superficiales más bajas que las de una estrella, les otorgan precisamente ese color magenta o morado. En la clasificación espectral, las estrellas más calientes y luminosas tienen un color azul y a medida que se van enfriando, pasan al amarillo, al anaranjado y, por último, al rojizo. Después encontramos a las enanas marrones, que van del color rojizo al morado.

Primera enana marrón, primer exoplaneta

Teide 1 fue la primera enana marrón confirmada, gracias a un equipo español del Instituto de Astrofísica de Canarias, en 1995, el mismo año del descubrimiento del primer exoplaneta: 51 Pegasi b. ¿Coincidencia? La autora del libro Enanas marrones (Editorial CSIC – Los Libros de la Catarata), María Cruz Gálvez Ortiz, antes investigadora del Centro de Astrobiología (CSIC-INTA), explica las evidencias sobre las conexiones que existen entre ellas y los exoplanetas (planetas que se encuentran fuera del sistema solar), más allá de que coincidan en el momento del hallazgo.

Las enanas marrones también limitan en el rango de masa y temperatura con los planetas, e incluso presentan atmósferas similares. De hecho, algunos de los métodos empleados para descubrir enanas marrones han permitido dar con planetas extrasolares. En ambos casos, a pesar de la mejora y afinamiento de los instrumentos y técnicas de investigación en astrofísica, las teorías sobre su formación, el cálculo de sus edades y la naturaleza de sus atmósferas se encuentran todavía en desarrollo.

En cuanto a las enanas marrones, a pesar de que se conoce relativamente poco sobre ellas, en las últimas dos décadas se han identificado cerca de 2.000 (cifra que va en aumento). Respecto a los exoplanetas, son ya más de 3.000 confirmados (otra cifra que sigue creciendo), de los cuales alrededor de 20 son de tipo terrestre y se encuentran en una zona de habitabilidad. Como señala Gálvez Ortiz, desde que comenzó la búsqueda de planetas extrasolares, “uno de los objetivos principales ha sido encontrar un planeta similar a la Tierra en tamaño y composición y en condiciones similares, de tal manera que pudiera albergar vida”.

Los estudios están profundizando también en el hallazgo de planetas alrededor de enanas marrones y, por el momento, se han detectado casi una decena de objetos de masa planetaria orbitando estos cuerpos subestelares. La búsqueda sigue…

 

* Puedes leer más en el libro Enanas marrones (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Sabes cuánto tarda un nuevo medicamento en llegar a tus manos?

Por Mar Gulis (CSIC)*

Hay que remontarse al siglo XVIII para dar con el origen de los ensayos clínicos. El cirujano escocés James Lind (1716-1794) decidió probar distintos remedios frente al escorbuto, enfermedad causada por la deficiencia en vitamina C. Así, tomó a doce pacientes, los dividió en parejas y aplicó una terapia distinta a cada una: vinagre, nuez moscada o agua de mar, entre otras sustancias. Al parecer, el resultado fue que se curaron los que recibieron cítricos, mientras que los que llevaban una dieta escasa o nula en frutas y verduras siguieron padeciendo ese mal. Con este experimento, mediante la planificación de diversas curas, se consiguió demostrar la más eficaz.

En el siglo XIX, el médico francés Pierre Charles Alexandre Louis (1787-1872) propuso un método numérico para cuantificar los resultados de la experimentación. Cien años más tarde, el epidemiólogo británico Bradford-Hill (1897-1991) encontró una fórmula que hacía comparables los distintos grupos de estudio y estableció los “criterios de causalidad”. En ese momento se inició la era moderna de los ensayos clínicos.

Se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento

A pesar de que para entonces empezaba a adquirirse conciencia del valor de la investigación, no fue hasta los años setenta cuando empezó a considerarse esencial el estudio de la eficacia y la seguridad de un medicamento antes de su lanzamiento al mercado. El punto de inflexión se produjo en los años cincuenta, cuando la administración de la recientemente descubierta ‘talidomida’ produjo un efecto indeseado, ocasionando malformaciones en recién nacidos, y poniendo de manifiesto la necesidad de establecer una regulación.

Actualmente se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento. Se trata de un largo y costoso proceso en el que el fármaco ha evolucionado, sorteando obstáculos, hasta su lanzamiento como producto final, cuando se convierte en el posible remedio para nuestras dolencias. En el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), las investigadoras del Centro de Investigaciones Biológicas del CSIC María del Carmen Fernández y Nuria E. Campillo señalan que “una vez que en el laboratorio se identifica una molécula prometedora comienza el verdadero reto: ponerla en el mercado”.

El proceso se inicia con la búsqueda de la diana terapéutica, seguido de la identificación y desarrollo de moléculas que pueden interaccionar con dicha diana. De estas primeras etapas de identificación, síntesis y evaluación biológica (in vitro) nacerán las primeras moléculas o hits con potencial para llegar a ser un fármaco. Las etapas más complicadas comienzan ahora, con la fase preclínica, en la que se recurre a modelos celulares y a animales de experimentación para estudiar la seguridad y la toxicidad de las moléculas. Esta fase es el “puente necesario para pasar del laboratorio –etapa de descubrimiento– a la fase clínica”, en la que se realizan estudios en humanos, explican las investigadoras.

Esto es lo que se conoce como ‘desarrollo clínico’, del que forman parte los ensayos clínicos, centrados en descubrir o comprobar los efectos clínicos y farmacológicos, así como en identificar cualquier reacción adversa a los mismos y determinar su seguridad y eficacia en voluntarios y pacientes.

Proceso del desarrollo clínico de un medicamento

Proceso del desarrollo clínico de un medicamento. / María del Carmen Fernández y Nuria E. Campillo

Antes de que llegue hasta nuestras manos, el medicamento en cuestión debe ser autorizado y estará sujeto a diferentes regulaciones para su comercialización, por lo que el mundo farmacéutico se convierte en un entorno hiperregulado y sometido a una exigencia de alta calidad. Es una exigencia justificada porque precisamente es en las primeras fases de la investigación clínica donde pueden surgir reacciones adversas y, de hecho, alrededor de la mitad de los efectos indeseables de los fármacos se identifican solo en los ensayos clínicos en humanos, es decir, el éxito no siempre está garantizado ya que, como aseguran las investigadoras, “la probabilidad general de éxito clínico, es decir, que un fármaco pase con éxito todos los ensayos, es inferior al 12%”.

En definitiva, para comprender el proceso del desarrollo clínico habría que imaginarse un embudo: durante varios años se caracterizan entre 5.000 y 10.000 moléculas prometedoras, y solo unas 250 pasan a las fases preclínicas (un año), hasta llegar menos de 10 a los ensayos clínicos en humanos (seis-siete años). En ese momento, se da con un compuesto que podría ser el nuevo medicamento y si todo va bien… se lanza al mercado.

 

* Puedes leer más en el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Cometas: el terror que vino del cielo

Por Montserrat Villar (CSIC)*

Concebidos como profetas de la muerte, los cometas han inspirado terror en muchas culturas a lo largo de más de veinte siglos. Aparecían de pronto y se mantenían en el cielo durante semanas o incluso meses, perturbando su armonía. Se consideraban portadores de grandes desventuras: lluvias de sangre, animales nacidos con dos cabezas, enfermedades mortales… Una larga lista de horrores fue atribuida a los cometas hasta el Renacimiento. El pavor que causaban impulsó su observación, registro y clasificación para tratar de descifrar su significado y prepararse para las fatalidades que anunciaban.

China, siglo II antes de nuestra era. El aristócrata y político Li Cang, su esposa Xin Zhui y su hijo renacen tras la muerte y emprenden el viaje hacia la inmortalidad. Más de 2000 años después, en la década de 1970, se descubren sus tumbas en el yacimiento arqueológico de Mawangdui. Entre los miles de objetos encontrados, se halla un delicado lienzo de seda manuscrito. Contiene los dibujos de alrededor de 30 cometas, cada uno acompañado por un texto breve que previene sobre el mal concreto que causará (hambruna, derrota en una batalla, epidemia…).

En 1587 se publicaba el manuscrito Libro sobre cometas, con hermosas ilustraciones. El texto, anónimo, describe la materia de los cometas, su conexión con los planetas y su significado según la forma, color y posición. Así, cuando el cometa Aurora aparece sobre oriente habrá sequía, incendios y guerra. En la ilustración, una ciudad es devastada por las llamas bajo su auspicio sangriento. El resplandor de la conflagración ilumina la escena, mientras el brillo de Aurora se refleja en las nubes. El artista, por tanto, identifica los cometas como fenómenos atmosféricos. Diez años antes de la edición de este libro, el Gran Cometa de 1577 apareció en los cielos de Europa asombrando a sus gentes durante semanas. Tras estudiar sus movimientos, el astrónomo danés Tycho Brahe confirmó que se trataba de un acontecimiento celeste situado mucho más allá de la luna, y no de un fenómeno atmosférico, como creían numerosos eruditos de la época.

A principios del siglo XIV un joven pintor florentino rompía con la tradición. Cumpliendo el encargo de decorar el interior de la capilla de los Scrovegni en Pádova (Italia), Giotto de Bondone cubrió sus paredes de maravillosos frescos referentes a la vida de Jesús y de la Virgen María. En La adoración de los Reyes Magos representa la estrella de Belén como un cometa. Es probable que el artista viera el cometa Halley en 1301 y se inspirara en su aspecto. En este caso el mensaje es de esperanza: Cristo ha venido a salvar el mundo. Seis siglos después, en 1985, la Agencia Espacial Europea (ESA) lanzó la misión Giotto, con cuyo nombre rendía tributo al artista. Se acercó a unos 600 kilómetros del cometa Halley, del que obtuvo imágenes espectaculares.

En octubre de 1858 el artista escocés William Dyce pasó unos días de descanso en Pegwell Bay, un popular lugar de vacaciones en la Inglaterra de la Reina Victoria. En su obra Pegwell Bay, Kent – Recuerdo del 5 de Octubre de 1858, el artista representa una escena entrañable en la que su familia pasea por la playa mientras recoge piedras y conchas. El esbozo apenas perceptible del cometa Donati descubierto ese año se aprecia en el cielo de la tarde. Es un elemento más del paisaje, ya no simboliza desgracias venideras: en el siglo XIX los cometas habían perdido su aura de terror. Desde el siglo XVII, las investigaciones de científicos como Edmund Halley habían ido desenmascarando la inocuidad de estos astros. Su significado en la obra de Dyce es aún más profundo: ese trazo sutil en el cielo sugiere que la existencia del ser humano es efímera, casi instantánea.

Obra de la artista rusa Ekaterina Smirnova

Obra de la artista rusa Ekaterina Smirnova

Comenzaba el año 2015 cuando la artista rusa Ekaterina Smirnova aprendía a producir agua pesada mediante electrólisis. Quería conseguir una composición similar a la hallada unos meses antes en forma de hielo en el cometa 67P/Churyumov–Gerasimenko por la misión Rosetta-Philae de la ESA. Con esta agua, Smirnova creó una serie de acuarelas de considerables dimensiones a partir de las imágenes del cometa obtenidas por la exitosa misión. Además, utilizó pigmentos oscuros mezclados a mano para recrear el bajo albedo (capacidad reflectora) de la superficie del cometa. Smirnova se sumerge en la ciencia para crear una obra bella e inspiradora, retrato de un astro distante y frío.

Decía Séneca en sus Cuestiones Naturales en el siglo I: «¡Tan natural es admirar lo nuevo más que lo grande! Lo mismo acontece con los cometas. Si se presenta alguno de estos cuerpos inflamados con forma rara y desacostumbrada, todos quieren saber lo que es; se olvida todo lo demás para ocuparse de él; ignórase si se debe admirar o temblar, porque no faltan gentes que difunden el terror, deduciendo de estos hechos espantosos presagios”. Dos mil años después, el mensaje cifrado de los cometas, esos ‘misteriosos’ cuerpos celestes compuestos por hielo, polvo y rocas que orbitan alrededor del Sol, nos habla de mundos primitivos y helados, del origen del Sistema Solar e incluso, quizás, de la propia vida.

 

* Montserrat Villar es investigadora del Centro de Astrobiología (CSIC-INTA). Coordina ‘Cultura con C de Cosmos’, un proyecto que surge del diálogo entre el estudio del universo y su reflejo en las diferentes manifestaciones artísticas a lo largo de la historia.

Canibalismo… y otras formas de interacción galáctica

Por Mariano Moles y Mar Gulis (CSIC)*

Las galaxias son sistemas de estrellas, gas y polvo encerrados en un enorme halo de materia oscura. La mayoría de ellas forman sistemas múltiples en los que viven y evolucionan. De hecho, es complicado encontrar galaxias verdaderamente aisladas, es decir, que hayan evolucionado fuera de la influencia de otras, al menos durante los últimos dos mil millones de años. La interacción de las galaxias con otras del entorno, aun si esta no es violenta ni destructiva, juega un papel esencial en sus propiedades.

Vamos a considerar tres situaciones que nos permiten visualizar, brevemente, lo que puede significar esta interacción gravitatoria para la evolución de las galaxias.

Interacción secular

En las regiones externas de los cúmulos de galaxias o de grupos dispersos, la interacción entre galaxias no es en general violenta sino que va actuando a lo largo del tiempo, produciendo transformaciones paulatinas. Incluso las galaxias que están en situación de interacción suave presentan propiedades claramente distintas a las de las galaxias aisladas en las masas, los tamaños e incluso los colores fotométricos. Las galaxias aisladas son más pequeñas, menos masivas y más azuladas.

Galaxy Cluster Abell 1689. Los cúmulos de galaxias, en tanto que entidades gobernadas por la interacción gravitatoria, son lugares ideales para estudiar la evolución de las galaxias bajo los efectos de esa interacción. / hubblesite

Galaxy Cluster Abell 1689. Los cúmulos de galaxias, en tanto que entidades gobernadas por la interacción gravitatoria, son lugares ideales para estudiar la evolución de las galaxias bajo los efectos de esa interacción. / hubblesite

Choques de galaxias

Aunque no es muy frecuente, en los cúmulos también se producen agrupamientos y hasta colisiones destructivas de galaxias. Esto suele ocurrir en las etapas iniciales de la formación de la parte central del cúmulo. Pero hay casos, como el de la galaxia IC 1182, en los que la colisión de dos galaxias se produce en etapas posteriores.

¿Qué sucede en estas colisiones galácticas? Sabemos que las estrellas por su lado y la materia oscura por el suyo solo responden a las fuerzas gravitatorias. Además, lo que podríamos llamar gas de estrellas, es decir, el conjunto de todas las estrellas con sus velocidades respectivas, es de muy baja densidad. En efecto, la distancia media entre dos estrellas es más de un millón de veces superior al tamaño medio de estas. De modo que la probabilidad de colisión entre estrellas de una galaxia es, por lo general, muy baja.

Cuando dos galaxias colisionan, sus respectivos gases de estrellas pueden pasar uno a través del otro casi inalterados salvo por efectos de larga escala cuando una de ellas es capturada por otra y empieza a orbitar en espiral a su alrededor. Entonces pueden producirse largas colas o apéndices que se extienden a gran distancia de la galaxia y que evidencian la interacción. También el gas puede ser arrancado del cuerpo de la galaxia y formar apéndices y estructuras de gran escala. Magníficas muestras de esos procesos son la galaxia que se denomina, por su forma, del renacuajo (Tadpole Galaxy), catalogada como NGC 4676; y la galaxia llamada de los ratones (Mice Galaxy).

La galaxia IC 1182 está ya en una fase avanzada del proceso de fusión. La larga cola de marea atestigua la violencia del choque. / eso

La galaxia IC 1182 está en una fase avanzada del proceso de fusión. La larga cola de marea atestigua la violencia del choque. / eso.org

Por otra parte, la interacción violenta altera fuertemente el ritmo de formación estelar de una galaxia y provoca una aceleración notable de su evolución. Quizá uno de los ejemplos más espectaculares de este proceso es el que puede apreciarse en la galaxia de las Antenas. La extensión total abarcada por las dos antenas es de casi cuatro veces la dimensión de nuestra Galaxia (Vía Láctea). En la zona central capturada por el telescopio espacial Hubble se observa una intensísima formación estelar, con más de 1.000 cúmulos jóvenes de estrellas.

El resultado final de esas grandes colisiones es una única galaxia de forma esferoidal, relajada y exhausta, evolucionando tranquilamente a medida que sus estrellas jóvenes desaparecen y las demás van envejeciendo. A veces ocurre que las colisiones no sólo dan lugar a nuevas estrellas, sino también a nuevas galaxias que se van construyendo en las colas de marea o en los aledaños de la zona más directamente afectada por la interacción. Estas galaxias, llamadas enanas de marea, por producirse en esas situaciones, se han detectado en el apéndice de IC1182 o en las colas producidas en el Quinteto de Stephan.

Canibalismo galáctico

Cuando una de las galaxias que interaccionan es mucho mayor que la otra puede ocurrir que la segunda acabe siendo engullida por la primera, sin que se produzcan los fenómenos que acabamos de ilustrar, propios de colisiones entre dos galaxias más o menos similares. Los signos de este canibalismo galáctico son mucho menos espectaculares y difíciles de detectar. Por eso el estudio de este fenómeno y su importancia para la evolución de las galaxias es reciente.

Simulación por ordenador del proceso de canibalismo: una galaxia enana está siendo desorganizada para ser luego engullida por una galaxia como la Vía Láctea. / astro.virginia.edu

Simulación por ordenador del proceso de canibalismo: una galaxia enana está siendo desorganizada para ser luego engullida por una galaxia como la Vía Láctea. / astro.virginia.edu

En nuestro Grupo Local de galaxias hay tan solo tres masivas: Andrómeda, la Vía Láctea y M33 (mucho menos masiva que las otras dos), mientras que existen cerca de 50 galaxias enanas, poco masivas, pequeñas, meros satélites de las dominantes. A lo largo de la evolución del sistema puede ocurrir que una de esas galaxias sea atrapada definitivamente por una de las masivas y acabe siendo tragada por ella. Las estrellas de la galaxia canibalizada van a constituir una corriente estelar en la galaxia grande, que solo con muy sofisticados medios se puede detectar, medir y caracterizar. Aunque de momento solo podemos conjeturarlo, ese parece ser el caso de la galaxia enana Sagitario, que podría estar siendo engullida por nuestra galaxia.

 

* Este texto está basado en contenidos del libro de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata) ‘El jardín de las galaxias’, escrito por Mariano Moles.

¿Qué nos dicen los anillos de los árboles sobre el calentamiento global?

Por Elena Granda (Universitat de Lleida) *

Una de las características más increíbles de los árboles es su longevidad; son seres vivos capaces de vivir muchísimos años. Sin ir muy lejos, en el Pirineo se pueden encontrar pinos de alta montaña que tienen más de 800 años y que, por tanto, germinaron en el siglo XIII. Incluso se han encontrado en Estados Unidos árboles con unos 5.000 años. Dado que los árboles son capaces de almacenar información (ecológica, histórica y climática) en cada año de crecimiento, encontrar un árbol viejo es como descubrir un archivo muy antiguo repleto de información. La dendroecología (rama de la biología especializada en el estudio de la ecología de los árboles a través del análisis de los anillos de crecimiento) se encarga de recopilar esa información para responder preguntas de ecología general y abordar problemas relacionados con los cambios ambientales a nivel local y global.

Para poder acceder a dicha información se obtiene un testigo de madera (o core en inglés), ”pinchando” el tronco con una barrena desde la corteza hasta el centro del árbol (médula). Así, se extrae un cilindro de madera en el que se ven todos los anillos de crecimiento. El estudio de estos cilindros ayuda a desvelar cómo ha sido el funcionamiento de distintos individuos y especies durante toda su vida.

De estos análisis se obtiene una valiosísima información que nos ayuda a comprender a qué peligros están expuestos actualmente nuestros bosques, cómo han actuado en el pasado ante factores de estrés y qué peligro corren en el futuro si no conseguimos reducir sus principales amenazas, como las emisiones de gases de efecto invernadero a la atmósfera, los incendios provocados, las especies invasoras o la desaparición de sus hábitats.

Gracias a la dendroecología podemos estudiar las causas de la mortalidad de los árboles, como el pino albar de las siguientes fotografías, a través de la comparación de árboles muertos (primera imagen) con aquellos vivos, mediante la extracción y posterior análisis de los anillos de crecimiento que se pueden observar en los testigos de madera (segunda imagen).

 

Los beneficios que aportan las plantas terrestres son incontables: dan cobijo a los animales, absorben contaminantes, favorecen las características del suelo, evitan la erosión, etc. Pero, sobre todo, son las responsables de generar gran parte del oxígeno (O2) que respiramos y de absorber de la atmósfera el dióxido de carbono (CO2), que es uno de los principales causantes del calentamiento global. Y, en el caso particular de las plantas leñosas, árboles y arbustos, su importancia radica en que son perennes; es decir, que no mueren tras la estación de crecimiento y reproducción. Esto implica que la cantidad de CO2 que pueden captar es muy grande y que este queda almacenado en los bosques, retenido en la madera, raíces, ramas y hojas durante mucho tiempo.

Durante las últimas décadas, y debido al aumento de gases de efecto invernadero en la atmósfera como el CO2 , se han producido alteraciones de la temperatura y las precipitaciones a nivel global. En países de clima mediterráneo, por ejemplo, se han registrado aumentos de temperatura en torno a 1,3 grados centígrados desde la revolución industrial, cuando se aceleró la emisión de estos gases a la atmósfera. Además han aumentado recientemente las condiciones extremas de sequía y hay mayor riesgo de incendios y lluvias torrenciales.

Cabría pensar que un aumento de CO2 atmosférico podría ser beneficioso para los árboles, ya que son organismos que se alimentan de dióxido de carbono. Sin embargo, esto normalmente no ocurre porque el aumento de CO2 está asociado a la sequía y al calentamiento global, y estos son factores que pueden producir estrés en las plantas. Dicho estrés da lugar al cierre de los estomas (poros que hay en las hojas por donde entran y salen moléculas de CO2 y agua) y, como consecuencia, no pueden aprovechar esa mayor cantidad de alimento. Si lo comparamos con los humanos, sería como si nos encontráramos ante una mesa llena de comida pero tuviéramos la boca cerrada y no pudiésemos comer nada. Dado que el cambio climático y la alteración de la atmósfera pueden perjudicar al funcionamiento de las especies leñosas, se esperan cambios en la composición de los bosques como los conocemos en la actualidad.

Por eso es importante conocer qué árboles están estresados, las causas y consecuencias, así como la forma en la que actúan ante ese estrés. Con el fin de predecir qué va a pasar en el futuro con nuestros bosques para poder minimizar las consecuencias del cambio climático, es de gran utilidad el estudio del crecimiento de los árboles a lo largo del tiempo: cuánto carbono han consumido y utilizado cada año, cómo han influido en ellos los cambios de temperaturas, las plagas, las sequías o los incendios, de manera que podamos desarrollar modelos de evolución de los futuros bosques.

Ilustración que representa las distintas fases en el estudio de los anillos de crecimiento: extracción del testigo de madera con una barrena (a); datación de los anillos para saber a qué año corresponde cada uno (b) y análisis de la información contenida en los mismos (c)

Gracias a la dendroecología podemos estudiar las causas de la mortalidad de los árboles, como el pino albar en la fotografía, a través de la comparación de árboles muertos (a) con aquellos vivos (b), mediante la extracción y posterior análisis de los anillos de crecimiento que se pueden observar en los testigos de madera.

 

Elena Granda es investigadora postdoctoral de la Universitat de Lleida y colaboradora del Instituto Pirenaico de Ecología (CSIC).

 

Organismos a la fuga: ¿escapan los seres vivos de la contaminación?

Por Ignacio Moreno-Garrido y Cristiano Venicius de Matos Araujo (CSIC)*

Pez cebra / Flickr-Photo-by-Lynn-Ketchum

Pez cebra / Flickr-Lynn Ketchum

Faraones, reyes, emperadores y nobles de tiempos pretéritos descubrieron, hace ya siglos, cómo funcionaban los ensayos de toxicidad. Ya que siempre hay gente interesada en cambiar unos gobernantes por otros, y dado que la mayor parte de los venenos preferidos por los asesinos actuaban por vía digestiva, era frecuente que los pretendientes al trono o sus aliados añadieran algunos simpáticos polvitos a las comidas de estos dirigentes con la aviesa intención de allanarles el camino a sus correspondientes sepulturas. Como el problema es que todo el mundo conoce el manual, estos gobernantes hacían probar la comida a sus sirvientes, y si estos ponían mala cara, mudaban el color epidérmico a tonos más verdosos y, acto seguido, se morían, aquellos solían pasar directamente a los postres obviando los segundos platos. Por supuesto, tales ensayos adolecían de rigor científico (aunque algunos tuvieran rigor mortis), y bastaba con procurarse un veneno de efecto retardado para solucionar el ligero inconveniente (y si no, que se lo cuenten al pobre emperador Claudio, por ejemplo).

Como quiera que sea, la base de los ensayos de toxicidad estaba servida: para conocer cómo de tóxica es una sustancia casi no nos queda otra que exponer material biológico a distintas concentraciones de tal sustancia, y observar qué pasa. Estos materiales biológicos, hoy día, pueden ser simples enzimas, cultivos celulares, tejidos, organismos, conjuntos de organismos o incluso ecosistemas, más o menos complejos. Sin embargo, los ensayos de toxicidad “clásicos” casi siempre se han centrado en la mortalidad (en el caso de organismos superiores) o en la inhibición del crecimiento (en el caso de poblaciones de microorganismos).

Pero, ¿qué pasa si los organismos, a concentraciones más bajas de las que les producen un efecto nocivo, detectan la contaminación y se fugan a sitios más limpios? Desde el punto de vista de la ecología, la fuga de los organismos de una zona equivale a su extinción, de modo que tal vez hayamos subestimado los efectos tóxicos de los contaminantes durante todos estos años.

Sistema lineal para estudiar el desplazamiento de los organismos / ICMAN-CSIC

Sistema lineal para estudiar el desplazamiento de los organismos / Cristiano Araújo

El primer paso que nos permite evaluar la capacidad de los organismos para huir de los contaminantes consiste en ponerlos en condiciones de elegir entre diferentes ambientes. En el Instituto de Ciencias Marinas de Andalucía (CSIC), miembros del grupo de investigación EEBAS (Ecotoxicología, Ecofisiología y Biodiversidad de Sistemas Acuáticos) estamos desarrollando dispositivos que simulan gradientes o manchas de contaminación en sistemas que permiten el libre desplazamiento de los organismos entre sus compartimentos, tanto en diseños lineales como en pequeños laberintos, como muestran las imágenes.

Con estos sistemas hemos realizado en el grupo de investigación diversos estudios que involucraban diferentes organismos. Ya se han llevado a cabo ensayos sobre microalgas (como la diatomea bentónica Cylindrotheca closterium), crustáceos (como el camarón Atyaephyra desmaresti o el anostráceo Artemia salina), peces (como Danio rerio –pez cebra– o Poecilia reticulata –guppy–) y renacuajos de tres especies de anfibios (Leptodactylus latrans, Lithobates catesbeianus y Pelophylax perezi). Los resultados, algunos ya publicados en revistas de ámbito internacional (Chemosphere, Environment International, Science of the Total Environment, Aquatic Toxicology o Plos One) muestran de manera inequívoca que prácticamente todos los organismos ensayados detectan la mayoría de los contaminantes y buscan las zonas menos contaminadas.

Sistema de laberinto / ICMAN-CSIC

Sistema de laberinto / Cristiano Araújo

Estos estudios de selección de hábitats también indican que, a pesar de ser la contaminación un factor capaz de expulsar organismos de una zona, la presencia de potenciales competidores en los tramos limpios o la presencia de comida en la zona contaminada pueden variar en gran medida la decisión, por parte de los organismos expuestos, de evitar o no los tramos con mayores cargas de contaminantes.

Este novedoso enfoque de estudio, que simula gradientes o manchas de contaminación, nos ha permitido incluir un nuevo concepto en los estudios medioambientales: la fragmentación química de los hábitats, basada en los efectos que un vertido contaminado puede tener impidiendo el paso de los organismos entre dos zonas limpias.

En resumen, nuestros resultados indican que los estudios sobre los efectos de los contaminantes no deberían estar exclusivamente enfocados en evaluar cómo los contaminantes dañan los organismos, ya que se ha puesto de manifiesto que el potencial “repelente” de las sustancias contaminantes, incluso a concentraciones muy por debajo de los valores letales, puede acarrear serias consecuencias para la estructura y dinámica de los ecosistemas, así como para la distribución espacial de los organismos.

* Ignacio Moreno-Garrido y Cristiano Venicius de Matos Araujo son investigadores en el Instituto de Ciencias Marinas de Andalucía (CSIC).

Cerebros de plastilina: ¿es posible conseguir una “supermemoria”?

Por Sandra Jurado Sánchez (CSIC)*

Ilustración de Silvia Jurado Sánchez

       Ilustración de Silvia Jurado Sánchez

En estas fechas de junio ya casi se pueden tocar las tan ansiadas vacaciones… Durante este mes, miles de estudiantes se han tenido que enfrentar a los exámenes de fin de curso, a la temida EBAU (antes Selectividad o PAU) o incluso a los exámenes de recuperación. En estas semanas el alumnado pone a prueba su templanza, pero sobre todo su memoria y conocimiento. Algunos demuestran una excelente capacidad de retención de manera innata (o, más probablemente, producto del trabajo continuado durante el curso), mientras que otros creen “conveniente” mejorar sus posibilidades con la ayuda de suplementos alimenticios. También hay quienes, dudando de su propia capacidad, se dedican al diseño de complejas formas de outsourcing intelectual o “chuletas” de última generación.

En estos momentos de incertidumbre, qué no daríamos por conocer los secretos de la memoria: ¿cómo aprendemos?, ¿cómo se forman nuestras memorias y recuerdos? Y sobre todo, ¿cómo podemos potenciar estas capacidades y generar una “supermemoria”? El cerebro guarda la clave de estos misterios, y la neurociencia, la ciencia encargada de estudiar el funcionamiento cerebral, trabaja sin descanso para entenderlos.

El desarrollo temprano durante la infancia es un momento crítico para el aprendizaje, pero las personas adultas seguimos aprendiendo y formando recuerdos sin que se produzcan cambios significativos en nuestro volumen cerebral. Una posible estrategia del cerebro adulto para codificar nueva información implicaría remodelar las conexiones neuronales ya existentes en función de su frecuencia de uso. Por ejemplo, consideremos el aprendizaje de un instrumento musical principalmente adquirido a través de constante repetición. Aquellos contactos neuronales o sinapsis que comienzan a emplearse con mayor frecuencia podrían verse potenciados, mientras que si abandonamos el entrenamiento, estos contactos o conexiones podrían comenzar a debilitarse, llegando incluso a desaparecer. Los puntos de contacto entre neuronas, o sinapsis, son regiones extremadamente flexibles que tienen la capacidad de responder a distintas necesidades según los estímulos que reciben, potenciándose o debilitándose en función de la frecuencia de uso durante un proceso conocido  como plasticidad sináptica.

El concepto del cerebro como una estructura plástica se introduce por primera vez en el siglo XIX por el psicólogo estadounidense William James, y posteriormente es asimilado por los padres de la neurociencia moderna, con su máximo exponente en la figura de Santiago Ramón y Cajal. Meticulosas observaciones de las redes neuronales en cerebros embrionarios convencieron a Cajal de que el tejido neuronal era lo suficientemente flexible como para permitir la formación y desaparición de conexiones dependiendo del momento del desarrollo, y que posiblemente esta flexibilidad se encontrara en la base de la formación de memorias y recuerdos en el cerebro adulto.

Dibujo de corteza cerebelosa realizado por Santiago Ramón y Cajal en 1904. / Ministerio de Ciencia, Innovación y Universidades

Dibujo de corteza cerebelosa realizado por Santiago Ramón y Cajal en 1904. / Ministerio de Ciencia, Innovación y Universidades

Aunque plausible e interesante, la plasticidad cerebral acabó siendo un concepto puramente teórico. Habría que esperar hasta principios de los años setenta para que los investigadores Timothy Bliss y Terje Lømo, de la Universidad de Oslo, detectaran por primera vez un fenómeno de plasticidad sináptica. Así, lograron demostrar que en respuesta a un aumento de la frecuencia de estimulación, la fuerza de las sinapsis en el hipocampo, una región cerebral importante para la memoria y afectada severamente en la enfermedad de Alzheimer, aumentaba muy rápidamente: ¡en cuestión de segundos podía aumentar hasta un 200%! Lo más importante era que estas conexiones permanecían potenciadas durante horas. Este aumento en la frecuencia de estimulación en el laboratorio mediante técnicas de electrofisiología in vivo pretendía mimetizar el aumento de la actividad de determinadas conexiones durante el proceso de aprendizaje. El resultado fue que estas conexiones eran capaces de adaptarse muy rápidamente y facilitarse tal y como se venía especulando desde el siglo XIX.

Este hallazgo revolucionó la neurociencia, ya que proporcionaba evidencias experimentales para el concepto de plasticidad cerebral, que hasta entonces era una mera hipótesis. En los años sucesivos, numerosos laboratorios profundizaron en el estudio de la plasticidad sináptica y, gracias al avance de las técnicas de biología molecular, electrofisiología y microscopía, se pudieron identificar diferentes moléculas claves para este fenómeno neuronal.

La identificación de estas moléculas abre la puerta al diseño de nuevas estrategias y fármacos destinados a potenciar los procesos cognitivos, principalmente en individuos afectados por patologías que afectan a la memoria, como las enfermedades neurodegenerativas. Aunque la tan ansiada “píldora de la memoria” aún está fuera de nuestro alcance, es intrigante pensar qué efectos podrían provocar estos fármacos en individuos sanos. Intuitivamente podríamos imaginar la aparición de una “supermemoria”. Sin embargo, es probable que llegar a obtenerla no sea tan sencillo. Consideremos que el efecto de estos fármacos, aún en vías de desarrollo, podría ser diferente en un cerebro sano y en un cerebro afectado por neurodegeneración, en donde el entorno neuronal se ve profundamente alterado con la aparición de agregados moleculares inexistentes en situaciones normales. En este escenario, es esperable que el uso de fármacos que modulan moléculas cuyo efecto es predominante en el cerebro enfermo no tendría por qué afectar positivamente a las capacidades de memoria de un cerebro saludable que carece de estas dianas.

Todas estas cuestiones han de ser analizadas meticulosamente, incluyendo la reflexión acerca de si es necesario desarrollar una “píldora para la memoria” en un mundo en donde gran parte de nuestros recuerdos se almacenan de manera digital. Tal vez mucha memoria no suponga ya una ventaja pues, como dijo Nietzsche, “la buena memoria es a veces un obstáculo al buen pensamiento”.

* Sandra Jurado Sánchez es investigadora en el Instituto de Neurociencias de Alicante, del CSIC y la Universidad Miguel Hernández. Más sobre su trabajo en: https://www.juradolab.com/