La importancia de salirse de la norma: las proteínas dúctiles

Por Inmaculada Yruela (CSIC)*

A mediados del siglo XX se pensaba que las proteínas que no podían adoptar una determinada organización espacial y una estructura definida no podían realizar una función. Pero, a veces, los fenómenos que no encajan con el paradigma dominante del momento acaban convirtiéndose en la pieza central de un nuevo paradigma. Este es el caso de algunas observaciones que se hacían en el campo de la biología molecular a finales del siglo XX: las proteínas dúctiles o conocidas en inglés como Intrinsically Disordered Proteins (IDPs). Este tipo de proteínas, lejos de haber sido olvidadas por la comunidad científica debido a lo irregular y desordenado de su estructura, son cada día más populares gracias a su carácter moldeable y flexible (dúctil) y al papel que juegan tanto en los procesos de desarrollo y adaptación de los organismos a los cambios medioambientales como en la aparición de enfermedades como el cáncer, el Alzheimer, el Parkinson o la diabetes, entre otras.

Ejemplo de una proteína compacta y estructurada con varios módulos. Cada módulo se representa en un color diferente. Fuente: RCSB Protein Data Bank (https://www.rcsb.org) PDB 2VGB (Valentini et al. 2002)

Ejemplo de proteína compacta y estructurada con varios módulos. Cada uno en un color diferente. / Fuente: RCSB Protein Data Bank – PDB 2VGB (Valentini et al. 2002)

Desde los años sesenta del pasado siglo podemos explicar muchas de las propiedades de las proteínas, incluyendo su funcionamiento. Esto se consigue mediante el conocimiento de sus estructuras tridimensionales obtenidas a partir de la cristalografía y la difracción de rayos X. El año 1962 marcó un hito a este respecto cuando se concedió el premio Nobel en Química a John Kendrew y Max Perutz, investigadores que resolvieron las primeras estructuras de proteínas. Se trataba de dos proteínas humanas esenciales: la hemoglobina de los glóbulos rojos de la sangre y la mioglobina de los músculos. Actualmente, el número de estructuras resueltas se acerca a las 150.000, la mayoría en humanos y animal bovino.

A finales del siglo XX se observó que algunas proteínas escapaban de estos procedimientos experimentales, no pudiéndose resolver sus estructuras con las técnicas disponibles. Sin embargo, en los últimos veinte años las investigaciones han sido decisivas en este terreno para establecer que, en contra de lo aceptado en el pasado siglo, las proteínas no requieren adoptar formas rígidas y bien estructuradas en el espacio tridimensional para realizar sus funciones en la célula, sino que, por el contrario, la flexibilidad y la ductilidad en las proteínas es una propiedad que a menudo resulta crucial para su funcionamiento. Las proteínas dúctiles son esenciales para el ciclo celular, para la señalización celular y la regulación de los genes y las proteínas. Se considera que pueden haber desempeñado un papel clave durante la formación de los organismos multicelulares y la evolución.

Ejemplo de una proteína dúctil con un módulo estructurado (verde) y un módulo flexible (rojo). Fuente: RCSB Protein Data Bank (https://www.rcsb.org) PDB 2ME9 (Follis et al. 2014).

Ejemplo de proteína dúctil con un módulo estructurado (verde) y un módulo flexible (rojo). / Fuente: RCSB Protein Data Bank – PDB 2ME9 (Follis et al. 2014)

Se estima que, por ejemplo, en los animales, humanos y plantas, más de una tercera parte de las proteínas se hallan total o parcialmente desestructuradas, es decir, son proteínas que carecen, en su conjunto o en alguna de sus partes, de una estructura tridimensional estable en condiciones fisiológicas, aunque realizan importantes funciones biológicas. Por tanto, las proteínas no son entidades estructuralmente tan homogéneas como se pensaba, dado que presentan un nivel relevante de heterogeneidad. De esta manera, la estructura de una proteína no ha de considerarse como algo rígido, sino como algo dinámico. La transición entre diferentes formas, llamados estados conformacionales, que transcurre por estados sucesivos de completa estructuración y diferente grado de desestructuración, es necesaria para el reconocimiento y la interacción entre biomoléculas y para una función óptima.

Las proteínas con regiones dúctiles facilitan muchos procesos biológicos en la célula. Sin embargo, a menudo, la falta de organización estructural o plegamiento da lugar a la formación de agregados, que pueden acumularse en los órganos y tejidos del organismo dando lugar a ciertas enfermedades. Las características singulares de las proteínas dúctiles también hacen que su protagonismo trascienda a otras disciplinas científicas, tales como la medicina regenerativa, la nanotecnología, la agricultura o la tecnología de alimentos. El futuro que se abre en estos campos es estimulante y prometedor.

 

* Inmaculada Yruela Guerrero es investigadora en la Estación Experimental de Aula Dei (CSIC). Es autora del libro Las proteínas dúctiles (2016) en la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata) y del espectáculo artístico-científico de danza, música y ciencia Molecular Plasticity: la relevancia de las proteínas dúctiles, producido en colaboración con la Ciència Al Teu Món y con la ayuda de la FECYT. Molecular Plasticity recorrerá distintos espacios abiertos a la divulgación científica en el territorio español.

¿Te atreves a fotografiar la ciencia? ¡Participa en la 16ª edición de FOTCIENCIA!

Por Mar Gulis (CSIC)

Prepara el objetivo y dispara. Tienes hasta el próximo 8 de febrero de 2019 (a las 12:00 a.m., hora peninsular española) para enviarnos tus fotos. Un año más, FOTCIENCIA pretende seleccionar las mejores imágenes relacionadas con la ciencia y la tecnología, con el objetivo de producir un catálogo y una exposición itinerante que recorrerá museos y centros culturales de toda España en 2019/20. Hay varias modalidades y la temática es casi infinita. ¡Las mejores imágenes serán remuneradas hasta con 1.500€!

Las fotos pueden estar relacionadas con la investigación científica o sus aplicaciones, reflejar aspectos concretos de algún fenómeno científico, mostrar el objeto de estudio de una investigación o las personas que la realizan, su instrumentación e instalaciones, los resultados de un avance científico, etc. Las imágenes han de presentarse junto con un texto propio y divulgativo que explique su contenido. A partir de criterios técnicos y estéticos, un jurado elegirá las mejores fotografías en las diferentes categorías.

FOTCIENCIA, una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT), con el apoyo de la Fundación Jesús Serra, celebra este año su 16ª edición. Como en otras ocasiones, las imágenes seleccionadas formarán parte de un catálogo y una exposición itinerante. Consulta aquí las normas de participación y toda la información.

¿Cómo funciona un espejismo? El misterio de la ‘fata morgana’

Por Mar Gulis (CSIC)*

Hace ya tiempo que las gentes de Reggio Calabria, ciudad costera del sur de Italia, están acostumbradas a ver imágenes surreales, que parecen espectros, cuando miran al horizonte. Sobre el mar, en la línea donde este parece juntarse con el cielo, pueden observarse embarcaciones navegando por encima del agua, como si estuvieran en suspensión.

Lo que ven los lugareños no es una alucinación ni una ilusión óptica, sino un espejismo, una visión real que se produce por la confluencia de varios factores. Hoy tenemos una explicación científica sobre esta anomalía, pero antiguamente marineros y navegantes sentían pánico cuando veían estas imágenes en alta mar, pues las atribuían a maldiciones o hechizos. Estos espejismos distorsionan la apariencia de los objetos situados en el horizonte, que son proyectados como si flotaran.

esquema espejismo

Esquema del proceso de formación de los espejismos. / Camilo Florian Baron

El fenómeno del que hablamos se conoce como ‘fata morgana’, una denominación que procede del latín y significa hada Morgana, en alusión a la hermana del legendario rey Arturo, que según la leyenda era un hada cambiante. El espejismo, frecuente en el estrecho de Mesina, hace que las personas vean cosas donde no las hay debido a la existencia de distintas capas de aire con densidades diferentes. Como resultado, los rayos de luz se refractan, pero quien ve el espejismo no percibe esas diferentes capas, y de ahí el desconcierto.

Para entenderlo, hay que acudir a la óptica. El libro Descubriendo la luz (Editorial CSIC – Los Libros de la Catarata) explica cómo se produce la ‘fata morgana’. “Los espejismos son fenómenos asociados a la propagación de la luz en medios no homogéneos, donde el índice de refracción varía continuamente con la altura y, por tanto, la luz describe trayectorias curvas. Dichas curvas presentan una concavidad en la dirección de aumento del índice de refracción. Es decir, la luz se curva hacia el medio (agua, aire, etc.) con mayor índice de refracción”. En otras palabras, en un espejismo la luz ‘se dobla’ al atravesar las capas de aire a distinta temperatura. Como resultado, “la posición real del objeto está sujeta a la interpretación humana, ya que la formación de la imagen está condicionada por la refracción de la luz”.

Fenómeno de la fata morgana. / Wikimedia commons

Fenómeno de la fata morgana. / Wikimedia commons

Los espejismos pueden clasificarse en inferiores y superiores. La ‘fata morgana’ que alucina a los habitantes y turistas de la costa meridional de Sicilia es un ejemplo de espejismo superior. Como explica el libro Descubriendo la luz, “este se produce cuando el índice de refracción disminuye con la altura, algo que suele darse en zonas frías, donde la capa de aire próxima al suelo es muy fría y es más densa que las capas superiores”. Precisamente lo que sucede en el mar, donde generalmente el agua está a menor temperatura que el aire, produciendo un enfriamiento de las capas de aire más próximas a la superficie del agua. De este modo cambia su densidad y, por tanto, la forma en la que los rayos de luz se refractan. El resultado es el espejismo, bajo la apariencia de barcos que flotan sobre el mar o elementos en el horizonte como islas, acantilados o témpanos de hielo, con siluetas alargadas que les dan una apariencia fantasmal. Estos efectos suelen ser visibles por la mañana, después de una noche fría.

* Este texto está inspirado en los contenidos del libro Descubriendo la luz. Experimentos divertidos de óptica (Editorial CSIC – Los Libros de la Catarata), coordinado por María Viñas, investigadora del Instituto de Óptica del CSIC.

Pinos, ¿nativos o exóticos?

Por Mar Gulis (CSIC)*

Los pinos están tan extendidos por nuestro territorio que resulta prácticamente imposible imaginar un paisaje natural sin su presencia. Pero, ¿alguna vez te has parado a pensar si esos árboles son nativos o exóticos? Es decir, si están ahí de forma natural o han sido introducidos por el ser humano.

A escala regional, la respuesta es clara: los estudios de biogeografía, el registro fósil y el registro de polen en estratos antiguos de las turberas nos dicen que han existido pinos desde hace millones de años. En la península ibérica y las islas baleares hay, según Flora iberica, seis especies nativas: el pino carrasco (Pinus halepensis), el pino negral (P. nigra), el pino resinero (P. pinaster), el pino piñonero (P. pinea), el pino silvestre (P. sylvestris) y el pino negro (P. uncinata). Otras especies, como el pino de Monterrey (P. radiata), han llegado de la mano de los seres humanos. Mientras, en el archipiélago canario el único pino nativo que hay es el pino canario (P. canariensis), que se diferencia de todos los anteriores porque sus hojas en forma de aguja se presentan en grupos de tres y no de dos.

Bosque natural de pino negro (‘Pinus uncinata’) en el pirineo de Andorra. / Jordi Garcia-Pausas.

Sin embargo, no todas las especies nativas pueden vivir en cualquier parte, sino que se distribuyen por el territorio según el clima, el suelo o la frecuencia de incendios. Así, por ejemplo, mientras el pino carrasco y el piñonero suelen vivir a baja altitud y soportan bien el calor y la sequía, el pino negro suele vivir en las montañas y está adaptado al frío. Además, en algunas zonas los pinos forman bosques puros y en otras se mezclan con otros árboles o arbustos. Y hay zonas en las que prácticamente no crecen pinos de forma natural, ya sea por las condiciones ambientales o por la competencia con otras especies más adaptadas a esas situaciones.

Lo que pasa es que los humanos, a lo largo de la historia, hemos ido modificando la distribución natural de cada especie mediante cortas, talas, plantaciones y restauraciones forestales, con el objetivo de aprovechar los numerosos recursos que proporcionan los pinos: madera, resina, piñones, protección del suelo, etc.

Reforestar con pinos no es la única solución

Sin duda, las restauraciones forestales han tenido un gran impacto sobre el territorio. Antiguamente se plantaban árboles (reforestación) para restaurar áreas degradadas sin pensar mucho en su origen, ni teniendo en cuenta si la especie era o no autóctona o si la variedad era local o no. Cuando más adelante se plantaron pinos autóctonos, algunas veces se hizo en zonas típicas de la especie, y otras en zonas donde la especie estaba ausente o en baja densidad.

Estas restauraciones, que sirvieron para frenar la erosión y controlar los recursos hídricos, son aún visibles en nuestros paisajes. Muchas de ellas se asemejan bastante a ecosistemas naturales, pero otras se parecen más a cultivos para la producción de madera, muy propensos a propagar fuegos intensos si están mal gestionados.

Actualmente, existe un gran acuerdo entre ecólogos y gestores del medio ambiente en que ni los pinos, ni los bosques en general, constituyen la única alternativa en paisajes mediterráneos: los matorrales son también autoctónos, naturales, diversos y antiguos, y contribuyen en gran medida a la elevada biodiversidad de los ecosistemas mediterráneos, además de favorecer la protección de sus suelos.

Un claro ejemplo de esto son los pinares sobre dunas de Doñana, donde hay plantaciones documentadas desde el siglo XVI, aunque masivas sólo en el XX. La finalidad de estas plantaciones era bienintencionada: fijar las dunas, crear puestos de trabajo y generar un ambiente forestal agradable. En aquella época, se valoraba más cualquier estructura arbolada densa, aunque fuese pobre en especies, que un matorral, por muy diverso en especies que fuera. Además, plantar pinos era mucho más fácil y agradecido (mayor supervivencia) que plantar otras especies arbóreas.

Pinar en dunas

Pino piñonero (‘Pinus pinea’) en las dunas de Doñana. / Pedro Jordano

Con los años, esos pinares han pasado a formar parte de nuestro paisaje cultural. La vegetación original de estas dunas litorales era probablemente un mosaico donde alternaban arbustos y árboles pequeños típicos de los ecosistemas mediterráneos, plantas de los brezales y sabinares ibéricos, y herbáceas propias de dunas. En ellas la densidad de pinos era baja, pero el sobrepastoreo y la explotación de leña fueron degradando esos ecosistemas y generando erosión y movimientos no deseables del terreno, lo que motivó las plantaciones de pino.

Tras el incendio que afectó a los pinares de la zona de Doñana en julio de 2017, se ha constatado una regeneración muy satisfactoria de muchas de las especies del mosaico de matorral y brezal que dominaron antes de las plantaciones, mientras que el pino prácticamente no se ha regenerado. Si se facilita y potencia la regeneración de estos matorrales, que son muy diversos en especies, los incendios (inevitables) que ocurran en el futuro serán menos intensos (por la menor biomasa) y el ecosistema se regenerará más rápidamente.

En un contexto de calentamiento global, la reducción de la densidad de pinos en dunas litorales y otros ecosistemas está justificada siempre que se favorezca una vegetación alternativa con importantes valores de conservación. En cualquier caso, ante cualquier intención de reducción drástica de un pinar antiguo, se debería evaluar que no haya especies que dependan de él.

 

* Este texto es una adaptación de la entrada del mismo título realizada por miembros de la Asociación Española de Ecología Terrestre (AEET), y publicada en el blog de Juli G. Pausas y en el del Centro de Investigación Ecológica y Aplicaciones Forestales (CREAF).

La misión InSight, con un instrumento español a bordo, llega a Marte este lunes

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Después de un vertiginoso viaje de apenas seis meses y medio, el próximo lunes 26 de noviembre se producirá la llegada a Marte de la misión InSight de la NASA. En España estamos de enhorabuena porque a bordo de esta nave viaja el instrumento TWINS, un conjunto de sensores medioambientales desarrollado por el Centro de Astrobiología (CSIC-INTA).

InSight en Marte

Interpretación artística de la misión InSight con todos sus instrumentos desplegados en la superficie de Marte. Bajo el módulo principal a la izquierda, el insturmento SEIS; a la derecha, HP3. TWINS son las dos pequeñas estructuras que sobresalen en forma de L invertida a cada lado de la plataforma superior. /NASA-JPL Caltech

InSight (Interior exploration using Seismic Investigations, Geodesy and Heat Transport; Exploración interior mediante investigaciones sísmicas, geodesia y transporte de calor) será la novena misión de la NASA que aterrice en la superficie del planeta rojo. Está basada en el diseño de la nave y el módulo de aterrizaje de la misión Phoenix, que llegó con éxito a Marte en 2008.

En esta ocasión, se trata de un explorador que estudiará a lo largo de un año marciano (dos años terrestres) la estructura y los procesos geofísicos interiores de Marte, lo que ayudará a entender cómo se formaron los planetas rocosos del Sistema Solar (Mercurio, Venus, la Tierra y Marte) hace más de 4.000 millones de años. El lugar elegido para el aterrizaje es una extensión lisa y plana del hemisferio norte marciano y cercana al ecuador denominada Elysium Planitia; un lugar relativamente seguro para aterrizar y suficientemente brillante para alimentar los paneles solares que proveen de energía a la misión.

Marte es el candidato ideal para este estudio. Es lo bastante grande como para haber sufrido la mayor parte de los procesos iniciales que dieron forma a los planetas rocosos, pero es también lo suficientemente pequeño como para haber conservado las huellas de esos procesos geofísicos hasta la actualidad; al contrario que la Tierra, que las ha perdido debido a la tectónica de placas y los movimientos de fluidos en el manto. Esas huellas están presentes en el grosor de la corteza y la estratificación global, el tamaño y la densidad del núcleo, así como en la estratificación y densidad del manto. El ritmo al que el calor escapa de su interior proporciona, además, una valiosa información sobre la energía que controla los procesos geológicos.

Formación de un planeta rocoso

A medida que se forma un planeta rocoso, el material que lo compone se une en un proceso conocido como ‘acreción’. Su tamaño y temperatura aumentan y se incrementa la presión en su núcleo. La energía de este proceso inicial hace que los elementos del planeta se calienten y se fundan. Al fundirse, se forman capas y se separan. Los elementos más pesados se hunden en la parte inferior, los más ligeros flotan en la parte superior. Este material luego se separa en capas a medida que se enfría, lo que se conoce como ‘diferenciación’. Un planeta completamente formado emerge lentamente, con una corteza como capa superior, el manto en el medio y un núcleo de hierro sólido. /NASA-JPL Caltech

Un instrumento español a bordo

La instrumentación científica de la misión está compuesta por cuatro instrumentos. El primero es el SEIS (Experimento sísmico para la estructura interior), un sismógrafo de la Agencia Espacial Francesa que registrará las ondas sísmicas que viajan a través de la estructura interior del planeta. Su estudio permitirá averiguar la causa que las ha originado, probablemente un terremoto marciano o el impacto de un meteorito.

El segundo es el HP3 (Conjunto de sensores para el estudio del flujo de calor y propiedades físicas), una sonda-taladro de la Agencia Espacial Alemana que perforará hasta los cinco metros de profundidad e irá midiendo, a diferentes niveles, la cantidad de calor que fluye desde el interior del planeta. Sus observaciones arrojarán luz sobre si la Tierra y Marte están hechos de la misma materia.

Además, está el instrumento RISE (Experimento para el estudio de la rotación y la estructura interior) del Laboratorio de Propulsión a Chorro de la NASA, que proporcionará información sobre el núcleo tomando medidas del bamboleo del eje rotación del planeta.

Y, por último, lleva a bordo el instrumento TWINS (Sensores de viento y temperatura para la misión InSight) proporcionado por el Centro de Astrobiología, adscrito al Consejo Superior de Investigaciones Científicas (CSIC) y el Instituto Nacional de Técnica Aeroespacial (INTA). TWINS cuenta con dos sensores para caracterizar la dirección y velocidad del viento y dos sensores de temperatura del aire capaces de obtener una medida por segundo de ambas variables.

Montaje InSight

Montaje y prueba de los equipos en Denver. /NASA-JPL Caltech-Lockheed Martin

Las tareas que debe desempeñar TWINS son muy importantes para los objetivos de InSight. Durante la fase inicial de la misión, los primeros 40-60 soles (días marcianos), TWINS caracterizará el entorno térmico y los patrones de viento de la zona de aterrizaje para que el equipo científico a cargo de SEIS y HP3 pueda establecer las mejores condiciones para realizar el despliegue de los instrumentos en la superficie marciana.

Una vez desplegados los instrumentos principales en la superficie, TWINS se encargará de monitorizar los vientos, con el objetivo de descartar falsos positivos en los eventos sísmicos detectados por el instrumento SEIS.

Por último, los datos medioambientales obtenidos por TWINS se compararán y correlacionarán con los datos ambientales registrados por REMS, la otra estación medioambiental española en Marte, a bordo del rover Curiosity de la NASA en el cráter Gale. Esto contribuirá a caracterizar en mayor detalle los procesos atmosféricos en Marte y mejorar los modelos ambientales existentes a diferentes escalas: procesos eólicos, mareas atmosféricas diurnas, variaciones estacionales, circulación en la meso-escala, vientos catabáticos/anabáticos y remolinos (dust devils).

En este enlace de NASA TV se podrá seguir en directo el aterrizaje, a partir de las 20:00 horas del lunes 26 de noviembre de 2018.

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA). 

¿Cómo detectamos el ‘umami’ y otros sabores?

Por Laura López Mascaraque* y Mar Gulis

Cierra los ojos. Piensa en algo ácido. ¿Qué te viene a la mente? ¿Un limón, una naranja? Seguro que también visualizas rápidamente alimentos asociados a sabores dulces, salados y amargos. Pero, ¿puedes pensar en el sabor umami? Probablemente muchas personas se quedarán desconcertadas ante la pregunta, por desconocer la existencia de este quinto sabor o no identificar los alimentos vinculados al mismo. Aquí van algunos ejemplos: el queso parmesano, las algas, la sopa de pescado y la salsa de soja comparten este sabor, que se suma a los otros cuatro clásicos: dulce, salado, ácido y amargo.

El sabor umami es típico de la cocina asiática, en la que son habituales sopas que cuentan con soja y algas entre sus ingredientes / Zanpei

En 1908 el japonés Kikunae Ikeda descubrió el umami. Químico de la Universidad Imperial de Tokio, eligió esta palabra, que proviene del japonés y significa “buen sabor”, “sabroso” o “delicioso”, para designar su hallazgo. Ikeda dedujo que el glutamato monosódico era el responsable de la palatabilidad del caldo del alga kombu y otros platos. De hecho, el umami es característico de cocinas como la japonesa, la china, la tailandesa y también la peruana, donde se conoce como ajinomoto. El glutamato monosódico es un compuesto que se deriva del ácido glutámico, uno de los aminoácidos no esenciales más abundantes en la naturaleza (se denominan no esenciales porque el propio cuerpo los puede sintetizar, es decir, fabricar).

Pero, ¿cómo detectamos el umami? ¿O por qué decimos que algo está demasiado salado o dulce? ¿Qué proceso fisiológico desencadena estas percepciones? La mayor parte de lo que llamamos sabor tiene que ver, en realidad, no con el gusto, sino con el olfato. Por eso los sabores parecen desvanecerse cuando estamos resfriados. Juntos, el olfato y el gusto constituyen los denominados sentidos químicos, pues funcionan mediante la interacción directa de ciertos compuestos químicos con receptores situados en el epitelio olfatorio, localizado en la parte superior de la nariz, y las papilas gustativas, situadas en la lengua.

El olor llega al cerebro por dos vías; una directa y ortonasal y la otra indirecta o retronasal. La primera se da cuando inhalamos directamente a través de la nariz. La otra, cuando, al masticar o tragar el alimento, se liberan moléculas que alcanzan la cavidad nasal desde la boca (vía retronasal), es decir, cuando exhalamos. Con la masticación y la deglución, los vapores de las sustancias ingeridas son bombeados en la boca por movimientos de la lengua, la mandíbula y la garganta hacia la cavidad nasal, donde se produce la llamada percepción olfativa retronasal. Así, gran parte de las sensaciones percibidas en alimentos y bebidas se deben al olfato.

Las sensaciones gustativas las percibimos a través de las miles de papilas gustativas que tenemos en la lengua / Pixabay

Por otra parte, ciertos alimentos considerados irritantes (condimentos picantes, quesos muy fuertes, etc.) pueden ser percibidos como olores/sabores a través del sistema quimiosensitivo trigeminal, con receptores localizados en la cavidad nasal y la boca.

En resumen, los receptores del olfato, el gusto y el nervio trigémino contribuyen al sabor, que se define por la suma de tres sensaciones: olfativas, gustativas y trigeminales. Las olfativas se perciben por la nariz desde concentraciones muy bajas y son las más variadas y complejas. Las gustativas lo hacen gracias a los receptores de la lengua y el paladar, localizados en las aproximadamente 5.000-10.000 papilas gustativas, que conducen información de la composición química de los alimentos hacia una parte del cerebro especializada en interpretar estos mensajes de acuerdo a las cinco cualidades gustativas básicas que mencionábamos al principio: salado, dulce, amargo, ácido y umami.

Cada uno de estos sabores puede asociarse a una o varias sustancias químicas caracterizadas por tener fórmulas y propiedades específicas que permiten su reconocimiento. Por ejemplo, los ácidos, como el zumo de limón o el vinagre, liberan iones de hidrógeno y, por lo tanto, presentan sabor ácido, mientras que la sal de cocina libera iones sodio y cloruro y, así, manifiesta sabor salado. Lo mismo les sucede a las moléculas de glucosa o azúcar con el dulce, a las del café o el bíter que libera alcaloides con el amargo, y al glutamato monosódico y otros aminoácidos con el umami. Actualmente se investiga la posibilidad de que existan receptores específicos en la lengua para reconocer el sabor de la grasa y el de las harinas o el almidón (sabor starchy).

En cuanto a las sensaciones trigeminales, estas se perciben en las terminaciones del nervio trigémino de la nariz y la boca a través de bebidas y alimentos que producen una sensación de irritación (picor, frío…). Por tanto, cuando hablamos de percepción del sabor, nos referimos a una respuesta conjunta de señales que provienen del olfato, del gusto y del trigémino, combinadas con otras características físicas como la textura, la temperatura y la presión.

 

* Laura López Mascaraque es investigadora del Instituto Cajal  del CSIC y autora, junto con José Ramón Alonso de la Universidad de Salamanca, del libro El olfato de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

Acrilamida, el contaminante que podemos reducir de nuestras patatas fritas

Por Marta Mesías, Cristina Delgado Francisco J. Morales, (CSIC)*

La acrilamida es un contaminante químico que se produce de forma natural cuando se cocinan determinados alimentos a elevadas temperaturas (más de 120°C) y baja humedad. Se encuentra sobre todo en el café tostado, los cereales horneados y las patatas fritas. En general, los alimentos de origen vegetal contienen tanto azúcares como un aminoácido llamado asparagina, por lo que cuando se tuestan, se hornean o se fríen, se desarrolla una reacción llamada reacción de Maillard que, además de generar el aroma y el color apetecible de los alimentos procesados, da lugar a la formación de acrilamida.

Pero, ¿por qué debemos preocuparnos precisamente ahora por la acrilamida? En el año 2002 se descubrió su presencia en los alimentos procesados y se comprobó que la dieta es la principal fuente de exposición a este contaminante. Además, la acrilamida se encuentra tanto en alimentos procesados en la industria, como en alimentos cocinados en restaurantes y en nuestros hogares.

Años más tarde, en 2015, la Autoridad Europea de Seguridad Alimentaria (EFSA por sus siglas en inglés), tras consider las investigaciones aportadas hasta la fecha, concluyó que la presencia de acrilamida en los alimentos puede aumentar la probabilidad de desarrollar determinados tipos de cáncer y, por tanto, la ingesta de este compuesto puede suponer un riesgo para el consumidor. Durante este tiempo se han desarrollado numerosos estudios para comprender por qué se forma la acrilamida y cómo podemos reducir su aparición en los alimentos.

El pasado mes de abril entró en vigor el Reglamento de la Comisión Europea donde se establecen medidas concretas que obligan a las empresas alimentarias a controlar y reducir la presencia de acrilamida en los alimentos. Además, se fijan niveles de referencia para las principales fuentes de exposición (café, cereales y patatas fritas) y, en especial, para los alimentos infantiles, ya que los niños de corta edad, por su menor peso corporal y una dieta más monótona, tienen mayores tasas de exposición que la población adulta.

¿Cómo reducir la formación de acrilamida en las patatas fritas?

La buena noticia es que en nuestros hogares podemos reducir la formación de acrilamida y, en consecuencia, bajar los niveles globales de exposición. Sólo hay que seguir unas sencillas recomendaciones durante la manipulación y fritura de la patata:

  • En primer lugar debemos seleccionar patatas frescas sanas, no dañadas, sin zonas verdes, sin heridas y sin brotes.
  • Las patatas no deben almacenarse a bajas temperaturas, ya que el frío favorece la degradación del almidón a azúcares sencillos, que incrementarán la formación de acrilamida durante la fritura.
  • Después de pelar y cortar las patatas, debemos lavarlas bien debajo del grifo.
  • Una vez lavadas, hay que dejarlas en remojo en agua al menos 10 minutos, lo que favorecerá la eliminación de un posible exceso de azúcares. Esta acción es especialmente recomendable si utilizamos patatas de conservación. El objetivo es reducir el contenido en azúcares en la patata fresca, ya que se formará menos acrilamida durante la fritura.
  • Por último, hay que freír a temperaturas inferiores a 175°C y sólo durante el tiempo necesario para conseguir un color dorado. Conviene seguir el lema de la Agencia Española de Consumo, Seguridad Alimentaria y Nutrición (AECOSAN), “dorado, pero no pasado”, ya que la acrilamida se relaciona con la aparición del color tostado en los alimentos procesados.

El proyecto de investigación SAFEFRYING, que se desarrolla en el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, trabaja en identificar los puntos críticos de formación de acrilamida durante las operaciones de fritura en el ámbito doméstico y de restauración colectiva. La investigación se ha centrado principalmente en las patatas fritas, ya que su fritura es habitual en nuestras cocinas y los niveles de acrilamida pueden variar hasta en un 80% dependiendo del tipo de elaboración.

 

Marta Mesías, Cristina Delgado, Francisco J. Morales son investigadores del Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC. Su grupo de investigación CHEMPROFOOD desarrolla el proyecto SAFEFRYING.

 

¿Pueden existir estrellas y galaxias de antimateria?

Por Beatriz Gato Rivera y Mar Gulis (CSIC)*

Quizás lo más distintivo de la antimateria es que al entrar en contacto con la materia se aniquilan la una a la otra produciendo una gran cantidad de radiación. Si se pudiera almacenar un gramo de antimateria –algo imposible con la tecnología actual–, al entrar en contacto con la materia generaría una deflagración equivalente a más de dos veces la bomba atómica que asoló Hiroshima en 1945.

La física de partículas y la cosmología han llegado a la conclusión de que en el Big Bang se crearon idénticas cantidades de materia y antimateria que, solo unos breves instantes después, se aniquilaron casi totalmente entre sí. Algo sucedió, sin embargo, justo antes de la Gran Aniquilación para que se generara un ligerísimo excedente de partículas sobre antipartículas, el cual bastó para que el universo material pudiese tomar forma y llegar a existir tal como lo conocemos. En efecto, de las observaciones se deduce que por cada protón primordial –originado en el Big Bang– que sobrevivió, miles de millones sucumbieron a la extinción, junto a la misma cantidad de antiprotones primordiales.

aniquilación de un antiátomo

Aniquilación de un átomo de antihidrógeno observada por el detector ATHENA en 2002. / CERN

Sin embargo, no es posible descartar que haya sobrevivido una pequeñísima cantidad de antimateria primordial en nuestro universo observable, quizás un antiprotón por cada decena de millones de protones. En este caso no es impensable que pudieran existir estrellas e incluso galaxias pequeñas de antimateria, como predicen algunos modelos teóricos propuestos por varios grupos de investigación, siempre que estas estuviesen suficientemente aisladas de la materia –y lo cierto es que en el universo hay regiones extremadamente vacías–. De confirmarse esta circunstancia tampoco sería inimaginable que orbitando dichas antiestrellas existieran antiplanetas habitados por seres vivos e incluso civilizaciones tecnológicas, compuestos todos ellos por antimateria.


¿Qué es la antimateria?

Para comprender mejor las consecuencias de esta posibilidad, hay que entender qué es la antimateria. En un sentido amplio, la antimateria puede considerarse como el reverso de la materia o como una imagen especular de la misma respecto a varios ‘espejos’. Como sabemos por experiencia propia, cuando nos miramos en un espejo el rostro que vemos no es nuestro rostro sino que tiene intercambiados los lados derecho e izquierdo. Del mismo modo, las partículas de antimateria tienen sus propiedades opuestas respecto a las de las partículas de materia. Esto se refiere solo a aquellas propiedades que admiten valores opuestos, ya que las propiedades que no admiten valores opuestos son idénticas para las partículas y sus antipartículas. Por ejemplo, el electrón y su antipartícula, el positrón, con la misma masa y el mismo espín, tienen valores opuestos de la carga eléctrica, la carga débil y la carga leptónica.

Todas las partículas elementales tienen su antipartícula, aunque hay partículas que son sus propias antipartículas. Es el caso del fotón –la partícula de luz– o del bosón de Higgs. Se da la curiosa circunstancia de que la única antipartícula con nombre propio es el positrón –“electrón positivo”–, así denominado por Carl Anderson tras descubrirlo en 1932. Las demás antipartículas se denominan como las partículas ordinarias pero anteponiendo el prefijo anti.

Al igual que las partículas, las antipartículas pueden dar lugar a estructuras más complejas, como átomos de antimateria, que están constituidos por las antipartículas de los átomos de materia. En su núcleo, en lugar de protones (de carga eléctrica +1) y neutrones, compuestos todos ellos por quarks, hay antiprotones (de carga eléctrica -1) y antineutrones, compuestos por antiquarks –los quarks y sus antiquarks tienen valores opuestos de la carga fuerte, la carga débil, la carga eléctrica y la carga bariónica–. Orbitando alrededor del núcleo, en lugar de electrones (de carga eléctrica -1), encontramos positrones (de carga eléctrica +1).

átomo y antiátomo

A la izquierda, un átomo de helio. A la derecha, uno de antihelio.


Antimateria primordial y antimateria secundaria

Estamos conviviendo constantemente con la antimateria y con los productos de su aniquilación con la materia. Por una parte, una lluvia incesante de partículas de materia y de antimateria, producidas por las colisiones de los rayos cósmicos con los átomos de nuestra atmósfera, cae sobre la superficie terrestre y nos alcanza. Es más, neutrinos y muones muy energéticos (y sus antipartículas) atraviesan casas y edificios.

Por otra parte, las mismas estrellas producen antimateria en grandes cantidades en sus hornos nucleares en forma de positrones. Y sucede que la aniquilación de estos con los electrones del plasma del interior produce parte de la luz y del calor que emiten. En el caso del Sol, aproximadamente un 10% de la luz visible que irradia proviene de tales aniquilaciones.

Además, algunas sustancias radiactivas naturales que abundan en compuestos orgánicos, como el Potasio-40, emiten positrones, los cuales se aniquilan de inmediato con los electrones de su entorno. Esto hace, por ejemplo, que un plátano mediano emita cada 24 horas 15 positrones, aproximadamente, provenientes de los núcleos radioactivos de los átomos de Potasio-40.

La inmensa mayoría de las partículas de antimateria con las que convivimos y que observamos es antimateria secundaria, pues se ha creado en colisiones entre partículas de materia ordinaria o en procesos astrofísicos conocidos muy energéticos, como las reacciones nucleares en el interior de las estrellas. Pero, como decíamos, cabe la posibilidad de que todavía haya en el universo partículas de antimateria primordiales.

El experimento AMS (Alpha Magnetic Spectrometer), instalado en la Estación Espacial Internacional, se afana por encontrar indicios de tal posibilidad, escudriñando el espacio en busca de núcleos de antiátomos. Si encontrase un solo antinúcleo mayor que el de antihelio, como un núcleo de antilitio o antiberilio (con tres y cuatro antiprotones respectivamente), esto constituiría un gran acontecimiento, pues indicaría que la antimateria primordial no desapareció totalmente, ya que estos núcleos no se pueden producir en nuestro universo material, a diferencia del núcleo de antihelio. Pero si el experimento AMS encontrase un solo antinúcleo aún mayor, como un núcleo de antiboro o anticarbono (con cinco y seis antiprotones respectivamente), este hallazgo sería la prueba definitiva de la existencia de antiestrellas, pues estos antinúcleos solo podrían haberse generado en los hornos de las capas más profundas de estas.

AMS2

Simulación del detector AMS2 montado en la Estación Espacial Internacional. / NASA-JSC

Civilizaciones extraterrestres de antimateria

Ahora dejemos volar nuestra imaginación y vayamos hacia el futuro, a una época en la que pudiéramos realizar viajes intergalácticos de forma eficiente; por ejemplo, a través de atajos espacio-temporales o por otras dimensiones. Supongamos que descubrimos una estrella de antimateria, porque emite antineutrinos en lugar de neutrinos, y que al acercarnos avistamos todo un sistema planetario con algunos planetas localizados en la zona de habitabilidad. Así que decidimos enviar señales que denoten su procedencia inteligente, y con este propósito elegimos unas secuencias de flashes de luz láser con los números impares: 1, 3, 5, 7, 9…

Si nos encontramos lo suficientemente cerca de estos antiplanetas, por ejemplo a tan solo dos horas luz de distancia, nuestras señales tardarán dos horas en llegar a su destino. Imaginemos entonces que, para nuestro asombro, unas seis horas después recibimos una respuesta inteligente, consistente en otras secuencias de flashes de luz láser, pero esta vez con los números pares: 2, 4, 6, 8…

¡Nuestras señales han sido interceptadas por seres inteligentes de una civilización tecnológica!, y nos envían acuse de recibo utilizando señales similares aunque no idénticas, para que no las confundamos con un eco de nuestras propias señales. Con gran entusiasmo, esta vez les enviamos un vídeo amistoso enseñándoles la Tierra y sus gentes, al que nos responden con otro vídeo amistoso enseñándonos su planeta e invitándonos a visitarlo, como se deduce de su lenguaje no verbal y sus gesticulaciones.

Obviamente, estos seres ignoran que nosotros somos de antimateria en relación a la materia de la que ellos y su mundo están constituidos. Pero nosotros sí sabemos que ellos lo son, en relación a la nuestra. Así que no podemos aceptar la invitación y hemos de restringir nuestro contacto al intercambio de ondas electromagnéticas exclusivamente. Nada de recepciones oficiales, ni de intercambios de obsequios: la aniquilación mutua estaría asegurada.

 

* Beatriz Gato Rivera es investigadora del CSIC en el Instituto de Física Fundamental y autora del libro Antimateria (Editorial CSIC-Los libros de la Catarata).

¿Qué le pasa a tu cerebro cuando haces ejercicio? Ojo, no todo son ventajas

Por José Luis Trejo (CSIC)*

La Grecia clásica ya sabía de los beneficios del ejercicio físico para el cuerpo y para la mente, y hoy día todo el mundo es consciente de los perjuicios del sedentarismo. El ejercicio mejora la capacidad de aprendizaje, es antidepresivo, ansiolítico, y favorece la formación de nuevas neuronas en el área cerebral dedicada a la memoria. Sin embargo, pocas personas son conscientes de que no todo ejercicio es bueno para la salud. El ejercicio físico moviliza una serie de moléculas de nuestro cuerpo que, una vez entran en el cerebro y activan las células diana, producen efectos que explican todas estas ventajas y desventajas.

En cuanto a los beneficios del ejercicio, su práctica incrementa la cantidad de los llamados ‘factores de crecimiento’, una gran familia de moléculas que se liberan en sangre durante la actividad. Mejoran la irrigación sanguínea en las zonas activas del cerebro, aumentan el número de conexiones neuronales (o sinapsis), el número de ramificaciones de las células neurales (conocidas como dendritas) y la división de células madre neurales, responsables de generar nuevas neuronas en el hipocampo del individuo adulto. Todo ello contribuye a que la conectividad nerviosa mejore y se incremente la eficiencia del cerebro, es decir, nos ayuda a que pensemos mejor. Ejercitar tanto el cuerpo como el cerebro mejora la salud de ambos. La máxima mens sana in corpore sano es cierta, la actividad cognitiva unida a la actividad física no solo incrementa la división sino también la conectividad de las nuevas neuronas, y ahora, además, sabemos cómo sucede.

XXXVII Carrera de la Ciencia organizada por el CSIC./ Eliezer Sánchez.

Averiguar estos detalles ha requerido investigar con animales de experimentación. Gracias a estudios relacionados con la neurobiología del ejercicio hemos sabido que la actividad que más efectos beneficiosos conlleva es el ejercicio físico sumado a la actividad cognitiva. En los animales de experimentación esto se conoce como enriquecimiento ambiental. Examinar la memoria y el estado de ánimo de un animal de laboratorio no es tarea sencilla. Para ello los neurobiólogos han tenido que diseñar tests específicos que no causen ningún estrés ni malestar en los animales, pero que sirvan para analizar su estado de ánimo y su capacidad cognitiva. Con este propósito, se han refinado los métodos para analizar cómo los factores de crecimiento ejercen su acción sobre las neuronas, y han aparecido marcadores de las nuevas neuronas que nos permiten su detección y seguimiento.

Gracias a estas nuevas herramientas se ha determinado, por ejemplo, que un animal ejercitado es capaz de distinguir dos objetos muy parecidos, pero en realidad diferentes, con mayor exactitud que un animal sedentario. También se ha demostrado que tras el ejercicio, el miedo que el animal siente ante los espacios abiertos y desconocidos se reduce, y le permite aventurarse a explorarlos sin ansiedad. Todos estos efectos son mediados por los factores de crecimiento. De hecho, la administración de dichos factores por sí solos a animales sedentarios ha producido los mismos beneficios sin necesidad de ejercicio.

Estos hallazgos abren la posibilidad de que los factores de crecimiento (como decíamos, la familia de moléculas que se liberan en sangre durante la actividad física) pudieran usarse como farmacomiméticos del ejercicio en personas que no pueden hacerlo por una u otra razón. Sin embargo, no son las únicas moléculas que participan en los efectos beneficiosos de la actividad física, y además aún no se conocen todas, así que el mensaje para todos aquellos que sí pueden hacer ejercicio es que comiencen de inmediato a practicarlo, pero con una nota de cautela.

Desventajas del ejercicio físico

Lo mencionábamos al principio. ¿Todo el ejercicio es bueno?, ¿cuánto más, mejor? Si el ejercicio es extenuante, además de los citados factores de crecimiento, se acabarán liberando hormonas del estrés, que también entrarán en el cerebro y se dirigirán a las mismas células neurales, produciendo los consabidos efectos perjudiciales cuando el estrés tiene lugar de manera continuada en el tiempo. Por decirlo rápidamente: la intensidad del ejercicio es la que marca si su práctica es beneficiosa o perjudicial. Cuando un mismo estímulo es beneficioso a baja intensidad y se torna perjudicial a altas intensidades decimos que tiene una curva de respuesta dual. Este fenómeno se denomina hormesis y varía en cada persona. Esto significa que el estímulo es el mismo, pero es su intensidad, moderada o extenuante, la que determina si los efectos son beneficiosos o perjudiciales, respectivamente. La baja exposición al estímulo (en este caso ejercicio) produce cierto efecto, mientras que mucha exposición produce el efecto contrario, o ningún efecto.

 

El gráfico, en forma de U invertida, muestra cómo los efectos positivos se acumulan a medida que incrementamos la intensidad del ejercicio, llegan a un punto máximo, y a continuación, aunque aumente la intensidad, éstos empiezan a perderse hasta llegar a un punto similar a la situación de partida./ Nutrition Journal.

Desde tiempo inmemorial se ha sabido que el ejercicio es bueno, pero también se alaba la virtud del término medio, o aurea mediocritas de Aristóteles. Así pues, el ejercicio moderado, no extenuante, nos puede hacer más listos, más felices, ¡y con más neuronas!

José Luis Trejo es investigador en el Instituto Cajal del CSIC.

Virus y bacterias para estudiar en directo la evolución

Por Ester Lázaro (CSIC)*

Todos sabemos que en nuestra vida cotidiana hay actos que son perjudiciales para nuestra salud, como tomar el sol sin protector solar, hacerse radiografías innecesarias o ingerir alimentos con ciertos aditivos. Esto es así por la capacidad que la radiación y algunas sustancias químicas tienen para alterar nuestro ADN, la molécula que porta las instrucciones para que nuestras células y nuestro cuerpo sean como son y puedan realizar todas las actividades necesarias para mantenerse vivos.

Los cambios en el ADN se denominan mutaciones y pueden, desde no tener efecto, hasta ser responsables de la aparición de muchos tipos de cáncer. Sin embargo, a pesar de su mala fama, las mutaciones son absolutamente necesarias para que los seres vivos puedan adaptarse a los cambios que continuamente ocurren en el ambiente. Vivimos en un entorno tan dinámico que, sin esta capacidad, la vida se habría extinguido al poco tiempo de iniciar su andadura por nuestro planeta. En lugar de eso, se ha diversificado en un grado tal que cuesta creer que toda la vida tenga el mismo origen.

Virus infectando bacteria

La ilustración muestra un conjunto de bacterias que están siendo infectadas por sus virus característicos, los bacteriófagos. Los experimentos detallados en este artículo se llevan a cabo utilizando un bacteriófago que infecta la bacteria Escherichia coli./ María Lamprecht Grandío

Gran parte de las mutaciones ocurren de forma espontánea, debido a los errores que se producen cada vez que la molécula de ADN es copiada, algo que tiene que suceder siempre antes de que cualquier célula se divida. Las mutaciones son responsables de que los individuos que componen las poblaciones no sean iguales, sino que posean diferencias que les dotan de diferente éxito reproductivo. De este modo, y gracias a la selección natural –de la que ya nos hablaba Darwin hace más de un siglo–, los individuos más aptos acabarán siendo más frecuentes, hasta que lleguen a ser mayoritarios en la población. A lo largo de la historia, esta acción combinada de las mutaciones y la selección natural es lo que ha conducido a la evolución y diversificación de la vida a partir de un ancestro común que vivió hace 3.800 o 4.000 millones de años.

La gran capacidad evolutiva de los microrganismos

Estudiar la evolución no es tarea fácil. No solo por los largos tiempos que normalmente son necesarios para observar sus resultados; también porque su causa primera –la generación de mutaciones– ocurre por azar y porque el efecto de estas depende del ambiente. Para reducir el desconocimiento que todavía existe sobre los principios que gobiernan la evolución sería deseable poder realizar experimentos en el laboratorio que nos permitieran aplicar el método científico.

Las poblaciones experimentales tendrían que satisfacer dos requisitos: evolucionar rápido y ser fáciles de manipular y de analizar, algo que donde mejor se cumple es en los microorganismos. De hecho, la rapidez evolutiva de los virus y las bacterias puede ser observada en el día a día. La contrariedad de que podamos coger la gripe más de una vez, las resistencias de las bacterias a los antibióticos y de los virus a los antivirales, la aparición de nuevas cepas de virus… Todo eso no es más que el resultado de la gran capacidad evolutiva de los microorganismos, que les permite adaptarse en un tiempo récord a casi cualquier circunstancia que pueda limitar su crecimiento.

Pero, ¿por qué los microorganismos evolucionan tan rápido? La respuesta está en la gran velocidad a la que se reproducen y en que durante la copia de su material genético se producen muchas más mutaciones que en otros tipos de organismos más complejos. La consecuencia es que tanto los virus como las bacterias son capaces de generar en poco tiempo poblaciones de gran tamaño y con una elevada diversidad, en las cuales pueden existir mutantes que son beneficiosos en determinadas condiciones ambientales, las mismas bajo las cuales se verán favorecidos por la selección natural.

Entender la evolución para entender el origen de la vida

Los experimentos que realizamos en el laboratorio de Evolución Molecular del Centro de Astrobiología (CSIC-INTA) consisten en propagar poblaciones virales en ciertas condiciones que imponemos y controlamos. Con el paso del tiempo, los procesos de mutación y selección permiten que se genere una población evolucionada, que se podrá analizar y comparar con la ancestral. De este modo, podremos no solo encontrar la respuesta adaptativa frente a una condición ambiental concreta, sino también extraer conclusiones generales sobre el proceso evolutivo.

Las preguntas a las que intentamos dar respuesta son del tipo: ¿cómo pueden responder los virus al aumento de la temperatura ambiental? ¿Existe un límite en la producción de mutaciones que sea incompatible con la supervivencia? ¿Qué relaciones hay entre el tamaño poblacional y la adaptación? ¿Cómo interaccionan las mutaciones? Buscamos entender la evolución de la vida actual, pero también aproximarnos a cómo pudo ser la evolución de las moléculas de replicadores primitivos que precedieron a la vida celular, algo para lo que las poblaciones virales también constituyen un modelo excelente. Pero eso ya es otra historia que nos lleva hacia el pasado de la vida, en lugar de hacia su futuro… Algo fascinante que trataremos en otra entrega de este blog.

* Ester Lázaro es investigadora en el Centro de Astrobiología (CSIC-INTA), donde dirige el grupo de evolución experimental con virus y microorgamismos.