Entradas etiquetadas como ‘cultura científica’

Fasciolosis, la enfermedad que afecta al ganado y, cada vez más, a las personas

Por Marta López García* (CSIC)

Afirmar que los parásitos son fascinantes no solo es atrevido, sino que es poco frecuente. Solemos verlos como seres dañinos y nos produce rechazo escuchar la palabra. Sin embargo, desde un punto de vista científico, los parásitos son seres increíbles porque tienen una gran diversidad de formas de vida y sus adaptaciones les permiten vivir dentro de otros organismos (hospedadores). Y esta asombrosa capacidad de moverse entre los hospedadores para asegurar su supervivencia es lo que les hace fascinantes en términos biológicos.

Desde el Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA-CSIC) se trabaja para frenar esta enfermedad

Sin embargo, los parásitos también pueden tener consecuencias muy negativas para la salud y el bienestar del ser humano y los animales. Por eso, conocer su compleja biología supone un gran reto científico en la actualidad. Ante su elevada prevalencia global es necesario desarrollar herramientas de prevención y control frente a ellos.

En este sentido, desde el Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA-CSIC), trabajamos para frenar la fasciolosis. Esta enfermedad, causada por gusanos del género Fasciola, especialmente Fasciola hepatica, afecta principalmente al ganado ovino y bovino. Tiene una alta prevalencia en Castilla y León, al estar presente hasta en el 50% del ganado. Además, puede infectar a los seres humanos y, de hecho, es considerada una enfermedad emergente porque se encuentra en más de 2,5 millones de personas y 17 millones están en riesgo de infección.

La relación entre ‘Fasciola hepatica’ y hospedador

Fasciola hepatica es el protagonista de nuestra investigación. Se trata de un gusano plano, con forma de punta de lanza, que puede medir hasta 5 cm de largo y 1,5 de ancho cuando es adulto. Trabajamos para conocer las bases moleculares que rigen la infección del parásito dentro del hospedador vertebrado.

Tras ingerir el hospedador alimentos o agua contaminados con las formas infectivas de Fasciola hepatica (formas larvales denominadas metacercarias) se inicia la infección. Cuando estas alcanzan el intestino, salen del quiste como gusanos juveniles y son capaces de atravesar la pared del intestino delgado hasta la cavidad peritoneal, donde inician una compleja ruta de migración hasta el hígado. Allí se mantienen durante mucho tiempo creciendo al alimentarse del tejido hepático. Finalmente llegan a la vesícula biliar, donde se convierten en parásitos adultos y liberan huevos al medio ambiente, a través de las heces del animal, para completar su ciclo de vida.

La patología asociada a la enfermedad se relaciona con la presencia de los parásitos en el hígado. A medida que se alimentan del parénquima hepático (el componente del hígado que filtra la sangre para eliminar las toxinas) pueden causar inflamación y daño en el hígado con síntomas como dolor abdominal, diarrea, fiebre, pérdida de peso y, en los casos más graves, hepatitis, fibrosis y cirrosis. Aunque las infecciones en humanos suelen ser menos comunes que en el ganado, pueden ser graves si no se tratan adecuadamente. En cuanto a las perspectivas de tratamiento, existen medicamentos antiparasitarios, como el triclabendazol para tratarla tanto en seres humanos como en ganado. Sin embargo, cada vez se muestran más indicios de resistencia del parásito, por lo que disminuye la eficacia de este fármaco. Por la complejidad del ciclo biológico del parásito y su inminente resistencia a los fármacos necesitamos nuevas herramientas de control como las vacunas. Desde el laboratorio, tratamos de replicar el ciclo de vida de Fasciola hepatica para desentrañar las moléculas clave que utiliza durante su infección. Esto nos permite conocer qué molécula podría ser una buena candidata para desarrollar una vacuna en los animales frente a la fasciolosis.

Fasciola hepatica afecta principalmente al ganado ovino y bovino / Máximo López Sanz

Sin embargo, como en muchas enfermedades infecciosas, la prevención sigue siendo la clave y es necesario promover prácticas adecuadas de higiene (evitar la ingestión de alimentos y agua contaminada) para reducir la exposición a los parásitos y combatir así la enfermedad.

Como hemos visto, los parásitos son organismos fascinantes que han coexistido con el ser humano desde tiempos inmemoriales, en este caso a través de uno de sus principales sustentos: el ganado. Los estudios sobre los parásitos nos ofrecen una valiosa información sobre la biología y la evolución de sus hospedadores. Por ello, aunque los parásitos no son organismos bienvenidos, sin lugar a duda, nos brindan un gran conocimiento sobre las complejidades de la vida en nuestro planeta.

 

*Marta López García es investigadora del Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA-CSIC).  

 

Autofagia o cómo se elimina la basura de nuestras células

Por Laura Baños Carrión* (CSIC)

Desde que nos levantamos hasta que nos acostamos, los seres humanos generamos basura constantemente. Deshacernos de ella es un acto sencillo y cotidiano, y encontramos a pocos pasos de nuestras viviendas y trabajos algún contenedor donde poder tirarla.  Nuestras células también producen basura todo el tiempo, pero ¿cómo se deshacen de ella? El mecanismo que utilizan para mantenerse limpias es conocido como autofagia, un término que proviene del griego y que significa ‘’comerse a uno mismo’’.

La autofagia es la forma que tienen las células de mantenerse en condiciones óptimas y saludables, evitando que se acumulen productos de desecho que puedan afectar a su funcionalidad. Es un sistema de limpieza por el que, como si fueran una aspiradora, las células se tragan la suciedad, que en su caso serían todos aquellos componentes celulares y proteínas dañadas, que no funcionan correctamente o que simplemente ya no necesitan.

Un sistema de limpieza y reciclaje celular

En condiciones normales, este proceso ocurre a niveles basales, es decir, a unos niveles mínimos en los que se garantiza la calidad de la célula. Sin embargo, se ve incrementado ante situaciones de estrés o demanda energética. Sin oxígeno, la célula no tiene forma de obtener energía y por tanto la autofagia se ve incrementada para intentar ahorrar energía reutilizando componentes. Cuando escasean los nutrientes, se activa la autofagia y se forma una vesícula de doble membrana en el interior de la célula llamada autofagosoma. Es una especie de bolsa de basura celular que engloba los residuos (como las proteínas mal plegadas) y los envía a unos orgánulos celulares denominados lisosomas. En este momento, los lisosomas, gracias a su alto contenido en enzimas digestivas, son capaces de descomponer prácticamente cualquier tipo de material biológico en los pequeños elementos que lo forman.

Pero no hay nada que se desaproveche. Estas piezas descompuestas se convierten en nuevos componentes celulares que pueden volver a utilizarse. Por ejemplo, una proteína defectuosa se degradaría en aminoácidos, que pueden reutilizarse para formar una nueva proteína funcional en lugar de tener que ser sintetizados de cero, ahorrando así energía. Por lo tanto, la autofagia, además de ser un sistema de limpieza, también funciona como un sistema de reciclaje celular.

Existe un tipo de autofagia selectiva: la xenofagia. Detecta microorganismos que han entrado dentro de la célula, incluidos los virus y bacterias

Y todavía hay más. Existe un tipo de autofagia selectiva: la xenofagia, que detecta específicamente los microorganismos que han entrado dentro de la célula, incluidos los virus y bacterias, los engulle y los dirige a los autofagosomas para su posterior degradación. Es una forma de defensa frente a infecciones, eliminando los patógenos y activando a las células de nuestro sistema inmune. No obstante, algunos patógenos han aprendido a ‘hackear’ este sistema, utilizando los autofagosomas como sitios de replicación y/o proliferación.

¿Y si falla la autofagia?

Después de saber todo esto, parece que no podemos vivir sin autofagia. Y así es. Cuando este sistema no funciona correctamente, se acumula basura en las células, esto puede afectar a su funcionamiento y resultar muy perjudicial.  De hecho, se ha demostrado que cuando la autofagia está alterada (bien por inactivación o por hiperactivación) da lugar a algunas enfermedades neurodegenerativas, cardiovasculares, autoinmunes, metabólicas e incluso diversos tipos de cáncer.

La enfermedad de Lafora es un ejemplo en el que se produce un fallo en la autofagia, aunque en este caso dicha alteración no es la causa principal.  En el Instituto de Biomedicina de Valencia (IBV) del CSIC, investigamos esta enfermedad ultrarrara que apenas afecta a una persona cada millón de habitantes y que principalmente cursa con crisis epilépticas y neurodegeneración. Aparece en población infantil y juvenil y, desafortunadamente, provoca la muerte de los pacientes en apenas diez años desde la aparición de los primeros síntomas.

Aunque se piensa que la causa principal de la enfermedad es la acumulación de una forma anormal de glucógeno (la molécula donde el cuerpo almacena la glucosa para poder aprovecharla cuando tiene necesidad inmediata de obtener energía) en el cerebro y otros tejidos, existen alteraciones a otros niveles. Se han detectado fallos en la autofagia, pero todavía se desconocen los mecanismos moleculares por los que este proceso está desregulado en esta enfermedad.  La autofagia es un proceso muy controlado, a la vez que complejo, en el que participan muchas proteínas que hacen posible la formación de los autofagosomas y la posterior degradación lisosomal de los residuos celulares. Esto implica que la alteración de la autofagia puede venir por fallos a distintos niveles de control.

Al igual que la mayoría de las enfermedades raras, la enfermedad de Lafora no tiene cura. Existen más de 7.000 enfermedades raras y, a pesar de ser poco frecuentes, alrededor de 3 millones de personas en España padece alguna de ellas. Con la investigación, podremos conocer el mecanismo molecular y lograr tratamientos adecuados que permitan mejorar la calidad de vida de las personas afectadas e incluso ampliar su esperanza de vida y, quién sabe, quizá en un futuro poder curarla.

* Laura Baños Carrión es investigadora en el Instituto de Biomedicina de Valencia del CSIC.

Los servicios de ‘delivery’ en la Protohistoria: ¿cómo era el comercio sin Internet?

Por Guiomar Pulido-González* (CSIC)

Hoy en día, si tenemos dinero para comprar algo, sólo necesitamos coger nuestro móvil, buscarlo y encargarlo por Internet. La posibilidad de hacernos con cualquier objeto procedente del otro extremo del planeta nos parece un avance propio de nuestro tiempo. Sin embargo, es un error pensar que el mundo estrechamente interconectado en el que vivimos es un invento actual. Desde la Prehistoria los grupos humanos de territorios distantes han estado vinculados y han buscado el intercambio de recursos e ideas con otros grupos.

Vaso de cerámica jónica-milesia que representa al dios Aqueloo encontrado en la península ibérica (siglo VI – principios del siglo V a. C). / Museo de Arqueología de Cataluña, Girona.

Seguramente, una de las etapas más tempranas en las que este hecho es evidente es la época romana. En este momento, todo el continente europeo y la cuenca mediterránea quedaron conectados a través de una sofisticada red viaria. Pero esta situación es heredera de las conexiones establecidas a lo largo del periodo previo: la Protohistoria. En esta época anterior a la imposición romana (desde el siglo IX a.C. hasta el siglo III a.C. en la península ibérica) el mar Mediterráneo se convirtió en una autopista por la que circulaban mercancías y personas. Lo que actualmente hacen los servicios de Amazon y AliExpress en su momento lo hacían compañías de comerciantes con contactos en diversos puertos y núcleos interiores relevantes, que llevaban las importaciones allá donde las demandaban.

La península ibérica formó parte de esa tupida red de comunicaciones que la conectaba con los territorios al otro lado del mar: a sus costas llegaban productos procedentes de toda la cuenca mediterránea y, una vez allí, eran redistribuidos por el interior. Pero, teniendo en cuenta las enormes distancias que separaban unos lugares de otros y las dificultades para contactar con las personas que los habitaban, ¿cómo eran posibles estas comunicaciones?

Mapa de las principales rutas mediterráneas y algunas manufacturas representativas de los objetos que se comerciaban durante la Protohistoria

La importancia de tener contactos

En la Antigüedad, el tiempo para el comercio era la época estival, con mejores condiciones. En la movilidad comercial de la Protohistoria podemos diferenciar dos ámbitos: las rutas marítimas y las rutas interiores. Las rutas marinas eran más seguras y rápidas, ya que permitían transportar grandes cantidades de productos desde un punto a cualquier otro de la costa mediterránea. Además, la buena navegabilidad que presenta el Mediterráneo en primavera y verano facilitaba los desplazamientos.

No obstante, la logística se complicaba al descargar las mercancías en los puertos. Hay que tener en cuenta que en esta época las calzadas romanas todavía no se habían construido. Para desplazarse había que usar los pasos naturales de montaña, cruzando terrenos escarpados y transitando caminos de tierra por las llanuras. Y para ello, el mejor medio de transporte eran las mulas y los burros. Los caballos eran muy caros de mantener y los bueyes se empleaban sólo de manera ocasional porque eran mucho más lentos, a pesar de ser más fuertes.

Principales rutas comerciales de la península ibérica y cómo se articulaban a través de núcleos receptores (puntos negros) y redistribuidores (puntos blancos).

La siguiente incógnita es la red humana y comercial que posibilitó el movimiento de los productos por toda la península ibérica y el Mediterráneo. En un momento en el que los servicios de paquetería estaban lejos de ser imaginados, el sistema debía funcionar a través del tradicional “boca a boca”. Los contactos y amistades motivaban el movimiento de la mercancía y los intercambios entre diferentes núcleos.

Esta actividad generaba además una demanda y encargos de ciertos productos o materias. Un pedido no iba de un punto A a un punto B directamente, sino que debía pasar por una compleja red de intermediarios desde el lugar donde se producía la mercancía hasta donde se adquiría. Como reflejan las cartas comerciales de la época, que se han conservado gracias a que se realizaban sobre pequeñas láminas de plomo donde se registraban los intercambios, esta red se articulaba mediante el contacto de comerciantes de diversos núcleos, que establecían acuerdos, pagos a plazos, colaboraciones y recibían y reenviaban los cargamentos. De este modo, las distancias tan grandes que vemos en los mapas se acortaban gracias a la red humana.

Los pueblos de la península ibérica: ‘fashion victims’

Y, ¿qué compraban? Las importaciones mediterráneas que llegaban a la península ibérica procedían de diversos lugares alejados (Egipto, Túnez, Grecia o Italia). Gracias a la información aportada por la arqueología, a través de las cantidades de importaciones y su dispersión, podemos trazar las rutas comerciales que siguieron y saber qué productos estaban más de moda dependiendo del siglo. Así, sabemos que desde el siglo IX a.C. al VI a.C., lo que más se llevaba era lo “orientalizante”, es decir, elementos elaborados o con influencias del Mediterráneo Oriental. Por tanto, los objetos de lujo que se importaban eran joyas, marfiles y vajilla cerámica, que procedían de lo que actualmente es Chipre, Líbano, Siria y Egipto.

En el mundo íbero, la vajilla ática era un símbolo de riqueza y denotaba prestigio social. La crátera de campana era una de las piezas más prestigiosas y, probablemente, más costosas. / Museo de Arqueología de Cataluña, Girona.

Sin embargo, desde el siglo VI a.C. la zona oriental mediterránea entró en un momento de reajuste político y económico que motivó un cambio en los circuitos comerciales de la época. Principalmente Grecia tomó el testigo de foco comercial y productor de exportaciones; como ha ocurrido con China en la actualidad. Sus talleres cerámicos coparon el mercado desde mediados del siglo VI a.C. hasta mediados del siglo IV a.C. La vajilla procedente del Ática se convirtió en una de las importaciones más extendidas por toda la cuenca mediterránea, fenómeno al que la península ibérica no fue ajena.

Pero no todo pasaba de moda y era remplazado, sino que también existía una percepción parecida al actual concepto de “vintage” o “reliquia”. En contextos pertenecientes a esta segunda fase comercial se han encontrado objetos datados entre los siglos VII-VI a.C., como ungüentarios de perfume o elementos de marfil, lo que indica el valor añadido con el que se dotaba a esos objetos.

Placa de marfil perteneciente a la segunda fase comercial en la que se encontraron objetos datados entre los siglos VII-VI a.C

La dispersión de las importaciones nos ayuda a dibujar las rutas que habrían seguido los comerciantes, nos muestra los valles de los ríos y los corredores de las sierras que resultaron verdaderas autopistas por donde fluyeron las personas y las mercancías. Eran lugares muy lejanos unos de otros que quedaban comunicados por itinerarios de cientos de kilómetros y numerosos intermediarios que llevaron objetos e ideas por toda la cuenca mediterránea. Volviendo al punto de partida, esto demuestra que el mundo profundamente interconectado en el que vivimos no es un producto de la sociedad actual: los pedidos que hoy hacemos con el móvil, en época protohistórica podían conseguirse de igual modo, tan sólo con un buen mapa y una buena red de contactos.

*Guiomar Pulido-González es investigadora en el Instituto de Arqueología de Mérida del CSIC.

Los pros y contras del alumbrado led en exteriores

Por Alicia Pelegrina* y Mar Gulis (CSIC)

Luminarias esféricas tipo balón de playa en las calles, farolas que cuelgan de fachadas de edificios o proyectores que iluminan los monumentos de tu ciudad. Estos son ejemplos de luz artificial en el alumbrado en exteriores, que se ha transformado notablemente en los últimos años debido al uso de lámparas led. Ahora bien, ¿qué han supuesto estos cambios? ¿Han sido todos positivos?

En este artículo comentaremos los pros y contras del alumbrado led, pero antes hagamos algunas precisiones.

La primera es que, aunque comúnmente hablemos de farolas como un todo, hay que diferenciar entre lámparas, es decir, la fuente emisora de luz, y luminarias, la estructura que contiene y soporta la lámpara.

La segunda es que para calibrar los efectos nocivos de combatir la oscuridad (la contaminación lumínica, por ejemplo) es fundamental tener en cuenta el tipo de luz artificial del alumbrado de exteriores y su orientación. Las lámparas menos contaminantes son las que emiten luz del espectro visible al ojo humano con mayores longitudes de onda. Por ejemplo, las lámparas que emiten una luz anaranjada, porque es la que menos se dispersa en la atmósfera. Y las luminarias más respetuosas son aquellas que no emiten luz en el hemisferio superior. De esta forma minimizan su impacto en el aumento del brillo del cielo nocturno.

El problema de los ledes blancos

Con su aparición en el mercado, se fabricaron muchísimos dispositivos led, que se vendieron como solución frente al despilfarro energético del alumbrado público. Y es cierto: se produjeron ledes blancos que ahorran mucha energía en comparación con las lámparas de vapor de sodio, que eran las que antes inundaban las calles. Sin embargo, no se tuvo en cuenta que la luz blanca es la más contaminante desde el punto de vista de la contaminación lumínica, ya que es la que se dispersa con mayor facilidad en la atmósfera y la que más afecta al equilibrio de los ecosistemas y a nuestra salud.

Por ello, con el paso del tiempo, se vio que esa luz no era la más adecuada. Había que buscar dispositivos led de un color más cálido. El problema es que la eficiencia energética de los ledes ámbar, más anaranjados y cálidos, es prácticamente la misma que la que tenían las lámparas de vapor de sodio de alta y de baja presión anteriores.

Entonces, ¿ha servido para algo este cambio? Desde el punto de vista de la contaminación lumínica, el cambio a lámparas led blancas ha agravado el problema. Y, en cuanto a la eficiencia energética, ha provocado un efecto rebote: el ahorro energético que supone el uso de esta tecnología ha llevado a los responsables del alumbrado público a instalar más puntos de luz o a mantener más tiempo encendidos los que ya existían.

Por tanto, si queremos evitar la contaminación lumínica, debemos utilizar lámparas led ámbar para, al menos, poder beneficiarnos de las ventajas que tiene esta tecnología reciente frente a las lámparas de vapor de sodio que se utilizaban antes.

Las ventajas que sí tiene la tecnología led

Una de estas ventajas es que podemos escoger el color de la luz que emiten las lámparas, lo que permite diseñar espectros a la carta. Por ejemplo, podríamos definir el espectro más adecuado para un espacio natural protegido en el que haya una especie de ave migratoria específica que tenga una sensibilidad especial a una longitud de onda determinada del espectro. Así disminuirían los impactos negativos de la luz en algunas especies.

Una segunda ventaja de las lámparas led es que, al apagarse y encenderse, alcanzan su actividad máxima muy rápido. Existen otro tipo de lámparas que, desde que se encienden hasta que alcanzan un nivel adecuado de iluminación, necesitan un tiempo mayor. Esta particularidad de las lámparas led nos permite utilizar sistemas complementarios como los sensores de presencia o los reguladores de intensidad, que hacen que las luces no tengan que estar permanentemente encendidas pero que, cuando sea necesario, lo estén a su máxima potencia.

Por último, una tercera ventaja de la tecnología led es que podemos regular su intensidad. Esto nos permite adaptar el sistema de iluminación a las diferentes horas del día y a la actividad que estemos haciendo, evitando así que las calles sin transeúntes estén iluminadas como si fueran las doce del mediodía.

Estas ventajas pueden suponer un avance con respecto al uso de las anteriores lámparas, con las que este tipo de adaptaciones o sistemas de control no se podían aplicar. Pero no olvidemos que siempre deben ser lámparas led ámbar y evitar en todo caso las lámparas led blancas.

Se trata, por tanto, de que iluminemos mejor, de una forma más sostenible, evitando la emisión de la luz de forma directa al cielo. Y que la cantidad de luz sea solo la necesaria para lo que necesitamos ver, en los rangos espectrales en los que nuestros ojos pueden percibirla y en un horario adecuado.

 

*Alicia Pelegrina es responsable de la Oficina Técnica Severo Ochoa del Instituto de Astrofísica de Andalucía del CSIC y autora del libro La contaminación lumínica de la colección ¿Qué sabemos de? (CSIC-Catarata).

Copérnico: el canónigo que revolucionó el mundo después de muerto

Por Pedro Meseguer* (CSIC)

En los talleres de narrativa se insiste en que, en un relato, el autor o la autora ha de proporcionar una forma original de ver el mundo. Pero eso no es exclusivo de la literatura, ni siquiera de las humanidades: también sucede en la ciencia. Este año se cumple el 550 aniversario del nacimiento de Nicolás Copérnico (1473-1543), un personaje esencial en la renovación astronómica de los siglos XVI y XVII. Revolucionó la ciencia europea (entonces se denominaba “filosofía natural”) porque tuvo el atrevimiento de romper con el pasado al interpretar el movimiento de los astros de una manera inédita, diferente.

Astrónomo Copérnico, de Jan Matejko (1873)

Astrónomo, canónigo y médico

Nacido en Torun (Polonia), Nicolás era el menor de cuatro hermanos. Su madre murió a los pocos años y, cuando él había cumplido diez, también falleció su padre. De su educación se ocupó su tío Lucas, un duro sacerdote canónigo en una ciudad vecina. En la universidad de Cracovia estudió astronomía, y entró en contacto con el modelo geocéntrico —en donde el Sol giraba en torno a la Tierra— de Ptolomeo, aunque Copérnico se sentía incómodo con él. Viajó a Italia y continuó su formación en la universidad de Bolonia. Y posiblemente allí tuvo una revelación —en su libro Copérnico, John Banville la cuenta así—: “…había estado analizando el problema desde una perspectiva errónea […]. Si consideraba al Sol como el centro de un universo inmenso, los fenómenos observados en los movimientos de los planetas que habían intrigado a los astrónomos durante milenios, se volvían perfectamente racionales y evidentes…”.

A partir de ese momento, Copérnico se ocupó en construir un nuevo modelo astronómico con el Sol en el centro, en torno al cual giraban los planetas en órbitas circulares. Sin embargo, difundió sus concepciones con mucha cautela, tanta que también podría decirse que las escondió. Volvió de Italia y siendo seglar consiguió una canonjía en Fraudenburg con la ayuda de su tío el entonces obispo Lucas —había ascendido—, que gobernaba Ermeland (un protectorado del reino de Polonia). Allí se dedicó a las obligaciones de trabajo mientras cultivaba en privado su modelo astronómico. También ejerció la medicina y solventó cuestiones económicas.

Pero, años después de la experiencia italiana, publicó su Commentariolus, un cuadernillo resumen de sus ideas que lanzó a modo de ‘globo sonda’ y que, para su tranquilidad, no generó reacciones adversas. Al final de su vida, urgido desde varias instancias, se avino a publicar su modelo de forma completa. Su libro De revolutionibus orbitum coelestium (Sobre las revoluciones de las esferas celestes) vio la luz en 1543, muy cercano al día de su muerte.

Un libro que inspiró a Kepler, Galileo y Newton

Antes de Copérnico, imperaba el arquetipo astronómico geocéntrico desarrollado por Ptolomeo en el siglo II. Era un modelo farragoso, ya que obligaba a utilizar epiciclos para encajar las observaciones. Sin embargo, tenía una ventaja extracientífica: al colocar la Tierra inmóvil, con los planetas y el Sol girando en torno a ella, se reforzaba el concepto del ser humano como el centro de la creación. La iglesia católica hallaba adecuada esta interpretación en consonancia con El libro del Génesis: el universo conocido giraba en torno a la más excelsa obra de Dios, el ser que habitaba la Tierra.

Cuando su libro De revolutionibus se extendió, Copérnico ya había muerto. Esta circunstancia fue beneficiosa no solo para él, que obviamente no fue perseguido, sino para la obra misma, porque permaneció como una mera hipótesis: el libro era muy técnico, comprensible únicamente por astrónomos avanzados y solo entró en el índice de libros prohibidos tras el proceso a Galileo.

Esto permitió que astrónomos posteriores como Johannes Kepler (1571-1630) o Galileo Galilei (1564-1642) pudieran formarse con ese modelo y después realizar aportaciones muy relevantes. Basándose en él y manejando una buena cantidad de observaciones, Kepler postuló sus tres leyes: los planetas describían órbitas elípticas con el Sol en uno de sus focos, barrían áreas iguales en tiempos iguales y los cuadrados de los periodos de las órbitas eran proporcionales al cubo de sus distancias al Sol.

Galileo alcanzó a ir más allá: con el telescopio de su invención —a partir de un prototipo desarrollado por un constructor de lentes holandés— descubrió los satélites de Júpiter, que orbitaban en torno al planeta. Eso era más de lo que la iglesia católica podía soportar. Kepler, un luterano en reinos católicos, estaba lejos de Roma, pero Galileo se hallaba en Italia, cerca del Papa. Fue procesado por la Inquisición, pero astrónomos ulteriores trabajaron a partir de sus resultados. En particular, Newton (1642-1727) descubrió la ley de la gravitación universal apoyándose, entre otros, en las contribuciones de Kepler y Galileo.

Modelo heliocéntrico propuesto por Copérnico

Los mitos caen de su pedestal

En dos centurias el modelo geocéntrico fue reemplazado por el heliocéntrico. Además, la observación del Sol o de las estrellas se popularizó en los siglos siguientes por la navegación marítima. Esto estimuló una formación astronómica básica en donde la experimentación jugaba un papel central y a su vez consolidó la aceptación general del modelo heliocéntrico.

El impacto de las ideas lanzadas por Copérnico fue enorme, tanto en el nivel científico como en el filosófico, y de larga permanencia. La Tierra dejaba de ser el centro del universo: era un astro más, sometida a las mismas leyes que los demás cuerpos celestes.

Esa concepción estaba a un paso de que el ser humano también cayera de su pedestal, lo que sucedió con las obras de medicina que lo asemejaban a otros seres vivientes. En su libro Los errantes, Olga Tokarczuk (Premio Nobel de Literatura 2018) lo refleja muy bien: “La nueva era comenzó […] en aquel año cuando aparecieron […] De revolutionibus orbitum coelestium de Copérnico y […] De humanis corporis fabrica de Vesalio. Naturalmente, estos libros no lo contenían todo […] Sin embargo, los mapas del mundo, tanto el exterior como en interior, ya estaban trazados”.

Así, en 1543 se sentaron las bases de lo que sería la ciencia moderna. Comenzó un proceso de desmitificación progresiva, que se inició cuando la Tierra dejó de ser el centro del universo, siguió con el ser humano abandonando la cúspide de la creación, continuó con una Europa descabalgada del centro del mundo y llega hasta nuestros días. Una evolución que arrancó con las investigaciones de Copérnico y se ha propagado hasta hoy, donde es moneda corriente cuestionar los roles que han sido dominantes durante siglos en nuestra visión del mundo.

 

*Pedro Meseguer es investigador en el Instituto de Investigación en Inteligencia Artificial del CSIC.

¿Para qué sirve la cera? Mucho más que para hacer velas

Por Cristina de Andrés Gil* (CSIC)

Cuando escuchamos la palabra cera, es común pensar en la que usan las abejas para construir sus panales… o en la cera del oído que producimos los seres humanos. Sin embargo, aunque no seamos conscientes de ello, las ceras están presentes en nuestra vida cotidiana más de lo que creemos.

Para empezar, hay un sinfín de ceras en la naturaleza, como las que recubren la piel, las plumas o el pelaje de muchos animales, o las que están en la superficie de las semillas, los tallos, las flores, las hojas o las raíces de las plantas. Normalmente, la función de estas ceras es proteger y aislar al organismo frente a insectos patógenos, cambios de temperatura o la pérdida excesiva de agua.

Cera de un panel de abejas

Pero, además, las ceras se emplean en múltiples procesos industriales, como la fabricación de velas o la industria cosmética, donde son muy cotizadas porque proporcionan una capa protectora y nutritiva para la piel, que ayuda a retener la humedad y dar una sensación sedosa al tacto. Asimismo, tienen propiedades espesantes que mejoran la textura de los productos y ayudan a una mejor adherencia a la piel.

Otra aplicación importante y quizás menos conocida es su uso en la industria alimentaria como recubrimiento de frutas o verduras: las ceras protegen a estos alimentos de la humedad, alargan su vida útil y mejoran su aspecto. Las ceras también son utilizadas en la producción de muchos materiales, como metales, plásticos, resinas, adhesivos, madera, textiles, cuero y papel, debido a su capacidad para lubricar, recubrir y proteger superficies.

Propiedades únicas

¿Qué es lo que hace a las ceras tan ubicuas y versátiles? Fundamentalmente sus propiedades químicas. Las ceras son un tipo de lípidos neutros, formados por una mezcla de compuestos que contienen ácidos grasos, entre los que se incluyen alcoholes grasos, aldehídos, cetonas, alcanos o ésteres de ceras. Su composición varía según el origen, pero son el resultado de una reacción entre un ácido graso y un alcohol graso.

Lo importante es que, al ser moléculas lipídicas largas, poseen propiedades únicas, como una alta insolubilidad en agua o un punto de fusión lo suficientemente alto como para que puedan mantenerse en estado sólido a temperatura ambiente.

Las ceras se emplean en procesos industriales como la fabricación de velas o la industria cosmética

Pero, ¿de dónde se obtienen las ceras para su aplicación en la industria? Hasta mediados de los años 80, los ésteres de ceras se obtenían de los cachalotes; en concreto, de unas cavidades situadas en la cabeza de estos mamíferos marinos denominadas espermaceti y que desempeñan un papel importante en su sistema de ecolocalización. Además, el aceite acumulado por los cachalotes, que contiene un 70% de ceras, se usaba como lubricante para maquinaria de precisión, como relojes, ya que es muy estable en un amplio rango de temperaturas.

Sin embargo, debido a su impacto medioambiental, la caza de ballenas y cachalotes fue prohibida en 1986 en gran parte del mundo; y esto llevó a la búsqueda de alternativas.

Una es la producción de ceras sintéticas mediante procesos químicos a partir de recursos combustibles fósiles. El problema de este método es que también tiene un importante impacto medioambiental porque requiere un gran consumo de energía y el uso de recursos fósiles limitados.

Ceras vegetales: una alternativa sostenible

Una alternativa más sostenible es la obtención de ceras de origen vegetal. La planta desértica jojoba (Simmondsia chinensis), que acumula ésteres de ceras en lugar de triglicéridos como lípidos de reserva en sus semillas, se cultiva con este propósito. Sin embargo, solo crece en a zonas áridas, como Israel, India o Sudáfrica, lo que encarece el precio de sus ésteres y limita su uso fundamentalmente al sector cosmético.

También se puede obtener cera de girasol como un subproducto del proceso de extracción su aceite

Por eso se utilizan también otras fuentes vegetales, como la cera de carnauba, obtenida de las hojas de la palma Copernicia cerífera, y la cera de candelilla (Euphorbia cerífera). También se puede obtener cera de girasol como un subproducto del proceso de extracción de su aceite. Durante este proceso, las ceras de las semillas se extraen junto con el aceite y posteriormente se separan en una etapa del refinado.

En cualquier caso, el uso de las ceras en tantas industrias hace que sea esencial seguir explorando y desarrollando alternativas más ecológicas para su obtención y producción, y reducir así el impacto ambiental.

 

*Cristina de Andrés Gil es investigadora en el Instituto de la Grasa del CSIC.

Catorce científicas e inventoras que quizás no conozcas

Por Mar Gulis

Si piensas en científicas o inventoras, ¿serías capaz de dar varios nombres? Sea cual sea tu respuesta, en este post vamos a descubrir a mujeres que han hecho historia por sus descubrimientos y avances científicos. Sin ellas, puede que no estuviésemos aquí, que no existiesen algunos de los objetos que nos rodean, que no contáramos con la atención sanitaria que recibimos o que no tomáramos ciertos alimentos.

La primera persona que vio un coronavirus al microscopio fue una mujer

Empecemos hablando de mujeres que hicieron grandes aportaciones en el ámbito de la salud. June Dalziel Hart (1930-2007), conocida como June Almeida, fue una viróloga escocesa, pionera en nuevos métodos de identificación y captación de imágenes de virus. Fue la primera persona en ver un coronavirus al microscopio. Con motivo de la pandemia de COVID-19, su nombre volvió a resonar, ya que investigadores chinos utilizaron sus técnicas para identificar el virus. Sin su trabajo, no hubiera sido posible una identificación tan temprana.

Por su parte, la genetista estadounidense Mary-Claire King (1946) identificó los genes responsables del cáncer de mama (BRCA1 y BRCA2) y aplicó la secuenciación de ADN para identificar a víctimas de violaciones de los derechos humanos. Y en su mismo país, la analista de datos de la NASA Valerie Thomas (1943) diseñó el transmisor de ilusión: un dispositivo óptico utilizado para la reproducción de imágenes de forma remota que emplea espejos parabólicos. Hoy, esta técnica se utiliza también en cirugía y en el cine 3D.

Si nos remontamos un poco en la historia, durante la Primera Guerra Mundial encontramos a la física rusa Alexandra Glagoleva-Arkadieva (1884-1945), que diseñó una instalación de rayos X para buscar restos de metal y balas en soldados heridos. Más tarde, su invención sería reutilizada para ayudar en partos.

Y un poco más atrás en el tiempo, tenemos a la médica neerlandesa Aletta Henriëtte Jacobs (1854-1929), que en 1881 realizó el primer estudio sistemático de la anticoncepción. Jacobs defendió los derechos reproductivos y sexuales de la mujer, y llegó a instalar el primer centro de planificación familiar de los Países Bajos para mujeres en situación de vulnerabilidad.

Del estudio de la caña de azúcar al agar-agar

En alimentación, la botánica Janaki Ammal (1897-1984) se centró en el estudio de la berenjena, hortaliza que le dio nombre entre sus colegas -Janaki Brengal-, y de la caña de azúcar. Fue la primera científica en cruzar esta planta con el maíz para conseguir variedades de alto rendimiento que pudieran cultivarse en su país, la India. Por su parte, la bioquímica Kamala Sohonie (1912-1998) investigó los efectos de las vitaminas y los valores nutritivos de las legumbres, el arroz y otros alimentos consumidos por los sectores más pobres del país. Además, fue la primera mujer india en recibir un doctorado en una disciplina científica.

¿Y qué sería la cocina actual sin el agar-agar? La microbiológa estadounidense Fannie Hesse (1850-1934) descubrió esta sustancia como agente gelificante de los medios de cultivo de microorganismos.

Mary Elizabeth Hallock-Greenewalt (1871-1950) ideó el órgano de color

Las máquinas llegaron para quedarse

Si hablamos de máquinas y de sus inventoras, también hay nombres para conservar en la memoria. ¿Has oído hablar del órgano de color? Fue ideado por la estadounidense de origen sirio Mary Elizabeth Hallock-Greenewalt (1871-1950) y lo llamó Sarabet. Este instrumento emitía luces de colores con intensidades y matices sincronizados con la música de un fonógrafo asociado, de un modo similar a cómo hacen ahora muchos dispositivos electrónicos. Hallock-Greenwalt también era pianista e inventó un tipo de música visual, que llamó Nourathar, de las palabras árabes nour (luz) y athar (esencia).

El lavavajillas es un electrodoméstico presente en muchas cocinas que comenzó a popularizarse en los años 50 de siglo XX. Josephine Cochrane (1839-1913), de Estados Unidos, fue la inventora de la primera máquina lavavajillas que resultó exitosa comercialmente. Eso sí, Hay que decir que estos primeros lavavajillas requerían gran cantidad de agua caliente y que las casas adaptaran su fontanería.

Josephine Cochrane (1839-1913) fue la inventora de la primera máquina lavavajillas que resultó exitosa comercialmente

Quienes trabajamos con ordenadores a diario utilizamos algún procesador de texto. Esto es gracias a la ingeniera informática estadounidense Evelyn Berezin (1925-2018), que en 1968 desarrolló la idea de un programa para almacenar y editar textos.

Y siguiendo con el almacenamiento de información, la inventora española Ángela Ruiz Robles (1895-1975) dio lugar a la Enciclopedia Mecánica, que podría considerarse el primer libro electrónico de la historia. Se trataba de un dispositivo en el que mediante pulsadores subían mecánicamente, o por aire comprimido, las diferentes lecciones; además, se podían aumentar de tamaño e incluso iluminar.

Cómo pensamos, nos sentimos o nos comportamos

El estudio de la mente humana también ha recibido importantes contribuciones de mujeres. Por ejemplo, la psicóloga estadounidense Mary Ainsworth (1913-1999) desarrolló la teoría del apego para explicar el vínculo entre niños y niñas y la primera figura, que actúa como cuidadora. La investigadora señaló la importancia de una relación sana para la salud emocional en la infancia por su impacto en la vida adulta.

Por su parte, la neurocientífica y psicóloga rusa Natalia Bekhtereva (1924-2008) desarrolló nuevos enfoques neurofisiológicos, como la medición de la actividad impulsiva de las neuronas humanas. Además, puso en marcha un método complejo para estudiar los mecanismos cerebrales del pensamiento, la memoria, las emociones y la creatividad.

Esta es solo una selección de mujeres que se han dedicado a la ciencia y la tecnología, pero la lista obviamente no termina aquí. A lo largo de la historia, ha habido numerosas científicas e inventoras, aunque sus nombres hayan quedado relegados a un segundo plano. Rescatarlas del olvido no solo contribuye a que las mujeres ocupen el lugar que se merecen en la historia de la ciencia, sino también a que cada vez haya más investigadoras y tecnólogas.

Ciudad sin árboles: ¿merecemos un cielo sin estrellas?

Por Mariano Sánchez (CSIC)*

Partiendo de la premisa, demostrada por la ciencia y conocida por todo el mundo, de que la presencia de árboles en la ciudad es sanadora, ¿quién puede ir contra esos seres vivos hasta el punto de podarles las ramas periódicamente o incluso talarlos por un muéveme acá esa infraestructura o colgar las luces de Navidad?

Sin embargo, parece que todavía es necesario incidir en que los árboles, con su estructura de ramas y hojas, son un elemento saludable para las personas y otros seres vivos, como las aves que anidan en ellos.

Banco y árboles

Árboles para reducir las islas de calor

Los árboles en entornos urbanos suponen múltiples beneficios: atenúan el efecto isla de calor ofreciendo sombra y evaporando agua, lo que reduce la temperatura ambiente; aportan oxígeno y retienen la contaminación en sus hojas; secuestran carbono en sus ramas, troncos y raíces; sujetan el suelo con sus raíces, evitando avenidas de agua; incrementan la biodiversidad de aves y otras plantas asociadas; y embellecen los paseos con su cromatismo y sus flores.

Como muestra de lo primero, un estudio de modelización realizado con datos de 93 ciudades europeas estimó que un tercio de las muertes atribuibles a las islas de calor podrían evitarse si los árboles cubrieran el 30% del espacio urbano.

Por otro lado, la visión de árboles y vegetación desde las ventanas de hospitales acorta las estancias y mejora las curaciones, como lo confirman estudios realizados en Estados Unidos y cualquier persona que, durante la pandemia, se haya asomado a una ventana desde casa y haya tenido un árbol cerca.

La importancia de los árboles maduros y adaptados

Asimismo, no hay duda de que nos aportan más beneficios los árboles grandes y ya maduros, por su gran número de hojas, que los árboles jóvenes o de menor tamaño. De ahí que, en la medida de lo posible, se deban conservar en su integridad cuando se realizan obras o podas.

Cuando se habla de talar árboles y se añade la coletilla de “es que se van a plantar muchos más de los que había” -se trata de un remedo del conocido “lo que sale por lo que entra”-, hay muchos aspectos que no se tienen en cuenta.

Uno de los más destacables es el cultural y humano. Con la tala, se habrán perdido los beneficios y la historia de los 30 ó 50 años que vivieron los árboles en ese lugar, así como la relación que durante ese tiempo la ciudadanía estableció con ellos: los paseos con charla, la meditación, las palabras perdidas entre las hojas, las lecturas, las miradas y los recuerdos.

Además, en estos momentos en que, tanto en el Real Jardín Botánico del CSIC como en muchas calles y jardines de ciudades españolas, detectamos que algunas especies -como el castaño de indias (Aesculus hippocastanum), el tilo (Tilia platyphyllos), el arce (Acer pseudoplatanus)- están perdiendo vitalidad por el cambio de la pluviometría y de la humedad de la península ibérica, disponer de árboles maduros de 30 o más años, ya adaptados, es un privilegio al que no se puede renunciar.

Plátano de paseo enorme

Mariano Sánchez (RJB-CSIC).

Mejor 50 árboles maduros que 250 jóvenes

En otras ocasiones, sobre todo cuando se habla de tala, se suele hablar de multiplicar la cifra de plantaciones en el espacio ya ocupado por esos árboles a los que se ha sentenciado. Se trata de la cuadratura del círculo; si antes cabían 50, ¿cómo es posible que se puedan plantar en ese mismo lugar 100 ó 250?

Se usan cifras liosas tratando de que sea equivalente cambiar 50 árboles de 50 años por 250 árboles de 10 años. Sin embargo, en arboricultura y para nuestra salud, las cifras y las matemáticas no funcionan de esa manera: 50 árboles grandes y maduros siempre serán mejor que 250 pequeños y jóvenes.

Al plantar árboles en las ciudades, hay que tener en cuenta que los ejemplares deben estar bien separados para que, de adultos, no se molesten. En este sentido, hay que aplicar el mismo razonamiento que se emplea con los vehículos y sus aparcamientos: ¿es que los autobuses pueden usar los aparcamientos de los coches o de las motos? Se ha de ser coherente con los conocimientos de la biología de los árboles y, si la especie es grande, la separación debe ser grande; si su porte es medio, el espacio deberá ser el de un coche; y, si es pequeño, de una moto.

Obras, talas y árboles

Por todo ello, al igual que se buscan soluciones técnicas para determinadas infraestructuras, deben buscarse también soluciones para las obras que afecten al arbolado. De ahí que toda obra que impacte en el arbolado urbano debería tener un informe de impacto obligatorio y vinculante.

Y en todo caso los ejemplares maduros deben permanecer porque suponen un futuro ganado frente a unos árboles jóvenes que no sabemos si se aclimatarán. En caso de que no lo hagan, habremos creado, donde no la había, una zona expuesta al sol, que no retiene la contaminación ni aporta frescor en los meses cada vez más tórridos del verano.

La palabra clave del futuro es CONSERVAR.

* Mariano Sánchez García es conservador del Real Jardín Botánico (RJB-CSIC).

¿Por qué mi hijo tiene una enfermedad rara?

Por Lluís Montoliu* (CSIC)

Nadie las espera, casi nadie las conoce, pero la mayoría de enfermedades raras llegan sin avisar a las familias que, de la noche a la mañana, se encuentran con el nombre de una patología de la que generalmente nunca antes habían oído hablar, pero que a partir de ese momento pasará a ser el centro de sus vidas. Y entonces empiezan las preguntas, los temores, las angustias, la búsqueda de culpables, en un intento de explicar lo aparentemente inexplicable.

¿Por qué me ha tocado a mí y no a otra persona? ¿Es culpa mía o de mi pareja? ¿O de los dos? ¿Somos los únicos padres que tenemos un hijo con esta enfermedad rara? ¿Hay otras familias como nosotros? ¿Hay alguien que esté investigando esta enfermedad rara? ¿Existe algún tratamiento? Si tuviéramos otro hijo, ¿también podría tener esta misma enfermedad?

Esta es la dura situación a la que se enfrentan muchas familias en las que uno o varios de sus miembros es diagnosticado con alguna de las más de seis mil enfermedades raras que hoy conocemos. Todas extraordinariamente diversas, tanto en la parte del cuerpo u órgano que afectan como en la gravedad de la patología. Las hay que son mortales o terriblemente dolorosas o complejas de gestionar, pero también las hay que alteran mínimamente la calidad de vida. Lo único que comparten todas las enfermedades raras es su baja prevalencia en la población, un valor arbitrario: todas aquellas que aparecen con una frecuencia de menos de una de cada dos mil personas nacidas.

Lluis Montoliu junto a paciente con albinismo

Lluis Montoliu, autor de este post, junto a una paciente con albinismo. / Ana Yturralde

Cuestión de genes

La gran mayoría de las enfermedades raras son de origen genético. Las llamamos congénitas, dado que aparecen desde el nacimiento. Y es precisamente en la genética donde hay que buscar la causa de las mismas.

Todos somos mutantes. Todas las personas portamos multitud de mutaciones distribuidas por todo nuestro genoma. Ahora bien, no todos manifestamos o tenemos una enfermedad. Hay que recordar que tenemos unos veinte mil genes y que, de cada gen, generalmente tenemos dos copias: la que heredamos del padre y la que heredamos de la madre. Mientras al menos una de las dos copias génicas funcione correctamente en principio no tiene por qué pasar nada. Pero si se da la circunstancia de que una persona recibe de sus padres las dos copias del gen anómalas, la función que debería hacer ese gen, la proteína codificada, dejará de hacerse y entonces podrá aparecer la enfermedad.

Hay muchas excepciones a esta situación descrita, de mutaciones recesivas, que es la más frecuente. Por ejemplo, hay algunas enfermedades que ya se manifiestan con solo heredar una de las dos copias anómalas: son las que conocemos como de herencia dominante.

Cuando una pareja espera su hijo con la mayor de las alegrías y esperanzas y, al poco de nacer, o bien ellos o los médicos se percatan de que algo va mal, empieza un periplo que puede tardar desde unas pocas semanas a años hasta encontrar la causa de aquellos síntomas. Obtener un diagnóstico genético concluyente es más complejo de lo que parece, pues lo que siempre hacemos los genetistas es comparar el genoma de la persona estudiada con genomas de referencia. Y, claro, según qué genoma de referencia usemos podemos tener resultados distintos. Además, no es cierto que solo tengamos unas pocas diferencias entre cada uno de nosotros. La realidad es que entre una persona y otra hay entre tres y seis millones de cambios de letras. Y no es fácil descubrir cuál de esos cambios es el causante de la enfermedad.

Tampoco sabemos a ciencia cierta las causas genéticas que explican las enfermedades raras. Frecuentemente hay personas diagnosticadas clínicamente a las cuales no les encontramos mutación alguna. O, al revés, personas que portan mutaciones que deberían causarles enfermedad y, sin embargo, están sanas. Esto nos sugiere que todavía no sabemos todo lo que necesitamos de nuestro genoma y de las complejas interacciones que se establecen entre todos nuestros genes. Y esto hay que explicarlo a las familias.

Para seguir avanzando en nuestro conocimiento sobre las enfermedades raras y poder ofrecer respuestas a quienes las sufren y sus allegados, en el CSIC se llevan a cabo diversas investigaciones. En el Instituto de Investigaciones Biomédicas “Alberto Sols”, Isabel Varela Nieto estudia distintos tipos de sorderas en ratones y Víctor Ruiz, otra enfermedad rara: la osteogénesis imperfecta. El grupo de Paola Bovolenta, del Centro de Biología Molecular “Severo Ochoa”, analiza los genes cuyas mutaciones causan enfermedades raras de la visión. Y yo mismo, en el Centro Nacional de Biotecnología, llevo más de 25 años investigando sobre los diversos tipos de albinismo que conocemos. Todos estos grupos formamos parte del Centro de Investigación Biomédica en Red de Enfermedades Raras (CIBERER), del Instituto de Salud Carlos III.

 

* Lluís Montoliu es investigador del Centro Nacional de Biotecnología (CNB) del CSIC y del Centro de Investigación Biomédica en Red en Enfermedades Raras (CIBERER) del ISCIII. Para intentar dar una respuesta a las familias que acaban de conocer la noticia, ha escrito el libro ¿Por qué mi hijo tiene una enfermedad rara? (Next Door Publishers). En él recopila respuestas a decenas de preguntas que ha tenido ocasión de responder desde hace años conversando con muchas familias. Es también autor de otros títulos de divulgación, como Genes de colores, Editando genes: recorta, pega y colorea o El albinismo

De los test COVID al tratamiento del cáncer: la revolución de la nanomedicina

Por Fernando Herranz* (CSIC) y Mar Gulis

Un amigo mío [Albert R. Hibbs] comentaba, aunque sea una idea loca, lo interesante que sería en cirugía si el paciente se pudiera tragar al cirujano. Pones al cirujano mecánico en los vasos sanguíneos y se dirige al corazón “mirando” alrededor […]. Esa máquina encuentra qué válvula es la defectuosa, saca el cuchillo y la corta. Otras máquinas podrían incorporarse en el cuerpo de forma permanente para asistir en el funcionamiento de algún órgano defectuoso.

Este es un extracto de la famosa charla que el físico teórico Richard Feynman dio en 1959 en la reunión anual de la American Physics Society. En esa intervención, considerada como el origen de la nanotecnología, el científico y su colega Hibbs se anticiparon a muchos de los conceptos y desarrollos que hoy son una realidad, como el uso de nanomateriales para mejorar el diagnóstico y el tratamiento de una patología.

Treinta años después de la charla de Feynman, en la década de los 90, la investigación en nanomedicina comenzó a crecer de forma sistemática y, a partir del año 2000, experimentó una auténtica explosión. Pasadas poco más de dos décadas, la comunidad científica ha generado un catálogo de nanomateriales con aplicaciones para problemas biomédicos tan amplio como sorprendente. Los test para detectar en casa enfermedades como la COVID-19, o los eficientes mensajeros que, dentro de nuestro organismo, entregan en tiempo y forma un fármaco allí donde se necesita, o incluso tratamientos de ciertas patologías son solo algunos de los muchos logros de la nanotecnología aplicada a la medicina.

El nanomaterial más empleado en los kits para la COVID-19 son las nanopartículas de oro. / Jernej Furman

Lo más importante de un nanomaterial es el tamaño porque, a medida que aumenta o disminuye, sus propiedades ópticas, magnéticas o eléctricas, entre otras, pueden ser completamente distintas. Por ejemplo, es posible obtener toda una gama de colores fluorescentes usando un mismo material, con idéntica composición química, variando únicamente su tamaño. A veces, una mínima diferencia de un nanómetro hace que la luz emitida por el nanomaterial cambie. Las aplicaciones de una propiedad como esta son enormes en ámbitos como el diagnóstico de una enfermedad.

Nanomedicina para saber qué nos pasa

Una de las aplicaciones más importantes de las nanopartículas son los test de diagnóstico. En el caso del diagnóstico in vitro, cuando la muestra sale del paciente y se aplica a un sistema de análisis, el nanomaterial más empleado son las nanopartículas de oro, presentes tanto en los test de embarazo como en los populares kits para la COVID-19.

De hecho, gracias a los nanomateriales, durante la pandemia se consiguió obtener en tiempo récord varias versiones de kits suficientemente sensibles y con bajos costes de producción. Y hoy ya se pueden comprar test que emplean nanopartículas de oro y que, en una sola medida, pueden detectar la presencia del SARS-CoV2 y de los virus de la gripe A y la gripe B.

Cuando se quiere estudiar el interior del paciente para sacar una prueba in vivo se utiliza la imagen molecular. Para realizar estos ensayos se utilizan diferentes técnicas, como la imagen por resonancia magnética (MRI) o la tomografía por emisión de positrones (PET). La lista de potenciales ventajas de las nanopartículas en este ámbito es muy larga, porque para cada modalidad de imagen existe al menos un tipo de nanopartícula que se puede diseñar con un tamaño ‘a la carta’ y mejorar así el diagnóstico, o reducir la toxicidad de las sustancias inyectadas al paciente. Hay materiales que directamente funcionan como un código de barras hecho a base de nanopartículas, ya que a cada enfermedad le corresponde un perfil de fluorescencia único.

Nanopartículas de oro de distintos colores debido a su distinto tamaño. / Fernando Herranz

Transportistas de fármacos y nanopartículas terapéuticas

Desde el origen de la nanomedicina, las nanopartículas se han empleado como eficientes sistemas de transporte de fármacos. Aquí sucede lo mismo que en otros campos: la variabilidad de nanomateriales es enorme. Su misión es mejorar el funcionamiento in vivo, la seguridad o la estabilidad de un ingrediente farmacéutico activo. Para cumplir esta función, la nanomedicina ya tiene una notable presencia en oncología y hematología. Y después del éxito de las vacunas de la COVID-19, las de ARNm (ARN mensajero) también están creciendo rápidamente.

Hasta ahora, la nanomedicina ha ayudado a detectar de forma más rápida y precisa una patología y ha servido de apoyo fundamental para la liberación de medicamentos en nuestro interior. Pero, ¿y si las nanopartículas también pudieran curarnos? ¿Y si tuvieran efecto terapéutico? Esto no es ciencia ficción. Algunas nanopartículas ya se encuentran en ensayos clínicos de nuevos tratamientos anticancerígenos. En esta línea, existe una técnica denominada hipertemia magnética que trata de matar las células cancerígenas aplicando calor. Para conseguir que este llegue principalmente a las células cancerosas y no a las sanas se emplean nanopartículas magnéticas, principalmente de óxido de hierro. Si situamos nanopartículas magnéticas dentro de un campo magnético se alinearán en el sentido de dicho campo. Si ahora cambiamos el sentido, las nanopartículas girarán con él. Si ese giro se hace de forma continua y rápida, empleando un campo magnético alternante, el giro generará calor en la zona donde las nanopartículas están acumuladas. Este tipo de tratamiento parece prometedor para el cáncer de páncreas (ya se están realizando ensayos en España) y también podría ser eficaz en el cáncer de próstata.

El flujo de artículos científicos y de aplicaciones de la medicina no para de crecer, así que el futuro en este ámbito tiene buen pronóstico. Los retos para la comunidad científica experta en nanomateriales residen en ir de la mano de los profesionales clínicos. También es necesario fomentar la sencillez de los nanomateriales, porque muchas veces las personas que trabajamos en química, tentadas de demostrar la complejidad que pueden alcanzar estos materiales, construimos sistemas con muchos más componentes de los necesarios, y esto puede ser un escollo para las agencias evaluadoras de nuevos fármacos.

* Fernando Herranz es investigador del CSIC en el Instituto de Química Médica (IQM-CSIC) y autor del libro La nanomedicina (CSIC-Catarata).