Entradas etiquetadas como ‘divulgación’

Descubre las 10 mejores imágenes científicas de 2023 con FOTCIENCIA20

Por Mar Gulis (CSIC)

El corte transversal de una cáscara de huevo, la eclosión de un gecko terrestre malgache fotografiada con un smartphone o un ovillo de gusanos parásitos anisakis son algunas de las imágenes más destacadas del año en la iniciativa FOTCIENCIA, que cumple con esta su 20ª edición recopilando fotografías científicas gracias a la participación ciudadana.

Esta iniciativa del Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT) ha dado a conocer las mejores fotografías del año 2023. El pelo del estambre de una flor (Erodium moschatum), la simetría del brócoli o tres muestras de epidermis de flor de caléndula captadas por estudiantes de secundaria son otros de los fenómenos retratados en las imágenes seleccionadas de entre más de 475 fotografías. Un comité multidisciplinar formado por 13 profesionales de la ciencia, la microscopía, las artes visuales o la divulgación científica, entre otras especialidades, ha sido el encargado de seleccionar estas imágenes que han sido galardonadas por su belleza, impacto y capacidad para reflejar y describir hechos científicos.

De izquierda a derecha: “Cubismo plutónico”, “Polinización y la agricultura”, “Un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco”, “La sal de la muerte (celular)”, “Biomineralización”, “Un triángulo imposible”, “Biosensores”, “Eclosión en laboratorio”, “Recordando a Cajal para tratar la neurodegeneración” y “Revelación simétrica del brócoli”.

De izquierda a derecha: “Cubismo plutónico”, “Polinización y la agricultura”, “Un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco”, “La sal de la muerte (celular)”, “Biomineralización”, “Un triángulo imposible”, “Biosensores”, “Eclosión en laboratorio”, “Recordando a Cajal para tratar la neurodegeneración” y “Revelación simétrica del brócoli”.

Estas 10 mejores imágenes, que puedes ver en el vídeo de más abajo, junto con una selección más amplia de fotografías, conformarán un catálogo y una exposición itinerante, disponible para su préstamo gratuito, que recorrerá museos, centros de investigación, universidades y espacios culturales de todo el país durante el próximo año.

En esta vigésima edición, a las modalidades de participación habituales –Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula– se han sumado las modalidades especiales Año Cajal, Física de partículas y Sinergias (Arte, Ciencia, Tecnología y Sociedad, ACTS). La difícil captura nanométrica de un radical libre captado al microscopio de efecto túnel y la observación al microscopio de una roca ígnea plutónica de La Cabrera (Madrid) han sido las fotografías galardonadas por primera vez en estas dos últimas modalidades, respectivamente.

La modalidad Sinergias (Arte, Ciencia, Tecnología y Sociedad, ACTS) pretende mostrar trabajos conjuntos del ámbito científico y artístico con el objetivo de ampliar nuevos horizontes inter y transdisciplinarios entre las ciencias y las artes. Este año, una madre geóloga y su hijo estudiante de bellas artes han mostrado en una fotografía esta conexión con una imagen que resulta de un proceso de investigación donde ambos comparten microscopio en busca de colores e imágenes inspiradoras para futuros bocetos en otros soportes.

Como en la anterior edición, FOTCIENCIA contempla la modalidad especial Año Cajal para recoger imágenes que tengan que ver con las neurociencias, sumándose así a la celebración del Año Cajal, impulsado a nivel nacional. La inmunofluorescencia de una sección de cerebelo con dos células de Purkinje, que recuerda a los dibujos de Ramón y Cajal, quien ya describió su estructura, ha sido la imagen seleccionada en esta modalidad.

FOTCIENCIA es una iniciativa del CSIC y la FECYT que invita a que cualquier persona, se dedique o no a la investigación, plasme su visión de la ciencia y la tecnología a través de fotografías. Además, FOTCIENCIA20 cuenta con la colaboración de Fundación Jesús Serra, de GCO (Grupo Catalana Occidente) y, por primera vez, de Leica.

Más información, en este enlace.

Imágenes seleccionadas:

  • Modalidad General:
  1. Polinización y la agricultura / Eduardo Cires Rodríguez
  2. Eclosión en laboratorio / Fernando García Moreno
  • Modalidad Micro:
  1. Biosensores / Concepción Hernández Castillo, Lola Molina Fernández, Isabel María Sánchez Almazo
  2. Biomineralización / María Jesús Redrejo Rodríguez, Eberhardt Josué Friedrich Kernahan
  • Modalidad Año Cajal:
  1. Recordando a Cajal para tratar la neurodegeneración / Pablo González Téllez de Meneses
  • Modalidad Alimentación y nutrición:
  1. Un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco / José Ramos Vivas
  • Modalidad Agricultura sostenible:
  1. Revelación simétrica del brócoli /Samuel Valdebenito Pérez, María Villarroel, Patricia Peñaloza
  • Modalidad La ciencia en el aula:
  1. La sal de la muerte (celular) / Hala Lach Hab El Keneksi, Rebeca Jiménez Uvidia, Chaimae El Idrissi Loukili
  • Modalidad Física de partículas:
  1. Un triángulo imposible / Alejandro Berdonces Layunta, Dimas García de Oteyza
  • Modalidad Sinergias (ACTS):
  1. Cubismo plutónico / Bruno Fernández Delvene, Graciela Delvene Ibarrola

Cómo la ciencia y el arte se unen en Wikipedia

Por Gustavo Ariel Schwartz (CSIC)*

¿Es posible conocer cómo áreas aparentemente tan alejadas como el arte, la literatura y la ciencia se influyen mutuamente? ¿Podemos crear un mapa de esas interacciones culturales? Para ello necesitaríamos un corpus de conocimiento en el que las ideas científicas, artísticas y literarias estuvieran conectadas unas con otras. Un corpus en el que una teoría científica esté de alguna manera relacionada con una obra de arte o en el que una novela se vincule de algún modo a un concepto artístico o científico. Afortunadamente existe un espacio con estas características, en el que personas, obras y conceptos de diversas disciplinas se relacionan entre sí. Ese sitio es Wikipedia.

Wikipedia tiene la gran virtud de que sus entradas pueden representar obras, artísticas o literarias, ideas o personas. Además del conocimiento explícito contenido en cada uno de los artículos, existe una gran cantidad de conocimiento implícito que emerge de la red subyacente de conexiones. Estas están representadas por los enlaces entre las distintas entradas. De hecho, dos artículos de Wikipedia pueden estar muy relacionados entre sí, incluso sin que ninguno de ellos enlace con el otro. Se entiende que dos entradas de Wikipedia están relacionadas estructuralmente si enlazan a elementos comunes o si existen elementos comunes que se relacionen con ambas. Además, esta relación se puede cuantificar utilizando la distancia normalizada de Google.

De izquierda a derecha: Representación esquemática de la red de relaciones entre las distintas entradas de Wikipedia. / Dos elementos de una red compleja están relacionados estructuralmente si enlazan con elementos comunes o si son enlazados, simultáneamente, por un dado conjunto de elementos.

De esta manera, es posible utilizar esta herramienta y los enlaces entre sus artículos para construir una red compleja donde la relación entre los elementos va a estar determinada por la distancia normalizada de Google. Así se genera un mapa del conocimiento que revela las interacciones entre diversas disciplinas a partir de la red de conexiones extraída de Wikipedia. Por ejemplo, el mapa cultural que se obtiene a partir de las figuras de Einstein, Picasso y Joyce refleja las influencias recíprocas entre el desarrollo del cubismo y la teoría especial de la relatividad. En la imagen, cada punto representa una entrada de Wikipedia (hay unos 850) y cada línea muestra la relación entre esos elementos.

Mapa de las interacciones culturales entre Picasso, Einstein y Joyce. A pesar de la fuerte clusterización en disciplinas, se observa claramente que existe cierta conexión entre los diferentes ámbitos del conocimiento.

Se pueden identificar de forma clara tres clústeres que pertenecen a su vez a cada una de las semillas que utilizamos para generar el grafo. Pero lo realmente interesante es la posibilidad de visibilizar los elementos que conectan los diferentes ámbitos del conocimiento. El pintor Jean Metzinger y su obra Du Cubism junto a Henri Poincaré y su libro Science and Hypothesis constituyen los elementos centrales del intercambio de ideas y conceptos entre el cubismo y la relatividad. De este modo, el formalismo de las redes complejas nos permite crear mapas culturales para estudiar la estructura y la dinámica de los cambios de paradigma y cómo estos se alimentan de ideas, personas y conceptos provenientes de las más diversas disciplinas.

*Gustavo Ariel Schwartz es investigador en el Centro de Física de Materiales (CSIC-UPV/EHU).

El redescubrimiento de las zanahorias moradas

Por Laura Sáez Escudero, Gracia Patricia Blanch Manzano, María Luisa Ruiz del Castillo (CSIC)* y Mar Gulis

Los primeros cultivos de zanahoria datan del año 3.000 a. C. en la zona que hoy ocupa Afganistán. Sin embargo, la variedad más popular en la actualidad, la zanahoria naranja, no apareció hasta el siglo XVII, cuando agricultores holandeses cruzaron de forma deliberada varias zanahorias cultivadas y silvestres para que el color de esta hortaliza coincidiese con el de la casa real holandesa de Orange.

Hasta entonces la variedad dominante había sido la zanahoria morada. Las primeras zanahorias cultivadas eran de un color morado oscuro, casi negro. A medida que los comerciantes árabes fueron llevando su semilla por África y Oriente Próximo, surgieron nuevas variedades blancas, amarillas y rojizas, pero el dominio de la zanahoria naranja tardaría aún varios siglos en llegar.

Sin embargo, el consumo de zanahoria morada está volviendo a adquirir cierta popularidad. Esto se explica por su sabor, similar al de las zanahorias naranjas pero un poco más dulce y con cierto toque picante, y por sus propiedades nutricionales. Al igual que las zanahorias naranjas, las moradas contienen carotenoides, compuestos antioxidantes y precursores de la vitamina A que son responsables del color naranja y amarillo de estas hortalizas. Pero la zanahoria morada, además, contiene antocianinas, unos polifenoles responsables del color rojo, violeta o azul que hace atractivos a muchos vegetales y que tienen también efectos antioxidantes. Hasta el momento, se han descubierto hasta 500 antocianinas diferentes en las plantas.

Tanto a los carotenoides como a las antocianinas se les ha atribuido una acción preventiva frente a ciertos tipos de cáncer, enfermedades cardiovasculares y patologías relacionadas con la edad. Ambos compuestos forman parte de los denominados fitonutrientes: moléculas defensivas que las plantas generan en respuesta al estrés ambiental y que nos aportan sus propiedades protectoras cuando las ingerimos. Se trata de sustancias bioactivas que no nos proporcionan calorías pero que pueden tener muchos efectos positivos para el organismo humano.

Zanahorias hervidas, horneadas o liofilizadas

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC hemos estudiado cómo diferentes formas de cocinar la zanahoria morada afectan al contenido de sus compuestos bioactivos (carotenoides y polifenoles, como las antocianinas) y a su capacidad antioxidante.

En concreto, hemos considerado el hervido, la cocción al vapor, el horneado durante diferentes tiempos y la deshidratación mediante liofilización (un proceso que da lugar a zanahoria en polvo, que se emplea como colorante natural). Si comparamos el hervido y la cocción al vapor, ambos procedimientos provocan un aumento de carotenoides, pero en el hervido se observó una disminución drástica de antocianinas por arrastre de estos compuestos al agua de cocción. La liofilización dio lugar a un aumento de antocianinas, pero provocó la pérdida de los carotenoides. El horneado fue el método de cocinado que dio lugar a resultados más equilibrados, ya que no se observó aumento de ninguno de los pigmentos bioactivos estudiados, pero tampoco pérdida.

También es interesante resaltar la correlación directa entre la presencia de antocianinas y la actividad antioxidante de la muestra. Las antocianinas son los antioxidantes que contribuyen en mayor medida a las propiedades biológicas de esta variedad de zanahoria

En conclusión, la zanahoria morada es un alimento muy interesante por sus propiedades promotoras de la salud. Sin embargo, seleccionar su forma de consumo es vital si queremos aprovechar estas propiedades. Aunque cada tipo de cocinado presenta ventajas e inconvenientes, en general, la cocción a vapor y el horneado ofrecen un producto más equilibrado y completo.

 

* Laura Sáez Escudero, María Gracia Blanch Manzano y María Luisa Ruiz del Castillo forman parte del grupo de investigación ENANTIOMET en el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC.

 

 

 

Proteínas recombinantes: una historia de mutantes zombis al servicio de la ciencia

Por María Zapata Cruz, Laura Tomás Gallardo y Alejandro Díaz Moscoso (CSIC)*

Las proteínas son las moléculas que más funciones diferentes desempeñan en los seres vivos. Entre muchas otras cosas, forman nuestros órganos y tejidos, como hace el colágeno; refuerzan nuestras defensas en forma de anticuerpos; y realizan el metabolismo, como las enzimas que transforman los nutrientes en energía y en otras moléculas necesarias para la vida.

Además, las proteínas resultan muy útiles fuera del organismo: la prueba PCR (Reacción en cadena de la Polimerasa), que se hizo famosa durante la pandemia de COVID-19, o las herramientas de edición genética CRISPR-Cas, conocidas como ‘tijeras moleculares’, basan su funcionamiento en estos ingredientes básicos de la vida. Y lo mismo ocurre con medicamentos como la insulina y algunas vacunas.

Por todo ello, fabricar proteínas despierta un gran interés científico e industrial. Necesitamos producirlas para hacer funcionar esas aplicaciones y para analizar su comportamiento en condiciones controladas, algo que hacemos en el Centro Andaluz de Biología del Desarrollo con el objetivo de conocer mejor su funcionamiento.

Sin embargo, crear una proteína en el laboratorio enlazando uno a uno los aminoácidos que la componen puede resultar muy lento y laborioso: en cada proteína se suelen unir cientos de estas moléculas formando una cadena. Una solución muy práctica para obtener proteínas es ‘secuestrar’ la maquinaria natural de las células para que hagan el trabajo, es decir, conseguir células que fabriquen las proteínas que nos interesan.

Domesticando bacterias

Vamos a explicar este procedimiento con algo más de detalle. Para ello, necesitamos saber que las instrucciones para fabricar una proteína se encuentran en el ADN. En el código genético, hay un gen con las indicaciones para crear cada proteína uniendo de una forma determinada los veinte tipos de aminoácidos que existen en la naturaleza.

Los aminoácidos se unen unos a otros químicamente mediante un ‘enlace peptídico’. Podríamos plantearnos tener veinte botes en el laboratorio, cada uno con un aminoácido distinto, e ir uniéndolos según nos indique el gen correspondiente para fabricar la proteína que nos interesa. Pero, como veíamos, los seres vivos poseen una maquinaria celular mucho más eficaz para formar estos enlaces.

Se pueden utilizar distintos tipos de células para fabricar proteínas, pero la más popular entre los científicos es, sin duda, Escherichia coli, una bacteria que vive de forma natural en el intestino de los seres humanos y otros animales sanos. En las últimas décadas, hemos aprendido a criar esta bacteria en el laboratorio y ha resultado ser una ‘mascota’ muy agradecida que, además, es muy fácil de cuidar.

Puede vivir en un rango amplio de temperaturas; incluso permanecer congelada durante largos periodos de tiempo y después recuperar su actividad normal como si nada. Además, su alimentación es muy barata y crece muy rápido, tanto que es capaz de duplicarse en apenas veinte minutos, lo que permite tener un ‘ejército’ de millones de bacterias en un solo día.

Pero lo más importante es que también hemos aprendido a introducir genes de otros seres vivos en Escherichia coli de forma muy sencilla (lo que se conoce como ‘ADN recombinante’). Esto permite meter en la bacteria un gen con las instrucciones para fabricar una proteína de cualquier otro ser vivo, es decir, crear un mutante.

Da igual si el gen es de otra bacteria, de un pez, una mosca, un ratón, una planta, un lobo o un ser humano. Como las bases moleculares de la vida, el lenguaje del ADN y la síntesis de proteínas son iguales en todos los seres vivos de este planeta, la maquinaria de las bacterias es capaz de construir cualquier cadena de aminoácidos (proteína) independientemente de su origen genético.

Sin embargo, no todo es tan sencillo. Por muy pequeñas que sean, las bacterias no son tontas y no se van a poner a sintetizar, así por las buenas, una proteína extraña que no les sirve para nada o que incluso podría hacerles daño. Para resolver este problema, los investigadores han conseguido bacterias capaces de leer el gen de interés solo cuando queremos que lo lean.

Añadiendo una sustancia específica al cultivo de bacterias, estas pierden parcialmente el control de sus actos y empiezan a fabricar la proteína que queremos como si en ello les fuese la vida. Y así es como conseguimos tener un ejército de bacterias mutantes y zombis que realiza el duro trabajo de fabricar la proteína que nos interesa.

Placas de cultivo con distintas bacterias mutantes. Cada puntito blanco es una colonia de bacterias compuesta por millones de células que ha crecido a partir de una sola célula.

¿Y qué hay de lo mío?

Finalmente, hay un último problema que resolver. La gran mayoría de las veces, producir una sola proteína extraña no es suficiente para que las bacterias cambien de aspecto. No les salen alas, ni garras, ni ojos, ni nada que nos permita distinguirlas. A simple vista, una bacteria normal y una bacteria mutante son exactamente iguales. Para saber si nuestras bacterias mutantes han fabricado la proteína que queríamos, hay que destruir las bacterias y ver si, entre toda la mezcla de proteínas que normalmente fabrican para vivir, se encuentra la nueva.

Se pueden utilizar distintas características que nos permitan distinguir unas proteínas de otras en esta mezcla. Una de las características más utilizadas es su tamaño. En cualquier célula podemos encontrar proteínas desde muy grandes hasta muy pequeñas, según lo larga que sea la cadena de aminoácidos que las forman. Y como la secuencia de aminoácidos de la proteína que nos interesa la podemos conocer a partir del gen que previamente hemos introducido en las bacterias, podemos calcular el tamaño que tendrá.

Para separar las proteínas por su tamaño, utilizamos una técnica llamada ‘electroforesis’. Etimológicamente, este término proviene de la unión de los vocablos ‘electro-’, que hace referencia al uso de electricidad, y ‘-foresis’, que en griego significa ‘transporte’. La técnica consiste en poner la mezcla de proteínas en un medio que hace que adquieran carga negativa. Después, se aplica una corriente eléctrica a la mezcla que hace que las proteínas cargadas negativamente se desplacen a un polo positivo (ánodo).

En su camino, las obligamos a pasar por un gel que forma una red de microtúneles. Al encontrarse con este obstáculo, las proteínas pequeñas serán capaces de avanzar mucho más rápido que las grandes, que se irán quedando retrasadas. Más retrasadas cuanto más grandes sean. Así, al cortar la corriente eléctrica y ver el resultado de la ‘carrera’, observaremos bandas que corresponden a proteínas de distintos tamaños. Las más pequeñas cerca del polo positivo y las más grandes cerca del punto de partida.

Comparando el patrón de bandas de bacterias naturales con el de bacterias mutantes, deberíamos poder ver una única diferencia. Una proteína que esté en la mezcla de bacterias mutantes, que no esté en las naturales y que tenga el tamaño calculado para la proteína que nos interesa. Si es así, ¡¡premio!!, habremos conseguido que las bacterias mutantes zombies fabriquen la proteína que necesitábamos.

Ejemplos de electroforesis de proteínas. Cada una tiene 3 carriles: uno con una muestra de referencia de tamaños (Ref), otro con la mezcla de bacterias naturales (Nat) y otro con la mezcla de bacterias mutantes (Mut). La proteína nueva se indica con una flecha.

* María Zapata Cruz, Laura Tomás Gallardo y Alejandro Díaz Moscoso son el equipo técnico de la Plataforma de Proteómica y Bioquímica del Centro Andaluz de Biología del Desarrollo, centro mixto del CSIC y la Universidad Pablo de Olavide de Sevilla.

Fasciolosis, la enfermedad que afecta al ganado y, cada vez más, a las personas

Por Marta López García* (CSIC)

Afirmar que los parásitos son fascinantes no solo es atrevido, sino que es poco frecuente. Solemos verlos como seres dañinos y nos produce rechazo escuchar la palabra. Sin embargo, desde un punto de vista científico, los parásitos son seres increíbles porque tienen una gran diversidad de formas de vida y sus adaptaciones les permiten vivir dentro de otros organismos (hospedadores). Y esta asombrosa capacidad de moverse entre los hospedadores para asegurar su supervivencia es lo que les hace fascinantes en términos biológicos.

Desde el Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA-CSIC) se trabaja para frenar esta enfermedad

Sin embargo, los parásitos también pueden tener consecuencias muy negativas para la salud y el bienestar del ser humano y los animales. Por eso, conocer su compleja biología supone un gran reto científico en la actualidad. Ante su elevada prevalencia global es necesario desarrollar herramientas de prevención y control frente a ellos.

En este sentido, desde el Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA-CSIC), trabajamos para frenar la fasciolosis. Esta enfermedad, causada por gusanos del género Fasciola, especialmente Fasciola hepatica, afecta principalmente al ganado ovino y bovino. Tiene una alta prevalencia en Castilla y León, al estar presente hasta en el 50% del ganado. Además, puede infectar a los seres humanos y, de hecho, es considerada una enfermedad emergente porque se encuentra en más de 2,5 millones de personas y 17 millones están en riesgo de infección.

La relación entre ‘Fasciola hepatica’ y hospedador

Fasciola hepatica es el protagonista de nuestra investigación. Se trata de un gusano plano, con forma de punta de lanza, que puede medir hasta 5 cm de largo y 1,5 de ancho cuando es adulto. Trabajamos para conocer las bases moleculares que rigen la infección del parásito dentro del hospedador vertebrado.

Tras ingerir el hospedador alimentos o agua contaminados con las formas infectivas de Fasciola hepatica (formas larvales denominadas metacercarias) se inicia la infección. Cuando estas alcanzan el intestino, salen del quiste como gusanos juveniles y son capaces de atravesar la pared del intestino delgado hasta la cavidad peritoneal, donde inician una compleja ruta de migración hasta el hígado. Allí se mantienen durante mucho tiempo creciendo al alimentarse del tejido hepático. Finalmente llegan a la vesícula biliar, donde se convierten en parásitos adultos y liberan huevos al medio ambiente, a través de las heces del animal, para completar su ciclo de vida.

La patología asociada a la enfermedad se relaciona con la presencia de los parásitos en el hígado. A medida que se alimentan del parénquima hepático (el componente del hígado que filtra la sangre para eliminar las toxinas) pueden causar inflamación y daño en el hígado con síntomas como dolor abdominal, diarrea, fiebre, pérdida de peso y, en los casos más graves, hepatitis, fibrosis y cirrosis. Aunque las infecciones en humanos suelen ser menos comunes que en el ganado, pueden ser graves si no se tratan adecuadamente. En cuanto a las perspectivas de tratamiento, existen medicamentos antiparasitarios, como el triclabendazol para tratarla tanto en seres humanos como en ganado. Sin embargo, cada vez se muestran más indicios de resistencia del parásito, por lo que disminuye la eficacia de este fármaco. Por la complejidad del ciclo biológico del parásito y su inminente resistencia a los fármacos necesitamos nuevas herramientas de control como las vacunas. Desde el laboratorio, tratamos de replicar el ciclo de vida de Fasciola hepatica para desentrañar las moléculas clave que utiliza durante su infección. Esto nos permite conocer qué molécula podría ser una buena candidata para desarrollar una vacuna en los animales frente a la fasciolosis.

Fasciola hepatica afecta principalmente al ganado ovino y bovino / Máximo López Sanz

Sin embargo, como en muchas enfermedades infecciosas, la prevención sigue siendo la clave y es necesario promover prácticas adecuadas de higiene (evitar la ingestión de alimentos y agua contaminada) para reducir la exposición a los parásitos y combatir así la enfermedad.

Como hemos visto, los parásitos son organismos fascinantes que han coexistido con el ser humano desde tiempos inmemoriales, en este caso a través de uno de sus principales sustentos: el ganado. Los estudios sobre los parásitos nos ofrecen una valiosa información sobre la biología y la evolución de sus hospedadores. Por ello, aunque los parásitos no son organismos bienvenidos, sin lugar a duda, nos brindan un gran conocimiento sobre las complejidades de la vida en nuestro planeta.

 

*Marta López García es investigadora del Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA-CSIC).  

 

Autofagia o cómo se elimina la basura de nuestras células

Por Laura Baños Carrión* (CSIC)

Desde que nos levantamos hasta que nos acostamos, los seres humanos generamos basura constantemente. Deshacernos de ella es un acto sencillo y cotidiano, y encontramos a pocos pasos de nuestras viviendas y trabajos algún contenedor donde poder tirarla.  Nuestras células también producen basura todo el tiempo, pero ¿cómo se deshacen de ella? El mecanismo que utilizan para mantenerse limpias es conocido como autofagia, un término que proviene del griego y que significa ‘’comerse a uno mismo’’.

La autofagia es la forma que tienen las células de mantenerse en condiciones óptimas y saludables, evitando que se acumulen productos de desecho que puedan afectar a su funcionalidad. Es un sistema de limpieza por el que, como si fueran una aspiradora, las células se tragan la suciedad, que en su caso serían todos aquellos componentes celulares y proteínas dañadas, que no funcionan correctamente o que simplemente ya no necesitan.

Un sistema de limpieza y reciclaje celular

En condiciones normales, este proceso ocurre a niveles basales, es decir, a unos niveles mínimos en los que se garantiza la calidad de la célula. Sin embargo, se ve incrementado ante situaciones de estrés o demanda energética. Sin oxígeno, la célula no tiene forma de obtener energía y por tanto la autofagia se ve incrementada para intentar ahorrar energía reutilizando componentes. Cuando escasean los nutrientes, se activa la autofagia y se forma una vesícula de doble membrana en el interior de la célula llamada autofagosoma. Es una especie de bolsa de basura celular que engloba los residuos (como las proteínas mal plegadas) y los envía a unos orgánulos celulares denominados lisosomas. En este momento, los lisosomas, gracias a su alto contenido en enzimas digestivas, son capaces de descomponer prácticamente cualquier tipo de material biológico en los pequeños elementos que lo forman.

Pero no hay nada que se desaproveche. Estas piezas descompuestas se convierten en nuevos componentes celulares que pueden volver a utilizarse. Por ejemplo, una proteína defectuosa se degradaría en aminoácidos, que pueden reutilizarse para formar una nueva proteína funcional en lugar de tener que ser sintetizados de cero, ahorrando así energía. Por lo tanto, la autofagia, además de ser un sistema de limpieza, también funciona como un sistema de reciclaje celular.

Existe un tipo de autofagia selectiva: la xenofagia. Detecta microorganismos que han entrado dentro de la célula, incluidos los virus y bacterias

Y todavía hay más. Existe un tipo de autofagia selectiva: la xenofagia, que detecta específicamente los microorganismos que han entrado dentro de la célula, incluidos los virus y bacterias, los engulle y los dirige a los autofagosomas para su posterior degradación. Es una forma de defensa frente a infecciones, eliminando los patógenos y activando a las células de nuestro sistema inmune. No obstante, algunos patógenos han aprendido a ‘hackear’ este sistema, utilizando los autofagosomas como sitios de replicación y/o proliferación.

¿Y si falla la autofagia?

Después de saber todo esto, parece que no podemos vivir sin autofagia. Y así es. Cuando este sistema no funciona correctamente, se acumula basura en las células, esto puede afectar a su funcionamiento y resultar muy perjudicial.  De hecho, se ha demostrado que cuando la autofagia está alterada (bien por inactivación o por hiperactivación) da lugar a algunas enfermedades neurodegenerativas, cardiovasculares, autoinmunes, metabólicas e incluso diversos tipos de cáncer.

La enfermedad de Lafora es un ejemplo en el que se produce un fallo en la autofagia, aunque en este caso dicha alteración no es la causa principal.  En el Instituto de Biomedicina de Valencia (IBV) del CSIC, investigamos esta enfermedad ultrarrara que apenas afecta a una persona cada millón de habitantes y que principalmente cursa con crisis epilépticas y neurodegeneración. Aparece en población infantil y juvenil y, desafortunadamente, provoca la muerte de los pacientes en apenas diez años desde la aparición de los primeros síntomas.

Aunque se piensa que la causa principal de la enfermedad es la acumulación de una forma anormal de glucógeno (la molécula donde el cuerpo almacena la glucosa para poder aprovecharla cuando tiene necesidad inmediata de obtener energía) en el cerebro y otros tejidos, existen alteraciones a otros niveles. Se han detectado fallos en la autofagia, pero todavía se desconocen los mecanismos moleculares por los que este proceso está desregulado en esta enfermedad.  La autofagia es un proceso muy controlado, a la vez que complejo, en el que participan muchas proteínas que hacen posible la formación de los autofagosomas y la posterior degradación lisosomal de los residuos celulares. Esto implica que la alteración de la autofagia puede venir por fallos a distintos niveles de control.

Al igual que la mayoría de las enfermedades raras, la enfermedad de Lafora no tiene cura. Existen más de 7.000 enfermedades raras y, a pesar de ser poco frecuentes, alrededor de 3 millones de personas en España padece alguna de ellas. Con la investigación, podremos conocer el mecanismo molecular y lograr tratamientos adecuados que permitan mejorar la calidad de vida de las personas afectadas e incluso ampliar su esperanza de vida y, quién sabe, quizá en un futuro poder curarla.

* Laura Baños Carrión es investigadora en el Instituto de Biomedicina de Valencia del CSIC.

Los servicios de ‘delivery’ en la Protohistoria: ¿cómo era el comercio sin Internet?

Por Guiomar Pulido-González* (CSIC)

Hoy en día, si tenemos dinero para comprar algo, sólo necesitamos coger nuestro móvil, buscarlo y encargarlo por Internet. La posibilidad de hacernos con cualquier objeto procedente del otro extremo del planeta nos parece un avance propio de nuestro tiempo. Sin embargo, es un error pensar que el mundo estrechamente interconectado en el que vivimos es un invento actual. Desde la Prehistoria los grupos humanos de territorios distantes han estado vinculados y han buscado el intercambio de recursos e ideas con otros grupos.

Vaso de cerámica jónica-milesia que representa al dios Aqueloo encontrado en la península ibérica (siglo VI – principios del siglo V a. C). / Museo de Arqueología de Cataluña, Girona.

Seguramente, una de las etapas más tempranas en las que este hecho es evidente es la época romana. En este momento, todo el continente europeo y la cuenca mediterránea quedaron conectados a través de una sofisticada red viaria. Pero esta situación es heredera de las conexiones establecidas a lo largo del periodo previo: la Protohistoria. En esta época anterior a la imposición romana (desde el siglo IX a.C. hasta el siglo III a.C. en la península ibérica) el mar Mediterráneo se convirtió en una autopista por la que circulaban mercancías y personas. Lo que actualmente hacen los servicios de Amazon y AliExpress en su momento lo hacían compañías de comerciantes con contactos en diversos puertos y núcleos interiores relevantes, que llevaban las importaciones allá donde las demandaban.

La península ibérica formó parte de esa tupida red de comunicaciones que la conectaba con los territorios al otro lado del mar: a sus costas llegaban productos procedentes de toda la cuenca mediterránea y, una vez allí, eran redistribuidos por el interior. Pero, teniendo en cuenta las enormes distancias que separaban unos lugares de otros y las dificultades para contactar con las personas que los habitaban, ¿cómo eran posibles estas comunicaciones?

Mapa de las principales rutas mediterráneas y algunas manufacturas representativas de los objetos que se comerciaban durante la Protohistoria

La importancia de tener contactos

En la Antigüedad, el tiempo para el comercio era la época estival, con mejores condiciones. En la movilidad comercial de la Protohistoria podemos diferenciar dos ámbitos: las rutas marítimas y las rutas interiores. Las rutas marinas eran más seguras y rápidas, ya que permitían transportar grandes cantidades de productos desde un punto a cualquier otro de la costa mediterránea. Además, la buena navegabilidad que presenta el Mediterráneo en primavera y verano facilitaba los desplazamientos.

No obstante, la logística se complicaba al descargar las mercancías en los puertos. Hay que tener en cuenta que en esta época las calzadas romanas todavía no se habían construido. Para desplazarse había que usar los pasos naturales de montaña, cruzando terrenos escarpados y transitando caminos de tierra por las llanuras. Y para ello, el mejor medio de transporte eran las mulas y los burros. Los caballos eran muy caros de mantener y los bueyes se empleaban sólo de manera ocasional porque eran mucho más lentos, a pesar de ser más fuertes.

Principales rutas comerciales de la península ibérica y cómo se articulaban a través de núcleos receptores (puntos negros) y redistribuidores (puntos blancos).

La siguiente incógnita es la red humana y comercial que posibilitó el movimiento de los productos por toda la península ibérica y el Mediterráneo. En un momento en el que los servicios de paquetería estaban lejos de ser imaginados, el sistema debía funcionar a través del tradicional “boca a boca”. Los contactos y amistades motivaban el movimiento de la mercancía y los intercambios entre diferentes núcleos.

Esta actividad generaba además una demanda y encargos de ciertos productos o materias. Un pedido no iba de un punto A a un punto B directamente, sino que debía pasar por una compleja red de intermediarios desde el lugar donde se producía la mercancía hasta donde se adquiría. Como reflejan las cartas comerciales de la época, que se han conservado gracias a que se realizaban sobre pequeñas láminas de plomo donde se registraban los intercambios, esta red se articulaba mediante el contacto de comerciantes de diversos núcleos, que establecían acuerdos, pagos a plazos, colaboraciones y recibían y reenviaban los cargamentos. De este modo, las distancias tan grandes que vemos en los mapas se acortaban gracias a la red humana.

Los pueblos de la península ibérica: ‘fashion victims’

Y, ¿qué compraban? Las importaciones mediterráneas que llegaban a la península ibérica procedían de diversos lugares alejados (Egipto, Túnez, Grecia o Italia). Gracias a la información aportada por la arqueología, a través de las cantidades de importaciones y su dispersión, podemos trazar las rutas comerciales que siguieron y saber qué productos estaban más de moda dependiendo del siglo. Así, sabemos que desde el siglo IX a.C. al VI a.C., lo que más se llevaba era lo “orientalizante”, es decir, elementos elaborados o con influencias del Mediterráneo Oriental. Por tanto, los objetos de lujo que se importaban eran joyas, marfiles y vajilla cerámica, que procedían de lo que actualmente es Chipre, Líbano, Siria y Egipto.

En el mundo íbero, la vajilla ática era un símbolo de riqueza y denotaba prestigio social. La crátera de campana era una de las piezas más prestigiosas y, probablemente, más costosas. / Museo de Arqueología de Cataluña, Girona.

Sin embargo, desde el siglo VI a.C. la zona oriental mediterránea entró en un momento de reajuste político y económico que motivó un cambio en los circuitos comerciales de la época. Principalmente Grecia tomó el testigo de foco comercial y productor de exportaciones; como ha ocurrido con China en la actualidad. Sus talleres cerámicos coparon el mercado desde mediados del siglo VI a.C. hasta mediados del siglo IV a.C. La vajilla procedente del Ática se convirtió en una de las importaciones más extendidas por toda la cuenca mediterránea, fenómeno al que la península ibérica no fue ajena.

Pero no todo pasaba de moda y era remplazado, sino que también existía una percepción parecida al actual concepto de “vintage” o “reliquia”. En contextos pertenecientes a esta segunda fase comercial se han encontrado objetos datados entre los siglos VII-VI a.C., como ungüentarios de perfume o elementos de marfil, lo que indica el valor añadido con el que se dotaba a esos objetos.

Placa de marfil perteneciente a la segunda fase comercial en la que se encontraron objetos datados entre los siglos VII-VI a.C

La dispersión de las importaciones nos ayuda a dibujar las rutas que habrían seguido los comerciantes, nos muestra los valles de los ríos y los corredores de las sierras que resultaron verdaderas autopistas por donde fluyeron las personas y las mercancías. Eran lugares muy lejanos unos de otros que quedaban comunicados por itinerarios de cientos de kilómetros y numerosos intermediarios que llevaron objetos e ideas por toda la cuenca mediterránea. Volviendo al punto de partida, esto demuestra que el mundo profundamente interconectado en el que vivimos no es un producto de la sociedad actual: los pedidos que hoy hacemos con el móvil, en época protohistórica podían conseguirse de igual modo, tan sólo con un buen mapa y una buena red de contactos.

*Guiomar Pulido-González es investigadora en el Instituto de Arqueología de Mérida del CSIC.

Cinéfila-mente: cómo el cine ha tratado el cerebro y las enfermedades mentales

Por Emilio Tejera (CSIC)*

 

Shakespeare liberó en La tempestad aquella mítica frase de “estamos hechos de la misma materia con la que se tejen los sueños”. Pero, de un siglo a esta parte, los “sueños” se fabrican sobre todo a partir de celuloide, luz, sonido y, últimamente, soporte digital. El cine siempre es un reflejo de la realidad y de su tiempo y, como tal, no podían faltar las referencias a nuestro cerebro y a las enfermedades mentales.

Al principio, de manera tímida. Es difícil establecer cuál fue la primera película que trató sobre las dolencias mentales: en 1908 hay una adaptación de El extraño caso del Dr. Jekyll y Mr. Hyde, obra donde Stevenson quería reflejar la dualidad del ser humano, pero que siempre se ha visto como una metáfora de los mal llamados trastornos de personalidad múltiple (mejor denominarlo “trastorno de identidad disociativo”). No obstante, fue en 1914 cuando apareció The woman of mistery, probablemente la película más antigua que trata de manera específica esta patología, y de las primeras que utiliza la enfermedad mental como argumento principal.

Fotograma de la película muda El gabinete del doctor Caligari, dirigida por Robert Wiene en 1920

Sin embargo, será en los años cincuenta o sesenta cuando empiezan a exponerse los trastornos mentales con todo su dramatismo, y entramos en las consultas de psiquiatras y psicólogos, en ocasiones con diagnósticos, patologías o métodos de tratamiento que no forman parte de la clínica habitual. En cintas como De repente el último verano, Recuerda, Matar a un ruiseñor, Las tres caras de Eva, Psicosis o La extraña pareja aparecen personajes con trastornos mentales. En estas historias, en general, se refleja muy bien la perspectiva de la época, donde se observa a los pacientes desde fuera, en ocasiones con un halo de condescendencia, y la figura del médico ocupa un papel central.

Un cambio de orientación

Progresivamente, el foco se va desplazando hacia la persona que sufre el problema: si Alguien voló sobre el nido del cuco señalaba las críticas a los centros psiquiátricos (en parte con un punto de injusticia), las ficciones modernas tratan de ponerse en la piel de los y las pacientes y, de hecho, la reciente serie Fácil destaca la importancia de la autonomía y de que las personas afectadas —bien tratadas y asesoradas— sean libres de decidir, en la medida de lo posible, acerca de su destino. A lo largo de este tiempo, determinadas ficciones (Rainman con los trastornos del espectro autista; Una mente maravillosa con la esquizofrenia; Memento con la amnesia anterógrada; El indomable Will Hunting con las altas capacidades intelectuales) han puesto de moda determinadas dolencias y condiciones que han empezado a abundar con profusión en el cine, y hasta han influido en la forma de presentación de estos trastornos y, por supuesto, en nuestra forma de tratar a quienes los padecen.

Las películas y series no siempre han sido rigurosas al tratar los problemas mentales: muchas veces se tergiversan o mezclan enfermedades, se simplifican las causas, los diagnósticos se hacen con un simple vistazo, los tratamientos duran días (en vez de años) y los pacientes se curan espontáneamente, a veces, por un golpe en la cabeza o por un impulso voluntario, fenómenos que por supuesto no suelen acaecer con mucha frecuencia. También se ha exagerado la asociación entre enfermedad mental y violencia hacia otras personas, cuando lo más común que los pacientes atenten contra sí mismos.

En ocasiones, le pedimos demasiado al cine: el film Adam reflejaba tan bien el síndrome de Asperger que se criticó que el protagonista fuera un paciente excesivamente “arquetípico”; en cambio, al personaje de Jack Nicholson en Mejor imposible se le reprochó que manifestara un carácter desagradable, que no tiene por qué estar asociado a los pacientes con trastorno obsesivo-compulsivo.

Al final, es difícil que una sola película resuma por completo un trastorno mental, igual que un solo paciente no puede representar a todo un colectivo. Cada persona es única, con sus particularidades y vivencias, algo que ya empiezan a reflejar las obras de ficción recientes, donde la enfermedad mental es un hecho normal que se cura o con el que en ocasiones se convive, que le puede ocurrir a cualquiera y para el cual siempre se puede pedir ayuda por parte de profesionales. Y que, a menudo, tiene su origen no tanto en quienes la sufren como en el entorno con el que nos ha tocado lidiar.

Carrie (1976) tiene el poder de la telequinesis, pero muchos de sus problemas proceden de la ansiedad que le provoca el bullying ejercido por sus compañeros de clase

 

Últimamente, en la sociedad se destaca mucho la importancia de la salud mental, y con razón: ojalá esto sirva para que cada vez haya más medios disponibles (incluyendo la todavía en desarrollo filmoterapia, que emplea el cine para ayudar a los pacientes). Al fin y al cabo, como suele decirse, la salud de una sociedad se define por cómo esta trata a sus enfermos. Y nos conviene que esta película, más que ninguna otra, acabe bien.

 

* Emilio Tejera es médico y bioquímico; trabaja como responsable de la Unidad de Biología Molecular y como miembro del área de Cultura Científica del Instituto Cajal (CSIC). Una expansión de este artículo en formato charla, puede encontrarse aquí.

 

 

 

Los pros y contras del alumbrado led en exteriores

Por Alicia Pelegrina* y Mar Gulis (CSIC)

Luminarias esféricas tipo balón de playa en las calles, farolas que cuelgan de fachadas de edificios o proyectores que iluminan los monumentos de tu ciudad. Estos son ejemplos de luz artificial en el alumbrado en exteriores, que se ha transformado notablemente en los últimos años debido al uso de lámparas led. Ahora bien, ¿qué han supuesto estos cambios? ¿Han sido todos positivos?

En este artículo comentaremos los pros y contras del alumbrado led, pero antes hagamos algunas precisiones.

La primera es que, aunque comúnmente hablemos de farolas como un todo, hay que diferenciar entre lámparas, es decir, la fuente emisora de luz, y luminarias, la estructura que contiene y soporta la lámpara.

La segunda es que para calibrar los efectos nocivos de combatir la oscuridad (la contaminación lumínica, por ejemplo) es fundamental tener en cuenta el tipo de luz artificial del alumbrado de exteriores y su orientación. Las lámparas menos contaminantes son las que emiten luz del espectro visible al ojo humano con mayores longitudes de onda. Por ejemplo, las lámparas que emiten una luz anaranjada, porque es la que menos se dispersa en la atmósfera. Y las luminarias más respetuosas son aquellas que no emiten luz en el hemisferio superior. De esta forma minimizan su impacto en el aumento del brillo del cielo nocturno.

El problema de los ledes blancos

Con su aparición en el mercado, se fabricaron muchísimos dispositivos led, que se vendieron como solución frente al despilfarro energético del alumbrado público. Y es cierto: se produjeron ledes blancos que ahorran mucha energía en comparación con las lámparas de vapor de sodio, que eran las que antes inundaban las calles. Sin embargo, no se tuvo en cuenta que la luz blanca es la más contaminante desde el punto de vista de la contaminación lumínica, ya que es la que se dispersa con mayor facilidad en la atmósfera y la que más afecta al equilibrio de los ecosistemas y a nuestra salud.

Por ello, con el paso del tiempo, se vio que esa luz no era la más adecuada. Había que buscar dispositivos led de un color más cálido. El problema es que la eficiencia energética de los ledes ámbar, más anaranjados y cálidos, es prácticamente la misma que la que tenían las lámparas de vapor de sodio de alta y de baja presión anteriores.

Entonces, ¿ha servido para algo este cambio? Desde el punto de vista de la contaminación lumínica, el cambio a lámparas led blancas ha agravado el problema. Y, en cuanto a la eficiencia energética, ha provocado un efecto rebote: el ahorro energético que supone el uso de esta tecnología ha llevado a los responsables del alumbrado público a instalar más puntos de luz o a mantener más tiempo encendidos los que ya existían.

Por tanto, si queremos evitar la contaminación lumínica, debemos utilizar lámparas led ámbar para, al menos, poder beneficiarnos de las ventajas que tiene esta tecnología reciente frente a las lámparas de vapor de sodio que se utilizaban antes.

Las ventajas que sí tiene la tecnología led

Una de estas ventajas es que podemos escoger el color de la luz que emiten las lámparas, lo que permite diseñar espectros a la carta. Por ejemplo, podríamos definir el espectro más adecuado para un espacio natural protegido en el que haya una especie de ave migratoria específica que tenga una sensibilidad especial a una longitud de onda determinada del espectro. Así disminuirían los impactos negativos de la luz en algunas especies.

Una segunda ventaja de las lámparas led es que, al apagarse y encenderse, alcanzan su actividad máxima muy rápido. Existen otro tipo de lámparas que, desde que se encienden hasta que alcanzan un nivel adecuado de iluminación, necesitan un tiempo mayor. Esta particularidad de las lámparas led nos permite utilizar sistemas complementarios como los sensores de presencia o los reguladores de intensidad, que hacen que las luces no tengan que estar permanentemente encendidas pero que, cuando sea necesario, lo estén a su máxima potencia.

Por último, una tercera ventaja de la tecnología led es que podemos regular su intensidad. Esto nos permite adaptar el sistema de iluminación a las diferentes horas del día y a la actividad que estemos haciendo, evitando así que las calles sin transeúntes estén iluminadas como si fueran las doce del mediodía.

Estas ventajas pueden suponer un avance con respecto al uso de las anteriores lámparas, con las que este tipo de adaptaciones o sistemas de control no se podían aplicar. Pero no olvidemos que siempre deben ser lámparas led ámbar y evitar en todo caso las lámparas led blancas.

Se trata, por tanto, de que iluminemos mejor, de una forma más sostenible, evitando la emisión de la luz de forma directa al cielo. Y que la cantidad de luz sea solo la necesaria para lo que necesitamos ver, en los rangos espectrales en los que nuestros ojos pueden percibirla y en un horario adecuado.

 

*Alicia Pelegrina es responsable de la Oficina Técnica Severo Ochoa del Instituto de Astrofísica de Andalucía del CSIC y autora del libro La contaminación lumínica de la colección ¿Qué sabemos de? (CSIC-Catarata).

Copérnico: el canónigo que revolucionó el mundo después de muerto

Por Pedro Meseguer* (CSIC)

En los talleres de narrativa se insiste en que, en un relato, el autor o la autora ha de proporcionar una forma original de ver el mundo. Pero eso no es exclusivo de la literatura, ni siquiera de las humanidades: también sucede en la ciencia. Este año se cumple el 550 aniversario del nacimiento de Nicolás Copérnico (1473-1543), un personaje esencial en la renovación astronómica de los siglos XVI y XVII. Revolucionó la ciencia europea (entonces se denominaba “filosofía natural”) porque tuvo el atrevimiento de romper con el pasado al interpretar el movimiento de los astros de una manera inédita, diferente.

Astrónomo Copérnico, de Jan Matejko (1873)

Astrónomo, canónigo y médico

Nacido en Torun (Polonia), Nicolás era el menor de cuatro hermanos. Su madre murió a los pocos años y, cuando él había cumplido diez, también falleció su padre. De su educación se ocupó su tío Lucas, un duro sacerdote canónigo en una ciudad vecina. En la universidad de Cracovia estudió astronomía, y entró en contacto con el modelo geocéntrico —en donde el Sol giraba en torno a la Tierra— de Ptolomeo, aunque Copérnico se sentía incómodo con él. Viajó a Italia y continuó su formación en la universidad de Bolonia. Y posiblemente allí tuvo una revelación —en su libro Copérnico, John Banville la cuenta así—: “…había estado analizando el problema desde una perspectiva errónea […]. Si consideraba al Sol como el centro de un universo inmenso, los fenómenos observados en los movimientos de los planetas que habían intrigado a los astrónomos durante milenios, se volvían perfectamente racionales y evidentes…”.

A partir de ese momento, Copérnico se ocupó en construir un nuevo modelo astronómico con el Sol en el centro, en torno al cual giraban los planetas en órbitas circulares. Sin embargo, difundió sus concepciones con mucha cautela, tanta que también podría decirse que las escondió. Volvió de Italia y siendo seglar consiguió una canonjía en Fraudenburg con la ayuda de su tío el entonces obispo Lucas —había ascendido—, que gobernaba Ermeland (un protectorado del reino de Polonia). Allí se dedicó a las obligaciones de trabajo mientras cultivaba en privado su modelo astronómico. También ejerció la medicina y solventó cuestiones económicas.

Pero, años después de la experiencia italiana, publicó su Commentariolus, un cuadernillo resumen de sus ideas que lanzó a modo de ‘globo sonda’ y que, para su tranquilidad, no generó reacciones adversas. Al final de su vida, urgido desde varias instancias, se avino a publicar su modelo de forma completa. Su libro De revolutionibus orbitum coelestium (Sobre las revoluciones de las esferas celestes) vio la luz en 1543, muy cercano al día de su muerte.

Un libro que inspiró a Kepler, Galileo y Newton

Antes de Copérnico, imperaba el arquetipo astronómico geocéntrico desarrollado por Ptolomeo en el siglo II. Era un modelo farragoso, ya que obligaba a utilizar epiciclos para encajar las observaciones. Sin embargo, tenía una ventaja extracientífica: al colocar la Tierra inmóvil, con los planetas y el Sol girando en torno a ella, se reforzaba el concepto del ser humano como el centro de la creación. La iglesia católica hallaba adecuada esta interpretación en consonancia con El libro del Génesis: el universo conocido giraba en torno a la más excelsa obra de Dios, el ser que habitaba la Tierra.

Cuando su libro De revolutionibus se extendió, Copérnico ya había muerto. Esta circunstancia fue beneficiosa no solo para él, que obviamente no fue perseguido, sino para la obra misma, porque permaneció como una mera hipótesis: el libro era muy técnico, comprensible únicamente por astrónomos avanzados y solo entró en el índice de libros prohibidos tras el proceso a Galileo.

Esto permitió que astrónomos posteriores como Johannes Kepler (1571-1630) o Galileo Galilei (1564-1642) pudieran formarse con ese modelo y después realizar aportaciones muy relevantes. Basándose en él y manejando una buena cantidad de observaciones, Kepler postuló sus tres leyes: los planetas describían órbitas elípticas con el Sol en uno de sus focos, barrían áreas iguales en tiempos iguales y los cuadrados de los periodos de las órbitas eran proporcionales al cubo de sus distancias al Sol.

Galileo alcanzó a ir más allá: con el telescopio de su invención —a partir de un prototipo desarrollado por un constructor de lentes holandés— descubrió los satélites de Júpiter, que orbitaban en torno al planeta. Eso era más de lo que la iglesia católica podía soportar. Kepler, un luterano en reinos católicos, estaba lejos de Roma, pero Galileo se hallaba en Italia, cerca del Papa. Fue procesado por la Inquisición, pero astrónomos ulteriores trabajaron a partir de sus resultados. En particular, Newton (1642-1727) descubrió la ley de la gravitación universal apoyándose, entre otros, en las contribuciones de Kepler y Galileo.

Modelo heliocéntrico propuesto por Copérnico

Los mitos caen de su pedestal

En dos centurias el modelo geocéntrico fue reemplazado por el heliocéntrico. Además, la observación del Sol o de las estrellas se popularizó en los siglos siguientes por la navegación marítima. Esto estimuló una formación astronómica básica en donde la experimentación jugaba un papel central y a su vez consolidó la aceptación general del modelo heliocéntrico.

El impacto de las ideas lanzadas por Copérnico fue enorme, tanto en el nivel científico como en el filosófico, y de larga permanencia. La Tierra dejaba de ser el centro del universo: era un astro más, sometida a las mismas leyes que los demás cuerpos celestes.

Esa concepción estaba a un paso de que el ser humano también cayera de su pedestal, lo que sucedió con las obras de medicina que lo asemejaban a otros seres vivientes. En su libro Los errantes, Olga Tokarczuk (Premio Nobel de Literatura 2018) lo refleja muy bien: “La nueva era comenzó […] en aquel año cuando aparecieron […] De revolutionibus orbitum coelestium de Copérnico y […] De humanis corporis fabrica de Vesalio. Naturalmente, estos libros no lo contenían todo […] Sin embargo, los mapas del mundo, tanto el exterior como en interior, ya estaban trazados”.

Así, en 1543 se sentaron las bases de lo que sería la ciencia moderna. Comenzó un proceso de desmitificación progresiva, que se inició cuando la Tierra dejó de ser el centro del universo, siguió con el ser humano abandonando la cúspide de la creación, continuó con una Europa descabalgada del centro del mundo y llega hasta nuestros días. Una evolución que arrancó con las investigaciones de Copérnico y se ha propagado hasta hoy, donde es moneda corriente cuestionar los roles que han sido dominantes durante siglos en nuestra visión del mundo.

 

*Pedro Meseguer es investigador en el Instituto de Investigación en Inteligencia Artificial del CSIC.