¡Ven al cine de verano del CSIC en Madrid!

Por Mar Gulis (CSIC)

Ya es verano, se acerca julio, hace calor. El asfalto a veces se transforma en una gran sartén y quienes no hemos podido salir aún de vacaciones buscamos pequeños oasis en la ciudad donde refugiarnos y pasar un buen rato del modo más refrescante posible.

Este año, ciencia y cultura confluyen en CSIC de Cine, un ciclo de cine de verano que tendrá lugar en el campus central del organismo en Madrid. Los exteriores de su mítico ‘edificio de las columnas’ han sido escenario de rodajes variopintos, como la película Marco Antonio y Cleopatra (1972), donde se convirtieron en el palacio de la reina de Egipto; o la exitosa serie La casa de papel, que los transformó en la Fábrica Nacional de Moneda y Timbre.

Fachada del edificio central del CSIC, en c/ Serrano 117 de Madrid (España), construido en 1943. / Wikimedia – Luis García

Ahora, este entorno tan especial albergará la proyección de tres estrenos recientes y una película infantil centradas en temas sobre los que la ciencia y la filosofía tienen mucho que decir: Don’t Look Up (1 de julio), Alcarràs (8 de julio), Atrapa la bandera (15 de julio) y El buen patrón (22 de julio).

Los pases serán los cuatro primeros viernes de julio, a las 21:00h, y cada proyección será introducida por especialistas del CSIC en diversos ámbitos. Todas las sesiones serán al aire libre y gratuitas: solo tienes que reservar tus entradas a través de este enlace y venir a disfrutar del séptimo arte en un entorno privilegiado, en el corazón del Barrio de las Ciencias.

La desastrosa gestión de un desastre

Leonardo DiCaprio y Jennifer Lawrence encarnan en la película Don’t look up, dirigida por Adam McKay, a dos científicos que tratan de advertir sobre una amenaza devastadora: la inminente colisión de un meteorito contra la Tierra. Pero el filme no se centra en el hecho astronómico en sí, sino en su más que cuestionable gestión política y mediática. ¿Te recuerda a algo? De ello hablarán Margarita del Val (Centro de Biología Molecular Severo Ochoa, CSIC-UAM), conocida por su labor de divulgación durante la pandemia de covid-19, y Fernando Valladares (Museo Nacional de Ciencias Naturales, CSIC), experto en cambio climático, en la introducción al pase de la película. Será en el estreno del ciclo: el 1 de julio de 2022 a las 21:00h en el campus central del CSIC.

 

Afrontar el estío con cine, ciencia y pensamiento

El ciclo continuará el siguiente viernes, 8 de julio, con la película Alcarràs, de Carla Simón, reciente ganadora del Oso de Oro del Festival de Berlín 2022 y que retrata a una familia de agricultores en su última cosecha, poco antes de que en su parcela se instalen placas solares. El físico y experto en energía Antonio Turiel (Instituto de Ciencias del Mar, CSIC) y la especialista en agricultura y alimentación Marta G. Rivera Ferre (INGENIO, CSIC-UPV) comentarán la película.

El 15 de julio será el turno del cine de animación con la proyección de Atrapa la bandera, de Enrique Gato, una aventura espacial para toda la familia que será introducida por el astrofísico Daniel Guirado (Instituto de Astrofísica de Andalucía, CSIC), que ofrecerá un espectáculo lúdico e interactivo dirigido a las y los más pequeños.

La película que cerrará el ciclo el 22 de julio será El buen patrón, de Fernando León de Aranoa. Protagonizada por Javier Bardem, que interpreta a un industrial de provincias en busca del éxito empresarial a toda costa, servirá a la filósofa Remedios Zafra (Centro de Ciencias Humanas y Sociales, CSIC) como punto de partida para hablar de precariedad laboral y desigualdad de género.

Las sesiones del ciclo CSIC de Cine serán los cuatro primeros viernes del mes de julio, a las 21:00h

Todas las películas, salvo la primera, tendrán subtitulado accesible para personas sordas y los encuentros, que podrán seguirse en directo a través del canal de CSIC Divulga, contarán con intérpretes en lengua de signos española.

Recuerda que las sesiones serán gratuitas, pero precisan de reserva previa. La apertura de puertas será a las 20:45 horas y el cierre a las 21:15 horas. Las plazas se ocuparán por orden de llegada. La entrada al campus central del CSIC está ubicado en la calle Serrano, 123 (Madrid), accesible en transporte público desde diversas líneas de Metro y autobús.

CSIC de Cine es un proyecto de divulgación del CSIC impulsado por el área de Cultura Científica y Ciencia Ciudadana del CSIC, con el apoyo de la Fundación Española para la Ciencia y la Tecnología (FECYT) – Ministerio de Ciencia e Innovación.

Ultraprocesados en la salud y la enfermedad

Por Javier Sánchez Perona* y Mar Gulis (CSIC)

Todos los días de nuestra vida. Están en medios de comunicación, en las redes sociales y, por supuesto, en las estanterías de los supermercados. A veces, incluso en detrimento de la fruta o las verduras y otros alimentos frescos. Parece que los alimentos ultraprocesados han llegado para quedarse.

Se conservan durante largos periodos de tiempo y no precisan de habilidades culinarias. / Pexels

En una época en la que parece no haber tiempo para nada, este tipo de productos nos ofrecen una alternativa sencilla y económica para llenar nuestro estómago que no requiere previsión. Además, los ultraprocesados se conservan durante largos periodos de tiempo y no precisan de habilidades culinarias. Sin embargo, pese a sus aparentes ventajas, no podemos olvidar que incluirlos en nuestra dieta de forma habitual puede pasarnos factura y provocar efectos perjudiciales en nuestra salud.

Pero, ¿qué es exactamente un alimento ultraprocesado? Si comparamos un alimento fresco, como carne, pescado o verdura, con un producto listo para consumir, como bollería o una pizza, tendríamos pocas dudas, pero no siempre resulta tan obvio distinguir los productos que pertenecen a esta categoría de los que no. El investigador brasileño Carlos Augusto Monteiro, el primero en introducir el término ‘ultraprocesado’, establece el sistema NOVA, una clasificación de alimentos según su grado de procesamiento:

  • Grupo 1: alimentos sin procesar o mínimamente procesados para su conservación, con el fin de hacerlos más seguros y aptos para su almacenamiento.
  • Grupo 2: ingredientes culinarios elaborados, como los aceites, la mantequilla, el azúcar o la sal.
  • Grupo 3: alimentos procesados, como pescado en conserva o frutas en almíbar, la versión modificada de los alimentos del grupo 1.
  • Grupo 4: alimentos ultraprocesados, entre los que incluye aceites hidrogenados, proteínas hidrolizadas o jarabe de maíz con alto contenido de fructosa, entre muchos otros. Los alimentos de este grupo se caracterizan por tener un elevado contenido en azúcares, grasas saturadas o sal, así como aditivos que pretenden imitar o mejorar las cualidades sensoriales de los alimentos o disfrazar aspectos desagradables.

Para identificar un producto como ultrapocesado tendríamos que verificar si la lista de ingredientes de la etiqueta contiene alguno de los alimentos mencionados en este último bloque. Sin embargo, es complicado asumir que todos los alimentos del grupo 4 son igualmente perjudiciales para la salud. Es un grupo muy heterogéneo en el que caben tanto galletas de chocolate como un producto lácteo con base de soja.

Los ultraprocesados son formulaciones elaboradas a partir de sustancias derivadas de alimentos y aditivos. / Pexels

En realidad, esta clasificación sirve más a la comunidad científica que a las personas no expertas. Para esta amplia mayoría, quizá pueda servir como guía saber que los alimentos ultraprocesados son formulaciones elaboradas a partir de sustancias derivadas de alimentos y aditivos, en los que no se pueden identificar otros alimentos en su forma original y que son ricos en grasas, sal o azúcar, además de tener poca fibra dietética, proteínas, vitaminas y minerales. La presencia en los ingredientes de aditivos como glutamato u otros compuestos como espesantes, aglutinantes, aromas o colorantes, que no suelen estar en las cocinas de nuestras casas, es otro indicativo de que estamos ante un alimento ultraprocesado.

Obesidad, diabetes o enfermedades cardiovasculares

Más allá de las etiquetas, lo importante es saber cómo los ultraprocesados afectan a nuestra salud. Aquí tienes algunas claves.

Obesidad. Según la Organización Mundial de la Salud, la obesidad se produce por una acumulación anormal o excesiva de grasa en el cuerpo. Diferentes estudios han demostrado que el consumo de dulces, carnes procesadas, patatas fritas y bebidas azucaradas está estrechamente relacionado con el aumento de peso en adultos estadounidenses. Sin embargo, hasta muy recientemente no se había evaluado la relación entre el grado de procesamiento de los alimentos y el sobrepeso. Los resultados de las investigaciones apuntan a que las probabilidades de sufrir sobrepeso aumentan en torno a un 37-39% entre las personas que los consumen.

A pesar de lo contundente que puede parecer esta cifra, no hay suficiente evidencia científica para establecer relaciones de causalidad, ya que existe un número importante de estudios observacionales pero muy pocos ensayos clínicos. Estos últimos son mucho más complejos de realizar y diseñar con alimentos que con fármacos. Es relativamente fácil comparar un medicamento con un placebo porque para quien lo consume resulta imposible distinguir uno de otro, pero eso no ocurre con los alimentos. Por ejemplo, en un estudio en el que quisiéramos comparar el efecto en la salud del aceite de oliva virgen extra y el aceite de pescado, el olor descubriría cuál de ellos está recibiendo cada grupo experimental. Siempre se pueden emplear cápsulas para enmascarar las características sensoriales de los alimentos empleados, pero eso tiene poco que ver con la alimentación. Además, tampoco podemos olvidar los condicionantes éticos. Si la hipótesis del estudio considera que un alimento o dieta puede perjudicar a uno de los grupos del ensayo, probablemente el comité de ética no aprobará la investigación.

Más allá de las etiquetas, lo importante es saber cómo los ultraprocesados afectan a nuestra salud. / Pixabay

Síndrome metabólico. Este trastorno del metabolismo no se manifiesta en síntomas aparentes, pero puede aparecer en un chequeo habitual. En España, casi una tercera parte de la población lo tiene, y conlleva el doble de riesgo de sufrir una enfermedad cardiovascular. Según un estudio observación realizado en Estados Unidos, las personas que consumen ultraprocesados tienen una tasa de síndrome metabólico un 28% mayor que quienes lo hacen en menor medida.

Diabetes tipo 2. Un estudio realizado por el propio Monteiro concluyó que las personas con mayor consumo de ultraprocesados tenían un 44% más de riesgo de padecer esta enfermedad asociada a desequilibrios nutricionales.

Enfermedades cardiovasculares. La mortalidad causada por estas patologías –las que más fallecimientos provocan en el mundo– está asociada tanto a un alto consumo de grasas saturadas y azúcar en la dieta como a una baja ingesta de cereales integrales y fruta . De hecho, se registran más muertes debido a una alimentación deficiente que al tabaco. Según un estudio estadounidense realizado en 2019, por cada aumento del 5% en las calorías procedentes de alimentos ultraprocesados que consumía una persona, había una disminución equivalente en la salud cardiovascular. Las personas que obtenían el 70% de las calorías consumidas de alimentos ultraprocesados tenían la mitad de probabilidades de tener buena salud que las personas que obtenían el 40% o menos.

Enfermedades neurodegenerativas. Una alimentación deficiente también aumenta el riesgo de desarrollar una demencia. Las grasas saturadas o el azúcar se han asociado con la probabilidad de padecer Alzhéimer, aunque no se haya estudiado la relación directa. Sin embargo, sí se ha evaluado la relación indirecta a través de la microbiota intestinal: los desequilibrios en la producción de ácidos grasos de cadena corta en la microbiota intestinal son posibles factores de riesgo en el desarrollo de estas enfermedades; y el consumo de alimentos ricos en azucares y grasas saturadas afecta a la composición de la microbiota.

Todavía es mucho lo que tenemos que investigar y clarificar acerca de la relación de los ultraprocesados con la salud. En cualquier caso, como decíamos al comienzo, no parece descabellado recomendar un consumo moderado de este tipo de alimentos y, aún más importante, no dejar de incluir en nuestra dieta frutas, verduras y otros productos frescos.

 

* Javier Sánchez Perona es investigador del CSIC en el Instituto de la Grasa y autor de libro Los alimentos ultraprocesados (CSIC-Catarata). Su blog es www.malnutridos.com y se le puede encontrar en redes sociales como @malnutridos.

El Mar Menor y su trayectoria hacia el colapso

Por Juan Manuel Ruiz Fernández* y Mar Gulis (CSIC)

En primavera de 2016 las concentraciones de clorofila en el Mar Menor multiplicaron por más de 100 los valores medios de las últimas dos décadas, habitualmente inferiores a un microgramo por litro. Este excepcional y explosivo crecimiento de fitoplancton (seres vivos capaces de realizar la fotosíntesis que viven flotando en el agua) lo protagonizaba una cianobacteria del género Symbiodinium sp, un conocido disruptor del funcionamiento de los ecosistemas acuáticos.

La ausencia de luz generada por la acumulación de esta cianobacteria causó en los meses siguientes la pérdida del 85% de las praderas de plantas acuáticas (los denominados macrófitos bentónicos) que tapizaban de forma casi continua los 135 km2 del fondo de la laguna.

Las aguas extremadamente turbias del Mar Menor han causado la desaparición del 85% de las praderas de la planta marina ‘Cymodocea nodosa’, fundamental para el funcionamiento del ecosistema lagunar. / Javier Murcia Requena

Esto supuso la movilización de miles de toneladas de carbono y nutrientes por la descomposición de la biomasa vegetal y del stock almacenado en el sedimento durante décadas; un proceso que, a su vez, retroalimentó el crecimiento del fitoplancton y prolongó la duración de este episodio de aguas turbias sin precedentes. Todo apuntaba que se estaban atravesando los umbrales ecológicos, a partir de los cuales los ecosistemas sometidos a una presión creciente colapsan y se precipitan bruscamente hacia un estado alterado que puede incluso ser tan estable como el estado anterior. Pero, ¿cómo ha llegado este singular ecosistema a una situación tan extrema?

Una laguna hipersalina

En primer lugar, es necesario conocer un poco el marco ambiental. El Mar Menor es una albufera hipersalina conectada a una cuenca vertiente de 1.300 km2. Sin embargo, de acuerdo con el carácter semi-árido del sureste peninsular, no hay ríos que desembocan en él. Las únicas entradas de agua dulce son las aportadas por escorrentía superficial durante unos pocos eventos de lluvias torrenciales cada año, y unas entradas más difusas de aguas subterráneas.

Las escasas entradas de agua dulce y una limitada tasa de intercambio con el Mediterráneo (en promedio, la tasa de renovación del agua del Mar Menor es de 1 año) explican la elevada salinidad de esta laguna costera. Antes de la década de 1970 la salinidad era incluso superior, pero disminuyó debido a la ampliación del canal del Estacio, una de las cinco golas (o conexiones) naturales entre el Mar Menor y el Mediterráneo. Desde entonces, los valores medios se han mantenido entre 42 y 48 gramos de sal por litro.

Dragados y vertidos de aguas residuales

El flujo a través de este canal gobierna ahora el régimen hidrodinámico de la albufera. Su dragado es considerado uno de los hitos principales de la transformación del Mar Menor por la acción humana.

Básicamente, se argumenta que favoreció la entrada y dispersión de especies mediterráneas y el declive de algunas especies lagunares de flora y fauna. Por ejemplo, uno de los organismos que vio favorecida su dispersión en los fondos de la laguna fue el alga oreja de liebre (Caulerpa prolifera), una especie oportunista capaz de aprovechar los nutrientes de forma muy eficiente y ocupar grandes extensiones en breves periodos de tiempo. Se considera que la oreja de libre tiene la capacidad de desplazar competitivamente a las especies nativas, como Cymodocea nodosa, que también forma praderas en el fondo de la laguna.

La oreja de liebre es un alga verde que cubre todo el fondo de la laguna, y es capaz de realizar grandes desarrollos en muy poco tiempo. En las praderas marinas del Mar Menor abundaba el bivalvo gigante del Mediterráneo o Nacra, especie ahora en peligro de extinción en todo el Mediterráneo. / Javier Murcia Requena

No obstante, alguno de los efectos negativos achacados al cambio de régimen hidrológico sobre las comunidades biológicas podría haber sido exagerado o carente de suficiente evidencia científica. A modo de ejemplo, se ha obtenido nueva evidencia que apunta a que las praderas de C. nodosa no solo no experimentaron un declive tras la propagación de Caulerpa, sino que ambas especies han coexistido con una elevada abundancia durante al menos las cuatro décadas anteriores al colapso ecosistémico.

Este incremento en la abundancia de organismos fotosintéticos implica la existencia de una elevada disponibilidad de nutrientes, condición que se cumplía con creces en el momento de la propagación del alga debido a los vertidos de aguas residuales sin depurar al Mar Menor. Por tanto, no solo el cambio en el régimen hidrológico es clave para entender este proceso de transformación del ecosistema de la laguna, sino también los excesos de nutrientes procedentes del desarrollo urbano y turístico.

Agricultura intensiva

En la década de los 1990 se completan los sistemas de tratamiento de aguas residuales en la zona, que dejan de ser vertidas al Mar Menor (a costa de ser desviadas al Mediterráneo). Pero con esto no desaparecen los problemas relacionados con el exceso de nutrientes en la albufera, sino que persisten, e incluso se intensifican, por el desarrollo de la agricultura de regadío que se inicia den la década de 1950.

Este modelo de agricultura va progresivamente reemplazando a la tradicional agricultura de secano a expensas de la sobreexplotación de las aguas subterráneas. Para soportar y aumentar este desarrollo, en 1979 se crea el transvase entre las cuencas del Tajo y del Segura, el siguiente hito clave en la transformación y el deterioro del Mar Menor.

Los recursos hídricos trasvasados eran insuficientes para sostener el crecimiento de dicha producción y tuvieron que ser complementados con las aguas subterráneas que, al ser salobres debido a la sobreexplotación previa, debían ser tratadas en plantas desaladoras cuyos vertidos, con hasta 600 miligramos de nitrato por litro, acababan en la laguna. Esta intensa actividad agrícola causó además un aumento en la recarga del acuífero y en sus niveles de contaminación por nitratos (150 mg/l), que se tradujo en un aumento de los flujos de aguas subterráneas altamente cargadas en nitrógeno al Mar Menor.

40 años de resiliencia

¿Cómo es posible que esta entrada masiva de nutrientes durante décadas no se haya visto reflejada en un deterioro aparente del ecosistema? Al menos hasta 2016, la laguna mantuvo unas aguas relativamente transparentes y unos fondos dominados por notables comunidades de plantas marinas. ¿Qué hizo que el crecimiento explosivo del fitoplancton se mantuviera ‘a raya’ y las aguas no se enturbiaran?

Uno de los mecanismos que pueden explicar la resiliencia del ecosistema es la función de filtro de partículas y nutrientes que realiza la vegetación del fondo marino. Otro son los desequilibrios en las proporciones de nitrógeno o fósforo.

Cuando los nutrientes no son limitados, la proporción de estos elementos en el fitoplancton suele ser de 16 unidades de nitrógeno por una de fósforo. Las aguas contaminadas por la actividad agrícola están cargadas de nitrógeno, pero apenas tienen fósforo. Y, aunque el fósforo es abundante en las aguas residuales urbanas, este tipo de vertido ya no se realiza en la laguna, al menos intencionadamente. Por tanto, en la actualidad, la principal vía de entrada del fósforo al Mar Menor son las toneladas de tierra arrastradas por la escorrentía superficial desde las parcelas agrícolas durante episodios de lluvias torrenciales. En la DANA de 2019 se estimó que, junto a los 60 hectómetros cúbicos de agua que llegaron a la laguna, entraron también entre 150 y 190 toneladas de fosfato disuelto.

Por ello, mientras que los aportes de nitrógeno son más continuados en el tiempo, los de fósforo son puntuales y esporádicos, limitados a unos pocos eventos anuales. A esto hay que añadir que, una vez entran en la laguna, estos fosfatos son inmediatamente absorbidos por la vegetación y/o fijados en los sedimentos. Estas diferencias en la dinámica de ambos elementos podría explicar que, aunque ambos entran de forma masiva en la laguna, las ocasiones en que sus proporciones son adecuadas para el desarrollo del fitoplancton son limitadas.

Un ecosistema alterado e inestable

El colapso del ecosistema lagunar en 2016 supuso la pérdida y/o el profundo deterioro de buena parte de los mecanismos de resiliencia y de sus servicios ecosistémicos. Así lo sugieren otros importantes hitos, como la pérdida del 85% de la extensión total de las praderas de plantas en el fondo de la laguna y del 95% de la población de Pinna nobilis, una especie de molusco bivalvo endémica del Mediterráneo. Estas pérdidas, que no muestran apenas síntomas de recuperación hasta la fecha, son claros exponentes del grado de alteración del ecosistema.

Antes del colapso ecosistémico las poblaciones de caballito de mar parecían estar recuperándose, pero el deterioro actual del ecosistema las hace estar próximas a la extinción local. / Javier Murcia Requena

Aunque carecemos de datos para valorar esta alteración de forma más global, se ha observado un régimen mucho más inestable respecto a décadas anteriores, más vulnerable a los cambios del medio, con mayores fluctuaciones de sus condiciones ambientales. La frecuencia de eventos de crecimiento explosivo del fitoplancton como el de 2016 ha aumentado claramente, y ahora los periodos de aguas turbias se alternan con los de aguas más turbias y coloreadas.

A diferencia de épocas pasadas, en estos periodos se pueden producir episodios de déficit de oxígeno hasta niveles que comprometen la vida marina y que han resultado en mortalidades masivas de organismos marinos, como se ha observado en episodios muy recientes.

En agosto de 2021 el agotamiento del oxígeno en el agua alcanzó niveles tóxicos para la vida marina, lo que provocó la mortalidad masiva de peces, moluscos y crustáceos. / Javier Murcia Requena

Se trata de eventos muy extremos y propios de sistemas costeros en etapas muy avanzadas del proceso de eutrofización (presencia excesiva de nutrientes). No obstante, desconocemos todavía los factores y mecanismos por los cuales se desencadenan todos estos eventos, algunos de los cuales se producen incluso sin que vayan precedidos de un incremento de las concentraciones de nutrientes en el agua.

*Juan Manuel Ruiz Fernández es investigador del CSIC en el Instituto Español de Oceanografía

¿Qué pasa en el cerebro cuando morimos?

Por Óscar Herreras* y Mar Gulis (CSIC)

¿Qué actividad cerebral hay en un coma profundo? ¿Y durante un ictus? ¿Qué pasa en el cerebro cuando nos morimos? Para acercarnos a estas delicadas cuestiones solo contamos con los registros de la actividad eléctrica de las neuronas, el electroencefalograma (EEG), una medida de la actividad cerebral que constituye un indicador de cómo de despierto está un paciente al salir de una anestesia, por ejemplo, o para conocer cómo de profundo es un coma.

La actividad cerebral que se refleja en un EEG durante un coma profundo es nula (EEG plano). Sin embargo, en el momento de la muerte de algunos enfermos que estaban en la UCI se ha podido registrar una actividad eléctrica cerebral que dura entre 20 y 30 segundos y que algunos han querido interpretar como un «despertar antes de la muerte». Profesionales sanitarios comentan que a veces han observado gestos faciales de mirada al vacío y expresión apacible, lo que ha alimentado ciertas especulaciones que unos y otros relacionan con la experiencia vital o religiosa. Sin embargo, esto no ocurre de forma general, ni podemos asegurar que los rasgos faciales reflejen una sensación real de la persona en tránsito. Ni siquiera podemos asegurar que esa actividad eléctrica sea neuronal, podría ser muscular. Porque realmente…  ¿qué ocurre en el cerebro cuando morimos?

La información sobre la muerte cerebral en personas es muy escasa, y los registros del EEG en pacientes solo nos dan un reflejo de lo que ocurre en las capas más externas del cerebro, la corteza cerebral. No obstante, podemos acercarnos mucho a este proceso si nos fijamos en la investigación neurofisiológica que explora formas de disminuir o evitar el daño cerebral que sobreviene tras un ictus o una parada cardiorrespiratoria transitoria.

Actividad eléctrica durante la muerte

Representación del brote de actividad eléctrica cerebral que precede al “apagado” del cerebro durante la onda de despolarización SD (spreading depolarization). / Óscar Herreras

Durante una parada, el cerebro sufre la falta de riego sanguíneo (isquemia), al igual que en un ictus, un aneurisma o un traumatismo craneal severo. En estos últimos el daño se limita a una zona del cerebro y puede tener otros factores agravantes. Entre 1 y 5 minutos después de la parada se genera un potencial eléctrico muy pronunciado en el cerebro, relacionado con la falta de oxígeno en los vasos sanguíneos que irrigan las neuronas. Este potencial se inicia en uno o varios sitios y se propaga como una onda de despolarización SD (del inglés, spreading depolarization), que también aparece en las migrañas y en los ictus. Las neuronas pierden su capacidad de funcionar como pilas eléctricas y dejan de generar los impulsos eléctricos con los que procesan la información, dan órdenes a los músculos o controlan la actividad hormonal.

Ahora bien, justo en el momento en que la onda llega a una zona concreta de la corteza cerebral, esta genera un brote de impulsos eléctricos durante unos segundos. Además, aunque la onda afecta a las neuronas, no inactiva sus fibras, que comienzan a producir por sí solas descargas eléctricas que se transmiten y activan otras zonas que aún no han sido desactivadas. Esto puede explicar las diferentes sensaciones visuales o de otro tipo que se tienen antes (o en el momento) de morir, o los gestos faciales. Algunas personas que han sido recuperadas mediante desfibriladores o reanimación cardiopulmonar (RCP) relatan imágenes del pasado, imágenes de amistades, de familiares fallecidos… que “residen” en los circuitos corticales como parte del conectoma personal, ese mapa de conexiones en el que se graba nuestra experiencia vital y nuestros conocimientos.

Nuestro cerebro se apaga por zonas

¿Por qué es tan frecuente que las personas que han sufrido una parada y son reanimadas padezcan secuelas cognitivas importantes, y que incluso puedan quedar en estado vegetativo permanente? Los numerosos estudios para conocer las causas de la muerte neuronal por isquemia o anoxia han aportado mucha información. Por ejemplo, sabemos que la onda de despolarización no surge en todo el cerebro, sino que hay regiones más susceptibles que otras. El cerebro es un órgano muy heterogéneo, y la falta de oxígeno es más letal para unas zonas que para otras, en concreto, las regiones más “modernas” evolutivamente, como la corteza cerebral, son las más sensibles, junto con el hipocampo, y son las primeras que mueren. Pero el tronco encefálico, en el que residen funciones vegetativas como el control cardiorrespiratorio, y la médula espinal son muy resistentes y soportan hasta horas sin oxígeno. Lo que hace que unas regiones mueran y otras aguanten es el hecho de que las primeras pueden generar la onda eléctrica y las últimas no, o la desarrollan muy tarde y de manera muy atenuada. Podríamos decir que nuestro cerebro muere por partes, no se “desconecta” todo a la vez. A esta “muerte por zonas” la denominamos vulnerabilidad selectiva.

Neuronas que parecen estrellas. En esta imagen, clones de astrocitos en la corteza cerebral. /López-Mascaraque Lab.

Neuronas y estrellas, espacio extracelular y espacio interestelar

Recordemos que las neuronas son las únicas células del cuerpo que, salvo unas pocas excepciones, no se regeneran. En el momento de su muerte, las neuronas de estructuras en las que se genera la onda de potencial despolarizante sufren una entrada masiva de agua a su interior y revientan. Si nos permiten poner un punto de poesía en este lúgubre tema, cuando no les llega más oxígeno, las neuronas explotan al final de su vida, como lo hacen las estrellas, vertiendo su contenido al espacio extracelular, como las estrellas lo hacen al espacio interestelar.

*Óscar Herreras es investigador del CSIC en el Instituto Cajal.

¿Cómo surgieron la agricultura y la ganadería? Tres hipótesis sobre el origen del Neolítico

Por Juan F. Gibaja, Juan José Ibáñez y Millán Mozota (CSIC)*

El Neolítico fue un período clave de cambio para la humanidad. Hace unos 12.000 años en Próximo Oriente, por primera vez, una sociedad cazadora y recolectora se convirtió en sedentaria basada en la domesticación vegetal y animal. Los cambios que se produjeron en todos los ámbitos fueron tan extraordinarios como irreversibles. Y aunque el desarrollo y la expansión de las comunidades neolíticas duró varios miles de años, el proceso de neolitización fue muy rápido y apareció en momentos distintos en diferentes áreas del mundo de forma independiente. Pero, ¿por qué sucedió? ¿Qué llevó a aquellas sociedades a dar el salto y convertirse en neolíticas?

La agricultura neolítica. / Luis Pascual Repiso

Existen varias hipótesis para explicar este proceso fundamental. La primera remite a una razón poblacional: el Neolítico fue una respuesta a una crisis alimentaria causada por el crecimiento demográfico, en un momento y en unas condiciones determinadas. El antropólogo Mark Nathan Cohen, en su libro La crisis alimentaria de la Prehistoria, señala que el crecimiento natural de la población a escala global, una vez que los recursos naturales habían llegado a su límite, demandaba nuevas fuentes de recursos: la agricultura y la ganadería. Sin embargo, no se ha podido documentar tal periodo de hambruna global previo al Neolítico.

De hecho, el aumento poblacional parece ser una consecuencia del Neolítico, más que una causa. El crecimiento demográfico se vio reforzado por la reducción de la movilidad, lo que favorecía el desarrollo exitoso de embarazos y partos, además de la introducción de la leche y los cereales en la dieta, que contribuía a acortar el periodo de lactancia y, por ende, los intervalos entre nacimientos. Además, durante el Mesolítico, el período precedente al Neolítico, los vegetales que crecían espontáneamente ya formaban parte de su dieta. Por tanto, gracias a su recogida, las sociedades adquirieron un conocimiento detallado sobre las plantas, sus propiedades y ciclos de crecimiento, lo cual fue fundamental para poder domesticarlas.

Esto se enlaza con la siguiente hipótesis, una explicación cultural según la cual las comunidades llegaron a un nivel de dominio de la naturaleza y de desarrollo social que les permitió iniciar el cambio. Ya desde el Mesolítico se crearon diferentes ‘culturas’ relacionadas con la confección de distintos instrumentos y sistemas técnicos. Uno de los motivos del origen social del Neolítico contempla que la agricultura y la ganadería habrían sido promovidas e impuestas por individuos que querían acumular riqueza. Hay dos tendencias al respecto. Por una parte, se plantea que la creación de un superávit productivo permitió su almacenamiento y la aparición de un grupo social que se apropió de él. Y por otra, se contempla que la búsqueda del interés individual formaba parte de la personalidad de algunas personas que tendían a imponerse al resto.

Las sociedades mesolíticas. Reconstrucción del asentamiento de Mondeval (Dolomitas Bellunesi, Belluno, Italia). / Imagen de A. Guerreschi, diseño de M. Cutrona

Asimismo, el Neolítico fue, ante todo, un cambio de mentalidad, una nueva manera de ver la naturaleza y dominarla. El nacimiento de los dioses, de una religiosidad antes desconocida, habría sido el elemento clave que arrastró a los factores económicos y sociales.

Tercera hipótesis: un cambio climático

La tercera hipótesis que podría explicar el origen de esta nueva forma de vida es la climática. Es decir, que las novedades llegaron en respuesta a un cambio climático que limitó los recursos de las sociedades cazadoras, pescadoras y recolectoras.

El clima y la vegetación experimentaron importantes transformaciones durante la ventana temporal en la que se produjeron los cambios que dieron lugar al Neolítico. Después del Último Máximo Glacial, hace unos 23.000-19.000 años, el clima comenzó a atemperarse. Tuvo lugar un aumento general de las temperaturas y la humedad que culminó en los inicios del Holoceno, hace alrededor de 11.500 años, cuando se fijaron las principales características del clima que disfrutamos en la actualidad.

Dentro de esta tendencia hacia un clima más benigno y húmedo, se produjo una súbita pulsión fría y seca, denominada Dryas Reciente. Esta pulsión coincide con los primeros indicios de cambios hacia el Neolítico en Próximo Oriente, lo que ha llevado a plantear que quizá el inicio de la agricultura fue una respuesta al cambio climático. Lo que está claro es que, una vez iniciada la agricultura, los ciclos agrícolas se beneficiaron de la regularidad climática del Holoceno.

Sin embargo, durante los inicios del Holoceno también hubo súbitas pulsiones frías. Es decir, a pesar del clima mucho más templado y benigno, hace 8.200 años se produjo un periodo abrupto de frío y sequedad, acompañado en ciertas zonas como la cuenca mediterránea de procesos de deforestación natural y episodios de lluvias torrenciales. Este momento está siendo ampliamente analizado, ya que coincide, en buena parte, con el inicio de la expansión neolítica por Europa. Y es que, esta crisis climática conllevó efectos negativos en la productividad de los recursos marinos, lo que provocó el abandono de ciertos territorios próximos a la costa por parte de esas últimas comunidades mesolíticas.

Mapa sobre la neolitización de Europa. / D. Gronenborn

¿Con qué hipótesis sobre el origen del Neolítico nos quedamos? Lógicamente, estas tres teorías no son excluyentes entre sí, y podrían combinarse para obtener una visión más precisa y real. No habría, por tanto, un motor único. Además, los cambios se produjeron de manera progresiva, a lo largo de milenios, lo que indica que, probablemente, las sociedades prehistóricas no percibieran la dimensión de los cambios que estaban protagonizando.

 

*Juan F. Gibaja, Juan José Ibáñez y Millán Mozota, de la Institución Milá y Fontanals del CSIC, son autores de El Neolítico de la colección ¿Qué sabemos de? (CSIC-Catarata).

Ciencia de lo cotidiano: el experimento en una cocina que se publicó en ‘Nature’

Por Alberto Martín Pérez (CSIC)*

¿Has visto que hay insectos capaces de caminar sobre el agua? Es un fenómeno cotidiano pero muy sorprendente. Y, aunque parezca magia, no lo es. Si lo fuera, al preguntarnos por qué ocurre, la única respuesta que obtendríamos sería un frustrante “porque sí”. Por suerte, la ciencia nos proporciona respuestas mucho más gratificantes.

‘La gota que colma la moneda’, fotografía seleccionada en FOTCIENCIA13, en la modalidad La ciencia en el aula / Aránzazu Carnero Tallón y Mª de los Ángeles de Andrés Laguillo

Lo que hacen estos insectos es aprovechar un fenómeno conocido como tensión superficial del agua. El agua (y cualquier otro líquido) tiene una propiedad muy curiosa: su superficie se comporta como un sólido elástico. Si recibe fuerza sobre su superficie, se deforma y, cuanta más fuerza recibe, mayor es su deformación. Dicho con otras palabras: la superficie del agua se comporta igual que una cama elástica.

Pero, ¿por qué los insectos pueden obrar el ‘milagro’ de caminar sobre las aguas y los seres humanos nos tenemos que conformar con aprender a nadar? La analogía de la cama elástica nos vuelve a dar la respuesta. Si en una cama elástica depositamos un peso demasiado grande, la lona se romperá y caeremos al suelo. Ocurre lo mismo en el agua, aunque el peso mínimo para romper su superficie es mucho menor que en el caso de la lona. Como los insectos tienen un peso minúsculo, pueden caminar sobre el agua sin romper su superficie mientras que las personas, al tener un peso mayor, rompemos la superficie del agua al rozarla.

Los insectos tienen un peso minúsculo que les permite caminar sobre el agua sin romper su superficie

La tensión superficial del agua en un experimento de Agnes Pockels

Ahora que conoces una posible explicación a este hecho cotidiano, ¿te lo crees o intentarías comprobarlo? Puede que mucha gente no se moleste en hacerlo pensando que para hacer una demostración científica se necesita utilizar máquinas y métodos muy complejos. Sin embargo, esta idea está tan equivocada como extendida. Aunque es cierto que no podemos construir en casa un acelerador de partículas como el LHC del CERN o un súper telescopio como el James Webb, lo cierto es que puede haber ciencia en todo lo que hacemos, hasta en las acciones y objetos más simples del día a día (cocinar, hacer deporte, escuchar música…). Podemos hacer y aprender mucha ciencia a partir de los fenómenos cotidianos; solo tenemos que fijarnos un poco en aquello que nos rodea. De hecho, la científica que en el siglo XIX sentó las bases del estudio de la física y química de las superficies fue Agnes Pockels, que utilizó exclusivamente objetos de su cocina.

Pockels era una científica poco convencional. No pudo estudiar en la universidad y su ocupación no era la que esperarías, ya que no era profesora ni investigadora, sino ama de casa. Pero consiguió superar las barreras para dedicarse a la ciencia e ideó el siguiente experimento. Llenó una cubeta con agua hasta hacerla rebosar y, después, depositó una lámina de metal muy fina sobre la superficie, que quedaba flotando –igual que los insectos que hemos mencionado antes–. Al mirar la cubeta de frente, se apreciaba a simple vista cómo la superficie del agua se deformaba cerca de la lámina.

Este experimento sería suficiente para probar que lo que ocurre con los insectos es cierto, pero Pockels quiso ir más lejos y decidió estudiar cómo cambia la tensión cuando se disuelven distintas sustancias en el agua. Utilizó azúcar, sal o alcanfor que encontró en su cocina-laboratorio, y con una regla midió cuánto se deformaba la superficie del líquido al depositar la lámina. Si la deformación es más grande en el caso de la disolución que en el agua pura, la sustancia disuelta disminuía la tensión superficial del agua y viceversa. Gracias a este sencillo método, Pockels llegó a conclusiones de gran importancia en física y química relacionadas con la estructura de la materia a escala atómica. Las investigaciones de Pockels fueron tan relevantes que acabaron publicándose en la revista Nature y sentaron las bases para investigaciones posteriores.

Este no es un caso aislado. Hay muchísimos fenómenos físicos y químicos que se pueden observar y comprobar fácilmente a través de situaciones y objetos de uso cotidiano. La ciencia no es algo reservado en exclusiva a las universidades y los laboratorios de investigación. Olvidarse de esta faceta cotidiana significa perderse la mejor parte de la ciencia.

*Alberto Martín Pérez es investigador en el grupo de Optomecánica del Instituto de Ciencia de Materiales de Madrid (ICMM) del CSIC. Con el objetivo de romper la equivocada idea de que la ciencia es algo opaco e inaccesible, lleva a cabo el proyecto de divulgación ‘La mejor parte de la ciencia’. Con vídeos breves (Tik Tok, Instagram, Twitter y YouTube) muestra que la ciencia se encuentra en nuestra vida cotidiana a través de preguntas aparentemente simples: ¿te has fijado que cuando caminas, conduces o vas en bicicleta utilizas las tres leyes del movimiento de Newton?, ¿sabías que al practicar fútbol, tenis o baloncesto usas el tiro parabólico? o ¿te has parado a pensar que al cocinar preparas disoluciones y se producen reacciones químicas?

‘Quorum sensing’, el Twitter de las bacterias

Por Julián Guercetti (CSIC)*

Hoy nos resulta imposible pensar en un mundo sin redes sociales. Aunque es cierto que estas plataformas digitales nos rodean desde hace poco tiempo, han cambiado la forma en la que interactuamos y nos comunicamos de una manera radical. ¿Y qué dirían si les aseguro que llegamos tarde a tener la autoría sobre tamaño descubrimiento? Aunque sea difícil de creer, los seres humanos no fuimos los primeros en utilizar redes sociales sobre la Tierra. La realidad es que en la naturaleza existen organismos unicelulares que nos llevan miles de años de ventaja desarrollando sus propias redes de formas muy diversas… y además sin necesidad de wifi.

Las bacterias pertenecen al grupo de organismos más primitivos que lograron habitar la Tierra desde tiempos inmemorables y utilizan una red social denominada quorum sensing (QS) a través de la cual pueden comunicarse. Curiosamente, esta se asemeja mucho a Twitter. ¡Sí, acaban de leer que las bacterias tienen algo parecido a Twitter! Si no lo tomamos de manera literal, podemos decir que las dos herramientas comparten ciertas similitudes que vamos a discutir a continuación.

El descubrimiento de este sistema de comunicación se remonta a 1970, cuando un grupo de investigación que trabajaba con bacterias marinas logró demostrar que estos microorganismos –hasta ese momento se creía que no interactuaban entre sí– realmente podían comunicarse. La clave de esta historia es la bioluminiscencia, un fenómeno que también se observa en las luciérnagas y muchos otros organismos que, a través de una serie de reacciones químicas, son capaces de emitir luz.

Lo que llamó poderosamente la atención al equipo científico fue que, al acumularse muchas bacterias en un cultivo, aumentaba la bioluminiscencia. Mientras que, si la cantidad de bacterias era baja, la luz permanecía apagada. Fue así como este grupo se comenzó a plantear que de alguna manera las bacterias debían comunicarse para ponerse de acuerdo y decidir cuándo podían emitir luz. Ese comportamiento parecía estar asociado a la cantidad de bacterias que había en el lugar, es decir, que dependía de la densidad poblacional.

Dejando atrás la parte histórica, para cualquier usuaria o usuario de Twitter esta red social no tendría sentido sin los mensajes, los tuits de máximo 280 caracteres. En cambio, las bacterias crearon sus propios mensajeros químicos a los que llamamos autoinductores. Este tipo de ‘tuits’ son básicamente moléculas que generan las bacterias y que pueden ser detectadas por otras que se encuentren próximas, lo que les permite recibir el mensaje.

¿Cómo funciona la red social bacteriana?

Como dijimos, el QS es una red social bacteriana, pero, ¿cómo funciona? Para hacernos una idea debemos pensar que las bacterias son como influencers que se pasan el día generando autoinductores. Por lo tanto, cuando la cantidad de bacterias en un sitio aumenta de manera significativa, y cada una de ellas genera su autoinductor, estas moléculas comienzan a acumularse hasta alcanzar una concentración crítica, que enciende la alerta de que ya no queda mucho espacio en ese lugar y deben cambiar su comportamiento. Es decir, que después de tanto escribir y retuitear el mensaje, este se vuelve tendencia y ahora todas las bacterias saben que allí no cabe ni una más.

En microbiología las bacterias se pueden clasificar en dos grandes grupos basándose en una tinción diferencial conocida como tinción de Gram, en honor a su creador Christian Gram. Esta técnica permite obtener una primera aproximación acerca de la estructura de cada bacteria al diferenciarlas entre Gram+ y Gram-. Con los grandes avances en esta área, hoy sabemos que, dependiendo del tipo de bacteria, el mecanismo de quorum sensing puede ser diferente. Por ejemplo, en el caso de las bacterias Gram+ sus mensajes o autoinductores consisten en un tipo de moléculas denominadas péptidos, mientras que los mensajes de las bacterias Gram- son moléculas orgánicas pequeñas, muy diferentes a nivel estructural a las de las bacterias Gram+.

A partir del trabajo de muchos grupos de investigación, pudimos entender que cada tipo de bacteria es capaz de utilizar un mecanismo de quorum sensing para comunicarse con las de su misma naturaleza, por lo que se trata de una red social específica. Pero, al mismo tiempo hay sistemas que permiten la comunicación entre distintos tipos de bacterias e incluso con otros microorganismos, a las que podríamos denominar redes sociales universales. Por tanto, es evidente la complejidad que pueden presentar los distintos mecanismos de comunicación entre organismos tan diminutos que carecen de bocas y manos, pero que pueden organizarse mejor que nosotros.

Resistencia a antibióticos

Actualmente sabemos que las bacterias utilizan el QS como estrategia para regular cientos de comportamientos grupales como la bioluminiscencia, así como otros un tanto nocivos para la salud humana. Son los casos de la resistencia a antibióticos, la virulencia e incluso la formación de biopelículas. Este último fenómeno supone un gran problema dado que consiste en un consorcio bacteriano que logra asentarse de forma permanente en una superficie (órganos del cuerpo, instrumental quirúrgico, implantes, etc.) y son muy difíciles de remover e incluso generan mayor resistencia a los antibióticos. Un claro ejemplo del famoso refrán que dice “la unión hace la fuerza”.

En muchos laboratorios se trabaja para intentar descifrar el contenido de esos mensajes y poder interrumpir la comunicación entre las bacterias para evitar que se pongan de acuerdo y ataquen al organismo. El uso de los antibióticos es cada vez más limitado debido a la gran capacidad de resistencia que generan y por eso resultan necesarias nuevas estrategias de tratamiento para infecciones bacterianas que no se basen en este principio. En nuestro grupo de investigación del CSIC intentamos determinar si la presencia de estos autoinducotres y otras moléculas del quorum sensing podrían ser útiles como biomarcadores de una infección bacteriana y así adelantarnos a su tratamiento y evitar futuras complicaciones.

 

*Julián Guercetti es investigador en el grupo Nanobiotecnología para el Diagnóstico, del Instituto de Química Avanzada de Cataluña del CSIC. Ha sido finalista de FameLab España 2021.

“¿Qué me pasa, doctor?” La visita médica a finales de la Edad Media y principios de la Moderna

Por Raúl Villagrasa-Elías (CSIC)

Marie Curie y el radio, Wilhelm C. Röntgen y los rayos X y Alexander Fleming y la penicilina son algunos de los descubrimientos que vertebran la historia de la ciencia y la medicina. Nos fascina imaginar que la historia es una acumulación de esfuerzos individuales (la mayoría de varones ilustres) cuya suma fundamenta el progreso. Suelen ser inventos trascendentales que marcan un antes y un después. Ocurre lo mismo cuando miramos hacia atrás en el tiempo y analizamos episodios como la caída del Imperio romano, la peste negra, la imprenta, la conquista de América, las guerras mundiales…

¿Y si algunos de los fenómenos más trascendentales de nuestra sociedad fueron progresivos y comunitarios? La democratización, la industrialización y la alfabetización de un país no se consiguen en un día. La conformación del sistema sanitario tampoco y precisamente en eso vamos a fijarnos en este viaje en el tiempo, en una escena que seguramente todo el mundo (salvando la distancia temporal) habrá experimentado en sus propias carnes y, si no, en las de algún familiar o amigo. Así era una visita médica hospitalaria a finales de la Edad Media.

El hospital, un “invento” medieval para las personas pobres

Documentamos los primeros hospitales de la península ibérica en los siglos XI y XII y, sin exagerar, podemos afirmar que ya en los siglos XIV, XV y XVI hubo varios cientos de ellos. A diferencia de lo que hoy imaginamos por hospital (instituciones sanitarias enormes con centenares de pacientes y profesionales), estos centros medievales solían ser edificios más pequeños (algunos tenían dos camas; los más grandes, varias decenas) y servían para atender a los enfermos pobres, por lo que reyes, obispos, nobles, ediles y grandes mercaderes rara vez aparecían por allí.

Puerta del Hospital de Santa Cruz en Toledo, fundado en 1496. Litografía de la Biblioteca Nacional de España (1842).

Pero, ¿quiénes eran las personas consideradas pobres? En aquellos siglos ser pobre era algo mucho más genérico de lo que entendemos ahora. Pobre era la anciana que quedaba viuda y sin hijos que la cuidaran; lo era el niño huérfano abandonado fruto de una relación extramatrimonial; el soldado que después de una guerra quedaba incapacitado; la trabajadora de la construcción que se caía de un andamio, o el campesino que contraía la lepra y necesitaba cuidados especiales. En definitiva, pobre era cualquier persona que, aun teniendo algo de dinero, no contaba con lazos sociales como la familia o los vecinos ante los vaivenes de la vida.

Ayer y hoy, más similitudes que diferencias

A finales de la Edad Media, las ciudades crecieron y con ellas el número de personas pobres también aumentó. Para hacer frente a esta emergencia social los gobiernos urbanos promovieron hospitales de mayores dimensiones y dotados con completos equipos profesionales: médicos (conocidos como físicos en la época), cirujanos, barberos, boticarios, enfermeros y enfermeras, nodrizas, capellanes para la cura del espíritu y todo un sinfín de criados y esclavos que se encargaban de las tareas más pesadas.

Consecuencia de lo anterior, a finales de la Edad Media y en el tránsito hacia la Moderna, se institucionalizaron los sistemas sanitarios y, por extensión, la visita médica hospitalaria. Y, en realidad, si eliminamos los aparatos electrónicos que hoy encontramos en una planta de cualquier hospital, el funcionamiento ya era el mismo. Las mujeres enfermas estaban separadas de los hombres (hoy difícilmente encontraremos habitaciones mixtas), las camas estaban numeradas para reconocerlas rápidamente y en el hospital zaragozano de Santa María de Gracia en 1508 ya se colocaban tablillas al lado de cada una para identificar a los pacientes y sus medicamentos.

Una plantilla completa, coordinada y jerarquizada

Los físicos o médicos eran el personal con mayor responsabilidad, salario y formación. El hospital de la villa aragonesa de Híjar ya contaba en 1312 con un “físico cristiano o judío que sabía de medicina”. Estos profesionales valoraban, sobre todo, las enfermedades internas del cuerpo como fiebres o dolores estomacales. Interrogaban al enfermo sobre su estado, auscultaban sus pulsos, comprobaban las orinas y revisaban los tratamientos prescritos el día anterior.

Cirujano colocando un brazo dislocado, 1450. Autor desconocido. Francia.

Por otra parte, los cirujanos (a veces conocidos como barberos-cirujanos) practicaban su arte sobre tejidos, articulaciones y huesos: muelas, heridas, amputaciones, luxaciones, fracturas, etc. Una sanadora musulmana fue contratada en Valencia en 1396 para curar el brazo de un niño pequeño, ya que el médico del hospital no había podido hacerlo. Ambos, médicos y cirujanos, debían “ordenar las mediçinas y emplastos” y “dar las reçetas d’ello al rector del dicho hospital para que lo faga façer”, según las ordenanzas del hospital de Tordesillas (Valladolid) de 1467.

Inmediatamente después encontrábamos en el escalafón sanitario a la persona encargada de supervisar la enfermería, que era el enfermero mayor y tenía a su cargo a las enfermeras y enfermeros menores, quienes velaban día y noche al doliente, le ayudaban en la ingesta de alimentos, limpiaban las sábanas y aplicaban los tratamientos prescritos por médicos y cirujanos con productos farmacéuticos elaborados por los boticarios. En algunos hospitales conocemos incluso las ratios teóricas entre enfermeros y pacientes: en Ávila en 1507 lo ideal era una relación de 1 a 6, mientras que en Toledo en 1499 ascendía a 8. Desde luego, son cifras más asequibles que las actuales, con un profesional de enfermería por 15-20 pacientes en hospitales o 150-200 en residencias de mayores.

Así pues, la imagen que tendría el enfermo no sería muy diferente a la actual: postrado en el lecho observaría cómo dos, tres o cuatro personas le rodeaban e inspeccionaban, en definitiva, un equipo sanitario que curaba y cuidaba.

Raúl Villagrasa-Elías es investigador en el Departamento de Estudios Medievales del Instituto de Historia del Centro de Ciencias Humanas y Sociales del CSIC. Actualmente trabaja en el proyecto Scripta manent: De registros privados a textos públicos. Un archivo medieval en la Red” (PID2020-116104RB-I00).

Claves para entender la escasez de los chips en Europa

Por Luis Fonseca (CSIC)*

Vivimos rodeados de chips. No solo están en productos como los móviles o los ordenadores, sino también en la automoción, la producción industrial de ropa o alimentos y en sectores críticos como el de la instrumentación médica, la seguridad o la defensa. Por eso cuando escasean estos semiconductores, como ocurre en la actualidad, saltan las alarmas. Pero, ¿por qué faltan chips? Aunque en los últimos meses se haya hablado mucho de ello, desde el Instituto de Microelectrónica del CSIC en Barcelona trataremos de aportar nuestro punto de vista.

Antes, apuntalemos algunos conceptos previos

El primero es el de la electrónica, que es la rama de la física que estudia los movimientos de los electrones libres y la acción de las fuerzas electromagnéticas y cómo utilizarlos para controlar la propia electricidad y gestionar todo tipo de procesos de información. No es poca cosa, porque, como predijo Michael Faraday en una difundida aunque oficiosa anécdota en la que señalaba que se acabarían pagando impuestos por la electricidad, hemos hecho de la electricidad y de la información uno de los vectores principales de nuestra sociedad en general y de nuestro sistema productivo y económico en particular. La primera revolución industrial se fraguó en torno al vapor, pero las protagonistas de las posteriores revoluciones han sido la electricidad, la electrónica y la información.

Ilustración del experimento de M. Faraday en 1831 donde muestra la inducción electromagnética entre dos bobinas. /Grabado de J. Lambert (1892)

El transistor, por su parte, es el componente electrónico fundamental que nos puso en el disparadero de la modernidad y de la transición hacia la sociedad de la información. Este abuelo de los microchips cumple 75 años en 2022. Se trata de un dispositivo que actúa como interruptor dejando pasar corriente a través de sí en función de si se le activa una señal de control. Unos y ceros (señal de entrada) generando unos y ceros (señal de salida) son la encarnación del bit y la magia de la lógica binaria que nos lleva desde el modesto transistor hasta un superordenador. La microelectrónica y la nanoelectrónica han permitido hacer esos transistores más pequeños y más rápidos hasta poder integrar en el mismo chip millares, decenas de millares, millones, miles de millones, millones de millones de transistores… Por ello ahora hablamos de memorias de terabytes y de procesadores que ejecutan billones de instrucciones por segundo.

Chip diseñado en el IMB-CNM que permite el registro neuronal de 1024 canales uECoG para aplicaciones de rehabilitación del habla (proyecto Europeo BrainCom FETPROACT-2016-732032).

La micro y nanoelectrónica son, por tanto, la orfebrería extrema que nos permite llegar hasta el “infinito informático” y más allá. Las memorias y los procesadores se hacen en fábricas de semiconductores (foundries) que son, a día de hoy, la sublimación de la complejidad tecnológica y el máximo exponente de la eficiencia y la productividad. Para producirlos se orquestan con precisión centenares de procesos en grandes espacios (clean rooms o ‘salas blancas’) que se mantienen bajo condiciones cuidadosamente controladas: temperatura y humedad estables, ausencia de vibraciones y un aire más limpio que el de un quirófano.

Una crisis de sistema productivo

Aunque la fabricación de chips tiene sus propios retos tecnológicos, ligados a los límites de la miniaturización continua, la crisis de los chips no es tecnológica, sino económica y de sistema productivo. Y no se debe a una única razón, sino a una serie de “catastróficas desdichas”. Esta crisis ha puesto de manifiesto que nuestro sistema hiperespecializado y ultraconectado no se defiende bien ante grandes perturbaciones. Parece evidente que la deslocalización de la producción y los esquemas de just in time en aras de la eficiencia económica suponen un importante riesgo cuando el transporte global no está asegurado y supone un costo elevado, y aquí el coste de la energía juega un gran papel.

Imagen de chip diseñado y fabricado en el IMB-CNM que contiene un sensor electroquímico inteligente para aplicaciones de salud y control de calidad (proyecto Europeo Pasteur CATRENE CT204).

Las grandes perturbaciones que sacuden al sistema productivo han sido la pandemia y, en cierta medida, el cambio climático, que se han aliado con la localización extrema en la producción de chips: aproximadamente el 85% de ellos se fabrican en Asia y hasta dos terceras partes solo en Taiwán, una isla del tamaño de Cataluña con una relación particular con la China continental. Precisamente, Taiwán vio afectada su producción de chips por un episodio severo de sequía, ya que el agua es un recurso importante en su fabricación.

La pandemia, por su parte, alteró notablemente el equilibrio entre la oferta y la demanda de semiconductores, que ya estaba tensionado por el impulso global y sostenido hacia una mayor digitalización. Una de sus principales consecuencias ha sido el aumento espectacular en la demanda de ocio electrónico y de herramientas de teletrabajo, así como la necesidad de dimensionar al alza toda la mega-infraestructura de interconexión asociada.

Relocalizar (en parte) la producción de chips

Consideremos algunos datos poco conocidos: construir una fábrica avanzada de semiconductores cuesta alguna decena de miles de millones de euros y ponerla en pie requiere mínimo dos años; el tiempo para conseguir un chip-en-mano no es muy diferente de los nueve meses de un embarazo; y, en un escenario de baja oferta, no toda la demanda es igualmente apreciada. En este sentido, los móviles y los ordenadores usan chips de mayor valor añadido, y más caros, que los que se usan en los vehículos. Móviles y ordenadores vieron aumentar sus pedidos durante la pandemia, y los vehículos redujeron y suspendieron los suyos a la espera de que se recuperara su propia demanda… pero, ahora que esta demanda ha aumentado, los productores de chips no tienen tanto aliciente en proporcionarlos cuando aún pasan apuros para cumplir con los pedidos de los primeros. La generación de millennials entiende que un problema en la interconexión digital global puede resolverse en minutos u horas, pero las personas boomers saben que reparar la interconexión física global (léase producir y transportar mercancías) requiere semanas o meses.

De la misma manera que es muy posible que la pandemia haga cambiar ciertos comportamientos para siempre, la crisis de los semiconductores puede alentar cambios duraderos. Tanto Estados Unidos como Europa tienen planes para aumentar su producción de chips. En el caso europeo, ese aumento de producción pasa por atraer empresas americanas o taiwanesas, pues no hay grandes productores locales de memorias y procesadores, y, por supuesto, no hay fabricas públicas de semiconductores ni se las espera. Conviene también no olvidar que los procesadores y las memorias son el rey y la reina en el tablero de los componentes electrónicos, pero hay otras piezas, todas necesarias, cuyo juego debe asegurarse también. Si los chips de los coches son alfiles o caballos, aún hay mucho peón que la crisis de los semiconductores amenaza con dejar atrás. Son chips de menor complejidad, pero igualmente necesarios, que podrían fabricarse en redes de salas blancas más pequeñas, de menor coste, y distribuidas geográficamente de forma que estén sometidas a menores vaivenes político-económicos.

*Luis Fonseca es investigador del CSIC y director en el Instituto de Microelectrónica de Barcelona (IMB-CNM, CSIC).

¿Por qué no todo el mundo tiene la piel negra?

Por Lluis Montoliu (CSIC)*

Solamente hace falta sentarse unos minutos en un banco de una estación de metro concurrida de una gran ciudad y dedicarse a contemplar a las personas que pasan por allí para darse cuenta de la enorme diversidad que tenemos de colores de piel, pelo y ojos. ¿Cómo es posible que haya gente con la piel, cabellos y ojos tan claros y, a la vez, también existan otras personas con la piel, el pelo y los ojos muy oscuros, casi negros? ¿Por qué no todo el mundo tiene la piel clara? ¿Por qué no toda la gente tiene la piel oscura? Toda esta maravillosa diversidad de aspectos de los seres humanos es producto del funcionamiento de un grupo de genes que determinan nuestra pigmentación, los llamados genes de colores.

Una chica pelirroja en un ascensor suscita el interés de quienes están a su alrededor. / Ilustración de Jesús Romero

Pequeñas variaciones en algunos de ellos pueden causar grandes diferencias en nuestra apariencia externa, pero no debemos olvidar que en lo fundamental todos los seres humanos somos mucho más parecidos de lo que habitualmente algunas personas están dispuestas a asumir. Todos los seres humanos compartimos el 99,9% de nuestro genoma y las diferencias genéticas (0,1%) son fundamentalmente individuales. En otras palabras, por más que algunos se empeñen en seguir refiriéndose a este término, no existen las razas en la especie humana. Más allá de unas variaciones genéticas en algunos genes de colores que determinan el color de la piel, pelo y ojos, dos personas de origen africano pueden ser tan distintas entre sí como dos personas de origen europeo.

El color de piel de los primeros seres humanos

Nuestros antepasados homínidos tenían el cuerpo blanquecino, cubierto de pelo, como los chimpancés actuales. Posteriormente, cuando aquellas poblaciones ancestrales emigraron desde la selva a la sabana, tuvieron que adaptarse a temperaturas más elevadas y mayor radiación solar. Perdieron el pelo para así poder empezar a sudar y regular mejor la temperatura corporal, pero sin pelo tuvieron que desarrollar otro tipo de protección frente al sol. La aparición de mutaciones en algunos genes de colores que ennegrecían la piel fue providencial y así aquellos primeros seres humanos sin pelo con piel oscura pudieron sobrevivir bajo el sol. Esta adaptación les permitió proteger determinadas vitaminas necesarias para la vida y la reproducción que se degradan por el sol, como el ácido fólico, y reducir el riesgo de desarrollar cáncer de piel, que habría acabado con sus vidas.

Posteriormente, cuando los seres humanos emigraron desde África hacia el norte de Europa, llegaron a tierras con mucha menor radiación solar en las que el exceso de pigmentación era un problema, pues no les permitía aprovechar los pocos rayos de sol que tenían al día para poder sintetizar la cantidad mínima necesaria de vitamina D que producimos en nuestra piel por acción de la radiación ultravioleta del sol. De nuevo, la aparición de una mutación en otro gen que palidecía la piel fue providencial y permitió a esos humanos adaptarse a las duras y oscuras condiciones.

El origen de las personas pelirrojas

Esa mutación alteró la composición de la melanina que fabricábamos, tanto que algunas personas pasaron de acumular una mezcla de pigmentos formados por una melanina oscura, que llamamos eumelanina, y otra más clara, naranja-rojiza, que llamamos feomelanina, cuya mezcla es responsable de la gran diversidad de colores de piel que tenemos, a fabricar solamente feomelanina. Habían surgido las personas pelirrojas, cuya piel blanca les permitió adaptarse mejor a aquellas latitudes, además de proporcionarles esos fascinantes colores de pelo y ojos que el resto envidiamos. Y así es como, alterando la función de unos pocos genes de colores, podemos pasar de pieles blancas a más oscuras para luego regresar a pieles nuevamente pálidas.

En Europa es donde se concentra una mayor diversidad de patrones de pigmentación de las personas, y donde coexisten personas rubias, castañas, morenas, pelirrojas y negras formando casi un continuo de aspectos y colores. Erróneamente, tendemos a pensar que África es un continente mucho más uniforme. Sin embargo, existe igualmente una enorme variabilidad genética en personas de origen africano, que difícilmente puedan agruparse como una sola población. Por ejemplo, en cuanto a la pigmentación hay grandes diferencias entre las pieles más oscuras de personas nacidas en la región de Etiopía, Somalia y Sudán y las tonalidades mucho más claras de personas de los extremos del continente, el Magreb y Sudáfrica. Esto nos dice que no hay ‘un’ color de piel oscura, negra, sino muchos. De la misma manera que no hay un color de piel clara, blanca, sino muchos.

Misma cantidad de melanina, distinta capacidad de transportarla

Intuitivamente pensaríamos que una persona de piel negra debería tener más células pigmentarias, más melanocitos en la piel, que una persona de piel blanca. Y no es así. Esta es la típica pregunta de programa de televisión de cultura general que fallaría casi todo el mundo. La realidad es que dos personas, una de piel negra y otra de piel blanca, tienen aproximadamente el mismo número de melanocitos.

¿Cómo puede ser que la primera tenga la piel mucho más oscura que la segunda? La diferencia no está en el número de células pigmentarias, sino en la capacidad que tienen estas de trasladar el pigmento que fabrican, la melanina, a los queratinocitos de nuestra piel. Estas células son las que nos dan nuestra pigmentación, no los melanocitos, que se encuentran situados en capas más profundas de la piel, en el límite entre la epidermis y la dermis. Simplemente alterando la función de otros genes de colores, responsables del transporte de melanina entre melanocitos y queratinocitos, somos capaces de oscurecer significativamente el color de nuestra piel.

Estructura simplificada de las células de la piel, con los melanocitos en la base de la epidermis transfiriendo sus melanosomas repletos de melanina a los queratinocitos. / Ilustración de Jesús Romero

De todo ello se deduce lo absurdo e inútil que es intentar buscar diferencias entre dos personas simplemente porque presenten colores distintos de piel. Con muy pocas diferencias en algunos de los genes de colores somos capaces de cambiar el aspecto externo de una persona, pero en lo fundamental todas las personas, tengamos la piel blanca o negra, somos semejantes. Nunca estuvo justificado ningún tipo de racismo, tampoco desde la genética. Aceptemos y gocemos con la enorme variedad de aspectos que podemos tener los seres humanos sin que por ello haya personas que sean discriminadas o sufran rechazo, persecución o ataques por motivo del color de su piel.

 

* Lluis Montoliu es genetista e investigador del CSIC en el Centro Nacional de Biotecnología (CNB). Este y otros temas relacionados con la genética de la pigmentación forman parte de su nuevo libro de divulgación Genes de colores, con ilustraciones de Jesús Romero y publicado por NextDoor Publishers.