Entradas etiquetadas como ‘cultura científica CSIC’

El difícil camino de la pérdida de audición

Por Isabel Varela-Nieto* (CSIC-CIBERER) y Mar Gulis

 

En junio de 1789, Francisco de Goya es designado pintor de cámara por Carlos IV y, tres años más tarde, enferma gravemente en Sevilla. El cuadro clínico es complejo. A sus 46 años, Goya sufre vértigos, acúfenos (ruido en los oídos) e hipoacusia; además de dolores abdominales, alteraciones de la visión, alucinaciones y delirios. Como consecuencia de todo ello, desarrolla una depresión. Su aspecto general se deteriora profundamente y adelgaza de forma llamativa. En 1793 retoma su trabajo. Anda con dificultad, presenta problemas de equilibrio y de visión de los que termina recuperándose en parte, pero, en cambio, quedará sordo de por vida.

La sordera de Goya es profunda. Esto le obliga a abandonar la enseñanza en la Real Academia de Bellas Artes y le crea graves problemas de comunicación y relación que le llevarán a iniciar una etapa de mayor introversión y aislamiento. Sin embargo, aprenderá a leer los labios y el lenguaje de signos, y seguirá pintando y creando obras maestras hasta el final de su vida. Aislado del mundo del sonido, muere en Burdeos en 1828, con 82 años de edad.

Grabado de Francisco de Goya sobre lengua de signos / ¿Qué sabemos de la sordera? (CSIC/Catarata)

Otro caso fue el de Ludwig van Beethoven, que perdió audición muy joven. Entre 1794 y 1796, mediada la veintena, presentó las primeras manifestaciones de su sordera, pero ocultó estos síntomas e inició un largo periplo de médicos y tratamientos diversos. Con 30 y 40 años los zumbidos de oído y la hipoacusia se acentuaron, y durante los últimos ocho años de su vida la sordera fue total.

Ya no podía tocar ningún instrumento. Y, si lo hacía, era de forma automática, sin la expresión y brillantez de su etapa inicial. Dejó de ser capaz de mantener una conversación, se aisló de sus amigos y admiradores, y la constatación de su enfermedad le sumió en la más profunda de las depresiones. Sin embargo, fue una época de composiciones magistrales, en las que en ningún momento se advierte la presencia de hipoacusia en la composición.

A lo largo de la historia muchos personajes relevantes de ámbitos diversos han padecido diferentes grados de pérdida de audición: Alexander Graham Bell, que inventó el teléfono; Thomas Alva Edison, que contribuyó a la difusión de la luz eléctrica; el emperador de Roma Claudio I; la actriz ganadora de un Óscar Marlee Matlin; o Pete Towsend, guitarrista de The Who.

Precisamente este artista advertía a los jóvenes del peligro de sordera que puede suponer el abuso del ‘iPod’ si no bajan el volumen de la música que escuchan. Y es que los músicos son especialmente vulnerables a la pérdida de capacidad auditiva. Phil Collins ha perdido un 60% de la audición, mientras que la rapera estadounidense Foxy Brown perdió su capacidad auditiva por completo en los dos oídos a la vez, y decidió someterse a una operación que a día de hoy le permite oír, pero de manera muy limitada. Por su parte, el famoso vocalista de AC/DC, Brian Johnson, padece de sordera parcial. En 2016, le diagnosticaron problemas auditivos que cuatro años después acabaron con su carrera como cantante en el grupo.

Un tipo de discapacidad

Ejemplos como este ponen de manifiesto el impacto que la sordera tiene en la vida de las personas que la padecen. La pérdida de audición se considera incapacitante cuando es superior a 35 decibelios (dB en el oído que oye mejor). Se calcula que más del 5% de la población mundial, unos 466 millones de personas, sufre una pérdida de audición incapacitante, y se estima que en 2.050 esa cifra superará los 900 millones, una de cada diez personas.

Inmunohistoquímica del órgano receptor auditivo del ratón / SEBBM, Raquel Martínez Vega (Instituto de Investigaciones Biomédicas «Sols- Morreale», CSIC-UAM)

La hipoacusia, que es como se denomina la pérdida de la audición, limita la capacidad de comunicación y la autonomía, y reduce las oportunidades de ser un miembro activo en la sociedad. Los efectos secundarios de esta carencia sensorial pueden incluir cambios en la percepción y en la personalidad, especialmente introversión y aislamiento social.

Cuando la sordera aparece en la edad adulta

La prevalencia de la pérdida de audición aumenta con la edad: entre los mayores de 60 años, más del 25% padece una pérdida de audición incapacitante. A diferencia de las personas con sordera desde los primeros años de vida, quienes sufren pérdida de audición total o parcial una vez adquirido el lenguaje, con frecuencia, suelen rechazar su condición y no reconocen su problema. Además, muchas personas sienten su pérdida auditiva como una amenaza a su integridad física y emocional, lo cual puede llevar a que se aíslen y eviten salir.

Por ello, la sordera tiene implicaciones psicosociales en varios ámbitos: el familiar, donde todos sus miembros tienen que adaptarse a la nueva situación; en el laboral, puesto que la sordera puede impedir o dificultar el acceso a determinados puestos de trabajo; y en el ámbito social, en el que tiende a producirse una reducción del círculo de amistades. De hecho, en personas ancianas la sordera se considera una de las principales causas de aislamiento.

Dibujo científico de Santiago Ramón y Cajal: corte del ganglio espiral y órgano de Corti (N.º 3663)/ Legado Cajal (Museo Nacional de Ciencias Naturales, CSIC)

La sordera en el Día Mundial de la Audición

La Organización Mundial de la Salud (OMS) señala que el 80% de las necesidades de cuidado del oído y la audición siguen estando desatendidas. El organismo internacional estima también que la pérdida de audición no tratada tiene aparejada un coste económico elevado para el paciente y para el sistema de salud, estimado en casi un billón de dólares cada año.

Por eso, el Día Mundial de la Audición, que se celebra el 3 de marzo, hace hincapié este año en promover un cambio de mentalidad respecto al cuidado del oído y la audición que ayude a mejorar el acceso a la atención sanitaria de las personas con sordera y reducir el coste de la pérdida de audición no tratada. En palabras de Tedros Adhanom Ghebreyesus, director general de la OMS, “la pérdida de audición ha sido calificada a menudo de ‘discapacidad invisible’, no solo porque no se acompaña de síntomas ostensibles, sino también porque durante mucho tiempo las comunidades la han estigmatizado y los responsables políticos la han ignorado».

 

* Isabel Varela-Nieto es autora, junto con Luis Lassaletta Atienza, del libro ¿Qué sabemos de la sordera? (CSIC-Catarata).

Si pudieses cuidar una roca… ¿cuál sería?

Por Mar Gulis (CSIC)

El Parque Nacional de los Picos de Europa, el Parque Nacional de Sierra Nevada, las Hoces del Duratón en Segovia o La Pedriza en Madrid son mucho más que paisajes asombrosos: albergan Lugares de Interés Geológico que la ciencia reconoce como testigos vivos de la historia de nuestro planeta.

El Instituto Geológico y Minero de España (IGME-CSIC) consciente de esta invaluable riqueza geológica que atesoramos, lanzó en diciembre de 2017 un programa de ciencia ciudadana con el objetivo de conservar, proteger y llevar a cabo un seguimiento del estado de conservación de todos estos enclaves. La colaboración activa y la sinergia entre el público general y la comunidad científica son pilares fundamentales de esta iniciativa, que busca salvaguardar nuestro patrimonio para las generaciones futuras.

Badlands de las Bardenas Reales (Navarra), un laboratorio natural donde observar como determinados procesos geológicos externos están modelando su relieve. Autora: Ana Cabrera Ferrero (IGME-CSIC)

Badlands de las Bardenas Reales (Navarra), un laboratorio natural donde observar como determinados procesos geológicos externos están modelando su relieve. / Ana Cabrera Ferrero (IGME-CSIC)

‘Apadrina una Roca’, que lleva funcionando a nivel nacional desde el año 2017, busca involucrar a las personas que residen cerca de alguno de los más de 4.000 Lugares de Interés Geológico que existen en España. Una de ellas podrías ser tú si te comprometes a visitar ese lugar al menos una vez al año. De esta forma, no solo contribuirás a su conservación y al avance científico; también tendrás la oportunidad de aprender sobre el territorio que te rodea.

Enclaves con valor científico, educativo y turístico

Pero, ¿qué hace que un Lugar sea de Interés Geológico (LIG)? Los espacios que reciben este nombre han sido identificados por la comunidad científica como fundamentales para interpretar el pasado de la Tierra y su evolución. Estos enclaves facilitan el entendimiento de los procesos geológicos actuales y ofrecen una gran oportunidad para mejorar el desarrollo socioeconómico de las zonas rurales.

La denominación reconoce el valor científico, educativo, cultural y/o turístico de un lugar, pero no es una figura de protección. Por eso resulta conveniente llevar a cabo programas como ‘Apadrina una roca’, que sirvan para intensificar y mejorar su conservación, conocimiento y vigilancia.

Si te animas, tendrás la oportunidad de ser padrino o madrina de las rocas en uno o varios de estos enclaves. Puedes elegir entre una enorme variedad de espacios. Entre la diversidad de lugares, encontrarás afloramientos geológicos que albergan rocas, minerales, fósiles y suelos de interés, pero también formas del terreno, estructuras tectónicas e incluso meteoritos de gran importancia científica. Todos estos espacios pueden verse afectados por la acción humana.

Conocer el origen de estos enclaves, los agentes que han intervenido en su formación o el tiempo que ha sido necesario para formarlos, así como las amenazas y los impactos que pueden sufrir, nos dará las herramientas necesarias para entender cómo proteger y cuidar este patrimonio geológico.

¿Dónde están estos espacios? España cuenta con un inventario oficial que localiza, identifica y valora los lugares geológicamente más relevantes del territorio. Lo elabora y mantiene el IGME-CSIC en colaboración con las comunidades autónomas y las universidades. A su vez, la información que proporcionan las personas que participan en la iniciativa alimenta su base de datos y permite actualizar el conocimiento sobre estos espacios recordándonos la importancia de mejorar y proteger el patrimonio geológico de España.

Señalética turística en las Bardenas Reales de Navarra. Informa sobre la regulación normativa en el Lugar de Interés Geológico (LIG). Autora: Ana Cabrera Ferrero (IGME-CSIC)

Señalética turística en las Bardenas Reales de Navarra. Informa sobre la regulación normativa en el Lugar de Interés Geológico (LIG). / Ana Cabrera Ferrero (IGME-CSIC)

¿Cómo participar?

Participar en ‘Apadrina una Roca’ es muy sencillo. Accede a la página web del Inventario Español de Lugares de Interés Geológico (IELIG), busca en el mapa, identifica un espacio y registrarte. No importa el motivo que te mueva a apadrinarlo: que esté cerca de tu pueblo, que lo hayas estudiado o que simplemente te guste.

Si aceptas ser padrino o madrina de una roca, adquirirás un compromiso mínimo que ayudará a su conservación. Por ejemplo, deberás informar de cualquier incidencia que descubras y suponga una amenaza para este espacio, que tendrás que visitar al menos una vez al año.

Además, podrás compartir tus dudas e intercambiar experiencias con el resto de participantes del proyecto. El apadrinamiento es un acto voluntario y gratuito. Solo es necesario que cuides y vigiles tu LIG.

¡Anímate a apadrinar una roca!

Proteínas recombinantes: una historia de mutantes zombis al servicio de la ciencia

Por María Zapata Cruz, Laura Tomás Gallardo y Alejandro Díaz Moscoso (CSIC)*

Las proteínas son las moléculas que más funciones diferentes desempeñan en los seres vivos. Entre muchas otras cosas, forman nuestros órganos y tejidos, como hace el colágeno; refuerzan nuestras defensas en forma de anticuerpos; y realizan el metabolismo, como las enzimas que transforman los nutrientes en energía y en otras moléculas necesarias para la vida.

Además, las proteínas resultan muy útiles fuera del organismo: la prueba PCR (Reacción en cadena de la Polimerasa), que se hizo famosa durante la pandemia de COVID-19, o las herramientas de edición genética CRISPR-Cas, conocidas como ‘tijeras moleculares’, basan su funcionamiento en estos ingredientes básicos de la vida. Y lo mismo ocurre con medicamentos como la insulina y algunas vacunas.

Por todo ello, fabricar proteínas despierta un gran interés científico e industrial. Necesitamos producirlas para hacer funcionar esas aplicaciones y para analizar su comportamiento en condiciones controladas, algo que hacemos en el Centro Andaluz de Biología del Desarrollo con el objetivo de conocer mejor su funcionamiento.

Sin embargo, crear una proteína en el laboratorio enlazando uno a uno los aminoácidos que la componen puede resultar muy lento y laborioso: en cada proteína se suelen unir cientos de estas moléculas formando una cadena. Una solución muy práctica para obtener proteínas es ‘secuestrar’ la maquinaria natural de las células para que hagan el trabajo, es decir, conseguir células que fabriquen las proteínas que nos interesan.

Domesticando bacterias

Vamos a explicar este procedimiento con algo más de detalle. Para ello, necesitamos saber que las instrucciones para fabricar una proteína se encuentran en el ADN. En el código genético, hay un gen con las indicaciones para crear cada proteína uniendo de una forma determinada los veinte tipos de aminoácidos que existen en la naturaleza.

Los aminoácidos se unen unos a otros químicamente mediante un ‘enlace peptídico’. Podríamos plantearnos tener veinte botes en el laboratorio, cada uno con un aminoácido distinto, e ir uniéndolos según nos indique el gen correspondiente para fabricar la proteína que nos interesa. Pero, como veíamos, los seres vivos poseen una maquinaria celular mucho más eficaz para formar estos enlaces.

Se pueden utilizar distintos tipos de células para fabricar proteínas, pero la más popular entre los científicos es, sin duda, Escherichia coli, una bacteria que vive de forma natural en el intestino de los seres humanos y otros animales sanos. En las últimas décadas, hemos aprendido a criar esta bacteria en el laboratorio y ha resultado ser una ‘mascota’ muy agradecida que, además, es muy fácil de cuidar.

Puede vivir en un rango amplio de temperaturas; incluso permanecer congelada durante largos periodos de tiempo y después recuperar su actividad normal como si nada. Además, su alimentación es muy barata y crece muy rápido, tanto que es capaz de duplicarse en apenas veinte minutos, lo que permite tener un ‘ejército’ de millones de bacterias en un solo día.

Pero lo más importante es que también hemos aprendido a introducir genes de otros seres vivos en Escherichia coli de forma muy sencilla (lo que se conoce como ‘ADN recombinante’). Esto permite meter en la bacteria un gen con las instrucciones para fabricar una proteína de cualquier otro ser vivo, es decir, crear un mutante.

Da igual si el gen es de otra bacteria, de un pez, una mosca, un ratón, una planta, un lobo o un ser humano. Como las bases moleculares de la vida, el lenguaje del ADN y la síntesis de proteínas son iguales en todos los seres vivos de este planeta, la maquinaria de las bacterias es capaz de construir cualquier cadena de aminoácidos (proteína) independientemente de su origen genético.

Sin embargo, no todo es tan sencillo. Por muy pequeñas que sean, las bacterias no son tontas y no se van a poner a sintetizar, así por las buenas, una proteína extraña que no les sirve para nada o que incluso podría hacerles daño. Para resolver este problema, los investigadores han conseguido bacterias capaces de leer el gen de interés solo cuando queremos que lo lean.

Añadiendo una sustancia específica al cultivo de bacterias, estas pierden parcialmente el control de sus actos y empiezan a fabricar la proteína que queremos como si en ello les fuese la vida. Y así es como conseguimos tener un ejército de bacterias mutantes y zombis que realiza el duro trabajo de fabricar la proteína que nos interesa.

Placas de cultivo con distintas bacterias mutantes. Cada puntito blanco es una colonia de bacterias compuesta por millones de células que ha crecido a partir de una sola célula.

¿Y qué hay de lo mío?

Finalmente, hay un último problema que resolver. La gran mayoría de las veces, producir una sola proteína extraña no es suficiente para que las bacterias cambien de aspecto. No les salen alas, ni garras, ni ojos, ni nada que nos permita distinguirlas. A simple vista, una bacteria normal y una bacteria mutante son exactamente iguales. Para saber si nuestras bacterias mutantes han fabricado la proteína que queríamos, hay que destruir las bacterias y ver si, entre toda la mezcla de proteínas que normalmente fabrican para vivir, se encuentra la nueva.

Se pueden utilizar distintas características que nos permitan distinguir unas proteínas de otras en esta mezcla. Una de las características más utilizadas es su tamaño. En cualquier célula podemos encontrar proteínas desde muy grandes hasta muy pequeñas, según lo larga que sea la cadena de aminoácidos que las forman. Y como la secuencia de aminoácidos de la proteína que nos interesa la podemos conocer a partir del gen que previamente hemos introducido en las bacterias, podemos calcular el tamaño que tendrá.

Para separar las proteínas por su tamaño, utilizamos una técnica llamada ‘electroforesis’. Etimológicamente, este término proviene de la unión de los vocablos ‘electro-’, que hace referencia al uso de electricidad, y ‘-foresis’, que en griego significa ‘transporte’. La técnica consiste en poner la mezcla de proteínas en un medio que hace que adquieran carga negativa. Después, se aplica una corriente eléctrica a la mezcla que hace que las proteínas cargadas negativamente se desplacen a un polo positivo (ánodo).

En su camino, las obligamos a pasar por un gel que forma una red de microtúneles. Al encontrarse con este obstáculo, las proteínas pequeñas serán capaces de avanzar mucho más rápido que las grandes, que se irán quedando retrasadas. Más retrasadas cuanto más grandes sean. Así, al cortar la corriente eléctrica y ver el resultado de la ‘carrera’, observaremos bandas que corresponden a proteínas de distintos tamaños. Las más pequeñas cerca del polo positivo y las más grandes cerca del punto de partida.

Comparando el patrón de bandas de bacterias naturales con el de bacterias mutantes, deberíamos poder ver una única diferencia. Una proteína que esté en la mezcla de bacterias mutantes, que no esté en las naturales y que tenga el tamaño calculado para la proteína que nos interesa. Si es así, ¡¡premio!!, habremos conseguido que las bacterias mutantes zombies fabriquen la proteína que necesitábamos.

Ejemplos de electroforesis de proteínas. Cada una tiene 3 carriles: uno con una muestra de referencia de tamaños (Ref), otro con la mezcla de bacterias naturales (Nat) y otro con la mezcla de bacterias mutantes (Mut). La proteína nueva se indica con una flecha.

* María Zapata Cruz, Laura Tomás Gallardo y Alejandro Díaz Moscoso son el equipo técnico de la Plataforma de Proteómica y Bioquímica del Centro Andaluz de Biología del Desarrollo, centro mixto del CSIC y la Universidad Pablo de Olavide de Sevilla.

Cinéfila-mente: cómo el cine ha tratado el cerebro y las enfermedades mentales

Por Emilio Tejera (CSIC)*

 

Shakespeare liberó en La tempestad aquella mítica frase de “estamos hechos de la misma materia con la que se tejen los sueños”. Pero, de un siglo a esta parte, los “sueños” se fabrican sobre todo a partir de celuloide, luz, sonido y, últimamente, soporte digital. El cine siempre es un reflejo de la realidad y de su tiempo y, como tal, no podían faltar las referencias a nuestro cerebro y a las enfermedades mentales.

Al principio, de manera tímida. Es difícil establecer cuál fue la primera película que trató sobre las dolencias mentales: en 1908 hay una adaptación de El extraño caso del Dr. Jekyll y Mr. Hyde, obra donde Stevenson quería reflejar la dualidad del ser humano, pero que siempre se ha visto como una metáfora de los mal llamados trastornos de personalidad múltiple (mejor denominarlo “trastorno de identidad disociativo”). No obstante, fue en 1914 cuando apareció The woman of mistery, probablemente la película más antigua que trata de manera específica esta patología, y de las primeras que utiliza la enfermedad mental como argumento principal.

Fotograma de la película muda El gabinete del doctor Caligari, dirigida por Robert Wiene en 1920

Sin embargo, será en los años cincuenta o sesenta cuando empiezan a exponerse los trastornos mentales con todo su dramatismo, y entramos en las consultas de psiquiatras y psicólogos, en ocasiones con diagnósticos, patologías o métodos de tratamiento que no forman parte de la clínica habitual. En cintas como De repente el último verano, Recuerda, Matar a un ruiseñor, Las tres caras de Eva, Psicosis o La extraña pareja aparecen personajes con trastornos mentales. En estas historias, en general, se refleja muy bien la perspectiva de la época, donde se observa a los pacientes desde fuera, en ocasiones con un halo de condescendencia, y la figura del médico ocupa un papel central.

Un cambio de orientación

Progresivamente, el foco se va desplazando hacia la persona que sufre el problema: si Alguien voló sobre el nido del cuco señalaba las críticas a los centros psiquiátricos (en parte con un punto de injusticia), las ficciones modernas tratan de ponerse en la piel de los y las pacientes y, de hecho, la reciente serie Fácil destaca la importancia de la autonomía y de que las personas afectadas —bien tratadas y asesoradas— sean libres de decidir, en la medida de lo posible, acerca de su destino. A lo largo de este tiempo, determinadas ficciones (Rainman con los trastornos del espectro autista; Una mente maravillosa con la esquizofrenia; Memento con la amnesia anterógrada; El indomable Will Hunting con las altas capacidades intelectuales) han puesto de moda determinadas dolencias y condiciones que han empezado a abundar con profusión en el cine, y hasta han influido en la forma de presentación de estos trastornos y, por supuesto, en nuestra forma de tratar a quienes los padecen.

Las películas y series no siempre han sido rigurosas al tratar los problemas mentales: muchas veces se tergiversan o mezclan enfermedades, se simplifican las causas, los diagnósticos se hacen con un simple vistazo, los tratamientos duran días (en vez de años) y los pacientes se curan espontáneamente, a veces, por un golpe en la cabeza o por un impulso voluntario, fenómenos que por supuesto no suelen acaecer con mucha frecuencia. También se ha exagerado la asociación entre enfermedad mental y violencia hacia otras personas, cuando lo más común que los pacientes atenten contra sí mismos.

En ocasiones, le pedimos demasiado al cine: el film Adam reflejaba tan bien el síndrome de Asperger que se criticó que el protagonista fuera un paciente excesivamente “arquetípico”; en cambio, al personaje de Jack Nicholson en Mejor imposible se le reprochó que manifestara un carácter desagradable, que no tiene por qué estar asociado a los pacientes con trastorno obsesivo-compulsivo.

Al final, es difícil que una sola película resuma por completo un trastorno mental, igual que un solo paciente no puede representar a todo un colectivo. Cada persona es única, con sus particularidades y vivencias, algo que ya empiezan a reflejar las obras de ficción recientes, donde la enfermedad mental es un hecho normal que se cura o con el que en ocasiones se convive, que le puede ocurrir a cualquiera y para el cual siempre se puede pedir ayuda por parte de profesionales. Y que, a menudo, tiene su origen no tanto en quienes la sufren como en el entorno con el que nos ha tocado lidiar.

Carrie (1976) tiene el poder de la telequinesis, pero muchos de sus problemas proceden de la ansiedad que le provoca el bullying ejercido por sus compañeros de clase

 

Últimamente, en la sociedad se destaca mucho la importancia de la salud mental, y con razón: ojalá esto sirva para que cada vez haya más medios disponibles (incluyendo la todavía en desarrollo filmoterapia, que emplea el cine para ayudar a los pacientes). Al fin y al cabo, como suele decirse, la salud de una sociedad se define por cómo esta trata a sus enfermos. Y nos conviene que esta película, más que ninguna otra, acabe bien.

 

* Emilio Tejera es médico y bioquímico; trabaja como responsable de la Unidad de Biología Molecular y como miembro del área de Cultura Científica del Instituto Cajal (CSIC). Una expansión de este artículo en formato charla, puede encontrarse aquí.

 

 

 

Fibra óptica, implantes médicos o paneles solares: ‘La Edad del Vidrio’ ya está aquí

Por Mar Gulis (CSIC)

Te encuentras atravesando un espeso bosque lleno de secuoyas cuando de repente un sonido familiar se oye a lo lejos, repetitivo, cada vez más elevado, hasta que, ¡ZAS!, te percatas de que se trata de la alarma del móvil. Es la hora de ponerse en pie… Te pones las gafas y miras la pantalla: las 7:00 h, comienza un nuevo día. Te lavas la cara frente al espejo, te cepillas los dientes y te asomas por la ventana. Ves que hace un sol radiante, promete ser un gran día. Mientras abres el tarro de una deliciosa mermelada y pones la cafetera en la vitrocerámica, enciendes el portátil para ver si hay alguna novedad. La jornada comienza bien a pesar de que un mensaje te recuerda que hoy tienes cita para ponerte un implante dental y que además te toca la siguiente dosis de la vacuna.

Esta podría ser una mañana más en la vida de una persona cualquiera, pero en esas primeras horas ya aparecen varios elementos en los que el vidrio juega un papel determinante. Aunque no hayas reparado en ello, la lente de las gafas, la pantalla del móvil, el espejo, el acristalamiento de la ventana, la placa vitrocerámica, la fibra óptica que te permite navegar por Internet y los envases que aseguran la correcta conservación de alimentos y vacunas están hechos de vidrio… Este material está presente en todo tipo objetos, algunos de ellos tan sorprendentes como los implantes de piezas dentales o los dentífricos que emplean nanopartículas de vidrio.

Descubierto por casualidad en Siria hace 5.000 años, cuando unos mercaderes utilizaron natrón para apoyar sus ollas sobre las fogatas en las que iban a cocinar, en la actualidad el vidrio nos rodea, forma parte de nuestras vidas. No es de extrañar, por tanto, que haya sido el primer material en protagonizar una conmemoración internacional, la correspondiente al año 2022, declarado por Naciones Unidas Año internacional del Vidrio.

El vidrio es uno de los materiales más transformadores de la historia de la humanidad. A lo largo de la historia ha desempeñado importantes funciones en la arquitectura, los artículos para el hogar, los envases… Y hoy es un elemento esencial en sectores clave como el de la energía, la biomedicina, la información y las comunicaciones o la óptica y la optoelectrónica.

Una exposición para descubrir las aplicaciones del vidrio

¿Sabías que existen vidrios diseñados para disolverse dentro del cuerpo humano? ¿O que es posible fabricarlos para que emitan luz en la oscuridad? Entre otras muchas aplicaciones, el vidrio resulta indispensable en los paneles solares y las palas de las turbinas eólicas que nos proporcionan energía limpia, la conservación de vacunas como las diseñadas para hacer frente al virus de la COVID-19, la curación de tejidos dañados o la fabricación de implantes.

Precisamente de sus aplicaciones nos habla la exposición itinerante y virtual La Edad del Vidrio, elaborada por el Consejo Superior de Investigaciones Científicas (CSIC) con apoyo de la Fundación Española para la Ciencia y la Tecnología (FECYT). A través de ellas, la muestra invita al público a averiguar todo lo que este material puede hacer para ayudarnos a alcanzar los Objetivos de Desarrollo Sostenible de la ONU: 17 retos globales encaminados a erradicar la pobreza, proteger el planeta y asegurar la prosperidad de sus habitantes.

Exposición La Edad del Vidrio en la Biblioteca Municipal Eugenio Trías (Madrid) / Laura Llera

Por el momento, la muestra podrá visitarse del 4 al 27 de octubre en el parque de El Retiro de Madrid y del 2 de noviembre al 11 de diciembre en la Real Fábrica de Cristales de La Granja (Segovia), aunque después seguirá recorriendo otros lugares. Además, sus contenidos se encuentran también completamente disponibles en la web www.edaddelvidrio.es. En ella, podrás navegar por la exposición en castellano o inglés, descargártela y escuchar sus audioguías, que también puedes encontrar en las principales plataformas de audio (Ivoox, Spotify, Google podcast, Apple podcast o Amazon music), buscando ‘La edad del vidrio’.

Experimentos y propuestas didácticas

Además, si quieres profundizar en la exposición de manera lúdica y didáctica, también encontrarás materiales educativos para ESO y Bachillerato que estimulan la creatividad e invitan al debate. Sus contenidos incluyen un endemoniado juego de Verdadero o falso relacionado con las aplicaciones del vidrio o una Sopa de letras en las que buscar términos relacionados con este material. Crear una tabla periódica vidriera, convertirse en un superhéroe o una superheroína del clima o diseñar una campaña de sensibilización para fomentar el reciclaje del vidrio son otras de las actividades propuestas.

Y para quienes decidan adentrarse en el mundo del vidrio de forma más práctica (y dulce), también hay experimentos. Con ellos se pueden crear cristales de azúcar y  experimentar con algunas de las propiedades del vidrio con poco más que unos caramelos, un martillo y una bandeja de hielos. La actividad te ayudará a comprender el proceso de fabricación del vidrio y a entender por qué, en las películas, el vidrio que se quiebra, estalla o explota, rara vez es vidrio real… De hecho, se trata de vidrio falso hecho a partir de azúcar para que nadie resulte herido.

En cualquier caso, aunque haya vidrios fake, el verdadero vidrio está muy presente en nuestras vidas y juega un papel fundamental en el mundo contemporáneo. Descúbrelo navegando por la exposición y descargando sus unidades didácticas y sus fichas de experimentos de manera gratuita. ¡Que su transparencia no lo haga pasar desapercibido!

El Mar Menor y su trayectoria hacia el colapso

Por Juan Manuel Ruiz Fernández* y Mar Gulis (CSIC)

En primavera de 2016 las concentraciones de clorofila en el Mar Menor multiplicaron por más de 100 los valores medios de las últimas dos décadas, habitualmente inferiores a un microgramo por litro. Este excepcional y explosivo crecimiento de fitoplancton (seres vivos capaces de realizar la fotosíntesis que viven flotando en el agua) lo protagonizaba una cianobacteria del género Symbiodinium sp, un conocido disruptor del funcionamiento de los ecosistemas acuáticos.

La ausencia de luz generada por la acumulación de esta cianobacteria causó en los meses siguientes la pérdida del 85% de las praderas de plantas acuáticas (los denominados macrófitos bentónicos) que tapizaban de forma casi continua los 135 km2 del fondo de la laguna.

Las aguas extremadamente turbias del Mar Menor han causado la desaparición del 85% de las praderas de la planta marina ‘Cymodocea nodosa’, fundamental para el funcionamiento del ecosistema lagunar. / Javier Murcia Requena

Esto supuso la movilización de miles de toneladas de carbono y nutrientes por la descomposición de la biomasa vegetal y del stock almacenado en el sedimento durante décadas; un proceso que, a su vez, retroalimentó el crecimiento del fitoplancton y prolongó la duración de este episodio de aguas turbias sin precedentes. Todo apuntaba que se estaban atravesando los umbrales ecológicos, a partir de los cuales los ecosistemas sometidos a una presión creciente colapsan y se precipitan bruscamente hacia un estado alterado que puede incluso ser tan estable como el estado anterior. Pero, ¿cómo ha llegado este singular ecosistema a una situación tan extrema?

Una laguna hipersalina

En primer lugar, es necesario conocer un poco el marco ambiental. El Mar Menor es una albufera hipersalina conectada a una cuenca vertiente de 1.300 km2. Sin embargo, de acuerdo con el carácter semi-árido del sureste peninsular, no hay ríos que desembocan en él. Las únicas entradas de agua dulce son las aportadas por escorrentía superficial durante unos pocos eventos de lluvias torrenciales cada año, y unas entradas más difusas de aguas subterráneas.

Las escasas entradas de agua dulce y una limitada tasa de intercambio con el Mediterráneo (en promedio, la tasa de renovación del agua del Mar Menor es de 1 año) explican la elevada salinidad de esta laguna costera. Antes de la década de 1970 la salinidad era incluso superior, pero disminuyó debido a la ampliación del canal del Estacio, una de las cinco golas (o conexiones) naturales entre el Mar Menor y el Mediterráneo. Desde entonces, los valores medios se han mantenido entre 42 y 48 gramos de sal por litro.

Dragados y vertidos de aguas residuales

El flujo a través de este canal gobierna ahora el régimen hidrodinámico de la albufera. Su dragado es considerado uno de los hitos principales de la transformación del Mar Menor por la acción humana.

Básicamente, se argumenta que favoreció la entrada y dispersión de especies mediterráneas y el declive de algunas especies lagunares de flora y fauna. Por ejemplo, uno de los organismos que vio favorecida su dispersión en los fondos de la laguna fue el alga oreja de liebre (Caulerpa prolifera), una especie oportunista capaz de aprovechar los nutrientes de forma muy eficiente y ocupar grandes extensiones en breves periodos de tiempo. Se considera que la oreja de libre tiene la capacidad de desplazar competitivamente a las especies nativas, como Cymodocea nodosa, que también forma praderas en el fondo de la laguna.

La oreja de liebre es un alga verde que cubre todo el fondo de la laguna, y es capaz de realizar grandes desarrollos en muy poco tiempo. En las praderas marinas del Mar Menor abundaba el bivalvo gigante del Mediterráneo o Nacra, especie ahora en peligro de extinción en todo el Mediterráneo. / Javier Murcia Requena

No obstante, alguno de los efectos negativos achacados al cambio de régimen hidrológico sobre las comunidades biológicas podría haber sido exagerado o carente de suficiente evidencia científica. A modo de ejemplo, se ha obtenido nueva evidencia que apunta a que las praderas de C. nodosa no solo no experimentaron un declive tras la propagación de Caulerpa, sino que ambas especies han coexistido con una elevada abundancia durante al menos las cuatro décadas anteriores al colapso ecosistémico.

Este incremento en la abundancia de organismos fotosintéticos implica la existencia de una elevada disponibilidad de nutrientes, condición que se cumplía con creces en el momento de la propagación del alga debido a los vertidos de aguas residuales sin depurar al Mar Menor. Por tanto, no solo el cambio en el régimen hidrológico es clave para entender este proceso de transformación del ecosistema de la laguna, sino también los excesos de nutrientes procedentes del desarrollo urbano y turístico.

Agricultura intensiva

En la década de los 1990 se completan los sistemas de tratamiento de aguas residuales en la zona, que dejan de ser vertidas al Mar Menor (a costa de ser desviadas al Mediterráneo). Pero con esto no desaparecen los problemas relacionados con el exceso de nutrientes en la albufera, sino que persisten, e incluso se intensifican, por el desarrollo de la agricultura de regadío que se inicia den la década de 1950.

Este modelo de agricultura va progresivamente reemplazando a la tradicional agricultura de secano a expensas de la sobreexplotación de las aguas subterráneas. Para soportar y aumentar este desarrollo, en 1979 se crea el transvase entre las cuencas del Tajo y del Segura, el siguiente hito clave en la transformación y el deterioro del Mar Menor.

Los recursos hídricos trasvasados eran insuficientes para sostener el crecimiento de dicha producción y tuvieron que ser complementados con las aguas subterráneas que, al ser salobres debido a la sobreexplotación previa, debían ser tratadas en plantas desaladoras cuyos vertidos, con hasta 600 miligramos de nitrato por litro, acababan en la laguna. Esta intensa actividad agrícola causó además un aumento en la recarga del acuífero y en sus niveles de contaminación por nitratos (150 mg/l), que se tradujo en un aumento de los flujos de aguas subterráneas altamente cargadas en nitrógeno al Mar Menor.

40 años de resiliencia

¿Cómo es posible que esta entrada masiva de nutrientes durante décadas no se haya visto reflejada en un deterioro aparente del ecosistema? Al menos hasta 2016, la laguna mantuvo unas aguas relativamente transparentes y unos fondos dominados por notables comunidades de plantas marinas. ¿Qué hizo que el crecimiento explosivo del fitoplancton se mantuviera ‘a raya’ y las aguas no se enturbiaran?

Uno de los mecanismos que pueden explicar la resiliencia del ecosistema es la función de filtro de partículas y nutrientes que realiza la vegetación del fondo marino. Otro son los desequilibrios en las proporciones de nitrógeno o fósforo.

Cuando los nutrientes no son limitados, la proporción de estos elementos en el fitoplancton suele ser de 16 unidades de nitrógeno por una de fósforo. Las aguas contaminadas por la actividad agrícola están cargadas de nitrógeno, pero apenas tienen fósforo. Y, aunque el fósforo es abundante en las aguas residuales urbanas, este tipo de vertido ya no se realiza en la laguna, al menos intencionadamente. Por tanto, en la actualidad, la principal vía de entrada del fósforo al Mar Menor son las toneladas de tierra arrastradas por la escorrentía superficial desde las parcelas agrícolas durante episodios de lluvias torrenciales. En la DANA de 2019 se estimó que, junto a los 60 hectómetros cúbicos de agua que llegaron a la laguna, entraron también entre 150 y 190 toneladas de fosfato disuelto.

Por ello, mientras que los aportes de nitrógeno son más continuados en el tiempo, los de fósforo son puntuales y esporádicos, limitados a unos pocos eventos anuales. A esto hay que añadir que, una vez entran en la laguna, estos fosfatos son inmediatamente absorbidos por la vegetación y/o fijados en los sedimentos. Estas diferencias en la dinámica de ambos elementos podría explicar que, aunque ambos entran de forma masiva en la laguna, las ocasiones en que sus proporciones son adecuadas para el desarrollo del fitoplancton son limitadas.

Un ecosistema alterado e inestable

El colapso del ecosistema lagunar en 2016 supuso la pérdida y/o el profundo deterioro de buena parte de los mecanismos de resiliencia y de sus servicios ecosistémicos. Así lo sugieren otros importantes hitos, como la pérdida del 85% de la extensión total de las praderas de plantas en el fondo de la laguna y del 95% de la población de Pinna nobilis, una especie de molusco bivalvo endémica del Mediterráneo. Estas pérdidas, que no muestran apenas síntomas de recuperación hasta la fecha, son claros exponentes del grado de alteración del ecosistema.

Antes del colapso ecosistémico las poblaciones de caballito de mar parecían estar recuperándose, pero el deterioro actual del ecosistema las hace estar próximas a la extinción local. / Javier Murcia Requena

Aunque carecemos de datos para valorar esta alteración de forma más global, se ha observado un régimen mucho más inestable respecto a décadas anteriores, más vulnerable a los cambios del medio, con mayores fluctuaciones de sus condiciones ambientales. La frecuencia de eventos de crecimiento explosivo del fitoplancton como el de 2016 ha aumentado claramente, y ahora los periodos de aguas turbias se alternan con los de aguas más turbias y coloreadas.

A diferencia de épocas pasadas, en estos periodos se pueden producir episodios de déficit de oxígeno hasta niveles que comprometen la vida marina y que han resultado en mortalidades masivas de organismos marinos, como se ha observado en episodios muy recientes.

En agosto de 2021 el agotamiento del oxígeno en el agua alcanzó niveles tóxicos para la vida marina, lo que provocó la mortalidad masiva de peces, moluscos y crustáceos. / Javier Murcia Requena

Se trata de eventos muy extremos y propios de sistemas costeros en etapas muy avanzadas del proceso de eutrofización (presencia excesiva de nutrientes). No obstante, desconocemos todavía los factores y mecanismos por los cuales se desencadenan todos estos eventos, algunos de los cuales se producen incluso sin que vayan precedidos de un incremento de las concentraciones de nutrientes en el agua.

*Juan Manuel Ruiz Fernández es investigador del CSIC en el Instituto Español de Oceanografía

¿Qué pasa en el cerebro cuando morimos?

Por Óscar Herreras* y Mar Gulis (CSIC)

¿Qué actividad cerebral hay en un coma profundo? ¿Y durante un ictus? ¿Qué pasa en el cerebro cuando nos morimos? Para acercarnos a estas delicadas cuestiones solo contamos con los registros de la actividad eléctrica de las neuronas, el electroencefalograma (EEG), una medida de la actividad cerebral que constituye un indicador de cómo de despierto está un paciente al salir de una anestesia, por ejemplo, o para conocer cómo de profundo es un coma.

La actividad cerebral que se refleja en un EEG durante un coma profundo es nula (EEG plano). Sin embargo, en el momento de la muerte de algunos enfermos que estaban en la UCI se ha podido registrar una actividad eléctrica cerebral que dura entre 20 y 30 segundos y que algunos han querido interpretar como un «despertar antes de la muerte». Profesionales sanitarios comentan que a veces han observado gestos faciales de mirada al vacío y expresión apacible, lo que ha alimentado ciertas especulaciones que unos y otros relacionan con la experiencia vital o religiosa. Sin embargo, esto no ocurre de forma general, ni podemos asegurar que los rasgos faciales reflejen una sensación real de la persona en tránsito. Ni siquiera podemos asegurar que esa actividad eléctrica sea neuronal, podría ser muscular. Porque realmente…  ¿qué ocurre en el cerebro cuando morimos?

La información sobre la muerte cerebral en personas es muy escasa, y los registros del EEG en pacientes solo nos dan un reflejo de lo que ocurre en las capas más externas del cerebro, la corteza cerebral. No obstante, podemos acercarnos mucho a este proceso si nos fijamos en la investigación neurofisiológica que explora formas de disminuir o evitar el daño cerebral que sobreviene tras un ictus o una parada cardiorrespiratoria transitoria.

Actividad eléctrica durante la muerte

Representación del brote de actividad eléctrica cerebral que precede al “apagado” del cerebro durante la onda de despolarización SD (spreading depolarization). / Óscar Herreras

Durante una parada, el cerebro sufre la falta de riego sanguíneo (isquemia), al igual que en un ictus, un aneurisma o un traumatismo craneal severo. En estos últimos el daño se limita a una zona del cerebro y puede tener otros factores agravantes. Entre 1 y 5 minutos después de la parada se genera un potencial eléctrico muy pronunciado en el cerebro, relacionado con la falta de oxígeno en los vasos sanguíneos que irrigan las neuronas. Este potencial se inicia en uno o varios sitios y se propaga como una onda de despolarización SD (del inglés, spreading depolarization), que también aparece en las migrañas y en los ictus. Las neuronas pierden su capacidad de funcionar como pilas eléctricas y dejan de generar los impulsos eléctricos con los que procesan la información, dan órdenes a los músculos o controlan la actividad hormonal.

Ahora bien, justo en el momento en que la onda llega a una zona concreta de la corteza cerebral, esta genera un brote de impulsos eléctricos durante unos segundos. Además, aunque la onda afecta a las neuronas, no inactiva sus fibras, que comienzan a producir por sí solas descargas eléctricas que se transmiten y activan otras zonas que aún no han sido desactivadas. Esto puede explicar las diferentes sensaciones visuales o de otro tipo que se tienen antes (o en el momento) de morir, o los gestos faciales. Algunas personas que han sido recuperadas mediante desfibriladores o reanimación cardiopulmonar (RCP) relatan imágenes del pasado, imágenes de amistades, de familiares fallecidos… que “residen” en los circuitos corticales como parte del conectoma personal, ese mapa de conexiones en el que se graba nuestra experiencia vital y nuestros conocimientos.

Nuestro cerebro se apaga por zonas

¿Por qué es tan frecuente que las personas que han sufrido una parada y son reanimadas padezcan secuelas cognitivas importantes, y que incluso puedan quedar en estado vegetativo permanente? Los numerosos estudios para conocer las causas de la muerte neuronal por isquemia o anoxia han aportado mucha información. Por ejemplo, sabemos que la onda de despolarización no surge en todo el cerebro, sino que hay regiones más susceptibles que otras. El cerebro es un órgano muy heterogéneo, y la falta de oxígeno es más letal para unas zonas que para otras, en concreto, las regiones más “modernas” evolutivamente, como la corteza cerebral, son las más sensibles, junto con el hipocampo, y son las primeras que mueren. Pero el tronco encefálico, en el que residen funciones vegetativas como el control cardiorrespiratorio, y la médula espinal son muy resistentes y soportan hasta horas sin oxígeno. Lo que hace que unas regiones mueran y otras aguanten es el hecho de que las primeras pueden generar la onda eléctrica y las últimas no, o la desarrollan muy tarde y de manera muy atenuada. Podríamos decir que nuestro cerebro muere por partes, no se “desconecta” todo a la vez. A esta “muerte por zonas” la denominamos vulnerabilidad selectiva.

Neuronas que parecen estrellas. En esta imagen, clones de astrocitos en la corteza cerebral. /López-Mascaraque Lab.

Neuronas y estrellas, espacio extracelular y espacio interestelar

Recordemos que las neuronas son las únicas células del cuerpo que, salvo unas pocas excepciones, no se regeneran. En el momento de su muerte, las neuronas de estructuras en las que se genera la onda de potencial despolarizante sufren una entrada masiva de agua a su interior y revientan. Si nos permiten poner un punto de poesía en este lúgubre tema, cuando no les llega más oxígeno, las neuronas explotan al final de su vida, como lo hacen las estrellas, vertiendo su contenido al espacio extracelular, como las estrellas lo hacen al espacio interestelar.

*Óscar Herreras es investigador del CSIC en el Instituto Cajal.

“Cariño, ¿dónde he metido el cerebro de Einstein?”

Por Emilio Tejera (CSIC)*

En 1955 Albert Einstein muere y, mientras el mundo llora su pérdida, un patólogo del Hospital de Princeton le hace la autopsia. El nombre del médico es Thomas Harvey, quien, animado por un súbito impulso, toma una decisión: extraer el cerebro de Einstein de su cráneo sin el consentimiento de la familia. Harvey regala fragmentos de cerebro a médicos del hospital (otras partes de su cabeza, como los ojos, acabarían en manos del oftalmólogo personal del científico) y luego decide meter el órgano del eminente genio en el maletero de su coche. Durante veinte años, nadie sabrá qué ha ocurrido con el cerebro de Einstein.

Fotografía del cerebro de Einstein tomada por el patólogo Thomas Harvey.

Siendo sorprendente, lo que hizo Harvey no era nuevo. El ser humano siente una especial fascinación por partes del cuerpo de celebridades (desde las reliquias de los santos hasta los cráneos de Goya y Haydn, que sufrieron diversos avatares), como si de esta manera pudiéramos acercarnos más a ellos. Lo cierto es que el secuestro del cerebro de Einstein trae a colación una vieja pregunta, ¿podemos averiguar algo de la personalidad de los individuos a partir de la observación a simple vista de sus cerebros? Durante años, se sostuvieron las erróneas teorías de que el peso del cerebro o las proporciones del cráneo eran una buena medida de la inteligencia de los individuos, pero era hora de abordar este tema desde una perspectiva más científica: ¿conseguiría el cerebro de Einstein aportar algo de luz sobre estas cuestiones?

A lo largo de dos décadas, Harvey mantuvo el cerebro de Einstein preservado en alcohol, dentro de unos botes de conservas en su casa, en una caja de sidra debajo de un enfriador de cerveza. Esto fue así hasta que un periodista aireó el asunto. Además de generarse un gran revuelo, unos cuantos investigadores se interesaron por el órgano en cuestión y solicitaron a Harvey pequeñas muestras para estudiarlas. A partir de ellas, se hicieron varias investigaciones para determinar cuál era el secreto de la inteligencia de Einstein.

Albert Einstein en sus días de estudiante. / Lotte Jacobi

No quiero aburrir con los detalles, pero un análisis llevado a cabo por la neurocientífica Marian Diamond (de la Universidad de Berkeley) ilustra muchas de las conclusiones obtenidas. Diamond descubrió que en determinadas zonas del cerebro de Einstein existía una mayor proporción de células de glía (células, por simplificarlo, con una función de “sostén”) alrededor de cada neurona. Esto podría explicar las capacidades de Einstein, pero Diamond también descubrió que esas células de glía pueden aumentar su número con el entrenamiento en matemáticas y otras disciplinas complejas. Es decir, como afirmaba Ramón y Cajal, “todo hombre puede ser escultor de su propio cerebro”. La inteligencia también se entrena, y nos pasa como con el dilema del huevo y la gallina: es difícil concluir si Einstein era muy listo porque su cerebro era así o, en cambio, su cerebro era así porque Einstein trabajó en materias que estimularon su inteligencia.

Ocurre algo muy parecido con otros descubrimientos relacionados con la anatomía de Einstein (por ejemplo las alteraciones que se encontraron en la llamada cisura de Silvio): resulta imposible esclarecer si estos cambios tenían una relevancia significativa o consistían en meras casualidades. El cerebro es un órgano muy complejo, del que no entendemos muchas cosas, y observar simplemente los ejemplos de unos cuantos individuos sobresalientes no nos va a revelar cuál era la clave de su singular brillantez. Es necesaria todavía mucha más investigación para dilucidar qué hacía a Einstein ser como era o cuánto podríamos parecernos a él. De hecho, las aproximaciones más avanzadas hoy en día en cuanto a investigación en neurociencia (The Human Brain Project, de la Unión Europea, y The Brain Initiative, de Estados Unidos) se basan sobre todo en las conexiones entre cada una de las neuronas, mucho más difíciles de desentrañar, pero sin duda más importantes que lo que somos capaces de detectar a simple vista.

Con el cerebro del genio en el maletero

El cerebro de Einstein estuvo en manos de Harvey hasta los años 90, cuando un periodista le propuso llevar el macabro “recuerdo” de vuelta a sus legítimos descendientes. Durante un fascinante road trip conocieron a gente famosa, atravesaron Las Vegas y llegaron finalmente a casa de sus herederos, quienes rechazaron el regalo. Así que Harvey devolvió el cerebro al Hospital de Princeton, y los registros que había obtenido (dibujos, fotografías, cortes para el microscopio) acabaron en un museo, no muy lejos de donde pasó sus últimos días un genio que, paradójicamente, nunca quiso que nadie prestara atención a sus restos. De hecho, él solicitó que lo incineraran.

Al final, pese a nuestro comportamiento un poco fetichista respecto a los cerebros de personas famosas, y al intento de la ciencia de comprender mejor sus mentes, la mejor manera de acercarse al cerebro de una persona sigue siendo hablar con ella; y, en casos como el de Einstein (con individuos que ya no están), revisar su trabajo, leer sus escritos y, en definitiva, examinar el legado que nos dejaron en vida, donde desplegaron sus pensamientos y sus alardes de genialidad. No hay mejor mecanismo que la palabra escrita para viajar al pasado; o, al menos, en seis mil años de historia, todavía no lo hemos inventado.

*Emilio Tejera (@EmilioTejera1) trabaja en el Instituto Cajal del CSIC. Una conferencia más detallada acerca de las vicisitudes del cerebro de Einstein y de otros personajes puede encontrarse en este enlace.

Cambia el chip: la leche entera es beneficiosa para la salud

Por Javier Fontecha (CSIC)*

El consumo de leche ha supuesto una ventaja evolutiva para la especie humana. Quienes más se han beneficiado de él han sido las poblaciones que lograron, mediante mutación genética, obtener la capacidad de digerir la lactosa. Pero las poblaciones con distintos niveles de intolerancia a la lactosa también encontraron una ventaja adaptativa en el consumo de lácteos fermentados como el yogurt y el queso, con contenido reducido o nulo de este hidrato de carbono.

En la actualidad, la comunidad científica ha llegado al consenso, en contra de muchas ideas, bulos y mensajes erróneos, de que la leche y los productos lácteos aportan prácticamente todos los nutrientes esenciales para las distintas etapas de la vida, especialmente durante la infancia y la adolescencia, pero también en la edad adulta. La leche sigue siendo considerada el alimento más completo desde el punto de vista nutricional, al aportar proteínas con todos los aminoácidos esenciales y de elevada biodisponibilidad, hidratos de carbono como la lactosa –un disacárido que favorece la absorción de calcio y con actividad probiótica–, grasas complejas con una gran variedad de ácidos grasos de cadena corta y media y pequeñas cantidades de ácidos grasos esenciales (Omega 6 y Omega 3), así como una gran contribución de minerales y vitaminas. Todo ello en un conjunto equilibrado y de bajo poder calórico y, lo que quizá sea lo más importante en los tiempos en que vivimos, a un precio reducido: en algunos casos, el litro de leche puede ser más barato que el litro de agua mineral. Aunque el consumo de leche y productos lácteos no es imprescindible para la vida, desde un punto de vista nutricional no es sencillo poder sustituir el aporte de nutrientes que se obtiene de un simple vaso de leche con otros productos alimentarios en una dieta variada y equilibrada.

El debate sobre la grasa láctea y el colesterol

Pero es alrededor de la grasa láctea donde realmente se ha generado un mayor debate científico y social en las últimas décadas. La grasa láctea, al igual que otras grasas de origen animal, es una grasa denominada ‘saturada’ por contener en su composición un elevado porcentaje de ácidos grasos saturados (AGS) y colesterol, lo que se ha relacionado con el incremento del riesgo de padecer enfermedades cardiovasculares.

La lactosa es un tipo de azúcar que se encuentra en la leche y otros productos lácteos como quesos y yogures.

Esta relación, conocida como el paradigma grasa-salud, fue generada en la década de los 60 por el fisiólogo estadounidense y presidente de la American Heart Association Ancel Keys, quien estableció mediante el famoso estudio de los siete países (hoy en día muy criticado y devaluado) la relación entre la incidencia de la enfermedad coronaria (EC) y la concentración total de colesterol plasmático procedente de la dieta, que luego correlacionó con la energía aportada por los AGS. Esta hipótesis estableció las bases para la “demonización” de las grasas de la dieta (principalmente lácteas) y la aparición de las primeras recomendaciones nutricionales donde se aconsejaba la disminución de la ingesta de grasas de manera indiscriminada a toda la población, que se mantienen hasta nuestros días.

Sin embargo, como es bien sabido, correlación no es causalidad y hoy en día se reconoce la ausencia de efectos negativos derivados del consumo moderado de alimentos ricos en colesterol, como el huevo, y en ácidos grasos saturados de cadena corta y media, presentes en un elevado porcentaje en la leche entera. Además, las conclusiones obtenidas después de más de 50 años de controversia sobre la grasa láctea en estudios epidemiológicos y otros de elevado rigor científico (meta-análisis y revisiones sistemáticas) ponen de manifiesto la ausencia de una evidencia científica clara que relacione el consumo de leche entera y de productos lácteos con un incremento del riesgo de enfermedades cardiovasculares o de la mortalidad. Muy al contrario, estos estudios relacionan el consumo de estos alimentos con un efecto inverso en los biomarcadores asociados con la enfermedad cardiovascular y el riesgo de diabetes.

Información nutricional de un brick de leche entera. / Open Food Facts

A diferencia de otras grasas animales, la grasa láctea es la única grasa alimentaria que contiene ácido butírico (C4:0) y por eso se le llama grasa butírica. Como se ha demostrado, este y otros ácidos grasos de cadena corta y media (aproximadamente el 12-15 % del total de AGS) no tienen efecto sobre los niveles del LDL-colesterol en sangre, ya que son empleados por el organismo principalmente como fuente de energía rápida. De hecho, suelen ser recomendados en programas de control de peso.

Estudios recientes, además, consideran la leche como una de las fuentes más importantes de componentes bioactivos naturales y señalan que sus efectos sobre la promoción de la salud son el resultado de la interacción de todos sus nutrientes. Es decir, que sus efectos van más allá de la simple suma de efectos individuales. Esto es así gracias a su matriz, que incrementa la biodisponibilidad de muchos de sus nutrientes y de sus compuestos bioactivos.

Por último, es importante señalar que toda la corriente que incide en la demonización de las grasas y el colesterol de la dieta, y en particular de la grasa láctea, y su eliminación incluso de las fórmulas infantiles, ha llevado a una entronización de los hidratos de carbono simples que ha generado consecuencias negativas para la salud de la población, como es la creciente incidencia de la diabetes tipo 2 y de la obesidad.

* Javier Fontecha es investigador del CSIC en el Instituto de Investigación en Ciencias de la Alimentación .

Azúcar, miel, edulcorantes… ¿existe una forma sana de endulzar?

Por Jara Pérez Jiménez (CSIC)*

Cada vez más gente reduce su consumo de azúcares porque ha escuchado que estos componentes tienen múltiples efectos negativos en la salud. Al mismo tiempo, aparecen otros edulcorantes que son promocionados como saludables: la panela, la miel, el azúcar de coco, la estevia… ¿Cuál de todos ellos elegir? ¿Qué edulcorante es más saludable? Vamos a verlo en detalle.

En primer lugar, hay que señalar que no todos los azúcares de los alimentos son iguales. Por un lado, existen los denominados azúcares intrínsecos: son azúcares que, como en el caso de la fruta o la leche, están incluidos dentro del alimento. Esto hace que el cuerpo necesite realizar múltiples reacciones químicas para poder liberarlos y que pasen a la sangre, lo que hacen lentamente junto con los otros nutrientes y compuestos beneficiosos que están en estos alimentos. Por el contrario, en el caso de los azúcares libres la estructura original del alimento se rompe y el compuesto pasa rápidamente a la sangre, sin ser acompañado de otros componentes beneficiosos. Los azúcares libres son los que se añaden al alimento, ya sea por el consumidor en casa o por la industria alimentaria, y también los que se encuentran en mieles, siropes y zumos. Sí, por muy natural y casero que sea un zumo, en él  se ha roto la estructura del alimento y por tanto ya no tenemos azúcares intrínsecos, sino azúcares libres.

La Organización Mundial de la Salud (OMS) ha establecido un consumo diario responsable de azúcares libres en torno al 5% de las calorías consumidas en un día  (ojo, que este valor podría ser del 0% si consumimos fuentes de carbohidratos complejos) y de un máximo, en cualquier caso, del 10%. Esto se traslada, para un adulto, a un valor de 25 a 50 gramos de azúcares libres al día, cantidad que superan muchas personas en España. Además, la evidencia científica ha demostrado que la ingesta excesiva de azúcares libres está asociada no solo con aquellas enfermedades con las que la relacionamos más inmediatamente, como la diabetes tipo 2, sino también con enfermedades cardiovasculares , el hígado graso no alcóholico  (una situación en la que el hígado aparece tan dañado como en el alcoholismo pero por causa del consumo excesivo de ciertos azúcares libres) o algunos tipos de cáncer.

Por tanto, debemos reducir el consumo de azúcares libres en nuestra alimentación. Pero, ¿qué ocurre con productos como el azúcar moreno o la panela? Pues que, frente al 100% de azúcar contenido en el azúcar blanco, tienen un 95-98%, lo cual no implica diferencias nutricionales en la práctica. Sí, aunque hayas escuchado que tienen más vitaminas o minerales que el azúcar blanco, lo cual es cierto, debemos tener en cuenta que, por ejemplo, para consumir el mismo magnesio que está contenido en 30 gramos de almendras tendríamos que tomar 100 gramos de panela, lo que son 95 gramos de azúcares libres. De manera que los efectos perjudiciales superarían ampliamente a los beneficios que pudiéramos obtener. Lo mismo ocurre con la miel: a pesar de las múltiples propiedades que se le han atribuido, contiene un 70-80% de azúcares libres.

¿Son los edulcorantes artificiales una alternativa?

Últimamente se está promocionando mucho la estevia como un edulcorante natural. Debemos aclarar que, al comprar un producto que se anuncia como endulzado con estevia, en realidad lo que lleva es el E-960: un conjunto de compuestos con poder edulcorante llamados glucósidos de esteviol que son extraídos a partir de la planta de estevia mediante un proceso similar al utilizado para extraer el azúcar de la remolacha o la caña azucarera. En este caso, efectivamente, estos compuestos dan sabor dulce sin tener calorías, lo que ocurre también con edulcorantes artificiales como el aspartamo o el ciclamato.

Sin embargo, el consumo frecuente de estos edulcorantes también presenta problemas, que no tienen nada que ver con riesgos de toxicidad o con que sean cancerígenos, como se suele pensar. Lo que ocurre es que, con estos edulcorantes, por un lado, se produce el denominado ‘efecto halo’: como pensamos que estamos tomando algo saludable, acabamos añadiendo más de lo que tomaríamos de un producto que percibimos como insano, como el azúcar blanco. Por ejemplo, en un estudio se vio que las personas que usaban mermelada para endulzar el yogur acababan añadiendo más azúcar que el que llevaba un yogur azucarado. Por otro lado, estos compuestos tienden a alterar nuestro umbral del dulce: es decir, los receptores que tenemos para detectar el sabor dulce se están saturando y necesitamos cada vez más dulce para identificarlo. Por ejemplo, si acompañamos la comida con un refresco edulcorado, aunque sea sin calorías, estamos recibiendo constantemente ese sabor dulce y en el postre necesitaremos un producto con grandes cantidades de azúcar para reconocerlo como dulce.

Por tanto, la mala noticia es que no existe realmente un edulcorante saludable, sino que deberíamos limitar el consumo de estos productos a algo esporádico. Y cuando, puntualmente (lo que no significa varias veces por semana), vayamos a consumir un producto de repostería, sea industrial o casera, podemos escoger simplemente el que prefiramos por sus características sensoriales, pero sin pensar que nutricionalmente está aportando algo diferente. La buena noticia, por el contrario, es que podemos consumir piezas de frutas (sin procesar) sin preocuparnos, ya que la OMS no ha establecido ninguna recomendación para reducir su consumo porque contienen azúcares intrínsecos y no libres. De hecho, se ha asociado claramente un consumo escaso de frutas con múltiples efectos adversos para la salud, incluido un aumento en el riesgo global de mortalidad. Y esto incluye todas esas frutas que siguen “malditas” en muchas listas, como el higo, el plátano o la uva. La otra buena noticia es que, si vamos reduciendo la cantidad de azúcares libres en nuestra dieta, poco a poco nuestro umbral del dulce se irá rebajando, y aprenderemos a disfrutar cada vez más de los sabores originales de los alimentos.

* Jara Pérez Jiménez es investigadora del Instituto de Ciencia y Tecnología de los Alimentos y Nutrición (ICTAN) del CSIC.