Entradas etiquetadas como ‘ciencia’

Cómo la ciencia y el arte se unen en Wikipedia

Por Gustavo Ariel Schwartz (CSIC)*

¿Es posible conocer cómo áreas aparentemente tan alejadas como el arte, la literatura y la ciencia se influyen mutuamente? ¿Podemos crear un mapa de esas interacciones culturales? Para ello necesitaríamos un corpus de conocimiento en el que las ideas científicas, artísticas y literarias estuvieran conectadas unas con otras. Un corpus en el que una teoría científica esté de alguna manera relacionada con una obra de arte o en el que una novela se vincule de algún modo a un concepto artístico o científico. Afortunadamente existe un espacio con estas características, en el que personas, obras y conceptos de diversas disciplinas se relacionan entre sí. Ese sitio es Wikipedia.

Wikipedia tiene la gran virtud de que sus entradas pueden representar obras, artísticas o literarias, ideas o personas. Además del conocimiento explícito contenido en cada uno de los artículos, existe una gran cantidad de conocimiento implícito que emerge de la red subyacente de conexiones. Estas están representadas por los enlaces entre las distintas entradas. De hecho, dos artículos de Wikipedia pueden estar muy relacionados entre sí, incluso sin que ninguno de ellos enlace con el otro. Se entiende que dos entradas de Wikipedia están relacionadas estructuralmente si enlazan a elementos comunes o si existen elementos comunes que se relacionen con ambas. Además, esta relación se puede cuantificar utilizando la distancia normalizada de Google.

De izquierda a derecha: Representación esquemática de la red de relaciones entre las distintas entradas de Wikipedia. / Dos elementos de una red compleja están relacionados estructuralmente si enlazan con elementos comunes o si son enlazados, simultáneamente, por un dado conjunto de elementos.

De esta manera, es posible utilizar esta herramienta y los enlaces entre sus artículos para construir una red compleja donde la relación entre los elementos va a estar determinada por la distancia normalizada de Google. Así se genera un mapa del conocimiento que revela las interacciones entre diversas disciplinas a partir de la red de conexiones extraída de Wikipedia. Por ejemplo, el mapa cultural que se obtiene a partir de las figuras de Einstein, Picasso y Joyce refleja las influencias recíprocas entre el desarrollo del cubismo y la teoría especial de la relatividad. En la imagen, cada punto representa una entrada de Wikipedia (hay unos 850) y cada línea muestra la relación entre esos elementos.

Mapa de las interacciones culturales entre Picasso, Einstein y Joyce. A pesar de la fuerte clusterización en disciplinas, se observa claramente que existe cierta conexión entre los diferentes ámbitos del conocimiento.

Se pueden identificar de forma clara tres clústeres que pertenecen a su vez a cada una de las semillas que utilizamos para generar el grafo. Pero lo realmente interesante es la posibilidad de visibilizar los elementos que conectan los diferentes ámbitos del conocimiento. El pintor Jean Metzinger y su obra Du Cubism junto a Henri Poincaré y su libro Science and Hypothesis constituyen los elementos centrales del intercambio de ideas y conceptos entre el cubismo y la relatividad. De este modo, el formalismo de las redes complejas nos permite crear mapas culturales para estudiar la estructura y la dinámica de los cambios de paradigma y cómo estos se alimentan de ideas, personas y conceptos provenientes de las más diversas disciplinas.

*Gustavo Ariel Schwartz es investigador en el Centro de Física de Materiales (CSIC-UPV/EHU).

Copérnico: el canónigo que revolucionó el mundo después de muerto

Por Pedro Meseguer* (CSIC)

En los talleres de narrativa se insiste en que, en un relato, el autor o la autora ha de proporcionar una forma original de ver el mundo. Pero eso no es exclusivo de la literatura, ni siquiera de las humanidades: también sucede en la ciencia. Este año se cumple el 550 aniversario del nacimiento de Nicolás Copérnico (1473-1543), un personaje esencial en la renovación astronómica de los siglos XVI y XVII. Revolucionó la ciencia europea (entonces se denominaba “filosofía natural”) porque tuvo el atrevimiento de romper con el pasado al interpretar el movimiento de los astros de una manera inédita, diferente.

Astrónomo Copérnico, de Jan Matejko (1873)

Astrónomo, canónigo y médico

Nacido en Torun (Polonia), Nicolás era el menor de cuatro hermanos. Su madre murió a los pocos años y, cuando él había cumplido diez, también falleció su padre. De su educación se ocupó su tío Lucas, un duro sacerdote canónigo en una ciudad vecina. En la universidad de Cracovia estudió astronomía, y entró en contacto con el modelo geocéntrico —en donde el Sol giraba en torno a la Tierra— de Ptolomeo, aunque Copérnico se sentía incómodo con él. Viajó a Italia y continuó su formación en la universidad de Bolonia. Y posiblemente allí tuvo una revelación —en su libro Copérnico, John Banville la cuenta así—: “…había estado analizando el problema desde una perspectiva errónea […]. Si consideraba al Sol como el centro de un universo inmenso, los fenómenos observados en los movimientos de los planetas que habían intrigado a los astrónomos durante milenios, se volvían perfectamente racionales y evidentes…”.

A partir de ese momento, Copérnico se ocupó en construir un nuevo modelo astronómico con el Sol en el centro, en torno al cual giraban los planetas en órbitas circulares. Sin embargo, difundió sus concepciones con mucha cautela, tanta que también podría decirse que las escondió. Volvió de Italia y siendo seglar consiguió una canonjía en Fraudenburg con la ayuda de su tío el entonces obispo Lucas —había ascendido—, que gobernaba Ermeland (un protectorado del reino de Polonia). Allí se dedicó a las obligaciones de trabajo mientras cultivaba en privado su modelo astronómico. También ejerció la medicina y solventó cuestiones económicas.

Pero, años después de la experiencia italiana, publicó su Commentariolus, un cuadernillo resumen de sus ideas que lanzó a modo de ‘globo sonda’ y que, para su tranquilidad, no generó reacciones adversas. Al final de su vida, urgido desde varias instancias, se avino a publicar su modelo de forma completa. Su libro De revolutionibus orbitum coelestium (Sobre las revoluciones de las esferas celestes) vio la luz en 1543, muy cercano al día de su muerte.

Un libro que inspiró a Kepler, Galileo y Newton

Antes de Copérnico, imperaba el arquetipo astronómico geocéntrico desarrollado por Ptolomeo en el siglo II. Era un modelo farragoso, ya que obligaba a utilizar epiciclos para encajar las observaciones. Sin embargo, tenía una ventaja extracientífica: al colocar la Tierra inmóvil, con los planetas y el Sol girando en torno a ella, se reforzaba el concepto del ser humano como el centro de la creación. La iglesia católica hallaba adecuada esta interpretación en consonancia con El libro del Génesis: el universo conocido giraba en torno a la más excelsa obra de Dios, el ser que habitaba la Tierra.

Cuando su libro De revolutionibus se extendió, Copérnico ya había muerto. Esta circunstancia fue beneficiosa no solo para él, que obviamente no fue perseguido, sino para la obra misma, porque permaneció como una mera hipótesis: el libro era muy técnico, comprensible únicamente por astrónomos avanzados y solo entró en el índice de libros prohibidos tras el proceso a Galileo.

Esto permitió que astrónomos posteriores como Johannes Kepler (1571-1630) o Galileo Galilei (1564-1642) pudieran formarse con ese modelo y después realizar aportaciones muy relevantes. Basándose en él y manejando una buena cantidad de observaciones, Kepler postuló sus tres leyes: los planetas describían órbitas elípticas con el Sol en uno de sus focos, barrían áreas iguales en tiempos iguales y los cuadrados de los periodos de las órbitas eran proporcionales al cubo de sus distancias al Sol.

Galileo alcanzó a ir más allá: con el telescopio de su invención —a partir de un prototipo desarrollado por un constructor de lentes holandés— descubrió los satélites de Júpiter, que orbitaban en torno al planeta. Eso era más de lo que la iglesia católica podía soportar. Kepler, un luterano en reinos católicos, estaba lejos de Roma, pero Galileo se hallaba en Italia, cerca del Papa. Fue procesado por la Inquisición, pero astrónomos ulteriores trabajaron a partir de sus resultados. En particular, Newton (1642-1727) descubrió la ley de la gravitación universal apoyándose, entre otros, en las contribuciones de Kepler y Galileo.

Modelo heliocéntrico propuesto por Copérnico

Los mitos caen de su pedestal

En dos centurias el modelo geocéntrico fue reemplazado por el heliocéntrico. Además, la observación del Sol o de las estrellas se popularizó en los siglos siguientes por la navegación marítima. Esto estimuló una formación astronómica básica en donde la experimentación jugaba un papel central y a su vez consolidó la aceptación general del modelo heliocéntrico.

El impacto de las ideas lanzadas por Copérnico fue enorme, tanto en el nivel científico como en el filosófico, y de larga permanencia. La Tierra dejaba de ser el centro del universo: era un astro más, sometida a las mismas leyes que los demás cuerpos celestes.

Esa concepción estaba a un paso de que el ser humano también cayera de su pedestal, lo que sucedió con las obras de medicina que lo asemejaban a otros seres vivientes. En su libro Los errantes, Olga Tokarczuk (Premio Nobel de Literatura 2018) lo refleja muy bien: “La nueva era comenzó […] en aquel año cuando aparecieron […] De revolutionibus orbitum coelestium de Copérnico y […] De humanis corporis fabrica de Vesalio. Naturalmente, estos libros no lo contenían todo […] Sin embargo, los mapas del mundo, tanto el exterior como en interior, ya estaban trazados”.

Así, en 1543 se sentaron las bases de lo que sería la ciencia moderna. Comenzó un proceso de desmitificación progresiva, que se inició cuando la Tierra dejó de ser el centro del universo, siguió con el ser humano abandonando la cúspide de la creación, continuó con una Europa descabalgada del centro del mundo y llega hasta nuestros días. Una evolución que arrancó con las investigaciones de Copérnico y se ha propagado hasta hoy, donde es moneda corriente cuestionar los roles que han sido dominantes durante siglos en nuestra visión del mundo.

 

*Pedro Meseguer es investigador en el Instituto de Investigación en Inteligencia Artificial del CSIC.

¿Te inspiran la ciencia y la poesía? Participa en el concurso #MicropoemasCSIC2

Por Mar Gulis

¿Sabías que las “mariposas del alma” es el poético nombre que Santiago Ramón y Cajal dio a un tipo específico de neuronas? Quizá resulte curioso que un científico de su relevancia, premio Nobel de Medicina en 1906, haya utilizado una metáfora así para hablar de un descubrimiento relacionado con la neurociencia. Pero no es algo que debiera sorprendernos, pues la ciencia y la poesía tienen más en común de lo que parece: ambas exploran lo desconocido en busca de nuevos conocimientos y, para ello, recurren a la imaginación y al cuestionamiento de lo establecido.

Si combinar ciencia y poesía te resulta inspirador, ahora puedes participar en #MicropoemasCSIC2, un concurso en redes sociales impulsado por @CSICdivulga, el perfil ‘social’ de la Vicepresidencia Adjunta de Cultura Científica y Ciencia Ciudadana del CSIC. El certamen está abierto a personas de cualquier parte del mundo y, en esta segunda edición, la participación puede realizarse tanto en Twitter, como en Instagram Facebook.

¿Cómo participar?

Para participar en #MicropoemasCSIC2, lo fundamental es tener ideas e imaginación. Si necesitas ejemplos para inspirarte, en este enlace puedes ver los resultados de la edición anterior: #MicropoemasCSIC.

Eso sí, no olvides que tu micropoema tiene que estar relacionado con algún aspecto de la ciencia (la investigación científica, el oficio de investigador/a, los avances, los dilemas, las aplicaciones, la importancia del conocimiento científico, etc.). Ten en cuenta también que deberá estar escrito en castellano, ser original y no haber sido publicado con anterioridad.

Dar rienda suelta a la creatividad está muy bien, pero en la micropoesía hay límites. En este caso, tus propuestas deberán tener un máximo de 250 caracteres con espacios y caber en una sola publicación de las redes mencionadas. Además, no podrás presentar al concurso más de tres.

Una vez que tengas claro con cuál micropoema o micropoemas vas a participar, elige la red que prefieras y, si todavía no lo haces, comienza a seguir a @CSICdivulga. Después lanza cada texto en un tuit, un post de Instagram o una publicación de Facebook incluyendo una mención a @csicdivulga y el hashtag #MicropoemasCSIC2.

El concurso permanecerá abierto desde el 21 de marzo (Día Mundial de la Poesía) al 23 de abril de 2023 (Día Internacional del Libro), ambos inclusive, pero no hace falta que lo dejes para el final.

Lotes de libros como premio

Concluido el plazo de participación, un comité formado por personal de cultura científica CSIC seleccionará 10 micropoemas valorando la creatividad, la originalidad, la calidad literaria y la adecuación al tema planteado (la ciencia y la tecnología). Si el tuyo resulta seleccionado, te enviaremos a casa un lote de libros de Editorial CSIC que incluirá títulos relacionados con la poesía, el arte, la ciencia o la divulgación. Para ello, antes te pediremos que nos facilites una dirección postal dentro de España.

Si todavía tienes dudas, puedes consultar las bases completas aquí. ¡Anímate y participa!

De los test COVID al tratamiento del cáncer: la revolución de la nanomedicina

Por Fernando Herranz* (CSIC) y Mar Gulis

Un amigo mío [Albert R. Hibbs] comentaba, aunque sea una idea loca, lo interesante que sería en cirugía si el paciente se pudiera tragar al cirujano. Pones al cirujano mecánico en los vasos sanguíneos y se dirige al corazón “mirando” alrededor […]. Esa máquina encuentra qué válvula es la defectuosa, saca el cuchillo y la corta. Otras máquinas podrían incorporarse en el cuerpo de forma permanente para asistir en el funcionamiento de algún órgano defectuoso.

Este es un extracto de la famosa charla que el físico teórico Richard Feynman dio en 1959 en la reunión anual de la American Physics Society. En esa intervención, considerada como el origen de la nanotecnología, el científico y su colega Hibbs se anticiparon a muchos de los conceptos y desarrollos que hoy son una realidad, como el uso de nanomateriales para mejorar el diagnóstico y el tratamiento de una patología.

Treinta años después de la charla de Feynman, en la década de los 90, la investigación en nanomedicina comenzó a crecer de forma sistemática y, a partir del año 2000, experimentó una auténtica explosión. Pasadas poco más de dos décadas, la comunidad científica ha generado un catálogo de nanomateriales con aplicaciones para problemas biomédicos tan amplio como sorprendente. Los test para detectar en casa enfermedades como la COVID-19, o los eficientes mensajeros que, dentro de nuestro organismo, entregan en tiempo y forma un fármaco allí donde se necesita, o incluso tratamientos de ciertas patologías son solo algunos de los muchos logros de la nanotecnología aplicada a la medicina.

El nanomaterial más empleado en los kits para la COVID-19 son las nanopartículas de oro. / Jernej Furman

Lo más importante de un nanomaterial es el tamaño porque, a medida que aumenta o disminuye, sus propiedades ópticas, magnéticas o eléctricas, entre otras, pueden ser completamente distintas. Por ejemplo, es posible obtener toda una gama de colores fluorescentes usando un mismo material, con idéntica composición química, variando únicamente su tamaño. A veces, una mínima diferencia de un nanómetro hace que la luz emitida por el nanomaterial cambie. Las aplicaciones de una propiedad como esta son enormes en ámbitos como el diagnóstico de una enfermedad.

Nanomedicina para saber qué nos pasa

Una de las aplicaciones más importantes de las nanopartículas son los test de diagnóstico. En el caso del diagnóstico in vitro, cuando la muestra sale del paciente y se aplica a un sistema de análisis, el nanomaterial más empleado son las nanopartículas de oro, presentes tanto en los test de embarazo como en los populares kits para la COVID-19.

De hecho, gracias a los nanomateriales, durante la pandemia se consiguió obtener en tiempo récord varias versiones de kits suficientemente sensibles y con bajos costes de producción. Y hoy ya se pueden comprar test que emplean nanopartículas de oro y que, en una sola medida, pueden detectar la presencia del SARS-CoV2 y de los virus de la gripe A y la gripe B.

Cuando se quiere estudiar el interior del paciente para sacar una prueba in vivo se utiliza la imagen molecular. Para realizar estos ensayos se utilizan diferentes técnicas, como la imagen por resonancia magnética (MRI) o la tomografía por emisión de positrones (PET). La lista de potenciales ventajas de las nanopartículas en este ámbito es muy larga, porque para cada modalidad de imagen existe al menos un tipo de nanopartícula que se puede diseñar con un tamaño ‘a la carta’ y mejorar así el diagnóstico, o reducir la toxicidad de las sustancias inyectadas al paciente. Hay materiales que directamente funcionan como un código de barras hecho a base de nanopartículas, ya que a cada enfermedad le corresponde un perfil de fluorescencia único.

Nanopartículas de oro de distintos colores debido a su distinto tamaño. / Fernando Herranz

Transportistas de fármacos y nanopartículas terapéuticas

Desde el origen de la nanomedicina, las nanopartículas se han empleado como eficientes sistemas de transporte de fármacos. Aquí sucede lo mismo que en otros campos: la variabilidad de nanomateriales es enorme. Su misión es mejorar el funcionamiento in vivo, la seguridad o la estabilidad de un ingrediente farmacéutico activo. Para cumplir esta función, la nanomedicina ya tiene una notable presencia en oncología y hematología. Y después del éxito de las vacunas de la COVID-19, las de ARNm (ARN mensajero) también están creciendo rápidamente.

Hasta ahora, la nanomedicina ha ayudado a detectar de forma más rápida y precisa una patología y ha servido de apoyo fundamental para la liberación de medicamentos en nuestro interior. Pero, ¿y si las nanopartículas también pudieran curarnos? ¿Y si tuvieran efecto terapéutico? Esto no es ciencia ficción. Algunas nanopartículas ya se encuentran en ensayos clínicos de nuevos tratamientos anticancerígenos. En esta línea, existe una técnica denominada hipertemia magnética que trata de matar las células cancerígenas aplicando calor. Para conseguir que este llegue principalmente a las células cancerosas y no a las sanas se emplean nanopartículas magnéticas, principalmente de óxido de hierro. Si situamos nanopartículas magnéticas dentro de un campo magnético se alinearán en el sentido de dicho campo. Si ahora cambiamos el sentido, las nanopartículas girarán con él. Si ese giro se hace de forma continua y rápida, empleando un campo magnético alternante, el giro generará calor en la zona donde las nanopartículas están acumuladas. Este tipo de tratamiento parece prometedor para el cáncer de páncreas (ya se están realizando ensayos en España) y también podría ser eficaz en el cáncer de próstata.

El flujo de artículos científicos y de aplicaciones de la medicina no para de crecer, así que el futuro en este ámbito tiene buen pronóstico. Los retos para la comunidad científica experta en nanomateriales residen en ir de la mano de los profesionales clínicos. También es necesario fomentar la sencillez de los nanomateriales, porque muchas veces las personas que trabajamos en química, tentadas de demostrar la complejidad que pueden alcanzar estos materiales, construimos sistemas con muchos más componentes de los necesarios, y esto puede ser un escollo para las agencias evaluadoras de nuevos fármacos.

* Fernando Herranz es investigador del CSIC en el Instituto de Química Médica (IQM-CSIC) y autor del libro La nanomedicina (CSIC-Catarata).

¿Por qué tú y yo percibimos olores diferentes?

Por Laura López-Mascaraque* y Mar Gulis (CSIC)

¿Por qué cuando olemos algo, hay a quienes les encanta y a quienes, sin embargo, les produce rechazo? Es importante considerar la variabilidad individual que puede existir en la percepción olfativa debido a diferencias o mutaciones en los genes que codifican los olores. Ninguna persona huele igual.

Los seres humanos tenemos alrededor de 1.000 genes que codifican los receptores olfativos, aunque solo 400 son funcionales. Se conocen como proteínas receptoras olfativas que, de alguna manera, trabajan juntas para detectar una gran variedad de olores. El patrón de activación de estos 400 receptores codifica tanto la intensidad de un olor como la calidad (por ejemplo, si huele a rosa o limón) de los millones, incluso billones, de olores diferentes que representan todo lo que olemos. La amplia variabilidad en los receptores olfativos influye en la percepción del olor humano aproximadamente en un 30%. Esta variación sustancial se refleja a su vez en la variabilidad de cómo cada persona percibe los olores. Un pequeño cambio en un solo receptor olfativo es suficiente para afectar la percepción del olor. Esto influye en cómo una persona lo percibe, y provoca respuestas hedónicas muy dispares: «me encanta» o «lo odio».

Variaciones en el gen OR6A2 hacen que el sabor del cilantro sea algo parecido al jabón para algunas personas

Y si hay un alimento que genera tanto amor como rechazo, ese es el cilantro. En este caso, variaciones en el gen OR6A2 hacen que su sabor sea algo parecido al jabón para algunas personas mientras que otras lo definen como verde y cítrico. Alteraciones en el gen OR2M7 son responsables de detectar el fuerte olor de la orina al comer espárragos. O hay quienes no detectan el olor a violeta, relacionado con la variación en el gen β-ionona. Dos sustituciones de aminoácidos en el gen OR7D4 provocan que la androsterona, presente en la carne de cerdos machos, sea indetectable para algunas personas, otros lo relacionan con olor a orina y sudor, mientras que hay quienes la describen como un olor dulce o floral. A lo largo de nuestra vida se puedan activar o desactivar ciertos genes que codifican para unos receptores olfativos específicos, lo que podría provocar cambios en nuestro sentido del olfato. Esto podría explicar el por qué un olor determinado lo percibimos de forma diferente a lo largo de los años.

El sabor: olfato y gusto

Hasta ahora hemos hablado del olfato, pero el sabor es la combinación de olfato y gusto: el olor en la nariz y el gusto en la lengua. Sin embargo, el gusto está limitado a lo dulce, amargo, salado, ácido y al umami (sabroso en japonés, uno de los sabores básicos junto con los anteriores). Mientras que es el olor el que contribuye casi en un 80% al sabor. Cada receptor gustativo, situado en las papilas gustativas en la lengua, se especializa en la detección de uno de los cinco tipos, aunque todas las papilas contienen los cinco receptores. En el gusto también influye la genética. El término “supergustador” o “supercatador” se aplica a aquellas personas muy sensibles al gusto amargo, debido a polimorfismos en el gen TAS2R38. También existen determinadas sustancias que son transformadoras del sabor. Por ejemplo, la miraculina, una proteína que se encuentra en una baya roja (Synsepalum dulcificum), obstaculiza las papilas gustativas. Así impide que la lengua perciba los sabores ácidos y amargos, aunque intensifica la capsaicina (compuesto químico que aporta una sensación picante).

Una proteína de la baya roja Synsepalum dulcificum obstaculiza las papilas gustativas

Y no podemos olvidar que en la experiencia de saborear también entra en juego el tacto. Percibimos texturas suaves, más duras, crujientes… Al masticar, el nervio trigémino detecta la temperatura, la sensación picante o un sabor mentolado, y transmite la información sensorial al cerebro. Pero esto mejor lo dejamos para otro post.

*Laura López-Mascaraque es investigadora en el Instituto Cajal del CSIC.

Astrocitos: estrellas que hablan en nuestro cerebro

Por Irene Serra Hueto (CSIC)*

Seguro que has oído alguna vez que nuestro cerebro es el ordenador más potente del mundo. Ahora bien, ¿en qué piensas cuando te preguntan de qué está formado? Lo más probable es que lo primero que te venga a la cabeza sean las neuronas. No está mal, pero para que esta máquina tan singular funcione con todo su potencial necesita del trabajo de otras células igual de importantes. Entre ellas se encuentran los astrocitos, que reciben su nombre de las estrellas.

Empecemos por el principio. El cerebro funciona gracias a que las neuronas transmiten información a través de corrientes eléctricas. Los puntos de conexión entre una neurona y otra se conocen como sinapsis. En ellas se liberan sustancias llamadas neurotransmisores que permiten que el impulso eléctrico continúe de una neurona a otra. En este punto de conexión, en este diálogo entre las neuronas, el astrocito juega un papel fundamental, modulando y regulando la comunicación entre ellas.

Nuestro cerebro habla bajo sus propias reglas. Esquema de una sinapsis cerebral donde se intercambia la información entre las células, como en una conversación de WhatsApp. / Irene Serra. Células creadas con Biorender.com.

¿Qué ventajas puede tener una conversación a tres? Este sistema, más complejo que una conversación a dos, permite más variedad de mensajes y añade un elemento mediador que asegura que la información se transmite correctamente, el astrocito. La cuestión es que no tenemos un solo astrocito por cada sinapsis. En ratones, una sola de estas células es capaz de modular, mediar y participar en más de 100.000 sinapsis simultáneamente. Es como si un único astrocito estuviese presente y hablando en 100.000 grupos de WhatsApp al mismo tiempo. En humanos, un solo astrocito interviene en 2 millones de sinapsis. Es decir, que nuestros astrocitos tienen 20 veces más capacidad de procesar información… Y, además, tenemos millones de ellos. ¿Y si la explicación (o, al menos, parte de ella) a nuestra inteligencia residiera en el gran refinamiento que los astrocitos aportan a nuestro cerebro?

Para poder contestar esta pregunta necesitamos saber más. Precisamente, mi investigación en el Instituto Cajal (IC) del CSIC se centra en estudiar los circuitos astrocito-neurona; en concreto, los que se establecen en el núcleo Accumbens, la zona del cerebro que se activa cuando algo nos gusta. Esta zona recibe información de otras regiones del cerebro relacionadas con la memoria (hipocampo), las emociones (amígdala) y la toma de decisiones (corteza prefrontal), y es muy importante porque se ve afectada, entre otros casos, en trastornos de adicción.

Ejemplo de cómo es la información que pasa por el núcleo Accumbens vista desde una conversación de WhatsApp./ Irene Serra

Sabemos que los astrocitos son parte fundamental de la regulación de este núcleo y, desde hace poco, también que el cerebro tiene distintos tipos de astrocitos, del mismo modo que tiene distintos tipos de neuronas. Sin embargo, todavía no hemos comprendido en profundidad para qué son los astrocitos diferentes entre ellos ni cómo son de diferentes. En el núcleo Accumbens, ¿tenemos astrocitos especializados regulando la información de recuerdos de aquello que nos gusta? ¿Hay otros asociados a las emociones? ¿Intervienen en los circuitos de toma de decisión?

Un sensor de calcio para superar las limitaciones de los microscopios

En el último trabajo publicado por el Laboratorio de Plasticidad Sináptica e Interacciones astrocito-neurona del IC-CSIC, dirigido por Marta Navarrete, profundizamos en estas preguntas y presentamos una nueva herramienta que nos ha permitido estudiar, por primera vez, la actividad de los astrocitos a gran escala y con precisión temporal. Se trata de CaMPARIGFAP, un sensor de calcio con el que hemos podido observar el núcleo Accumbens al completo y detectar qué astrocitos responden a un estímulo concreto.

El tamaño de las lentes de los microscopios es limitado y hace que no sea posible observar al mismo tiempo todos los astrocitos de una región cerebral. La particularidad de CaMPARIGFAP es que detecta, mediante la fluorescencia, el calcio que emiten los astrocitos cuando se activan. Es como hacer una foto: al enviar un ‘flash’ de luz violeta, los astrocitos inactivos se muestran en verde y los activos en rojo. De este modo, podemos analizar cómo responden regiones amplias del cerebro a un estímulo determinado.

Tejido del núcleo Accumbens en el que cambia el color de CaMPARIGFAP según la actividad de los astrocitos. / Irene Serra

Utilizando esta herramienta hemos descubierto que los astrocitos del núcleo Accumbens forman redes funcionales que responden de diferente forma según la procedencia de los estímulos -memoria, emociones o decisiones­-. Los resultados indican que los astrocitos son capaces de distinguir de dónde viene la información y, también, que integran las diferentes señales en un procesamiento paralelo al de las neuronas. Todo apunta a que los astrocitos están mucho más especializados en los circuitos cerebrales de lo que pensábamos.

Comprender en detalle cómo interaccionan con las neuronas y cómo regulan la información que llega de las diferentes zonas del cerebro nos acercaría mucho a encontrar soluciones eficaces para tratar la adicción. Y eso solo en el núcleo de Accumbens: llegar a entender cómo interaccionan los astrocitos en otras regiones cerebrales nos permitiría comprender mucho mejor el potencial de nuestro cerebro, que a día de hoy esconde tantos misterios como el universo.

*Irene Serra Hueto es investigadora predoctoral en el Laboratorio de plasticidad sináptica e interacciones astrocito-neurona del Instituto Cajal del CSIC, dirigido por Marta Navarrete.

El viento, el elemento olvidado del cambio climático

Por César Azorín-Molina*

El viento es aire en movimiento. Esta definición implica que la expresión “hace aire” –tan común entre el público general y los medios de comunicación– es incorrecta: lo apropiado es decir “hace viento”. Este movimiento de aire se origina por las diferencias de presión atmosférica entre las superficies de la Tierra y los distintos niveles de la atmósfera; y ha sido utilizado por la humanidad desde el pasado hasta nuestros días como fuente de energía para la navegación a vela, el molido del grano o la extracción de agua de pozos subterráneos. La relevancia social, económica y ambiental del viento es múltiple, y tiene una doble vertiente, ya que el viento supone tanto un recurso como un riesgo climático.

El molino de viento convierte la energía eólica en energía rotacional con el fin principal de moler granos. Es un tipo particular de molino que opera por medio de paletas llamadas aspas.​

En un contexto como el actual, en el que nos enfrentamos a las consecuencias del cambio climático, el viento constituye la segunda fuente más importante en la generación de electricidad y la principal fuente de energía limpia. Su comportamiento altera la capacidad de producción de la industria eólica, pero es también clave en procesos muy dispares: la agricultura y la hidrología, pues incide sobre la evaporación y la disponibilidad de recursos hídricos; la calidad del aire, ya que dispersa la contaminación atmosférica; o las catástrofes naturales, por las pérdidas económicas y humanas que producen los temporales. Otros fenómenos afectados por el viento son la ordenación y el planeamiento urbano, las operaciones aeroportuarias, el tráfico por carretera, la propagación de incendios forestales, el turismo, los deportes de viento e incluso la dispersión de semillas, las rutas migratorias de las aves o la erosión del suelo.

Un aerogenerador es un dispositivo que convierte la energía cinética del viento en energía eléctrica.

¿El viento se detiene o se acelera?

La veleta para conocer la dirección del viento fue inventada en el año 48 a. C por el astrónomo Andronicus y el anemómetro que mide la velocidad a la que viaja el aire en movimiento, en 1846 por el astrónomo y físico irlandés John Thomas Romney Robinson. Sin embargo, el estudio de los cambios del viento en escalas temporales largas (periodos de más de 30 años) no despertó el interés de la comunidad científica hasta hace apenas un par de décadas.

La veleta es una pieza de metal, ordinariamente en forma de saeta, que se coloca en lo alto de un edificio, de modo que pueda girar alrededor de un eje vertical impulsada por el viento, y que sirve para señalar la dirección de este.

Fue en Australia, donde el profesor emérito de la Australian National University Michael Roderick, en su afán de cuantificar el efecto del viento en la evaporación, observó un debilitamiento de los vientos superficiales durante las últimas décadas. En 2007, para denominar este fenómeno, acuñó el término anglosajón de ‘stilling’. Pocos años más tarde, en 2012, el también australiano Tim McVicar, de la Commonwealth Scientific and Industrial Research Organisation, concluyó que este descenso de la velocidad de los vientos estaba ocurriendo sobre superficies continentales de latitudes medias, preferentemente del hemisferio norte, desde la década de 1980. En cambio, otras investigaciones detectaron un reforzamiento de los vientos sobre las superficies de los océanos y, en la última década, un cese del fenómeno ‘stilling’ y un nuevo ciclo de ascenso de la velocidad de los vientos o ‘reversal’.

Falta de evidencias

La causa principal que explica ambos fenómenos se ha atribuido a los cambios en la circulación atmosférica-oceánica. Estos cambios se producen tanto por la propia variabilidad natural del clima como por efecto de la acción humana sobre el clima: el calentamiento global consecuencia de las emisiones de gases de efecto invernadero y también los cambios en los usos del suelo, entre los que destaca la rugosidad del terreno provocada por la masa forestal y la urbanización. En cualquier caso, tampoco hay que descartar la posibilidad de errores instrumentales en la medición del viento por el desgaste de los anemómetros, entre otros.

En la actualidad, la ciencia del clima se afana por descifrar el comportamiento del viento y elaborar proyecciones para los próximos 100 años. En un escenario de aumento de emisiones de gases de efecto invernadero y de calentamiento global, es previsible que una nueva fase de ‘stilling’ domine el siglo XXI.

El último informe del Panel Intergubernamental del Cambio Climático (IPCC) concluyó que el viento es una de las partes olvidadas del sistema climático dadas las escasas evidencias sobre sus cambios pasados y futuros. Un nuevo ‘stilling’ obligaría a desarrollar nuevas estrategias a medio-largo plazo en el sector de la energía eólica, un motor clave en la descarbonización de la economía establecida en el Acuerdo de París y el Pacto Verde Europeo. El estudio del viento debe ser prioritario para impulsar las energías renovables en la transición hacia una economía global con bajas emisiones de gases de efecto invernadero.

* César Azorín-Molina es investigador del CSIC en el Centro de Investigaciones sobre Desertificación (CSIC-UV-GVA) y pertenece a la Red Leonardo de la Fundación BBVA

 

Ultrasonidos: la revolución silenciosa de la medicina moderna

Por Francisco Camarena (CSIC-UPV)*

En 1983 nació la primera persona de mi familia sabiéndose de antemano cuál iba a ser su sexo. A su madre le habían hecho unas pruebas un poco raras echándole un gel pastoso y frío sobre el vientre, y el ginecólogo se había adelantado a la naturaleza diciendo: “creo que es una niña”. Las imágenes eran grises, ruidosas, bastante confusas y con mucho movimiento. ¿Cómo iba a deducirse de ese enredo de sombras que aquello iba a ser una niña?, debió pensar su madre con escepticismo.

Medida de la translucencia nucal con ecografía en la semana 13 de embarazo.

Corrían los años de la movida y las técnicas de imagen para diagnósticos médicos también se revolucionaban: acababan de concederles el Premio Nobel a los creadores de esa maravilla de imagen 3D que es la Tomografía Axial Computerizada (TAC). Los inventores de la resonancia magnética, también premiados con el Nobel, andaban haciendo imágenes espectaculares del cerebro humano utilizando propiedades cuánticas de la materia; y había unos científicos que obtenían imágenes de los procesos metabólicos del organismo con nada más y nada menos que antimateria, que es lo que se usa para obtener una imagen PET (Tomografía por Emisión de Positrones). Así que, ¿quién iba a dar importancia a unas imágenes tan pobres como las que se empezaban a tomar con sonidos?

Ventajas de los ultrasonidos

Lo cierto es que las imágenes tomadas con ultrasonidos no eran 3D, pero eran en tiempo real. Solo daban información anatómica, pero era complementaria a la que proporcionaban los Rayos X. Eran ruidosas, sí, pero incluso del ruido se podía extraer información relevante para el diagnóstico. Es verdad que dependían del operador que manejase la máquina, pero como no era más que sonido, y no podía ionizar átomos y afectar a nuestras moléculas de ADN, siempre se podía repetir la prueba las veces que fuese necesario. Y, sobre todo, se podía tener cien máquinas de ultrasonidos con lo que cuesta un TAC, una resonancia o un PET, y eso sí que es harina de otro costal.

Imagen de Microscopia de Localización con Ultrasonidos y Doppler Color de un corte coronal del cerebro de un ratón

Las décadas de los ochenta y noventa del S.XX permitieron la consolidación a nivel mundial de la técnica, con sus grandes éxitos en el campo de la obstetricia y la cardiología, que prácticamente no existirían sin esta modalidad de imagen, y con el desarrollo de la imagen Doppler, 3D y, en el campo de la terapia, de la litotricia para el tratamiento de cálculos renales y biliares con ondas de choque. El arranque del siglo XXI no fue menos fructífero: la elastografía, una variante de imagen ecográfica, permitió la mejora de los diagnósticos mediante la obtención de mapas de la dureza de los tejidos, y la aparición de sistemas cada vez más pequeños y económicos posibilitó la implantación de la tecnología en pequeñas clínicas de todo el mundo. En 2014, el número de pruebas con ultrasonidos a nivel mundial ascendió a 2.800 millones (éramos 7.200 millones de habitantes sobre la faz de la Tierra en ese momento), lo que aupó esta tecnología, junto con la de Rayos X, a la cima de las modalidades de imagen más utilizadas en medicina. Además, durante la segunda década de este siglo se ha extendido el uso del ultrasonido terapéutico, principalmente para producir quemaduras internas en los tejidos mediante la focalización del sonido, de un modo parecido a como focaliza una lupa la luz solar, lo que está permitiendo tratar de forma no invasiva enfermedades como el temblor esencial, la enfermedad de Parkinson, el cáncer de próstata o la fibrosis uterina.

Nuevas terapias contra el cáncer

El futuro próximo se vislumbra muy prometedor. Las mejoras técnicas están disparando el número de aplicaciones y en pocos años veremos consolidarse nuevas formas de terapia, como la histotripsia: ultrasonidos focalizados de altísima intensidad que trituran literalmente los tejidos tumorales y esparcen en derredor antígenos que favorecen la respuesta inmunológica del cuerpo contra el propio tumor. Otras novedades serán los dispositivos para modular con precisión quirúrgica el funcionamiento del cerebro humano y modalidades de imagen de una espectacularidad propia de la ciencia ficción, como la optoacústica o la microscopía de localización por ultrasonidos.

Mapeo de los vasos sanguíneos del cerebro humano realizado con ultrasonidos. 

Los ultrasonidos, ese sonido que los humanos no podemos oír, son la base de una tecnología que ha sido uno de los pilares sobre los que se ha construido el edificio de la medicina moderna. Han supuesto una revolución trascendental en el modo de observar el interior del cuerpo humano, hasta hace poco tan misterioso y opaco, y nos han permitido verlo como veríamos con los oídos, como ven los murciélagos, como componen su mundo las personas invidentes. Puede parecer menos, pero los murciélagos vuelan a oscuras y eso no lo pueden hacer los pájaros con sus flamantes ojos. Ha sido una revolución tranquila, de avances graduales pero fiables, sin excesivo ruido mediático, sin premios Nobel, sin estridencias, como no podía ser de otra manera al tratarse, como se trata, de sonido inaudible. Una revolución silenciosa, sí, pero una revolución, al fin y al cabo.

 

*Francisco Camarena Fermenía trabaja en el Instituto de Instrumentación para Imagen Molecular (i3M, CSIC-UPV), donde dirige el Laboratorio de Ultrasonidos Médicos e Industriales (UMIL)

Reciclaje en la farmacia: el 75% de los medicamentos pueden tener nuevos usos terapéuticos

Por Mar Gulis (CSIC)

Crear un nuevo fármaco y ponerlo en las farmacias cuesta una media de 2.600 millones de euros y entre 10 y 15 años de trabajo. Además, este largo y costoso proceso tiene una tasa de éxito bastante baja: de las decenas de miles de compuestos que inician esta carrera de obstáculos, solo el 12% llega a convertirse en medicamento. Ante estas cifras, parece lógico pensar en una alternativa a la estrategia tradicional de búsqueda de nuevas moléculas con potencial terapéutico. El reposicionamiento y la reformulación de fármacos son dos de las opciones más usadas y efectivas para acelerar los plazos y reducir los elevados costes de la producción de nuevos medicamentos.

El reposicionamiento busca nuevas aplicaciones para fármacos ya aprobados y en uso clínico. También puede investigar una nueva indicación para compuestos que no hayan llegado a las fases clínicas. “Se trata de una suerte de reciclaje de aquellos compuestos que se quedaron en alguna etapa del difícil camino hacia la obtención de un medicamento”, explican las investigadoras del CSIC Nuria E. Campillo, Mª del Carmen Fernández y Mercedes Jiménez en el libro Nuevos usos para viejos medicamentos (CSIC-Catarata). Esta técnica permite minimizar el riesgo de fallo, ya que el fármaco reposicionado ha demostrado ser seguro en ensayos clínicos en humanos. Además, se reduce el tiempo de desarrollo, porque los estudios de seguridad e incluso la definición de formulaciones ya están completados. Según las científicas, “se estima que hasta el 75% de los fármacos conocidos pueden tener nuevos usos terapéuticos y que los medicamentos en uso clínico podrían utilizarse hasta en 20 aplicaciones diferentes de aquellas para las que fueron aprobados originalmente”.

Los medicamentos en uso clínico podrían utilizarse hasta en 20 aplicaciones diferentes de aquellas para las que fueron aprobados originalmente.

Nuevas fórmulas para un mismo medicamento

Por su parte, la reformulación de fármacos consiste en la búsqueda de nuevas presentaciones para un mismo medicamento. “La formulación farmacéutica consiste en combinar el principio activo, el fármaco, y los excipientes para producir un medicamento final que sea estable y aceptable para el paciente. Dependiendo de la forma de administración, cambiará su formulación. Por ejemplo, para administrar un medicamento por vía tópica utilizaremos una crema, y para hacerlo por vía oral, un jarabe o una cápsula”, comentan las investigadoras. “Las reformulaciones pueden ser de diferentes tipos: desde cambios en el modo de liberar la sustancia activa en el organismo, hasta modificaciones en los excipientes o en la vía de administración, e incluso en la estructura del principio activo”, añaden.

¿Cómo se reposiciona o se reformula un fármaco? Para darle ‘una nueva vida’ a medicamentos existentes, la comunidad científica puede utilizar estrategias experimentales o computacionales. En el primer caso, se recurre a ensayos masivos de quimiotecas de fármacos. “Se utilizan modelos celulares o animales de enfermedad para identificar compuestos que provocan un cambio en el fenotipo. Por ejemplo, se pueden medir los niveles de diversas proteínas”, afirman las científicas del Centro de Investigaciones Biológicas Margarita Salas (CIB-CSIC). Para las aproximaciones computacionales, uno de los métodos más utilizados es la técnica de acoplamiento molecular o docking. Con él se pretenden estudiar las interacciones fármaco‑diana para predecir la afinidad entre ambas mediante ecuaciones matemáticas. “Las grandes quimiotecas pueden ser evaluadas frente a una o varias dianas en un tiempo relativamente corto, mediante un screening virtual. Así se identifican aquellos fármacos más prometedores virtualmente”, exponen.

La utilidad del reposicionamiento se ha demostrado en las últimas décadas. No obstante, de acuerdo con las investigadoras, “no hay que olvidar que los medicamentos identificados mediante esta técnica también tienen que pasar los correspondientes ensayos clínicos y ser aprobados por las agencias evaluadoras. Se trata de un proceso costoso, pero imprescindible”.

El compuesto activo de la viagra, el sildenafilo, se probó en los 80 para tratar la angina de pecho. / Tim Reckmann. Flickr

Talidomida y viagra: dos casos de serendipia en farmacología

Aunque en la actualidad el reposicionamiento de fármacos se acomete siguiendo un protocolo específico y métodos bastante sofisticados, también hay ejemplos en la historia de la medicina en los que la serendipia ha hecho posible un nuevo uso de compuestos. Es el caso de la talidomida, conocida por causar en los años 60 deformaciones congénitas en recién nacidos tras ser administrada a embarazadas para mitigar las náuseas. El medicamento se retiró, pero en 1998 fue aprobado en Estados Unidos para el tratamiento de la lepra, y desde 2012 también se utiliza para tratar el mieloma múltiple. No obstante, los pacientes que reciben este fármaco también toman medicación para el control de la natalidad.

La famosa viagra es otro ejemplo de reposicionamiento de fármacos por serendipia. Su compuesto activo, el sildenafilo, se estaba probando en la década de los 80 para tratar la angina de pecho, pero en los ensayos clínicos se demostró que podía ser un fármaco eficiente contra la disfunción eréctil.

Nuevas vías para tratar enfermedades raras y emergentes

Las estrategias de reposicionamiento son la gran esperanza para muchas enfermedades raras. Bajo este término existen cerca de 7.000 patologías diferentes que, aunque afectan a un reducido número de pacientes, en su conjunto aquejan a un 7% de la población mundial. Estas enfermedades carecen de interés para la industria farmacéutica por su menor incidencia en comparación con otras patologías, por lo que según las investigadoras, “la aplicación de técnicas de reposicionamiento es, a veces, la única vía para el desarrollo de terapias para tratarlas”. El reposicionamiento permite disponer de tratamientos con un perfil de seguridad y eficacia conocido, lo que reduce su tiempo de aprobación y sus costes. Un ejemplo es el Orfadin, un fármaco que se utiliza desde hace años para el tratamiento de la tirosinemia tipo 1, una enfermedad rara que afecta a una de cada 100.000 personas en el mundo, que acaba de ser aprobado para tratar una patología aún menos frecuente: la alcaptonuria, que padecen una de cada 250.000 personas.

El proyecto SOLIDARITY es un ejemplo de reposicionamiento de fármacos. / Adobe Stock

Las enfermedades emergentes también pueden hallar posibles soluciones gracias a esta vía de investigación. El ejemplo más cercano lo tenemos en la pandemia causada por el virus SARS-CoV-2. “Las instituciones de investigación y las compañías farmacéuticas disponen de quimiotecas de compuestos farmacológicos ya desarrollados o fabricados para explorar su potencial como tratamiento para diversas enfermedades. Cuando comenzó la pandemia por COVID‑19, muchos laboratorios recuperaron los compuestos de estas colecciones para ver si alguno poseía efectos antivirales contra el SARS‑CoV‑2”. Solo en España, se han iniciado a fecha de abril de 2021 más de 160 ensayos clínicos con este objetivo, de los que aproximadamente 120 se corresponden con reposicionamiento.

En el resto del mundo, más de 100 países se han agrupado en el proyecto Solidarity, coordinado por la OMS, y que ha constituido el mayor esfuerzo de reposicionamiento de la historia de la medicina. Este ensayo contempla el reclutamiento de pacientes y el tratamiento con protocolos unificados utilizando fármacos previamente aprobados contra otras enfermedades infecciosas.

* Este texto está basado en el libro Nuevos usos para viejos medicamentos (CSIC-Catarata) de la colección ‘¿Qué sabemos de?’.

Cambia el chip: la leche entera es beneficiosa para la salud

Por Javier Fontecha (CSIC)*

El consumo de leche ha supuesto una ventaja evolutiva para la especie humana. Quienes más se han beneficiado de él han sido las poblaciones que lograron, mediante mutación genética, obtener la capacidad de digerir la lactosa. Pero las poblaciones con distintos niveles de intolerancia a la lactosa también encontraron una ventaja adaptativa en el consumo de lácteos fermentados como el yogurt y el queso, con contenido reducido o nulo de este hidrato de carbono.

En la actualidad, la comunidad científica ha llegado al consenso, en contra de muchas ideas, bulos y mensajes erróneos, de que la leche y los productos lácteos aportan prácticamente todos los nutrientes esenciales para las distintas etapas de la vida, especialmente durante la infancia y la adolescencia, pero también en la edad adulta. La leche sigue siendo considerada el alimento más completo desde el punto de vista nutricional, al aportar proteínas con todos los aminoácidos esenciales y de elevada biodisponibilidad, hidratos de carbono como la lactosa –un disacárido que favorece la absorción de calcio y con actividad probiótica–, grasas complejas con una gran variedad de ácidos grasos de cadena corta y media y pequeñas cantidades de ácidos grasos esenciales (Omega 6 y Omega 3), así como una gran contribución de minerales y vitaminas. Todo ello en un conjunto equilibrado y de bajo poder calórico y, lo que quizá sea lo más importante en los tiempos en que vivimos, a un precio reducido: en algunos casos, el litro de leche puede ser más barato que el litro de agua mineral. Aunque el consumo de leche y productos lácteos no es imprescindible para la vida, desde un punto de vista nutricional no es sencillo poder sustituir el aporte de nutrientes que se obtiene de un simple vaso de leche con otros productos alimentarios en una dieta variada y equilibrada.

El debate sobre la grasa láctea y el colesterol

Pero es alrededor de la grasa láctea donde realmente se ha generado un mayor debate científico y social en las últimas décadas. La grasa láctea, al igual que otras grasas de origen animal, es una grasa denominada ‘saturada’ por contener en su composición un elevado porcentaje de ácidos grasos saturados (AGS) y colesterol, lo que se ha relacionado con el incremento del riesgo de padecer enfermedades cardiovasculares.

La lactosa es un tipo de azúcar que se encuentra en la leche y otros productos lácteos como quesos y yogures.

Esta relación, conocida como el paradigma grasa-salud, fue generada en la década de los 60 por el fisiólogo estadounidense y presidente de la American Heart Association Ancel Keys, quien estableció mediante el famoso estudio de los siete países (hoy en día muy criticado y devaluado) la relación entre la incidencia de la enfermedad coronaria (EC) y la concentración total de colesterol plasmático procedente de la dieta, que luego correlacionó con la energía aportada por los AGS. Esta hipótesis estableció las bases para la “demonización” de las grasas de la dieta (principalmente lácteas) y la aparición de las primeras recomendaciones nutricionales donde se aconsejaba la disminución de la ingesta de grasas de manera indiscriminada a toda la población, que se mantienen hasta nuestros días.

Sin embargo, como es bien sabido, correlación no es causalidad y hoy en día se reconoce la ausencia de efectos negativos derivados del consumo moderado de alimentos ricos en colesterol, como el huevo, y en ácidos grasos saturados de cadena corta y media, presentes en un elevado porcentaje en la leche entera. Además, las conclusiones obtenidas después de más de 50 años de controversia sobre la grasa láctea en estudios epidemiológicos y otros de elevado rigor científico (meta-análisis y revisiones sistemáticas) ponen de manifiesto la ausencia de una evidencia científica clara que relacione el consumo de leche entera y de productos lácteos con un incremento del riesgo de enfermedades cardiovasculares o de la mortalidad. Muy al contrario, estos estudios relacionan el consumo de estos alimentos con un efecto inverso en los biomarcadores asociados con la enfermedad cardiovascular y el riesgo de diabetes.

Información nutricional de un brick de leche entera. / Open Food Facts

A diferencia de otras grasas animales, la grasa láctea es la única grasa alimentaria que contiene ácido butírico (C4:0) y por eso se le llama grasa butírica. Como se ha demostrado, este y otros ácidos grasos de cadena corta y media (aproximadamente el 12-15 % del total de AGS) no tienen efecto sobre los niveles del LDL-colesterol en sangre, ya que son empleados por el organismo principalmente como fuente de energía rápida. De hecho, suelen ser recomendados en programas de control de peso.

Estudios recientes, además, consideran la leche como una de las fuentes más importantes de componentes bioactivos naturales y señalan que sus efectos sobre la promoción de la salud son el resultado de la interacción de todos sus nutrientes. Es decir, que sus efectos van más allá de la simple suma de efectos individuales. Esto es así gracias a su matriz, que incrementa la biodisponibilidad de muchos de sus nutrientes y de sus compuestos bioactivos.

Por último, es importante señalar que toda la corriente que incide en la demonización de las grasas y el colesterol de la dieta, y en particular de la grasa láctea, y su eliminación incluso de las fórmulas infantiles, ha llevado a una entronización de los hidratos de carbono simples que ha generado consecuencias negativas para la salud de la población, como es la creciente incidencia de la diabetes tipo 2 y de la obesidad.

* Javier Fontecha es investigador del CSIC en el Instituto de Investigación en Ciencias de la Alimentación .