Entradas etiquetadas como ‘ciencia’

Astrocitos: estrellas que hablan en nuestro cerebro

Por Irene Serra Hueto (CSIC)*

Seguro que has oído alguna vez que nuestro cerebro es el ordenador más potente del mundo. Ahora bien, ¿en qué piensas cuando te preguntan de qué está formado? Lo más probable es que lo primero que te venga a la cabeza sean las neuronas. No está mal, pero para que esta máquina tan singular funcione con todo su potencial necesita del trabajo de otras células igual de importantes. Entre ellas se encuentran los astrocitos, que reciben su nombre de las estrellas.

Empecemos por el principio. El cerebro funciona gracias a que las neuronas transmiten información a través de corrientes eléctricas. Los puntos de conexión entre una neurona y otra se conocen como sinapsis. En ellas se liberan sustancias llamadas neurotransmisores que permiten que el impulso eléctrico continúe de una neurona a otra. En este punto de conexión, en este diálogo entre las neuronas, el astrocito juega un papel fundamental, modulando y regulando la comunicación entre ellas.

Nuestro cerebro habla bajo sus propias reglas. Esquema de una sinapsis cerebral donde se intercambia la información entre las células, como en una conversación de WhatsApp. / Irene Serra. Células creadas con Biorender.com.

¿Qué ventajas puede tener una conversación a tres? Este sistema, más complejo que una conversación a dos, permite más variedad de mensajes y añade un elemento mediador que asegura que la información se transmite correctamente, el astrocito. La cuestión es que no tenemos un solo astrocito por cada sinapsis. En ratones, una sola de estas células es capaz de modular, mediar y participar en más de 100.000 sinapsis simultáneamente. Es como si un único astrocito estuviese presente y hablando en 100.000 grupos de WhatsApp al mismo tiempo. En humanos, un solo astrocito interviene en 2 millones de sinapsis. Es decir, que nuestros astrocitos tienen 20 veces más capacidad de procesar información… Y, además, tenemos millones de ellos. ¿Y si la explicación (o, al menos, parte de ella) a nuestra inteligencia residiera en el gran refinamiento que los astrocitos aportan a nuestro cerebro?

Para poder contestar esta pregunta necesitamos saber más. Precisamente, mi investigación en el Instituto Cajal (IC) del CSIC se centra en estudiar los circuitos astrocito-neurona; en concreto, los que se establecen en el núcleo Accumbens, la zona del cerebro que se activa cuando algo nos gusta. Esta zona recibe información de otras regiones del cerebro relacionadas con la memoria (hipocampo), las emociones (amígdala) y la toma de decisiones (corteza prefrontal), y es muy importante porque se ve afectada, entre otros casos, en trastornos de adicción.

Ejemplo de cómo es la información que pasa por el núcleo Accumbens vista desde una conversación de WhatsApp./ Irene Serra

Sabemos que los astrocitos son parte fundamental de la regulación de este núcleo y, desde hace poco, también que el cerebro tiene distintos tipos de astrocitos, del mismo modo que tiene distintos tipos de neuronas. Sin embargo, todavía no hemos comprendido en profundidad para qué son los astrocitos diferentes entre ellos ni cómo son de diferentes. En el núcleo Accumbens, ¿tenemos astrocitos especializados regulando la información de recuerdos de aquello que nos gusta? ¿Hay otros asociados a las emociones? ¿Intervienen en los circuitos de toma de decisión?

Un sensor de calcio para superar las limitaciones de los microscopios

En el último trabajo publicado por el Laboratorio de Plasticidad Sináptica e Interacciones astrocito-neurona del IC-CSIC, dirigido por Marta Navarrete, profundizamos en estas preguntas y presentamos una nueva herramienta que nos ha permitido estudiar, por primera vez, la actividad de los astrocitos a gran escala y con precisión temporal. Se trata de CaMPARIGFAP, un sensor de calcio con el que hemos podido observar el núcleo Accumbens al completo y detectar qué astrocitos responden a un estímulo concreto.

El tamaño de las lentes de los microscopios es limitado y hace que no sea posible observar al mismo tiempo todos los astrocitos de una región cerebral. La particularidad de CaMPARIGFAP es que detecta, mediante la fluorescencia, el calcio que emiten los astrocitos cuando se activan. Es como hacer una foto: al enviar un ‘flash’ de luz violeta, los astrocitos inactivos se muestran en verde y los activos en rojo. De este modo, podemos analizar cómo responden regiones amplias del cerebro a un estímulo determinado.

Tejido del núcleo Accumbens en el que cambia el color de CaMPARIGFAP según la actividad de los astrocitos. / Irene Serra

Utilizando esta herramienta hemos descubierto que los astrocitos del núcleo Accumbens forman redes funcionales que responden de diferente forma según la procedencia de los estímulos -memoria, emociones o decisiones­-. Los resultados indican que los astrocitos son capaces de distinguir de dónde viene la información y, también, que integran las diferentes señales en un procesamiento paralelo al de las neuronas. Todo apunta a que los astrocitos están mucho más especializados en los circuitos cerebrales de lo que pensábamos.

Comprender en detalle cómo interaccionan con las neuronas y cómo regulan la información que llega de las diferentes zonas del cerebro nos acercaría mucho a encontrar soluciones eficaces para tratar la adicción. Y eso solo en el núcleo de Accumbens: llegar a entender cómo interaccionan los astrocitos en otras regiones cerebrales nos permitiría comprender mucho mejor el potencial de nuestro cerebro, que a día de hoy esconde tantos misterios como el universo.

*Irene Serra Hueto es investigadora predoctoral en el Laboratorio de plasticidad sináptica e interacciones astrocito-neurona del Instituto Cajal del CSIC, dirigido por Marta Navarrete.

El viento, el elemento olvidado del cambio climático

Por César Azorín-Molina*

El viento es aire en movimiento. Esta definición implica que la expresión “hace aire” –tan común entre el público general y los medios de comunicación– es incorrecta: lo apropiado es decir “hace viento”. Este movimiento de aire se origina por las diferencias de presión atmosférica entre las superficies de la Tierra y los distintos niveles de la atmósfera; y ha sido utilizado por la humanidad desde el pasado hasta nuestros días como fuente de energía para la navegación a vela, el molido del grano o la extracción de agua de pozos subterráneos. La relevancia social, económica y ambiental del viento es múltiple, y tiene una doble vertiente, ya que el viento supone tanto un recurso como un riesgo climático.

El molino de viento convierte la energía eólica en energía rotacional con el fin principal de moler granos. Es un tipo particular de molino que opera por medio de paletas llamadas aspas.​

En un contexto como el actual, en el que nos enfrentamos a las consecuencias del cambio climático, el viento constituye la segunda fuente más importante en la generación de electricidad y la principal fuente de energía limpia. Su comportamiento altera la capacidad de producción de la industria eólica, pero es también clave en procesos muy dispares: la agricultura y la hidrología, pues incide sobre la evaporación y la disponibilidad de recursos hídricos; la calidad del aire, ya que dispersa la contaminación atmosférica; o las catástrofes naturales, por las pérdidas económicas y humanas que producen los temporales. Otros fenómenos afectados por el viento son la ordenación y el planeamiento urbano, las operaciones aeroportuarias, el tráfico por carretera, la propagación de incendios forestales, el turismo, los deportes de viento e incluso la dispersión de semillas, las rutas migratorias de las aves o la erosión del suelo.

Un aerogenerador es un dispositivo que convierte la energía cinética del viento en energía eléctrica.

¿El viento se detiene o se acelera?

La veleta para conocer la dirección del viento fue inventada en el año 48 a. C por el astrónomo Andronicus y el anemómetro que mide la velocidad a la que viaja el aire en movimiento, en 1846 por el astrónomo y físico irlandés John Thomas Romney Robinson. Sin embargo, el estudio de los cambios del viento en escalas temporales largas (periodos de más de 30 años) no despertó el interés de la comunidad científica hasta hace apenas un par de décadas.

La veleta es una pieza de metal, ordinariamente en forma de saeta, que se coloca en lo alto de un edificio, de modo que pueda girar alrededor de un eje vertical impulsada por el viento, y que sirve para señalar la dirección de este.

Fue en Australia, donde el profesor emérito de la Australian National University Michael Roderick, en su afán de cuantificar el efecto del viento en la evaporación, observó un debilitamiento de los vientos superficiales durante las últimas décadas. En 2007, para denominar este fenómeno, acuñó el término anglosajón de ‘stilling’. Pocos años más tarde, en 2012, el también australiano Tim McVicar, de la Commonwealth Scientific and Industrial Research Organisation, concluyó que este descenso de la velocidad de los vientos estaba ocurriendo sobre superficies continentales de latitudes medias, preferentemente del hemisferio norte, desde la década de 1980. En cambio, otras investigaciones detectaron un reforzamiento de los vientos sobre las superficies de los océanos y, en la última década, un cese del fenómeno ‘stilling’ y un nuevo ciclo de ascenso de la velocidad de los vientos o ‘reversal’.

Falta de evidencias

La causa principal que explica ambos fenómenos se ha atribuido a los cambios en la circulación atmosférica-oceánica. Estos cambios se producen tanto por la propia variabilidad natural del clima como por efecto de la acción humana sobre el clima: el calentamiento global consecuencia de las emisiones de gases de efecto invernadero y también los cambios en los usos del suelo, entre los que destaca la rugosidad del terreno provocada por la masa forestal y la urbanización. En cualquier caso, tampoco hay que descartar la posibilidad de errores instrumentales en la medición del viento por el desgaste de los anemómetros, entre otros.

En la actualidad, la ciencia del clima se afana por descifrar el comportamiento del viento y elaborar proyecciones para los próximos 100 años. En un escenario de aumento de emisiones de gases de efecto invernadero y de calentamiento global, es previsible que una nueva fase de ‘stilling’ domine el siglo XXI.

El último informe del Panel Intergubernamental del Cambio Climático (IPCC) concluyó que el viento es una de las partes olvidadas del sistema climático dadas las escasas evidencias sobre sus cambios pasados y futuros. Un nuevo ‘stilling’ obligaría a desarrollar nuevas estrategias a medio-largo plazo en el sector de la energía eólica, un motor clave en la descarbonización de la economía establecida en el Acuerdo de París y el Pacto Verde Europeo. El estudio del viento debe ser prioritario para impulsar las energías renovables en la transición hacia una economía global con bajas emisiones de gases de efecto invernadero.

* César Azorín-Molina es investigador del CSIC en el Centro de Investigaciones sobre Desertificación (CSIC-UV-GVA) y pertenece a la Red Leonardo de la Fundación BBVA

 

Ultrasonidos: la revolución silenciosa de la medicina moderna

Por Francisco Camarena (CSIC-UPV)*

En 1983 nació la primera persona de mi familia sabiéndose de antemano cuál iba a ser su sexo. A su madre le habían hecho unas pruebas un poco raras echándole un gel pastoso y frío sobre el vientre, y el ginecólogo se había adelantado a la naturaleza diciendo: “creo que es una niña”. Las imágenes eran grises, ruidosas, bastante confusas y con mucho movimiento. ¿Cómo iba a deducirse de ese enredo de sombras que aquello iba a ser una niña?, debió pensar su madre con escepticismo.

Medida de la translucencia nucal con ecografía en la semana 13 de embarazo.

Corrían los años de la movida y las técnicas de imagen para diagnósticos médicos también se revolucionaban: acababan de concederles el Premio Nobel a los creadores de esa maravilla de imagen 3D que es la Tomografía Axial Computerizada (TAC). Los inventores de la resonancia magnética, también premiados con el Nobel, andaban haciendo imágenes espectaculares del cerebro humano utilizando propiedades cuánticas de la materia; y había unos científicos que obtenían imágenes de los procesos metabólicos del organismo con nada más y nada menos que antimateria, que es lo que se usa para obtener una imagen PET (Tomografía por Emisión de Positrones). Así que, ¿quién iba a dar importancia a unas imágenes tan pobres como las que se empezaban a tomar con sonidos?

Ventajas de los ultrasonidos

Lo cierto es que las imágenes tomadas con ultrasonidos no eran 3D, pero eran en tiempo real. Solo daban información anatómica, pero era complementaria a la que proporcionaban los Rayos X. Eran ruidosas, sí, pero incluso del ruido se podía extraer información relevante para el diagnóstico. Es verdad que dependían del operador que manejase la máquina, pero como no era más que sonido, y no podía ionizar átomos y afectar a nuestras moléculas de ADN, siempre se podía repetir la prueba las veces que fuese necesario. Y, sobre todo, se podía tener cien máquinas de ultrasonidos con lo que cuesta un TAC, una resonancia o un PET, y eso sí que es harina de otro costal.

Imagen de Microscopia de Localización con Ultrasonidos y Doppler Color de un corte coronal del cerebro de un ratón

Las décadas de los ochenta y noventa del S.XX permitieron la consolidación a nivel mundial de la técnica, con sus grandes éxitos en el campo de la obstetricia y la cardiología, que prácticamente no existirían sin esta modalidad de imagen, y con el desarrollo de la imagen Doppler, 3D y, en el campo de la terapia, de la litotricia para el tratamiento de cálculos renales y biliares con ondas de choque. El arranque del siglo XXI no fue menos fructífero: la elastografía, una variante de imagen ecográfica, permitió la mejora de los diagnósticos mediante la obtención de mapas de la dureza de los tejidos, y la aparición de sistemas cada vez más pequeños y económicos posibilitó la implantación de la tecnología en pequeñas clínicas de todo el mundo. En 2014, el número de pruebas con ultrasonidos a nivel mundial ascendió a 2.800 millones (éramos 7.200 millones de habitantes sobre la faz de la Tierra en ese momento), lo que aupó esta tecnología, junto con la de Rayos X, a la cima de las modalidades de imagen más utilizadas en medicina. Además, durante la segunda década de este siglo se ha extendido el uso del ultrasonido terapéutico, principalmente para producir quemaduras internas en los tejidos mediante la focalización del sonido, de un modo parecido a como focaliza una lupa la luz solar, lo que está permitiendo tratar de forma no invasiva enfermedades como el temblor esencial, la enfermedad de Parkinson, el cáncer de próstata o la fibrosis uterina.

Nuevas terapias contra el cáncer

El futuro próximo se vislumbra muy prometedor. Las mejoras técnicas están disparando el número de aplicaciones y en pocos años veremos consolidarse nuevas formas de terapia, como la histotripsia: ultrasonidos focalizados de altísima intensidad que trituran literalmente los tejidos tumorales y esparcen en derredor antígenos que favorecen la respuesta inmunológica del cuerpo contra el propio tumor. Otras novedades serán los dispositivos para modular con precisión quirúrgica el funcionamiento del cerebro humano y modalidades de imagen de una espectacularidad propia de la ciencia ficción, como la optoacústica o la microscopía de localización por ultrasonidos.

Mapeo de los vasos sanguíneos del cerebro humano realizado con ultrasonidos. 

Los ultrasonidos, ese sonido que los humanos no podemos oír, son la base de una tecnología que ha sido uno de los pilares sobre los que se ha construido el edificio de la medicina moderna. Han supuesto una revolución trascendental en el modo de observar el interior del cuerpo humano, hasta hace poco tan misterioso y opaco, y nos han permitido verlo como veríamos con los oídos, como ven los murciélagos, como componen su mundo las personas invidentes. Puede parecer menos, pero los murciélagos vuelan a oscuras y eso no lo pueden hacer los pájaros con sus flamantes ojos. Ha sido una revolución tranquila, de avances graduales pero fiables, sin excesivo ruido mediático, sin premios Nobel, sin estridencias, como no podía ser de otra manera al tratarse, como se trata, de sonido inaudible. Una revolución silenciosa, sí, pero una revolución, al fin y al cabo.

 

*Francisco Camarena Fermenía trabaja en el Instituto de Instrumentación para Imagen Molecular (i3M, CSIC-UPV), donde dirige el Laboratorio de Ultrasonidos Médicos e Industriales (UMIL)

Reciclaje en la farmacia: el 75% de los medicamentos pueden tener nuevos usos terapéuticos

Por Mar Gulis (CSIC)

Crear un nuevo fármaco y ponerlo en las farmacias cuesta una media de 2.600 millones de euros y entre 10 y 15 años de trabajo. Además, este largo y costoso proceso tiene una tasa de éxito bastante baja: de las decenas de miles de compuestos que inician esta carrera de obstáculos, solo el 12% llega a convertirse en medicamento. Ante estas cifras, parece lógico pensar en una alternativa a la estrategia tradicional de búsqueda de nuevas moléculas con potencial terapéutico. El reposicionamiento y la reformulación de fármacos son dos de las opciones más usadas y efectivas para acelerar los plazos y reducir los elevados costes de la producción de nuevos medicamentos.

El reposicionamiento busca nuevas aplicaciones para fármacos ya aprobados y en uso clínico. También puede investigar una nueva indicación para compuestos que no hayan llegado a las fases clínicas. “Se trata de una suerte de reciclaje de aquellos compuestos que se quedaron en alguna etapa del difícil camino hacia la obtención de un medicamento”, explican las investigadoras del CSIC Nuria E. Campillo, Mª del Carmen Fernández y Mercedes Jiménez en el libro Nuevos usos para viejos medicamentos (CSIC-Catarata). Esta técnica permite minimizar el riesgo de fallo, ya que el fármaco reposicionado ha demostrado ser seguro en ensayos clínicos en humanos. Además, se reduce el tiempo de desarrollo, porque los estudios de seguridad e incluso la definición de formulaciones ya están completados. Según las científicas, “se estima que hasta el 75% de los fármacos conocidos pueden tener nuevos usos terapéuticos y que los medicamentos en uso clínico podrían utilizarse hasta en 20 aplicaciones diferentes de aquellas para las que fueron aprobados originalmente”.

Los medicamentos en uso clínico podrían utilizarse hasta en 20 aplicaciones diferentes de aquellas para las que fueron aprobados originalmente.

Nuevas fórmulas para un mismo medicamento

Por su parte, la reformulación de fármacos consiste en la búsqueda de nuevas presentaciones para un mismo medicamento. “La formulación farmacéutica consiste en combinar el principio activo, el fármaco, y los excipientes para producir un medicamento final que sea estable y aceptable para el paciente. Dependiendo de la forma de administración, cambiará su formulación. Por ejemplo, para administrar un medicamento por vía tópica utilizaremos una crema, y para hacerlo por vía oral, un jarabe o una cápsula”, comentan las investigadoras. “Las reformulaciones pueden ser de diferentes tipos: desde cambios en el modo de liberar la sustancia activa en el organismo, hasta modificaciones en los excipientes o en la vía de administración, e incluso en la estructura del principio activo”, añaden.

¿Cómo se reposiciona o se reformula un fármaco? Para darle ‘una nueva vida’ a medicamentos existentes, la comunidad científica puede utilizar estrategias experimentales o computacionales. En el primer caso, se recurre a ensayos masivos de quimiotecas de fármacos. “Se utilizan modelos celulares o animales de enfermedad para identificar compuestos que provocan un cambio en el fenotipo. Por ejemplo, se pueden medir los niveles de diversas proteínas”, afirman las científicas del Centro de Investigaciones Biológicas Margarita Salas (CIB-CSIC). Para las aproximaciones computacionales, uno de los métodos más utilizados es la técnica de acoplamiento molecular o docking. Con él se pretenden estudiar las interacciones fármaco‑diana para predecir la afinidad entre ambas mediante ecuaciones matemáticas. “Las grandes quimiotecas pueden ser evaluadas frente a una o varias dianas en un tiempo relativamente corto, mediante un screening virtual. Así se identifican aquellos fármacos más prometedores virtualmente”, exponen.

La utilidad del reposicionamiento se ha demostrado en las últimas décadas. No obstante, de acuerdo con las investigadoras, “no hay que olvidar que los medicamentos identificados mediante esta técnica también tienen que pasar los correspondientes ensayos clínicos y ser aprobados por las agencias evaluadoras. Se trata de un proceso costoso, pero imprescindible”.

El compuesto activo de la viagra, el sildenafilo, se probó en los 80 para tratar la angina de pecho. / Tim Reckmann. Flickr

Talidomida y viagra: dos casos de serendipia en farmacología

Aunque en la actualidad el reposicionamiento de fármacos se acomete siguiendo un protocolo específico y métodos bastante sofisticados, también hay ejemplos en la historia de la medicina en los que la serendipia ha hecho posible un nuevo uso de compuestos. Es el caso de la talidomida, conocida por causar en los años 60 deformaciones congénitas en recién nacidos tras ser administrada a embarazadas para mitigar las náuseas. El medicamento se retiró, pero en 1998 fue aprobado en Estados Unidos para el tratamiento de la lepra, y desde 2012 también se utiliza para tratar el mieloma múltiple. No obstante, los pacientes que reciben este fármaco también toman medicación para el control de la natalidad.

La famosa viagra es otro ejemplo de reposicionamiento de fármacos por serendipia. Su compuesto activo, el sildenafilo, se estaba probando en la década de los 80 para tratar la angina de pecho, pero en los ensayos clínicos se demostró que podía ser un fármaco eficiente contra la disfunción eréctil.

Nuevas vías para tratar enfermedades raras y emergentes

Las estrategias de reposicionamiento son la gran esperanza para muchas enfermedades raras. Bajo este término existen cerca de 7.000 patologías diferentes que, aunque afectan a un reducido número de pacientes, en su conjunto aquejan a un 7% de la población mundial. Estas enfermedades carecen de interés para la industria farmacéutica por su menor incidencia en comparación con otras patologías, por lo que según las investigadoras, “la aplicación de técnicas de reposicionamiento es, a veces, la única vía para el desarrollo de terapias para tratarlas”. El reposicionamiento permite disponer de tratamientos con un perfil de seguridad y eficacia conocido, lo que reduce su tiempo de aprobación y sus costes. Un ejemplo es el Orfadin, un fármaco que se utiliza desde hace años para el tratamiento de la tirosinemia tipo 1, una enfermedad rara que afecta a una de cada 100.000 personas en el mundo, que acaba de ser aprobado para tratar una patología aún menos frecuente: la alcaptonuria, que padecen una de cada 250.000 personas.

El proyecto SOLIDARITY es un ejemplo de reposicionamiento de fármacos. / Adobe Stock

Las enfermedades emergentes también pueden hallar posibles soluciones gracias a esta vía de investigación. El ejemplo más cercano lo tenemos en la pandemia causada por el virus SARS-CoV-2. “Las instituciones de investigación y las compañías farmacéuticas disponen de quimiotecas de compuestos farmacológicos ya desarrollados o fabricados para explorar su potencial como tratamiento para diversas enfermedades. Cuando comenzó la pandemia por COVID‑19, muchos laboratorios recuperaron los compuestos de estas colecciones para ver si alguno poseía efectos antivirales contra el SARS‑CoV‑2”. Solo en España, se han iniciado a fecha de abril de 2021 más de 160 ensayos clínicos con este objetivo, de los que aproximadamente 120 se corresponden con reposicionamiento.

En el resto del mundo, más de 100 países se han agrupado en el proyecto Solidarity, coordinado por la OMS, y que ha constituido el mayor esfuerzo de reposicionamiento de la historia de la medicina. Este ensayo contempla el reclutamiento de pacientes y el tratamiento con protocolos unificados utilizando fármacos previamente aprobados contra otras enfermedades infecciosas.

* Este texto está basado en el libro Nuevos usos para viejos medicamentos (CSIC-Catarata) de la colección ‘¿Qué sabemos de?’.

Cambia el chip: la leche entera es beneficiosa para la salud

Por Javier Fontecha (CSIC)*

El consumo de leche ha supuesto una ventaja evolutiva para la especie humana. Quienes más se han beneficiado de él han sido las poblaciones que lograron, mediante mutación genética, obtener la capacidad de digerir la lactosa. Pero las poblaciones con distintos niveles de intolerancia a la lactosa también encontraron una ventaja adaptativa en el consumo de lácteos fermentados como el yogurt y el queso, con contenido reducido o nulo de este hidrato de carbono.

En la actualidad, la comunidad científica ha llegado al consenso, en contra de muchas ideas, bulos y mensajes erróneos, de que la leche y los productos lácteos aportan prácticamente todos los nutrientes esenciales para las distintas etapas de la vida, especialmente durante la infancia y la adolescencia, pero también en la edad adulta. La leche sigue siendo considerada el alimento más completo desde el punto de vista nutricional, al aportar proteínas con todos los aminoácidos esenciales y de elevada biodisponibilidad, hidratos de carbono como la lactosa –un disacárido que favorece la absorción de calcio y con actividad probiótica–, grasas complejas con una gran variedad de ácidos grasos de cadena corta y media y pequeñas cantidades de ácidos grasos esenciales (Omega 6 y Omega 3), así como una gran contribución de minerales y vitaminas. Todo ello en un conjunto equilibrado y de bajo poder calórico y, lo que quizá sea lo más importante en los tiempos en que vivimos, a un precio reducido: en algunos casos, el litro de leche puede ser más barato que el litro de agua mineral. Aunque el consumo de leche y productos lácteos no es imprescindible para la vida, desde un punto de vista nutricional no es sencillo poder sustituir el aporte de nutrientes que se obtiene de un simple vaso de leche con otros productos alimentarios en una dieta variada y equilibrada.

El debate sobre la grasa láctea y el colesterol

Pero es alrededor de la grasa láctea donde realmente se ha generado un mayor debate científico y social en las últimas décadas. La grasa láctea, al igual que otras grasas de origen animal, es una grasa denominada ‘saturada’ por contener en su composición un elevado porcentaje de ácidos grasos saturados (AGS) y colesterol, lo que se ha relacionado con el incremento del riesgo de padecer enfermedades cardiovasculares.

La lactosa es un tipo de azúcar que se encuentra en la leche y otros productos lácteos como quesos y yogures.

Esta relación, conocida como el paradigma grasa-salud, fue generada en la década de los 60 por el fisiólogo estadounidense y presidente de la American Heart Association Ancel Keys, quien estableció mediante el famoso estudio de los siete países (hoy en día muy criticado y devaluado) la relación entre la incidencia de la enfermedad coronaria (EC) y la concentración total de colesterol plasmático procedente de la dieta, que luego correlacionó con la energía aportada por los AGS. Esta hipótesis estableció las bases para la “demonización” de las grasas de la dieta (principalmente lácteas) y la aparición de las primeras recomendaciones nutricionales donde se aconsejaba la disminución de la ingesta de grasas de manera indiscriminada a toda la población, que se mantienen hasta nuestros días.

Sin embargo, como es bien sabido, correlación no es causalidad y hoy en día se reconoce la ausencia de efectos negativos derivados del consumo moderado de alimentos ricos en colesterol, como el huevo, y en ácidos grasos saturados de cadena corta y media, presentes en un elevado porcentaje en la leche entera. Además, las conclusiones obtenidas después de más de 50 años de controversia sobre la grasa láctea en estudios epidemiológicos y otros de elevado rigor científico (meta-análisis y revisiones sistemáticas) ponen de manifiesto la ausencia de una evidencia científica clara que relacione el consumo de leche entera y de productos lácteos con un incremento del riesgo de enfermedades cardiovasculares o de la mortalidad. Muy al contrario, estos estudios relacionan el consumo de estos alimentos con un efecto inverso en los biomarcadores asociados con la enfermedad cardiovascular y el riesgo de diabetes.

Información nutricional de un brick de leche entera. / Open Food Facts

A diferencia de otras grasas animales, la grasa láctea es la única grasa alimentaria que contiene ácido butírico (C4:0) y por eso se le llama grasa butírica. Como se ha demostrado, este y otros ácidos grasos de cadena corta y media (aproximadamente el 12-15 % del total de AGS) no tienen efecto sobre los niveles del LDL-colesterol en sangre, ya que son empleados por el organismo principalmente como fuente de energía rápida. De hecho, suelen ser recomendados en programas de control de peso.

Estudios recientes, además, consideran la leche como una de las fuentes más importantes de componentes bioactivos naturales y señalan que sus efectos sobre la promoción de la salud son el resultado de la interacción de todos sus nutrientes. Es decir, que sus efectos van más allá de la simple suma de efectos individuales. Esto es así gracias a su matriz, que incrementa la biodisponibilidad de muchos de sus nutrientes y de sus compuestos bioactivos.

Por último, es importante señalar que toda la corriente que incide en la demonización de las grasas y el colesterol de la dieta, y en particular de la grasa láctea, y su eliminación incluso de las fórmulas infantiles, ha llevado a una entronización de los hidratos de carbono simples que ha generado consecuencias negativas para la salud de la población, como es la creciente incidencia de la diabetes tipo 2 y de la obesidad.

* Javier Fontecha es investigador del CSIC en el Instituto de Investigación en Ciencias de la Alimentación .

Ciencia, poesía y redes. ¡Participa en el concurso #MicropoemasCSIC en Twitter!

Por Mar Gulis (CSIC)

¿Tienes un perfil en Twitter? Si la respuesta es sí, desde hoy hasta el 7 de octubre de 2021 puedes participar en #MicropoemasCSIC, un concurso que mezcla ciencia y poesía. Con este concurso queremos celebrar que 2021 ha sido un año muy especial para @CSICdivulga, el perfil del CSIC en redes sociales (Twitter, Instagram, Facebook, Youtube) en el que difundimos nuestras actividades de divulgación y todo tipo de contenidos relacionados con la cultura científica. ¡Este año hemos cumplido 10 años y superado la cifra de 100.000 seguidores/as en Twitter!

Con estos dos hitos que festejar, y aprovechando la celebración por primera vez del Día de la Cultura Científica (hoy, 28 de septiembre), lanzamos un concurso de micropoemas de inspiración científica. Si un poema es una composición literaria en verso, sujeta o no a pautas de métrica, ritmo y rima, podemos decir que un micropoema es un poema muy breve, capaz de condensar mucho en pocas palabras. En este caso, necesitamos que quepa en un tuit. ¡Queremos ver cómo concibes la ciencia y la tecnología a través de estas microcreaciones poéticas!

Para participar tienes que hacer lo siguiente: seguir a @CSICdivulga, lanzar un tuit con un micropoema en castellano que sea propio, único y original, y que esté relacionado de algún modo con la ciencia, la investigación científica, el oficio de investigador/a, los avances, los dilemas, la importancia de la ciencia, etc. Dentro de los 280 caracteres del tuit debes incluir el texto del micropoema, una mención a @CSICdivulga y el hashtag #MicropoemasCSIC. El texto ha de ser de tu autoría y no haber sido publicado con anterioridad.

La ciencia y la poesía comparten más cosas de las que parece, pues ambas, aun desde aproximaciones muy diferentes, necesitan imaginación para formular preguntas y hallar respuestas, se cuestionan porqués cruciales, buscan comprender el mundo que hay alrededor (¡y más allá!), requieren mucha observación y atención al detalle… Así que ¡deja volar tu imaginación!

Si necesitas un poco de inspiración, te animamos a pasarte por el último concurso que organizamos en Twitter, en 2019, con motivo de la publicación del número 100 de la colección ¿Qué sabemos de? (CSIC-Catarata): #100QSD y ver los tuits que se publicaron. También puedes echar un vistazo a otro concurso que hicimos unos años atrás: #LibroCiencia. Ahora bien, ten en cuenta que aquellos eran concursos de microrrelatos y este es de micropoemas.

Puedes pensártelo, pero no demasiado, pues el plazo para participar es breve, solo 10 días: desde hoy, 28 de septiembre, hasta el 7 de octubre incluido (hora española peninsular). Cada persona puede participar con un máximo de tres tuits, que se valorarán de forma independiente. Un jurado elegirá los 10 mejores micropoemas y tendrá en cuenta la creatividad, la originalidad, la calidad literaria y la adecuación al tema planteado (es decir, que el contenido esté relacionado con la ciencia y la tecnología). Los/as autores/as de los mejores micropoemas recibirán un lote de libros del CSIC (en ningún caso habrá remuneración económica). El CSIC contactará con las personas premiadas a través de MD (mensaje directo en Twitter) para concretar la dirección de envío. ¡Ah! Y pueden participar personas de todo el mundo, pero las que resulten ganadoras deberán aportar una dirección dentro de España para el envío del premio. Consulta las bases completas aquí. ¡Suerte y creatividad!

Barbara McClintock, la descubridora de los genes saltarines

Por Sònia Garcia (CSIC)*

A principios del siglo XX, antes del descubrimiento de la estructura del ADN, los genes no eran mucho más que entidades abstractas para la mayoría de la comunidad científica. En la Universidad de Cornell (Nueva York), una joven Barbara McClintock (1902-1992) empezaba a estudiar los genes del maíz. Aunque en aquella época aún no se permitía a las mujeres la especialización en Genética, McClintock, que se doctoró en Botánica en 1927, se convirtió en un miembro fundamental del grupo de trabajo en citogenética del maíz. La investigadora quería resolver lo que para ella era un misterio: el porqué de la diversidad de colores que se pueden encontrar en una sola mazorca de maíz, incluso dentro del mismo grano. ¿Cómo podía ser que, desarrollándose únicamente a partir del tejido de la planta maternal y por lo tanto compartiendo el mismo material genético, existiera tal variedad cromática en una mazorca?

Barbara McClintock en su laboratorio en 1947. / Smithsonian Institution Archives.

A través de la observación de los cromosomas de esta especie en el microscopio (para lo que ideó nuevos métodos de tinción), Barbara se dio cuenta de que determinados fragmentos de ADN poseían la habilidad de ‘saltar’ de un cromosoma a otro. Con este movimiento, denominado transposición, los genes responsables del color de los granos se activaban o desactivaban de una célula a otra. Estos procesos de transposición de los genes, que se dan al azar –es decir, afectando a unas semillas sí, a otras no y a otras parcialmente–, son los responsables del patrón multicolor de las mazorcas de algunas variedades de maíz.

Precursora de la revolución molecular

Con la investigación de McClintock, el mecanismo de transposición y los fundamentos de la regulación de la expresión génica se habían puesto sobre la mesa. Pero sus nuevas hipótesis chocaban con la concepción estática que se tenía de los genes en aquella época. La idea dominante era que estos se ubicaban en los cromosomas como si fueran las perlas de un collar, cada uno con una posición determinada e inalterable.

Granos de maíz de diferentes colores

Mazorcas de maíz en las que se observa el patrón de color ocasionado por los genes saltarines.

A pesar de la importancia de su descubrimiento, este fue acogido con escepticismo entre la comunidad científica, quizás porque su trabajo era conceptualmente complejo y demasiado rompedor. Ella misma interpretó hostilidad y perplejidad en las reacciones de sus colegas, pero siguió fiel a su línea de investigación. A finales de los años 70 y principios de los 80, la ‘revolución molecular’ reivindicaría las ideas de McClintock sobre los genes saltarines, denominados también transposones o elementos transponibles. Además, con posterioridad al planteamiento de su hipótesis sobre la transposición, otros investigadores demostraron su existencia en la mosca del vinagre (Drosophila melanogaster), en bacterias, levaduras o virus.

Incluso varios años después, en la década de los 90, se demostró que el carácter rugoso de los famosos guisantes de Mendel, con los que este sentó las bases de la genética, era causado por la inserción permanente de un transposón en el gen que codifica la enzima de ramificación del almidón, inactivándolo. Si esta enzima no está presente, los guisantes aumentan su contenido en azúcar. Esto promueve la acumulación de agua y su hinchamiento en una etapa temprana de su desarrollo, lo que, con la posterior deshidratación, acaba dándoles un aspecto rugoso. Al secuenciar este gen en las semillas rugosas se vio que era algo más largo que el de las semillas lisas. El fragmento adicional tenía una estructura similar a los elementos detectados en el maíz.

Guisantes

Guisantes verdes o amarillos, lisos o rugosos, como los que utilizó Mendel en sus experimentos. / Rafael Navajas.

Los elementos transponibles, claves para la evolución

Los elementos transponibles constituyen el componente más abundante de la mayoría de los genomas eucariotas. En el caso del maíz llegan al 80% y en el ser humano se estima que hasta un 45% estaría formado por este tipo de elementos. En muchas ocasiones estos genes saltarines están en realidad ya fijados en el genoma y han perdido la capacidad de moverse. Actualmente se conoce una enorme diversidad de elementos transponibles, y cada vez se comprenden mejor sus efectos.

Aunque normalmente las mutaciones aleatorias que inducen son inocuas, en algunos casos pueden generar beneficios para el organismo, mientras que en otros pueden ser perjudiciales. Existe el fenómeno de la ‘domesticación’ de elementos transponibles, en el que el genoma huésped aprovecha ciertas inserciones en su favor: por ejemplo, la presencia del transposón Alu en el gen de la enzima convertidora de la angiotensina (ECA) tiene un rol preventivo del infarto de miocardio al inactivar esta enzima, que aumentaría la presión arterial y estimularía la aparición de trombos plaquetarios. No obstante, los elementos transponibles también pueden alterar negativamente la expresión de ciertos genes y dar lugar a enfermedades como leucemias, esclerosis múltiple, lupus, psoriasis, esquizofrenia o autismo, entre otras. Se considera que más de 50 enfermedades genéticas estarían relacionadas con este tipo de secuencias, y probablemente este número irá en aumento conforme avance la investigación. Por otro lado, y aunque algunas de  las mutaciones al azar provocadas por los elementos transponibles puedan ser letales o deletéreas, han contribuido indudablemente a la evolución de las especies a lo largo de millones de años y son probablemente uno de sus principales motores.

Los trabajos de Barbara McClintock con el maíz, hace ya más de 60 años, han permitido comprender las bases de muchas enfermedades, lo que puede redundar en posibles tratamientos. Este es un excelente ejemplo de la necesidad de proteger la ciencia básica. Igual que la investigación en virus de pangolines o murciélagos, que hasta hace poco tiempo podía considerarse irrelevante para la sociedad, puede desembocar en un tratamiento efectivo de la COVID19.

Premio Nobel

Barbara McClintock, en la ceremonia de entrega de su Premio Nobel (1983). / Cold Spring Harbor Laboratory.

McClintock fue una investigadora prolífica e incansable y, aunque inicialmente sus ideas fueron cuestionadas, tuvo numerosos reconocimientos durante su trayectoria. Fue la primera mujer en convertirse en presidenta de la Sociedad de Genética de America (1944), obtuvo cuantiosas becas de la National Science Foundation y de la Rockefeller Foundation (1957), recibió la National Science Medal, entregada por el presidente de los EEUU (1971), y la MacArthur Foundation Grant, una prestigiosa y vitalicia beca de investigación. En 1983 logró el Premio Nobel en Fisiología y Medicina por su trabajo sobre los elementos transponibles, lo que la convirtió en la primera persona en obtener el galardón en solitario en esta categoría. Trabajó en su laboratorio de Cold Spring Harbor (Nueva York) hasta poco antes de morir, el 2 de septiembre de 1992, a los 90 años.

* Sònia Garcia es investigadora del Institut Botànic de Barcelona (CSIC, Ajuntament de Barcelona).

‘Top models’ de la ciencia: descubre a los seres vivos más utilizados en el laboratorio

Por Mar Gulis (CSIC)

Entre probetas, microscopios o tubos de ensayo, camuflados o a la vista, podrías encontrarlos en cualquier parte de un laboratorio. Hablamos de una bacteria del intestino humano, de la mosca de la fruta y del ratón; tres especies en principio poco llamativas, o incluso molestas. Sin embargo, la ciencia utiliza estos ‘bichitos’ como modelos de los seres vivos desde hace años. Gracias a ellos, se han hecho importantes descubrimientos sobre los mecanismos de la vida o diseñado tratamientos contra el cáncer. Te invitamos a conocer desde tu casa a estos ‘top model’ de la investigación, que forman parte de la exposición virtual del CSIC Seres modélicos. Entre la naturaleza y el laboratorio.

1. La bacteria que se volvió famosa por cambiar la biología

Aunque a simple vista sea inapreciable, la bacteria Escherichia coli es la más conocida en los laboratorios. Inicialmente se llamó Bacterium coli por ser la bacteria común del colón. Comenzó a estudiarse por las infecciones que causaba, pero a mediados del siglo XX se convirtió en modelo biológico gracias a su estructura sencilla, rápido crecimiento y los medios empleados para su cultivo, que aumentaron las posibilidades experimentales. Su utilización permitió hallar algunos de los principios básicos de la vida, pero E. coli alcanzó el estrellato con el descubrimiento de la técnica de ‘corta y pega’ del ADN, en la cual se usan enzimas para quitar e insertar segmentos de código genético y que supuso el inicio de la ingeniería genética. Hoy en día se emplea en la selección de genes concretos, estudiados posteriormente en otros organismos más complejos.

Micrografía electrónica de Escherichia coli a 10.000 aumentos.

Esta bacteria sabe mucho de los seres humanos. El genoma de E. coli, compuesto por cerca de 4.300 genes, contiene una séptima parte de nuestros genes. Además, habita en el intestino humano, donde forma parte junto a cientos de especies de la mibrobiota intestinal –también conocida como flora intestinal–, que cumple un papel fundamental en la digestión y en la defensa frente a patógenos.

E. coli es un instrumento más del laboratorio. El interés de su investigación reside todavía en las infecciones, ya que cada vez existe una mayor resistencia a los antibióticos, pero también en los mecanismos que se ponen en marcha al dividirse la célula, y cuyo mejor conocimiento permitiría diseñar, con ayuda de técnicas genómicas, fármacos con menor resistencia.

2. ¿Cómo conseguir la apariencia de una mosca?

Imagina lo molesto que resulta el zumbido de una mosca al merodear por nuestras cabezas. A partir de ahora puede que cambies de opinión cuando descubras que las moscas del vinagre o de la fruta (Drosophila melanogaster) son usadas como modelo en biología animal. Es habitual verlas en cualquier lugar, pero son más abundantes en terrenos agrícolas, cuando hace buen tiempo y, desde hace más de un siglo (esta especie se estudió por primera vez en 1901), también en los laboratorios. Saber de la mosca significa saber del ser humano porque ha sido clave en investigaciones sobre enfermedades neurodegenerativas, tumores y metástasis.

Visión dorsal y lateral de un macho y una hembra de Drosophila melanogaster. / Benjamin Prud’homme. Institut de Biologie du Développement de Marseille-Luminy. Parc Scientifique de Luminy.

Uno de los objetivos de su estudio es conocer cómo este pequeño insecto consigue su apariencia. La secuenciación de los genomas ha permitido determinar que la mayoría de genes de la mosca de la fruta son homólogos a los humanos. Por tanto, investigando los genes de esta mosca, que es un modelo de experimentación mucho más simple, se puede tener una idea de la acción de los genes en los humanos.

Sin duda su filón para la genética es más que evidente, y no solo porque el genoma de la mosca del vinagre alberga alrededor de 13.600 genes, un tercio de los que contiene el genoma humano. Además, a partir de cruces entre más de 100 tipos de moscas, el investigador Thomas H. Morgan (1866-1945) estableció que los caracteres se encuentran en los cromosomas y se heredan de generación en generación. Con ello dio lugar a la teoría cromosómica de la herencia, que le hizo merecedor del Nobel de Medicina en 1933.

3. ¡Roedores en el laboratorio!

Llaman la atención por su par de dientes incisivos y por su minúsculo tamaño. Los encontrarás en bosques, en tu ciudad y, cómo no, en un laboratorio. Así son los ratones, o Mus musculus si atendemos a su nombre científico. Utilizados como objeto de experimentación, desde hace más de un siglo son piezas clave en el estudio de la diabetes, el cáncer o los trastornos neurológicos; incluso los misterios del cerebro se exploran antes en los ratones que en el ser humano. Entre la comunidad científica hay quien los llama ‘seres humanos de bolsillo’.

En el año 2002 se dio a conocer la secuencia de su genoma, la primera de un mamífero: con cerca de 30.000 genes, aproximadamente los mismos que nuestra especie, el 99% de estos tiene su homólogo humano. Además, en ellos se reproducen enfermedades humanas como la obesidad o el párkinson, se realizan pruebas de toxicidad y se ensayan terapias futuras con células madre o nuevos materiales. Estos experimentos se han podido llevar a cabo a partir de ratones transgénicos y knock outs, es decir, aquellos producidos con un gen inactivado en todas sus células. En todos los casos, se han utilizado solo ratones machos para evitar que las hormonas sexuales afecten a los resultados.

Foto publicitaria del Jackson Laboratory. De izquierda a derecha, George Woolley, Liane Brauch, C.C. Little, desconocido y W.L. Russell. Década de 1940. / Cortesía del Jackson Laboratory.

Cuando las voces en contra de la experimentación animal comenzaron a alzarse, la defensa de los ratones no formó parte de las primeras reivindicaciones. La regulación llegó al mundo de los roedores con normativas y protocolos a nivel europeo. En ellas se establece que se debe reemplazar al ratón por otro sistema cuando sea posible y reducir el número de individuos en la investigación, para evitar así el sufrimiento animal.

E. coli, la mosca del vinagre y el ratón son solo algunos de las especies más comunes utilizadas como modelo. La muestra Seres modélicos. Entre la naturaleza y el laboratorio, cuyos contenidos puedes consultar online y descargar en alta calidad desde casa, se ocupa también de organismos como la levadura de la cerveza, un gusano minúsculo del suelo, una hierba normal y corriente y un pez de acuario. Elaborada originalmente por la Delegación del CSIC en Cataluña y ampliada en el marco del proyecto de divulgación Ciudad Ciencia, la exposición se complementa con entrevistas a especialistas en cada uno de estos seres modelo.

¿Te gusta escribir? Aprovecha el tiempo en casa y participa en Inspiraciencia

Por Mar Gulis (CSIC)

El Consejo Superior de Investigaciones Científicas (CSIC) acaba de poner en marcha la décima edición de su certamen de relatos de inspiración científica. Si tienes más de 12 o más años, Inspiraciencia te invita a enviar un texto de ficción corto escrito en castellano, catalán, euskera o gallego en el que, de forma libre y personal, trates algún aspecto relacionado con la ciencia.

Inspiraciencia X

Para participar no necesitas ser un especialista en la materia ni ceñirte a un tema o a un estilo determinado. Imaginar el futuro en clave de ciencia ficción, explicar fenómenos científicos por medio de metáforas y personajes o fabular descubrimientos y anécdotas históricas son solo algunas de las posibilidades que tienes a mano para inventar una historia.

En la página web de Inspiraciencia puedes leer los textos presentados en las ediciones anteriores y así hacerte una idea de la gran variedad de propuestas que tienen cabida en el certamen. Un ejemplo son los últimos relatos en castellano premiados en la categoría ‘Adulto’. El de 2019 utilizaba la estrepitosa caída de un eminente científico durante la entrega de un importante premio para hablar, con mucho humor negro, de estadística y probabilidades. El del año precedente nos presentaba un diálogo entre un profesor y varios alumnos en el que se iban desvelando los sorprendentes cambios educativos y sociales provocados por el desarrollo de la inteligencia artificial. Por su parte, el de 2017 fantaseaba sobre el impacto ambivalente de la realidad virtual en el marketing y la selección de recursos humanos del futuro.

Existen muchos alicientes para aceptar el reto que propone Inspiraciencia. El más importante es que te guste escribir ficción, pero también están los premios. Como en años anteriores, quienes resulten galardonados serán premiados con cursos de escritura en escuelas de prestigio, libros electrónicos o suscripciones a revistas.

Además, esta edición coincide con un momento excepcional al que quizás puedes sacarle partido literario. ¿Quién sabe? Tal vez estos días de confinamiento tienes más tiempo para ponerte a escribir. O a lo mejor la crisis del coronavirus ha hecho que se dispare tu creatividad. Desde luego, la situación invita a proyectar distopías causadas por fenómenos como las pandemias o el cambio climático; aunque también a soñar utopías en las que la ciencia nos ayude a solucionar los múltiples desafíos del presente. O, ¿por qué no?, a crear ficciones que sirvan para evadirnos y pensar en otra cosa. La imaginación es libre.

¿Te animas a participar? Entonces, tienes hasta el 7 de junio para enviar un texto original de 800 palabras como máximo. Tendrás que presentarlo en la categoría ‘Joven’ si tienes entre 12 y 17 años y ‘Adulto’ si ya has cumplido los 18. ¡Te esperamos!

 

Inspiraciencia es un certamen impulsado por la Delegación del CSIC en Cataluña con la colaboración de numerosas personas y entidades; entre ellas, la Fundación Española para la Ciencia y la Tecnología (FECYT) del Ministerio de Ciencia e Innovación.

El fondo cósmico de microondas, la fotografía más antigua del universo

Galaxia Andrómeda. / Robert Gendler.

Por Pablo Fernández de Salas (CSIC)*

Cuando miramos al cielo nocturno, la mayoría de lo que vemos es un manto negro con algunas estrellas dispersas. Por eso, siempre nos han dicho que el universo está prácticamente vacío.

Sin embargo, en el interior de una galaxia como la nuestra esto no es realmente cierto, ya que en el espacio que media entre las estrellas hay mucho polvo y nubes de gas molecular. Otra cosa distinta es lo que ocurre en el enorme espacio que por lo general separa las galaxias. Sin ir más lejos, Andrómeda, la galaxia más cercana a la Vía Láctea, se encuentra a nada menos que dos millones y medio de años luz. Si alguien nos enviara un mensaje desde allí, ¡tendríamos que esperar un mínimo de dos millones y medio de años para recibirlo! La cantidad de polvo y gas que hay en estas grandes distancias es ridículamente pequeña, y es por ello que decimos que el espacio intergaláctico se encuentra vacío. No obstante, estrictamente hablando, dicho espacio queda muy lejos de no contener nada.

Lo que llena el espacio intergaláctico está presente a lo largo y ancho de todo el universo. Se trata, principalmente, de fotones, las partículas que componen la luz. Comparten el espacio con otras partículas, como por ejemplo los neutrinos, pero los fotones son las más abundantes del universo. Concretamente, hay más de medio millón de fotones en el volumen que ocupa una botella de litro y medio en el ‘vacío’ cósmico. ¿Cómo es posible que, siendo fotones, no los veamos a simple vista?

Arno Penzias y Robert Woodrow Wilson bajo la antena que descubrió el fondo cósmico de microondas, en Holmdel, Nueva Jersey. / NASA.

La explicación la encontramos en su origen. Los fotones que pueblan el universo se conocen, en su conjunto, como el fondo cósmico de microondas, y son, además de los más abundantes del cosmos, también los más viejos. Proceden de una época en la que el universo tenía menos de medio millón de años. Trescientos ochenta mil años, siendo más precisos, frente a los casi catorce mil millones de años que tiene en la actualidad. ¡Apenas un día en la vida de un ser humano!

Estos fotones, creados cuando el universo era tan joven, sufrieron un proceso que se conoce con el nombre de desacoplamiento. Antes de que esto ocurriera, el cosmos era una especie de ‘sopa traslúcida’, conocida como plasma, en la que los fotones no duraban mucho, ya que se aniquilaban y creaban de nuevo sin descanso debido a sus frecuentes interacciones con electrones y núcleos de elementos ligeros. Sin embargo, cuando la temperatura descendió por debajo de los 3.000 grados, los electrones se hicieron suficientemente lentos como para que los núcleos los capturaran para formar átomos. Eso, a su vez, permitió que los fotones dejaran de chocar constantemente con esas partículas y pudieran emprender un viaje en solitario y en todas las direcciones hasta nuestros días.

satélite Planck

Representación artística del satélite Planck. /
ESA-AOES Medialab.

A lo largo de todos estos años que nos separan, estos fotones se han ido enfriando por culpa de la expansión del universo hasta alcanzar hoy una temperatura de 270 grados bajo cero. Paradójicamente, esto hace que calienten el universo, ya que si no estuvieran en todas partes la temperatura del cosmos se encontraría en el cero absoluto, a menos 273 grados.

Además de enfriarlos, la expansión del universo ha expandido la longitud de onda de estos fotones, por lo que ya no nos llegan en forma de luz –nuestros ojos no pueden verlos–, sino en forma de microondas –que no pueden ser ‘vistas’ pero sí detectadas–. La primera detección de este fondo cósmico de microondas fue realizada de forma más o menos fortuita por Arno Penzias y Robert Woodrow Wilson en 1964 con una descomunal antena. Ambos fueron galardonados con el Premio Nobel de Física.

Desde entonces la comunidad investigadora ha observado estos antiquísimos fotones con satélites como COBE, WMAP o Planck, y con experimentos situados en la superficie de la Tierra. Actualmente, la observación más precisa de las anisotropías del fondo cósmico se la debemos al satélite Planck, que tras cuatro años de operación nos ha permitido tomar la fotografía más antigua del universo.

Antisotropías

Anisotropías del fondo cósmico de microondas medidas por el satélite Planck. La fotografía más antigua del universo. / ESA-Planck Collaboration.

La imagen refleja las minúsculas variaciones –del orden de las cienmilésimas de grado– que existen entre estos fotones según la dirección de la que procedan. Estas pequeñas desviaciones, conocidas como anisotropías, constituyen una fuente de información maravillosa sobre nuestro universo, en especial en sus primeros años de vida. Por ejemplo, permiten estudiar las diferencias en la densidad del plasma cósmico cuando el universo tenía trescientos ochenta mil años, o características de los neutrinos y de la materia oscura ligadas con las propiedades estadísticas de dichas anisotropías, tareas que llevamos a cabo en el Instituto de Física Corpuscular (IFIC, centro mixto del CSIC y la Universidad de Valencia) con datos preliminares obtenidos por el satélite Planck.

 

* Pablo Fernández de Salas es investigador en el Instituto de Física Corpuscular (centro mixto del CSIC y la Universidad de Valencia).