Archivo de la categoría ‘Física’

Descubre las 10 mejores imágenes científicas de 2023 con FOTCIENCIA20

Por Mar Gulis (CSIC)

El corte transversal de una cáscara de huevo, la eclosión de un gecko terrestre malgache fotografiada con un smartphone o un ovillo de gusanos parásitos anisakis son algunas de las imágenes más destacadas del año en la iniciativa FOTCIENCIA, que cumple con esta su 20ª edición recopilando fotografías científicas gracias a la participación ciudadana.

Esta iniciativa del Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT) ha dado a conocer las mejores fotografías del año 2023. El pelo del estambre de una flor (Erodium moschatum), la simetría del brócoli o tres muestras de epidermis de flor de caléndula captadas por estudiantes de secundaria son otros de los fenómenos retratados en las imágenes seleccionadas de entre más de 475 fotografías. Un comité multidisciplinar formado por 13 profesionales de la ciencia, la microscopía, las artes visuales o la divulgación científica, entre otras especialidades, ha sido el encargado de seleccionar estas imágenes que han sido galardonadas por su belleza, impacto y capacidad para reflejar y describir hechos científicos.

De izquierda a derecha: “Cubismo plutónico”, “Polinización y la agricultura”, “Un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco”, “La sal de la muerte (celular)”, “Biomineralización”, “Un triángulo imposible”, “Biosensores”, “Eclosión en laboratorio”, “Recordando a Cajal para tratar la neurodegeneración” y “Revelación simétrica del brócoli”.

De izquierda a derecha: “Cubismo plutónico”, “Polinización y la agricultura”, “Un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco”, “La sal de la muerte (celular)”, “Biomineralización”, “Un triángulo imposible”, “Biosensores”, “Eclosión en laboratorio”, “Recordando a Cajal para tratar la neurodegeneración” y “Revelación simétrica del brócoli”.

Estas 10 mejores imágenes, que puedes ver en el vídeo de más abajo, junto con una selección más amplia de fotografías, conformarán un catálogo y una exposición itinerante, disponible para su préstamo gratuito, que recorrerá museos, centros de investigación, universidades y espacios culturales de todo el país durante el próximo año.

En esta vigésima edición, a las modalidades de participación habituales –Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula– se han sumado las modalidades especiales Año Cajal, Física de partículas y Sinergias (Arte, Ciencia, Tecnología y Sociedad, ACTS). La difícil captura nanométrica de un radical libre captado al microscopio de efecto túnel y la observación al microscopio de una roca ígnea plutónica de La Cabrera (Madrid) han sido las fotografías galardonadas por primera vez en estas dos últimas modalidades, respectivamente.

La modalidad Sinergias (Arte, Ciencia, Tecnología y Sociedad, ACTS) pretende mostrar trabajos conjuntos del ámbito científico y artístico con el objetivo de ampliar nuevos horizontes inter y transdisciplinarios entre las ciencias y las artes. Este año, una madre geóloga y su hijo estudiante de bellas artes han mostrado en una fotografía esta conexión con una imagen que resulta de un proceso de investigación donde ambos comparten microscopio en busca de colores e imágenes inspiradoras para futuros bocetos en otros soportes.

Como en la anterior edición, FOTCIENCIA contempla la modalidad especial Año Cajal para recoger imágenes que tengan que ver con las neurociencias, sumándose así a la celebración del Año Cajal, impulsado a nivel nacional. La inmunofluorescencia de una sección de cerebelo con dos células de Purkinje, que recuerda a los dibujos de Ramón y Cajal, quien ya describió su estructura, ha sido la imagen seleccionada en esta modalidad.

FOTCIENCIA es una iniciativa del CSIC y la FECYT que invita a que cualquier persona, se dedique o no a la investigación, plasme su visión de la ciencia y la tecnología a través de fotografías. Además, FOTCIENCIA20 cuenta con la colaboración de Fundación Jesús Serra, de GCO (Grupo Catalana Occidente) y, por primera vez, de Leica.

Más información, en este enlace.

Imágenes seleccionadas:

  • Modalidad General:
  1. Polinización y la agricultura / Eduardo Cires Rodríguez
  2. Eclosión en laboratorio / Fernando García Moreno
  • Modalidad Micro:
  1. Biosensores / Concepción Hernández Castillo, Lola Molina Fernández, Isabel María Sánchez Almazo
  2. Biomineralización / María Jesús Redrejo Rodríguez, Eberhardt Josué Friedrich Kernahan
  • Modalidad Año Cajal:
  1. Recordando a Cajal para tratar la neurodegeneración / Pablo González Téllez de Meneses
  • Modalidad Alimentación y nutrición:
  1. Un ovillo de gusanos parásitos Anisakis extraídos de pescado fresco / José Ramos Vivas
  • Modalidad Agricultura sostenible:
  1. Revelación simétrica del brócoli /Samuel Valdebenito Pérez, María Villarroel, Patricia Peñaloza
  • Modalidad La ciencia en el aula:
  1. La sal de la muerte (celular) / Hala Lach Hab El Keneksi, Rebeca Jiménez Uvidia, Chaimae El Idrissi Loukili
  • Modalidad Física de partículas:
  1. Un triángulo imposible / Alejandro Berdonces Layunta, Dimas García de Oteyza
  • Modalidad Sinergias (ACTS):
  1. Cubismo plutónico / Bruno Fernández Delvene, Graciela Delvene Ibarrola

Los pros y contras del alumbrado led en exteriores

Por Alicia Pelegrina* y Mar Gulis (CSIC)

Luminarias esféricas tipo balón de playa en las calles, farolas que cuelgan de fachadas de edificios o proyectores que iluminan los monumentos de tu ciudad. Estos son ejemplos de luz artificial en el alumbrado en exteriores, que se ha transformado notablemente en los últimos años debido al uso de lámparas led. Ahora bien, ¿qué han supuesto estos cambios? ¿Han sido todos positivos?

En este artículo comentaremos los pros y contras del alumbrado led, pero antes hagamos algunas precisiones.

La primera es que, aunque comúnmente hablemos de farolas como un todo, hay que diferenciar entre lámparas, es decir, la fuente emisora de luz, y luminarias, la estructura que contiene y soporta la lámpara.

La segunda es que para calibrar los efectos nocivos de combatir la oscuridad (la contaminación lumínica, por ejemplo) es fundamental tener en cuenta el tipo de luz artificial del alumbrado de exteriores y su orientación. Las lámparas menos contaminantes son las que emiten luz del espectro visible al ojo humano con mayores longitudes de onda. Por ejemplo, las lámparas que emiten una luz anaranjada, porque es la que menos se dispersa en la atmósfera. Y las luminarias más respetuosas son aquellas que no emiten luz en el hemisferio superior. De esta forma minimizan su impacto en el aumento del brillo del cielo nocturno.

El problema de los ledes blancos

Con su aparición en el mercado, se fabricaron muchísimos dispositivos led, que se vendieron como solución frente al despilfarro energético del alumbrado público. Y es cierto: se produjeron ledes blancos que ahorran mucha energía en comparación con las lámparas de vapor de sodio, que eran las que antes inundaban las calles. Sin embargo, no se tuvo en cuenta que la luz blanca es la más contaminante desde el punto de vista de la contaminación lumínica, ya que es la que se dispersa con mayor facilidad en la atmósfera y la que más afecta al equilibrio de los ecosistemas y a nuestra salud.

Por ello, con el paso del tiempo, se vio que esa luz no era la más adecuada. Había que buscar dispositivos led de un color más cálido. El problema es que la eficiencia energética de los ledes ámbar, más anaranjados y cálidos, es prácticamente la misma que la que tenían las lámparas de vapor de sodio de alta y de baja presión anteriores.

Entonces, ¿ha servido para algo este cambio? Desde el punto de vista de la contaminación lumínica, el cambio a lámparas led blancas ha agravado el problema. Y, en cuanto a la eficiencia energética, ha provocado un efecto rebote: el ahorro energético que supone el uso de esta tecnología ha llevado a los responsables del alumbrado público a instalar más puntos de luz o a mantener más tiempo encendidos los que ya existían.

Por tanto, si queremos evitar la contaminación lumínica, debemos utilizar lámparas led ámbar para, al menos, poder beneficiarnos de las ventajas que tiene esta tecnología reciente frente a las lámparas de vapor de sodio que se utilizaban antes.

Las ventajas que sí tiene la tecnología led

Una de estas ventajas es que podemos escoger el color de la luz que emiten las lámparas, lo que permite diseñar espectros a la carta. Por ejemplo, podríamos definir el espectro más adecuado para un espacio natural protegido en el que haya una especie de ave migratoria específica que tenga una sensibilidad especial a una longitud de onda determinada del espectro. Así disminuirían los impactos negativos de la luz en algunas especies.

Una segunda ventaja de las lámparas led es que, al apagarse y encenderse, alcanzan su actividad máxima muy rápido. Existen otro tipo de lámparas que, desde que se encienden hasta que alcanzan un nivel adecuado de iluminación, necesitan un tiempo mayor. Esta particularidad de las lámparas led nos permite utilizar sistemas complementarios como los sensores de presencia o los reguladores de intensidad, que hacen que las luces no tengan que estar permanentemente encendidas pero que, cuando sea necesario, lo estén a su máxima potencia.

Por último, una tercera ventaja de la tecnología led es que podemos regular su intensidad. Esto nos permite adaptar el sistema de iluminación a las diferentes horas del día y a la actividad que estemos haciendo, evitando así que las calles sin transeúntes estén iluminadas como si fueran las doce del mediodía.

Estas ventajas pueden suponer un avance con respecto al uso de las anteriores lámparas, con las que este tipo de adaptaciones o sistemas de control no se podían aplicar. Pero no olvidemos que siempre deben ser lámparas led ámbar y evitar en todo caso las lámparas led blancas.

Se trata, por tanto, de que iluminemos mejor, de una forma más sostenible, evitando la emisión de la luz de forma directa al cielo. Y que la cantidad de luz sea solo la necesaria para lo que necesitamos ver, en los rangos espectrales en los que nuestros ojos pueden percibirla y en un horario adecuado.

 

*Alicia Pelegrina es responsable de la Oficina Técnica Severo Ochoa del Instituto de Astrofísica de Andalucía del CSIC y autora del libro La contaminación lumínica de la colección ¿Qué sabemos de? (CSIC-Catarata).

El vacío… o cómo un termo mantiene el café caliente

Por José Ángel Martín Gago y Mar Gulis (CSIC)*

Alguna vez en la vida, quien más quien menos se ha deleitado to­mando un café caliente en un entorno muy frío, remoto o en el que, por ejemplo, hay muy escasas posibilidades de poder encontrar una cafetería. El modo más habitual de conseguirlo es utilizando un simple y económico termo. Pero, ¿te has preguntado alguna vez por el mecanismo que hace posible este ‘milagro’?  Tiene que ver con el vacío. Aquí te lo explicamos.

Un termo consta de dos vasijas: una interior, en contacto con el líquido que queremos mantener a una temperatura dada; y otra exterior, en contacto con el ambiente y que generalmente hace de soporte del termo. La interior se sujeta por el cuello con la exterior a través de una mínima porción de material y dejan­do un pequeño espacio, vacío de aire, entre ambas vasijas. De esta forma, el termo aísla el espacio interior, donde nuestro café se mantiene a 40 °C, del exterior, que puede estar a 4 °C.

Si el recipiente que contiene el café estuviese en contacto directo con el ambiente, en po­cos minutos el café adquiriría la temperatura del entorno y nos lo tomaríamos frío. En cambio, si vaciamos de aire el espacio entre las dos vasijas, conseguimos aislarlas térmi­camente. Esto lo explica la teoría cinética de gases: la transferen­cia de calor se debe básicamente al intercambio de energía entre las moléculas más calientes y las más frías cuando cho­can entre sí. Con esta cámara de vacío intermedia se consigue que la conductividad térmica entre ambos recipientes sea prác­ticamente nula. Es decir, sin moléculas de aire que transfieran el calor, la vasija interior permanecerá aislada y, por tanto, no variará su temperatura.

Curiosamente, este desarrollo no es tan reciente como se podría supo­ner. El primero en realizarlo fue el físico escocés James Dewar en 1892. De ahí que estos recipientes que proporcionan aislamiento térmico se conozcan como Dewar o vasos Dewar.

Un dato muy ilustrativo de la eficacia de este proceso es que, si el vacío estuviese en el rango del ultra alto vacío (con presiones parecidas a las que puede haber en el espacio interplanetario) y el contacto entre ambos recipientes fuese inexis­tente o mínimo, se podría mantener el café caliente más de diez años. Sin embargo, en el caso de un termo di­señado para líquidos o alimentos, el vacío intermedio corres­ponde a lo que llamamos bajo vacío (la presión es poco menor de la atmosférica), lo que ocasiona que las moléculas de aire pongan en contacto ambas superficies, y nuestro café acabe enfriándose.

Criogenia: del termo de café al transporte del nitrógeno líquido

Sin embargo, para muchísimas aplicaciones tecnológicas se utiliza el nitrógeno o el helio líquido, elementos que deben mantenerse a temperaturas muy bajas y se transportan en recipientes metálicos de cientos de litros. La diferencia térmica entre las paredes interiores y ex­teriores en estos casos es muy grande (más de 200 °C). Si utilizáramos un mecanismo como el de un termo normal, el nitrógeno o el helio líquido se sublimarían fácilmente y pasarían de líquido a gas. Para evi­tarlo, es necesario tener alto vacío entre ambas superficies (presiones menores de un millón de veces la presión atmosférica, o menores de 10-6 milibares de presión). Cuando esto se logra, los tanques o recipientes tipo Dewar que transportan estas sustancias pueden conservar y almacenar nitrógeno líquido durante varias semanas a -196 °C.

El uso de temperaturas criogénicas es mucho más extenso de lo que podríamos imaginar. En biología, bioquímica o medicina la criogenia es muy importante para la conservación de célu­las y cultivos, como el esperma y los óvulos; medicamentos, como algunas vacunas; o para tratar algunos alimentos. También en pruebas de diagnóstico, como la resonancia magnética nuclear. Desde el punto de vista de la tecnología, muchos aparatos de inves­tigación, como los detectores de radiación o los imanes supercon­ductores, necesitan nitrógeno o helio líquido para funcionar. Por tanto, de manera indirecta, el vacío ayuda a conservar y transportar estas sustancias criogénicas y hace posible es­tas tecnologías en nuestro día a día.

*José Ángel Martín Gago es investigador del CSIC en el Instituto de Ciencia de Materiales de Madrid (ICMM-CSIC) y autor del libro de divulgación ¿Qué Sabemos de? El vacío (CSIC-Catarata).

 

De los móviles a las renovables: las baterías ya no son lo que eran

Por Pedro Gómez-Romero (ICN2-CSIC) *

De las pilas de simpáticos conejitos a las baterías de iones de litio encerradas en nuestros móviles, pasando por las pesadas baterías de plomo de los coches, las baterías del siglo XX nunca fueron actores principales de nuestras tecnologías. Parecían los parientes pobres de los móviles o de los coches, y, además, solo nos acordábamos de ellas cuando se gastaban, siempre en el peor momento, claro. Pero eso está a punto de cambiar.

El crecimiento de las renovables solo es posible de la mano de un crecimiento simultáneo del almacenamiento estacionario de energía.

Tomemos como ejemplo las baterías de iones de litio, bendecidas por Sony en 1991 para alimentar nuestros móviles. Ante todo, se les exigía (y se les sigue exigiendo) ligereza y compacidad, para ocupar poco espacio en la obra maestra de ingeniería y arquitectura que es nuestro móvil. El coste era secundario ante los desorbitados precios que el consumidor estaba dispuesto a pagar por la última versión del objeto de deseo. Y de su vida útil ya ni hablemos, puesto que las estadísticas confirman que cambiamos de móvil a mayor velocidad que lo que tarda en jubilarse su batería.

Pero las cosas están cambiando. De entrada, la consolidación de la tecnología de litio ha hecho que sus nichos de aplicación se extiendan a campos en tremenda expansión, como el vehículo eléctrico. Y entonces, de repente, la cosa cambia: tanto el precio de las baterías como su vida útil adquieren una importancia vital.

Además, la misma tecnología de litio se aplica ya en otros campos estratégicos como el almacenamiento estacionario de electricidad. Os cuento un caso real que conozco bien: el de mi propia casa. Vivo en una casa pasiva, que produce toda la energía que necesita y más, y que está aislada de la red eléctrica. De noche mi casa vive alimentada por un par de módulos de baterías de litio, que son esencialmente las mismas que se usan en móviles y en coches eléctricos. Todas descansan sobre el uso de iones de litio. Pues bien, el fabricante de mi sistema ya ha informado a todos sus clientes que sube los precios debido al encarecimiento de las materias primas. No es un caso aislado, las baterías de iones de litio están subiendo de precio este año 2022 después de décadas de continuos abaratamientos debidos a la economía de escala.

La excusa es la guerra de Putin, pero el rápido aumento de la demanda y los límites de producción de litio permiten predecir que los precios del litio seguirán altos después de la guerra. La crisis de materias primas (especialmente las más escasas) está aquí para quedarse.

batería

Las baterías de litio también se utilizan en ordenadores.

Más allá de litio

Así, ha llegado el momento para el que la comunidad científica llevaba preparándose desde hace tiempo. Es la hora de sacar nuestras nuevas baterías del laboratorio y lanzarlas al mercado. Las conocemos como baterías “post-lithium” y las hay de sodio (Na), potasio (K), magnesio (Mg), calcio (Ca), cinc (Zn)… e incluso de aluminio (Al) o de hierro (Fe), que habrían sido impensables hasta hace poco tiempo. Todos estos elementos son mucho más abundantes que el litio (Li), aunque también más pesados, y algunos de ellos son capaces de producir dos y hasta tres electrones por átomo, mientras que cada átomo de litio solo es capaz de producir uno.

Pero además de estas baterías, de iones diferentes al litio, las baterías de un futuro más cercano de lo que creemos se basarán en químicas y formatos completamente diferentes. Por ejemplo, las baterías de tipo Metal-Aire (O2) o Metal-Azufre que han sido obstinadamente impracticables durante décadas y que ahora, con nuevos conocimientos, nanomateriales y herramientas científicas, están más cerca del éxito comercial. Estas baterías aportarían de hecho una gran mejora en la densidad de energía de las baterías: es decir, en la cantidad de energía que pueden almacenar en una unidad de volumen.

Aunque no todo depende de la densidad de energía de una batería. También es importante el tiempo de carga. Los supercondensadores, permiten cargas ultrarrápidas, con altas densidades de potencia y son capaces de brindar del orden de cientos de miles de ciclos de carga y descarga.

Además, los nuevos dispositivos híbridos que integran componentes o materiales de baterías con otros típicos de supercondensadores aspiran a brindar prestaciones similares a las de los supercondensadores, pero con mayor densidad de energía. Esta es la especialidad de mi grupo de investigación, NEO-Energy, en el Instituto Catalán de Nanociencia y Nanotecnología (ICN2, CSIC-BIST).

Aparte de baterías de todo tipo, supercondensadores y dispositivos híbridos, también tenemos en nuestro catálogo nuevos formatos de tecnologías de almacenamiento de energía. Por ejemplo, las baterías de Flujo Redox en las que los elementos activos fluyen en lugar de estar encerrados en una celda electroquímica, como ocurre en las baterías convencionales. Este tipo de baterías es muy prometedor para el almacenamiento estacionario de electricidad renovable a gran escala, aunque es necesario seguir mejorando su densidad de energía.

Un futuro renovable

El almacenamiento de electricidad renovable no es la única nueva aplicación de las baterías, pero sí una de las más importantes entre las que hacen que las baterías ya no sean lo que fueron. La contribución de las energías renovables a la producción de electricidad en España roza el 50%. Hasta ahora, la variabilidad de la producción solar y eólica se compensaba con las energías de plantas nucleares de fisión o plantas de ciclo combinado (es decir, quemando gas natural). Sin embargo, en el futuro esta variabilidad se tendrá que compensar con una combinación de mayores interconexiones en la red eléctrica, almacenamiento masivo y gestión de la demanda. Cuando se alcance el 60% de electricidad renovable, habremos llegado a un punto crítico para el que tendremos que haber puesto en marcha cambios estructurales.

Panel solar y batería

Instalación solar con batería incorporada.

La penetración de las renovables en nuestro mix energético deberá seguir creciendo, sin duda. Pero eso sólo será posible de la mano de un crecimiento simultaneo del almacenamiento estacionario de energía, que permita compensar la variabilidad solar y eólica. Además, dicho almacenamiento tendrá que desarrollarse sobre diversas tecnologías, que se adapten a los cortos, medios y largos periodos de almacenamiento en respuesta a la variabilidad a corto, medio y largo plazo de nuestras tecnologías de generación.

No es una transición fácil, pero sí absolutamente necesaria. Debemos acelerar para sacar del laboratorio todas esas tecnologías de almacenamiento y ponerlas a trabajar para lograr un nuevo modelo de energía verdaderamente sostenible. Porque es ahora cuando estamos creando la historia de nuestro futuro.

* Pedro Gómez-Romero es profesor de investigación, divulgador científico del CSIC y responsable del canal de youtube de divulgación científica Tecnosfera.

Mendeléiev, Penrose o Meitner: 6 casos de inspiración científica súbita

Por Pedro Meseguer (CSIC)*

A menudo creemos que, con la formación adecuada, estudiar en profundidad un problema es suficiente para atacarlo con probabilidades de éxito. Analizamos su historia, el contexto, las cuestiones cercanas, sus formulaciones y métodos de solución, etcétera. Y si se resiste profundizamos más. Insistimos hasta que encontramos la solución al problema que nos habíamos planteado. Pero, a veces, esto no basta y nos estrellamos contra un muro que parece infranqueable. En esas ocasiones, no es infrecuente experimentar el siguiente hecho singular: cuando nos damos un respiro o dejamos el problema a un lado, como por arte de magia, la solución aparece nítida en nuestra mente. ¿Qué ha sucedido? Se trata de la llamada inspiración súbita.

Una experiencia común

En ciencia, estas experiencias no son desconocidas. Hay diversas anécdotas sobre cómo la solución de un problema ha sido revelada a la persona que lo investigaba sin aparente esfuerzo por su parte, bien en el periodo de vigilia o bien en sueños. A continuación, detallamos seis ejemplos de inspiración súbita protagonizados por personajes relevantes de la historia de la ciencia.

William Rowan Hamilton, el matemático de cuyo nombre proviene el término “hamiltoniano”, halló la multiplicación de los cuaterniones de forma súbita, mientras se dirigía con su mujer a una sesión de la Royal Irish Academy dando un paseo a lo largo del Royal Canal, en 1843. El impacto de la idea fue muy intenso: lo describió como “un circuito eléctrico que se cierra”. Al no disponer de pluma ni papel, marcó con su navaja la fórmula de la operación en una piedra del puente de Brougham, por el que circulaba en ese momento.

August Kekulé, uno de los padres de la química orgánica, descubrió la estructura de anillo del benceno tras soñar con una serpiente que se mordía la cola. Se cree que sucedió en 1862. La composición química de este elemento se conocía, pero no su disposición en el espacio. Antes de formarse en química, Kekulé estudió arquitectura y era un delineante competente, por lo que se puede suponer que poseía una buena imaginación espacial.

Dmitri Mendeléiev, el creador de la tabla periódica, era catedrático en San Petersburgo, en 1869. Tuvo un sueño en el que vio “una tabla en la que todos los elementos encajaban en su lugar”. “Al despertar, tomé nota de todo”, declaró. Y así nació la clasificación de los elementos químicos.

Mendeléiev, el creador de la tabla periódica, tuvo un sueño en el que vio “una tabla en la que todos los elementos encajaban en su lugar”. / Imagen: Studio4rt – Freepik

Henri Poincaré, el gran matemático y físico teórico francés, fue profesor en la universidad de Caen, en febrero de 1881. Llevaba trabajando varios días sobre una cuestión que se le resistía. Frustrado, decidió tomarse un descanso y se unió a una expedición geológica. Al subir al autobús, la solución del problema —un importante descubrimiento sobre funciones fuchsianas— apareció clara en su mente, acompañada de la certeza de su validez.

Lise Meitner, física responsable de la fisión nuclear, huyó en 1938 de Berlín por su origen judío. Su antiguo jefe, Otto Hahn, bombardeó átomos de uranio con neutrinos, esperando obtener un elemento más pesado, pero sucedió al revés, obtuvo elementos más ligeros. Le preguntó a Lise por carta, y ella le contestó con la posibilidad de que el átomo se hubiera partido. Tras enviar su respuesta, Lise salió a dar un paseo por el bosque. De pronto sacó un papel del bolsillo y comenzó a hacer cálculos. Comprobó que la energía generada se correspondía con el defecto de masa observado, a través de la ecuación de Einstein E=mc2. Y así descubrió la fisión nuclear; aunque no obtuvo el reconocimiento correspondiente. A pesar de que ella proporcionó la explicación, Otto Hahn no incluyó su nombre entre las personas firmantes del artículo que lo describía, y recibió en solitario el Premio Nobel de Química en 1944.

Roger Penrose, que recibió el Premio Nobel de Física del año 2020, tuvo una experiencia singular. En 1964, un colega estadounidense lo visitó en Londres. Durante un paseo, y al cruzar la calle, a Penrose le vino la solución al problema en el que trabajaba en esa época. La conversación siguió al otro lado de la calle y ocultó la idea, pero no su alegría. Cuando el visitante se marchó, Penrose buscó la causa de su júbilo, y volvió a encontrar la idea que había tenido al cruzar la calle.

Las tres fases de la inspiración

Grandes investigadores e investigadoras se han interesado por los aspectos psicológicos del descubrimiento científico, en particular, del matemático. Han escrito obras de títulos en ocasiones autoexplicativos: Ciencia y Método, de Poincaré, La psicología de la invención en el campo matemático, de Hadamard, La nueva mente del emperador, de Penrose.

A partir de estos análisis, destacaría tres fases sobre la iluminación o inspiración súbita. Primero, hay una etapa de trabajo intenso sobre el problema en cuestión, sin que se produzcan resultados; allí es donde se realiza una labor profunda en el inconsciente. En segundo lugar, hay un periodo de relax, durante un paseo o un viaje, a veces en un sueño, donde la mente consciente está ocupada en ‘otra cosa’ y espontáneamente surge la iluminación o inspiración súbita. Por último, una nueva etapa de trabajo consciente, donde se verifica la validez de esa iluminación. Aunque la inspiración súbita haya sido acompañada de la certeza de su corrección, es un paso muy necesario para formalizar sus resultados.

En todas estas historias, se vislumbra que los procesos mentales humanos de la inspiración súbita comparten una naturaleza común y siguen circuitos similares. Estas vivencias refuerzan la utilidad del descanso para alcanzar soluciones creativas a problemas complejos. Evidentemente la mente consciente se ha de enfocar en ellos, pero solo concentra una parte del esfuerzo. La otra radica en la mente inconsciente, con unos ritmos internos que se han de respetar para que rinda sus frutos y nos permita avanzar en la comprensión del mundo.

 

*Pedro Meseguer es investigador en el Instituto de Investigación en Inteligencia Artificial del CSIC.

El viento, el elemento olvidado del cambio climático

Por César Azorín-Molina*

El viento es aire en movimiento. Esta definición implica que la expresión “hace aire” –tan común entre el público general y los medios de comunicación– es incorrecta: lo apropiado es decir “hace viento”. Este movimiento de aire se origina por las diferencias de presión atmosférica entre las superficies de la Tierra y los distintos niveles de la atmósfera; y ha sido utilizado por la humanidad desde el pasado hasta nuestros días como fuente de energía para la navegación a vela, el molido del grano o la extracción de agua de pozos subterráneos. La relevancia social, económica y ambiental del viento es múltiple, y tiene una doble vertiente, ya que el viento supone tanto un recurso como un riesgo climático.

El molino de viento convierte la energía eólica en energía rotacional con el fin principal de moler granos. Es un tipo particular de molino que opera por medio de paletas llamadas aspas.​

En un contexto como el actual, en el que nos enfrentamos a las consecuencias del cambio climático, el viento constituye la segunda fuente más importante en la generación de electricidad y la principal fuente de energía limpia. Su comportamiento altera la capacidad de producción de la industria eólica, pero es también clave en procesos muy dispares: la agricultura y la hidrología, pues incide sobre la evaporación y la disponibilidad de recursos hídricos; la calidad del aire, ya que dispersa la contaminación atmosférica; o las catástrofes naturales, por las pérdidas económicas y humanas que producen los temporales. Otros fenómenos afectados por el viento son la ordenación y el planeamiento urbano, las operaciones aeroportuarias, el tráfico por carretera, la propagación de incendios forestales, el turismo, los deportes de viento e incluso la dispersión de semillas, las rutas migratorias de las aves o la erosión del suelo.

Un aerogenerador es un dispositivo que convierte la energía cinética del viento en energía eléctrica.

¿El viento se detiene o se acelera?

La veleta para conocer la dirección del viento fue inventada en el año 48 a. C por el astrónomo Andronicus y el anemómetro que mide la velocidad a la que viaja el aire en movimiento, en 1846 por el astrónomo y físico irlandés John Thomas Romney Robinson. Sin embargo, el estudio de los cambios del viento en escalas temporales largas (periodos de más de 30 años) no despertó el interés de la comunidad científica hasta hace apenas un par de décadas.

La veleta es una pieza de metal, ordinariamente en forma de saeta, que se coloca en lo alto de un edificio, de modo que pueda girar alrededor de un eje vertical impulsada por el viento, y que sirve para señalar la dirección de este.

Fue en Australia, donde el profesor emérito de la Australian National University Michael Roderick, en su afán de cuantificar el efecto del viento en la evaporación, observó un debilitamiento de los vientos superficiales durante las últimas décadas. En 2007, para denominar este fenómeno, acuñó el término anglosajón de ‘stilling’. Pocos años más tarde, en 2012, el también australiano Tim McVicar, de la Commonwealth Scientific and Industrial Research Organisation, concluyó que este descenso de la velocidad de los vientos estaba ocurriendo sobre superficies continentales de latitudes medias, preferentemente del hemisferio norte, desde la década de 1980. En cambio, otras investigaciones detectaron un reforzamiento de los vientos sobre las superficies de los océanos y, en la última década, un cese del fenómeno ‘stilling’ y un nuevo ciclo de ascenso de la velocidad de los vientos o ‘reversal’.

Falta de evidencias

La causa principal que explica ambos fenómenos se ha atribuido a los cambios en la circulación atmosférica-oceánica. Estos cambios se producen tanto por la propia variabilidad natural del clima como por efecto de la acción humana sobre el clima: el calentamiento global consecuencia de las emisiones de gases de efecto invernadero y también los cambios en los usos del suelo, entre los que destaca la rugosidad del terreno provocada por la masa forestal y la urbanización. En cualquier caso, tampoco hay que descartar la posibilidad de errores instrumentales en la medición del viento por el desgaste de los anemómetros, entre otros.

En la actualidad, la ciencia del clima se afana por descifrar el comportamiento del viento y elaborar proyecciones para los próximos 100 años. En un escenario de aumento de emisiones de gases de efecto invernadero y de calentamiento global, es previsible que una nueva fase de ‘stilling’ domine el siglo XXI.

El último informe del Panel Intergubernamental del Cambio Climático (IPCC) concluyó que el viento es una de las partes olvidadas del sistema climático dadas las escasas evidencias sobre sus cambios pasados y futuros. Un nuevo ‘stilling’ obligaría a desarrollar nuevas estrategias a medio-largo plazo en el sector de la energía eólica, un motor clave en la descarbonización de la economía establecida en el Acuerdo de París y el Pacto Verde Europeo. El estudio del viento debe ser prioritario para impulsar las energías renovables en la transición hacia una economía global con bajas emisiones de gases de efecto invernadero.

* César Azorín-Molina es investigador del CSIC en el Centro de Investigaciones sobre Desertificación (CSIC-UV-GVA) y pertenece a la Red Leonardo de la Fundación BBVA

 

La accidentada vuelta al Mediterráneo de una gota de agua

Por Manuel Vargas Yáñez (CSIC)*

En comparación con los grandes océanos, el tamaño del Mar Mediterráneo puede resultar pequeño. Sin embargo, es grande por su historia y su cultura… Y también por la complejidad de los fenómenos oceanográficos que en él se producen. Tanto es así, que ha llegado a ser considerado como un océano en miniatura por la comunidad oceanógrafa. Para conocer su funcionamiento, seguiremos las peripecias de una protagonista muy humilde: una gota de agua de apenas un mililitro. Realizaremos un largo viaje de ida y vuelta entre el Océano Atlántico y el Mar Mediterráneo. Y, como en toda gran expedición, nos serviremos de un mapa para seguir sus aventuras.

Mapa del recorrido de ida y vuelta entre el Océano Atlántico y el Mar Mediterráneo de la gota de agua. / Irene Cuesta (CSIC).

Comienza la aventura: Golfo de Cádiz

Nos encontramos en un lluvioso día de enero. Una gota cae sobre el mar a unos cincuenta kilómetros de la costa de Cádiz (punto 1). Debido al oleaje, se mezcla con el agua que la rodea. Cuando vuelve a lucir el sol, se sitúa cerca de la superficie, a diez metros de profundidad. Está completamente transformada, ahora es agua de mar, y se mueve hacia el sudeste, siguiendo el movimiento de las líneas de color azul claro del mapa.

El paso del Estrecho

De repente, se ve arrastrada por una violenta corriente que la succiona hacia el Estrecho de Gibraltar (punto 2). El mar se estrecha hasta que África y Europa casi pueden tocarse; y la profundidad disminuye considerablemente. La gota sube y baja, a veces hasta los 200 metros de profundidad. Allí se acerca a gotas más profundas que hacen el camino inverso y salen del Mediterráneo cargadas de nutrientes (compuestos de nitrógeno, fósforo y silicio). Sin embargo, todavía no sabe por qué esas aguas profundas están tan ricamente abonadas. Este será uno de los aprendizajes de su viaje.

Después de este ajetreo, la gota se encuentra por fin en el Mediterráneo; concretamente, en el Mar de Alborán, al sudoeste de Málaga. Ahora, viaja sobre una fuerte corriente de un metro por segundo y es una gota de agua salada rica en vida. En su interior crecen unos organismos verdes unicelulares: el fitoplancton. Estos organismos realizan la fotosíntesis gracias a la luz del sol, un proceso en el que absorben CO2 y producen oxígeno. Son la base de la cadena alimenticia del mar. Los más grandes, el micro-fitoplancton, tienen entre 20 y 200 micras; es decir, son mil veces más pequeños que un mililitro. La gota contiene más de cien de estas células y más de mil aún más pequeñas: el nano y pico plancton. También tiene cianobacterias, parientes muy próximas de las primeras bacterias que empezaron a hacer la fotosíntesis en nuestro planeta hace miles de millones de años. Si aumentásemos el tamaño de la gota, veríamos el micro-fitoplancton y también el zooplancton, que se alimenta del fitoplancton y que, a su vez, será el alimento de muchos peces, como las sardinas o los boquerones.

En el Estrecho de Gibraltar, la gota se acerca a otras más profundas que hacen el camino inverso y salen del Mediterráneo cargadas de nutrientes. / Pexels

Anticiclones frente a la costa argelina

Dentro del Mar de Alborán hay dos giros anticiclónicos en los que el agua se mueve en el sentido de las agujas del reloj. Después de treinta días dando vueltas, la gota se sitúa frente a las costas de Argelia (punto 3), donde el mar se ensancha. La corriente se calma (ahora avanza a 20 centímetros por segundo), sigue progresando hacia el este y deja a su derecha la costa del país africano. Es un camino tortuoso. Algunas de sus compañeras de viaje quedan atrapadas y ralentizan su marcha, pero nuestra gota sigue la corriente principal y, pasados sesenta días, divisa el Mediterráneo Oriental.

En una época cercana a la primavera, empieza a observar grandes cambios: en la superficie hace calor y hay una fuerte evaporación. El resultado es que su salinidad y temperatura aumentan. Sus inquilinos fitoplanctónicos necesitan nutrientes para hacer la fotosíntesis, pero se han agotado. La mayoría de las células más grandes han muerto y solo las más pequeñas parecen adaptarse a estas condiciones de escasez.

En Rodas, un año después

La corriente serpentea describiendo giros anticiclónicos y ciclónicos, en los que el agua se mueve en sentido contrario a las agujas del reloj. Nuestra gota pasará en estas aguas el verano y el otoño. Su salinidad llegará a alcanzar los 39,2 gramos por litro y su temperatura hasta 26 grados centígrados.

Llegará al sur de la Isla de Rodas (punto 4) durante el siguiente invierno, tras un viaje de más de un año. Entonces, su temperatura bajará hasta los 15ºC y será un agua muy salada y densa que no podrá mantenerse a flote. Finalmente, se hundirá hasta los 200 o 300 metros de profundidad. Solo entonces comenzará a ser llamada agua mediterránea por la comunidad científica. A pesar de llevar ya más de un año en el Mare Nostrum, hasta este momento será considerada agua atlántica, por su origen.

La gota de agua alcanzará una profundidad media de 1.400 metros. / Pexels

Descenso a las profundidades

La gota viajera ha pasado a un entorno frío, oscuro e inmenso; y su profundidad media es de 1.400 metros, aunque puede alcanzar los 5.000. Los organismos fitoplanctónicos han muerto por la falta de luz y los restos orgánicos son descompuestos por las bacterias. En este proceso se generan CO2 y nutrientes, y se consume parte del O2. La gota entiende ahora por qué el agua profunda con la que se cruzó en el Estrecho de Gibraltar era rica en nutrientes.

Empieza a moverse lentamente hacia el oeste, en la dirección de las líneas azul oscuro del mapa. Aunque hay varios caminos posibles, toma el más directo hacia Sicilia y Cerdeña; islas que fueron su puerta de entrada al Mediterráneo Oriental, y que ahora marcan la salida. Por aquí las aguas profundas salen a razón de algo menos de un millón de metros cúbicos por segundo. El volumen del agua de las capas profundas del Mediterráneo Oriental es de más de 1.800 billones de metros cúbicos, así que la gota tardará alrededor de sesenta años en atravesar los canales de Sicilia y Cerdeña.

Una vez en el Mediterráneo Occidental, la gota bordeará la costa occidental de Italia hasta llegar a otro hito de su periplo: el sur de las costas francesas del Golfo de León (punto 5). En esta región, los fríos y secos vientos invernales del norte enfrían el agua superficial, que aumenta su densidad y se hunde hasta los 200 o 300 metros de profundidad, donde se encuentra con nuestra gota. Los temporales en esta zona continúan todo el invierno, y al final el agua se hace tan fría y densa que se hunde hasta el fondo del mar, a 2.500 metros de profundidad.

Fin de viaje: regreso al Atlántico

Aún le queda un largo camino por recorrer, ya que hasta salir por el Estrecho de Gibraltar pueden pasar otros cincuenta años. Al menos, su combinación con agua de la superficie le ha supuesto una inyección de oxígeno. La salida del Mediterráneo es parecida a la llegada. La gota viajera se mueve lentamente hasta que, al sentir la proximidad del Estrecho, empieza a sufrir una fuerte aceleración y alcanza velocidades de 1 metro por segundo. Ahora es una corriente profunda que ve como nuevas gotas de agua pasan por encima de ella para entrar en el Mediterráneo y comenzar un viaje parecido al que ella inició hace más de 100 años.

Aquella gota que cayó en forma de lluvia parece ahora una anciana que regresa al Océano Atlántico, donde durante un tiempo será llamada agua mediterránea. Sin embargo, en la escala de tiempo de los mares de la Tierra, aún es joven. Es cierto que está muy transformada, pero todavía tiene que experimentar muchas peripecias y visitar rincones muy lejanos antes de, tal vez dentro de mil años, volver a la superficie del mar o incluso a la atmósfera. Pero esta es otra historia, y deberá ser contada en otro momento.

*Manuel Vargas Yáñez es investigador en el Instituto Español de Oceanografía (IEO) del CSIC.

Ciencia de lo cotidiano: el experimento en una cocina que se publicó en ‘Nature’

Por Alberto Martín Pérez (CSIC)*

¿Has visto que hay insectos capaces de caminar sobre el agua? Es un fenómeno cotidiano pero muy sorprendente. Y, aunque parezca magia, no lo es. Si lo fuera, al preguntarnos por qué ocurre, la única respuesta que obtendríamos sería un frustrante “porque sí”. Por suerte, la ciencia nos proporciona respuestas mucho más gratificantes.

‘La gota que colma la moneda’, fotografía seleccionada en FOTCIENCIA13, en la modalidad La ciencia en el aula / Aránzazu Carnero Tallón y Mª de los Ángeles de Andrés Laguillo

Lo que hacen estos insectos es aprovechar un fenómeno conocido como tensión superficial del agua. El agua (y cualquier otro líquido) tiene una propiedad muy curiosa: su superficie se comporta como un sólido elástico. Si recibe fuerza sobre su superficie, se deforma y, cuanta más fuerza recibe, mayor es su deformación. Dicho con otras palabras: la superficie del agua se comporta igual que una cama elástica.

Pero, ¿por qué los insectos pueden obrar el ‘milagro’ de caminar sobre las aguas y los seres humanos nos tenemos que conformar con aprender a nadar? La analogía de la cama elástica nos vuelve a dar la respuesta. Si en una cama elástica depositamos un peso demasiado grande, la lona se romperá y caeremos al suelo. Ocurre lo mismo en el agua, aunque el peso mínimo para romper su superficie es mucho menor que en el caso de la lona. Como los insectos tienen un peso minúsculo, pueden caminar sobre el agua sin romper su superficie mientras que las personas, al tener un peso mayor, rompemos la superficie del agua al rozarla.

Los insectos tienen un peso minúsculo que les permite caminar sobre el agua sin romper su superficie

La tensión superficial del agua en un experimento de Agnes Pockels

Ahora que conoces una posible explicación a este hecho cotidiano, ¿te lo crees o intentarías comprobarlo? Puede que mucha gente no se moleste en hacerlo pensando que para hacer una demostración científica se necesita utilizar máquinas y métodos muy complejos. Sin embargo, esta idea está tan equivocada como extendida. Aunque es cierto que no podemos construir en casa un acelerador de partículas como el LHC del CERN o un súper telescopio como el James Webb, lo cierto es que puede haber ciencia en todo lo que hacemos, hasta en las acciones y objetos más simples del día a día (cocinar, hacer deporte, escuchar música…). Podemos hacer y aprender mucha ciencia a partir de los fenómenos cotidianos; solo tenemos que fijarnos un poco en aquello que nos rodea. De hecho, la científica que en el siglo XIX sentó las bases del estudio de la física y química de las superficies fue Agnes Pockels, que utilizó exclusivamente objetos de su cocina.

Pockels era una científica poco convencional. No pudo estudiar en la universidad y su ocupación no era la que esperarías, ya que no era profesora ni investigadora, sino ama de casa. Pero consiguió superar las barreras para dedicarse a la ciencia e ideó el siguiente experimento. Llenó una cubeta con agua hasta hacerla rebosar y, después, depositó una lámina de metal muy fina sobre la superficie, que quedaba flotando –igual que los insectos que hemos mencionado antes–. Al mirar la cubeta de frente, se apreciaba a simple vista cómo la superficie del agua se deformaba cerca de la lámina.

Este experimento sería suficiente para probar que lo que ocurre con los insectos es cierto, pero Pockels quiso ir más lejos y decidió estudiar cómo cambia la tensión cuando se disuelven distintas sustancias en el agua. Utilizó azúcar, sal o alcanfor que encontró en su cocina-laboratorio, y con una regla midió cuánto se deformaba la superficie del líquido al depositar la lámina. Si la deformación es más grande en el caso de la disolución que en el agua pura, la sustancia disuelta disminuía la tensión superficial del agua y viceversa. Gracias a este sencillo método, Pockels llegó a conclusiones de gran importancia en física y química relacionadas con la estructura de la materia a escala atómica. Las investigaciones de Pockels fueron tan relevantes que acabaron publicándose en la revista Nature y sentaron las bases para investigaciones posteriores.

Este no es un caso aislado. Hay muchísimos fenómenos físicos y químicos que se pueden observar y comprobar fácilmente a través de situaciones y objetos de uso cotidiano. La ciencia no es algo reservado en exclusiva a las universidades y los laboratorios de investigación. Olvidarse de esta faceta cotidiana significa perderse la mejor parte de la ciencia.

*Alberto Martín Pérez es investigador en el grupo de Optomecánica del Instituto de Ciencia de Materiales de Madrid (ICMM) del CSIC. Con el objetivo de romper la equivocada idea de que la ciencia es algo opaco e inaccesible, lleva a cabo el proyecto de divulgación ‘La mejor parte de la ciencia’. Con vídeos breves (Tik Tok, Instagram, Twitter y YouTube) muestra que la ciencia se encuentra en nuestra vida cotidiana a través de preguntas aparentemente simples: ¿te has fijado que cuando caminas, conduces o vas en bicicleta utilizas las tres leyes del movimiento de Newton?, ¿sabías que al practicar fútbol, tenis o baloncesto usas el tiro parabólico? o ¿te has parado a pensar que al cocinar preparas disoluciones y se producen reacciones químicas?

Ultrasonidos: la revolución silenciosa de la medicina moderna

Por Francisco Camarena (CSIC-UPV)*

En 1983 nació la primera persona de mi familia sabiéndose de antemano cuál iba a ser su sexo. A su madre le habían hecho unas pruebas un poco raras echándole un gel pastoso y frío sobre el vientre, y el ginecólogo se había adelantado a la naturaleza diciendo: “creo que es una niña”. Las imágenes eran grises, ruidosas, bastante confusas y con mucho movimiento. ¿Cómo iba a deducirse de ese enredo de sombras que aquello iba a ser una niña?, debió pensar su madre con escepticismo.

Medida de la translucencia nucal con ecografía en la semana 13 de embarazo.

Corrían los años de la movida y las técnicas de imagen para diagnósticos médicos también se revolucionaban: acababan de concederles el Premio Nobel a los creadores de esa maravilla de imagen 3D que es la Tomografía Axial Computerizada (TAC). Los inventores de la resonancia magnética, también premiados con el Nobel, andaban haciendo imágenes espectaculares del cerebro humano utilizando propiedades cuánticas de la materia; y había unos científicos que obtenían imágenes de los procesos metabólicos del organismo con nada más y nada menos que antimateria, que es lo que se usa para obtener una imagen PET (Tomografía por Emisión de Positrones). Así que, ¿quién iba a dar importancia a unas imágenes tan pobres como las que se empezaban a tomar con sonidos?

Ventajas de los ultrasonidos

Lo cierto es que las imágenes tomadas con ultrasonidos no eran 3D, pero eran en tiempo real. Solo daban información anatómica, pero era complementaria a la que proporcionaban los Rayos X. Eran ruidosas, sí, pero incluso del ruido se podía extraer información relevante para el diagnóstico. Es verdad que dependían del operador que manejase la máquina, pero como no era más que sonido, y no podía ionizar átomos y afectar a nuestras moléculas de ADN, siempre se podía repetir la prueba las veces que fuese necesario. Y, sobre todo, se podía tener cien máquinas de ultrasonidos con lo que cuesta un TAC, una resonancia o un PET, y eso sí que es harina de otro costal.

Imagen de Microscopia de Localización con Ultrasonidos y Doppler Color de un corte coronal del cerebro de un ratón

Las décadas de los ochenta y noventa del S.XX permitieron la consolidación a nivel mundial de la técnica, con sus grandes éxitos en el campo de la obstetricia y la cardiología, que prácticamente no existirían sin esta modalidad de imagen, y con el desarrollo de la imagen Doppler, 3D y, en el campo de la terapia, de la litotricia para el tratamiento de cálculos renales y biliares con ondas de choque. El arranque del siglo XXI no fue menos fructífero: la elastografía, una variante de imagen ecográfica, permitió la mejora de los diagnósticos mediante la obtención de mapas de la dureza de los tejidos, y la aparición de sistemas cada vez más pequeños y económicos posibilitó la implantación de la tecnología en pequeñas clínicas de todo el mundo. En 2014, el número de pruebas con ultrasonidos a nivel mundial ascendió a 2.800 millones (éramos 7.200 millones de habitantes sobre la faz de la Tierra en ese momento), lo que aupó esta tecnología, junto con la de Rayos X, a la cima de las modalidades de imagen más utilizadas en medicina. Además, durante la segunda década de este siglo se ha extendido el uso del ultrasonido terapéutico, principalmente para producir quemaduras internas en los tejidos mediante la focalización del sonido, de un modo parecido a como focaliza una lupa la luz solar, lo que está permitiendo tratar de forma no invasiva enfermedades como el temblor esencial, la enfermedad de Parkinson, el cáncer de próstata o la fibrosis uterina.

Nuevas terapias contra el cáncer

El futuro próximo se vislumbra muy prometedor. Las mejoras técnicas están disparando el número de aplicaciones y en pocos años veremos consolidarse nuevas formas de terapia, como la histotripsia: ultrasonidos focalizados de altísima intensidad que trituran literalmente los tejidos tumorales y esparcen en derredor antígenos que favorecen la respuesta inmunológica del cuerpo contra el propio tumor. Otras novedades serán los dispositivos para modular con precisión quirúrgica el funcionamiento del cerebro humano y modalidades de imagen de una espectacularidad propia de la ciencia ficción, como la optoacústica o la microscopía de localización por ultrasonidos.

Mapeo de los vasos sanguíneos del cerebro humano realizado con ultrasonidos. 

Los ultrasonidos, ese sonido que los humanos no podemos oír, son la base de una tecnología que ha sido uno de los pilares sobre los que se ha construido el edificio de la medicina moderna. Han supuesto una revolución trascendental en el modo de observar el interior del cuerpo humano, hasta hace poco tan misterioso y opaco, y nos han permitido verlo como veríamos con los oídos, como ven los murciélagos, como componen su mundo las personas invidentes. Puede parecer menos, pero los murciélagos vuelan a oscuras y eso no lo pueden hacer los pájaros con sus flamantes ojos. Ha sido una revolución tranquila, de avances graduales pero fiables, sin excesivo ruido mediático, sin premios Nobel, sin estridencias, como no podía ser de otra manera al tratarse, como se trata, de sonido inaudible. Una revolución silenciosa, sí, pero una revolución, al fin y al cabo.

 

*Francisco Camarena Fermenía trabaja en el Instituto de Instrumentación para Imagen Molecular (i3M, CSIC-UPV), donde dirige el Laboratorio de Ultrasonidos Médicos e Industriales (UMIL)

Escuchar los virus y las bacterias para el diagnóstico de enfermedades

Por Eduardo Gil (CSIC)*

Imagina que estiras un muelle. Esto hace que lo muevas de su posición de reposo. Se contrae, se estira y vuelve a su forma original. Mantendrá este movimiento oscilatorio durante cierto tiempo. El número de veces que se repite en un segundo se llama frecuencia, medida en hercios (Hz) – un hercio equivale a una oscilación por segundo-. Las oscilaciones de los muelles podemos observarlas con nuestros ojos, e incluso contarlas sin gran dificultad. Sin embargo, cuanto más pequeño sea un objeto, las oscilaciones tendrán una menor amplitud y una mayor frecuencia y, por tanto, será más difícil verlas.

Otro ejemplo clásico de resonador mecánico es el de la cuerda de una guitarra. Cada una de las cuerdas tiene dimensiones diferentes y por ello emiten sonidos distintos. Por ejemplo, cuando se toca la nota musical LA3 la cuerda vibra a 440 Hz, es decir, se comprime y expande 440 veces por segundo. Las vibraciones de una cuerda son más difíciles de observar con nuestros ojos y, por supuesto, no es posible contarlas. Sin embargo, estas vibraciones las percibimos con nuestros oídos, que son sensibles a su frecuencia, por ello distinguimos entre vibraciones que producen sonidos graves o agudos.

Microdiscos optomecánicos que actúan como sensores y bacterias Staphylococcus Epidermidis, que vibran a frecuencias de cientos de megahercios, cayendo sobre ellos. / Imagen: Scixel

Toda estructura mecánica es elástica en mayor o menor medida. Pero cada objeto vibra a frecuencias determinadas que dependen de sus propiedades morfológicas (forma) y mecánicas (densidad, rigidez, viscosidad, etc.). Por lo tanto, ‘escuchando’ las frecuencias de las vibraciones de un objeto podemos inferir sus propiedades físicas. Como se ha mencionado anteriormente, cuanto más pequeño es un objeto, mayores son sus frecuencias de vibración. En el caso de las bacterias y los virus, sus tamaños microscópicos e incluso nanoscópicos hacen que sus frecuencias de vibración sean extremadamente altas. Las bacterias suelen tener tamaños en torno a las micras (una millonésima parte de un metro), vibran a frecuencias de cientos de millones de hercios (cientos de millones de oscilaciones por segundo) con una amplitud extremadamente pequeña, en torno al tamaño de un átomo. Los virus son entidades aún más pequeñas, por lo que oscilan con amplitudes aún menores. Sus dimensiones se encuentran en torno a los cien nanómetros, e incluso por debajo. Son entre 10 y 1.000 veces más pequeños que las bacterias y, por lo tanto, oscilan a frecuencias entre 10 y 1.000 veces más altas. Así, los virus vibran más de mil millones de veces por segundo con amplitudes menores al tamaño de un átomo.

Nanosensores para detectar virus y bacterias

¿Y si hubiera aparatos para identificar y medir estas vibraciones? Desde el grupo de Bionanomecánica del Instituto de Micro y Nanotecnología del CSIC trabajamos desde hace casi dos décadas en el desarrollo de nanosensores para la detección, caracterización e identificación de todo tipo de entidades biológicas (células humanas, bacterias, virus, proteínas, etc.). Estos nanosensores también se pueden considerar como muelles. Vibran a ciertas frecuencias que se ven modificadas cuando las entidades biológicas se adhieren a ellos. A través de estas variaciones se pueden determinar la masa y las propiedades mecánicas de las bacterias o los virus, además de poder identificarse a nivel individual.

Hace poco más de un año se descubrió que estos mismos nanosensores eran capaces de detectar las vibraciones de las bacterias, es decir, de escucharlas. Pero, ¿para qué sirve escuchar las bacterias? Con esta nueva aproximación, los nanosensores poseen una sensibilidad muchísimo mayor que sus predecesores en la caracterización de los objetos analizados y, por tanto, en su identificación. Una de las aplicaciones de esta técnica consiste en desarrollar sensores universales que sean capaces de detectar la presencia de todo tipo de bacterias y virus en un único test. El fin último sería el diagnóstico de enfermedades infecciosas.

Una tecnología que reduciría el coste de los diagnósticos

Hoy en día, para diagnosticar una enfermedad infecciosa, es necesario que desde la medicina se intuya previamente qué patógeno podría estar causándola. Después, deben realizarse pruebas específicas para determinar si el patógeno concreto se encuentra en el cuerpo del paciente. Si la prueba es positiva, problema resuelto. Sin embargo, si la prueba arroja un resultado negativo o no concluyente, el diagnóstico de la enfermedad se retrasa. Esto obliga a hacer nuevas pruebas y demora el tratamiento del paciente. Al disponer de una tecnología que permitiese diagnosticar las enfermedades infecciosas de forma universal, se reduciría el coste del diagnóstico de manera significativa. Y lo que es más importante, los pacientes recibirían el tratamiento adecuado lo antes posible. Por otro lado, ser capaces de caracterizar las propiedades físicas de estas entidades biológicas con suficiente precisión tendrá un gran impacto en la biomedicina, dado que este avance que permitirá desarrollar nuevos medicamentos y tratamientos. La aplicación de estos nanosensores no se limita al estudio o detección de bacterias y virus, sino que se podría extender la tecnología a otras entidades biológicas como proteínas o células humanas y aplicarla, por ejemplo, a la detección temprana del cáncer.

*Eduardo Gil es investigador en el grupo de Bionanomecánica del Instituto de Micro y Nanotecnología del CSIC.