Archivo de la categoría ‘Tecnologías’

¿Cómo lograr las emisiones cero? La solución está en el subsuelo

Por Víctor Vilarrasa (CSIC)*

En pocos años, para poder cumplir con los objetivos climáticos del Acuerdo de París de limitar el aumento de temperatura por debajo de 2 °C, y preferiblemente por debajo de 1,5 °C, muchos de nuestros desplazamientos tendrán que hacerse en coches eléctricos. Tras circular sin emitir gases de efecto invernadero, será necesario cargar el automóvil. ¿Pero de dónde procederá la energía con la que lo carguemos?

Por descontado, tiene que ser de origen renovable para no emitir dióxido de carbono (CO2) por otro lado. La mayoría de las veces tendremos que cargar el coche de noche, cuando por razones obvias los paneles fotovoltaicos no pueden producir electricidad. Tampoco hay garantías de que el viento sople cada noche, ni de que haya oleaje. La energía hidroeléctrica podría proporcionar parte de la demanda, pero difícilmente podrá satisfacerla por completo dado que el agua es un bien preciado y escaso, y su consumo se prioriza frente a la producción de energía. La solución al problema está bajo nuestros pies.

Energía geotérmica

Central geotérmica de Nesjavellir (Islandia).

La Tierra es una fuente inagotable de energía geotérmica. En la corteza terrestre, la temperatura aumenta de media 30 °C por cada kilómetro a medida que nos dirigimos hacia el interior de la Tierra. Por lo tanto, en torno a los 4 kilómetros de profundidad respecto a la superficie acostumbramos a encontrar temperaturas superiores a los 100 °C. Si hacemos circular agua hasta esas profundidades y la devolvemos a la superficie una vez se ha calentado, produciremos vapor de agua, ya que el agua entra en ebullición a 100 °C y a presión atmosférica. Este vapor lo podemos utilizar para mover turbinas que generen electricidad sin emitir emisiones de gases de efecto invernadero.

El vapor de agua, después de turbinado, se enfría y se condensa, pero mantiene una temperatura elevada, cercana a los 80 °C. El agua caliente resultante se puede utilizar como fuente de calor para proporcionar calefacción a un gran número de viviendas, con lo que eliminaremos también las emisiones de CO2 asociadas a calentar nuestras casas en invierno.

Un almacén subterráneo de energía

En verano, la demanda de calor es menor, por lo que habrá un excedente que conviene almacenar. De nuevo, el subsuelo nos proporciona la solución. El excedente de agua caliente se puede inyectar o hacer circular por un intercambiado de calor en el subsuelo. Este proceso aumenta la temperatura del suelo, que puede almacenar el calor durante largos periodos de tiempo con unas pérdidas de energía pequeñas. Para recuperar el calor, no hay más que inyectar agua fría y dejar que ésta se caliente al circular por el suelo que hemos calentado previamente.

El calor no es la única fuente de energía que tendremos que almacenar en la transición hacia un sistema económico con emisiones netas de carbono nulas. De hecho, las fluctuaciones de las renovables, tanto en la producción a lo largo del día como entre las diferentes estaciones del año, exigen disponer de cantidades inmensas de almacenamiento para poder utilizar los excedentes en periodos en los que la producción sea menor que la demanda. El almacenamiento necesario no se podrá cubrir con baterías, por gigantes que las lleguemos a construir.

eneergía eólica

Uno de los mayores desafíos de las energías renovables son sus fluctuaciones.

Una solución que se plantea es producir combustibles que no contengan carbono, como el hidrógeno, a partir de los excedentes de energía renovable; y luego almacenarlos para utilizarlos en periodos de escasez de producción de este tipo de energía. Garantizar la demanda energética en esos periodos implicará almacenar millones de toneladas de hidrógeno. Uno de los mejores lugares para hacerlo son las capas permeables con alta porosidad del subsuelo, que permiten que el combustible se inyecte y recupere con facilidad.

Captura de CO2 bajo tierra

El reto de descarbonizar la economía va más allá de producir energía limpia con las renovables y electrificar los modos de transporte. Existen procesos industriales que difícilmente pueden dejar de emitir CO2, ya que este gas de efecto invernadero es el resultado de las reacciones químicas que tienen lugar en diversos procesos productivos. Por ejemplo, la fabricación de acero y cemento conlleva la emisión de CO2.

Las emisiones asociadas a procesos industriales representan el 20% de las emisiones actuales. La solución a estas emisiones vuelve a estar en el subsuelo. En este caso hay que capturar el CO2 antes de que sea emitido a la atmósfera, para lo que existen diferentes técnicas, y posteriormente inyectarlo en formaciones geológicas profundas para su almacenamiento permanente. Con esto, no estaríamos más que devolviendo el carbono a su lugar de origen, ya que el carbono que hemos emitido y seguimos emitiendo a la atmósfera proviene de la quema de combustibles fósiles, que hemos extraído y extraemos del subsuelo.

Campo de géiseres El Tatío (Chile).

Aunque hacemos vida sobre él, el hecho de no poder ver lo que hay en el subsuelo lo convierte en un gran desconocido. Y, como todo lo desconocido, produce temores y cierta desconfianza. Sin embargo, no nos podemos permitir excluir los recursos geológicos en el gran reto de alcanzar la neutralidad de carbono. No existe una única solución para conseguir la descarbonización y necesitamos de la contribución de todas las tecnologías disponibles.

Al igual que el resto de tecnologías, las relacionadas con el subsuelo no están exentas de riesgos, como por ejemplo la sismicidad inducida, desafortunadamente conocida en España por los terremotos del almacén de gas de Castor. La investigación científica en geoenergías pretende minimizar esos riesgos para poder contar con el subsuelo en la descarbonización. Los recursos geológicos, como origen del problema, deben formar parte también de la solución.

 

* Víctor Vilarrasa es investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA-CSIC) y del Instituto Mediterráneo de Estudios Avanzados (IMEDEA, CSIC-UIB). Actualmente dirige un proyecto del European Research Council (ERC) para aumentar la viabilidad de las geoenergías.

Puentes que se derrumban y copas que estallan: el fenómeno de la resonancia mecánica

Por Daniel Ramos Vega y Mar Gulis (CSIC) *

El 12 de abril de 1831, una compañía del cuerpo de fusileros del ejército británico regresaba al cuartel después de unas maniobras militares. Al cruzar el puente de Broughton (Manchester), los 74 hombres que componían la compañía notaron un ligero balanceo. Comenzaron entonces a marcar el paso más firmemente e incluso llegaron a cantar canciones de marcha militar, cuando se escuchó un ruido atronador, como si de una descarga de armas se tratase. Uno de los cuatro pilares que sostenían la cadena que soportaba el peso del puente se desplomó y provocó su colapso: el puente acabó derrumbándose por completo sobre el río arrastrando consigo a 40 soldados. Por fortuna, en esa época del año aún no había crecido el nivel del agua y no hubo que lamentar víctimas mortales. Eso sí, 20 soldados resultaron heridos.

Puente de Tacoma Narrows oscilando

¿Por qué se derrumbó el puente? La causa más probable del colapso la encontramos en el fenómeno de la resonancia mecánica.

Para entenderlo, antes tenemos que hablar de ondas y frecuencias. Una onda es una perturbación que se trasmite por el espacio, lleva implícito un cambio de energía y puede viajar a través de diferentes materiales. Imaginemos por ejemplo las ondas que se generan cuando lanzamos una piedra a un estanque o cuando sacudimos una cuerda de arriba a abajo. Para definir una onda utilizamos conceptos como la amplitud, que es la distancia vertical entre el punto de máximo desplazamiento y el punto medio; el periodo, que se define como el tiempo completo en que la onda tarda en describir una oscilación completa; o la frecuencia, que es el número de veces que se repite la oscilación en un tiempo dado.

Onda, magnitud y frecuencia. / Daniel Ramos Vega.

Todo cuerpo presenta una o varias frecuencias especiales que se denominan frecuencias características o propias. Dependen de la elasticidad del objeto, sus dimensiones o su masa. Como los objetos transmiten mejor unas frecuencias que otras, cuando aplicamos una fuerza que oscila a la frecuencia propia del objeto, logramos hacer que el efecto se magnifique. Entonces decimos que entra en resonancia.

Una resonancia, por tanto, se produce cuando sometemos un cuerpo a una fuerza periódica igual a su frecuencia característica. En el caso del puente, la amplitud de las vibraciones es cada vez más grande, hasta el punto que se produce un colapso de la estructura. De esta forma, una fuerza relativamente pequeña, como pueden ser los pasos de unos soldados al marchar sobre él, puede causar una amplitud de oscilación muy grande.

Este curioso episodio tuvo una consecuencia inesperada que aún perdura hasta nuestros días: desde ese accidente, las tropas británicas tienen orden de romper la formación y el paso cuando cruzan un puente.

A lo largo de la historia ha habido episodios similares y han sido varios los puentes que han terminado derrumbándose por el efecto de la resonancia mecánica. Tal vez el más significativo sea el Puente de Tacoma Narrows (Washington), construido en 1940 y que acabó desplomándose violentamente cuatro meses después de su construcción. En este caso fue el viento el que provocó que el puente entrara en resonancia y hay varias filmaciones que muestran el momento del derrumbe.

Vibraciones que hacen estallar copas de cristal

Otro ejemplo de cómo la resonancia mecánica puede tener unos efectos cuanto menos sorprendentes es el siguiente. A principios del siglo XX la cantante de ópera australiana Nellie Melba era conocida por hacer estallar las copas de cristal al cantar. También el famoso tenor italiano Enrico Caruso conseguía este fenómeno cuando cantaba ópera. Y el marido de María Callas, considerada la cantante más eminente del siglo XX, afirmaba que se cortó el brazo al estallar una copa cuando su mujer ensayaba en casa.

¿Puede realmente una cantante de ópera hacer estallar una copa al cantar? La respuesta es sí y la razón es que se ha excitado la resonancia del cristal. Como hemos explicado, este fenómeno físico tiene lugar cuando se ejerce una fuerza sobre un cuerpo con una frecuencia que coincide con la frecuencia propia del sistema. Es lo que pasa cuando empujamos un columpio en el parque: no lo hacemos de cualquier forma, sino que damos un pequeño empujón en el momento adecuado, justo cuando el columpio alcanza su máxima amplitud. Si conseguimos aplicar la fuerza con la misma frecuencia que la frecuencia del balanceo del columpio, somos más efectivos. En el caso de la cantante y la copa de cristal, bastará con que se emita una nota musical cuya frecuencia coincida con la vibración propia de la copa. Manteniendo la nota con la potencia necesaria, como pasaba con el columpio, la energía que se acumula en ella gracias al fenómeno de la resonancia hará que se produzcan vibraciones tan grandes dentro del cristal que la copa estalle.

Eso sí, si algún cantante de ópera quisiera emular a Melba, Caruso o Callas, no le valdría cualquier copa. Debería ser de cristal muy fino y de gran calidad, cuya composición química sea homogénea para que la copa tenga una única frecuencia propia y se comporte como un sistema limpio, de forma que toda su estructura pueda entrar en resonancia. Afinen esas cuerdas vocales mientras alejan su cristalería más preciada.

 

*Daniel Ramos Vega es investigador del Instituto de Micro y Nanotecnología (IMN) del CSIC y autor del libro Nanomecánica (CSIC-Catarata) de la colección ¿Qué sabemos de?

Computación neuromórfica: el salto de la inteligencia artificial a la inteligencia natural de las máquinas

Por Óscar Herreras (CSIC)*

Todos hemos oído hablar de la inteligencia artificial (IA) y de cómo poco a poco se expande a todos los sectores sociales, desde el control de calidad en cadenas de montaje o la regulación del tráfico en una gran ciudad, hasta el diagnóstico de patologías médicas o la producción de obras artístico-culturales, por muy estrafalarias que nos puedan parecer. No se nos escapa que el término “artificial” implica que las capacidades de una IA están construidas a partir de elementos manufacturados por el ser humano. Pero, ¿y el término “inteligencia”? Sin entrar en el inacabable (y divertido) debate de qué es o qué entendemos por inteligencia, es curiosa la sucesión de manifestaciones desde muchos ámbitos que niegan a las máquinas y dispositivos con IA, incluso futuras, una identidad equivalente a la de una persona. Conste que, como animal limitado que soy, comparto algunos de los temores y reservas detrás de esta actitud negacionista.

No obstante, ¿y si pudiéramos diseñar y construir dispositivos que ‘funcionen’ con una inteligencia inequívocamente natural? ¿Nos atreveríamos a decir entonces que estos dispositivos solo emulan las capacidades del intelecto humano? ¿Es posible replicar en un dispositivo artificial la intricada estructura de los circuitos cerebrales que hacen posible las capacidades cognitivas de los animales? Repasemos las claves que la neurociencia ha encontrado en las últimas décadas para explicar esto.

En primer lugar, al contrario que en un cerebro electrónico estándar, en el que la información se almacena en unidades independientes del procesador (discos, ‘la nube’, etc), los animales guardamos la información relevante obtenida en nuestra experiencia diaria alterando los circuitos cerebrales. A este proceso lo denominamos plasticidad neuronal, como detallábamos en esta otra entrada del blog. Así, las conexiones entre los miles de millones de neuronas que forman los circuitos corticales no son permanentes, pues se modifican cuando ocurren determinados patrones de actividad eléctrica generados por la experiencia sensorial o cognitiva. No tenemos unidades separadas de almacén y procesamiento, los circuitos en sí mismos son ambas cosas a la vez. Circuito diferente, persona diferente.

Esta es la teoría. Pero, ¿cómo la llevamos a la práctica en una máquina? Aquí viene otra clave fundamental. En los animales, la modificación de circuitos consiste en establecer nuevos contactos (nuevas sinapsis) o cambiar la fuerza de los ya existentes. Esto nos permite incorporar nuevos datos a, por ejemplo, asociaciones de objetos o conceptos (ideas) que ya tuviéramos, o establecer otras nuevas. La neurociencia ha confirmado estas propiedades repetidamente y ya se pueden replicar en el laboratorio. Muchos ya pensamos que estas claves son suficientes para explicar todas las capacidades cognitivas del cerebro de los mamíferos: la memoria, la imaginación, la lógica, la planificación, etc. Ahora bien, ¿están presentes estas características en los dispositivos actuales de IA?

A lo largo de la historia de la cibernética, los ingenieros sagazmente han puesto un ojo en los descubrimientos neurocientíficos, hasta el punto de que sus principales hitos han surgido tras replicar algún nuevo hallazgo sobre la estructura o el funcionamiento del sistema nervioso: no es mala idea tratar de emular la “máquina” pensante más compleja y potente. Lo cierto es que, al menos en el plano conceptual, existe un fuerte paralelismo entre la manera en la que un cerebro y un dispositivo IA aprenden: ambos cambian algunos de sus elementos para almacenar información o resolver un problema. La diferencia, como esbozaba antes, estriba en que en una IA los circuitos electrónicos impresos que unen sus partes no varían, la información no está en sus conexiones, se guardan en una lista (software) de una unidad separada. Vemos que la solución biológica es mucho más eficiente, la propia estructura cambiante de los circuitos nerviosos contiene tanto nuestra historia vital como nuestras capacidades.

Para emular esta extraordinaria solución biológica, en el programa Europeo de Investigación Human Brain Project (HBP), en el que participan decenas de grupos experimentales y teóricos de diferentes países, existen varios subproyectos que desarrollan lo que se denomina computación neuromórfica. En pocas palabras, están desarrollando ordenadores con una arquitectura de circuitos mutable. Los datos nuevos o las capacidades nuevas no se guardan en forma de unos y ceros en una unidad separada, sino en el propio mapa de conexiones. Estos ordenadores cambian la conectividad de sus circuitos a medida que aprenden a ejecutar eficientemente una tarea, y lo curioso es que el número de cambios puede ser tal que averiguar cuál es su mapa de conexiones después del aprendizaje plantea ya los mismos problemas a un investigador que un cerebro real. Esos cambios en el aprendizaje son tantos y tan complejos que mantener un listado de las nuevas conexiones sería ineficiente a medida que aumente el tamaño y las tareas de estos computadores neuromórficos.

Materiales con memoria

La capacidad de aprender que nos proporciona la plasticidad de las sinapsis no ha sido fácil de emular en los contactos eléctricos de un circuito impreso. Hemos tenido que esperar a la aparición en la década pasada de materiales con propiedades eléctricas extraordinarias para dar solución al último gran problema. Estos materiales, como el dióxido de titanio, pueden variar su resistencia eléctrica dependiendo de la corriente que ha pasado por ellos anteriormente. Se les denomina memristores (resistencias con memoria), y regulan la cantidad de corriente que dejan pasar dependiendo de su historia previa, esto es, de la corriente que ya circuló por ellos en el pasado, replicando fielmente el papel y funcionamiento de las sinapsis cambiantes entre neuronas. Ya no es necesario mantener los cambios (la experiencia) en una unidad separada. Recuerden, no se pierde la unidad de almacén de información, el circuito es la información.

La prueba de concepto ya ha sido publicada recientemente en la revista Scientific Reports En este artículo, el equipo investigador ha sido capaz de realizar conexiones entre una neurona electrónica y una neurona real utilizando dos de estas sinapsis de dióxido de titanio capaces de aprender. Ya no es necesario guardar los cambios en ninguna parte, todo es estructura cambiante, como en un cerebro real. En ordenadores neuromórficos con sinapsis variables todo es artificial menos, quizá, su funcionamiento. ¿Podemos decir que este tipo de ordenadores ha dado el salto de una IA a una inteligencia natural (IN)? Las diferencias entre la tecnología y la biología ciertamente se estrechan. A estas alturas, yo no sabría decir si el cerebro ‘piensa’ como una máquina o la máquina lo hace como un cerebro

* Óscar Herreras es investigador del Instituto Cajal del CSIC.

 

Ojos en el cielo: los drones que cuidan nuestras cosechas

Por Alicia Boto (CSIC)*

Cuando era pequeña, recuerdo que la gente se empezó a ir del campo a las ciudades. Los motivos, sin duda, eran variados, pero uno de ellos era que el campo daba mucho trabajo, el agua era cara y, por si fuera poco, los intermediarios entre los que cultivaban la tierra y los consumidores finales se llevaban muchas de las ganancias, por lo que mantener la agricultura acababa por compensar poco. Además, la tecnología comenzó a posibilitar que una sola persona cultivara mucho terreno, así que la desbandada fue general.

Hoy día, de algún modo, las cosas están cambiando en ese sentido. Ahora el agricultor puede llegar directamente a sus clientes y, además, gracias a los avances que sigue habiendo en la tecnología, es posible cultivar tierras sin que esto implique una atadura constante y presencial. En un futuro no muy lejano, tendrá desde drones para monitorizar, tratar las cosechas o controlar las malas hierbas, a robots que le ayuden en las faenas del campo. Con un click en un programa de ordenador, sin salir de casa, los campos podrán ser vigilados, regados o fumigados. Y lo mejor: gracias a ‘ojos’ que ven con más tipos de luz que los humanos, los nuevos drones podrán detectar un problema antes de que aparezca a simple vista.

Dron vigilando viñedos en Canarias. / Proyecto Apogeo

Vamos a verlo en el caso real en un viñedo y un dron equipado con dos tipos de cámaras: una normal, que solo capta la luz visible, y otra multiespectral, que capta también la luz ultravioleta y la infrarroja. Tras ser envidas por un ordenador para que las interpretase y ‘pintase’, las imágenes recogidas por este dispositivo indicaron que algunas plantas no estaban sanas. Mientras que el suelo y la tierra aparecían en color azul y las vides más sanas en rojo y naranja, las que estaban en peor forma se mostraban en amarillo y verde-azulado.

Cuando el técnico del dron vio la imagen, avisó a la directora de las bodegas. Una vez en el terreno, las plantas parecían todas iguales a simple vista, pero pronto se detectó que el sistema de riego de la zona norte se había taponado parcialmente. Las plantas no estaban recibiendo suficiente agua. Sin embargo, sus hojas no parecían aún secas porque, para ahorrar líquido, las vides dejaron de producir muchas uvas. Si el problema no se hubiera localizado, la cosecha de esa zona habría bajado mucho. Por suerte, una vez corregido el problema, las vides aumentaron su producción de fruta.

Imagen que muestra la cámara normal de un dron que sobrevuela el viñedo. / Proyecto Apogeo

La cámara multiespectral del dron detecta un problema en la zona del recuadro blanco. / Proyecto Apogeo

Las imágenes del dron también permiten detectar en una etapa temprana otros problemas. Los colores de la imagen cambian rápidamente si al suelo le faltan nutrientes, si las plantas se han infectado con patógenos, o si son atacadas por una plaga. Como el problema se descubre de forma precoz, solo hay que tratar unas pocas plantas, y así se ahorran muchos productos, como fertilizantes, pesticidas o fitosanitarios. Esto hace que los gastos sean menores, tanto para quien cultiva como para quien acaba finalmente consumiendo los productos. Además, los residuos que quedan en las plantas después de un tratamiento disminuyen mucho.

Con esta estrategia, el proyecto de investigación MAC-INTERREG APOGEO desarrolla drones con cámaras multi e hiperespectrales, programas de ordenador que interpretan los datos para dar al agricultor un informe rápido de la situación de sus cultivos y nuevos fitosanitarios más selectivos y respetuosos con el medio ambiente. Aunque el proyecto se centra en viñedos, los resultados pueden extrapolarse a muchos tipos de cosechas, desde frutales a hortalizas. La iniciativa, que cuenta con la participación de varias universidades de Canarias y Madeira, el CSIC, la Dirección General de Agricultura del Gobierno de Canarias, cabildos insulares y asociaciones de viticultores, supone también la realización de cursos de formación para jóvenes agricultores. Con ello, se busca contribuir a que la gente se anime a volver al campo, pueda obtener buenas ganancias y de pie a una economía local y sostenible.

*Alicia Boto es investigadora en el Instituto de Productos Naturales y Agrobiología (IPNA) del CSIC.

APOGEO es un proyecto de investigación coordinado INTERREG-MAC en el que participa el Instituto de Productos Naturales y Agrobiología del CSIC, La Laguna, Tenerife, Canarias, y que lidera el Instituto Universitario de Microlectrónica Aplicada de la Universidad de Las Palmas de Gran Canaria. También participa la Dirección General de Agricultura del Gobierno de Canarias, la Universidad de Madeira, Cabildos, y empresas.

¿Cómo funciona en realidad un ordenador cuántico?

Por Carlos Sabín (CSIC)*

En una entrada reciente hablábamos de uno de los tópicos más resistentes en la divulgación de la física cuántica, aquel según el cual las cosas estarían en “dos sitios a la vez”. Cuando esa manera de pensar se traslada a los computadores, el ordenador cuántico es presentado como una máquina que estaría en un montón de estados a la vez y que, por tanto, sería capaz de “hacer un montón de cálculos en paralelo”. Este suele ser el enfoque, de hecho, en casi todos los textos divulgativos que se escriben sobre computación cuántica. Es un enfoque consistente desde el punto de visto lógico, pero tiene un problemilla: es falso.

Interior de un ordenador cuántico

Interior de un ordenador cuántico. / IBM Research (CC-BY-SA).

Como explica brillantemente Scott Aaronson en un cómic ilustrado por Zach Weinersmith, la computación cuántica tiene poco que ver con un montón de ordenadores clásicos trabajando en paralelo. De hecho, no sería tan interesante si fuera así, ¿no? En realidad, la computación cuántica se basa en dos ideas, digamos, ‘genuinamente cuánticas’, que en jerga técnica se denominan con las palabrejas ‘superposición’ e ‘interferencia’.

La primera es precisamente la palabra para designar que en la física cuántica las propiedades pueden estar indefinidas o, mejor dicho, definidas solo por probabilidades. Esto hace que el cúbit, la unidad mínima de información en computación cuántica, pueda comportarse de un modo muy distinto a los bits clásicos. Mientras que un bit tiene que estar necesariamente en uno de sus dos estados posibles, 0 ó 1, un cúbit se puede preparar para que tenga una cierta probabilidad de estar en 0 y otra cierta probabilidad de estar en 1. Lo mismo puede hacerse con un conjunto de cubits: se pueden preparar para tener una cierta probabilidad de estar en, digamos, 0000011000… y una cierta probabilidad de estar en 0000111111… o lo que sea.

La segunda palabreja quiere decir que en física cuántica las cosas pueden interferir, de la misma forma que interfiere la luz: cuando dos ondas de luz se encuentran en un sitio, el resultado puede ser que no haya la misma luz que la suma de la luz de las dos ondas por separado: puede haber más luz (interferencia constructiva) o menos luz (interferencia destructiva). Un ordenador usaría la interferencia constructiva para aumentar la probabilidad de tener una de las posibilidades iniciales (la solución del problema) y la interferencia destructiva para reducir las de todas las demás. Esto sólo es posible si en el proceso se genera el famoso entrelazamiento cuántico: es decir, en algún punto es preciso que un conjunto de cubits no solo esté en superposición, sino que existan correlaciones muy fuertes entre ellos, correlaciones que solo pueden alcanzarse en un sistema cuántico. No todas las superposiciones tienen esa propiedad.

Un ejemplo que sí la tiene sería un caso con dos cubits preparados para que tengan una probabilidad del 50% de estar en 00 y la misma probabilidad de estar en 11. El estado de cada cúbit es completamente aleatorio (cada uno de ellos tiene la misma probabilidad de estar en 0 o en 1) pero está totalmente correlacionado con el de su compañero: si hago una medida y determino que el estado de uno de ellos es, por ejemplo, 0, inmediatamente sé que el estado del otro cúbit es también 0.

Circuito de cuatro cubits

Circuito de cuatro cubits. / IBM Research (CC-BY-SA).

El ejemplo de la guía telefónica

Veamos un ejemplo bonito de esto. Por diversos motivos, el interés de este ejemplo es meramente académico, pero confío en que sirva para entender mejor cómo podría funcionar un ordenador cuántico.

Imagine que tiene un número de teléfono pero no sabe a qué persona pertenece. Imagine también que se le ocurre usar la guía telefónica para esto. Puesto que el orden de la guía es alfabético para los nombres, resulta que los números no tienen ninguna ordenación en absoluto, así que ya se puede preparar para una búsqueda lenta y tediosa.

¡Ah, pero podemos usar un ordenador! El ordenador, básicamente, hará lo mismo que haría usted: ir número por número y compararlo con el que tiene usted, hasta que haya una coincidencia. Podría haber mucha suerte y que el ordenador encontrase esa coincidencia tras comparar pocos números… pero también podría haber muy mala suerte y que el ordenador tuviese que rastrear casi toda la guía.

En general, podemos decir que el número de búsquedas que habrá que hacer (el número de pasos del algoritmo que está aplicando el ordenador) crecerá linealmente con el número total de teléfonos de la guía: si multiplicamos por dos el número total de números de teléfono, también aumentará por dos el número de pasos. Pues bien: si tenemos un ordenador cuántico, podemos usar una receta, el ‘algoritmo de Grover’, que hará que encontremos el resultado correcto en menos pasos. Con este algoritmo si aumentamos por dos el número total de teléfonos, el número de pasos aumentará sólo en la raíz cuadrada de dos.

Simplifiquemos aún un poco más, para ver exactamente de qué estamos hablando. Imagine que tras una fiesta usted ha apuntado cuatro números de teléfono en un ordenador (por supuesto, a estos efectos, un teléfono móvil es un pequeño ordenador), cada uno con su nombre correspondiente. Unas semanas más adelante, vaciando los bolsillos, usted se encuentra con una servilleta arrugada donde hay un número escrito, pero ya no se distingue el nombre. No hay problema: solo tiene que introducir el número en su ordenador para que busque a cuál de los cuatro contactos que usted apuntó corresponde.

Si su aparato es clásico, su agenda digital de cuatro números necesitará unos cuantos bits: la información de cada número (por ejemplo, “Nombre: …, Número: …”) estará clasificada por el valor de dos bits: o bien 00, o bien 01, o bien 10, o bien 11. Pongamos que el número que busca está guardado en la casilla 10. Cuando usted teclee el número de la servilleta, el ordenador irá casilla por casilla hasta encontrar la 10, identificar el nombre asociado al número y devolvérselo. Con mucha suerte, su número estará en la primera casilla de búsqueda, pero con mala suerte estará en la última, y el ordenador tendrá que dar cuatro pasos antes de encontrar lo que usted busca.

Pero usted mola mucho más que todo eso y tiene un pequeño ordenador cuántico. Entonces, para encontrar su número solo necesita dos cubits y haberse bajado la app ‘Grover’. El primer paso que dará la app será preparar los cubits para que tengan una probabilidad del 25% de estar en 00, una probabilidad del 25% de estar en 01… y así con las cuatro posibilidades. Cuando usted introduzca el número, la app lo identificará como el correspondiente a, por ejemplo, 01, y entonces sabrá la operación (puerta lógica cuántica) que tiene que aplicar sobre el ambos cúbits. Tras esa operación, el algoritmo de Grover nos dice que los cubits ahora estarán en un estado tal que la probabilidad de estar en 01 (o el que sea) es exactamente el 100%. Es decir, en este caso concreto, con solo cuatro números, usted encontrará siempre el número en un solo paso.

Errores cuánticos

Naturalmente, esto (aunque es muy molón) no tiene gran aplicación práctica: la diferencia en el número de pasos no es muy grande, y usted puede encontrar un número en una lista de cuatro con un golpe de vista. Pero si pensamos en una guía de un millón de números, estamos hablando de la diferencia entre hacer un número de pasos del orden de un millón (con un ordenador convencional) o del orden de mil (con un ordenador cuántico). Por supuesto, para eso necesitamos correr la app Grover en un ordenador cuántico con muchos más cubits, y eso todavía no es posible. De momento, los ordenadores cuánticos tienen a lo sumo unas cuantas decenas de cubits, y todavía cometen muchos errores.

Uso dos cubits del ordenador cuántico de IBM para encontrar un número de teléfono en una lista de 4.

Uso dos cubits del ordenador cuántico de IBM para encontrar un número de teléfono en una lista de 4.

Para hacernos una idea, he lanzado el experimento que acabo de describir con dos cubits en el ordenador cuántico de IBM, que es accesible en línea. En la imagen, vemos las operaciones que hay que hacer en el caso de estar buscando el 00. En el primer instante de tiempo (todo lo que ocurre en la misma línea vertical es simultáneo) las dos puertas H sirven para preparar a los cubits en el estado inicial descrito más arriba. Todo lo demás, salvo las dos últimas operaciones, es el proceso de transformación de los cubits, y podemos considerar que es un paso del algoritmo de Grover (este paso sería distinto si estuviera buscando el 01, el 10 o el 11). En el camino, los cubits se entrelazan. Para una búsqueda en una lista más larga, ese paso tendría que repetirse un cierto número de veces.

Las dos últimas operaciones son medidas del estado de los dos cubits. La teoría nos dice que en un ordenador cuántico ideal el resultado de estas medidas sería siempre 00, con probabilidad 100 %. Como los ordenadores cuánticos reales todavía tienen errores que los alejan del comportamiento ideal, el resultado real no es perfecto: como vemos en la segunda imagen, tras 1024 repeticiones del experimento, la probabilidad de obtener el 00 fue del 87 % (ocurrió en 890 ocasiones). Esto nos da una idea realista del estado de la computación cuántica en la actualidad: incluso en ejemplos sencillos y académicos como este los errores son todavía significativos. Por supuesto, esto podría cambiar rápidamente en los próximos años, pero, como ven, hay mucho trabajo por delante todavía.

Resultados de 1024 repeticiones del experimento de la imagen anterio

Resultados de 1024 repeticiones del experimento de la imagen anterior. El resultado correcto se obtuvo el 87% de las veces.

Como resumen, confiamos en que haya quedado claro que un ordenador cuántico no es un aparato que realiza muchas operaciones a la vez o en paralelo. Si así fuera, no sería muy distinto de un supercomputador clásico. Al contrario, un ordenador cuántico usa las propiedades de la física cuántica para acelerar un cálculo concreto. Las correlaciones entre los distintos bits cuánticos pueden hacer que se llegue al resultado deseado significativamente antes de lo que lo haría un ordenador convencional. Eso requiere de recetas específicas para cada problema, las cuales conocemos en un número pequeño de casos, de momento. En el futuro, no solo habrá que diseñar esas recetas para cada caso de interés, sino que habrá que conseguir que los ordenadores cuánticos cometan muchos menos errores, o sean capaces de corregirlos.

* Carlos Sabín es investigador del CSIC en el Instituto de Física Fundamental, responsable del blog Cuantos completos y autor del libro Verdades y mentiras de la física cuántica (CSIC-Catarata).

Zeolitas en Etiopía: una solución ecológica contra la fluorosis

Por Mar Gulis (CSIC)

¿Te has preguntado alguna vez por qué aparecen manchas en los dientes? El tabaco o el vino tinto son algunas de las causas que te vendrán a la cabeza más rápidamente. Entre la multitud de motivos posibles que encontrarás, nos detendremos en uno que va más allá del esmalte dental: la fluorosis. Además de las manchas que produce en los dientes, esta enfermedad ósea causada por el consumo excesivo del ión fluoruro (conocido como flúor) en la dieta, sobre todo a través del agua, puede provocar osteoesclerosis, calcificación de los tendones y ligamentos, deformidades de los huesos, y otras afecciones.

Fuente de agua potabilizada

Fuente de agua potabilizada por la tecnología del CSIC en Etiopía. / César Hernández.

Según estima la Organización Mundial de la Salud (OMS), la fluorosis afecta a unos 300 millones de personas en el mundo. No en vano, la OMS considera que el flúor es una de las diez sustancias químicas que constituyen una preocupación para la salud pública, entre las que también figuran el amianto, el arsénico y el mercurio, entre otras.

A pesar de que el fluoruro tiene efectos beneficiosos para nuestra dentición como la reducción de las caries, la presencia de elevadas cantidades de este elemento en el agua puede convertirlo en un contaminante natural. Consumir agua con una concentración de fluoruro superior a 1,5 miligramos por litro (límite establecido por la OMS) puede provocar problemas de salud asociados a la fluorosis, como los antes citados, y es especialmente perjudicial para mujeres en estado de gestación y niños/as que están formando sus huesos.

La existencia de flúor en el agua tiene un origen geológico, es decir, se debe a que el agua está en contacto con rocas de acuíferos que tienen el ion fluoruro en su composición química. Estas rocas se hallan en terrenos volcánicos, por tanto, más de 25 países en todo el mundo están afectados por la contaminación de fluoruros en el agua, entre los que se encuentran España, China, India, Estados Unidos y Etiopía. En este último país, el 41% de sus fuentes de agua potable tienen una concentración de fluoruro superior a 1,5 mg/l y se calcula que aproximadamente el 15% de la población etíope está afectada por fluorosis.

Zeolitas naturales

Mineral de Estilbita, zeolita natural de Etiopia. / Defluoridation Ethiopia.

Filtros naturales para atrapar el fluoruro

Etiopía es uno de los países pertenecientes al valle del Rift, junto con Kenia, Uganda y Tanzania. En la zona del valle del Rift etíope, “donde se abra un pozo, va a haber contaminación por fluoruro y, por tanto, la enfermedad tiene elevados números”, asegura Isabel Díaz, investigadora del CSIC en el Instituto de Catálisis y Petroleoquímica (ICP). Díaz es además una de las inventoras de una tecnología que permite extraer el fluoruro del agua de una manera barata y sostenible.

Esta tecnología está basada en zeolitas naturales, un mineral abundante en Etiopía, así como en otros lugares del mundo, ya que también es de origen volcánico. “Su principal característica es que es un material muy poroso, lleno de cavidades de tamaño molecular”, explica la científica del CSIC. Gracias a esta estructura, las zeolitas tienen la capacidad de atrapar una amplia variedad de elementos, como sodio, potasio, calcio y magnesio, y son utilizadas como catalizadores y absorbentes en un gran número de procesos químicos industriales, sobre todo en la industria petroquímica.

Estructura zeolita

Estructura atómica de la Estilbita. En azul moléculas de agua, verde cationes calcio y morado cationes sodio. / Defluoridation Ethiopia.

Con la nueva tecnología desarrollada por el grupo del ICP —además de Isabel Díaz como investigadora principal, forman parte del equipo los científicos Joaquín Pérez Pariente y Luis Gómez Hortigüela—, junto con la Universidad de Adís Abeba, se modifica la zeolita para que absorba selectivamente el ion fluoruro. “De esta forma es posible abastecer a la población de agua potable”, afirma Díaz. Esta solución resulta primordial en el valle del Rift en Etiopía, dado que el agua de los pozos en la zona tiene una concentración de fluoruro de 2-3 mg/l, prácticamente el doble del límite que establece la OMS.

Planta potabilizadora

Planta potabilizadora con zeolitas en Etiopía. / César Hernández.

Aunque este tipo de métodos basados en absorbentes generan una gran cantidad de residuos tras su uso, una de las mayores ventajas de la zeolita es que luego puede usarse como fertilizante del suelo. En la actualidad, se han instalado dos plantas potabilizadoras con zeolitas en las localidades etíopes Dida y Obe, gracias al proyecto Defluoridation Ethiopia, del CSIC y la ONG Amigos de Silva. Esta acción supone un primer paso para que empiece a mermar la cifra de 14 millones de personas en riesgo de padecer fluorosis que, según los estudios, viven en el país africano.

 

El negocio de los datos personales en internet: cuando el producto eres tú

Por David Gómez-Ullate Oteiza (CSIC)*

En la era de internet nos hemos acostumbrado a que muchas cosas sean gratis: la información de los diarios, los navegadores GPS, los gestores de correo… Nadie puede resistirse a la atracción de lo gratuito. Uno se pregunta, sin embargo, dónde está el producto detrás de tanta gratuidad: ¿cómo ganan dinero estas grandes compañías? Y aquí viene a la cabeza la frase del mítico jugador de póquer Amarillo Slim: “Mira a tu alrededor, si no sabes identificar al pardillo en la mesa, entonces el pardillo eres tú”. En internet, cuando no sabes cuál es el producto, entonces el producto eres tú. Para Google, Facebook y el resto de gigantes de internet no somos usuarios, sino productos: los destinatarios de sus campañas de publicidad.

Así pues, el modelo de negocio es un intercambio en el que nos ofrecen un gestor de correo electrónico con grandes capacidades, una plataforma para conversar con amigos o para encontrar a antiguos compañeros de clase, un navegador GPS para no perdernos en la ciudad, una carpeta en la nube para almacenar nuestros ficheros… Todo ello a cambio de recopilar una cantidad de datos tan inmensa que probablemente hace que Google nos conozca mejor que nosotros mismos: qué coche te quieres comprar, dónde vas a ir de vacaciones, cuántos hijos tienes, qué camino tomas para ir a trabajar, a quién vas a votar, cómo te sientes hoy, esa pasión oculta que no has confesado a nadie pero has buscado en internet, a qué hora te acuestas y con quién, etc.

Big data

/Wikimedia Commons

Con esta ingente cantidad de datos, la publicidad digital presume de su precisión, al impactar a la persona escogida en el lugar idóneo y el momento adecuado, frente a los anuncios tradicionales en televisión, por ejemplo, que solo permiten segmentar el público objetivo por franja horaria o asociado a ciertos programas. De hecho, cada vez que cargamos la página de nuestro diario favorito para leer las noticias del día, el correspondiente banner publicitario que vemos depende de una compleja subasta (RTB, Real Time Bidding) en la que distintos algoritmos pujan por mostrarnos su anuncio en función de cuánto piensen que nuestro perfil se adapta al producto que desean vender. Todo esto ocurre en la fracción de segundo que tarda el navegador en cargar la página; obviamente, estos algoritmos emplean toda la información que puedan adquirir sobre quién está al otro lado del ordenador para afinar los modelos: más información implica modelos más precisos y, típicamente, mayor rendimiento de la inversión en publicidad.

Así, Google es la mayor agencia de publicidad del mundo. Facebook o Twitter también siguen el mismo modelo de negocio: nos ofrecen una plataforma para que voluntariamente les entreguemos una cantidad inimaginable de datos personales gracias a los cuales pueden afinar campañas de publicidad muy orientadas a su público objetivo.

En la economía digital nadie da duros a cuatro pesetas o, como nos recordaba el Nobel de Economía Milton Friedman: “There ain’t no such a thing as a free lunch (no existen los almuerzos gratis)”. Las principales empresas hoteleras son Airbnb y Booking; no tienen uno solo alojamiento en propiedad. La empresa líder de movilidad es Uber; no posee un solo vehículo. La primera empresa del sector de venta al por menor es Alibaba; no dispone de inventario. La mayor empresa de contenidos digitales es Facebook; no genera su contenido. Todas son empresas de datos. Recopilan, limpian, analizan y desarrollan aplicaciones para poner en contacto productores de servicios con consumidores.

Pero entonces, ¿cuánto deberían valer nuestros datos personales? La pregunta es muy relativa y probablemente tenga dos respuestas bien diferenciadas para la persona que cede los datos y para la que los adquiere. Para el ciudadano o ciudadana media, a tenor del comportamiento observado durante los últimos años, el valor que concedemos a nuestros propios datos es más bien pequeño, pues prácticamente los hemos regalado a cambio de nada a las grandes compañías. Para los gigantes de internet podemos hacer un cálculo sencillo basado en dividir el beneficio del sector publicitario digital en EE UU durante 2016 (83.000 millones de dólares) entre el número de usuarios en el país (280 millones), lo que arrojaría una cifra media de 296 dólares per cápita. Prácticamente nadie en el entorno empresarial duda ya del inmenso valor que tiene la adquisición de datos, aunque la sociedad en su conjunto no sea aún muy consciente de ello.

Privacidad en tiempos de pandemia

Entre 1950 y 1989, la policía política de la RDA articuló métodos de vigilancia que implicaron a 250.000 personas entre empleados e informantes. Para una población de 17 millones suponía un espía por cada 70 habitantes. Con los métodos de supervisión existentes en la actualidad, empleando técnicas de Inteligencia Artificial, tratamiento de imágenes y procesamiento del lenguaje natural, se puede vigilar a miles de millones de ciudadanos con apenas varios miles de empleados.

Big data

/Wikimedia Commons

Aunque cuando una empresa conecta el micrófono de mi móvil no está interesada en lo que digo, solo quiere saber qué canal de televisión estoy mirando o qué estoy pensando en adquirir. Porque una parte importante de la industria publicitaria se basa en pagar por los anuncios en función de la contribución que cada uno haya tenido en conseguir que adquieras el producto. En su jerga, ellos usan el término “conversión”, pero no una conversión a los principios socialistas de la República Democrática de Alemania, sino una conversión para ganar personas adeptas al último coche, tableta o viaje.

En los últimos meses se está produciendo un intenso debate sobre la pertinencia del uso de datos personales para luchar contra la pandemia, lo cual ha puesto en el ojo público muchas de las cuestiones mencionadas arriba. Los datos de geolocalización o los contactos con otras personas se pueden usar para diseñar sistemas más eficientes y dirigidos de contención de la epidemia, aislando sólo personas infectadas y sus contactos, o lanzando alertas en los lugares con mayor probabilidad de infección. Compartir datos clínicos de pacientes permite ampliar la base estadística de los estudios sobre COVID y conocer mejor la enfermedad para mejorar el tratamiento de enfermos o las políticas de salud pública.

Todas estas cuestiones requieren un debate sobre el alcance de dichas medidas, que en cualquier caso debe de ser limitado en el tiempo y no ser usado con fines distintos a los mencionados. Este debate contrasta con la noticia publicada recientemente sobre las denuncias de un empleado de Apple que trabajaba en el programa de transcripción de textos grabados por sus dispositivos, sin ningún consentimiento por parte de los usuarios. Es fundamental que la sociedad sea más consciente del uso y abuso de los datos personales por parte de las grandes corporaciones y participe de manera activa en el debate abierto sobre la gestión de los mismos.

* David Gómez-Ullate Oteiza es investigador en la Universidad de Cádiz y coautor del libro Big data de la colección ¿Qué sabemos de? (CSIC-Catarata).

La ‘huella olfativa’: ¿es posible identificar a una persona por su olor?

Por Laura López Mascaraque (CSIC) *

Hace cien años, Alexander Graham Bell (1847-1922) planteaba lo siguiente: “Es obvio que existen muchos tipos diferentes de olores (…), pero hasta que no puedas medir sus semejanzas y diferencias, no existirá la ciencia del olor. Si eres ambicioso para encontrar un tipo de ciencia, mide el olor”. También decía el científico británico: “Los olores cada vez van siendo más importantes en el mundo de la experimentación científica y en la medicina, y, tan cierto como que el Sol nos alumbra, es que la necesidad de un mayor conocimiento de los olores alumbrará nuevos descubrimientos”.

A día de hoy la ciencia continúa investigando el olfato y sus posibles aplicaciones. De momento sabemos, al menos, que detectar y clasificar los distintos tipos de olores puede ser extremadamente útil. El olfato artificial, también llamado nariz electrónica, es un dispositivo que pretende emular al sistema olfativo humano a fin de identificar, comparar y cuantificar olores.

Los primeros prototipos se diseñaron en los años sesenta, aunque el concepto de nariz electrónica surge en la década de los ochenta, definido como un conjunto de sensores capaces de generar señales en respuesta a compuestos volátiles y dar, a través de una adecuada técnica de múltiples análisis de componentes, la posibilidad de discriminación, el reconocimiento y la clasificación de los olores. El objetivo de la nariz artificial es poder medir de forma objetiva (cuantitativa) el olor. Se asemeja a la nariz humana en todas y cada una de sus partes y está formada por un conjunto de sensores que registran determinadas señales como resultados numéricos, y que un software específico interpreta como olores a través de algoritmos.

Los sensores de olores –equivalentes a los receptores olfativos situados en los cilios de las neuronas sensoriales olfativas del epitelio olfativo– están compuestos por materiales inorgánicos (óxido de metal), materiales orgánicos (polímeros conductores) o materiales biológicos (proteínas/enzimas). El uso simultáneo de estos sensores dentro de una nariz electrónica favorece la respuesta a distintas condiciones.

Comentábamos en otro texto en este mismo blog cómo se puede utilizar el olfato, y en particular el artificial, en el área de la medicina (mediante el análisis de aliento, sudor u orina), para el diagnóstico de enfermedades, sobre todo infecciones del tracto respiratorio. De hecho, en la actualidad se está estudiando la posibilidad de desarrollar y aplicar narices electrónicas para detectar la presencia o no del SARS-CoV-2 en el aliento de una persona, y ayudar así en el diagnóstico de la Covid-19. Pero lo cierto es que su desarrollo podrá tener otras muchas aplicaciones: seguridad (detección de explosivos y drogas, clasificación de humos, descubrimiento de agentes biológicos y químicos), medioambiente (medición de contaminantes en agua, localización de dióxido de carbono y otros contaminantes urbanos o de hongos en bibliotecas), industria farmacéutica (mal olor de medicamentos, control en áreas de almacenamiento) y agroalimentación (detección de adulteración de aceites, maduración de frutas, curación de embutidos y quesos).

De la ‘huella olorosa’ a la odorología criminalística

Las nuevas generaciones de sensores también pueden servir para detectar ese olor corporal personal conocido como huella aromática u olfativa. Esta podría llegar a identificar a una persona como ocurre con la huella digital. Helen Keller (1880-1968) esbozó la idea de que cada persona emite un olor personal, como una huella olfativa única e individual. Para ella, que se quedó sordociega a los 19 meses de edad a causa de una enfermedad, esta huella tenía un valor incalculable y le aportaba datos como el oficio de cada una de las personas con las que tenía relación. Y no se trata del perfume, sino que cada uno de nosotros tenemos un olor particular, un patrón aromático, compuesto por secreciones de la piel, flora bacteriana y olores procedentes de medicamentos, alimentos, cosméticos o perfumes. Este patrón podría emplearse, en el futuro, para la identificación personal e incluso en investigación criminalística para la localización de delincuentes.

 

Ilustración de Lluis Fortes

Ilustración de Lluis Fortes

La odorología criminalística es una técnica forense que utiliza determinados medios y procedimientos para comparar el olor de un sospechoso con las muestras de olor recogidas en el lugar del crimen. De hecho, en algunos países se permite usar como prueba válida la huella del olor. Así mismo, científicos israelíes están desarrollando una nariz electrónica que pueda detectar la huella aromática de seres humanos a nivel individual como si se tratase de una huella digital. Este olor particular está determinado genéticamente y permanece estable a pesar de las variaciones en el ambiente y la dieta. Por tanto, el olor proporciona un rastro reconocible de cada individuo que puede detectarse por la nariz, por un animal entrenado o utilizando instrumentos químicos más sofisticados.

Las narices electrónicas están todavía lejos de imitar el funcionamiento del olfato humano, pero para algunas aplicaciones este último tiene algunos inconvenientes, como la subjetividad en la percepción olfativa, la exposición a gases dañinos para el organismo o la fatiga y el deterioro que implica la exposición constante a estas pruebas. Por tanto, las narices electrónicas resultan un mecanismo rápido y confiable para monitorizar de forma continua y en tiempo real olores específicos.

* Laura López Mascaraque es investigadora del Instituto Cajal del CSIC y autora, junto con José Ramón Alonso, de la Universidad de Salamanca, del libro El olfato de la colección ¿Qué sabemos de? (CSIC -Catarata).

 

 

¿Es posible “oler” una enfermedad?

Por Laura López Mascaraque (CSIC)*

Aunque el olfato es el más desconocido de los sentidos, es bien sabido que los olores pueden provocar reacciones emocionales, físicas y mentales. Así, algunos olores desagradables y penetrantes, denominados hedores, se han asociado históricamente tanto a la muerte como a la transmisión de enfermedades.

Antes de que se comenzaran a perfeccionar los medios de investigación médica a partir del siglo XVIII, el análisis del olor y color de la orina era el recurso más empleado en el diagnóstico. Desde la Edad Media existían ruedas de orina, divididas en 20 colores posibles, con categorías olfativas que marcaban analogías entre estos caracteres y la dolencia. Los pacientes llevaban la orina en frascos de cristal transparente y los médicos, además de observarla, basaban su diagnóstico también en su sabor. En 1764, el inglés Thomas Willis describió como muy dulce, similar a la miel, la orina de una persona diabética, por lo que a esta enfermedad se la denominó Diabetes mellitus, e incluso durante un tiempo se la llamó enfermedad de Willis.

Rueda de orina medieval que se utilizaba para la realización de uroscopias

Rueda de orina medieval que se utilizaba para la realización de uroscopias.

Hay otras anécdotas curiosas, como la “enfermedad del jarabe del arce”, una patología rara de origen metabólico así llamada por el olor dulzón de la orina de los pacientes, similar al de este alimento. En otros casos, la orina puede oler a pescado si se padece trimetilaminuria (o síndrome de olor a pescado), mientras que el olor a levadura o el olor a amoniaco se debe a la presencia de determinadas bacterias.

El cirujano francés Landré-Beauvais (1772-1840) recomendaba a los médicos memorizar los diferentes olores que exhalaban los cuerpos, tanto sanos como enfermos, a fin de crear una tabla olfativa de las enfermedades para elaborar un primer diagnóstico. En concreto, él y sus seguidores entendían que la halitosis es uno de los signos del empacho e intentaban descubrir determinadas enfermedades por las alteraciones del aliento. Pensaban que algunas patologías tenían un determinado olor, es decir, hacían emanar del cuerpo del paciente compuestos orgánicos volátiles específicos. No les faltaba razón, y aunque hoy día el uso del olfato en la práctica médica ha desaparecido, sabemos que el patrón aromático que desprende una persona enferma es distinto al de una sana:

  • Un aliento con olor afrutado se manifiesta a medida que el organismo elimina el exceso de acetona a través de la respiración, lo que puede ocurrir en caso de diabetes.
  • Un aliento que huele a pescado crudo se produce por un trastorno del hígado (insuficiencia hepática).
  • Un aliento con olor a vinagre es desprendido por algunos pacientes con esquizofrenia.
  • El olor similar al amoniaco (parecido a la orina) suele ser signo de insuficiencia renal o infección en la vejiga.

El análisis moderno del aliento empezó en la década de 1970, cuando el doble premio Nobel de Química (1954) y de la Paz (1962) Linus Pauling detectó por cromatografía de gases más de doscientos compuestos orgánicos volátiles, aunque en la actualidad sabemos que por nuestra boca podemos exhalar más de tres mil compuestos. Entre las pruebas de aliento más conocidas actualmente destacan la que se realiza para detectar la presencia de la bacteria Helicobacter pylori, responsable de úlceras e inflamación del estómago y de la gastritis; las pruebas de alcoholemia que identifican la presencia de etanol y acetaldehído; y las que detectan óxido nítrico como predictivo del asma infantil.

Del olfato canino a las narices electrónicas

Existen indicios de que perros bien entrenados pueden detectar tumores cancerígenos a partir del aliento y las heces. Distintos laboratorios intentan descubrir algún elemento común de los diferentes tumores y, dado que estos animales poseen una enorme capacidad de discriminación odorífera, incluso con olores extremadamente parecidos en su composición química, están siendo entrenados para que, oliendo la orina de los pacientes, puedan indicar o predecir la existencia de cáncer de próstata, pulmón y piel. Una vez se conozcan los tipos de compuestos segregados por las células tumorales que identifican los perros, se podrán desarrollar narices electrónicas para complementar la práctica clínica.

Las narices electrónicas utilizan sensores químicos de vapores (gases) para analizar algunos compuestos orgánicos volátiles que se exhalan en el aliento. Esperamos que, en un futuro próximo, esta identificación electrónica de los olores permita establecer biomarcadores que contribuyan al diagnóstico precoz de diferentes tipos de asma, diabetes, cáncer o enfermedades tropicales como hidatidosis, leishmaniasis y dengue.

De hecho, en la actualidad, se está estudiando la posibilidad de desarrollar narices electrónicas para ayudar en el diagnóstico de la enfermedad Covid-19 a través del aliento de una persona, a fin de detectar la presencia o no del SARS-CoV-2. El paso previo imprescindible será identificar los compuestos orgánicos volátiles propios de esta enfermedad. También, varios estudios a nivel internacional han reportado una asociación directa de la pérdida abrupta del olfato y/o gusto (anosmia/ageusia) como un síntoma temprano común de esta enfermedad. Por ello, varias asociaciones médicas, y en distintos países, han apuntado que la anosmia podría ser un buen marcador de presencia en casos asintomáticos. Además, parece que este síntoma también podría indicar que la infección por SARS-CoV-2 no será tan severa.

 

Laura López Mascaraque es investigadora del Instituto Cajal del CSIC y autora, junto con José Ramón Alonso, de la Universidad de Salamanca, del libro El olfato de la colección ¿Qué sabemos de? (CSIC-Catarata).

10 experimentos con luz para hacer en casa: crea un arcoíris en tu habitación, monta un microscopio casero o descubre cómo funciona la fibra óptica

Por Mar Gulis (CSIC)

Estos días de confinamiento muchas personas estamos aprovechando para, al fin, hacer limpieza y poner un poco de orden en casa, ese espacio en el que últimamente pasamos todo el tiempo. Llega el momento de deshacerse de cosas: CDs antiguos que aún conservamos a pesar de no tener dispositivos para ver su contenido, cajas o cartones que acumulábamos esperando darles un nuevo uso o, incluso, algún esmalte de uñas que se ha quedado un poco seco y ya no vamos a utilizar.

Pero, antes de desechar definitivamente estos y otros objetos, ¿por qué no darles una nueva oportunidad y pasar con ellos un rato entretenido? Eso es lo que te proponemos en este post: sacarles partido para descubrir de manera sencilla y amena los espectaculares efectos que tiene la luz.

Si hace unas semanas te animábamos a realizar experimentos relacionados con el agua y sus propiedades, esta vez te invitamos a jugar y aprender con la luz. Es tan fácil como descargar de manera gratuita diez fichas de experimentos de la web del CSIC y seguir sus sencillas instrucciones e ilustraciones, que te permitirán entender, y también enseñar a los más pequeños de la familia, conceptos y propiedades de la luz.

¿Qué puedes conseguir con estos experimentos? Cosas tan variadas como crear imágenes de tres dimensiones como si de un holograma se tratase, desmentir que el blanco sea un color y argumentarlo sin problemas o construir un espectroscopio casero con el que observar los espectros de colores que se dibujan con diferentes fuentes de luz.

Holograma creado durante una actividad de la Semana de la Ciencia del IOSA Student Chapter en el Instituto de Óptica del CSIC. Juan Aballe/Cultura Científica CSIC

Además, gracias a estos experimentos podrás conocer cómo funcionan tecnologías que nos facilitan mucho la vida –sobre todo en estos días de confinamiento–, como los láseres o la fibra óptica. También tendrás la oportunidad de fabricar un microscopio casero y observar con él una gota de agua ampliada hasta 10.000 veces para ver lo que se mueve en su interior. Seguramente te sorprenda lo que podemos encontrar en una muestra de saliva de nuestra boca y en el agua que beben nuestras mascotas, la que se filtra tras regar las plantas o la que podemos recoger de cualquier charco que se forme tras la lluvia; pero también podrás entender en qué consiste la convergencia de la luz.

Además de sacar ese lado curioso que todos llevamos dentro, estos experimentos te ayudarán también a entender y asimilar conceptos complejos, como la reflexión y refracción de la luz, la dispersión de los rayos de luz o el funcionamiento de las cámaras oscuras, que supusieron uno de los primeros pasos en el mundo de la fotografía.

¿Quién no se ha maravillado al observar un arcoíris o un hermoso atardecer? ¿Quién no se ha quedado hipnotizado viendo el baile de una vela o el crepitar del fuego de una chimenea? ¿Y qué decir cuando una pajita parece partida dentro de un vaso de agua? Si eres de los que siente curiosidad por estas cosas y quieres saber por qué ocurren, ponte manos a la obra y encuentra las respuestas que buscas.

Un universo de luz

Estas fichas de experimentos forman parte de los recursos elaborados por el Consejo Superior de Investigaciones Científicas (CSIC), con ayuda de la Fundación Española para la Ciencia y la Tecnología (FECYT), en el marco del Año internacional de la luz 2015. Si después de hacer los experimentos te quedas con ganas de saber más, siempre puedes descargar otros materiales elaborados durante esta conmemoración, como la exposición Un Universo de luz, que incluye impresionantes imágenes y textos divulgativos, y las unidades didácticas para diferentes niveles educativos que la acompañan.

Para conocer otros materiales que el CSIC pone a tu disposición para aprender ciencia desde casa de una manera divertida, pincha aquí.