BLOGS
Ciencia para llevar Ciencia para llevar

CURIOSIDADES CIENTÍFICAS PARA COMPARTIR

Entradas etiquetadas como ‘cultura científica’

Las legumbres, aliadas en la lucha contra el cambio climático

Por Mar Gulis

Las legumbres son un alimento muy popular en nuestro país por su alto valor nutricional (pese a que su consumo está decayendo en los últimos años). Quizás menos conocido es que con ellas se producen harinas como sustituto del cacao, como el algarrobo, o que sus raíces se utilizan como especias (por ejemplo, el regaliz). Muchas legumbres se emplean además como alimento para animales (alfalfa, veza y trébol) o para la producción de principios activos medicinales, aceites, tinturas y fibras, entre otros productos. Como consecuencia, las leguminosas se encuentran entre los cultivos más importantes a nivel mundial, solo detrás de los cereales. Pero además las legumbres pueden ser aliadas en la lucha contra el cambio climático. Tal y como cuentan los autores del libro de divulgación Las legumbres (CSIC-Catarata), la clave está en que ayudan a fijar el nitrógeno orgánico, uno de los nutrientes, después del agua, más necesarios para el crecimiento de las plantas.

Cartel de la FAO realizado con motivo del Año Internacional de las Legumbres 2016.

En agricultura es muy habitual el uso de abonos nitrogenados. Sin embargo, además de su elevado coste, estos abonos tienen consecuencias medioambientales, ya que una cantidad significativa de ellos son emitidos al aire como óxido de nitrógeno, uno de los gases causantes del efecto invernadero y que, mezclado con el vapor de agua, produce la lluvia ácida. Su sustitución no es baladí si recordamos que, según el Panel Intergubernamental de Expertos sobre el Cambio Climático de la ONU, la agricultura es responsable de cerca del 14% de las emisiones globales de gases de efecto invernadero, un volumen similar al originado por el transporte.

El nitrógeno atmosférico es la forma más abundante de nitrógeno. Los únicos organismos capaces de transformarlo en nitrógeno orgánico son aquellos que poseen la enzima nitrogenasa. Estos organismos pueden realizar la transformación en solitario o en asociación con otros organismos, principalmente con plantas. En este sentido, la asociación simbiótica más importante se da entre unas bacterias del suelo denominadas rizobios y plantas de la familia leguminosae, de las que forman parte las legumbres. Su unión aporta cerca del 80% del total del nitrógeno atmosférico fijado de forma biológica.

La interacción leguminosa-bacteria y el establecimiento de la simbiosis son procesos de gran complejidad en los que intervienen numerosos factores estructurales, bioquímicos y genéticos. El establecimiento de la simbiosis comienza con el reconocimiento entre un rizobio determinado y su planta hospedadora, que consiste en un intercambio de señales químicas que activan recíprocamente programas genéticos específicos. El resultado exitoso de esta interacción es la formación de un órgano nuevo en la planta, el nódulo, donde se lleva a cabo la fijación biológica del nitrógeno atmosférico. La Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) calcula que las leguminosas pueden llegar a fijar entre 72 y 350 kilos de nitrógeno por hectárea y año.

Este proceso, además de ayudar al crecimiento de la planta, mejora la calidad nutricional de los suelos. Ese suelo queda ‘abonado’ y sigue siendo útil para cultivos posteriores, lo que permitirá a su vez reducir el uso de fertilizantes nitrogenados.

Además de enriquecer los suelos, incluir legumbres en los cultivos reduce el riesgo de erosión y aumenta su potencial de absorción de carbono. Igualmente, las leguminosas soportan mejor los climas extremos y son más resistentes que otros cultivos. Por su amplia diversidad genética permiten obtener variedades mejoradas capaces de adaptarse mejor a condiciones climáticas adversas. ¿Se les puede pedir más?

Mucho más sobre estas plantas en el libro Las legumbres  (CSIC – Catarata), coordinado por Alfonso Clemente y Antonio M. de Ron, de la Estación Experimental del Zaidín del CSIC y la Misión Biológica de Galicia del CSIC, respectivamente.

Matrix acústico: una habitación donde el sonido nunca vuelve

Mar Gulis (CSIC)

Quizá recordéis la mítica escena de Matrix (1999) en la que Morfeo (Laurence Fishburne) y Neo (Keanu Reeves) aparecen en una habitación en blanco, que resulta ser un programa en el que pueden simular la realidad. “¿Esto no es real?”, pregunta Neo tocando un sillón. “¿Qué es real? ¿Cómo defines real?… Si hablas de lo que puedes sentir, de lo que puedes oler, probar y ver… lo real son impulsos eléctricos que tu cerebro interpreta”, le contesta el Guía al Elegido. Bien, en esta ocasión vamos a hablar de lo que puedes oír y de una habitación como la de Matrix, pero ubicada en el Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI) del CSIC, en Madrid.

Al cruzar la puerta, una tiene la impresión de entrar en un espacio muy peculiar. La sensación acústica es “la de estar colgado de un globo a 1.000 metros de altura”, explica el físico del CSIC del Grupo de Acústica Ambiental Francisco Simón. Y es así, todo sonido emitido en esta habitación nunca vuelve, queda absorbido por unas paredes, suelo y techo de grandes cuñas de lana de vidrio.

Cámara anecoica del Instituto Leonardo Torres Quevedo / CSIC Divulga.

Esta cámara anecoica (sin eco ni reverberación) de 220 metros cúbicos sirve para crear campos acústicos virtuales que, como en la habitación de Matrix, simulen una realidad sonora. Esto es muy útil para el diseño de salas de música, dado que pueden reproducir cómo sonaría un violín, por ejemplo, en un espacio antes de construir el recinto, para simuladores de juego, que intentan que te des la vuelta con el sonido de un libro que se cae detrás de ti, para el cine… Los primeros en usar este tipo de tecnología fueron los militares con simuladores de vuelo y la industria del automóvil, que tiene muy en cuenta cuál es el sonido que quiere que emitan sus vehículos.

Cuando se construyeron estas cámaras, en los ’70, esta instalación era absolutamente pionera. Ahora empresas como Google, Microsoft o Telefónica tienen sus cámaras anecoicas. En ellas, las compañías prueban las características acústicas de sus dispositivos, como la potencia o cantidad del sonido que emite cualquiera de sus aparatos, y la directividad, es decir, en qué dirección lo hacen.

Y aquí, ¿podríamos escuchar el silencio total? “Tendríamos que congelarnos del todo para hacerlo”, bromea Simón. “Aquí está nuestro cuerpo, escuchamos el aire salir y entrar de los pulmones, nuestras tripas; si nos calláramos, escucharíamos nuestro corazón”, concreta.

Cámara reverberante del Instituto Leonardo Torres Quevedo / CSIC Divulga.

Cerca de esta cámara encontramos su opuesta: la habitación reverberante, un espacio en el que se busca que el sonido se expanda por todo el espacio y reverbere en todas direcciones. Para ello, hay colgados unos grandes paneles de metacrilato que producen el máximo número posible de reflexiones del sonido. Este espacio de 210 metros cúbicos se usa para sumergir en él materiales de construcción y caracterizarlos. Así, cuando un sonido llega a un material para edificación podemos ver si “rebota”, entra dentro y se disipa o lo traspasa y llega al otro lado. Por eso, aquí se realizan mediciones de absorción acústica de materiales y objetos de mobiliario.

En esta sala, solo escuchamos reverberación, no eco. La diferencia entre el eco y la reverberación es cuestión solo de tiempo: si el sonido tarda en volver menos de 50 milisegundos, lo percibimos como un sonido continuado, si tarda más, escuchamos dos sonidos; se produce el eco.

De hecho, ya en los años 60 y 70 se realizaron en este centro muchos estudios sobre aislamiento en la edificación: aislamiento al ruido aéreo de puertas, ventanas, barreras acústicas, suelos, techo, etc. No se trata de una cuestión baladí: una diferencia de 3 decibelios supone el doble de energía en el sonido que estábamos escuchando.

Por cierto, este mismo mes de octubre se cumplen diez años de la publicación de las condiciones acústicas exigidas en el Código Técnico de Edificación con las que se endurecieron las prestaciones acústicas que deben satisfacer los edificios, ofreciendo a constructores, administración y usuarios herramientas para que las viviendas que se construyen hoy día planteen menos problemas a sus habitantes y proporcionen un nivel de confort adecuado.

 

¿Qué son las misteriosas luces que aparecen a veces con los terremotos?

Por Arantza Ugalde (CSIC)*

El suelo de México no ha parado de temblar en los últimos días con fatales consecuencias. Durante el pasado 8 de septiembre muchas personas presenciaron la aparición de extraños fenómenos luminosos en el cielo nocturno durante el terremoto de magnitud 8.1 que afectó México. Fotografías y vídeos de estas luces, tiñendo las nubes de diferentes colores al paso de las ondas sísmicas, circularon por las redes sociales y medios de comunicación. No era la primera vez que los habitantes de Ciudad de México observaban este raro fenómeno. Con ocasión de los terremotos de Petatlán en 1979 (7.2) y de Michoacán en 1985 (8.0) también se observaron fuertes variaciones en la luminosidad del cielo.

Estos fenómenos componen lo que se denomina luminescencia sísmica. Las apariciones de estas ‘luces de terremoto’ o EQL (Earth Quake Lights en inglés) cerca del suelo durante un seísmo aparecen descritas desde la Antigüedad. Sus características son muy variadas: desde brillos difusos, destellos y resplandores, hasta objetos luminosos esféricos o lineales. Se observan principalmente durante el terremoto, aunque también en los instantes previos y posteriores a él. Su localización también varía, pudiendo producirse desde en la zona del epicentro hasta a cientos de kilómetros de ella, en la tierra o en el mar. El rango de magnitudes en el que se observa este fenómeno es también amplio, aunque normalmente ocurre en los terremotos de magnitud superior a 5. A pesar de esto, las EQL no acompañan a todos los terremotos y ocurren en muy raras ocasiones.

Imágenes de CCTV con EQL. / Municipalidad de Miraflores (Perú)

El irlandés Robert Mallet, considerado el padre de la sismología, publicó a mediados del siglo XIX un catálogo de observaciones sísmicas luminosas que cubrían testimonios desde el año 1606 a.C. hasta el 1842 d.C.  A principios del siglo XX, el sacerdote y naturalista italiano Ignazio Galli compiló un catálogo de seísmos relacionados con diferentes tipos de luminiscencia, ocurridos entre el año 89 a.C. y 1910. Las descripciones de los fenómenos luminosos incluían en muchas ocasiones elementos fantásticos y religiosos asociados a interpretaciones y tradiciones culturales de la época y el lugar.

Debido a la falta de datos comprobables, no ha sido hasta tiempos recientes cuando el fenómeno de la luminiscencia sísmica ha despertado el interés científico. Hace poco más de 50 años,  T. Kuribayashi, un fotógrafo amateur, captaba por primera vez con su cámara las imágenes de unos fenómenos luminosos inusuales que aparecieron en la zona sísmica de los terremotos ocurridos en Matsushiro (Japón) de 1965 a 1967. Desde entonces, ha continuado la recopilación de testimonios gráficos de estos fenómenos coincidentes con terremotos en diversas partes del mundo como Taskent, Uzbekistán (1966); Santa Rosa, California (1969); Haicheng, China (1975); Vrancea, Rumanía (1977); Saguenay, Canadá (1988); Izmit, Turquía (1999); Pisco, Perú (2007); o L’Aquila, Italia (2009).

Imágenes de T. Koribayashi de las EQL. / Arantza Ugalde

Las observaciones son numerosas, pero examinadas individualmente algunas pueden resultar cuestionables. Así, algunos fenómenos luminosos con esas mismas características también han podido ocurrir en la misma zona sin coincidir con ningún terremoto.

La luminiscencia puede explicarse en muchos de los casos como auroras polares, otros fenómenos ionosféricos (dínamo ionosférica electrochorro ecuatorial), nubes noctiluentes (compuestas de cristales de agua helada), relámpagos, etc. En el caso del reciente terremoto de Pijijiapan (México), las luces observadas en el cielo nocturno pudieron deberse a cortocircuitos y pequeñas explosiones en los transformadores de la red eléctrica. Para otros casos, sin embargo, no se ha encontrado una explicación satisfactoria.

Actualmente no existe ninguna teoría que aclare completamente el fenómeno, que continúa siendo un tema controvertido a nivel científico. No obstante, se han publicado posibles explicaciones sobre la relación entre los terremotos y las EQL en revistas científicas cuyas teorías incluyen, entre otras, oscilaciones violentas del aire que provocan descargas eléctricas entre las capas bajas de la atmósfera y el suelo en condiciones geológicas favorables; el efecto piezoeléctrico (generación de electricidad por presión) en las rocas, la liberación de gas radón a la atmósfera, o las reacciones quimioluminiscentes debido a la emisión de gases inflamables de forma espontánea.

Quedan todavía muchas preguntas sin respuesta: ¿por qué la luminiscencia se manifiesta de formas tan diferentes?, ¿tiene relación con el proceso físico que generan los terremotos? Y, si es así, ¿cuál es? Será la ciencia la que deberá arrojar luz sobre este, aún, oscuro fenómeno.

 

* Arantza Ugalde es doctora en Ciencias Físicas e investigadora en el Instituto de Ciencias de la Tierra ‘Jaume Almera’ de Barcelona, del CSIC, y una de las autoras del libro Terremotos. Cuando la Tierra tiembla de la colección Divulgación.

 

¿Qué es la marea roja que afecta a algunas playas?

Por Elena Ibáñez y Miguel Herrero (CSIC)*

En La Jolla (San Diego, California), el mar adquiere un tono rojizo debido a las proliferaciones algales / Alejandro Díaz.

A veces, el mar cambia su tonalidad azul hacia el verde, el marrón, el rojo o el blanco. Este episodio, conocido como marea roja, se debe al crecimiento masi­vo de unas algas microscópicas: el fitoplancton. La proliferación masiva de las algas se produce cuando se dan condiciones ambientales favora­bles de luz, temperatura, salinidad y disponibilidad de nu­trientes. Bajo estas circunstancias, algunas algas pueden crecer y alcanzar concentraciones muy elevadas (del orden de miles o millones de células por litro) en comparación a su concentración natural en el ambiente (decenas o centenas de células por litro). A este suceso se le denomina prolife­ración algal y su color (si lo posee) dependerá del tipo de pigmento predominante del alga, así como de su concentración.

Muchas proliferaciones algales son beneficio­sas, ya que proporcionan alimento a peces y organismos marinos; sin embargo, algunas algas con características nocivas para otros seres vivos generan proliferaciones algales nocivas (PAN) o algal Bloom. Estas especies perjudiciales pueden impactar negativamente en la salud tanto del ser humano como de animales debido a la producción de potentes toxinas naturales y/o provocar graves pérdidas económicas y ecológicas. De entre las 5.000 especies descritas de fito­plancton marino, unas 300 son susceptibles de provocar proliferaciones capaces de cambiar el color del mar, y solo unas 60 pueden pro­ducir toxinas, algunas de ellas con un elevado potencial tóxico.

Los impactos de las PAN son diversos. Las algal Bloom asociadas a un elevado contenido en bio­masa suelen implicar la reducción del oxígeno disponible en el fondo de las aguas. Cuando la proliferación llega a su fin, las algas se hunden y son las bacterias quienes las descomponen y consumen todo el oxí­geno disponible en el agua, por lo que los peces y otros organismos no pueden respirar. Si las concentraciones de biomasa son tan grandes que las podemos ver a simple vista, la luz no podrá penetrar en la columna de agua, alcanzando solo la su­perficie. Esto provoca que otras plantas, fuente de alimento para muchos peces, no puedan crecer y se altere el hábitat natural.

Las algal bloom, también presentes en agua dulce, pueden ser una amenaza para los seres vivos que habitan en las aguas afectadas / Lamiot.

También existen especies que producen PAN con bajas concentraciones de biomasa y que pueden ser nocivas debido a la producción de biotoxinas paralizantes, diarreicas, amnésicas, etc., que provocan un envenenamiento con efectos sobre el sistema nervioso y digestivo de mejillones, almejas, navajas y otros organismos que se alimentan de fitoplancton. Por tanto, las toxinas pueden llegar a afectar al ser humano por ingesta de marisco contaminado.

Aunque los organismos responsables de las PAN existen desde hace siglos, ahora se observa una mayor actividad de los mismos. Esto puede ser debido, en parte, a que disponemos de mejores métodos de detección e identifica­ción de toxinas y más observadores pendientes de estos sucesos. Al mismo tiempo, la mayor parte de la comuni­dad científica cree que la polución y la actividad humana son responsables del aumento de las PAN. Sin embargo, no siempre existe una relación directa. En muchos casos, la introducción inicial de las especies tó­xicas se ha debido a corrientes oceánicas u otros fenómenos naturales como los huracanes. No obstante, no podemos obviar la relación entre un aumento en los nutrientes de las aguas costeras con la proliferación de algas que pueden originar los blooms. Algunos investigadores argumentan que los nutrientes que llegan a las aguas coste­ras, producto de las actividades humanas, son tan distintos a los que habría de forma natural que solo algunos grupos de algas ven favorecido su crecimiento, por su mejor capacidad de adaptación. Entre estos grupos se encuentran algunas de las especies responsables de las PAN, como el dinoflagelado Pfiesteria, cuya proliferación se ve fa­vorecida en aguas contaminadas.

También las crecientes áreas de recreo cos­teras (playas con espigones o puertos deportivos) dan lugar a zonas donde la tasa de renovación del agua es baja, una de las condiciones para que los blooms se desarrollen. Otro factor importante es la dispersión geográfica de especies tóxicas mediante embarcaciones de recreo, residuos de plásticos flo­tantes, etc. Pero tampoco hay que caer en el alarmismo. Aunque parece que las PAN son cada vez más comunes en nuestras playas, la mayoría de estas proliferaciones no son tóxicas y sólo producen un cambio de coloración en el agua. Esto puede resultar desagradable, pero no peligroso.

 

* Elena Ibáñez y Miguel Herrero trabajan en el Instituto de Investigación en Ciencias de la Alimentación (CSIC) y son autores del libro Las algas que comemos (CSIC-Catarata).

¿Se puede resolver el juego del ajedrez?

Por Razvan Iagar (CSIC)*

Cuando la gente me pregunta a qué me dedico, al responder que aparte de investigador en matemáticas soy un jugador activo de ajedrez en competiciones, me hacen preguntas como: “Pero, ¿no está el ajedrez ya resuelto?, ¿no hay ya máquinas que pueden dar la mejor jugada?”. Voy a dar respuesta a estas cuestiones, argumentando por qué el ajedrez no solo no está acabado, sino que goza de muy buena salud y tiene un gran futuro por delante.

Por “resolver el ajedrez” entendemos establecer una estrategia óptima para jugar la partida; es decir, encontrar el camino que contiene las mejores jugadas tanto para las blancas como para las negras, desde el principio, o desde cualquier posición dada, hasta el final. En un sentido más débil, también podemos entender por “resolver el juego” el hecho de predecir el resultado óptimo (con el mejor juego posible) de una partida. Es decir, a partir de la posición inicial, cuál de los tres resultados posibles -victoria de las blancas, victoria de las negras o el resultado de tablas- es el resultado del juego óptimo de un encuentro entre dos jugadores perfectos sin exponer necesariamente la estrategia óptima.

Tan solo a través de fuerza bruta de cálculo, ninguna máquina puede resolver en la actualidad el ajedrez

Se trata de un problema abierto que ha surgido a partir del desarrollo de los programas informáticos de ajedrez. Pero esta cuestión ya se ha intentado solucionar antes. Claude Shannon, ‘el padre de la teoría de la información’, explicó en un artículo en 1950 la tarea de una máquina para analizar todas las variantes posibles de jugadas y concluyó que “una máquina operando con una tasa de una variante por microsegundo necesitaría un tiempo de 1090 años para calcular todas las posibilidades desde la primera jugada”. Shannon argumenta así que, tan solo a través de fuerza bruta de cálculo, ninguna máquina razonable podrá completar esta tarea.

Más recientemente, en 2007, se ha podido resolver el juego de las damas, emparentado con el ajedrez, pero con una complejidad mucho menor, sobre todo porque aquí todas las piezas son idénticas -tienen el mismo valor-, mientras que en el ajedrez las piezas tienen valores y capacidades diferentes. El equipo investigador liderado por el canadiense Jonathan Schaeffer, experto en inteligencia artificial, pudo comprobar que en las damas siempre se acaba en tablas si no se comete ningún error por parte de ninguno de los dos jugadores. El esfuerzo computacional para analizar de forma exhaustiva todas las posiciones ha tomado 18 años, utilizando en algunos periodos incluso 200 ordenadores conectados trabajando en paralelo y sin pausa, para analizar un número de posiciones del orden de 1014. ¡Todo un esfuerzo!

En 2007 se resolvió el juego de las damas.

Sin embargo, se trata un esfuerzo no extrapolable al ajedrez, ni en el aspecto de la capacidad computacional necesaria, ni en cuanto a método de demostración. Si miramos la complejidad del ajedrez desde el punto de vista del número total de partidas posibles que se pueden jugar (lo que en términos de la teoría de juegos recibe el nombre de ‘complejidad del árbol del juego’, game-tree complexity) alcanzamos un número muy grande, del orden de 10123. Esta estimación se deduce usando un cálculo basado en dos aproximaciones: que el número medio de jugadas completas de una partida es de 40 y que, en cada paso, el número medio de jugadas legales disponibles es de 35. El mismo Jonathan Schaeffer opina que solo después del establecimiento de una nueva tecnología de cálculo —ordenadores cuánticos— tendría sentido intentar ponerse a la tarea de resolver este juego milenario.

Por otro lado, el método de demostración que ha funcionado en las damas falla completamente en nuestro caso debido a los valores y capacidades diferentes de las piezas, y también por la existencia de algunas piezas con características especiales como el rey, cuyo mate acaba la partida en cualquier momento, incluso con todas las demás piezas en el tablero; o el peón, cuya coronación hace que reaparezcan en el tablero piezas más fuertes que posiblemente habían desaparecido antes en el transcurso de una partida. Así pues, no se puede establecer una base de finales de partidas con, por ejemplo, un número máximo de 10 piezas, de tal manera que cualquier partida tenga que pasar por una de esas posiciones. En efecto, un jaque mate puede ocurrir mucho antes de haber llegado a una situación de menos de 10 piezas en el tablero. Este razonamiento sencillo demuestra que es necesario tener la capacidad de analizar todas las posiciones posibles, sin simplificaciones.

Por todas estas razones, aunque el reto de resolver -o no- el ajedrez queda abierto (no hay una demostración matemática o lógica formal de que este hecho sea imposible), la mayoría de los especialistas consideran que no hay nada que indique una posibilidad práctica de llegar a una solución. Ni siquiera en el sentido débil, es decir, predecir el resultado sin decir las jugadas, a corto o medio plazo. Así pues, los maestros y aficionados pueden estar tranquilos: ¡el juego tiene todavía mucho futuro!

*Razvan Iagar es investigador del CSIC en el Instituto de Ciencias Matemáticas (ICMAT) de Madrid y autor del libro Matemáticas y ajedrez, de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

‘Nanobásculas’ para pesar virus y bacterias en la detección de enfermedades

Por Eduardo Gil Santos, Alberto Martín Pérez y Marina López Yubero  (CSIC)*

Cada virus y bacteria tiene una masa diferente. El simple hecho de poder pesarlos nos permitiría identificarlos y distinguirlos y, con ello, detectar de forma altamente precoz las enfermedades que provocan. Los recientes avances en nanotecnología han permitido la creación de unos nuevos dispositivos, los sensores nanomecánicos, que actúan como básculas a escala nanométrica, permitiendo detectar estos objetos con una precisión mucho mayor que los métodos convencionales de diagnóstico de estas enfermedades.

Cuerdas de ukelele

Los nanosensores vibran como las cuerdas de una guitarra para detectar virus y bacterias.

La detección de estas partículas mediante sensores nanomecánicos se obtiene estudiando los cambios en su vibración. Estos sensores vibran igual que las cuerdas de una guitarra: cuando pulsamos una cuerda de una guitarra, esta vibrará y las ondas se transmitirán por el aire, lo que percibiremos como sonido. Además, si unimos un objeto a la cuerda, esta pesará más y, en consecuencia, su movimiento será más lento, lo que dará lugar a un sonido más grave. Esta diferencia en el tono del sonido se puede relacionar directamente con la masa del objeto unido. De la misma manera, los sensores nanomecánicos vibrarán más lentamente cuando se une a ellos una partícula (virus o bacteria). Esto se comprueba fácilmente adhiriendo un pequeño imán a un diapasón. Sin embargo, en estos sensores las vibraciones no son perceptibles por el oído y se necesitan métodos ópticos muy avanzados (similares a los utilizados en la detección de ondas gravitacionales, pero a escala nanométrica) para detectar estos cambios en la vibración del sensor.

Bacteria en nanosensor

Imagen de microscopía electrónica de barrido de una bacteria E. coli sobre un sensor nanomecánico con forma de micropalanca. El peso de esta bacteria es de 300 femtogramos (0,0000000000003 gramos, diez mil millones de veces menos que una hormiga).

Estos dispositivos también permiten medir otra propiedad muy interesante de las partículas depositadas: la rigidez. Conocer la rigidez de las partículas biológicas (virus, bacterias o células) puede ser de gran utilidad, ya que, por una parte, la rigidez junto con la masa permite una identificación todavía más precisa de los distintos virus o bacterias. Asimismo, podría permitir diferenciar entre células cancerígenas y sanas, ya que se ha descubierto que aunque ambas tienen una masa similar (lo que no permite distinguirlas a través de su masa), muestran una rigidez distinta: las células cancerígenas son menos rígidas que las células sanas. Por último, medir la rigidez de los virus hace posible distinguir su estado de maduración y conocer su capacidad infecciosa.

El grupo de Bionanomecánica del Instituto de Micro y Nanotecnología del CSIC desarrolla este tipo de dispositivos desde hace más de diez años. En la actualidad, este grupo lidera una serie de proyectos financiados por la Unión Europea (ViruScan, LiquidMass, Nombis) que contribuirán a la implantación definitiva de estas tecnologías a nivel clínico. En tan solo cinco años, estos sensores se probarán en países empobrecidos con gran riesgo de epidemias para la detección de los virus que producen fiebres hemorrágicas.

Al mismo tiempo, el equipo trabaja en el desarrollo de nuevas tecnologías para la comprensión y detección precoz de muchas otras enfermedades (distintos tipos de cáncer, Alzhéimer, etc.). En un futuro no muy lejano, este tipo de sensores estarán implantados directamente en el interior de nuestro cuerpo, preparados para detectar cualquier infección en el mismo momento de contraerla, lo que permitirá actuar contra ella de manera mucho más eficaz.

 

* Eduardo Gil Santos, Alberto Martín Pérez y Marina López Yubero son personal investigador del CSIC en el grupo de Bionanomecánica del Instituto de Micro y Nanotecnología.

¿Influyen nuestras bacterias en la forma en que nos comportamos?

Por Mar Gulis (CSIC)

Imagina un villano que logra controlar la voluntad de la gente mediante la manipulación de su microbiota intestinal, es decir, el conjunto de microorganismos –en su mayoría bacterias– que habitan en nuestro intestino y nos ayudan a digerir los alimentos. Tore Midtvedt, del Instituto Karolinska de Estocolmo, sugirió en clave de humor que éste podría ser el argumento de una novela negra. Cuentan la anécdota Carmen Peláez y Teresa Requena, investigadoras del CSIC, en su libro La microbiota intestinal (CSIC-Catarata). Tal y como señalan en la obra, hoy existe un creciente interés en torno a ese fascinante eje cerebro-intestino-microbiota.

Una parte de la comunidad científica está investigando la relación bidireccional que se da entre la microbiota y el funcionamiento del cerebro o incluso nuestros comportamientos. Se trata de un campo sumamente interesante, pero también muy complejo. La pregunta que espera respuesta es “si podemos conceder a los microorganismos cierto papel como participantes en nuestra inconsciencia”, que a su vez imperceptiblemente puede dictar nuestra conducta, señalan Peláez y Requena.

Las investigadoras recogen en el libro algunos ejemplos de esta tesis. John Cryan y Timothy Dinan, de la Universidad de Cork (Irlanda), sostienen que “las bacterias influyen en nuestro comportamiento alimentario”. Desde esta perspectiva, “la microbiota lanzaría alguna señal al cerebro para informarle de que le aporte tal o cual tipo de nutrientes, que son los que habitualmente ingerimos y a los que se ha adaptado su metabolismo”. Es más, el que nos apetezcan determinados alimentos se debe a la ‘expectativa de recompensa’ (el placer anticipado que nos aporta la elección), algo que depende de los niveles de dopamina en el cerebro. Y precisamente “algunas bacterias como H. pylori modulan la producción de dopamina y, por tanto, los niveles de recompensa. ¿Estaría esta bacteria del estómago diciéndonos qué es lo que nos apetece comer?”, se preguntan las investigadoras.

Helicobacter Pylori es una de las bacterias que habitan en nuestro estómago KGH / Wikipedia

Pero las relaciones entre el cerebro y la microbiota pueden ser más sofisticadas. Algunos autores consideran que esos millones de microorganismos serían capaces de manipular otros comportamientos. Por ejemplo, “influir en nuestro estado de ánimo a través de la serotonina, conocida como hormona de la felicidad, o tener el papel contrario y producir malestar o incluso dolor”. Peláez y Requena aluden a estudios recientes que han vinculado el estrés de los recién nacidos que sufren de cólicos con un desequilibrio intestinal producido por una pérdida de diversidad bacteriana.

Y aún más sorprendente es la siguiente hipótesis que plantean: la posibilidad de que las bacterias puedan manipular los comportamientos sociales, es decir, “nuestras preferencias para relacionarnos incluso sexualmente o para vivir en grupos sociales”. Las investigadoras se refieren a la mosca del vinagre, un insecto que, a la hora de aparearse, parece estar influido por la bacteria Lactobacillus plantarum, ubicada en su tracto intestinal. “Aparentemente esta bacteria produce metabolitos a partir de la fermentación del almidón que ingiere la mosca y que inducen la producción de feromonas, influyendo así en sus preferencias sexuales de apareamiento al solo elegir moscas que también ingieren almidón. Podríamos decir que la bacteria ayuda a la mosca a buscar pareja y, además, una pareja con sus mismos gustos alimentarios”.

Ahora bien, ¿se pueden extrapolar estas teorías a los seres humanos? Según algunos expertos, sí. Concretamente, las investigadoras citan a Michael Lombardo, de la Universidad Grand Valley (EE UU). Este autor defiende que la evolución de los seres vivos invertebrados y vertebrados hacia el comportamiento gregario y social “no ha respondido solo a la necesidad común de defensa, optimización de recursos alimentarios o crianza de la prole. Podría existir también otro factor más sutil como la necesidad de transmisión interindividual de una microbiota beneficiosa que aporta múltiples beneficios”.

Peláez y Requena coinciden en que, teniendo en cuenta los beneficios nutricionales y protectores que la microbiota intestinal nos aporta y la facilidad de transmisión vertical y horizontal en el ámbito familiar y social, estas teorías también pueden ser válidas para la especie humana. No obstante, advierten, “aún hay que profundizar en los mecanismos concretos por los que la microbiota afecta a la salud humana y a nuestro comportamiento”.

Acabar con los incendios es antinatural e insostenible

* Por Juli G. Pausas (CSIC)

Para que se produzca un incendio forestal se requieren tres condiciones: una ignición que inicie el fuego, un combustible continuo e inflamable, y unas condiciones de propagación adecuadas. ¿Se dan estas tres circunstancias en nuestros ecosistemas?

Empecemos por el final, las condiciones de propagación. Una de las principales características del clima mediterráneo es que la estación más seca coincide con la más cálida (el verano), cosa que no se da en la mayoría de los climas del mundo. En verano se genera un periodo relativamente largo con unas condiciones de elevadas temperaturas y baja o nula precipitación, que son ideales para que, si hay un incendio, se propague fácilmente. Además, no es raro tener días de viento relativamente fuerte, seco y cálido (por ejemplo, los ponientes en la costa valenciana) que facilitan aún más los grandes incendios.

Las tormentas de verano actúan como fuente de ignición e inician incendios forestales / D. Maloney.

La siguiente condición es la existencia de un combustible continuo e inflamable. En la mayoría de los ecosistemas ibéricos, la vegetación es lo suficientemente densa y continua como para que, si hay un incendio en verano, pueda extenderse a grandes superficies. Esto es aplicable tanto a los bosques como a la gran diversidad de matorrales que encontramos en nuestro territorio. De manera que la vegetación mediterránea forma lo que a menudo se llama el combustible de los incendios forestales. No hay que olvidar que este combustible está compuesto por una gran diversidad de seres vivos que tienen detrás una larga historia evolutiva; son parte de nuestra biodiversidad. Esta continuidad en la vegetación era especialmente evidente antes de que los seres humanos realizaran esa gran fragmentación que se observa actualmente en nuestros paisajes, principalmente debida a la agricultura, pero también a las abundantes vías y zonas urbanas.

Pero con una vegetación inflamable y unos veranos secos no es suficiente para que haya incendios, se requiere una ignición inicial. Hoy en día, la mayoría de igniciones son generadas por personas, ya sea de manera voluntaria o accidental. Pero, ¿hay igniciones naturales? La respuesta es . A menudo tenemos tormentas secas en verano, cuando las condiciones de propagación son óptimas, de manera que los rayos generados por estas tormentas pueden actuar como fuente de ignición e iniciar un incendio forestal. Tenemos muchos ejemplos de incendios generados por rayos (la mayoría sofocados rápidamente por los bomberos); y en los meses de verano, la Agencia Estatal de Meteorología (AEMET) detecta miles de rayos potencialmente capaces de generar igniciones (ver mapa).

31-07-2015, localización de 12.835 rayos que se registraron durante 6 horas en la Península Ibérica. / AEMET.

Por lo tanto, las tres condiciones arriba mencionadas se dan de manera natural en nuestros ecosistemas, y por lo tanto podemos afirmar que sí hay incendios naturales. Pero, ¿cuántos?

Las estadísticas de incendios actuales nos dicen que los generados por rayos son una minoría, comparado con la gran cantidad de incendios provocados por el ser humano. ¿Podría esta minoría de incendios por rayo representar la cantidad de los incendios esperables en condiciones naturales? La respuesta es no. Una gran cantidad de rayos cae en suelo sin vegetación combustible (zonas agrícolas y urbanas) y por lo tanto no producen los incendios que producirían en unas condiciones más naturales. La mayoría de las igniciones en el monte generadas por rayos son apagadas por los bomberos forestales cuando aún son sólo conatos o incendios muy pequeños. Nuestros bomberos apagan la inmensa mayoría de las igniciones; sólo un porcentaje muy pequeño se escapa y se transforma en los incendios que aparecen en los medios. Además, de los incendios que realmente progresan, la mayoría son más pequeños de lo que sería esperable en condiciones más naturales, porque los apagan los bomberos o porque se detienen en zonas no inflamables (zonas agrícolas, urbanas, cortafuegos, etc.). Como consecuencia, las estadísticas de incendios por rayos, ya sea en número de incendios o en área afectada, no reflejan la importancia que tendrían los incendios en condiciones naturales, sino que los subestiman. Algunos de los incendios que actualmente se dan por actividad humana, en realidad están sustituyendo a incendios naturales.

Es decir, en unos paisajes más naturales (con menos presión humana) que los actuales, sería de esperar que hubiese menos incendios porque habría muchas menos igniciones (la elevada población actual genera la mayor parte) pero, en muchos casos, esos incendios podrían ser más grandes. El balance probablemente sería de menos áreas afectadas por el fuego, pero sí habría incendios frecuentes. A todo esto hay que añadir que actualmente estamos alterando el clima, de manera que la estación con incendios tiende a ser más larga y las olas de calor más frecuentes. Todo ello incrementa la actividad de los incendios.

Incendio en el Parque Nacional Bitterroot, Montana (EE.UU.) . / John McColgan.

En definitiva, lo importante es saber si el régimen de incendios actual y futuro es ecológica y socialmente sostenible teniendo en cuenta el cambio climático. Eliminar los incendios es imposible, antinatural y ecológicamente insostenible. Nuestra sociedad ha de aceptar la existencia de incendios, aprender a convivir con ellos, adaptar las estructuras y los comportamientos, y gestionar las zonas semiurbanas, los paisajes rurales, las plantaciones forestales y los parques naturales para que el régimen de incendios sea ecológica y socialmente sostenible. Todo ello sin olvidar que lo normal es que un día puedan ser sorprendidos por un incendio.

* Juli G. Pausas trabaja en el Centro de Investigaciones sobre Desertificación (CIDE) del CSIC y es autor del libro Incendios forestales de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

La ayahuasca: un brebaje chamánico convertido en reclamo turístico

Por José Antonio López Sáez (CSIC)*

Entre algunos colectivos urbanos cercanos a la filosofía New Age, la ayahuasca ha adquirido cierta notoriedad en nuestros días. Sin embargo, debido a sus efectos psicoactivos, en numerosos pueblos indígenas del Amazonas su uso religioso y ritual tiene miles de años de historia y aún se mantiene en países con cierta libertad de culto. Fuera de este contexto, la venta, distribución y consumo del antiguo brebaje están penados por las leyes internacionales.

Preparación de la ayahuasca. / Awkipuma.

La ayahuasca es una liana o bejuco del Amazonas, Banisteriopsis caapi, de la familia malpigiáceas. Esta vigorosa enredadera habita en las selvas de Bolivia, Brasil, Colombia, Ecuador, Perú y Venezuela. Pero la ayahuasca es también una bebida chamánica que se elabora cociendo a fuego lento porciones de tronco de caa­pi y hojas del arbusto conocido como chacruna (Psychotria viridis). El término ‘ayahuasca’ deriva de dos palabras quechua: aya (muerto) y huasca (soga); por eso, al caapi también se le conoce como soga de los muertos, enredadera de las almas u ombligo de la tierra. Los efectos alucinógenos de esta bebida se deben fundamentalmente a un alcaloide triptamínico pre­sente en ambas especies, dimetiltriptamina o DMT, aunque Banisteriopsis caapi también cuenta con otros β-carbolínicos como harmina, te­trahidroharmina y harmalina.

Vid de ayahuasca en Iquitos (Perú). / Apollo.

Su uso ritual está ligado a la cosmovisión de las tribus indígenas amazónicas, que consideran al yagé –otro de sus nombres comunes– una planta sagrada, espiritual y medicinal capaz de provocar visiones y cambios perceptuales notables. De hecho, se está considerando seriamente su uso terapéutico fren­te a trastornos psiquiátricos de tipo depresivo, así como en el tratamiento de problemas de adicción. En algunos lugares de la selva amazónica están prospe­rando clínicas de desintoxicación mediante tratamientos con ayahuasca. Incluso existen centros que publicitan experiencias extraordinarias con esta droga visionaria y que se ofre­cen dentro de paquetes turísticos por medio de agencias de viajes. Sin entrar en la veracidad de los tratamientos, que en algunos casos han sido constatados como muy beneficio­sos y efectivos mediante ensayos clínicos, lo cierto es que este tipo de turismo está alentando una concepción del mito de la ayahuasca muy diferente y alejada de que la que tuvieron y tienen los chamanes amazónicos. Algunos de ellos incluso han llegado a formar parte de este mercado, renunciando así a la vertiente ritual y espiritual en pos de otra exclusivamente lúdica o recreativa.

Los chamanes amazónicos consideran a la ayahuasca como un vehículo para contactar con los espíritus y el mundo sobrenatural, permitiéndoles a su vez ejercer un poder sanador diagnosticando las causas de las enferme­dades y estableciendo la cura preceptiva. La ayahuasca les dicta los cánticos ceremoniales o ícaros que deben entonar, y los conduce a estados alte­rados de conciencia plagados de visiones que los acercan a un estado de muerte del que renacen como personas nuevas. Visiones que recrean seres ancestrales, míti­cos y sobrenaturales, inclusive con formas animales entre las que predominan los felinos.

Mapa de las zonas de cultivo de ayahuasca. / ayahuasca.com

Los efectos derivados del consumo de ayahuasca com­prenden tres fases. En la primera aparecen síntomas como mareos, salivación, temblor, náuseas, aumenta la pre­sión arterial y la frecuencia cardiaca y se entra ya en un estado alterado de la conciencia, con los primeros efectos psicodéli­cos. A continuación se intensifican los cambios visuales, con visiones de tipo cósmico o místico, fenómenos de tipo geomé­trico y caleidoscopios de colores. Finalmente, el chamán o un potencial consumidor entran en un profundo estado de introspección muy emotivo, donde las ideas fluyen y la me­moria se conserva. También son frecuentes las sinestesias: se escuchan colores y la música fluye como ondas rítmicas en for­ma de extrañas nubes que flotan sobre el cuerpo.

Es importante señalar que la DMT por sí sola, ingerida por vía oral, resulta prácticamente inactiva, pues se degrada muy rápidamente en los intestinos y el hígado; de ahí que ne­cesite las β-carbolinas, que inhiben la enzima que degrada la DMT, para ejercer su efecto alucinógeno. Inhalada, fumada o inyectada, la DMT provoca efectos a los pocos minutos, si bien estos duran menos de una hora.

* José Antonio López Sáez es investigador del Instituto de Historia del CSIC y autor del libro Los alucinógenos de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

¿Se pueden clasificar los olores?

Por Laura López Mascaraque (CSIC)* y Mar Gulis (CSIC)

En los últimos años nos han llegado noticias de la posible existencia de nuevos sabores. A los que ya nos son conocidos (dulce, salado, amargo, ácido y umami), se van sumando otros como el ‘oleogustus’ o sabor a grasa o el ‘sabor a almidón’ de los alimentos ricos en carbohidratos o azúcares complejos. No obstante, ninguno de estos sabores está confirmado, dado que todavía no se han descubierto receptores específicos en la lengua que los identifiquen. Pero, ¿qué pasa con los olores? Ambos sentidos, el gusto y el olfato han estado siempre muy ligados. Somos capaces de detectar infinidad de olores, eso es cierto, pero, ¿somos capaces de definirlos? ¿Percibimos todos los humanos los mismos olores y nos provocan a todos la misma sensación?

De los cinco sentidos, el olfato es el más desconocido, pero también el más primitivo, el más directo, el que más recuerdos evoca y el que perdura más en nuestra memoria. Nos da información de nuestro mundo exterior; aunque con frecuencia esto sucede de forma inconsciente. Cuando olemos, las moléculas emitidas por una determinada sustancia viajan por el aire y llegan a las neuronas sensoriales olfativas, situadas en la parte superior de la nariz, que son las responsables de reconocer el olor y hacer una conexión directa entre el mundo exterior y el cerebro.

El olfato es el sentido más primario. / Christoph Schültz.

El mecanismo es el siguiente: en nuestra nariz se encuentra el epitelio olfativo donde hay millones de células denominadas neuronas sensoriales olfativas.  En los cilios que tienen estas neuronas (receptores olfativos) es donde ocurre la interacción entre el compuesto volátil y el sistema nervioso. Las moléculas de olor encajan en los receptores olfativos como una llave en una cerradura. Cuando esto ocurre, se libera una proteína y tras una serie de acontecimientos se crea una señal que finalmente es procesada por el encéfalo. Parece un mecanismo relativamente sencillo, pero si tenemos en cuenta que nuestra nariz conserva aproximadamente 400 tipos de receptores olfativos o que las neuronas olfativas se renuevan constantemente a lo largo de nuestra vida, la única población neuronal donde esto sucede, la cosa se complica.

En nuestra cultura el valor que se le atribuye al sentido del olfato es muy bajo. Es casi imposible explicar cómo huele algo o describir cómo es un olor a alguien que carece de olfato, que es anósmico. Ya que no existe un nombre para un olor determinado, es generalmente el objeto lo que da nombre a ese olor: a limón, a jazmín…pero, ¿existe alguna clasificación? A lo largo de la historia los olores se han tratado de clasificar de diferentes maneras. Platón ya distinguía entre olores agradables y desagradables y, más adelante, el naturalista Linneo distinguía hasta siete tipologías de olores basándose en que los olores de ciertas plantas nos evocan olores corporales o recuerdos. Así, teníamos olorosas o perfumadas, aromáticas, fuertes o con olor a ajo, pestilentes o con olor a cabra o sudor, entre otras. En 1895, Zwaardemaker agregó a la lista de Linneo dos olores (etéreo y quemado) y en 1916, Hans Henning presentó un diagrama en forma de prisma donde colocaba seis olores básicos en la base y olores intermedios en las aristas y caras. John Amoore, ya en el siglo XX, clasificaba siete olores primarios en la naturaleza basándose en el tamaño y forma de sus moléculas: alcanfor, almizcle, menta, flores, éter, picante y podrido.

Ninguna de estas clasificaciones ha llegado a aceptarse universalmente. Una de las más recientes utiliza métodos matemáticos y, tras el estudio de 144 olores, los clasifica en diez categorías: fragante/floral, leñoso/resinosa, frutal no cítrico, químico, mentolado/refrescante, dulce, quemado/ahumado, cítrico, podrido y acre/rancio. Sin embargo, probablemente ninguna de estas clasificaciones representa las sensaciones primarias verdaderas del olfato. Los aromas son mezcla de olores primarios formados por diferentes compuestos químicos y cada estructura molecular confina un olor propio. Hasta la orientación de las moléculas afecta a su olor, ya que cuando una molécula es quiral o espejo (sin eje de simetría), en una forma huele a una cosa y en su forma especular, a algo distinto. Este es el caso de la carvona, que puede oler a comino o a menta según su orientación, o del limonelo, que asociamos a la naranja o al limón.

Esquema funcional de olor. / Lluis Fortes.

A estas alturas ya habrá quedado claro que es muy complejo llegar a una clasificación concreta y a gusto de todos. Además hay que tener muy en cuenta la importancia de la componente social, cultural y personal de los olores. Al percibir determinados olores, estos evocan imágenes, sensaciones o recuerdos. Esto se debe a que el olfato forma parte del llamado sistema límbico, el centro de emociones del cerebro, formado por varias estructuras que gestionan las respuestas fisiológicas ante estímulos emocionales.

La información olfativa se procesa en la corteza olfatoria primaria, que tiene una conexión directa con la amígdala y el hipocampo. Dado que la amígdala está relacionada con la memoria emocional y el hipocampo con la memoria y el aprendizaje, ambos tienen un potencial enorme para evocar recuerdos. Los recuerdos asociados a olores no son tanto hechos o acontecimientos, como las emociones que estos olores pudieron haber provocado en nosotros en un momento determinado de nuestras vidas.

En definitiva, el olfato tiene unas implicaciones sociales y emocionales muy importantes: determinados olores pueden cambiar nuestro humor, despertar emociones o evocar recuerdos ¿Podremos llegar en un futuro a poder guardar olores en alguna ‘caja de recuerdos’? Esto nos permitiría destaparlos y desencadenar un torrente de emociones en todos los sentidos.

* Laura López Mascaraque es investigadora del Instituto Cajal  del CSIC y autora, junto con José Ramón Alonso de la Universidad de Salamanca, del libro El olfato de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.