Archivo de junio, 2017

¿Se pueden clasificar los olores?

Por Laura López Mascaraque (CSIC)* y Mar Gulis (CSIC)

En los últimos años nos han llegado noticias de la posible existencia de nuevos sabores. A los que ya nos son conocidos (dulce, salado, amargo, ácido y umami), se van sumando otros como el ‘oleogustus’ o sabor a grasa o el ‘sabor a almidón’ de los alimentos ricos en carbohidratos o azúcares complejos. No obstante, ninguno de estos sabores está confirmado, dado que todavía no se han descubierto receptores específicos en la lengua que los identifiquen. Pero, ¿qué pasa con los olores? Ambos sentidos, el gusto y el olfato han estado siempre muy ligados. Somos capaces de detectar infinidad de olores, eso es cierto, pero, ¿somos capaces de definirlos? ¿Percibimos todos los humanos los mismos olores y nos provocan a todos la misma sensación?

De los cinco sentidos, el olfato es el más desconocido, pero también el más primitivo, el más directo, el que más recuerdos evoca y el que perdura más en nuestra memoria. Nos da información de nuestro mundo exterior; aunque con frecuencia esto sucede de forma inconsciente. Cuando olemos, las moléculas emitidas por una determinada sustancia viajan por el aire y llegan a las neuronas sensoriales olfativas, situadas en la parte superior de la nariz, que son las responsables de reconocer el olor y hacer una conexión directa entre el mundo exterior y el cerebro.

El olfato es el sentido más primario. / Christoph Schültz.

El mecanismo es el siguiente: en nuestra nariz se encuentra el epitelio olfativo donde hay millones de células denominadas neuronas sensoriales olfativas.  En los cilios que tienen estas neuronas (receptores olfativos) es donde ocurre la interacción entre el compuesto volátil y el sistema nervioso. Las moléculas de olor encajan en los receptores olfativos como una llave en una cerradura. Cuando esto ocurre, se libera una proteína y tras una serie de acontecimientos se crea una señal que finalmente es procesada por el encéfalo. Parece un mecanismo relativamente sencillo, pero si tenemos en cuenta que nuestra nariz conserva aproximadamente 400 tipos de receptores olfativos o que las neuronas olfativas se renuevan constantemente a lo largo de nuestra vida, la única población neuronal donde esto sucede, la cosa se complica.

En nuestra cultura el valor que se le atribuye al sentido del olfato es muy bajo. Es casi imposible explicar cómo huele algo o describir cómo es un olor a alguien que carece de olfato, que es anósmico. Ya que no existe un nombre para un olor determinado, es generalmente el objeto lo que da nombre a ese olor: a limón, a jazmín…pero, ¿existe alguna clasificación? A lo largo de la historia los olores se han tratado de clasificar de diferentes maneras. Platón ya distinguía entre olores agradables y desagradables y, más adelante, el naturalista Linneo distinguía hasta siete tipologías de olores basándose en que los olores de ciertas plantas nos evocan olores corporales o recuerdos. Así, teníamos olorosas o perfumadas, aromáticas, fuertes o con olor a ajo, pestilentes o con olor a cabra o sudor, entre otras. En 1895, Zwaardemaker agregó a la lista de Linneo dos olores (etéreo y quemado) y en 1916, Hans Henning presentó un diagrama en forma de prisma donde colocaba seis olores básicos en la base y olores intermedios en las aristas y caras. John Amoore, ya en el siglo XX, clasificaba siete olores primarios en la naturaleza basándose en el tamaño y forma de sus moléculas: alcanfor, almizcle, menta, flores, éter, picante y podrido.

Ninguna de estas clasificaciones ha llegado a aceptarse universalmente. Una de las más recientes utiliza métodos matemáticos y, tras el estudio de 144 olores, los clasifica en diez categorías: fragante/floral, leñoso/resinosa, frutal no cítrico, químico, mentolado/refrescante, dulce, quemado/ahumado, cítrico, podrido y acre/rancio. Sin embargo, probablemente ninguna de estas clasificaciones representa las sensaciones primarias verdaderas del olfato. Los aromas son mezcla de olores primarios formados por diferentes compuestos químicos y cada estructura molecular confina un olor propio. Hasta la orientación de las moléculas afecta a su olor, ya que cuando una molécula es quiral o espejo (sin eje de simetría), en una forma huele a una cosa y en su forma especular, a algo distinto. Este es el caso de la carvona, que puede oler a comino o a menta según su orientación, o del limonelo, que asociamos a la naranja o al limón.

Esquema funcional de olor. / Lluis Fortes.

A estas alturas ya habrá quedado claro que es muy complejo llegar a una clasificación concreta y a gusto de todos. Además hay que tener muy en cuenta la importancia de la componente social, cultural y personal de los olores. Al percibir determinados olores, estos evocan imágenes, sensaciones o recuerdos. Esto se debe a que el olfato forma parte del llamado sistema límbico, el centro de emociones del cerebro, formado por varias estructuras que gestionan las respuestas fisiológicas ante estímulos emocionales.

La información olfativa se procesa en la corteza olfatoria primaria, que tiene una conexión directa con la amígdala y el hipocampo. Dado que la amígdala está relacionada con la memoria emocional y el hipocampo con la memoria y el aprendizaje, ambos tienen un potencial enorme para evocar recuerdos. Los recuerdos asociados a olores no son tanto hechos o acontecimientos, como las emociones que estos olores pudieron haber provocado en nosotros en un momento determinado de nuestras vidas.

En definitiva, el olfato tiene unas implicaciones sociales y emocionales muy importantes: determinados olores pueden cambiar nuestro humor, despertar emociones o evocar recuerdos ¿Podremos llegar en un futuro a poder guardar olores en alguna ‘caja de recuerdos’? Esto nos permitiría destaparlos y desencadenar un torrente de emociones en todos los sentidos.

* Laura López Mascaraque es investigadora del Instituto Cajal  del CSIC y autora, junto con José Ramón Alonso de la Universidad de Salamanca, del libro El olfato de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

La mala hierba ¿nace o se hace?

* Por José Manuel Martín (CSIC)

Pocos grupos de estudio dentro de la ecología y la agricultura son bautizados con un término tan contundente y negativo como las malas hierbas. Cuando hablo del objeto de nuestro trabajo con amigos, no falta la rápida respuesta tirando de refranero: «mala hierba nunca muere». Incluso a veces los más centrados solicitan la pócima mágica que acabe con esas molestas plantitas que invaden su huerto vecinal.

En las definiciones dadas por los expertos, queda claro el carácter subjetivo y antropocéntrico del concepto. La European Weed Research Society (EWRS) en 1986, y después la Sociedad Española de Malherbología (SEMh), definen las malas hierbas como «toda planta o vegetación que interfiere con los objetivos o las necesidades del hombre». Por tanto, además de en huertos y cultivos, colocamos a la mala hierba obstruyendo viales y acequias o malogrando el césped de cualquier instalación deportiva. Las características que definen a estas plantas pioneras son tener más de un ciclo vital por año, órganos subterráneos con los que regenerarse, producciones muy altas de semillas, rápido crecimiento y pronta floración… Del número de ‘habilidades’ que presente depende que nos encontremos ante una planta con alto potencial como mala hierba.

Borago officinalis y Portulaca oleracea. / Sonja Schlosser y Frank Vincentz

De las 250.000 especies vegetales que existen, se calcula que un 3% actúan como malas hierbas. Así, aunque pueda parecer que cualquier especie tiene el potencial de interferir con nuestros intereses, la realidad es que hay características que predisponen a este 3% a manifestar un comportamiento pernicioso. Podríamos traducir más de una veintena de estos atributos fisiológicos en un único rasgo ecológico: la capacidad para colonizar y desarrollarse con éxito en hábitats perturbados. No hay que olvidar que nuestras protagonistas ya estaban aquí mucho antes de que existieran cultivos, caminos, acequias y campos de fútbol. Simplemente hemos puesto a su alcance entornos con una fuerte antropización que favorecen su carácter colonizador.

Así pues, una mala hierba lo es en la medida que afecta al ser humano, sin ser algo intrínseco a la biología de la planta. De hecho, especies catalogadas como malas hierbas y que pueden ocasionar pérdidas en huertos y cultivos, como la borraja (Borago officinalis), son a la vez cultivadas de manera habitual para su consumo. Y vamos más allá. Según el The world’s worst weeds -algo así como la biblia de las especies nocivas para la agricultura-, en el top ten de las malas hierbas, encontramos la verdolaga (Portulaca oleracea), que resulta habitual en las fruterías de Portugal.

El caso más paradójico se da cuando una especie de cultivo ya cosechada, por ejemplo una cebada, se presenta como hierba no deseada en otro cultivo posterior sobre el mismo terreno. Esta situación se designa con el término de ‘ricio’. ¿Podríamos deducir por tanto que la cebada en este caso es una mala hierba? Sí, sin duda.

‘Campo de trigo con cuervos’. / Vincent Van Gogh

Las malas-buenas hierbas

Parece una contradicción intentar resaltar aspectos positivos de algo que se califica como malo en su denominación, por eso nos deberíamos referir a este grupo vegetal con un término sin carga peyorativa: plantas arvenses. Proteger el suelo de la compactación y erosión, servir de hábitat a enemigos naturales de las plagas, favorecer la presencia de polinizadores, ser utilizadas para fines medicinales y alimenticios son algunos de sus beneficios, además de su indudable valor paisajístico y social. ¿Cómo hubiera pintado Van Gogh ‘Campo de trigo con cuervos’ o Monet sus ‘Amapolas’?

Además, la presencia de arvenses contribuye a la biodiversidad y el equilibrio ecológico. Muchas veces ha sido el propio ser humano, en su afán de convertir los campos en factorías intensivas de producción alimentaria, el que ha creado el ‘monstruo’ de la mala hierba, provocando la irrupción de especies de difícil control a causa de la eliminación de especies compañeras que ejercían un control sobre aquellas.

Desde este punto de vista, se ha empezado a tomar conciencia de la necesidad de protección legal sobre las comunidades de arvenses. Gran Bretaña, en su Plan de Acción por la Biodiversidad de 1994, ya establece como uno de sus 46 hábitats prioritarios los Cereal field margin hap, definidos como «franjas de terreno entre los cultivos de cereal y el límite con la campiña, extendiéndose dentro del cultivo en una distancia concreta, manejada para favorecer a las especies objeto de conservación». No todo van a ser osos panda y flores inaccesibles de remotas cumbres en el conservacionismo.

 

* José Manuel Martín es técnico del departamento de Protección Vegetal del Instituto de Ciencias Agrarias (ICA) del CSIC.

Desertificación: cuando ya no hay marcha atrás

Por J.M. Valderrama (CSIC)*

Más de dos tercios del territorio español corren riesgo de desertificación. Tras esta afirmación, muchos de los lectores y lectoras pensarán que nuestro país se va a convertir en un secarral de tierras yermas y agrietadas, pero lo cierto es que esa imagen no es del todo correcta, ya que tendemos a confundir desiertos con desertificación. Mientras que un desierto es un tipo de ecosistema restringido a un territorio en el que se dan unas condiciones climáticas determinadas, la desertificación es un tipo de degradación ambiental propia de los territorios áridos, y es consecuencia de las variaciones climáticas, que se acentúan con el cambio climático, y las actividades humanas inadecuadas. Así lo especifica el artículo 1 de la Convención de Naciones Unidas de Lucha contra la Desertificación, firmada el 17 de junio de 1994, de ahí que el próximo domingo se celebre el Día Mundial de Lucha contra la Desertificación.

Este fenómeno se achaca a tres grandes motivos: el sobrepastoreo, la deforestación y las actividades agrarias inadecuadas, como el sobrecultivo y la salinización de suelos o aguas subterráneas. El abandono de las tierras de cultivo y el turismo son considerados como causas de desertificación dentro del ámbito Mediterráneo, según apuntan diversos autores. Pero, ¿cuáles son las causas de las causas? O dicho de manera más específica: ¿por qué se sobrepastorea un determinado lugar? ¿Qué lleva a intensificar el uso de las tierras de cultivo? En definitiva, ¿qué hace que las actividades humanas sean “inadecuadas”, como dice la definición oficial de desertificación?

Imagen de Tabernas, Almería. / Colin C Wheeler (CC 3.0).

El ser humano ha desarrollado estrategias para adaptarse a las zonas secas, en las que llueve poco y de manera impredecible. El truco para mantenerse en estos territorios es estar atento a las señales de escasez y adaptar las tasas de extracción de recursos (el pasto consumido, el agua extraída de los acuíferos, los árboles talados) a las de regeneración. El estereotipo que mejor refleja esta situación son los nómadas que siguen las erráticas lluvias y el pasto que brota tras su paso. Cuando la hierba se acaba, deshacen su campamento y buscan nuevos pastizales. La zona pastoreada volverá a ser productiva tras un periodo de regeneración.

En un sistema autorregulado (punto 1 en la figura) como el descrito no pueden darse episodios de desertificación. Pero más que vivir, se sobrevive. Por eso, cuando ocurre alguna perturbación que le es favorable (punto 2), el ser humano la aprovecha. Puede ser un periodo de lluvias extraordinario; o una novedad tecnológica que permita establecerse permanentemente en un territorio y vivir de un modo más desahogado e incluso con lujos hasta entonces impensables.

De repente el sistema aparenta ser más productivo (punto 3). Una subida del precio del trigo en los mercados internacionales puede convertir en un negocio redondo los rácanos campos de secano. En consecuencia, aumentan las tasas de extracción y se genera un sistema económico de mayor envergadura. Este nuevo equilibrio es muy precario, inestable. Tanto, que una vez que aparezcan las primeras señales de escasez -bien porque vuelvan las sequías o porque el ecosistema muestre los primeros síntomas de agotamiento- será necesario retraer el sistema económico a sus dimensiones originales (recorrido del punto 5 al 1). Sin embargo, puede suceder que la nueva situación haya desmantelado las antiguas vías de organización, y ya no sea posible la marcha atrás.

Estructura de los procesos de desertificación. / Los desiertos y la desertificación (CSIC-La Catarata).

En caso de mantener la sobreexplotación —porque deliberadamente se ignoran los síntomas de deterioro o porque no se perciben correctamente—, el sistema se dirige hacia unos umbrales que, a escala humana, son irreversibles como es el caso de pérdida de suelo fértil o salinización de los acuíferos. Este proceso de esquilmación en el que se sobrepasan puntos de no retorno se denomina, en el ámbito climático señalado, desertificación.

Ante la disyuntiva (punto 5) que sugiere este esquema, ¿por qué no detenemos la desertificación eligiendo la opción de regresar del punto 5 al 1 antes de que sea demasiado tarde? Hay tres razones, no necesariamente independientes, para entender -que no justificar- el camino destructivo del NO.

  1. El carácter oportunista resulta en una visión cortoplacista de la realidad. Esto implica maximizar el rendimiento económico en el menor tiempo posible, lo que no deja de ser un caso más de la Tragedia de los Comunes. Esta teoría afirma que cuando varios individuos explotan un recurso compartido limitado y actúan de manera independiente y motivados solo por el interés personal, terminan por arruinar ese recurso común, aunque a ninguno de ellos, ya sea como individuos o en conjunto, les convenga que tal destrucción suceda.
  2. La segunda explicación tiene que ver con la racionalidad limitada del ser humano, principio enunciado por el premio Nobel Herbert Simon y con la distorsión de las señales de escasez. Por un lado, nuestra mente tiende a simplificar las interacciones y elementos que componen un sistema y por otro el componente emocional interfiere en la interpretación de la información. Además, muchas veces ésta es escasa y confusa y no sabemos, a tiempo real, cual es el estado de un sistema. Puede que un acuífero se esté agotando y que al mismo tiempo los precios que se paguen por los productos que se riegan con ese recurso sean muy elevados e inciten a seguir bombeando agua.
  3. El coste de oportunidad. En muchas ocasiones la rentabilidad de las actividades alternativas a la que se realiza es tan baja que es preferible mantenerse en un uso poco productivo e insostenible. Por tanto, para aliviar la presión sobre unos recursos maltratados, han de implementarse políticas que favorezcan la versatilidad socioeconómica del lugar. El desarrollo de la industria agroalimentaria para amortiguar los períodos de crisis que afectan a los centros de producción agrícola es un buen ejemplo de esta estrategia.

Esta visión del problema incide en un hecho simple pero rotundo: la desertificación no consiste en el avance de los desiertos. El enemigo está en casa y para adelantarse al desastre, a que los paisajes empiecen a parecerse a un desierto, es necesario integrar las distintas políticas que afectan a los territorios (agricultura, gestión forestal, agua) y tratar de acoplar nuestras ambiciones a las reglas de la naturaleza. Pensemos con más amplitud de miras.

* J.M. Valderrama es investigador de la Estación Experimental de Zonas Áridas (EEZA) del CSIC y autor del libro Los desiertos y la desertificación de la colección ¿Qué sabemos de?, disponible en la Editorial CSIC y La Catarata. También escribe el blog Dando bandazos.

Neumáticos que se reparan solos: un sueño hecho realidad

Por Marianella Hernández (CSIC)*

Uno de los problemas a los que se enfrenta la sociedad en la actualidad es la cantidad de desechos plásticos. Entre ellos, se encuentra el gran número de cauchos utilizados en la fabricación de neumáticos para aeronaves, vehículos de carga y de pasajeros. Tras una larga vida, los neumáticos se convierten en inservibles y necesitan ser desechados.

Tradicionalmente estos materiales se venían depositando en vertederos al aire libre; con los riesgos medioambientales que esto conlleva debido a que no se descomponen fácilmente. Sin embargo, a partir de julio de 2006 y gracias a la entrada en vigor del Real Decreto 1619/2005 sobre gestión de neumáticos fuera de uso, ha quedado prohibido arrojarlos en los vertederos como medida para paliar el problema medioambiental.

cementerio de neumaticos

Cementerio de neumáticos.

Por ende, se han comenzado a explorar diferentes alternativas para la disposición de desechos de neumáticos, siendo el reciclado una de ellas. No obstante, de cerca de tres millones de toneladas que se lanzan cada año a la basura en Europa, solo en España se reciclan unas 200.000 toneladas. Nos preguntamos entonces ¿por qué es tan difícil reciclar neumáticos? Esta dificultad viene asociada a su complicada estructura y composición. Un neumático está formado por varios tipos de cauchos que han sido vulcanizados con azufre, además de filamentos de acero y fibras de nylon, poliéster o celulosa. Todos estos componentes deben ser separados y clasificados durante el proceso de reciclado. Adicionalmente, los neumáticos son materiales insolubles y estables térmicamente que no pueden ser reprocesados fácilmente, como sí lo son las botellas de agua o de bebidas gaseosas por ejemplo, que comúnmente consumimos y desechamos en los contenedores amarillos de reciclaje.

Es por ello que además de gestionar el reciclado de neumáticos, los fabricantes están investigando nuevos materiales que generen un impacto menor en el medioambiente. Así pues, los materiales auto-reparadores se presentan como otra alternativa para solventar el problema de la disposición de desechos de neumáticos. ¿En qué consisten estos materiales? Para entenderlo de manera sencilla, veamos ejemplos presentes en la naturaleza capaces de auto-repararse. Cuando una persona sufre algún daño en su piel, ésta se regenera mediante el proceso de cicatrización. A los lagartos después de cierto tiempo les crece alguna parte de su cuerpo que haya sido previamente cortada. Mientras que los tallos y ramas de los árboles se regeneran de manera espontánea después de ser podados.

Ciclo de reparación de un caucho natural.

Ciclo de reparación de un caucho natural.

Inspirados en estos mecanismos propios de la naturaleza, los neumáticos auto-reparadores buscan imitarlos, de manera que una vez que se pinchen o se rompan, las fisuras o daños creados se reparen una y otra vez, extendiendo el ciclo de vida regular de los mismos y contribuyendo a disminuir la cantidad de desechos generados. Un estudio reciente de la firma n-tech Research ha identificado el potencial comercial de los materiales auto-reparadores que están emergiendo de laboratorios industriales. La firma ha cuantificado la relevancia económica de estos materiales y ha proyectado un crecimiento de 2.500 millones de euros para el año 2020.

Actualmente, en el Instituto de Ciencia y Tecnología de Polímeros del CSIC estamos desarrollando materiales con inherente capacidad auto-reparadora, y estudiando la integración de materiales reciclados con nuevos sistemas de auto-reparación. La tecnología está basada en los enlaces de azufre presentes en el caucho que han sido previamente dañados y que son capaces de reformarse al aplicar temperatura por un tiempo determinado. Los resultados logrados son muy prometedores, alcanzando actualmente una capacidad reparadora de más del 70%.

En conclusión, creemos que el impacto global de estos desarrollos será extraordinario. El concepto de auto-reparación mejorará significativamente la seguridad y eficiencia energética de los materiales desarrollados por el ser humano. Además, la prolongada vida útil de los productos hechos con estos materiales inteligentes ayudará a solventar el problema de los desechos y disminuirá los costos de mantenimiento. Y quizás, en muy poco tiempo el sueño de tener neumáticos que se reparen solos sea una realidad.

*Marianella Hernández es investigadora del Instituto de Ciencia y Tecnología de Polímeros del CSIC.