Archivo de la categoría ‘Biomedicina y Salud’

¿Sabías que la herrumbre (si es muy pequeña) tiene muchos usos médicos?

Por Fernando Herranz (CSIC)*

El tamaño sí que importa y lo cierto es que la herrumbre, el hierro oxidado que puede terminar apareciendo en piezas metálicas al estar tiempo sometidas a las condiciones atmosféricas, deja de ser una molestia si la empleamos a escala nanométrica. No solo eso, sino que cuando su tamaño es muy pequeño –justo antes de llegar al mundo de los átomos y las moléculas– algunos compuestos de la herrumbre –hidróxidos y óxidos de hierro– pueden utilizarse para diagnosticar enfermedades o tratar el cáncer.

Herrumbre

No hay duda de que a escala macroscópica la herrumbre constituye un serio problema, tanto a nivel estético –cuando afecta a superficies pintadas– como estructural ­–ya que, si penetra en profundidad, el metal presenta una resistencia mecánica mucho menor–. Esto explica la variedad de productos que se venden para evitar la formación de herrumbre o facilitar su eliminación.

Sin embargo, compuestos como la magnetita, uno de los óxidos más presentes en la herrumbre, tienen numerosas aplicaciones en el ámbito de la nanotecnología. Esta rama de la ciencia consiste en la producción y manipulación de materiales a escala nanométrica, es decir, que tienen al menos una dimensión de alrededor de 100 nanómetros (nm). A esta diminuta escala, empezamos a ver cosas muy curiosas que hacen que el óxido de hierro presente nuevas propiedades.

Pero, ¿qué ocurre cuando un material como la magnetita se forma a escala nanométrica para que sea tan distinto a cuando nos lo encontramos en el día a día? La magnetita macroscópica es fuertemente magnética, un imán, para entendernos. Cuando ese material se tiene en, por ejemplo, una esfera (una nanopartícula) de un diámetro de 10 nm, pasa a mostrar una propiedad llamada superparamagnetismo. De forma muy simple; todos los ‘pequeños imanes’ que constituyen el material están orientados en el mismo sentido dentro de la esfera. Debido a su tamaño, a temperatura ambiente, estas nanopartículas en agua no presentan magnetismo ya que cada esfera está dando vueltas al azar, sin una orientación definida. Sin embargo, cuando se acerca un imán, todas las nanopartículas se orientan y producen una respuesta magnética muy intensa. Esta propiedad de poder ‘enceder y apagar’ su magnetismo tiene múltiples aplicaciones.

Cabeza resonancia magnética

Imagen de una cabeza humana obtenida por resonancia magnética.

Por ejemplo, en medicina. Las nanopartículas basadas en magnetita, o materiales relacionados como la maghemita, se usan en imagen médica, en técnicas como la imagen por resonancia magnética o la imagen de partículas magnéticas. En esta aplicación las nanopartículas se dirigen, una vez inyectadas, a la enfermedad que se quiere diagnosticar y, una vez allí, es posible detectarlas por la señal que producen. En la imagen por resonancia magnética lo que hacen las nanopartículas es modificar el comportamiento magnético de las moléculas de agua de nuestros tejidos. Los dos hidrógenos de la molécula de agua (H2O) son los responsables de la señal en esa técnica de imagen. Las nanopartículas de magnetita modifican la señal que se obtiene de esos hidrógenos; de esa forma permiten saber dónde se han acumulado las nanopartículas y, por tanto, dónde se encuentra la enfermedad. Otra ventaja de las nanopartículas para imagen por resonancia es que, según las condiciones en las que se produzcan, pueden hacer que la señal sea más brillante o más oscura, lo que ayuda al diagnóstico de distintas enfermedades.

Brújulas vivientes

El comportamiento magnético de estas nanopartículas también explica otra de sus aplicaciones más interesantes en el tratamiento del cáncer. La técnica se llama ‘hipertermia magnética’ y consiste en acumular las nanopartículas en el tumor para, una vez allí, aplicar un campo magnético desde el exterior y producir un calentamiento de las células tumorales que acabe con ellas. Dicho calentamiento es posible gracias a las propiedades magnéticas de este nanomaterial.

Cadena de magnetosomas en el interior de la bacteria

Cadena de magnetosomas en el interior de la bacteria. / Alicia Muela; Estibaliz Etxebarria (UPV/EHU).

No solo el ser humano se ha dado cuenta de la utilidad de las nanopartículas de magnetita: ¡las bacterias también lo saben! Algunos de estos microorganismos producen en su interior pequeñas nanopartículas de magnetita (y también algunos otros compuestos relacionados) que se disponen de forma alineada a lo largo de la bacteria; son los llamados magnetosomas. Pero, ¿qué ganan con esto las bacterias? La respuesta es la magnetorrecepción: la capacidad de detectar las líneas del campo magnético terrestre y, de esa manera, orientarse. De hecho, los microorganismos que producen magnetosomas en el hemisferio norte se ven atraídos por el sur magnético, mientras que aquellos en el hemisferio sur se ven atraídos por el norte magnético (es decir, se sienten atraídos por el imán más potente que ‘sientan’). Las bacterias se convierten en minúsculas brújulas vivientes gracias a la nanotecnología.

En resumen, en nanotecnología, el tamaño importa, y mucho. Un mismo material que a escala macroscópica presenta pocas propiedades interesantes, cambia completamente cuando se presenta en la escala de los nanómetros.

 

* Fernando Herranz dirige el Grupo de Nanomedicina del Instituto de Química Médica del CSIC y colaborador habitual del blog DCIENCIA.

¿Cuándo empezamos a sentir? Electricidad en los circuitos cerebrales

Por Óscar Herreras (CSIC)*

¿Sentimos lo mismo ante una misma situación? Es evidente que no. Cada objeto, emoción o concepto se graba en circuitos neuronales por la propia experiencia de cada individuo, y para esto no hay manuales, no hay genes. Pero, ¿qué entendemos por sentir? Como casi todos los conceptos que empleamos para definir el comportamiento humano, este también tiene su origen en la era precientífica, de ahí sus mil significados.

Etimológicamente, sentir significa dirigirse hacia donde nos indican los sentidos. Implica, por tanto, percepción y movimiento. ¡Casi nada! Las dos principales propiedades de la vida animal. Afortunadamente, hay una disciplina que estudia las funciones del sistema nervioso y nos las explica con el lenguaje común de la física: la neurofisiología. De ella aprendimos hace ya más de un siglo que todo lo que se percibe –sonidos, imágenes, olores– se traduce y se transmite en los circuitos nerviosos como actividad eléctrica. Desde el instante en que vemos un anuncio de chocolate hasta el momento en el que los músculos nos llevan a la tienda, todo es actividad eléctrica fluyendo por los circuitos neuronales. Esta puede ser la definición mínima de sentir. Y no es para menos: la electricidad es la clave de la vida.

Todas las células, no solo las neuronas, son bolitas de grasa que contienen electrolitos en su interior, como si fueran la batería de un coche. Buena parte de estas células son excitables, lo que les permite generar corriente. Las neuronas evolucionaron dominando este juego de una forma espectacular: pueden codificar en forma de impulsos eléctricos lo que percibimos del mundo exterior e interaccionar con él enviando órdenes a los músculos. Sin flujo eléctrico a través de los circuitos nerviosos no hay sensación, no hay movimiento. La electricidad es lo que diferencia a los circuitos vivos de los muertos, así de simple.

Circuitos de la corteza cerebral

Diversos tipos neuronales forman los complejos circuitos en la corteza cuya actividad eléctrica y funciones madurarán lentamente en la infancia. /López-Mascaraque, Instituto Cajal, CSIC

No obstante, ¿es esta la única función de la electricidad en el sistema nervioso? No, ni mucho menos. Recientemente, nuestro grupo ha mostrado que la actividad eléctrica de la corteza cerebral sensorial en roedores jóvenes, aunque es similar a la de los adultos, está generada por circuitos diferentes. Este hallazgo, publicado en Journal of Neuroscience, es relevante porque previamente sabíamos que los circuitos ya estaban formados a esa edad, y ahora podemos concluir que aún no están plenamente operativos. En este caso, se trataba de los circuitos que controlan las patas, y sabemos que en unos pocos días más, cuando el animal entrene un poco, la electricidad fluirá por sus circuitos como en un adulto. Esta maduración tardía de los circuitos corticales a medida que se usan revela un patrón de economía biológica.

Lejos de ser canales fijos de comunicación, los circuitos son extremadamente mutables, y es nuestra actividad diaria la principal promotora de sus adaptaciones. El entrenamiento es esencial. Los recién nacidos entrenan días, meses y años para adquirir nuevas funciones y capacidades, tiempo en el que la electricidad irá produciendo los cambios necesarios para que todos los segmentos del circuito sean activos y engranen perfectamente.

Corteza cerebral rata adolescente

Los circuitos de la corteza cerebral están organizados en estratos de neuronas diferentes. /Silvia Tapia, Instituto Cajal, CSIC

Suele decirse que hay un mapa genéticamente determinado de nuestros circuitos, y esto es correcto, pero solo en parte. Sin la electricidad, los circuitos no se forman o lo hacen de manera aberrante, como mostraron hace más de medio siglo los Nobeles Hubel y Wiesel al observar que, impidiendo la visión de un ojo unos pocos días tras el parto, los circuitos de la corteza visual eran aberrantes. Hallazgos más recientes muestran que la actividad eléctrica es imprescindible para activar los genes necesarios en la construcción de los circuitos. Así, en esta época en la que todo parece consecuencia de un plan genético determinado para cada especie y cada individuo, resulta que la energía eléctrica determina cuándo, cuánto y cómo se va a ejecutar ese plan. La electricidad no es solo la energía que permite a un organismo complejo ejecutar sus funciones, sino que además controla sus propios cambios estructurales para adaptarse al medio con el que tiene que interaccionar, y permite que este interactúe con nosotros generando electricidad en nuestros órganos sensoriales y cambios en nuestro sistema nervioso.

Medicina sin fármacos

Estudiar y catalogar la electricidad en el cerebro no es fácil; hay demasiados núcleos activos a la vez realizando gran cantidad de funciones. Sus cambios son tan rápidos que es muy difícil clasificarlos para interpretar qué información llevan, que función realizan y si es normal o patológica. Si hoy la ciencia pone el énfasis en las alteraciones moleculares y génicas como responsables de las patologías, algunos investigadores vemos la electricidad como la causa última, y ya vislumbramos el día en que un conocimiento exhaustivo de la actividad eléctrica en los circuitos nos permita interactuar con ellos para reconducir las anomalías estructurales que causan las deficiencias. Aquí está una de las posibles claves de la investigación futura. Medicina sin fármacos. Sabemos que la actividad eléctrica debe seguir un patrón preciso para generar cambios en la estructura, tanto a nivel celular como en los circuitos. Ya hace décadas que se está empleando estimulación eléctrica con patrones temporales muy precisos para tratar la epilepsia y la enfermedad de Parkinson, y ahora se están desarrollando tecnologías para muchas otras patologías, como el alzhéimer o la migraña, o para restablecer funciones perdidas tras un ictus cerebral.

En definitiva, sentimos de manera diferente porque la actividad eléctrica fluye por distintas partes de nuestros circuitos, bien porque seamos un reptil o un primate, un embrión o un adulto, o bien porque usemos la parte reptiliana de nuestro cerebro o dejemos llegar la corriente eléctrica hasta la corteza. Así, si queremos comprendernos a nosotros mismos y nuestras patologías, seamos primates y estudiemos la actividad eléctrica del cerebro.

* Óscar Herreras es investigador del Instituto Cajal del CSIC.

¿Qué es la nanomedicina?

Por Fernando Herranz (CSIC)*

La nanomedicina consiste nada más (y nada menos) que en la aplicación de la nanotecnología para el diagnóstico y tratamiento de distintas enfermedades. Se trata de una rama de la medicina cuyo uso se está extendiendo a prácticamente todos los ámbitos de la salud, como la lucha contra el cáncer, las patologías cardiovasculares y las enfermedades raras; el desarrollo de nuevos antibióticos; o, como veremos, la mayoría de los test de embarazo que se realizan en la actualidad.

Spaghetti celulares

Células de tejido conectivo sobre material biomédico. / Álvaro A. González y Salvador D. Aznar (FOTCIENCIA12)

Pero, empecemos por el principio: ¿qué es la nanotecnología? Esta se puede definir como la producción, manipulación y estudio de la materia con, al menos, un tamaño en el rango de los 100 nanómetros (nm). Para hacernos una idea, el diámetro medio de un cabello humano es de unos 70.000 nanómetros. Estamos hablando por tanto de lo muy muy pequeño: la escala más pequeña antes de entrar en el mundo de las moléculas y los átomos.

¿Qué tiene de especial esa escala? ¿Por qué no hablamos simplemente de “micromedicina”? La clave está en que cuando confinamos la materia en la escala nanométrica los objetos se comportan de forma muy diferente a cómo lo hacen a escalas de tamaño mayores, debido a que en el nanomundo las propiedades fisicoquímicas de los materiales varían según su tamaño. Lo que podemos hacer con una partícula de dos nanómetros de un material es totalmente distinto a lo que podemos hacer con una partícula de 10 nanómetros del mismo material.

Estamos habituados a pensar que los compuestos químicos, como los principios activos de los medicamentos, muestran propiedades distintas cuando cambian su composición. Para explicarlo con un ejemplo muy simple: en el mundo macroscópico, si los compuestos químicos fueran fruta y quisiéramos obtener distintos sabores, lo haríamos utilizando distintas frutas: naranja para el sabor naranja, manzana para el sabor manzana, etc. De igual manera, el paracetamol sirve para el dolor, pero el antibiótico para la infección bacteriana. Sin embargo, en la escala nanométrica, el sabor no solo depende de la composición de un compuesto, sino también de su tamaño: una naranja de tres nanómetros de radio sabría completamente diferente a una naranja de ocho nanómetros de radio.

 

Nanopartículas de oro en los test de embarazo

Fijémonos por ejemplo en las nanopartículas de oro, uno de los materiales más empleados en nanomedicina. Cuando hablamos de nanomedicina, una de las herramientas más empleadas son precisamente las nanopartículas; esferas con un tamaño nanométrico.

A diferencia del oro que estamos acostumbrados a ver en el día a día, las nanopartículas de oro presentan una gama amplia de colores muy vivos que varían del rojo al morado según su tamaño. En esta variedad de colores radica la clave de una de sus aplicaciones: su uso como sensores. Un sensor se puede definir, de forma muy resumida, como un compuesto que da una señal y que, en presencia de aquello que queremos detectar, cambia dicha señal.

En el caso de las nanopartículas de oro, lo importante es que cuando se unen al compuesto que se trata de detectar, su superficie se modifica, cambian de tamaño y, por tanto, de color. Ese cambio puede ser observado a simple vista, lo que permite la identificación del compuesto en cuestión.

Nanopartículas de oro de tamaños diferentes dispersas en agua.

Nanopartículas de oro de tamaños diferentes dispersas en agua.

Hay multitud de usos médicos de las nanotpartículas de oro basados en su capacidad de cambiar de color, pero quizás el test de embarazo es el más conocido. En ese caso, la típica banda que aparece si el resultado es positivo, se debe al cambio de tamaño de las nanopartículas de oro que se produce solo si se unen a la hormona gonadotropina coriónica humana, cuya presencia determina si hay un embarazo.

Como en toda nueva tecnología, el tiempo dirá cuáles de los nuevos desarrollos se convierten en nuevas terapias al alcance de todos y cuáles se quedarán por el camino. Al menos, por el momento, podemos olvidarnos de las típicas imágenes de ciencia ficción donde pequeños robots circulan por la sangre haciendo distintas labores. Lo que está claro es que la nanomedicina ha venido para quedarse y que su uso abre un campo inmenso de posibles y revolucionarias aplicaciones destinadas a mejorar el diagnóstico y tratamiento de algunas de las enfermedades más difíciles de diagnosticar y tratar en la actualidad.

 

* Fernando Herranz dirige el Grupo de Nanomedicina del Instituto de Química Médica del CSIC y colaborador habitual del blog DCIENCIA.

¿Para qué sirve un láser?

Por José Vicente García Ramos (CSIC)*

Cuando se inventó, en 1960, el láser no servía para nada. De hecho, en aquellos tiempos algunos científicos se referían a él como “una solución en busca de problema”. Entonces, ¿para qué lo inventaron? Parece que querían probar, experimentalmente, que el mecanismo de amplificación de la luz por emisión estimulada, predicho por Einstein en 1917 y demostrado con microondas en 1954, podía extenderse a la luz visible.

Hoy, sin embargo, la situación es muy diferente y el láser ha encontrado tantas aplicaciones que nos resulta casi imposible enumerarlas. Las tres características que diferencian la luz de un láser de la luz del Sol o de la generada por una bombilla son que, en el caso del láser, se trata de un haz de luz monodireccional, monocromático y coherente.

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Cualquier láser contiene al menos tres elementos fundamentales: un medio activo, un sistema de bombeo y una cavidad resonante. El medio activo es el material (sólido, líquido o gaseoso) que emite la luz. Para que este medio activo emita luz hay que excitarlo de alguna manera, del mismo modo que el filamento de una bombilla necesita una corriente eléctrica que pase por él. En el caso de un láser se trata del sistema de bombeo, que puede consistir en otro láser, una lámpara convencional o una corriente o descarga eléctrica. El medio activo se coloca entre dos espejos que forman una cavidad resonante donde la luz rebota entre ellos y ayuda a la amplificación, como lo que ocurre en la caja de resonancia de una guitarra que amplifica las ondas acústicas. Uno de los espejos es semirreflectante, por lo que parte de la luz amplificada sale de la cavidad resonante en forma de haz.

El volumen de información que transmite una onda electromagnética depende de su frecuencia; en este sentido, la luz de un rayo láser resulta idónea para la transmisión de señales. Por eso, entre sus aplicaciones más usadas está la lectura de discos compactos, la fabricación de circuitos integrados y la lectura de códigos de barras. En el ámbito de la medicina, la tecnología láser se aplica a los bisturís cauterizantes, ya que permite realizar cortes muy finos de gran precisión, evitar cualquier riesgo de contagio y cauterizar de manera inmediata, alejando el peligro de hemorragias.

Fibra óptica, impresoras o espionaje

Sin embargo, muchas de las aplicaciones del láser no dependen tanto de su capacidad para generar un rayo de luz como del hecho de que representa una concentración extremadamente intensa de energía. Basándonos en esta propiedad, podemos enumerar tres aplicaciones sumamente importantes en el terreno de la óptica. Una de ellas son las telecomunicaciones mediante fibra óptica. En este caso, las señales eléctricas que hasta hace poco tiempo se desplazaban a través de conductores metálicos han sido reemplazadas por pulsos ópticos que se transmiten a través de fibra de vidrio del grosor de un cabello. Como potente fuente de luz, el láser confiere a estas fibras una elevada capacidad de transmisión.

Espectáculo de luces con láseres. / kpr2 - Pixabay

Espectáculo de luces con láseres. / kpr2 – Pixabay

La segunda aplicación óptica importante está en la holografía, que es una técnica para crear imágenes tridimensionales, inventada en 1947 por el ingeniero eléctrico húngaro Dennis Gabor (1900-1979), que obtuvo por ello el Premio Nobel en 1971. Esta técnica se basa en la interferencia entre dos rayos de luz. Uno de los aspectos básicos del sistema es la necesidad de utilizar luz coherente, y cuando se inventó solo se disponía de fuentes relativamente débiles de este tipo de luz. La llegada del láser transformó la situación, porque la generación de una poderosa fuente de luz coherente es su esencia. Con el tiempo, la holografía llegó a hacerse muy familiar en una variedad de formas, como en la marca de seguridad de las tarjetas de crédito y en publicidad.

La tercera aplicación importante está en las impresoras de los ordenadores, donde, controlando un haz láser, se dibujan las palabras que se quieren imprimir.

También podemos destacar las aplicaciones que dependen de su capacidad para concentrar una gran cantidad de energía sobre una superficie muy pequeña (alrededor de un millón de vatios por centímetro cuadrado) durante un periodo de tiempo extremadamente breve. Algunas de las más importantes aplicaciones industriales de los láseres son fruto de esta capacidad: la perforación, la soldadura y el corte de distintos materiales.

Además, puesto que un rayo láser es muy fino y prácticamente no sufre divergencias, se puede usar para medir largas distancias con gran precisión. La técnica (semejante a la del radar) consiste en captar el rayo reflejado por el objeto distante y medir el tiempo transcurrido desde el envío de la señal hasta la recepción de su reflejo. Conociendo la velocidad de la luz, resulta fácil calcular la distancia. En los años setenta, este método se empleó para determinar con precisión la distancia de la Luna, utilizando los reflectores que habían instalado allí los astronautas norteamericanos.

Pero eso no es todo, también se han empleado láseres hasta para temas relacionados con el espionaje. En 1968 se descubrió que un láser puede detectar perfectamente desde el exterior las vibraciones del cristal de las ventanas producidas por las conversaciones en el interior de una casa. Vemos cómo el láser, que en un principio era como “un invento en busca de un empleo”, tiene en la actualidad un sinfín de variadas aplicaciones.

 

* José Vicente García Ramos es Vocal del Comité de Ética del CSIC y autor del libro Las moléculas: cuando la luz te ayuda a vibrar (Editorial CSIC-Los Libros de la Catarata). Hasta su jubilación en 2016 fue investigador en el Instituto de Estructura de la Materia del CSIC.

¿Yogur natural o edulcorado?: cómo afecta su consumo a tu salud

Por Mar Gulis (CSIC)

¿Alguna vez te has parado a pensar qué productos fermentados forman parte de tu dieta? Son alimentos en los que su procesamiento involucra el crecimiento de microorganismos. Generalmente son más ricos nutricionalmente que un alimento no fermentado, ya que resultan más digeribles, contienen compuestos biactivos producidos durante la fermentación y constituyen una fuente de microorganismos. Estas características hacen que los alimentos fermentados resulten beneficiosos para la salud.

“El consumo de lácteos fermentados se ha asociado con la prevención de la obesidad, la reducción del riesgo de trastornos metabólicos y patologías relacionadas con el sistema inmunitario”, destaca el investigador Miguel Gueimonde del Instituto de Productos Lácteos de Asturias (IPLA) del CSIC. Precisamente, los lácteos fueron este año los protagonistas del Día Nacional de la Nutrición (28 de mayo), como también lo han sido de un estudio en el que ha participado el investigador para determinar cómo impacta el consumo de productos lácteos fermentados en la microbiota intestinal y en la salud.

yogur

Fuente: Freepik

La microbiota intestinal es la comunidad microbiana que se encuentra en nuestro intestino y está compuesta por cientos de especies bacterianas diferentes, presentes en niveles muy elevados  –entre 0,1 y 1 billón de bacterias por gramo de contenido colónico–. Durante la última década, numerosos estudios han puesto de manifiesto la importancia de la microbiota intestinal para la salud y cómo algunas alteraciones en ella se relacionan con el incremento en el riesgo de sufrir diversas patologías. Por ello, indica el investigador, ha aumentado el interés sobre la relación existente entre la microbiota intestinal y las distintas funciones del organismo, desde la intestinal a la inmune e incluso la cognitiva, así como al estudio de los factores que determinan y modulan la composición de la microbiota. Y entre ellos, la dieta tiene un papel destacado. Así que presta atención la próxima vez que decidas en el supermercado: ¿yogur natural o edulcorado?; antes deberías saber qué efectos podría tener en tu salud.

Estos productos aportan nutrientes de gran calidad y contribuyen a la presencia de microorganismos beneficiosos. Así lo demuestra este estudio en el que 130 adultos han proporcionado información nutricional y de hábitos de vida, y en él se ha evaluado la ingesta de alimentos mediante un cuestionario con 26 productos lácteos fermentados. Los favoritos: el yogur natural, el yogur edulcorado y el queso curado o semi curado.

Entre los resultados, el más sorprendente, destaca el investigador, fue la observación de una asociación positiva entre el consumo de yogur natural y los niveles de microorganismos del género Akkermansia en el intestino, que tienen efectos beneficiosos sobre la obesidad y el síndrome metabólico. “Nuestro estudio indica que el consumo regular de yogur natural ayuda a mantener unos niveles elevados de este microorganismo”, explica, unos resultados que demuestran “los posibles efectos beneficiosos del consumo de yogur”.

Por el contrario, estos efectos no se observaron en los consumidores de yogur edulcorado ya que este consumo se asoció a niveles más bajos de Bacteroides. Y, de hecho, señala Gueimonde, los efectos pueden verse afectados por la adición de edulcorantes, lo que conllevaría además efectos diferentes sobre la microbiota intestinal, pero esto sería objeto de otro estudio.

Cómo nos puede ayudar la ciencia frente al despilfarro de alimentos

Por Ana Mª Veses (CSIC)*

El otro día fui a un restaurante con mi familia. En la mesa de al lado, un niño se puso a protestar porque no le gustaba la comida que le habían servido; inmediatamente, un camarero acudió para retirarle el plato.

Esta anécdota contrasta con la realidad que nos muestra la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO): mientras cerca de 800 millones de personas sufren desnutrición en el mundo, según datos de 2017, aproximadamente un tercio de la producción mundial de alimentos se pierde o se desperdicia.

Además, este despilfarro produce graves consecuencias para el medioambiente. Tirar comida supone una notable pérdida de recursos naturales (tierra, agua y energía) y un incremento de emisiones de gases de efecto invernadero, para producir unos alimentos que finalmente nadie consumirá. Si ‘dilapidar comida’ fuera un país, sería el tercero con más emisiones de dióxido de carbono, detrás de China y EEUU. Asimismo, los alimentos que producimos pero luego no comemos consumen un volumen de agua equivalente al caudal anual del río Volga.

¿Por qué pasa esto? ¿Alguien se ha planteado hacer algo al respecto?

En los países industrializados principalmente se desperdician tantos alimentos porque la producción excede a la demanda, porque los supermercados imponen altos estándares estéticos a los productos frescos y descartan aquellos que son más feos, y porque se piensa que tirar es más cómodo que reutilizar.

En cambio, en países en vías de desarrollo, según indican estudios de la FAO, el desperdicio de alimentos por parte de los consumidores es mínimo. En estos países, sin embargo, son los inadecuados sistemas comerciales y las escasas y deficientes instalaciones de almacenamiento y procesamiento los que provocan grandes pérdidas de alimentos.

Desde las instituciones públicas se están desarrollando diversas estrategias y planes de actuación, a distintos niveles, para controlar y reducir estos desperdicios. Se han puesto en marcha planes de sensibilización cuya finalidad es modificar hábitos y modelos de consumo en las comunidades, como la difusión de buenas prácticas de conservación de productos en los hogares a través de los medios de comunicación o aplicaciones móviles para la sensibilización e innovación social o para la redistribución de excedentes.

Ciencia y tecnología para desperdiciar menos

Por otro lado, la ciencia y la tecnología contribuyen a generar herramientas que puedan disminuir el desperdicio de alimentos a lo largo de toda la cadena alimentaria. La creación de nuevas técnicas de conservación de alimentos, diseños de envases más resistentes, así como el uso de tecnologías limpias y la identificación de dónde se producen las pérdidas de producto son algunas de las alternativas que se investigan. Por ejemplo, ya se está trabajando en el desarrollo de envases más resistentes al transporte, que puedan volver a cerrarse fácilmente o divididos en porciones que aumenten la vida útil de los alimentos.

El catálogo de iniciativas nacionales e internacionales sobre el desperdicio alimentario realizado por la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) reúne iniciativas como un papel diseñado en 2010 (por la empresa Fenugreen) que consigue duplicar el tiempo de conservación de frutas y verduras frescas. Está impregnado con distintas especias que inhiben el crecimiento de hongos y bacterias y, además, contiene un determinado aroma que informa de si el sistema sigue siendo efectivo. Este papel, utilizado tanto en la agricultura como en hogares de todo el mundo, tiene una vida de tres semanas y después se puede aprovechar como abono.

Otras iniciativas aseguran la integridad del sellado en los envases mediante la selección de materiales de difícil perforación o desarrollan envases activos que evitan la entrada de sustancias indeseables al tiempo que liberan otras beneficiosas para la conservación del producto, como biocidas, antioxidantes o compuestos que absorben el oxígeno y la humedad.

Algunas líneas de investigación se basan en la reutilización y el reciclaje de subproductos industriales para evitar la disposición en vertedero, de manera que se puedan desarrollar nuevos productos a partir de los materiales excedentarios, recuperar compuestos de interés para utilizarlos como aditivos o ingredientes en otras industrias, así como obtener nuevos productos más saludables.

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, diversos grupos de investigación trabajan con residuos alimentarios procedentes de las industrias que usan productos vegetales y animales, con el objetivo de revalorizarlos. Uno de ellos es la okara, un subproducto de la soja que se obtiene tras extraer la fracción soluble para la producción de bebida de soja o tofu, y que antes era eliminado en las industrias de procesamiento. Al tratarla con altas presiones hidrostáticas y enzimas específicas, se consigue por un lado aumentar los carbohidratos solubles al doble de los valores iniciales y, por otro, incrementar sus capacidades prebióticas, favoreciendo el crecimiento de bacterias beneficiosas (Bifidobacterium y Lactobacillus) y la inhibición de otras potencialmente perjudiciales. Se ha comprobado que la okara tratada, suministrada a ratas que habían seguido una dieta grasa, frena la ganancia de peso, reduce los niveles de triglicéridos en plasma y aumenta la absorción mineral y la producción de ácidos grasos de cadena corta.

Estos ejemplos reflejan que se están empleando muchos recursos para frenar este problema y buscar soluciones. Pero no hay que olvidar el importante papel que tenemos los consumidores. Cada uno desde su posición, el personal investigador en sus laboratorios, los gobiernos en sus políticas y los consumidores en sus hogares, debemos colaborar para evitar que comida y productos válidos para el consumo sean desaprovechados, mientras en otra parte del mundo se pasa hambre.

* Ana Mª Veses es investigadora del Instituto de Ciencia y Tecnología de Alimentos y Nutrición del CSIC.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

Listeriosis: a veces ocurre

Por Marta López Cabo (CSIC)*

El 41% de los europeos considera la seguridad alimentaria una preocupación. Así lo reflejan las encuestas recogidas en el Eurobarómetro publicado recientemente por la Agencia Europea en Seguridad Alimentaria (EFSA, 2019). En España, esta cifra se sitúa en el 37%. No son porcentajes muy elevados porque la aparición de brotes o problemas de salud asociados con el consumo de alimentos no es frecuente. Pero a veces ocurre.

Es el caso del brote de listeriosis de Andalucía, asociado con el consumo de carne mechada y otros productos contaminados con la bacteria Listeria monocytogenes, y que ha provocado 3 defunciones, 2 abortos, 2 muertes fetales intraútero y alrededor de 212 personas afectadas, algunas de ellas hospitalizadas.

¿Qué es Listeria monocytogenes?

Frotis sobre cupón de acero inoxidable utilizado para la toma de muestras de biofilms de Listeria monocytogenes potencialmente presentes en superficies de la industria alimentaria / IIM-CSIC

Listeria monocytogenes es una bacteria patógena de alta relevancia transmitida por alimentos. Decimos ‘alta relevancia’ no tanto por el número de casos declarados, sino por los casos de muerte asociados a grupos de riesgo (embarazadas, inmunodeprimidos y población de elevada edad). Ello la ha convertido en un objetivo prioritario para la comunidad científica y las agencias de seguridad alimentaria, lo que ha resultado en el avance en el conocimiento de su biología y el desarrollo e implementación de diferentes soluciones para su control y eliminación.

A pesar de ello, los datos de los últimos informes publicados por EFSA (2017, 2018) ponen de manifiesto una tendencia creciente del número de casos notificados de listeriosis en humanos en Europa. En 2017, la listeriosis causó cerca del 50% de las muertes por zoonosis alimentarias (enfermedades que se transmiten entre los animales y el ser humano a través del consumo de alimentos) en la Unión Europea y el 98% de los casos registrados requirió hospitalización.

¿Qué está ocurriendo?

Que L. monocytogenes, como la mayoría de las bacterias patógenas, tiene unas características biológicas peculiares que favorecen su prevalencia en superficies de plantas de procesado y en alimentos. Ubicua, resistente al ácido y a bajas condiciones de actividad de agua, es además capaz de crecer a temperaturas de refrigeración, las mismas que utilizamos para prolongar la vida comercial de los alimentos.

Pero L. monocytogenes tiene otra particularidad: su condición de bacteria-parásito. Quizás se trata de un estado intermedio de la evolución entre ambas formas biológicas que puede implicar ventajas en su ecología y capacidad infectiva. Sin embargo, esto aún está por dilucidar.

Imagen de microscopía de fluorescencia de biofilms formados por L. monocytogenes (células rojas) y Acinetobacter jonhsonii (células azules) sobre superficies de acero inoxidable / IIM-CSIC

Son varios los grupos de investigación que estudian esta bacteria. El grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) investiga desde 2006 la incidencia y prevalencia de L. monocytogenes en plantas de procesado de alimentos; también la relación entre su ecología (especies bacterianas con las que se asocia y convive) y la resistencia a desinfectantes de uso industrial. Más recientemente, los estudios se han orientado a la búsqueda de alternativas basadas en moléculas de comunicación bacteriana (quorum sensing) que interrumpan o dificulten el agrupamiento de la bacteria y por tanto la aparición de estructuras estables que puedan convertirse en focos de contaminación. Con ello, el microorganismo no desaparecería, pero podría evitarse o ralentizarse la formación de estos focos.

Nuestras conclusiones son claras. L. monocytogenes puede persistir asociada a diferentes especies bacterianas y adherida a superficies y maquinaria de las plantas de procesado de alimentos formando estructuras complejas o biofilms (comunidades de células bacterianas) potencialmente resistentes a los protocolos de desinfección aplicados. Estas colonias constituyen focos de contaminación y puntos críticos para la contaminación cruzada, bien directamente, por contacto de alimentos, o indirectamente a través de utensilios o mediante los propios operarios y trabajadores de la planta. Porque, aunque no es habitual, a veces ocurre.

La solución también es clara: mejorar los sistemas de control y autocontrol de la industria y a lo largo de la cadena de valor y seguir avanzando en la investigación de L. monocytogenes y otros patógenos para poder ofrecer al consumidor alimentos seguros.

 

*Marta López Cabo  es responsable del Grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) y coordinadora de la Red Gallega de Riesgos Emergentes en Seguridad Alimentaria (RISEGAL).

Crímenes con rigor químico: los venenos de Agatha Christie

Por Pilar Goya (CSIC), José Elguero (CSIC) y Pascual Román (UPV/EHU)*

Agatha Christie, veneno, talio, arsénico

La escritora británica Agatha Mary Clarissa Miller, más conocida como Agatha Christie, en una imagen de archivo. / Wikipedia

En las novelas de Agatha Christie (1890-1976) se puede morir de muy diversas formas, pero el veneno era sin duda su arma preferida, ya fuese un solo elemento químico o complejas sustancias naturales. La escritora plasmó en su obra los conocimientos de química que había adquirido en las dos guerras mundiales, al trabajar como enfermera en los dispensarios de los hospitales de Torquay y del University College de Londres, una experiencia que ayudó a que los protagonistas de sus historias fueran asesinados con mucho rigor químico.

En un libro sobre ella escrito por Kathryn Harkup, titulado A is for arsenic: the poisons of Agatha Christie, su autora analiza las novelas en las que el agente homicida es un veneno.

Agatha Christie se basaba generalmente en datos lo más exactos posibles en términos de disponibilidad y trazabilidad de sus venenos, que conocía bien por su trabajo en la farmacia. Hay que recordar que algunos elementos tóxicos como el arsénico y el talio estaban presentes en determinadas for­mulaciones médicas en los primeros años del siglo XX.

El elemento que más aparece en sus novelas es el arsénico, “el veneno de los reyes y el rey de los venenos”. Ocho personajes de cuatro novelas y de cuatro cuen­tos cortos mueren por ingerirlo. El arsénico es conocido como veneno desde la Antigüedad, aunque en realidad el agente letal no es el elemento puro, sino el trióxido de arsénico, que se absorbe más fácilmente por el organismo. Este compuesto no se disuelve en agua fría, pero sí en agua caliente, lo que lo hace muy apto para ser camuflado en infusiones.

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Cuenta la leyenda que cuando Cleopatra decidió acabar con su vida ensayó distin­tos venenos en sus sirvientas, entre ellos el arsénico, pero al final optó por la mordedura de áspid (una especie de víbora) porque le pareció una muerte menos desagradable. El en­venenamiento por arsénico fue popular durante el Renacimiento, en particular entre los Borgia. Parece ser que añadían arsénico a las entrañas de un cerdo sacrificado y lo dejaban pudrir. Esa masa se secaba y el polvo resultante, llamado “la cantarella”, se incorporaba a la comida o bebida, de forma que lo que no hacía el veneno lo remataban las toxinas del animal. Entre las ventajas de esta sustancia estaba que, sorprendentemente, era bastante insípida y que los síntomas se confundían con los del cólera o la disentería. En general, el envenenamiento por ar­sénico puede identificarse erróneamente con causas naturales. Además, en la época en la que transcurren las primeras novelas de Agatha Christie era fácil comprar compuestos de ar­sénico en el Reino Unido, como herbicidas, matarratas e incluso tónicos que contenían este elemento.

Otro elemento venenoso al que hace referencia la autora británica es el talio, que aparece en su novela El misterio de Pale Horse. El talio es conocido como el “veneno de los envenena­dores” y también produce síntomas que pueden atribuirse a causas naturales. Christie solo utiliza el talio como veneno en esta novela, que trata de una organización criminal que ofrece ase­sinatos “a demanda”. El libro dio cierta notoriedad al talio, ya que en la fecha de su publicación, 1961, esta forma de enve­nenamiento era poco conocida, si bien en la novela de Ngaio Marsh, Final Curtain, escrita en 1947, ya aparece este elemento como veneno. El misterio de Pale Horse suscitó cierta polémica, ya que se sugirió que podía haber inspirado algunos asesinatos en la vida real pero, sin embargo, su minuciosa descripción de los síntomas del envenenamiento con talio fue útil para salvar algunas vidas.

El primer caso de un envenenamiento real con talio fue el de Molly Young, ocurrido en el Reino Unido en 1962, solo unos meses después de que se publicara la novela. Graham Young, autor de este crimen y otros más, negó haber leído la novela, lo que probablemente fuera cierto, ya que Young era un verdadero experto en venenos.

A favor de la novelista está otro caso real. En 1977, después de que ella hubiera fallecido, una niña de 19 meses fue llevada a un hospital de Londres con síntomas de una enfermedad extraña. La enferme­ra Marsha Maitland, que había leído El misterio de Pale Horse, sugirió que podía tratarse de un envenenamiento con talio. Se analizaron muestras en el laboratorio forense de Scotland Yard y se encontró efectivamente la presencia de este elemento. El ori­gen parecía ser un producto utilizado por los padres para aca­bar con cucarachas y ratas, al que la niña de alguna forma había tenido acceso y había ingerido. Finalmente, la pequeña se recuperó y en el artículo que apareció en el British Journal of Hospital Medicine los autores agradecen a “Agatha Christie sus excelentes descripciones clínicas y a la enfermera por mantenerles al día con la bibliografía”.

 

* Este post se basa en varios fragmentos del libro La tabla periódica (Editorial CSIC-Los libros de la Catarata), escrito por José Elguero Bertolini, Pilar Goya Laza (ambos, investigadores del Instituto de Química Médica del CSIC) y Pascual Román Polo (Universidad del País Vasco).