Archivo de la categoría ‘Biomedicina y Salud’

Cómo nos puede ayudar la ciencia frente al despilfarro de alimentos

Por Ana Mª Veses (CSIC)*

El otro día fui a un restaurante con mi familia. En la mesa de al lado, un niño se puso a protestar porque no le gustaba la comida que le habían servido; inmediatamente, un camarero acudió para retirarle el plato.

Esta anécdota contrasta con la realidad que nos muestra la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO): mientras cerca de 800 millones de personas sufren desnutrición en el mundo, según datos de 2017, aproximadamente un tercio de la producción mundial de alimentos se pierde o se desperdicia.

Además, este despilfarro produce graves consecuencias para el medioambiente. Tirar comida supone una notable pérdida de recursos naturales (tierra, agua y energía) y un incremento de emisiones de gases de efecto invernadero, para producir unos alimentos que finalmente nadie consumirá. Si ‘dilapidar comida’ fuera un país, sería el tercero con más emisiones de dióxido de carbono, detrás de China y EEUU. Asimismo, los alimentos que producimos pero luego no comemos consumen un volumen de agua equivalente al caudal anual del río Volga.

¿Por qué pasa esto? ¿Alguien se ha planteado hacer algo al respecto?

En los países industrializados principalmente se desperdician tantos alimentos porque la producción excede a la demanda, porque los supermercados imponen altos estándares estéticos a los productos frescos y descartan aquellos que son más feos, y porque se piensa que tirar es más cómodo que reutilizar.

En cambio, en países en vías de desarrollo, según indican estudios de la FAO, el desperdicio de alimentos por parte de los consumidores es mínimo. En estos países, sin embargo, son los inadecuados sistemas comerciales y las escasas y deficientes instalaciones de almacenamiento y procesamiento los que provocan grandes pérdidas de alimentos.

Desde las instituciones públicas se están desarrollando diversas estrategias y planes de actuación, a distintos niveles, para controlar y reducir estos desperdicios. Se han puesto en marcha planes de sensibilización cuya finalidad es modificar hábitos y modelos de consumo en las comunidades, como la difusión de buenas prácticas de conservación de productos en los hogares a través de los medios de comunicación o aplicaciones móviles para la sensibilización e innovación social o para la redistribución de excedentes.

Ciencia y tecnología para desperdiciar menos

Por otro lado, la ciencia y la tecnología contribuyen a generar herramientas que puedan disminuir el desperdicio de alimentos a lo largo de toda la cadena alimentaria. La creación de nuevas técnicas de conservación de alimentos, diseños de envases más resistentes, así como el uso de tecnologías limpias y la identificación de dónde se producen las pérdidas de producto son algunas de las alternativas que se investigan. Por ejemplo, ya se está trabajando en el desarrollo de envases más resistentes al transporte, que puedan volver a cerrarse fácilmente o divididos en porciones que aumenten la vida útil de los alimentos.

El catálogo de iniciativas nacionales e internacionales sobre el desperdicio alimentario realizado por la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) reúne iniciativas como un papel diseñado en 2010 (por la empresa Fenugreen) que consigue duplicar el tiempo de conservación de frutas y verduras frescas. Está impregnado con distintas especias que inhiben el crecimiento de hongos y bacterias y, además, contiene un determinado aroma que informa de si el sistema sigue siendo efectivo. Este papel, utilizado tanto en la agricultura como en hogares de todo el mundo, tiene una vida de tres semanas y después se puede aprovechar como abono.

Otras iniciativas aseguran la integridad del sellado en los envases mediante la selección de materiales de difícil perforación o desarrollan envases activos que evitan la entrada de sustancias indeseables al tiempo que liberan otras beneficiosas para la conservación del producto, como biocidas, antioxidantes o compuestos que absorben el oxígeno y la humedad.

Algunas líneas de investigación se basan en la reutilización y el reciclaje de subproductos industriales para evitar la disposición en vertedero, de manera que se puedan desarrollar nuevos productos a partir de los materiales excedentarios, recuperar compuestos de interés para utilizarlos como aditivos o ingredientes en otras industrias, así como obtener nuevos productos más saludables.

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, diversos grupos de investigación trabajan con residuos alimentarios procedentes de las industrias que usan productos vegetales y animales, con el objetivo de revalorizarlos. Uno de ellos es la okara, un subproducto de la soja que se obtiene tras extraer la fracción soluble para la producción de bebida de soja o tofu, y que antes era eliminado en las industrias de procesamiento. Al tratarla con altas presiones hidrostáticas y enzimas específicas, se consigue por un lado aumentar los carbohidratos solubles al doble de los valores iniciales y, por otro, incrementar sus capacidades prebióticas, favoreciendo el crecimiento de bacterias beneficiosas (Bifidobacterium y Lactobacillus) y la inhibición de otras potencialmente perjudiciales. Se ha comprobado que la okara tratada, suministrada a ratas que habían seguido una dieta grasa, frena la ganancia de peso, reduce los niveles de triglicéridos en plasma y aumenta la absorción mineral y la producción de ácidos grasos de cadena corta.

Estos ejemplos reflejan que se están empleando muchos recursos para frenar este problema y buscar soluciones. Pero no hay que olvidar el importante papel que tenemos los consumidores. Cada uno desde su posición, el personal investigador en sus laboratorios, los gobiernos en sus políticas y los consumidores en sus hogares, debemos colaborar para evitar que comida y productos válidos para el consumo sean desaprovechados, mientras en otra parte del mundo se pasa hambre.

* Ana Mª Veses es investigadora del Instituto de Ciencia y Tecnología de Alimentos y Nutrición del CSIC.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

Listeriosis: a veces ocurre

Por Marta López Cabo (CSIC)*

El 41% de los europeos considera la seguridad alimentaria una preocupación. Así lo reflejan las encuestas recogidas en el Eurobarómetro publicado recientemente por la Agencia Europea en Seguridad Alimentaria (EFSA, 2019). En España, esta cifra se sitúa en el 37%. No son porcentajes muy elevados porque la aparición de brotes o problemas de salud asociados con el consumo de alimentos no es frecuente. Pero a veces ocurre.

Es el caso del brote de listeriosis de Andalucía, asociado con el consumo de carne mechada y otros productos contaminados con la bacteria Listeria monocytogenes, y que ha provocado 3 defunciones, 2 abortos, 2 muertes fetales intraútero y alrededor de 212 personas afectadas, algunas de ellas hospitalizadas.

¿Qué es Listeria monocytogenes?

Frotis sobre cupón de acero inoxidable utilizado para la toma de muestras de biofilms de Listeria monocytogenes potencialmente presentes en superficies de la industria alimentaria / IIM-CSIC

Listeria monocytogenes es una bacteria patógena de alta relevancia transmitida por alimentos. Decimos ‘alta relevancia’ no tanto por el número de casos declarados, sino por los casos de muerte asociados a grupos de riesgo (embarazadas, inmunodeprimidos y población de elevada edad). Ello la ha convertido en un objetivo prioritario para la comunidad científica y las agencias de seguridad alimentaria, lo que ha resultado en el avance en el conocimiento de su biología y el desarrollo e implementación de diferentes soluciones para su control y eliminación.

A pesar de ello, los datos de los últimos informes publicados por EFSA (2017, 2018) ponen de manifiesto una tendencia creciente del número de casos notificados de listeriosis en humanos en Europa. En 2017, la listeriosis causó cerca del 50% de las muertes por zoonosis alimentarias (enfermedades que se transmiten entre los animales y el ser humano a través del consumo de alimentos) en la Unión Europea y el 98% de los casos registrados requirió hospitalización.

¿Qué está ocurriendo?

Que L. monocytogenes, como la mayoría de las bacterias patógenas, tiene unas características biológicas peculiares que favorecen su prevalencia en superficies de plantas de procesado y en alimentos. Ubicua, resistente al ácido y a bajas condiciones de actividad de agua, es además capaz de crecer a temperaturas de refrigeración, las mismas que utilizamos para prolongar la vida comercial de los alimentos.

Pero L. monocytogenes tiene otra particularidad: su condición de bacteria-parásito. Quizás se trata de un estado intermedio de la evolución entre ambas formas biológicas que puede implicar ventajas en su ecología y capacidad infectiva. Sin embargo, esto aún está por dilucidar.

Imagen de microscopía de fluorescencia de biofilms formados por L. monocytogenes (células rojas) y Acinetobacter jonhsonii (células azules) sobre superficies de acero inoxidable / IIM-CSIC

Son varios los grupos de investigación que estudian esta bacteria. El grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) investiga desde 2006 la incidencia y prevalencia de L. monocytogenes en plantas de procesado de alimentos; también la relación entre su ecología (especies bacterianas con las que se asocia y convive) y la resistencia a desinfectantes de uso industrial. Más recientemente, los estudios se han orientado a la búsqueda de alternativas basadas en moléculas de comunicación bacteriana (quorum sensing) que interrumpan o dificulten el agrupamiento de la bacteria y por tanto la aparición de estructuras estables que puedan convertirse en focos de contaminación. Con ello, el microorganismo no desaparecería, pero podría evitarse o ralentizarse la formación de estos focos.

Nuestras conclusiones son claras. L. monocytogenes puede persistir asociada a diferentes especies bacterianas y adherida a superficies y maquinaria de las plantas de procesado de alimentos formando estructuras complejas o biofilms (comunidades de células bacterianas) potencialmente resistentes a los protocolos de desinfección aplicados. Estas colonias constituyen focos de contaminación y puntos críticos para la contaminación cruzada, bien directamente, por contacto de alimentos, o indirectamente a través de utensilios o mediante los propios operarios y trabajadores de la planta. Porque, aunque no es habitual, a veces ocurre.

La solución también es clara: mejorar los sistemas de control y autocontrol de la industria y a lo largo de la cadena de valor y seguir avanzando en la investigación de L. monocytogenes y otros patógenos para poder ofrecer al consumidor alimentos seguros.

 

*Marta López Cabo  es responsable del Grupo de Microbiología y Tecnología de Productos Marinos (MICROTEC) del Instituto de Investigaciones Marinas de Vigo (CSIC) y coordinadora de la Red Gallega de Riesgos Emergentes en Seguridad Alimentaria (RISEGAL).

Crímenes con rigor químico: los venenos de Agatha Christie

Por Pilar Goya (CSIC), José Elguero (CSIC) y Pascual Román (UPV/EHU)*

Agatha Christie, veneno, talio, arsénico

La escritora británica Agatha Mary Clarissa Miller, más conocida como Agatha Christie, en una imagen de archivo. / Wikipedia

En las novelas de Agatha Christie (1890-1976) se puede morir de muy diversas formas, pero el veneno era sin duda su arma preferida, ya fuese un solo elemento químico o complejas sustancias naturales. La escritora plasmó en su obra los conocimientos de química que había adquirido en las dos guerras mundiales, al trabajar como enfermera en los dispensarios de los hospitales de Torquay y del University College de Londres, una experiencia que ayudó a que los protagonistas de sus historias fueran asesinados con mucho rigor químico.

En un libro sobre ella escrito por Kathryn Harkup, titulado A is for arsenic: the poisons of Agatha Christie, su autora analiza las novelas en las que el agente homicida es un veneno.

Agatha Christie se basaba generalmente en datos lo más exactos posibles en términos de disponibilidad y trazabilidad de sus venenos, que conocía bien por su trabajo en la farmacia. Hay que recordar que algunos elementos tóxicos como el arsénico y el talio estaban presentes en determinadas for­mulaciones médicas en los primeros años del siglo XX.

El elemento que más aparece en sus novelas es el arsénico, “el veneno de los reyes y el rey de los venenos”. Ocho personajes de cuatro novelas y de cuatro cuen­tos cortos mueren por ingerirlo. El arsénico es conocido como veneno desde la Antigüedad, aunque en realidad el agente letal no es el elemento puro, sino el trióxido de arsénico, que se absorbe más fácilmente por el organismo. Este compuesto no se disuelve en agua fría, pero sí en agua caliente, lo que lo hace muy apto para ser camuflado en infusiones.

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Diversas traduccciones de obras de Agatha Christie. / Jour~commonswiki

Cuenta la leyenda que cuando Cleopatra decidió acabar con su vida ensayó distin­tos venenos en sus sirvientas, entre ellos el arsénico, pero al final optó por la mordedura de áspid (una especie de víbora) porque le pareció una muerte menos desagradable. El en­venenamiento por arsénico fue popular durante el Renacimiento, en particular entre los Borgia. Parece ser que añadían arsénico a las entrañas de un cerdo sacrificado y lo dejaban pudrir. Esa masa se secaba y el polvo resultante, llamado “la cantarella”, se incorporaba a la comida o bebida, de forma que lo que no hacía el veneno lo remataban las toxinas del animal. Entre las ventajas de esta sustancia estaba que, sorprendentemente, era bastante insípida y que los síntomas se confundían con los del cólera o la disentería. En general, el envenenamiento por ar­sénico puede identificarse erróneamente con causas naturales. Además, en la época en la que transcurren las primeras novelas de Agatha Christie era fácil comprar compuestos de ar­sénico en el Reino Unido, como herbicidas, matarratas e incluso tónicos que contenían este elemento.

Otro elemento venenoso al que hace referencia la autora británica es el talio, que aparece en su novela El misterio de Pale Horse. El talio es conocido como el “veneno de los envenena­dores” y también produce síntomas que pueden atribuirse a causas naturales. Christie solo utiliza el talio como veneno en esta novela, que trata de una organización criminal que ofrece ase­sinatos “a demanda”. El libro dio cierta notoriedad al talio, ya que en la fecha de su publicación, 1961, esta forma de enve­nenamiento era poco conocida, si bien en la novela de Ngaio Marsh, Final Curtain, escrita en 1947, ya aparece este elemento como veneno. El misterio de Pale Horse suscitó cierta polémica, ya que se sugirió que podía haber inspirado algunos asesinatos en la vida real pero, sin embargo, su minuciosa descripción de los síntomas del envenenamiento con talio fue útil para salvar algunas vidas.

El primer caso de un envenenamiento real con talio fue el de Molly Young, ocurrido en el Reino Unido en 1962, solo unos meses después de que se publicara la novela. Graham Young, autor de este crimen y otros más, negó haber leído la novela, lo que probablemente fuera cierto, ya que Young era un verdadero experto en venenos.

A favor de la novelista está otro caso real. En 1977, después de que ella hubiera fallecido, una niña de 19 meses fue llevada a un hospital de Londres con síntomas de una enfermedad extraña. La enferme­ra Marsha Maitland, que había leído El misterio de Pale Horse, sugirió que podía tratarse de un envenenamiento con talio. Se analizaron muestras en el laboratorio forense de Scotland Yard y se encontró efectivamente la presencia de este elemento. El ori­gen parecía ser un producto utilizado por los padres para aca­bar con cucarachas y ratas, al que la niña de alguna forma había tenido acceso y había ingerido. Finalmente, la pequeña se recuperó y en el artículo que apareció en el British Journal of Hospital Medicine los autores agradecen a “Agatha Christie sus excelentes descripciones clínicas y a la enfermera por mantenerles al día con la bibliografía”.

 

* Este post se basa en varios fragmentos del libro La tabla periódica (Editorial CSIC-Los libros de la Catarata), escrito por José Elguero Bertolini, Pilar Goya Laza (ambos, investigadores del Instituto de Química Médica del CSIC) y Pascual Román Polo (Universidad del País Vasco).

¿Por qué oímos hasta con los oídos tapados?

Por Mar Gulis (CSIC)

Imagina que oyes de repente un ruido muy molesto, como una alarma a todo volumen, un pitido intenso que no cesa durante minutos o que estás en medio de una conversación bulliciosa entre varias personas. Seguramente lo primero que vas a hacer es taparte los oídos, pero te darás cuenta de que lo vas a seguir oyendo… aunque sea de una forma más leve. ¿Por qué ocurre esto?

Nuestros oídos son un laberinto para el sonido. Un laberinto dividido en tres partes: oído externo, medio e interno. El recorrido comienza cuando el sonido llega al oído externo y golpea al tímpano, haciéndolo vibrar, y esa vibración se transmite a través de la cadena de huesecillos (martillo, yunque y estribo) que se encuentran en el oído medio. Las vibraciones continúan hasta la cóclea, en el oído interno y en forma de espiral, también conocida como caracol, donde se convierten en impulsos electroquímicos que viajan hasta el cerebro, capaz de interpretar y entender a través de las terminaciones nerviosas del ganglio auditivo. Esto es lo que nos permite oír.

oído, sonido, sordera

Así lo explican la investigadora Isabel Varela Nieto, del Instituto de Investigaciones Biomédicas Alberto Sols (CSIC-UAM), y el otorrinolaringólogo Luis Lassaletta Atienza, autores del libro La sordera, de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata). La energía acústica se transmite desde el exterior hasta la cóclea, y toda esa cadena “proporciona una amplificación a la señal sonora de unos 35 decibelios (dB)”. Oímos, incluso aunque tengamos los oídos tapados, porque el sonido puede llegar hasta la cóclea a través de la vía ósea. De esta forma la vibración sonora se transmite a través del cráneo, que pone en marcha los líquidos del laberinto de nuestro oído.

Exposición constante al ruido: trauma acústico y la sordera del siglo XXI

La explosión de un petardo, un disparo o la música de una discoteca a todo volumen. Estos son algunos de los ruidos que si escuchas de forma intensa o prolongada podrían pasarte factura: desde provocar lesiones en el oído hasta el conocido como trauma acústico, que se produce cuando el deterioro es irreversible, señalan los investigadores. Por ello, advierten sobre una serie de factores a tener en cuenta para prevenir estos trastornos: la intensidad sonora (límite de 80 dB), el tiempo de exposición, la frecuencia de ruido (las más lesivas, comprendidas entre 2.000 y 3.000 Hz) y la susceptibilidad de cada persona.

De hecho, hay personas que por su profesión están más expuestas al ruido, incluso a más de 80 dB, como por ejemplo armeros, militares o personal de una discoteca. Sobrepasar este límite “produce de forma característica una pérdida de audición bilateral con afectación inicial en 4.000 Hz que con el tiempo afecta al resto de frecuencias”. Y peor aún, el impacto sonoro puede desembocar en hipoacusia neurosensorial –que responde a problemas en el receptor auditivo, la cóclea o en las vías nerviosas– o en acúfenos, es decir, la sensación de oír ruidos dentro de la cabeza.

El ruido es, por tanto, la principal causa evitable de sordera en el mundo. Aunque no siempre llega del exterior: el uso de dispositivos de audio a una intensidad alta durante varias horas también puede derivar en esta dolencia. Por ello, los autores destacan que “el mejor tratamiento para el trauma acústico es la prevención”, ya que todavía no existe un tratamiento específico, lo que constituye uno de los retos de la medicina del siglo XXI. De hecho, evitar el ruido puede ser una opción recomendable.

 

* Puedes leer más en el libro La sordera (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Arte y ciencia se alían contra la contaminación urbana

Por Fernando del Blanco Rodríguez (CSIC)*

Zabol, Onitsha, Peshawar, Gwalior… Tal vez a un oído europeo no le diga mucho el nombre de estas ciudades. Sin embargo, cada una de ellas se encuentra representada en uno de los doce relojes que conforman la instalación artística conTIMEminación, que se exhibe el Centro de Investigación y Desarrollo de Barcelona (CID-CSIC). ¿Por qué?

conTIMEminacio

Pues precisamente porque estas ciudades presentan algunos de los índices de polución ambiental más altos del mundo si atendemos a los datos de la Organización Mundial de la Salud (OMS) de 2016 sobre calidad de aire y, en concreto, a los indicadores de presencia de material particulado en suspensión (PM).

Este material particulado al que alude la OMS y que es posible detectar en la atmósfera de nuestras ciudades se suele clasificar en dos grupos según el tamaño de las partículas que lo constituyen: por un lado, las partículas de diámetro aerodinámico igual o inferior a los 10 micrómetros (µm) –un micrómetro equivale a una milésima parte de un milímetro–, denominadas PM10; y, por otro, la fracción respirable más pequeña, las partículas de diámetro aerodinámico inferior o igual a los 2,5 micrómetros, a las que nos referimos como PM2,5.

El tamaño no supone la única diferencia entre ambos grupos. Las PM2,5, consideradas las más potencialmente peligrosas para la salud, se originan sobre todo en fuentes de combustión creadas por los seres humanos, como las emisiones de los motores diésel. Mientras, una parte significativa de las partículas de mayor tamaño suele ser de tipo metálico o mineral, ya sea de origen antrópico (humano) o natural.

La instalación conTIMEminación, creada por el artista Francisco Martínez Gómez, explora los problemas derivados de la presencia de estas partículas en nuestros entornos. Consta de doce relojes en funcionamiento, cada uno de los cuales ha sido inyectado con un producto metafóricamente tóxico que detendrá su mecanismo a medida que la agujas ya no sean capaces de superar la resistencia creciente e incesante de la sustancia extraña que las entorpece.

El proyecto, que cuenta con la colaboración de los investigadores del CSIC Xavier Querol y Sergi Díez, propone una reflexión en torno al volumen de contaminación al que estamos sometidos los habitantes de los núcleos urbanos y esboza el desenlace alegórico al que nos abocaría no comprender la magnitud de este riesgo.

Cada reloj representa una ciudad: Zabol (Irán), Onitsha (Nigeria), Peshawar (Pakistán), Riyadh (Arabia Saudí), Gwalior (India), Guangzhou (China), Moscú (Rusia), Estambul (Turquía), Buenos Aires (Argentina), París (París), Barcelona (España) y Lima (Perú). El artista y los investigadores matizan que la instalación no pretende reflejar los datos científicos de forma precisa, sino ilustrar la dimensión global del problema. Estas ciudades sufren significativos problemas de polución, aunque no todas presentan los indicadores más altos de contaminación.

Tendencias opuestas

“La tendencia de la calidad del aire en el mundo puede llegar a seguir evoluciones temporales opuestas en función del desarrollo económico”, explica Querol. “Mientras en Europa, Australia, EEUU, Japón y otras sociedades desarrolladas, la calidad ha mejorado drásticamente en las últimas décadas, en algunas ciudades de Irán, Pakistán, India y China se evidencia un empeoramiento muy marcado”, aclara este investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA) del CSIC.

Concentración de material particulado con diámetro aerodinámico igual o menor a 2,5 micrómetros (PM2,5) en cerca de 3.000 áreas urbanas, 2008-2015. / Organización Mundial de la Salud, 2016

Mapa PM 10

Concentración de material particulado con diámetro aerodinámico igual o menor a 10 micrómetros (PM10) en cerca de 3.000 áreas urbanas, 2008-2015. / Organización Mundial de la Salud, 2016

El caso de España está en sintonía con el europeo. Si en 2005 en nuestro país 49 zonas incumplían la normativa para PM, en la actualidad solo lo hace una (Avilés). Esta tendencia ha reducido notablemente las muertes prematuras anuales atribuibles a la mala calidad del aire en la Unión Europea: según la Agencia Europea de Medio Ambiente, se ha pasado de una estimación de un millón de muertes al año en 1990 a otra de 400.000 en 2016.

Querol considera que “los países y ciudades más avanzados en política ambiental han asumido social y políticamente que la calidad del aire no es un tema solamente de ecologismo, sino que lo es de salud pública en primer lugar”. Sin embargo, estos avances no han servido para alcanzar metas como la estrategia europea inicial en materia ambiental. “Prueba de ello es que desde 2010 debíamos cumplir una legislación en dióxido de nitrógeno que se ha infringido ampliamente en toda la Europa urbana; o que aún no se han adoptado como normativos los valores guía para PM de la OMS, a pesar de que la primera directiva de calidad del aire en Europa establecía que esto debía hacerse en 2010”, afirma el investigador.

A su juicio, para reducir la contaminación urbana es necesario adoptar medidas que “afectan al vehículo privado y la distribución de mercancías”. En esta dirección se enfoca el proyecto europeo Airuse Life +, galardonado como el mejor proyecto `Ciudades Verdes´ de 2018 y coordinado por este especialista. La iniciativa propone una reformulación urbanística, logística y del transporte muy profunda como estrategia para conseguir reducir la contaminación del aire en nuestras ciudades.

Mientras esto pasa en Europa, conTIMEminación se pregunta si estas medidas –en caso de que se implementen– llegarán a tiempo, y si lo harán en aquellos entornos –como los de los países en desarrollo– donde sus habitantes sufren un tipo de pobreza aun escasamente contemplada como un fenómeno de desigualdad geoeconómica: la pobreza ambiental. La imposibilidad de respirar aire digno.

Zabol, Onitsha, Peshawar, Gwalior…

* Fernando del Blanco Rodríguez es bibliotecario en el Centro de Investigación y Desarrollo del CSIC.

Blockchain, tierras raras, aceleradores de partículas… El CSIC lleva la actualidad científica a la Feria del Libro

Por Mar Gulis (CSIC)

¿Sabes cómo funcionan el bitcoin y otras criptomonedas? Si quieres algunas pistas, el martes 11 de junio en la Feria del Libro de Madrid David Arroyo, Jesús Díaz y Luis Hernández presentarán su libro Blockchain. Los autores explicarán al público los entresijos de esta tecnología y sus aplicaciones en la denominada criptoeconomía.

Como cada año, investigadores e investigadoras del CSIC acudirán a esta emblemática cita para dar a conocer los últimos libros publicados en las colecciones ‘¿Qué sabemos de?’ y ‘Divulgación’ (CSIC-Catarata), que acercan la ciencia al público general. El mismo día 11, además de criptoeconomía, se hablará del futuro de la óptica; el LHC, el mayor acelerador de partículas del mundo; y las tierras raras, 17 elementos químicos omnipresentes en las sociedades tecnológicamente avanzadas y, sin embargo, poco conocidos.

El 12 de junio, la investigadora Pilar Ruiz Lapuente se ocupará de la energía oscura, del posible final “frío y estéril” del cosmos y de otras cuestiones relacionadas con la astrofísica que aborda en su libro La aceleración del universo. En la misma jornada tendrán cabida temas como la tabla periódica de los elementos químicos, el albinismo y otras mutaciones genéticas o el papel de las áreas protegidas en la sostenibilidad ambiental.

En total, el CSIC y la editorial Los Libros de la Catarata, presentarán ocho obras de divulgación a través de las intervenciones de sus propios autores.

Estas son las coordenadas

Las presentaciones se realizarán los días 11 y 12 de junio, a partir de las 12:30 horas, en el Pabellón Bankia de Actividades Culturales, situado en las proximidades de los jardines de Cecilio Rodríguez del parque de El Retiro. De acceso libre, estas citas son una oportunidad para escuchar y plantear preguntas a los protagonistas de la ciencia.

Quienes busquen actividades para público más joven, el sábado 8 de junio tienen además una cita en el Pabellón infantil. Allí, investigadores del CSIC que han participado en la obra Descubriendo la luz. Experimentos divertidos de óptica realizarán demostraciones para niños y niñas. Las sesiones, de entrada libre y una duración de 15 minutos, se prolongarán desde las 12:30 hasta las 15:00 horas.

Y si la prioridad es llevarte tu libro con dedicatoria incluida, pásate por la caseta del CSIC (número 19) o la de Los Libros de la Catarata (número 336). Durante toda la feria, los autores de las novedades editoriales estarán en firmando ejemplares.

La información de las firmas se puede consultar aquí.

De la investigación a tu casa: ¿cómo controlar el gas radón?

Por Borja Frutos Vázquez* y Mar Gulis (CSIC)

Llega el día en el que por fin decides mudarte a otra vivienda. Has escogido una bonita casa ubicada en la sierra, alejada de la gran ciudad, el tráfico, el bullicio y la contaminación. La situación te parece idílica y vives con ilusión el cambio hasta que un día, hablando con tus nuevos vecinos, descubres que vivir en ella te podría acarrear serios problemas de salud. Te informas y descubres que la mayoría de las casas construidas en esa zona tienen, en su interior, concentraciones de un gas que es considerado cancerígeno y que este se adentra en la vivienda de manera natural a través del suelo… ¿verdad que la situación ha empeorado bastante?

Esto nos podría suceder a cualquiera que decidamos ir a vivir a alguna de las zonas consideradas de potencial riesgo por presencia de radón según los mapas publicados por el Consejo de Seguridad Nuclear (CSN). Esta cartografía representa, para todo el territorio nacional, los posibles niveles de presencia de gas radón según tres categorías.

Mapa de exposición potencial al radón elaborado por el CSN que muestra las tres zonas de riesgo, siendo la categoría 2 (color naranja) la de máximo riesgo

Pero tratemos de conocer mejor este gas, cómo puede estar presente en nuestros hogares y cómo podría afectar a nuestra salud.

El isótopo del radón Rn-222 aparece en la naturaleza como producto de la desintegración natural del radio-226, común en la corteza terrestre. La cantidad de este gas que puede exhalar viene definida, por un lado, por el contenido de radio del sustrato (por ejemplo, los graníticos), y por otro, por la permeabilidad del mismo, que facilita la movilidad a través de los poros. El radón, como elemento gaseoso, posee una alta movilidad y puede penetrar en los edificios a través de fisuras o grietas o por la propia permeabilidad de los materiales que estén en contacto con el terreno. Así, puede entrar fácilmente en el interior de la vivienda, atravesando los forjados, soleras y muros.

Caminos de mayor entrada de gas radón, que suelen coincidir con los puntos débiles de estanquidad de la envolvente en contacto con el terreno, fisuras, juntas, cámara de aire, chimeneas, conductos de saneamiento o materiales de cerramiento/ Elaboración propia

La acumulación de este gas en los recintos cerrados puede elevar las concentraciones y constituir un riesgo para la salud de las personas que lo inhalen. La OMS advierte de sus efectos, situándolo como agente cancerígeno de grado uno (es decir, probado), y alerta de que se trata de la segunda causa de cáncer de pulmón, detrás del tabaquismo. En otros documentos, como los publicados por la Agencia Estadounidense para la Protección Ambiental (EPA), se ofrecen datos de muertes asociadas a la inhalación de gas radón del mismo orden que las atribuidas a los accidentes de tráfico.

Dada la gravedad de la problemática y a partir de la percepción del riesgo derivada de estudios médicos epidemiológicos, algunos países han establecido unos niveles de concentración de radón de referencia, por encima de los cuales se recomienda, o se obliga según el caso, a una intervención arquitectónica para reducir los niveles. La concentración de este gas se expresa en bequerelios (número de desintegraciones subatómicas por segundo) por metro cúbico de aire y los valores límite que se están manejando a nivel internacional oscilan entre 100 y 300 Bq/m3, publicados en documentos de la OMS, la EPA o la Comisión Europea, mediante la Directiva 2013/59/EURATOM. Sobrepasados los niveles citados, resulta necesario realizar actuaciones correctoras para reducir las concentraciones.

¿Cómo se puede actuar frente al radón en las viviendas?

El CSN ha publicado una guía sobre las diferentes técnicas que se pueden emplear. Estas actuaciones se pueden clasificar en tres categorías. Ordenadas de mayor a menor eficacia, serían las siguientes:

  • Técnicas de despresurización del terreno. Se centran en drenar el gas contaminado en el terreno mediante redes o puntos de captación insertados en el subsuelo con conexión al ambiente exterior. Suelen usarse equipos de extracción para mejorar el rendimiento y radio de acción. Es una técnica de alta eficacia, aunque requiere de técnicos especializados.
  • Técnicas de barreras frente al radón. Se basan en la instalación de barreras estancas frente al paso del gas en todo elemento constructivo que separe el edificio del terreno. La colocación idónea es bajo la solera y por el exterior de los muros de sótano, por lo que suele usarse en proyectos en fase de ejecución y no en viviendas existentes.
  • Técnicas de ventilación. Mediante el intercambio de aire con el exterior se consigue reducir la concentración por dilución. Esta técnica puede requerir altas tasas de intercambio de aire que en muchos de los casos puede perjudicar la eficiencia energética por pérdidas de confort térmico. Se aconseja para situaciones de concentración baja o moderada.

Desde la identificación del radón como agente cancerígeno se ha incrementado el interés por el desarrollo de técnicas de protección. Durante las últimas dos décadas, se han venido probando soluciones y estudiando sus efectividades. En nuestro país, hace ya tiempo que se llevan a cabo estudios relacionados con la medida del gas, las concentraciones, los mecanismos de transporte o los efectos sobre la salud. Sin embargo, la investigación sobre las técnicas de protección y las experiencias de aplicación son aún escasas. En esta línea, en el Instituto de Ciencias de la Construcción Eduardo Torroja del CSIC se están desarrollando, en la actualidad, dos proyectos con el objetivo de controlar con mayor precisión la eficacia y optimizar el diseño de técnicas de protección. En concreto, el proyecto RADONCERO, busca obtener datos de optimización de los sistemas de protección frente a la entrada de gas radón en edificios para desarrollar una metodología de intervención que tenga en cuenta la diversidad de terrenos, las tipologías edificatorias más comunes en España y el uso que se les vaya a dar.

Para ello, en primer lugar, se evalúa la penetración de radón en edificios existentes analizando varias tipologías de terrenos y técnicas constructivas. En segundo lugar, se estudian los sistemas de protección como las barreras y los basados en extracciones de gas y ventilaciones (mediante el uso de herramientas informáticas que permiten simular procesos de movimiento del gas en todo el recorrido, desde el terreno hasta el interior del edificio). La última fase del proyecto consiste en la intervención en los edificios previamente analizados, aplicando el método resultante de los estudios de simulación antes citados y el método que ha sido propuesto para la protección frente al radón.

Dado que, a pesar de su importancia, aún no existe una reglamentación específica al respecto en nuestro país, los resultados de este proyecto constituyen una referencia técnica para el documento básico de protección frente al gas radón que se encuentra en la actualidad en fase de desarrollo en el ámbito del Código Técnico de la Edificación.


* Borja Frutos Vázquez es investigador del Instituto de Ciencias de la Construcción Eduardo Torroja (IETcc), del CSIC y lidera el proyecto RADONCERO.

El mercado de la reproducción asistida: ¿qué ocurre con las donantes de óvulos?

Por Vincenzo Pavone y Sara Lafuente Funes (CSIC)*

Entre el 1 y el 8% de todos los nacimientos que se producen en la actualidad son fruto de técnicas de reproducción asistida. Lo que en los años ochenta era casi experimental y estaba al alcance de muy pocas personas, se ha convertido en un abanico de técnicas y prácticas sociales presentes en todo el mundo.

La fecundación in vitro con óvulos de otras mujeres es el tratamiento que más ha aumentado. En España, este tratamiento representa una tercera parte de la reproducción asistida. Ese crecimiento se debe a dos cuestiones fundamentales: la primera es que nuestro país es el primer destino europeo de turismo reproductivo. De todos los residentes extranjeros que realizan procesos de reproducción asistida aquí, el principal tratamiento implica la donación de óvulos, seguido de la donación de semen. De hecho, la mitad de los ciclos de donación de óvulos realizados en Europa se llevan a cabo en España.

Future element/Odra Noel

La segunda cuestión es el retraso de la edad reproductiva. Si bien no existen datos de edad en los hombres (a pesar de que también estén afectados por el llamado ‘reloj biológico’), sí sabemos que una parte muy importante de las mujeres que acceden a reproducción asistida, y por ende a óvulos donados, tiene más de 40 años. Este cambio de patrón en la fertilidad es especialmente llamativo en España, donde la edad media del primer embarazo es de 32 años. Muchas parejas intentan reproducirse cuando los gametos de ambos no son de una calidad y eficacia suficiente para conseguir un embarazo. De ahí el uso de gametos ajenos, sobre todo óvulos. Obviamente, si se configurara el mundo de forma que las mujeres y los hombres no tuvieran que posponer constantemente la reproducción, habría menos necesidad tanto de óvulos donados como de vitrificación de los mismos.

Depende de a qué nivel miremos, la solución a este retraso generalizado de la maternidad puede ser estrictamente tecnológica y biomédica, o tener un enfoque múltiple, en combinación con el sociológico o el político. La tecnología sirve para algunas cuestiones, pero no es la única solución y, en el caso de la donación de óvulos, no va sola, sino que precisa de la colaboración de terceras partes, las donantes, de las que se sabe muy poco. En el proyecto Donación de óvulos en Reino Unido, Bélgica y España, EDNA por sus siglas en inglés, tratamos de entender mejor las experiencias de las donantes y el papel que representan en el contexto de un sistema que, por el momento, prefiere desarrollar técnicas reproductivas a establecer medidas económicas y sociales que posibiliten adelantar la edad de maternidad.

El proyecto EDNA se basa en un estudio internacional e interdisciplinar y pretende recopilar información sobre toda la experiencia del proceso de donación en los tres países mencionados. Partimos de la idea de que es fundamental conocer bien el punto de vista de las donantes: sus experiencias, dudas, deseos y preocupaciones.

España, a la cabeza de la bioeconomía reproductiva

En España la reproducción asistida con gametos de terceros/as es asumida fundamentalmente por el sector privado, ya que la Seguridad Social no trata a mujeres de más de 40 años y no cuenta con recursos suficientes ni para compensar económicamente a las donantes ni para montar la infraestructura necesaria para reclutarlas y gestionar los ciclos. Andalucía es una excepción a lo primero, y existen programas de donación sin compensación en otros lugares como el País Vasco, si bien el número de ciclos que realizan es muy bajo.

La donación funciona de forma anónima en todos los casos, y se compensa con aproximadamente 1.000 euros (con pequeñas variaciones según clínica y comunidad autónoma). En este contexto, el punto de vista de las protagonistas principales de esta práctica sigue siendo ignorado. Además, de acuerdo con las clínicas, la mayoría de las mujeres que se movilizan para donar sus óvulos son rechazadas por razones médicas, psicológicas o fenotípicas. Cómo viven el rechazo estas mujeres también es un tema completamente desconocido.

Gracias a la información procedente de las clínicas, los profesionales y de las propias donantes, nuestra investigación está desvelando una paradoja: a las mujeres que aportan sus óvulos se les pide que vean el proceso como una donación, pero con sus óvulos se ha construido un mercado. Todos los actores implicados actúan en un régimen comercial claramente definido: el personal sanitario, las receptoras y las agencias intermediarias que reclutan a las donantes. Sin embargo, a las mujeres donantes se les demanda que actúen desde el altruismo y la generosidad. Esto se afirma en el plano discursivo, pero en la práctica existe una compensación económica que parece explicar que haya tantas donantes en España, un país donde el salario mínimo no llega a la cantidad de la compensación.

Las clínicas de reproducción asistida, además, ofrecen discursos diferentes a sus clientes en función del tratamiento que reciben. Por ejemplo, cuando se habla de tratamientos con óvulos donados, se pone el foco en que la gestación es un proceso vital para el vínculo materno filial. Sin embargo, cuando se trata de gestación subrogada, todavía no permitida en España, la genética es lo central. El mercado crea un relato que permita construir un producto vendible.

Según el país del que se trate, las bioeconomías reproductivas se expanden de acuerdo a distintos modelos. El modelo español regula que la donación sea “no pagada”, pero reconoce una “compensación económica por las molestias”; en Estados Unidos existe un mercado libre; en Francia se ha desarrollado un sistema público (anónimo y sin compensación, que da lugar a muy pocos tratamientos); en múltiples países la donación de óvulos no está permitida… Y cada vez más los países están más interrelacionados: Italia compra óvulos a España, y en Bélgica se mezclan características de varios modelos.

En relación a la movilidad de los óvulos, cabe destacar que por cada donación se extraen unos 16 óvulos de media, lo que permite la realización de múltiples tratamientos. Hay clínicas que utilizan 4-6 óvulos para una receptora, congelan el resto y los comercializan hacia otras clínicas dentro y fuera del Estado. ¿Cuáles son las opiniones de las donantes sobre estas prácticas?, ¿las conocen?, ¿deberían formar parte de las decisiones sobre qué pasa con sus óvulos?

Nuevas preguntas sobre la reproducción asistida

Debatir estas cuestiones es fundamental para avanzar hacia un modelo que sea más justo, más eficaz, donde se repartan mejor los riesgos y los beneficios. En la bioeconomía reproductiva, uno de los problemas es que siempre se realizan las mismas preguntas, y se contestan desde una perspectiva muy tecnológica.

Uno de los objetivos del proyecto EDNA es generar nuevas preguntas. Para ello es esencial separar las tecnologías en sí de las prácticas; una cosa es la reproducción asistida y otra la implicación de terceras partes. En el caso de la donación de óvulos, estaríamos hablando no tanto de una técnica de reproducción asistida, como de una transferencia de capacidad reproductiva. Los óvulos de mujeres jóvenes, además de ayudar a otras mujeres a ser madres, estarían sosteniendo un sistema que retrasa la edad de maternidad, un modelo biomédico privado de reproducción asistida, es decir, están siendo utilizados para sostener la ‘reproducción’ de un sistema social, político y económico concreto.

Todo esto, además, debe ser tenido en cuenta al regular otros tipos de “transferencias de capacidad reproductiva” como la gestación subrogada, otra práctica relacional que tiende a presentarse como una “técnica”. Si se regulara la gestación subrogada en España de forma similar a la regulación de la donación de óvulos, se generarían dinámicas comerciales similares, ya que muchos de los actores implicados serían los mismos.

Entonces, ¿hacia dónde dirigir estas tecnologías y estas regulaciones? Como sociedad tenemos una gran responsabilidad respecto a los avances biomédicos, biotecnológicos y bioeconómicos. El hecho de que exista un tratamiento no quiere decir que debamos garantizar el acceso al mismo, fundamentalmente cuando requiere de la participación de terceras personas. Es importante estudiar detenidamente la relación entre estas tecnologías y prácticas, la estratificación reproductiva y la posible ampliación de estos tratamientos, su normalización y su naturalización. El futuro va a depender de lo en serio que nos tomemos pensar colectivamente qué queremos hacer con este conocimiento.

 

* Vincenzo Pavone y Sara Lafuente Funes son investigadores del Instituto de Políticas y Bienes Públicos del CSIC y responsables en España del proyecto EDNA, coordinado por Nicky Hudson de la Universidad de Monfort.