BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de mayo, 2018

¿Hora de enterrar para siempre a Hans Asperger, médico nazi?

El pediatra austríaco Hans Asperger (1906-1980), cuyo nombre se utiliza desde 1981 para designar un síndrome relacionado con los Trastornos del Espectro del Autismo (TEA), comenzó en 1938 a firmar sus diagnósticos con un “Heil Hitler“. De por sí, alguien podría argumentar que este hecho no es suficiente motivo para descalificar a Asperger: ¿quizá estaría obligado? ¿Pudo ser un trampantojo para mostrar una fachada aceptable ante el régimen nazi que le permitiera proteger a sus pequeños pacientes, como hacía Oskar Schindler cuando agasajaba a los jerarcas del III Reich?

Hans Asperger, circa 1940. Imagen de Wikipedia.

Hans Asperger, circa 1940. Imagen de Wikipedia.

Precisamente el caso de Schindler, si es que la película es fiel a la historia real, sirvió para popularizar a través del cine la figura del personaje con claroscuros frente a la dictadura de Hitler, lejos del clásico esquema de los buenos sin sombras y los malos sin luces. En aquel guion fluía maravillosamente la transición del personaje: desde el especulador sin remordimientos deseoso de lucrarse a costa de la guerra y el sufrimiento, al empresario interesado en defender a los suyos en pro de su propio beneficio, y finalmente al benefactor dispuesto a arruinarse por salvar una vida más.

Después de la Segunda Guerra Mundial y aparte de los juicios como los de Nuremberg, infinidad de personajes de la época fueron sometidos a escrutinio para determinar cuál había sido su relación real con el III Reich. Muchos salieron de aquel proceso legalmente exonerados pero con su reputación comprometida, como el director de orquesta Herbert von Karajan, muy representativo del caso del oportunista que prefirió mirar para otro lado: von Karajan no era nazi ni colaboró de ningún modo con el régimen, pero sí fue miembro del partido y se aprovechó de esta condición para edificar su carrera llevando su música por los países invadidos.

Esta ambigüedad tuvo su propio capítulo en el mundo de la ciencia. Es bien sabido cómo se hizo la vista gorda con el ingeniero Wernher von Braun y otros 1.600 científicos y especialistas nazis, reclutados después de la guerra por el gobierno de EEUU con sus expedientes limpios de polvo y paja. Pero quizá no tan conocido es el hecho de que algunas de las crueles investigaciones llevadas a cabo por los científicos con los prisioneros de los campos de concentración continuaron sirviendo después como referencias en ciertas líneas científicas.

Experimento de hipotermia con un prisionero en el campo de concentración de Dachau. Imagen de Wikipedia.

Experimento de hipotermia con un prisionero en el campo de concentración de Dachau. Imagen de Wikipedia.

Un ejemplo es el efecto de la hipotermia en el cuerpo humano. Con el fin de investigar cómo proteger a los pilotos de la Luftwaffe si caían derribados en el mar, los científicos nazis sumergían a los prisioneros en bañeras de hielo con uniforme de vuelo, cronometrando el tiempo que tardaban en morir. Durante décadas, estudios posteriores sobre esta materia han citado aquellas investigaciones, obviando el pequeño detalle de que los resultados se obtuvieron torturando hasta la muerte a los sujetos humanos.

De cuando en cuando, en los foros científicos resurge el debate sobre la necesidad de terminar de limpiar la ciencia de aquella herencia macabra. Y esta discusión concierne también a ciertos trastornos que aún hoy continúan llevando el nombre de médicos presunta o probadamente relacionados con el régimen nazi. Probablemente el más conocido de estos nombres es el de Asperger.

Pero ¿quién era Hans Asperger? ¿Era un Schindler, o al menos un mero von Karajan? ¿O era en realidad un médico nazi? Durante décadas su figura ha estado envuelta en una neblina de incertidumbre: “la literatura existente sobre el tema ha tendido a minimizar o pasar por alto cualquier implicación [con el régimen nazi], o incluso a postular que Asperger adoptó una posición de resistencia activa”, escribía el mes pasado en la revista Molecular Autism el historiador de la Universidad Médica de Viena (Austria) Herwig Czech.

Sin embargo, según muestra el trabajo de Czech, parece que la versión más ajustada a la realidad es la más terrible. A lo largo de un decenio, Czech ha desenterrado y analizado una vasta documentación sobre el pediatra austríaco que hasta ahora dormía en los archivos, además de reunir y repasar las diversas y a veces discrepantes fuentes ya conocidas. Y de su amplio estudio de 43 páginas se desprende un veredicto contundente. Según resume un editorial que acompaña al estudio de Czech, Asperger “no solo colaboró con los nazis, sino que contribuyó activamente al programa nazi de eugenesia enviando a niños profundamente discapacitados a la clínica Am Spiegelgrund de Viena”.

Am Spiegelgrund es uno de los nombres más infames en la historia de las atrocidades nazis. “Era una clínica que él [Asperger] sabía que participaba en el programa de eutanasia infantil del III Reich, donde se mataba a los niños como parte del objetivo nazi de crear por ingeniería eugenésica una sociedad genéticamente pura a través de la higiene racial y de la eliminación de las vidas consideradas una carga y no merecedoras de vivir”, prosigue el editorial. Como parte del programa de eutanasia Aktion T4, en aquella siniestra institución 789 niños murieron por gas, inyección letal o desnutrición, muertes que en los certificados oficiales se atribuían a la neumonía. La clínica conservó en tarros los cerebros de cientos de niños para su estudio.

Memorial en Viena por los niños asesinados por el régimen nazi en Am Spiegelgrund. Imagen de Haeferl / Wikipedia.

Memorial en Viena por los niños asesinados por el régimen nazi en Am Spiegelgrund. Imagen de Haeferl / Wikipedia.

La investigación de Czech no descubre, ni el historiador pretende alegar, que Asperger participara directamente en las muertes de aquellos niños. Pero con diagnósticos “marcadamente duros”, como calificar a un niño de “carga insoportable”, el pediatra recomendaba el internamiento de los pequeños en Am Spiegelgrund, donde sabía que muchos de ellos eran asesinados. La jerarquía nazi consideraba a Asperger “políticamente irreprochable” y un firme defensor de los principios de higiene racial, y su lealtad al régimen fue recompensada con progresos en su carrera.

Como conclusión principal, Czech señala: “A la luz de la evidencia histórica, la narrativa de Asperger como destacado oponente del Nacional Socialismo y valiente defensor de sus pacientes contra la eutanasia nazi y otras medidas de higiene racial no se sostiene”.

Por si no fueran pruebas suficientes, la publicación del estudio de Czech ha coincidido con la del libro de Edith Sheffer Asperger’s Children: The Origins of Autism in Nazi Vienna, que expone una tesis similar: “Asperger no solo estuvo implicado en las políticas raciales del III Reich de Hitler, sino que además fue cómplice en el asesinato de niños”.

Recientemente se ha informado de que en la nueva versión –que entra en vigor este mes– de la Clasificación Internacional de Enfermedades (CIE) de la Organización Mundial de la Salud (OMS), una de las dos referencias globales utilizadas por la psiquiatría, desaparece definitivamente el diagnóstico de Síndrome de Asperger, pasando a fusionarse dentro de los TEA. Algunas personas diagnosticadas con Asperger van a echar de menos este epónimo, algo comprensible después de una vida acostumbrados a él. Pero la decisión adoptada por la OMS, que responde a motivos clínicos, va a evitar algo que para otros muchos sí puede ser una carga insoportable: llevar en su condición el nombre de quien mandaba a los niños al exterminio.

¿Dormir con tu perro es malo? La opinión experta, el estudio y el estudio científico

Quienes se dedican a analizar cómo funciona el panorama informativo en esta era de las redes sociales suelen insinuar que nos encontramos frente a un embrollo de p…; perdón, quiero decir, frente a un embrollo de considerables dimensiones. Suelen referirse a ello con términos como crisis de la autoridad de los expertos, o algo similar. O sea, que el valor que se otorga al mensaje ya no depende tanto del emisor (su cualificación profesional y su credibilidad como experto), sino del receptor (sus inclinaciones personales, normalmente ideológicas).

No pretendo entrar en fangos políticos, pero me entenderán con un ejemplo sencillo y muy popular: para algunos, el actor Willy Toledo es un intelectual preclaro, mientras que para otros es eso que ahora llaman un cuñado, o algo peor. Pero lo relevante del caso no es qué bando tiene la razón, sino que ambas valoraciones son independientes de los méritos y las cualificaciones que puedan avalar al actor como pensador político; yo no los conozco, y dudo que tampoco muchos de quienes le aplauden o le denostan, que en cualquier caso contribuyen por igual a hacer de él y de sus manifestaciones un trending topic. Y trending topic es algo que se define como lo contrario de las reflexiones de un experto y veterano politólogo de prestigio mundial escondidas en la página 27 del suplemento dominical de un periódico.

Ciñéndome al campo que me toca y me interesa, la ciencia, las fake news proliferan en internet sin que las refutaciones objetivas, contundentes e indiscutibles, parezcan servir para que desaparezcan. En algunos casos se trata de falsas noticias curiosas, como aquello que ya conté aquí de que mirar tetas alarga la vida de los hombres. No importa cuántas veces se aclare que la noticia era falsa, y que ni tal estudio ni su supuesta autora existieron jamás; el bulo ha resurgido periódicamente y continuará haciéndolo.

Pero en otros casos no se trata de curiosidades inocuas, sino de falacias que pueden ser muy dañinas, como los falsos riesgos de las vacunas o de los alimentos transgénicos. Ambas creencias han sido refutadas una y otra vez por aquello que de verdad puede refutarlas, los estudios científicos. Pero lo que al final llega a trending topic es la opinión del actor Jim Carrey o del ¿también actor? Chuck Norris.

Se fijarán en que he escrito “los estudios científicos”, y no “los estudios” ni “los científicos”. Porque en esta era del derrocamiento de la autoridad experta, es imprescindible distinguir entre la opinión de un científico, el estudio y el estudio científico, dado que no todo ello tiene el mismo valor.

Hace unos días mi vecina de blog Melisa Tuya, autora de En busca de una segunda oportunidad (además de otro blog y varios libros), me pasaba una nota de prensa enviada por una empresa que vende colchones (no entro en detalles, pero el comunicado ha sido publicado por algún medio). La compañía en cuestión advertía sobre los riesgos de dormir con tu perro, concluyendo que esta práctica acarrea más desventajas que ventajas. Naturalmente, no hay disimulo: la empresa lanza un colchón específico para perros, y lo que pretende es avalar las bondades de su producto con las maldades de que el animal comparta la misma cama que sus dueños.

Imagen de pxhere.

Imagen de pxhere.

Para apoyar sus proclamas, la compañía ha contratado (obviamente, en estos casos siempre hay un flujo monetario) una opinión experta, la de una veterinaria. La doctora advierte en primer lugar de que los animales deben estar limpios y desparasitados para evitar el riesgo de que el contacto con los humanos en la misma cama (o en cualquier otro lugar, para el caso) pueda favorecer la transmisión de enfermedades. El consejo resulta incuestionable, ya que innumerables estudios científicos han demostrado el contagio de infecciones de animales a humanos, como he contado aquí.

Pero seguidamente la veterinaria entra en un terreno más pantanoso, y es el de los posibles efectos nocivos que el compartir el lecho con los humanos puede ejercer sobre la conducta del animal: que le dificulte la separación de sus dueños o que crea haber conquistado el castillo de la cama y el liderazgo del hogar. Y al fin y al cabo, añade la doctora, el animal no va a ser más feliz por el hecho de dormir junto a sus dueños.

Todo esto está muy bien. Pero ¿dónde están los datos? Afirmar que esta versión zoológica del colecho puede dañar la psicología del animal es una hipótesis razonable. Pero sin aval científico, es solo una hipótesis. O en otras palabras, una opinión. Y aunque sin duda las opiniones de los expertos merecen una mayor consideración que las de quienes no lo son, una proposición científicamente comprobable no tiene valor de verdad hasta que se comprueba científicamente. Y la historia de la ciencia es un reguero de hipótesis fallidas. Puede que dormir con sus dueños altere la conducta del perro. Tanto como puede que no. Pero en ciencia no debe existir el “ex cátedra”: la verdad no está en la opinión de un experto, sino en la opinión de un experto respaldada por los estudios científicos. ¿Los hay? No, no basta con la experiencia propia. En ciencia, no.

Voy ahora al segundo argumento, y es la diferencia entre el estudio y el estudio científico. Hoy estamos inundados de estudios por todas partes. Casi cualquier empresa con el suficiente poderío y una política de marketing emprende estudios: las webs de venta de pisos publican estudios sobre la evolución del precio de la vivienda, los seguros médicos publican estudios sobre el consumo de alcohol en los jóvenes, y hasta las webs porno publican estudios sobre las preferencias sexuales de sus usuarios. Para las empresas, elaborar estudios se ha convertido en una práctica común, quizá porque aumenta su visibilidad y su reputación a ojos del consumidor.

Pero hay algo esencial, crucial, sustancial, básico, y todos los sinónimos son pocos, que distingue a un estudio corporativo de un estudio científico: el primero no pasa otro filtro que el de la propia compañía, que por definición está siempre afectada por un conflicto de intereses. En la inmensa mayoría de los casos, lo que las empresas denominan estudios son lo que antes se llamaba encuestas. Una encuesta es algo muy valioso y necesario, pero no llega a ser un estudio. Para dar el salto de una cosa a otra es preciso pasar de los datos crudos a los cocinados, a la interpretación de los resultados y la formulación de las conclusiones. Y es aquí donde resulta imprescindible lo que los estudios científicos sí tienen, y no los corporativos.

La revisión por pares, o peer review.

Revistas científicas. Imagen de Selena N.B.H. / Flickr / CC.

Revistas científicas. Imagen de Selena N.B.H. / Flickr / CC.

Para que un estudio científico se publique y se difunda, es indispensable que lo aprueben otros científicos expertos en el mismo campo de investigación, elegidos por la revista a la cual se ha enviado el trabajo y que no han participado en su elaboración. Y esto, en contra de lo que quizá podría pensarse, no es un simple trámite, ni mucho menos.

Un trámite, aunque duro de completar, es la aprobación de una tesis doctoral; no conozco un solo caso en que una tesis doctoral se haya suspendido (los habrá, pero no los conozco). El tribunal lo escoge el propio doctorando, normalmente entre aquellos investigadores con los que ya tiene una relación previa, y la calificación estándar es sobresaliente cum laude. No se dejen engañar por alguien que presuma de haber obtenido un sobresaliente cum laude en su tesis doctoral: es la nota habitual, también para este que suscribe.

Pero un caso radicalmente opuesto es el de los estudios científicos. No conozco ningún caso en que un estudio se haya aprobado a la primera (y en este caso dudo que los haya, salvo cuando hay trampa, como en el caso de Luc Montagnier que conté aquí). Los revisores o referees destripan los estudios, los machacan, los pulverizan, los apalizan hasta dejarlos reducidos a pulpa. Todo estudio se enfrenta a un largo calvario y a una cadena de revisiones y rechazos antes de encontrar finalmente su hueco en las páginas de una publicación científica, si es que lo encuentra.

Naturalmente, hay corruptelas y favoritismos; los revisores no tratan por igual un estudio escrito por un tal Francis Mojica de la Universidad de Alicante que otro firmado por Eric Lander, director del Instituto Broad del MIT y la Universidad de Harvard, y los Mojica de este mundo dependen de que los Lander de este mundo acaben abriéndoles las puertas al reconocimiento de su trabajo. Por supuesto, también hay estudios fraudulentos, como el de Andrew Wakefield, el médico que se inventó el vínculo entre vacunas y autismo; falsificar un estudio científico es relativamente fácil. Pero estas anomalías son contaminaciones del factor humano, no errores del sistema.

Por último, en años recientes se ha impuesto además el requisito de que los investigadores firmantes de los estudios científicos declaren sus posibles conflictos de intereses, como fuentes de financiación o participación de una manera u otra en cualquier tipo de entidad. A un científico que recibe financiación de un fabricante de refrescos no se le impide publicar un estudio que presenta algún beneficio del consumo de azúcar (suponiendo que lo hubiera), siempre que el trabajo sea riguroso y los datos sean sólidos, pero debe declarar este conflicto de intereses, que aparecerá publicado junto a su nombre al pie de su artículo. Obviamente esto no ocurre en los estudios corporativos, pero tampoco en las opiniones de (en este caso incluso hablar de “presuntos” es una exageración) expertos cuando cobran abultadas cantidades por anunciar un pan de molde “100% natural”.

El mensaje final es: cuidado con las referencias a expertos y estudios. En el terreno de la ciencia, para valorar la credibilidad de una afirmación hay que diseccionar escrupulosamente el nivel de rigor científico de la fuente original. Y si hay pasta de por medio.

Pero si ustedes han llegado aquí para saber si es bueno o no dormir con un perro, y ateniéndonos a los estudios científicos, la respuesta es que aún no hay datos suficientes: una revisión publicada en septiembre de 2017 por investigadores australianos dice que “mientras que las prácticas de colecho adulto-adulto y progenitor-hijo/a se han investigado bien, dormir o compartir la cama con animales ha sido relativamente ignorado [por los estudios]”. El trabajo presenta posibles pros y contras basándose en los escasos estudios científicos previos, proponiendo que el colecho con hijos y el que se practica con animales de compañía “comparten factores comunes […] y a menudo resultan en similares beneficios e inconvenientes”. Como conclusión, los investigadores apuntan que se necesita más “investigación empírica”. Así pues, que no les vendan motos. O colchones.

Por qué la carabela portuguesa no es una medusa, y en qué se diferencian

Es comprensible que muchas personas confundan la carabela portuguesa, de actualidad estos días por su aparición en la costa mediterránea, con una medusa. Al primer vistazo ambas pueden tener un aspecto parecido, una parte superior globosa con tentáculos colgando.

Pero quien prefiera llamar a las cosas por su nombre (entre quienes, al menos, deberían contarse los medios de comunicación y las concejalas de Turismo del Ayuntamiento de Alicante) deberían evitar no solo referirse a la carabela portuguesa como “esta medusa”, sino también prescindir del “no es una verdadera medusa”; la carabela portuguesa está más lejos de ser una medusa que un tiburón de ser un humano, ya que los escualos y nosotros nos separamos en la línea evolutiva hace solo unos 470 millones de años, mientras que las medusas y los hidrozoos llevan siendo cosas distintas los últimos 580 millones de años.

Carabela portuguesa en una playa de Florida. Imagen de Volkan Yuksel / Wikipedia.

Carabela portuguesa en una playa de Florida. Imagen de Volkan Yuksel / Wikipedia.

La carabela portuguesa (Physalia physalis) es un hidrozoo, como las hidras de agua dulce. Dentro de los hidrozoos pertenece al grupo de los sifonóforos, del cual es el representante más conocido. Pero lo que más la diferencia de una medusa es que esta es un animal, mientras que la carabela portuguesa es en realidad una colonia de animales, una especie de colmena formada por muchos individuos (llamados zooides o pólipos) genéticamente idénticos, pero tan especializados en sus funciones que no pueden vivir separados.

Así, cada carabela tiene un sexo, macho o hembra. Los pólipos especializados en la reproducción, llamados gonozooides, sueltan al mar su esperma o sus óvulos cuando se reúnen muchos ejemplares, con la esperanza de que ambos tipos de células lleguen a encontrarse.

Este aparato reproductor primitivo es una de las cuatro partes de la carabela portuguesa. Otra de ellas es la más reconocible, el neumatóforo, ese globo de color azulado con forma de pizza calzone que flota sobre el agua y que está relleno de un gas cuyo componente mayoritario es monóxido de carbono, el mismo que provoca los envenenamientos por las calderas defectuosas o los tubos de escape. A diferencia de las medusas, la carabela portuguesa no se propulsa en el agua, sino que se limita a echar su vela al viento y dejarse llevar por las corrientes marinas. Pero en caso de amenaza, pueden desinflar el neumatóforo y sumergirse.

La carabela se alimenta a través de su tercera parte, los pólipos devoradores o gastrozooides. Su dieta es carnívora, formada por presas atrapadas y envenenadas por su parte más temible, los tentáculos de hasta 50 metros. Estos pólipos, llamados dactilozooides, son los que pican, y mucho. La picadura tiene fama de ser muy dolorosa, aunque en contra de lo que pueede leerse por ahí, casi nunca es letal: en las revistas médicas solo hay un caso descrito de muerte causada por una carabela portuguesa (en la prensa ha aparecido algún otro caso sin confirmar).

Detalle de una carabela portuguesa. Imagen de Taro Taylor / Flickr / CC.

Detalle de una carabela portuguesa. Imagen de Taro Taylor / Flickr / CC.

El mecanismo de la picadura es una diminuta maravilla. Los pólipos de los tentáculos tienen unas células llamadas nematocitos (o cnidocitos) que contienen una cápsula con un minúsculo arpón enrollado en su interior. En la parte exterior, la célula tiene una especie de pelo que actúa como gatillo. Cuando el roce o un estímulo químico activan el gatillo, el agua entra a presión en la célula, disparando el arpón que se clava en la presa para inyectar la toxina.

Mecanismo de acción de los cnidocitos o nematocitos. Imagen de Spaully / Wikipedia.

Mecanismo de acción de los cnidocitos o nematocitos. Imagen de Spaully / Wikipedia.

Este mecanismo es el motivo por el que siempre se recomienda tratar con extremo cuidado las picaduras: cuando lo que pica es un insecto, el daño ya está hecho. Pero los fragmentos de los tentáculos de una carabela o de una medusa se quedan adheridos al cuerpo, y un manejo inadecuado en el momento de los primeros auxilios puede hacer que salten los nematocitos que aún no lo han hecho, empeorando la situación. Este es también el motivo de que nunca deban recogerse ejemplares muertos de las playas: no están realmente muertos.

Un nematocito disparado, observado con microscopio electrónico. Imagen de Wikipedia.

Un nematocito disparado, observado con microscopio electrónico. Imagen de Wikipedia.

¿Y cuál es el tratamiento adecuado? ¿Orina? ¿Vinagre? ¿Zumo de limón? ¿Alcohol? ¿Bicarbonato? ¿Espuma de afeitar? ¿Agua dulce? ¿Agua salada? Tradicionalmente se aconseja evitar el agua dulce y lavar la herida con agua de mar. Sin embargo, el año pasado investigadores de Irlanda y Hawái comprobaron que el aclarado con agua salada no ayuda, ya que extiende los nematocitos. Los resultados de aquel estudio indican que la mejor opción es aclarar la herida con vinagre para eliminar los restos de tentáculos y después sumergir la herida en agua caliente (salada) a 45 ºC durante 45 minutos, o aplicar una bolsa de agua caliente.

Según un estudio del Instituto de Ciencias Marinas de Andalucía, parece que las recurrentes apariciones de estos multianimalitos en las playas del Mediterráneo no son el aviso de una invasión en toda regla, sino que posiblemente se trata de fenómenos aislados debidos a la coincidencia de ciertas circunstancias meteorológicas y oceanográficas durante el invierno. Por suerte aún estamos lejos del escalofriante espectáculo que muestra este vídeo, grabado en Australia el pasado noviembre.

¿Las palomas pueden transmitir enfermedades? Sí, como cualquier otro animal (sobre todo los humanos) (II)

Recientemente un amigo sostenía que Paul McCartney no es un buen guitarrista. Hey, ni siquiera está en la lista del Top 100 de Rolling Stone, en la que sí aparecen sus excompañeros George Harrison (en el puesto 11) y John Lennon (55).

Mi respuesta era: McCartney no es un buen guitarrista, ¿comparado con quién? La lista de Rolling Stone, incluso suponiéndole un valor rigurosamente objetivo (que no es así), solo muestra que en el mundo han existido al menos 100 guitarristas mejores que el exBeatle. ¿Cuántos millones de guitarristas son peores que él? Descalificar a McCartney desde la posición de un aficionado es como mínimo presuntuoso, pero sobre todo es perder de vista la perspectiva del contexto: ya quisieran muchas bandas en el mundo, incluso entre quienes le critican, tener un guitarrista como Paul McCartney.

¿Y qué diablos tiene que ver Paul McCartney con las palomas y las zoonosis (enfermedades transmitidas de animales a humanos)?, tal vez se pregunten. Para valorar con la adecuada perspectiva la destreza de McCartney con la guitarra, o el riesgo de transmisión de enfermedades de las palomas, es esencial situar el objeto de valoración en su contexto: ¿comparado con qué? Sí, las palomas pueden transmitir enfermedades a los humanos, y de hecho sucede. Pero ¿cuál es el riesgo real? ¿Con qué frecuencia ocurre?

Imagen de Craig Cloutier / Flickr / CC.

Imagen de Craig Cloutier / Flickr / CC.

Regresemos al estudio de la Universidad de Basilea que cité ayer. Los autores peinaron los datos y tienen la respuesta: entre 1941 y 2003, el total de casos documentados de contagios humanos causados por palomas fue de… 176. En 62 años, 176 casos. ¿Saben cuántas personas mueren en accidente de tráfico solo en un año, concretamente en 2013, el último dato publicado por la Organización Mundial de la Salud? 1.250.000. Incluso suponiendo que los 176 casos de contagios por palomas hubieran terminado en muerte, que ni mucho menos es así, podríamos estimar que en un año mueren más de 446.000 veces más personas en la carretera que por causa de las palomas. Lo cual nos sugiere que deberíamos estar 446.000 veces más preocupados por el riesgo para nuestra salud de los coches que de las palomas.

De esos 60 patógenos que las palomas podrían transmitirnos, solo hay casos documentados de transmisión a humanos para siete de ellos. Ninguno de ellos, ninguno, de Campylobacter (esa bacteria presente en más de dos tercios de las palomas madrileñas analizadas en aquel alarmista alarmante estudio que comenté ayer). La mayoría de ellos, de Chlamydia psittaci y Cryptococcus neoformans. Los autores del estudio suizo concluían: “aunque las palomas domésticas suponen un riesgo esporádico para la salud humana, el riesgo es muy bajo, incluso para los humanos implicados en ocupaciones que les ponen en contacto estrecho con los lugares de anidación”.

Pero volvamos a los resultados del estudio sobre las palomas madrileñas. Aparte de en esta especie, ¿dónde más podemos encontrar la Chlamydia psittaci y la Campylobacter jejuni? Respecto a la primera, y aunque la psitacosis se conoce como enfermedad de los loros por su primera descripción en estos animales, lo cierto es que es muy común en las aves: según una revisión de 2009 escrita por investigadores belgas, se ha descrito en 465 especies. Y entre ellas, ya podrán imaginar que se encuentra el ave más directamente relacionada con los hábitos de consumo de infinidad de humanos: el pollo, o la gallina.

Por ejemplo, un estudio de 2014 en granjas belgas descubría que en 18 de 19 instalaciones analizadas estaba presente la bacteria de la psitacosis; o mejor dicho bacterias, ya que recientemente se han descubierto otras especies relacionadas que también causan la enfermedad. Periódicamente las investigaciones, como una llevada a cabo en 2015 en Francia, descubren que la enfermedad ha saltado de los pollos a los trabajadores de las granjas. Por suerte, la psitacosis se cura con antibióticos. Y aunque la transmisión de persona a persona es posible, es muy rara. También los pavos pueden ser una fuente de contagio: los autores de la revisión de 2009 citaban que esta bacteria es endémica en las granjas belgas de pavos, y que por tanto lo es probablemente también en muchos otros países.

Pero también Campylobacter jejuni, el otro microbio detectado en las palomas madrileñas y que puede provocar diarreas en los humanos, se cría muy a gusto en las granjas aviares. En 2017, un estudio de las muestras fecales en instalaciones holandesas encontró una prevalencia de esta bacteria del 97% en las granjas de gallinas ponedoras, y del 93% en las que criaban pollos para carne. Los autores comprobaron que en más de la cuarta parte de los casos los microbios se expanden al suelo y las aguas circundantes, y citaban el dato de que el 66% de los casos de campilobacteriosis en humanos se originan en los pollos, seguidos por un 21% causados por el ganado. Las palomas no aparecen como fuente de ningún contagio.

Claro que, con todo lo anterior, habrá alguien tentado de concluir que las palomas en concreto, pero también las aves en sentido más amplio, son “ratas con alas”. Pues bien, y aunque la mayoría de los casos de campilobacteriosis registrados proceden de los pollos, en realidad no son estos animales la mayor fuente posible de contagio de estas bacterias: una nueva revisión publicada precisamente hace unos días nos recuerda que “las especies de Campylobacter pueden aislarse comúnmente en las muestras fecales recogidas de perros y gatos”.

Es decir, que la bacteria cuya presencia en las palomas fue tan cacareada (¿o gorjeada?) por aquel estudio en Madrid es muy común en los perros y los gatos; quien lleve a su perro al parque mirando con recelo a las palomas, debería saber que posiblemente su propio animal sea portador de esta bacteria. Claro que, como vengo insistiendo, el riesgo de contagio en cualquier caso es realmente bajo. Sin embargo, es oportuno citar al autor de la nueva revisión: “el contacto con perros y gatos es un factor reconocido de campilobacteriosis humana, y por tanto las personas que viven o trabajan en estrecho contacto con perros y gatos deberían ser advertidas de los organismos zoonóticos que estos animales pueden liberar”.

De hecho, Campylobacter no es ni mucho menos el único patógeno peligroso que puede encontrarse en los animales de compañía más populares. Si decíamos ayer que las palomas pueden transmitir 60 enfermedades a los humanos, el Centro para el Control de Enfermedades de EEUU (CDC) enumera 41 organismos patógenos que los perros y los gatos podrían contagiar a las personas, incluyendo bacterias, virus, hongos y parásitos, pero aclarando que se trata de una lista selectiva, no exhaustiva.

Ahora, y por si hubiera alguien inclinado a pensar que las palomas, las aves en sentido más amplio y los animales de compañía son “ratas con alas o patas”, cabe añadir que tampoco los animales de casa son la única posible fuente de contagio. Hoy es raro el colegio que no lleva a sus alumnos de visita a alguna granja-escuela. Pues bien, en 2007 una revisión en Reino Unido recopilaba numerosos casos de brotes de enfermedades causados por las excursiones a estos recintos, y descubría que muchas zoonosis comunes están presentes también en las granjas-escuelas.

Con todo esto no se trata ni mucho menos de alarmar sobre ningún riesgo de contagio por el contacto con los animales, sino todo lo contrario, de explicar que el peligro real de contraer una enfermedad por causa de las palomas es similar al causado por cualquier otro animal de los que conviven con nosotros, y que en cualquier caso el riesgo es muy bajo, siempre que se respeten las medidas higiénicas recomendables como lavarse las manos.

Pero conviene recordar que incluso para los animales de compañía estrictamente sometidos a control veterinario, como es obligado, algunos expertos apuntan que el lametón de un perro puede llevar a nuestros tejidos vivos, como heridas, ojos o mucosas, microbios patógenos que su lengua o su hocico hayan recogido antes de otros lugares poco deseables: “los perros se pasan media vida metiendo la nariz en rincones sucios y olisqueando excrementos, por lo que sus hocicos están llenos de bacterias, virus y gérmenes”, decía el virólogo de la Universidad Queen Mary de Londres John Oxford.

Imagen de Max Pixel.

Imagen de Max Pixel.

Claro que, por si hay algún nihilista dispuesto a asegurar que las palomas, las aves en sentido más amplio, los animales de compañía y todos los animales en general son “ratas con alas o patas”, es imprescindible aclarar que la principal fuente de contagio de enfermedades infecciosas en los humanos no es otra que los propios humanos. Estas infecciones se transmiten comúnmente entre nosotros por vías como los aerosoles de la respiración o el contacto con superficies contaminadas, pero no olvidemos que también “las mordeduras humanas tienen tasas de infección más altas que otros tipos de heridas” debido a que “la saliva humana contiene hasta 50 especies de bacterias”, según recordaba una revisión de 2009.

¿Somos las palomas, las aves en sentido más amplio, los animales de compañía, todos los animales en general y los humanos en concreto “ratas con alas, patas o piernas”? Sería bastante injusto para las ratas; recupero lo que conté en este blog hace cuatro años a propósito de un estudio que analizó la presencia de patógenos en las ratas neoyorquinas:

Catorce de las ratas estudiadas, más o menos un 10% del total, estaban completamente libres de polvo y paja. Un 23% de los animales no tenían ningún virus, y un 31% estaban libres de patógenos bacterianos. De hecho, entre todas las situaciones posibles que combinan el número de virus con el número de bacterias, la de cero virus y cero bacterias resulta ser la más prevalente, la de mayor porcentaje que el resto. Solo 10 ratas estaban infectadas con más de dos bacterias, y ninguna de las 133 con más de cuatro. Solo 53 ratas tenían más de dos virus, y solo 13 más de cinco. Teniendo en cuenta que, sobre todo en esta época del año, no hay humano que se libre de una gripe (influenza) o un resfriado (rinovirus), y sumando las ocasionales calenturas y otros herpes, algún papiloma y hepatitis, además del Epstein-Barr que casi todos llevamos o hemos llevado encima (y sin contar bacteriófagos, retrovirus endógenos y otros), parece que después de todo no estamos mucho más limpios que las ratas.

Resulta que finalmente ni siquiera las ratas son “ratas con patas”. Y como también conté aquí, estos roedores muestran en los estudios de laboratorio una capacidad para la empatía con los miembros de su propia especie que en ocasiones nos falta a los humanos. Pero si hay por ahí especies con habilidades sorprendentes, entre ellas están también las palomas: antes de mirarlas con desdén, sepan que estos animales son capaces de distinguir la música de Bach de la de Stravinsky. ¿Cuántos humanos pueden hacer lo mismo?

¿Las palomas pueden transmitir enfermedades? Sí, como cualquier otro animal (I)

Recojo el testigo de mi compañera Melisa Tuya, que ayer daba voz en su blog En busca de una segunda oportunidad a la asociación Mis Amigas Las Palomas, dedicada a promover la protección de estos animales tan desdeñados y aborrecidos por muchos. El espíritu crítico debe incitar siempre a cuestionar los tópicos, y cuando la pregunta es de carácter científico, los que tenemos la suerte de haber recibido formación en este campo contamos con la oportunidad impagable de encontrar una respuesta basada en datos reales. Ah, ¿he dicho impagable? No: si además nos pagan por nuestra curiosidad, mejor que mejor.

La gente en la ciudad y la gente en el campo tenemos en común el hecho de compartir nuestros espacios vitales con las palomas. Y aunque las nuestras, las torcaces (Columba palumbus) puedan parecer subjetivamente más bonitas que las de ellos, las domésticas o comunes (Columba livia domestica), no es más que un juicio opinable sobre dos especies estrechamente emparentadas. Sin embargo, suelen ser las segundas las que reciben el calificativo desdeñoso de “ratas con alas” y el desprecio de infinidad de urbanitas.

Palomas domésticas. Imagen de pixabay.

Palomas domésticas. Imagen de pixabay.

Debo aclarar que, aunque no creo que pueda llegar a considerarme un ornitólogo aficionado, tengo aprecio por las aves, los únicos dinosaurios que lograron sobrevivir a su gran extinción. Pero para dar respuesta a la pregunta “¿son las palomas tan peligrosamente contagiosas como todo el mundo parece creer repitiendo lo que todo el mundo dice?”, lo único que voy a hacer aquí es contrastar datos extraídos de fuentes científicas.

Por supuesto, todo el que haya cursado alguna asignatura de microbiología y parasitología ya conoce la respuesta: ¿pueden las palomas transmitir enfermedades peligrosas a los humanos? Sí, por supuesto que pueden. Hay un dato concreto que aparece en múltiples artículos periodísticos, y es el de 60: sesenta enfermedades que las palomas pueden contagiarnos.

Buscando una referencia científica, he encontrado una revisión publicada en 2004 por dos investigadores de la Universidad de Basilea (Suiza) que mencionaba el dato, aunque no puedo saber si es la fuente original (dado que muchos artículos periodísticos no suelen incluir esos subrayados en azul que yo procuro siempre añadir). Pero ahí está el hecho: “la paloma doméstica alberga 60 organismos patógenos humanos diferentes”, escribían los autores.

En 2010 tuvo bastante resonancia por aquí un estudio del Centro de Investigación en Sanidad Animal de Valdeolmos (CISA-INIA) que analizó la presencia de microbios patógenos para los humanos en 118 palomas de los parques y jardines de Madrid. Los investigadores encontraron que más de la mitad de los animales (52,6%) llevaban la bacteria Chlamydia psittaci, que puede causar una grave enfermedad respiratoria llamada psitacosis, y que más de dos terceras partes (69,1%) contenía Campylobacter jejuni, otra bacteria causante de diarreas que es una frecuente culpable de las intoxicaciones alimentarias. Los autores concluían: “Por tanto, estas aves pueden suponer un riesgo de salud pública para las poblaciones humanas. Estos datos deberían tenerse en cuenta de cara a la gestión de la población de palomas”.

Naturalmente, la información se difundió en muchos medios, que titularon con alguna variación más o menos afortunada, o más o menos alarmista, de la frase con la que Biomed Central, la editorial de la revista científica, lanzó su nota de prensa: “las palomas llevan bacterias dañinas”.

Por otra parte y si uno busca casos en las bases de datos de estudios científicos, es innegable que pueden encontrarse casos reales de enfermedades transmitidas al ser humano por las palomas. Si no me falla la búsqueda, el último caso reportado hasta hoy se publicó en enero de este año, y corresponde a una mujer holandesa de 54 años que murió por un fallo respiratorio debido a una infección por Paramixovirus de Paloma de Tipo 1 (PPMV-1). Los autores escriben que la probable ruta de contagio fue “el contacto directo o indirecto con palomas infectadas”.

La mujer seguía un tratamiento de inmunosupresión por haber recibido un trasplante de médula ósea, pero a nuestros efectos no nos fijemos en este dato, sino más bien en el hecho de que además de las bacterias analizadas en el estudio de Madrid, las palomas puede también albergar otros organismos peligrosos, como ciertos parásitos y virus transmisibles a los humanos (la gripe aviar es un ejemplo conocido).

Por todo ello, a la menor búsqueda en Google es inmediato encontrar infinidad de webs, incluso de organismos públicos, que advierten contra el contacto con las palomas, incluso indirecto, por el grave riesgo de contraer alguna terrible enfermedad.

Aquí termina el alegato de la acusación. Si ya se han cansado de leer, pueden quedarse con todo lo anterior y utilizarlo como referencia sólida (al menos ahí tienen los enlaces a los estudios) para defender ante sus amigos que las palomas son ratas aladas, sucias y contagiosas. Pero si les interesa conocer la otra cara de la realidad para formarse un juicio crítico, les invito a volver aquí mañana para leer el alegato de la defensa: ahora toca situar todo lo anterior en su contexto más amplio para valorarlo en su justa medida. Y como comprobarán, la cosa cambia radicalmente.

Megan Fox, pseudoarqueóloga y apologista de la ignorancia

Vivimos tiempos del triunfo de lo pseudo: pseudociencias, pseudomedicinas, pseudonoticias (fake news)… y pseudodocumentales, que son aquellos dedicados a divulgar las pseudociencias, pseudomedicinas o pseudonoticias.

Sería discutible si los llamados mockumentaries, o falsos documentales, son un subgénero digno de aplauso o de rechazo. Para defender lo primero, algunos citarían un ilustre precedente que hoy pocos se atreverían a descalificar: la falsa crónica de una invasión marciana radiada por Orson Welles en 1938. Pero no olvidemos que, a diferencia de los mockumentaries actuales, la emisión de Welles comenzaba dejando fuera de duda que aquello era puro teatro radiofónico, una versión de La guerra de los mundos de H. G. Wells.

Los realizadores de estos falsos documentales suelen evitar temáticas sensibles con el presunto propósito de no dañar a nadie. Pero cuando uno de mis hijos me asegura que el megalodón sigue existiendo porque un amiguito suyo lo ha visto en la tele, es evidente que un daño se ha hecho. Por qué consideramos mayor daño el que se inflige a las emociones y los sentimientos que el que se inflige al conocimiento y la razón sería materia de otra discusión diferente.

Pero no, no son los documentales deliberadamente falsos y paródicos los que traigo aquí hoy. En general es dudoso que aquel famoso mockumentary sobre Stanley Kubrick y la misión lunar Apolo 11 vaya a engañar a nadie que no viviera ya previamente engañado; prueba de ello es que algunos de los autores de webs conspiranoicas citaban aquella película como presunta prueba de sus alegaciones, pero resultó que el director había basado sus falsas pruebas precisamente en aquellas mismas webs conspiranoicas.

Otro caso diferente es el de los pseudodocumentales que pretenden pasar por verídicos, y de los cuales en los últimos años existe una patente inflación en las teles, sobre todo relacionados con la ya agonizante ufología en sus múltiples versiones. Si aceptamos que la televisión es sobre todo espectáculo, y yo lo acepto (pero personalmente prefiero otros espectáculos), no cabe duda de que los autores de estos espacios lo consiguen, aunque a costa de dañar una vez más la razón y el conocimiento.

El motivo de traer hoy aquí esta coyuntura es el anuncio reciente del Travel Channel en EEUU de una nueva serie de pseudodocumentales sobre arqueología e historia, en los cuales la actriz Megan Fox se dedicará a aniquilar el edificio de conocimiento que a los arqueólogos e historiadores les ha costado siglos construir.

Megan Fox. Imagen de Josh Jensen / Flickr / CC.

Megan Fox. Imagen de Josh Jensen / Flickr / CC.

Según las informaciones publicadas, la cadena de televisión describe la nueva serie, Mysteries and Myths with Megan Fox, como “un viaje personal y épico a través del globo, donde arqueólogos y expertos reexaminarán la historia, formulando preguntas difíciles y desafiando el conocimiento convencional que ha existido durante siglos”. “La serie penetrará en algunos de los mayores misterios de los tiempos, como si las mujeres amazonas realmente existieron o si la guerra de Troya fue real”, añaden.

Hasta aquí, la noticia no sería motivo para arquear una ceja más de lo que ya las tenemos arqueadas. Naturalmente, arqueólogos e historiadores han lamentado el tipo de espectáculo que Travel Channel ha elegido para drogar a sus espectadores, y no solo es lógico, sino casi obligado que se manifiesten. Pero la sirena de alarma empieza realmente a sonar cuando se descubre que Fox no solo presenta el programa, sino que además actúa como productora ejecutiva y cocreadora. Es decir, que no será simplemente una cabeza parlante, sino que de hecho ella participa de forma activa en la concepción y los contenidos de la serie.

Para todo lo cual, obviamente, a Fox la avala un nulo conocimiento especializado en la materia sobre la que va a pergeñar una serie pseudodocumental. Pero si digo que la avala, no es con un propósito irónico, sino porque es precisamente ella –y ahora es cuando la sirena de alarma comienza a desgañitarse– quien defiende que su ignorancia sobre historia y arqueología es un aval: “no he pasado mi vida entera construyéndome una carrera académica, así que no tengo que preocuparme por mi reputación o por ser refutada por mis colegas, lo que me permite resistirme al statu quo. Mucha de nuestra historia necesita ser reexaminada”, ha dicho la actriz a la web Deadline.

En resumen, y es lo que hace de este un caso reseñable desde la mayor de las estupefacciones, Fox sostiene que no hay nada como la total ignorancia sobre algo para opinar sobre ello. Según la terminología de moda últimamente en este país, tal afirmación podría convertir a Megan Fox en la cuñada de todos los cuñados, en la suma sacerdotisa del cuñadismo a ultranza. Pero ya he contado aquí que no soy muy partidario de esta expresión, dado que tiende a utilizarse simplemente para descalificar a aquellos cuyas opiniones no nos gustan. Tampoco se trata de si Fox estaría de acuerdo en ceder su próximo papel cinematográfico a otra persona en su lugar que no tenga la menor idea, experiencia o dotes de actriz. Porque en realidad, la interpretación y la ciencia funcionan de maneras radicalmente distintas; y por no saber, ella no sabe ni esto.

Claro que, y es ahora cuando a la sirena de alarma se le queman los fusibles, Fox ya se ha pronunciado anteriormente como una apologista de la ignorancia. Hace diez años dijo en una entrevista: “simplemente odiaba la escuela, y punto. No estaba interesada y no estaba sacando nada de ella. Nunca he sido una gran creyente en la educación formal y siempre he sabido lo que quería hacer, ser actriz, así que la educación que estaba recibiendo me parecía irrelevante”.

En fin, y dado que Megan Fox toma chupitos de vinagre para, dice, detoxificarse y eliminar el agua retenida durante el ciclo menstrual, yo me permito recomendarles esta lista de grandes mujeres pioneras de la ciencia para detoxificarse de Megan Fox.

La moda de “sin conservantes” aumentará el desperdicio de comida

Contrariamente a la idea popular, el uso de aditivos alimentarios, como los conservantes y los colorantes, no es un invento del boom de la comida procesada en el siglo XX. Como ya mencioné aquí, un anuncio de cerveza de esta temporada asegura que en el siglo XIX no se empleaban sulfitos. En concreto el spot asegura, de labios de un mediático cocinero (contratado para la ocasión aun a costa de hacer la vista gorda sobre la realidad histórica de su supuesta especialidad), que por entonces “no se añadían sulfitos, ni aditivos, ni conservantes, ni ingredientes modificados genéticamente”.

Esto último es relativamente aceptable; solo relativamente, dado que existen alimentos transgénicos sin intervención humana y desde la invención de la agricultura y la ganadería se ha forzado la selección de variedades modificadas genéticamente per se. Pero el resto es descaradamente falso: los aditivos alimentarios se han empleado desde hace siglos; en concreto, los sulfitos se utilizaban en la antigua Roma para preservar el vino, y su uso como aditivo alimentario está documentado desde 1664.

Imagen de USDA / Flickr / CC.

Imagen de USDA / Flickr / CC.

También contrariamente a la idea popular, los aditivos alimentarios no se emplean para empeorar el sabor o las propiedades de los alimentos –la publicidad a menudo afirma que un producto sabe mejor porque no lleva conservantes–, sino justamente todo lo contrario. La agencia de alimentos y fármacos de EEUU (FDA) resume así las razones del uso de los aditivos alimentarios:

  1. Para mantener o mejorar la seguridad y la frescura. Los conservantes frenan el deterioro de los productos causado por el aire, los mohos, las bacterias, los hongos o las levaduras. Además de mantener la calidad de la comida, ayudan a controlar la contaminación que puede causar enfermedades alimentarias, incluyendo el botulismo, que puede costar la vida. Un grupo de conservantes, los antioxidantes, previene que las grasas y aceites de los alimentos se enrancien o desarrollen mal sabor. También previenen que la fruta fresca cortada como la manzana se vuelva marrón por la exposición al aire.
  2. Para mejorar o mantener el valor nutricional. Las vitaminas, minerales y fibras se añaden a muchos alimentos para suplir la dieta o las pérdidas durante el procesado, o para potenciar la calidad nutricional. Este enriquecimiento ha ayudado a reducir la malnutrición en EEUU y en todo el mundo. Todos los productos con nutrientes añadidos deben ser adecuadamente etiquetados.
  3. Para mejorar el sabor, la textura y la apariencia. Las especias, los sabores naturales y artificiales, y los endulzantes, se añaden para potenciar el sabor de la comida. Los colorantes mantienen o mejoran el aspecto. Los emulsionantes, estabilizantes y espesantes dan a los alimentos la textura y consistencia que los consumidores esperan. Los gasificantes permiten que los productos horneados suban durante su producción. Algunos aditivos ayudan a controlar la acidez y la alcalinidad de los alimentos, mientras que otros ingredientes ayudan a mantener el sabor y el aspecto de los alimentos con bajo contenido en grasas.

En resumen, y contrariamente a la idea popular, los alimentos sin conservantes ni colorantes no saben mejor, sino que todo está en nuestra mente: es simplemente una sensación subjetiva provocada por lo que dice la etiqueta. En las catas a ciegas (repito, a ciegas) los consumidores o bien no distinguen los alimentos orgánicos de los convencionales, o puntúan con un mejor sabor a los no orgánicos, o incluso prefieren el sabor de los tomates transgénicos al de los no modificados.

El caso de los tomates es curioso, ya que suele ser uno de los ejemplos más citados para defender que los alimentos de ahora ya no saben como los de antes. Y resulta que en parte es cierto: en 2012 un estudio descubrió que los tomates fueron perdiendo sabor a lo largo del siglo XX, pero no por la manipulación genética, los aditivos o los fertilizantes, sino simplemente porque los agricultores comenzaron a seleccionar variedades más bonitas a la vista que habían perdido algunos de los genes responsables del sabor; es decir, estaban modificados genéticamente de forma natural, como suelen ser las variedades de los alimentos que comemos. Pero es cierto solo en parte, porque la mayoría de las personas que protestan por esa pérdida de sabor del tomate tampoco lo han probado como era antes; la producción orgánica es solo un método de cultivo que no devuelve a los tomates los genes perdidos. La única manera de lograrlo es… por ingeniería genética.

Imagen de The Ewan /Flickr / CC.

Imagen de The Ewan /Flickr / CC.

Pero naturalmente y pese a todo lo anterior, la actual moda de la quimiofobia, o rechazo de lo que erróneamente se considera “química”, es explotada por las compañías de alimentación y por su publicidad, viendo en este sentimiento popular un gancho para vender sus productos. Cada cual es muy libre de comprar y consumir lo que le apetezca, aunque tanto en este terreno como en cualquier otro es conveniente informarse si no se quiere caer en las trampas del marketing.

Sin embargo, hay un aspecto en el que la actual avalancha comercial de alimentos sin aditivos sí puede ser netamente perjudicial. Un estudio reciente en EEUU estimaba que cada ciudadano desperdicia casi medio kilo de comida al día, lo que equivale a la cuarta parte de todos los alimentos que se producen. En aquel país más de 120.000 kilómetros cuadrados de tierra cultivable, casi la extensión conjunta de Andalucía y Extremadura, producen comida que jamás se consumirá, sino que irá a la basura.

Una causa importante del desperdicio de comida es la caducidad. A todos nos ocurre que olvidamos alimentos en el frigorífico o en la despensa hasta que nos damos cuenta de que se han estropeado. La caducidad es también el motivo de que las superficies comerciales desechen enormes cantidades de alimentos. Y dado que la comida sin conservantes tiene una vida útil más corta, parece plausible que la moda “sin conservantes” aumente aún más la cantidad de alimentos que se tiran a la basura.

Y en efecto, algunos expertos aseguran que así es. El pasado noviembre Ruth MacDonald y Ruth Litchfield, profesoras de ciencias de la alimentación y nutrición humana de la Universidad Estatal de Iowa (EEUU), hacían notar que muchos fabricantes de alimentos y restaurantes se han adaptado a la moda popular de productos sin aditivos, pero que esta tendencia tendrá consecuencias negativas en términos de desperdicio de comida, seguridad y coste.

Las dos expertas citan una corriente extendida que aconseja “evitar las comidas cuyos ingredientes no puedas pronunciar”. Lo cual es una absoluta estupidez: como conté aquí, y vuelvo a traer uno de aquellos ejemplos, el químico australiano James Kennedy se tomó el trabajo de listar los componentes de varias frutas y otros productos naturales. Lo que llamamos “una fresa” contiene, por ejemplo, lo que llamamos “2-(4-hidroxifenil)-etilbeta-D-glucopiranósido” simplemente porque para el fruto hemos inventado un nombre común, mientras que a sus ingredientes químicos naturales los llamamos según la nomenclatura estandarizada de la química. Es solo una cuestión de nombres, y el hecho de que a algo no lo designemos con una palabra corta y fácil no lo hace ni más ni menos beneficioso o perjudicial.

Según MacDonald y Lichtfield, la decisión de los fabricantes de retirar los aditivos no se debe a razones de calidad o de valores nutricionales, sino a la demanda del mercado, a la moda. Pero dado que retirar por completo ciertos conservantes como los nitratos resultaría en un riesgo de que la gente empezara a morir de botulismo, como ocurría hace siglos, los fabricantes hacen trampa: en lugar de añadir directamente nitratos, agregan zumo de apio, que lleva nitratos. El nitrato es exactamente el mismo compuesto, pero de esta segunda manera pueden etiquetar sus productos como “sin conservantes”.

Sin embargo, dice MacDonald, la estrategia es peligrosa: añadiendo el nitrato purificado se sabe exactamente cuál es la cantidad justa y necesaria para evitar el crecimiento de la bacteria del botulismo, mientras que la cantidad de nitrato en el zumo de apio es variable y puede que los alimentos no queden lo suficientemente protegidos.

Todo lo cual, advierte Lichtfield, se traduce en que “quitar estos ingredientes de los alimentos probablemente aumentará la cantidad de comida que tiramos”. “Los fabricantes de alimentos responden rápidamente a los cambios en las preferencias del consumidor, pero antes de tragarnos la última moda, pensemos si está basada en ciencia o dirigida por el mercado”, añade. Y quien se considere un consumidor responsable y solidario como mínimo haría bien en preguntarse si sumarse a una moda que aumenta el desperdicio de comida sin mejorar la nutrición es una opción responsable y solidaria.

Vuelve el ébola y la vacuna es eficaz, pero puede que no sea efectiva

Esta semana la Organización Mundial de la Salud (OMS) ha informado de la aparición de un nuevo brote de virus del Ébola en la República Democrática del Congo (RDC). Hasta ayer se han contabilizado 34 casos que se reparten entre dos confirmados, 18 probables y 14 sospechosos, con un total de 18 muertes.

Después del brote de 2014 que se extendió hasta causar una alerta sanitaria global, y que tuvo su propio capítulo en nuestro país, es la segunda vez que el ébola escapa de los reservorios donde permanece dormitando en silencio (probablemente los murciélagos) para causar estragos en la población humana. La anterior, que conté aquí, fue hace justo un año, en mayo de 2017, también en la RDC.

Brote de ébola en África Occidental en 2014. Imagen de EU Civil Protection and Humanitarian Aid Operations / Flickr / CC.

Brote de ébola en África Occidental en 2014. Imagen de EU Civil Protection and Humanitarian Aid Operations / Flickr / CC.

En este nuevo brote el número de casos detectados es mayor, pero no es el único motivo de preocupación. Los epidemiólogos estiman que la epidemia de 2014 alcanzó tan alarmantes dimensiones porque nació en África Occidental, una región con alta densidad y movilidad poblacional donde la expansión del virus llegó a hacerse incontrolable. Por el contrario, en las inmensas y remotas selvas del Congo suele ser más fácil confinarlo; la zona del presente brote está nada menos que a 15 horas en moto del pueblo más cercano. Pero en este caso se dan dos circunstancias que pueden agravar la situación: por una parte, la región afectada está próxima al río Congo, una vía de comunicación esencial que vincula las capitales de la RDC y su vecino del norte, la República Centroafricana; por otra, algunos de los afectados son trabajadores sanitarios, lo que suele contribuir a extender la infección.

Con los datos actuales, la OMS considera ahora que el riesgo es “alto a nivel nacional” en la RDC y moderado en la región central de África, mientras que de momento no hay razón para una alerta global. Las autoridades sanitarias de la RDC han reaccionado con rapidez informando a la OMS para el despliegue de un plan de acción que ya está en marcha. Sin embargo, la OMS advierte de que la respuesta a este brote va a ser “un desafío” y que está preparándose para todos los posibles escenarios.

Es un momento adecuado para repasar en qué estado están los fármacos y las vacunas contra esta enfermedad. Ayer mismo una usuaria de Twitter difundía un artículo que publiqué aquí hace tres años acerca del TKM-Ebola, un nuevo y sofisticado fármaco que había logrado curar de la enfermedad al 100% de los monos en una prueba preclínica. Los indicios eran tremendamente prometedores, y por entonces ya habían comenzado las primeras fases del ensayo clínico.

Pero por desgracia, en humanos resultó un estrepitoso fracaso: en la evaluación inicial de la seguridad los pacientes tratados sufrían ciertos síntomas adversos, pero cuando comenzó a probarse su eficacia el resultado fue que no curaba. Tan sonoro fue el batacazo que la compañía creadora del TKM-Ebola, la canadiense Tekmira, no solo detuvo el desarrollo del fármaco, sino que cambió de nombre y abandonó la línea del ébola.

Hoy continúan en desarrollo y pruebas varios medicamentos experimentales, incluyendo el ZMapp que en 2014 se administró a la enfermera española Teresa Romero. Sin embargo, es dudoso que este fármaco, un cóctel de anticuerpos modificados por ingeniería genética, fuera el responsable de la curación de Romero; los resultados clínicos del ZMapp han mostrado que quizá tenga cierta eficacia, pero el fin del brote de 2014 impidió extender el ensayo lo suficiente como para que los datos fueran estadísticamente significativos.

Por el momento, el único tratamiento específico (aparte de los dirigidos a aliviar los síntomas) que se emplea con éxito es el más clásico, la sangre o suero de los supervivientes a la enfermedad, cuyos anticuerpos pueden proteger a otros afectados. Estos antisueros tienen la ventaja adicional de que en cada caso están naturalmente adaptados a cada cepa concreta (ya que, si proceden del mismo brote, el donante y el receptor tienen el mismo virus), pero también pueden ofrecer protección contra otras cepas e incluso otros virus emparentados con el original. A cambio, el inconveniente es que su producción está limitada por la posibilidad de extraer sangre a los supervivientes.

Las noticias son mejores respecto a las vacunas, aunque existe una aparente paradoja que adelanto más arriba en el título. Como ya expliqué aquí, la vacuna rVSV-ZEBOV (también llamada VSV-EBOV o V920) no es producto del calentón de la epidemia de 2014, sino que fue desarrollada por el gobierno de Canadá mucho antes, en 2003, cuando eran muy pocos países los que dedicaban recursos a una enfermedad que no parecía importar a nadie.

La vacuna, cuya licencia se vendió a la compañía Merck, es eficaz en un 75 al 100% de los casos (aunque algunos investigadores han cuestionado los resultados). Según el último estudio publicado el pasado abril, parece que su efecto protector perdura al menos dos años después del pinchazo. Otras vacunas están actualmente en pruebas, pero por el momento ya existe un stock de rVSV-ZEBOV. Y mientras escribo estas líneas, es posible que los médicos de la OMS y de Médicos Sin Fronteras ya estén vacunando en la región de la RDC afectada por el brote. Un obstáculo es que la vacuna debe conservarse a -80 ºC, lo que en un despliegue de campo obliga a mantenerla en hielo seco.

Un chequeo de fiebre para el control del ébola en Sierra Leona en 2014. Imagen de Wikipedia / JuliaBroska.

Un chequeo de fiebre para el control del ébola en Sierra Leona en 2014. Imagen de Wikipedia / JuliaBroska.

Sin embargo, y aquí viene la paradoja, una cosa es que la vacuna sea eficaz, y otra diferente que sea efectiva. Lo primero se refiere a los resultados de los ensayos clínicos controlados, y en este sentido parece que la V920 ha pasado el test. Pero la efectividad se demuestra cuando la vacuna se prueba en el mundo real, comprobando no si funciona en un pequeño grupo sometido a rigurosos controles, sino en la población general para impedir la expansión de un brote.

Y es aquí donde un estudio publicado esta semana sugiere que la vacuna podría fallar. Como he explicado aquí en numerosas ocasiones, el efecto protector de la vacunación en una población se basa en la llamada inmunidad de grupo (de rebaño, en su traducción literal del inglés). Dado que es imposible vacunar a todas y cada una de las personas, existe un umbral de porcentaje de población vacunada a partir del cual toda la comunidad queda protegida. Podríamos hacer un símil con el tamaño de los agujeros de un colador: si los vamos reduciendo, llega un momento en que no hay hueco suficiente para que pase la pulpa del zumo. Al haber más personas vacunadas, se destruye la red que impide la expansión de una epidemia.

Este es el motivo por el que los movimientos antivacunas, además de basarse en la ignorancia y la superstición, están cometiendo una grave irresponsabilidad contra la sociedad (que en algunos países está penada). Por supuesto, los padres que rechazan las vacunas para sus hijos –quienes no pueden decidir por sí mismos– están poniéndolos en peligro. Pero más allá de esto, la vacunación no es una decisión personal porque perjudica al conjunto de la población al disminuir la inmunidad de grupo; abren agujeros en el colador, y la consecuencia es que mueren otras personas que no pueden vacunarse por problemas médicos, o que sí han recibido la vacuna pero no han desarrollado inmunidad.

En el nuevo estudio, investigadores de Reino Unido, Israel y Uganda han calculado la posibilidad de que la vacunación contra el ébola logre una inmunidad de grupo que prevenga la extensión de este y de futuros brotes, y han llegado a la conclusión de que es muy improbable. Durante los brotes de ébola se estima que cada afectado puede contagiar a cuatro o más personas. En esta situación e incluso con una vacuna que sea eficaz al 90%, se necesitaría inmunizar al 80% de la población para impedir una epidemia. Y dadas las numerosas dificultades de distribuir y administrar una vacuna en África, en casos anteriores solo se ha logrado vacunar al 49% de las personas en situación de riesgo. Según los autores, incluso hasta un 34% de las personas que habían estado expuestas al virus se negaron a vacunarse.

Otro obstáculo es el coste de un programa de vacunación masiva, apuntan los autores. Las vacunas actualmente en pruebas cuestan entre 15 y 20 dólares por dosis, pero el tamaño de la población que debería recibir la vacuna ronda los 462 millones de personas. Por todo ello, los investigadores recomiendan que los esfuerzos de vacunación se centren en el personal sanitario potencialmente expuesto y, a ser posible, en sus pacientes.

En resumen, en parte es cuestión de dinero; pero no solo es cuestión de dinero, sino también de infraestructura, logística, cobertura y acceso a zonas remotas. Pero sobre todo, el principal problema es que muchas personas no piden o rechazan la vacuna. La mayoría de estas personas no han tenido la suerte de disfrutar de un entorno cultural y una educación que les permitan apreciar por qué deberían vacunarse. Mientras, en los países ricos muchos deciden desperdiciar este capital educativo. ¿Quién dijo que el mundo estuviera bien repartido?

“En los drones militares autónomos falta la tecnología para distinguir a los objetivos de los civiles”

En los últimos años y más aún en los últimos meses, tanto en los medios políticos como en los científico-tecnológicos se viene hablando de los distintos avances que se están acometiendo hacia el desarrollo de drones militares autónomos, aquellos que podrían seleccionar sus objetivos y abatirlos (eufemismo de “matar”) sin intervención humana, guiándose por sus propias decisiones basadas en algoritmos de Inteligencia Artificial (IA) y aprendizaje automático.

Actualmente existen drones militares armados como el MQ-9 Reaper de General Atomics, que forma parte del arsenal de varios países; España comenzará a utilizarlos en 2019. Estos aparatos pueden volar solos, aunque suelen pilotarse a distancia; pero no matan solos.

Dron MQ-9 Reaper. Imagen de USAF.

Dron MQ-9 Reaper. Imagen de USAF.

La posibilidad de que algún día despeguen drones capaces de decidir por sí mismos sobre la vida y la muerte de seres humanos no solo es escalofriante, sino que según los expertos estas armas serían considerablemente más difíciles de vigilar que las nucleares, químicas o biológicas. Para estas se necesitan instalaciones militares específicas que pueden ser monitorizadas con mayor o menor facilidad, incluso vía satélite. Por el contrario, dicen los expertos, lo que distingue a los drones autónomos de los actuales es el software, y esto no puede vigilarse desde el espacio; menos aún teniendo en cuenta que gran parte de la tecnología implicada es de origen civil.

Por si aún dudan sobre la conveniencia de que estas tecnologías lleguen a ver la luz, les recomiendo ver este vídeo titulado Slaughterbots (Robots asesinos), elaborado por la Campaña contra los Robots Asesinos promovida por el Comité Internacional para el Control de las Armas Robóticas (ICRAC) y otras organizaciones. Hay quienes lo han tildado de alarmista. Pero necesariamente alarmista.

Mientras trabajaba en un reportaje para otro medio, me pareció interesante recabar y traerles aquí una breve visión de uno de los mayores expertos en esta área. El científico computacional Jeremy Straub, profesor de la Universidad Estatal de Dakota del Norte (EEUU) y director adjunto del Instituto de Investigación y Formación en Ciberseguridad, trabaja en IA y en sus aplicaciones autónomas aeroespaciales. Por tanto, Straub es uno de los científicos que se encuentran en esa incómoda encrucijada, desarrollando tecnologías que pueden aportar notables beneficios a la humanidad, pero que también pueden aplicarse para causar un inmenso daño.

¿Existe ya la tecnología de drones autónomos?

Actualmente ya se utiliza bastante autonomía en el vuelo de drones. Incluso muchos drones personales tienen navegación por GPS de punto a punto. Los drones militares pueden hacer uso de la misma tecnología de autopilotado. Los drones deben tener también la capacidad de operar de forma autónoma hasta cierto punto, en caso de que las comunicaciones se pierdan o sean interferidas por un enemigo, por lo que esto también está presente en los aparatos militares actuales.

¿Qué podría salir mal?

En el presente hay algunos obstáculos técnicos. Uno de los principales es la necesidad de identificar de forma precisa a los posibles objetivos. En particular, falta la tecnología necesaria para distinguir a los objetivos legítimos de los civiles o transeúntes. Para estas decisiones se requiere un contexto significativo, algo que ahora no es técnicamente práctico.

¿Cree posible que llegue a acordarse un veto internacional para este tipo de armas, como están impulsando varias organizaciones?

Personalmente me sorprendería bastante que se llegara al acuerdo de cualquier tipo de veto, porque ciertas naciones tienen más capacidades que otras en esta área, y lo ven como una ventaja competitiva. Además, los países podrían estar preocupados por el posible desarrollo secreto de estas armas por parte de los no firmantes del tratado, lo que les haría recelar de abandonar o limitar sus propios programas.

Si no se llega a un veto, ¿podría el desarrollo de los drones autónomos llevar a una situación similar a la de las armas nucleares en la Guerra Fría, de no agresión por disuasión?

Una limitación del uso basada en la disuasión, al estilo de la de la Guerra Fría, parece una situación plausible. Dado que el uso de los vehículos aéreos no tripulados no crea el mismo tipo de destrucción a gran escala que las armas nucleares, no estoy completamente seguro de que esto llegara a suprimir por completo el uso de los drones y sus ataques. Sin embargo, probablemente sí impediría un ataque masivo a gran escala que sería respondido de forma similar por la propia flota de drones del país atacado.

El virus asturiano de Lloviu reaparece en Hungría 14 años después

En 2013, investigadores húngaros encontraron medio millar de murciélagos muertos en las montañas de Bükk, una sección de los Cárpatos al noreste del país donde se conocen más de 1.000 cavernas. Los animales eran murciélagos de cueva Miniopterus schreibersii, una especie distribuida sobre todo por el centro-sur de Europa, Oriente Próximo y norte de África, y que suele concentrarse en colonias de miles de individuos en cavidades naturales o artificiales.

En aquella ocasión los investigadores no lograron determinar qué había matado a aquellos animales debido al mal estado de los restos, pero observaron que tenían sangre coagulada en la nariz, como si hubieran sufrido una hemorragia respiratoria. Como resultado de la vigilancia en la zona, en 2016 y 2017 se hallaron nuevos cadáveres con iguales síntomas. Uno de los ejemplares recogidos en 2016 aún estaba lo suficientemente intacto como para analizar sus tejidos en busca de una posible causa de la muerte.

Colonia de murciélagos de cueva ('Miniopterus schreibersii'), la especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Colonia de murciélagos de cueva (‘Miniopterus schreibersii’), la especie en la que se descubrió el virus de Lloviu. Imagen de Wikipedia.

Los investigadores llevaron aquel y otros murciélagos al laboratorio de nivel de bioseguridad 4 (sí, en Hungría tienen lo que nosotros no tenemos) del Centro de Investigación de Szentágothai, en la Universidad de Pécs, y allí sometieron los restos a una prueba destinada a pescar genomas de posibles virus. En el animal menos dañado estaba la respuesta: allí encontraron un genoma igual en un 98% al del virus de Lloviu, lo más parecido al ébola que se conoce, identificado en 2011 en España y EEUU a partir de murciélagos muertos hallados unos años antes en la cueva asturiana del Lloviu (y cuya historia resumí ayer). Teniendo en cuenta el grado de variación de los virus, un 98% equivale a decir prácticamente idéntico: es el mismo virus, que ha reaparecido 14 años después en el otro extremo de Europa.

Según el estudio, dirigido por los virólogos Ferenc Jakab y Gábor Kemenesi, y publicado en la revista del grupo Nature Emerging Microbes & Infections, los investigadores han detectado el virus en los pulmones y en el bazo del animal, pero no en otros órganos como el riñón, el cerebro o el hígado, ni en una garrapata que encontraron en el cuerpo del murciélago. Aún no pueden saber con certeza en qué tejidos del murciélago se instala preferentemente el lloviu ni si fue la causa de la muerte de los animales, pero su detección en los pulmones y los síntomas de hemorragia respiratoria son indicios que apoyan lo que ya se sospechaba sobre el virus asturiano.

Por desgracia y a pesar de disponer de un laboratorio adecuado para trabajar con el virus, los científicos húngaros tampoco han logrado aislarlo. Los intentos de infectar un cultivo celular para crecerlo y recolectarlo han sido infructuosos, por lo que el lloviu continúa en la naturaleza sin dejarse atrapar para un estudio a fondo, más allá de los experimentos que han reconstruido algunas de sus piezas moleculares.

Respecto a cómo ha llegado el lloviu desde España hasta Hungría, los investigadores tampoco pueden arriesgar ninguna explicación. “Esta incidencia suscita la pregunta de si ha sido una segunda introducción del lloviu en Europa [no puede descartarse que proceda de otro continente, aunque por el momento no se ha hallado en otros lugares] o una circulación silenciosa que ha tenido lugar entre los murciélagos europeos”, escriben en el estudio.

Cadáveres de murciélagos de cueva con signos de hemorragia respiratoria en Hungría, en febrero de 2016. En el ejemplar de la izquierda, el más intacto, se detectó el virus de Lloviu. Imagen de S. Boldogh / Kemenesi et al, Emerg Microbes Infect 2018.

Cadáveres de murciélagos de cueva con signos de hemorragia respiratoria en Hungría, en febrero de 2016. En el ejemplar de la izquierda, el más intacto, se detectó el virus de Lloviu. Imagen de S. Boldogh / Kemenesi et al, Emerg Microbes Infect 2018.

Pero como es obvio, es muy plausible es que el virus se haya expandido por Europa. Los murciélagos de cueva son animales migratorios. Según escribe el ecólogo de la Universidad de Murcia Fulgencio Lisón en la Enciclopedia Virtual de los Vertebrados Españoles del CSIC, se han registrado migraciones de 800 kilómetros en España, y estos animales son capaces incluso de cruzar el mar para volar entre Mallorca y Menorca.

Aún se ignora por completo si el lloviu puede representar una amenaza para el ser humano, pero el nuevo estudio alerta de la necesidad de mantener una adecuada vigilancia de los ecosistemas para detectar posibles riesgos de enfermedades emergentes que pudieran afectar a animales o humanos. El año pasado, un estudio descubría que al menos tres grupos distintos de filovirus, incluyendo el ébola, están circulando entre los murciélagos de la fruta en China, muy lejos de los remotos rincones africanos en los que normalmente se les supone. Antes de que un nuevo brote vuelva a desatar la histeria que ocasionó el ébola en 2014, y como suelen decir los expertos, el trabajo más importante es el que se lleva a cabo cuando (aún) no hay epidemia.