Los Nobel de ciencia: buena sopa, pero sopa fría

Dirán los asiduos a este blog que ya vengo otra vez con la misma matraca, que soy cansino, cargante, y tendrán razón. Pero me temo que deberé seguir repitiéndolo todos los años, todas las veces que haga falta. Una vez más hemos asistido a una semana de los Nobel en la que el premio de Literatura se ha llevado todo el bombo y los platillos, y por el contrario las tres categorías de ciencia se han pasado como un breve; en algún caso, lo juro, sin siquiera mencionar los nombres de los premiados, y sin el menor criterio ni comentario o análisis.

Por cierto y con respecto al Nobel de Literatura, y aunque este blog no vaya de eso, uno también tiene sus opiniones. Como marca la tradición, antes del anuncio Murakami fue tendencia, y por las bolas de cristal circulaban los nombres de Rushdie o Houellebecq. Se sigue pensando que el Nobel debe distinguir al mejor, «the best», como los Óscar. Pero aparte de que la mejoridad siempre sea opinable, lo cierto es que este no es el presunto espíritu de los Nobel.

Imagen de Wikipedia.

Imagen de Wikipedia.

Alfred Nobel dejó bien claro en su testamento que los premios deben concederse a quienes «en el año precedente hayan aportado el mayor beneficio a la humanidad», y en concreto el de Literatura a quien haya producido «el trabajo más sobresaliente en una dirección idealista». Esto último está abierto a tantas interpretaciones como se quiera, pero probablemente bastantes de ellas podrían coincidir en definirlo como lo contrario de Houellebecq. En todo caso y en último término, deja la puerta abierta a que la Academia se lo conceda a quien le dé la gana, como viene haciendo, que para eso es su premio.

Pero no pensemos por ello que en la concesión de los premios se respeta a rajatabla la última voluntad del inventor de la dinamita y la gelignita, porque nada más lejos. Los Nobel de ciencia nunca se otorgan por los trabajos del «año precedente», ni de la década precedente, a veces casi ni siquiera del medio siglo precedente. Los Nobel de ciencia siempre suenan a viejuno. Se conceden a descubrimientos o avances ya muy consolidados, y por ello ya antiguos.

Como defensa suele alegarse que los Nobel premian los hallazgos que han resistido la prueba del tiempo. Pero claro, esto es como darle un premio de cine en 2022 a Blade Runner, que en su día tuvo críticas divididas. Se supone que entre las cualidades de un jurado experto debería contarse la de anticipar qué va a resistir la prueba del tiempo. Porque para saber qué la ha resistido no hace falta ser experto en nada. Basta con mirar la Wikipedia.

Si se quiere distinguir cuáles son las tendencias científicas más calientes del momento, a donde hay que dirigir la mirada es a los Breakthrough Prizes, los de mayor dotación económica del mundo en su campo. Este año han premiado, entre otros, a Demis Hassabis y John Jumper, los máximos responsables de DeepMind de Google en la creación de AlphaFold, el sistema de Inteligencia Artificial que predice la estructura espacial de casi cualquier proteína. Este es sin duda el mayor hallazgo reciente en el campo de la biomedicina y uno de esos avances que cambiarán el rumbo de la ciencia para los próximos 50 años, no que lo hicieron hace 50 años. El año pasado los Breakthrough distinguieron a Katalin Karikó y Drew Weissman, principales responsables de las vacunas de ARN contra el virus de la COVID-19.

En justicia hay que decir que en España tenemos también dos premios internacionales con un ojo muy agudo para distinguir los avances científicos más relevantes del momento: los Fronteras del Conocimiento de la Fundación BBVA y los Princesa de Asturias. Este año los Princesa han premiado a Hassabis (entre otros), y el año pasado lo hicieron a Karikó, Weissman y otros por las vacunas. Los Fronteras también han premiado a los creadores de las vacunas. Mientras, los Nobel siguen sin darse por enterados de que hemos tenido una pandemia y que una nueva generación de vacunas ha salvado millones de vidas.

Algunas veces los Nobel parecen el reconocimiento a toda una carrera, como evidentemente lo es el premio de Literatura. En los de ciencia, este es el caso del concedido este año en Fisiología o Medicina a Svante Pääbo, la figura más destacada en el desarrollo del campo de los genomas antiguos. Con esta concesión el comité del Instituto Karolinska, encargado de esta categoría, también ha sacado los pies de su tiesto; que yo recuerde, es la primera vez que se premia a la paleoantropología, una ciencia que quedaba excluida de los Nobel porque no encaja en ninguna de las categorías. El hecho de que la de Pääbo sea una paleoantropología molecular ha servido para darle el pase al premio de Fisiología o Medicina. Su trabajo no tiene nada que ver con la segunda, pero puede aceptarse dentro de la primera, en cierto modo.

Sobre el premio de Física, los físicos dirán. Como no-físico, y en mi función de simple periodista de ciencia que ha escrito infinidad de artículos sobre física, y bastantes de ellos sobre entrelazamiento cuántico (un tema especialmente jugoso), el reconocimiento a Alain Aspect, John Clauser y Anton Zeilinger es bienvenido, sobre todo cuando los tres ya recibieron el Wolf de Física —considerado por algunos como el segundo más prestigioso después del Nobel— hace 12 años. Una vez más, el Nobel se convierte en premio escoba, poniéndose al día con los deberes atrasados.

Finalmente, el Nobel de Química ha sido para Carolyn Bertozzi, Morten Meldal y Barry Sharpless, tres investigadores que desarrollaron —a principios de este siglo— dos conceptos relacionados que facilitan las reacciones químicas de síntesis para la formación de nuevos compuestos más complejos a partir de otros más simples. La idea es tan genial como sencilla, aunque mucho más difícil es llevarla a la práctica. Consiste en encontrar el modo de ligar moléculas entre sí de forma rápida, directa, irreversible y en una sola reacción, como si fuesen piezas de un puzle que encajan entre sí de modo único. Esta llamada química click, desarrollada independientemente por Sharpless y Meldal, se aplicó a los sistemas biológicos con la llamada química bioortogonal acuñada por Bertozzi. Estos dos conceptos son de inmensa aplicación hoy. Por cierto que Sharpless ya recibió otro Nobel de Química en 2001, un doble reconocimiento que solo han logrado otros cuatro científicos.

En definitiva, y como ocurre siempre, todos los premiados merecen sin duda este reconocimiento. Todos los premiados lo merecían desde hace años. Y como siempre, también lo habrían merecido otros que han quedado fuera. En concreto, no entiendo la decisión de distinguir en exclusiva a Pääbo por los avances en genomas antiguos, cuando los premios permiten el reparto entre un máximo de tres investigadores y hay otros que claramente habrían merecido compartirlo (por cierto, también hay españoles muy destacados en este campo). Sí, es cierto que saldrían más de tres. Es otro problema de los Nobel, y es que siempre son más de tres, y casi siempre muchos más de tres; hoy la idea del supergenio científico rodeado de minions eficientes pero descerebrados solo existe en las películas de Gru.

¿Debe importarnos que las moscas vomiten en nuestra comida?

Para muchas personas, quizá solo las cucarachas superen a las moscas en la escala de asquerosas criaturas domésticas que viven con nosotros. Las moscas son molestas, pero el mayor problema es que nunca sabemos de dónde vienen. Tal vez antes de visitarnos hayan estado saboreando deliciosa basura, excrementos o el cadáver de alguna criatura, con esa misma trompa que están posando en nuestra cena. Y lo peor es que, cuando se conoce la historia con más detalle, las cosas no mejoran, sino lo contrario.

La mosca tiene la suerte de poder saborear con las patas. Nosotros solo tenemos receptores del gusto en la lengua, pero otros animales los tienen más repartidos. Por ejemplo, los peces gato o siluros son los campeones del gusto, con hasta 175.000 quimiorreceptores —nosotros tenemos unos 10.000— distribuidos por toda su superficie. A un pez con los ojos pequeños y que nada en aguas turbias le resulta útil poder degustar con todo el cuerpo para localizar la comida. A nosotros, en cambio, no nos aportaría ninguna ventaja clara sentarnos en una silla —ropa mediante, claro— y saborear la parte de la persona que se sentó allí antes.

Una mosca sobre una musaraña muerta. Imagen de pxhere.

En el caso de las moscas, su aparente simpleza oculta en realidad un sistema muy preciso y perfeccionado. Cuando se posan en algún lugar y de inmediato alargan la trompa para aspirar algo de comida, es por la conexión directa entre sus receptores del gusto y el mecanismo para estirar la probóscide bucal. La mosca saborea con los pelillos que recubren su cuerpo, incluyendo las patas. Al detectar azúcar, la trompa se lanza automáticamente. Es más, algunas de estas neuronas gustativas están conectadas, por medio de un cordón nervioso análogo a nuestra médula espinal, con el sistema del movimiento, de modo que la mosca se detiene en cuanto pone las patas sobre la comida.

Este es el motivo por el que probablemente hacen eso tan inquietante de frotarse las patas entre sí, que nos recuerda a lo que hacemos nosotros mismos con las manos. Se cree que este gesto ayuda a la mosca a limpiar las terminaciones de las patas para tener siempre listos sus receptores del gusto.

Pero el apéndice bucal de la mosca es una trompa, como una pajita. Por lo tanto, no puede dar un bocado a nuestras patatas fritas. En lugar de eso, debe sorber. Y para eso tiene que vomitar.

Las moscas poseen un órgano digestivo llamado buche, que también tienen otros animales como las aves, y donde el alimento se almacena para ablandarse con la saliva antes de la digestión. Este invento les permite, por ejemplo, ingerir más alimento del que pueden digerir en el momento, para cuando haya escasez.

Para sorber, la mosca regurgita el contenido del buche (es posible también que hagan esto para evaporar parte del agua y así concentrar el alimento). Pero claro, cuando la mosca vomita, no solo expulsa restos de la comida anterior mezclados con saliva, sino también cualquier otra cosa que haya tragado antes. Incluyendo virus y bacterias que puede haber recogido de… en fin, ya saben.

El entomólogo John Stoffolano, de la Universidad de Massachusetts, acaba de publicar una revisión sobre cómo las moscas se alimentan, cuáles son sus fuentes de comida y cómo adquieren microorganismos que almacenan en el buche y luego expulsan sobre su siguiente snack. Según cuenta Stoffolano, los análisis previos de ADN del contenido del buche de las moscas han permitido identificar las especies de cuyas heridas, saliva, moco o heces se han alimentado. Y cuáles son los microbios que han ingerido con estas suculentas meriendas. Los estudios han encontrado bacterias, virus, hongos y parásitos, que pueden sobrevivir durante varios días en el aparato digestivo de la mosca. Aún peor, se ha documentado también que en el buche se produce transmisión de resistencias a antimicrobianos entre distintas bacterias.

Por todo esto y más allá del asco que pueda producirnos, Stoffolano advierte de que las moscas comunes «pueden ser incluso más importantes en la transmisión de enfermedades que las moscas chupadoras de sangre», pese a que siempre se pone el acento en los insectos que pican como posibles vectores de infecciones.

Todo esto no significa que debamos obsesionarnos con las moscas, ni muchísimo menos tirar los alimentos en los que se posen. Ni Stoffolano ni otros expertos consideran que generalmente, en condiciones normales, las moscas que rondan por nuestra comida representen un verdadero peligro para una persona sana.

Y por si alguien se pregunta qué demonios nos aporta la existencia de las moscas, lo cierto es que también tienen sus funciones, aparte, por supuesto, de servir de biomasa alimentaria a miríadas de otros animales; además ejercen un gran papel como polinizadoras que solo ha comenzado a apreciarse recientemente, ayudan a controlar las plagas gracias a sus larvas carnívoras… En fin, ocurre que en la naturaleza ningún bicho sobra, ni siquiera aquellos que preferimos tener lejos de nosotros.

Populismo contra ciencia

Ocurrió durante los picos más puntiagudos de la pandemia que repentinamente surgían expertos debajo de cualquier piedra, en tertulias cuyos mismos integrantes solían decir, no mucho tiempo atrás, que no entendían de ciencia. Con el desastre de la COVID-19 todos los demás asuntos de la actualidad quedaban empequeñecidos. Por lo tanto, y dado que era obligado hablar de cóvid, los tertulianos y comentaristas estaban obligados a opinar, y opinaban; aunque lógicamente no con demasiada fortuna, ya que eran paracaidistas en un campo de batalla que desconocían por completo.

Esto es un síntoma de una tendencia. Sobre todo con la pandemia y el cambio climático, pero no solo, ha ocurrido que políticos, medios y el público en general ya no pueden permanecer ajenos a la ciencia. Ya no puede contemplarse como algo que solo se asoma fuera de las secciones especializadas cuando se descubre la cura del cáncer, cosa que, si nos atenemos a lo que se publica, ocurre casi todas las semanas.

Pero no solo: aunque la pandemia y el cambio climático sean ahora los principales determinantes de esta tendencia, resulta que la ciencia se inmiscuye en asuntos incómodos que muchos preferirían que siguieran siendo territorio exclusivo de las ideologías. Por ejemplo, descubrir que existen bases biológicas para la diversidad de orientaciones e identidades sexuales diferentes es algo que sin duda muchos preferirían que siguiera sin saberse. En realidad, es solo un espejismo creer que todo esto es nuevo. Por escoger un solo caso histórico de la biología, el conocimiento de la evolución de las especies y de la posición que ocupa el ser humano en la naturaleza obligó a una transformación profunda de usos sociales, leyes y políticas.

Sucede con el conocimiento que no tiene vuelta atrás: una vez que se sabe, ya no es posible des-saber. Pero hay otra salida: negar lo que se sabe, ignorarlo. Esta es una reacción muy humana. Al fin y al cabo, es mucho más sencillo y cómodo cerrar los ojos y los oídos al conocimiento, y seguir pensando del mismo modo que antes, que estudiar y comprender algo sobre lo que previamente se sabía poco o nada y obligarse a uno mismo a rendir sus baluartes ideológicos a la evidencia.

Este es posiblemente uno de los motivos por los que la anticiencia es más fuerte precisamente cuando la ciencia también lo es. Los bulos, las noticias falsas y las teorías de la conspiración han vivido su momento más dorado en tiempos de pandemia y cambio climático, y esto también parece una tendencia en alza.

Y dado que la ciencia y la anticiencia están presentes en la vida, en la sociedad y en la política, también forman parte de las campañas políticas. En Italia, la candidata ganadora de las elecciones, Giorgia Meloni, dijo en su mítin de cierre de campaña: «Ya no doblegaremos nuestras libertades fundamentales a estos aprendices de brujo», refiriéndose a los médicos y los científicos. Durante la campaña se ha manifestado en contra de las vacunas —dice no ser antivacunas, pero que la ciencia ahora tiene «las ideas poco claras» (¡¿?!); el clásico «no soy yo, son ellos»— y no ha ocultado su postura contraria a la ciencia, que ha llevado a un grupo de médicos a lanzar la campaña #votaconScienza, según contaba Vanity Fair. Ahora, la ciencia italiana va a enfrentarse a un panorama complicado, como ya ocurrió en EEUU con Donald Trump.

Giorgia Meloni en 2014. Imagen de Jose Antonio / DoppioM / Wikipedia.

Dicen que los populismos políticos triunfan porque apuntan directamente a las tripas, circunvalando los rincones de pensar. Y que este alimento triunfa sobre todo en tiempos de crisis e incertidumbres como los que vivimos. Entre otros muchos argumentos, no cabe duda de que Meloni ha explotado la fatiga pandémica, como antes han hecho también otros líderes políticos con notable éxito. Cuando las tripas suenan, es difícil acallarlas.

Sería muy discutible si la llamada política tradicional se dirige realmente a la razón y no al corazón. Pero sí es así en el caso de la ciencia. Y cuando la ciencia descubre algo, solo hay dos opciones. La racional, acatarlo y aceptarlo, no es la más sencilla, porque puede obligar a un cambio de ideas que no es cómodo. Es más conveniente la emocional, agarrarse a las ideas e ignorarlo.

Por ejemplo. Muchas personas han creído que las orientaciones e identidades sexuales minoritarias, las que se apartan de la norma, son una construcción psicológica y social que ha prosperado en un clima popular favorable. Pero cuando en las últimas décadas la ciencia ha descubierto que es un fenómeno real con una base biológica sustanciada, seguir hablando de «ideología de género» tiene tanto sentido como hablar de ideología de la evolución o de ideología del heliocentrismo. Es un hecho, no una ideología. Defender un hecho no es una ideología; lo que es una ideología es negarlo, una ideología antigénero.

Recientemente el especialista en asuntos religiosos de la Universidad de Pensilvania Donovan Schaefer escribía un artículo en The Conversation en el que resumía la tesis de su último libro, Wild Experiment: Feeling Science and Secularism after Darwin. Las investigaciones de Schaefer estudian cómo las emociones dirigen la experiencia humana, incluyendo las creencias. Es evidente que las personas pertenecientes a los sectores del populismo ultraconservador se guían por creencias, y ellos mismos lo reconocen; las ideas que Meloni defiende se basan en un credo religioso. La validez de estas opiniones podrá ser discutible para otras personas —por ejemplo, cuando atentan contra derechos fundamentales—, pero deja de serlo por completo cuando niegan la realidad.

Según Schaefer, esas mismas emociones asociadas a las creencias religiosas son también las que motivan la creencia en teorías de la conspiración; no importa tanto la cantidad o calidad de la información que circula (veraz o falaz), sino entender los sentimientos que hacen las conspiranoias tan atractivas para muchas personas. Los seguidores de estos bulos, dice Schaefer, quieren creer, como Fox Mulder en Expediente X.

Schaefer repasa cuáles son estos sentimientos en las personas adeptas a las conspiranoias: se sienten más inteligentes que los demás, más críticos, con una capacidad de juicio de la que los otros, a los que ven como borregos de un rebaño, carecen. Si el 99% de los científicos están de acuerdo en algo, los conspiranoicos creerán que los verdaderamente inteligentes, independientes y creíbles son el 1% restante. Son los únicos iluminados que comparten con el conspiranoico una visión del mundo en la que todo está conectado, nada ocurre sin un motivo y las casualidades no existen; una subtrama oculta de la realidad que es totalmente ilusoria y delirante, completamente inventada, pero donde todas las piezas encajan a la perfección. Y para las personas que abrazan esta mentalidad, descubrir esa ficticia trama es gratificante; es como una inyección de adrenalina que hace del mundo un lugar más excitante.

Schaefer no es el primer experto que destaca el papel de las emociones en el pensamiento conspiranoico, pero es cierto que a menudo otras aproximaciones a este problema olvidan el factor emocional centrándose solo en el intelectual, lo que deja un agujero en torno al cual se dan vueltas y vueltas sin encontrar cómo rellenarlo.

En el fondo, aclara Schaefer, esta emotividad no está solo ligada al pensamiento conspiranoico, sino a todo tipo de pensamientos y mensajes; no somos tan racionales como nos gusta creer. La diferencia, viene a decir, es que otros aceptamos renunciar a esa emoción que produce creerse iluminado, a esa inyección de adrenalina: «Desenmarañar sus creencias [de los conspiranoicos] requiere el paciente trabajo de persuadir a los devotos de que el mundo es un lugar más aburrido, más aleatorio y menos interesante de lo que uno podría haber esperado». Contra las tripas, razón. Contra el populismo, ciencia.

Las picaduras de arañas no suelen ser de arañas

Ocurrió en el verano de 2021, y fue una de esas noticias que ningún medio se resistió a contar, porque sus responsables saben que son caramelitos que los visitantes devoran con ansia. Por supuesto, nada que objetar al hecho de que los medios cuenten algo que es noticia. Pero sí a cómo lo cuentan.

El relato fue más o menos este. Un turista británico de vacaciones en Ibiza sufrió un mordisco en la mano de una araña violinista o reclusa parda mediterránea (Loxosceles rufescens), que pasa por ser una de las más venenosas de España. Aunque recibió tratamiento a las pocas horas, la picadura le produjo una reacción necrótica en los dedos, dos de los cuales se le tuvieron que amputar. El turista regresó después a Reino Unido a completar su tratamiento. En algunos medios la noticia vino acompañada por informaciones de contexto sobre la araña en cuestión, a menudo pintándola como un monstruo peligroso y aterrador.

Sobre todo, lo que faltaba en esta información era salpicarla con algunas palabras: presunto/presuntamente, posible/posiblemente… Porque lo cierto es que, salvando una vaga referencia del propio afectado a que le pareció ver una araña, no hay absolutamente ninguna prueba de que una de esas criaturas fuese la responsable del suceso, mucho menos de que se tratara de esa especie concreta. Más que contar una noticia con los estándares de rigor que se aplican a otro tipo de informaciones, daba la sensación de que los medios estaban relatando no el hecho, sino lo que anteriormente otro medio —el primero que lo dio— había publicado sobre el hecho. Y si el primer medio dijo araña, pues araña.

Pero… un momento: si los médicos que le atendieron declararon que esa era la causa, se supone que debemos fiarnos, ¿no? Ellos sabrán.

Araña violinista o reclusa parda mediterránea (Loxosceles rufescens). Imagen de Antonio Serrano / Wikipedia.

Bueno… No necesariamente. Un estudio clásico citado a menudo llegó a la conclusión de que el 80% de 600 presuntas picaduras de araña reclusa no eran realmente tales, cuando quienes las examinaban eran expertos en arañas. En otro más reciente, de 2009, solo 7 de 182 presuntas picaduras de araña lo eran. El resto de las lesiones se debían a picaduras de otros animales o, sobre todo y en una abrumadora mayoría (el 86%), a infecciones.

En la revista Western Journal of Medicine, el entomólogo de la Universidad de California Richard Vetter también advertía de que la gran mayoría de las presuntas picaduras de araña diagnosticadas por los médicos no lo son, y que incluso le han llegado cientos de consultas de médicos por picaduras de araña reclusa… en lugares donde estas arañas no existen. Vetter enumeraba una lista de 14 causas distintas que suelen ser las verdaderas causantes de las lesiones necróticas atribuidas a las arañas, incluyendo infecciones bacterianas, víricas (como el herpes) o fúngicas, y enfermedades como la diabetes o algunos tipos de cáncer.

En la misma revista, el toxicólogo Geoffrey Isbister avala la misma tesis, que la mayoría de las picaduras de araña no son tales. Añade que generalmente las arañas a las que se les atribuye la culpa de lesiones necróticas no tienen en su veneno los componentes necesarios para causar este efecto —la reclusa mediterránea sí los tiene—, a pesar de que en su país (Australia) son frecuentes los diagnósticos de necrosis causadas por arañas. Entre las causas verdaderas de estas lesiones cita infecciones fúngicas como esporotricosis o candidiasis, bacterianas por estafilococos, Mycobacterium ulcerans (causante de la úlcera de Buruli) o Chromobacterium violaceum, por virus como el herpes zóster, enfermedades inflamatorias raras como el pioderma gangrenoso, o reacciones a picaduras de otros artrópodos.

Con respecto a los otros culpables, tengo una experiencia personal que aportar. Por eso de ser biólogo (aunque soy inmunólogo, no zoólogo ni experto en picaduras de bichos), a uno suelen enseñarle picaduras cuyos portadores atribuyen a alguna araña, dado que no es la típica de mosquito o avispa. Y casi en el cien por cien de los casos el aspecto es tan característico que no deja lugar a dudas: moscas negras. Lo más curioso es que en muchas ocasiones quien pregunta ni siquiera ha oído hablar de la mosca negra.

Tengo también otra anécdota en primera persona sobre las infecciones, la causa mayoritaria de esas picaduras aparentemente aparatosas. Este verano a mi hijo pequeño le picó una avispa en el pie, algo típico en la combinación de niños y verano. Pero a la mañana siguiente el pie se había hinchado y enrojecido, con zonas entre los dedos de un alarmante color violáceo. De inmediato, a Urgencias. La médica diagnosticó con todo acierto: infección causada por la picadura. Antibiótico, y a los dos o tres días el pie recuperó su aspecto normal. En muchos de estos casos el culpable es el estafilococo, una bacteria que solemos llevar en la piel. Por suerte contamos con esa maravilla de la ciencia, los antibióticos. Pero si por mala fortuna diéramos con una variedad resistente a antibióticos, las cosas podrían complicarse.

Volviendo al caso del turista británico, su compatriota y naturalista Molly Grace, residente en España y experta en arañas, descartaba en su blog que la culpable fuese una de estas criaturas, menos aún una reclusa, al menos sin pruebas al respecto. Lo más chocante de todo es que, según publicó algún medio, un médico que atendió al paciente afirmó que el caso era «uno entre un millón». ¿Cómo es que un médico está dispuesto a certificar alegremente un diagnóstico que ocurre una vez de cada millón sin basarse en otra cosa que una conjetura, una hipótesis sin absolutamente ninguna prueba? ¿Cómo era aquello? Ah, sí: afirmaciones extraordinarias requieren pruebas extraordinarias.

Esto encaja perfectamente en el mensaje de un nuevo estudio publicado en Current Biology por un amplio grupo internacional de investigadores dirigido desde la Universidad de Helsinki. Los autores han rastreado los medios de 81 países en 40 idiomas en busca de noticias sobre picaduras de arañas publicadas de 2010 a 2020, recogiendo un total de 5.348 informaciones. Todo ello con el objetivo de comprobar hasta qué punto los medios son rigurosos cuando publican noticias sobre encuentros humano-araña, o no.

Y no: según los investigadores, el 47% de los artículos contenían errores, y el 43% podían calificarse de sensacionalistas. Los autores apuntan que «el flujo de noticias relacionadas con arañas ocurre por medio de una red global muy interconectada». Incluso un presunto incidente con arañas en una remota aldea de Australia puede propagarse por los medios de todo el mundo, que se limitan a copiar lo que otros han contado antes, sin molestarse lo más mínimo en cuestionar la información, contrastarla o buscar otras fuentes: si el Daily Bugle (por poner un medio ficticio) dice que la araña ha hecho tal cosa, pues sea.

Y así, dicen los autores, «el sensacionalismo es un factor clave que subyace a la propagación de la desinformación». Según el director del estudio, Stefano Mammola, «el nivel de sensacionalismo y desinformación cae cuando los periodistas consultan al experto adecuado, un experto en arañas y no un médico u otro profesional».

Podría parecer que todo esto no tiene la menor importancia. Salvo que las fake news son fake news, se trate de políticos o de arañas, y ningún medio que se precie está autorizado para criticar a otros si se las deja colar de este modo. Salvo que meter miedo a la gente pone en peligro especies que desempeñan funciones útiles en los ecosistemas. Las arañas no suelen morder a la gente. No obtienen ningún beneficio de ello, y en cambio es un desperdicio del veneno que necesitan para cazar. Solo atacan si se sienten amenazadas o si protegen su puesta de huevos. El hecho de que para la gran mayoría de la gente las arañas no sean cute no debería traducirse en una licencia para matarlas a diestro y siniestro.

La historia del hotel de safari donde Isabel de Inglaterra se convirtió en reina (2)

En octubre de 2021 el actual Treetops, el sucesor del hotel donde la princesa Isabel de Inglaterra se convirtió en reina sin aún saberlo, cerró sus puertas, tras más de un año de pandemia sin recibir visitantes. A los cierres de fronteras y otras restricciones a los viajes se unía que, con un virus respiratorio cabalgando libremente por el planeta, a nadie le parecía la idea más sensata del mundo pagar un precio abultado para compartir un espacio estrecho durante toda una noche con un montón de desconocidos.

Aunque, que yo sepa, aún no hay noticias concretas sobre su reapertura, no me cabe duda de que llegará. El pasado febrero —cuando se cumplían 70 años de la visita histórica de Isabel y su esposo— el periodista del Mail Online Robert Hardman visitaba el hotel cerrado y observaba que todo estaba en perfecto estado de revista apuntando a una posible próxima reinauguración (este verano yo solo conseguí acercarme a la cancela, cerrada a cal y canto). Más dudoso parece el destino del Outspan Hotel, el establecimiento original que ha servido como base para las excursiones al Treetops, situado a unos kilómetros. El Outspan también permanece cerrado y, según Hardman, está a la venta.

Pero si es seguro que el Treetops superará la COVID-19, en cambio no parece tan claro su futuro a largo plazo, por otros motivos muy distintos. Durante décadas el famoso hotel-árbol, en su segunda encarnación después de que el primero ardiese a manos de la guerrilla del Mau Mau, se ha debatido entre la tentación de exprimir el negocio al máximo y la necesidad de conservar el entorno natural, sin el cual se acabó el negocio. Sobre cuál ha sido el balance de este conflicto, puede haber opiniones, pero también hay datos que no son opinables.

El Treetops en 1992. Imagen de Javier Yanes.

En tiempos de la construcción del Treetops original, en 1932, el hotel en el árbol se encontraba rodeado por el espeso bosque húmedo de las faldas de los Aberdares, una región densamente poblada de fauna. En la época de la visita de los príncipes ingleses, 20 años después, ya se había constituido el Parque Nacional de Aberdare; este y su área de conservación demarcan las fronteras entre la zona destinada solo a la conservación de la naturaleza y las tierras cultivables. La situación del Treetops, justo en el extremo de una lengua del parque que se extendía desde las cumbres hacia las tierras más bajas, lo convertía en el lugar más accesible donde se podía disfrutar de aquella profusión de fauna; era el límite exterior de toda aquella inmensa naturaleza salvaje de los Aberdares.

Sin embargo, en las décadas posteriores el desarrollo y la expansión humana lo han ido acorralando. La antigua ruta migratoria de los elefantes en la que se construyó el Treetops cayó en desuso, y las granjas y plantaciones se extendieron. En época más reciente, el parque se ha vallado casi en su totalidad para impedir que la fauna salvaje invada los cultivos y para proteger el espacio natural de la presión humana, sobre todo de la caza furtiva de rinocerontes.

Ya en nuestros tiempos, lo que se contempla desde la terraza superior del Treetops no es una vasta extensión de una África intacta; las granjas saltan a la vista, y también se atisba el intenso tráfico de la carretera principal que discurre por el valle. En cambio, otros muchos alojamientos similares que proliferaron después por toda África tienen ubicaciones más aisladas de la huella humana. Sin ir más lejos, en el propio parque de Aberdare se abrió en 1969 The Ark Lodge, un hotel de funcionamiento semejante al Treetops que se ubica en una zona más profunda del bosque.

Pero si esta parte del deterioro del enclave no es achacable a los propietarios del Treetops, otra sí lo es. Cuando en 1957 se construyó el segundo Treetops, al otro lado de la misma charca donde se hallaba el primero, los Walker quisieron aprovechar el tirón de la fama que el lugar había adquirido gracias a la visita real, y erigieron un nuevo hotel de mayor tamaño. Para tratar de mantener el espíritu original se levantó sobre postes de madera, pero esto ya era más un golpe de efecto que otra cosa, puesto que ya no era una cabaña sobre un árbol, sino una construcción sobre el suelo en torno a un árbol. Por entonces el Treetops aún estaba rodeado por un espeso bosque (compárense estos vídeos con la foto de 1992 que aparece más arriba).

En su primera versión el nuevo Treetops acogía a solo 14 visitantes, pero no tardó en ampliarse a 35 habitaciones, convirtiéndose en una enorme mole de madera cada vez más alejada de lo que un día fue. Los animales seguían acudiendo a la charca, ya que se acostumbran también a la presencia humana y sus construcciones, pero evidentemente la experiencia ya distaba mucho de lo que debió de ser en aquellos primeros tiempos.

Pero la masificación y la presión de la huella humana no han sido ni mucho menos los únicos azotes del Treetops y de su entorno natural. Durante décadas se ha mantenido la costumbre de esparcir sal junto a la laguna para atraer a los animales. Aunque aún no se conoce con todo detalle por qué los herbívoros tienen esta necesidad en su dieta, sí se sabe desde antiguo que acuden a lamer los suelos ricos en minerales allí donde afloran de forma natural, pero también en los lugares donde se dispersa sal común. La sal vertida durante años y años frente al Treetops ha matado la mayor parte de la vegetación circundante, a su vez atrayendo continuamente grandes manadas de elefantes que han aniquilado el antiguo bosque en torno a la charca.

El resultado de todo ello es que actualmente el panorama frente al Treetops consiste en una laguna rodeada por un mar de fango, sobre el que se dispersan algunas islas de arbolado fuertemente valladas para protegerlas de los elefantes. Y al fondo, las granjas y la carretera general. En fin, ya no es precisamente la imagen de la África prístina y salvaje que muchos turistas llegan buscando.

Y sí, en todo este contexto, también los animales han descendido drásticamente. Esto es claramente apreciable, pero hay datos concretos. Encontré una tesina de licenciatura elaborada en 2013 por Aimee Leigh Massey, estudiante de Recursos Naturales y Medio Ambiente de la Universidad de Michigan. Massey reunió los recuentos de animales en Treetops y The Ark que los llamados cazadores de guardia (una denominación ya obsoleta que necesitaría una repensada; en Kenya la caza está prohibida desde los años 70) han mantenido durante décadas. Y como ya saltaba a la vista, la pérdida general de animales ha sido mucho mayor en el Treetops.

«Encuentro fuertes evidencias del efecto orilla en el enclave más próximo a la frontera (Treetops); este enclave registró las pérdidas más fuertes en números totales de población de fauna salvaje, en biomasa agregada de fauna salvaje, en riqueza de especies y en índices compuestos de diversidad de especies», escribía Massey, señalando que este declive ha sido mucho más pronunciado desde mediados de los 90; incluso a pesar de que el vallado del parque, que comenzó en 1989, consiguió un leve repunte, ya en este siglo la caída ha sido drástica, y la antigua variedad de especies en la charca del Treetops ha quedado reducida casi en exclusiva a elefantes y búfalos. «En contraste, las poblaciones de fauna salvaje cerca de las áreas centrales (The Ark) parecen haberse mantenido relativamente estables a lo largo de los años», añade la autora.

Y curiosamente, aunque en internet abundan los comentarios muy negativos de estancias en el Treetops, parece que los turistas no se quejan tanto por la degradación medioambiental del lugar o por el pálido remedo actual de lo que fue un enclave único en su género, sino por el alojamiento en sí: critican que era incómodo, apretado, oscuro y frío (¡no hay calefacción!, protestaban algunos), que las habitaciones eran muy pequeñas, que los baños eran comunes y que la comida no era deliciosa. Todo lo cual resulta bastante delirante: ¿qué demonios esperaban? ¿Qué pensaban que habían contratado? ¿Para qué iban al Treetops?

Si el Treetops, no siendo barato, aún tenía precios relativamente asequibles para no millonarios como un servidor, era precisamente por esas incomodidades, por haber mantenido un deliberado perfil bajo. Sin infinity pools ni jacuzzis o camas de dos metros bajo las estrellas. Nadie dijo nunca que fuese un lodge de lujo; el lujo era la experiencia, el entorno. Incluso la entonces princesa Isabel, cuyos estándares de vida estaban bastante por encima de los del visitante medio del Treetops, durmió allí en un catre plegable, no en la estupenda cama de matrimonio que aparece retratada en la serie The Crown (no recuerdo dónde leí este dato, pero debió de ser en uno de los libros sobre el Treetops que tengo en mi biblioteca). Y no se quejó de incomodidad.

Por desgracia, se diría que ahora los propietarios actuales han decidido atender más a las necesidades de ese sector de público más preocupado por el tamaño de la cama que por la conservación del entorno natural. En 2012 el Treetops cerró temporalmente para una renovación profunda. Se construyó un tercer piso que hizo desaparecer la antigua azotea diáfana con visión de 360°, y con el que el Treetops ha machacado por completo lo poco que aún podía quedarle del espíritu original del hotel-árbol; ya parece un simple bloque de apartamentos. Se redujo el número de habitaciones de 50 a 36 para hacerlas más grandes y con baño incorporado. A juzgar por las fotos —no lo he visitado desde entonces—, se decoró todo el hotel en el estilo tan de moda que llaman safari chic, muy lejos del antiguo aire de refugio en la selva (selva que ya tampoco existe).

El Treetops en 2015, tras la ampliación. Imagen de Make it Kenya – Stuart Price / Flickr / dominio público.

Decoración del Treetops actual en 2015, tras la ampliación. Imagen de Make it Kenya – Stuart Price / Flickr / dominio público.

En fin, parece obvio que los propietarios actuales apuntan a un sector de mercado más alto, y que el Treetops dejará de ser asequible para los no millonarios como un servidor. Una pena. Pero aunque los clientes dejen de quejarse de los cuartos pequeños y de la comida de rancho, mientras siguen sin protestar por la degradación del entorno, lo cierto es que el Treetops se enfrenta a una dura supervivencia cuando hoy ese sector pudiente puede encontrar por toda África muchos otros alojamientos con unos estándares de lujo muy superiores a los que un bloque de apartamentos puede llegar a ofrecer, y que además aún se encuentran enclavados en entornos prístinos como lo fue el del Treetops en sus orígenes.

Y si todo lo anterior puede sonar a la lamentación de un nostálgico empedernido (que lo es), vayan aquí las palabras tristemente proféticas de la tesina de Massey sobre la degradación del entorno natural del Treetops: «A menos que estos problemas se resuelvan, los números de fauna en el Treetops continuarán declinando hasta el punto en el que el lodge perderá su atractivo para los turistas y su capacidad de generar ingresos».

La historia del hotel de safari donde Isabel de Inglaterra se convirtió en reina (1)

Hay un lugar en el mundo en el que Isabel de Inglaterra se acostó por la noche como princesa para levantarse a la mañana siguiente como reina, aunque ella no supo de esta circunstancia hasta varias horas más tarde. El 5 de febrero de 1952 ella y su esposo, el príncipe Felipe, pasaron la noche en el hotel Treetops de Kenya, por entonces aún una colonia británica que la pareja visitó como escala en su gira prevista por la Commonwealth que los llevaría hasta Australia y Nueva Zelanda.

Durante su estancia en aquel refugio en la selva kenyana, la propia joven filmó con su cámara cómo dos antílopes acuáticos se batían en duelo hasta la muerte de uno de ellos. Pero el viaje quedó truncado al día siguiente; tras la muerte del rey Jorge VI mientras dormía, la ya nueva reina y su marido regresaron de inmediato a Londres para hacer efectiva la proclamación.

La historia de cómo y dónde la joven Isabel de Windsor accedió al trono del poderoso Imperio británico es bastante conocida en su país natal, y por supuesto también en la nación africana donde sucedió. La serie de Netflix The Crown la ha dado a conocer al resto del mundo (aunque, como veremos, el escenario retratado es muy poco fiel a la realidad). Aquel episodio casi novelesco sirvió además para popularizar el Treetops, un lugar mítico por sus propios méritos que la luctuosa carambola real convirtió después en centro de atracción para famosos y millonarios.

Lo que vengo hoy a contar aquí no es una anécdota monárquica ni la historia de un hotel, aunque tiene algo de ambas. Pero es, sobre todo, el relato de dos conflictos. Uno, que tiene poco que ver con la temática de este blog pero sí mucho con las inclinaciones de su autor, yo mismo, el conflicto entre la África romántica y la real. Otro, con más justificación científica, el conflicto entre el desarrollo turístico y la conservación de las reservas naturales.

En 1932 el militar británico Eric Sherbrooke Walker y su esposa, Lady Bettie Feilding, residentes en la colonia de Kenya, construyeron una cabaña de madera sobre la copa de un mugumo, un ficus arbóreo, en las faldas de la cordillera de Aberdare. Cuatro años antes ambos habían abierto en su propiedad el Outspan Hotel a partir de una antigua granja, y quisieron ampliar la oferta de su alojamiento con aquella casa en un árbol de la selva kenyana para ofrecer a sus visitantes una experiencia única en el mundo, ya que no existía otro hotel semejante.

Hoy cualquier turista en Kenya o en otro destino de safaris tiene miles de alojamientos a su disposición, muchos de ellos habitualmente visitados por los animales, y los recorridos diarios en vehículos por las pistas de los parques nacionales y reservas les sirven las especies típicas de la fauna africana a tiro de cámara. Pero en aquellos tiempos las cosas eran muy diferentes. Aunque los animales estaban menos limitados por el desarrollo y la expansión humana, observar elefantes, rinocerontes o leones en su hábitat natural requería embarcarse en expediciones incómodas y a menudo peligrosas.

Así pues, la idea de los Walker era que su Treetops Hotel sirviera como una plataforma de observación nocturna al estilo de las que utilizaban los cazadores en la India; un lugar en el que sus huéspedes pudiesen dormir en la comodidad y seguridad de un refugio, pero teniendo a sus pies el espectáculo de la naturaleza africana en su más pura esencia. Se dice que el Treetops fue el primer safari lodge de Kenya.

El Treetops original, en el libro escrito por Jim Corbett.

La cordillera de Aberdare (Nyandarua, en kikuyu local), donde se construyó el Treetops, es un lugar habitualmente ignorado por la gran mayoría de los circuitos turísticos en Kenya; un error, dado que es un lugar de inmensa belleza y riqueza animal; un error afortunado, dado que eso lo ha mantenido hasta hoy como una joya oculta donde uno puede escapar de las hordas turísticas de otros parques. Desde el valle a sus pies las montañas ascienden hasta los 4.001 metros de su pico más alto, Ol Donyo Lesatima. A lo largo del ascenso se van sucediendo las franjas de vegetación diferentes, la selva húmeda, los bosques de bambú y los bosques de montaña alternados con praderas y páramos desnudos en las tierras más altas. Entre las quebradas discurren arroyos que se desploman en vistosas cascadas, como Gura Falls, la que sobrevolaba la avioneta de los protagonistas en Memorias de África.

El Treetops se sitúa en la parte más baja, a 1.966 metros de altura, donde la densidad de fauna es mucho mayor que en cotas más elevadas. En tiempos de los Walker el enclave elegido se hallaba en una ruta migratoria de elefantes entre los Aberdares y el Monte Kenya (con 5.199 metros, la segunda montaña más alta de África), situado al otro lado del valle. Esta ruta ya no existe, cortada por la carretera que discurre por el valle y por las plantaciones que se extienden a ambos lados. Hoy el Treetops aún se encuentra en el territorio del Parque Nacional de Aberdare, pero en un extremo denominado el Saliente, a menos de un kilómetro del límite del parque.

Originalmente el Treetops era una cabaña rústica con solo dos habitaciones, junto a una charca que atraía a los animales. Los huéspedes llegaban allí escoltados por un cazador armado y trepaban al refugio por una escalerilla que después se recogía para evitar incursiones de la fauna local. En el Treetops se veía atardecer, se servía la cena, y después los huéspedes podían pasar el tiempo que quisieran o aguantaran despiertos observando a los animales que acudían a la charca. Elefantes, rinocerontes, búfalos, jabalíes, antílopes y monos eran visitantes habituales, a los que ocasionalmente se añadía algún león o leopardo.

Ya antes de la visita real (que tuvo lugar por invitación de los Walker), el Treetops era muy popular entre la élite de la Kenya blanca y sus visitantes adinerados. Por la exclusividad de la experiencia, se decía que era el hotel más caro del mundo, pero con una larga lista de espera. Por entonces se contaban las rocambolescas extravagancias de sus excéntricos huéspedes; en aquellos años Kenya era un patio de recreo del Imperio, donde los británicos se soltaban los nudos del corsé de la estirada sociedad de su patria. El Treetops fue escenario de escándalos amatorios y de excesos propiciados por el alcohol, como el de una señorita que pidió ser descolgada por una soga para firmar el culo de un elefante con una tiza atada a un taco de billar. No lo logró, por cierto.

Con motivo de la visita de los príncipes el alojamiento se amplió a cuatro habitaciones, añadiendo postes de madera para sostener la estructura de mayor tamaño. El episodio 2 de la primera temporada de The Crown parece recrear bastante fielmente el aspecto del Treetops en aquella época, aunque todo lo demás está mal: aquello no es una llanura de sabana seca, sino un bosque húmedo de montaña. Las jirafas, cebras e hipopótamos que aparecen en la serie nunca se han visto por allí. Y aunque los protagonistas aparecen acalorados y despechugados durante su estancia nocturna, nada más lejos: también en el ecuador las noches a casi 2.000 metros son gélidas, y las lluvias y nieblas son muy frecuentes.

La imagen del Treetops en la época de la visita de la princesa Isabel en 1952, en la portada del libro escrito por Jim Corbett.

Hoy aún se conserva la página del registro del Treetops correspondiente a la jornada de la histórica visita, la noche número 794 de las estancias en el hotel; la hoja está firmada por los príncipes, sus respectivos asistentes personales (Lady Pamela Mountbatten y el comandante Michael Parker), los Walker y su hija Honor, y el coronel Jim Corbett, célebre cazador de tigres en la India, por entonces ya retirado y residente en el Outspan, y que ejercía como cazador de guardia. Corbett anotó los animales vistos: muchos elefantes, antílopes acuáticos —incluyendo los dos que pelearon a muerte—, rinocerontes y babuinos.

Después, Corbett escribiría: «Por primera vez en la historia del mundo, una joven trepó a un árbol un día siendo una princesa, y después de pasar la que describió como su experiencia más excitante, descendió del árbol al día siguiente como reina; Dios la bendiga».

Hasta aquí, la historia digamos dulce, rosa, romántica. La única que se contó entonces, y que incluso hoy en muchas ocasiones sigue siendo la única. Pero hay otra.

Tres años antes de la visita real, el creciente malestar de los nativos kikuyus contra la dominación colonial había estallado en una rebelión armada: el Mau Mau. La guerrilla se refugiaba en la profundidad de sus bosques ancestrales en las montañas de Aberdare y el monte Kenya. La situación era tan peligrosa que los encargados de la seguridad en el viaje de los príncipes desaconsejaron la visita a Kenya, pero se decidió no cancelarla por puro orgullo imperial.

Durante la estancia de los príncipes en Kenya su seguridad corrió a cargo del jefe de la fuerza policial colonial, Ian Henderson, quien lideraría toda la lucha contra el Mau Mau. Henderson ha pasado a la historia con una reputación ambigua; fue varias veces condecorado en su país, pero no solo le consideraban un carnicero sus enemigos kenyanos: en décadas recientes historiadores británicos han documentado y publicado las innumerables torturas, ahorcamientos, mutilaciones, violaciones y otros muchos abusos cometidos bajo sus órdenes.

Meses después de la visita real, en octubre del 52, la situación en las tierras altas centrales de Kenya (la región más colonizada, el territorio de los kikuyus) derivó a una guerra abierta. Se decretó el estado de emergencia y el Treetops cerró, pero los Walker lo ofrecieron como puesto de vigilancia para los King’s African Rifles, el regimiento colonial. Las tropas británicas perseguían a los Mau Mau por la selva, y la Royal Air Force bombardeaba los presuntos cuarteles ocultos en los Aberdares.

El 27 de mayo de 1954 el Mau Mau prendió fuego al Treetops, que quedó destruido. De sus cenizas los Walker rescataron la placa que habían colocado en conmemoración de la visita real, en la que se lee: «En este árbol mgumu su alteza real la princesa Isabel y su alteza real el duque de Edimburgo pasaron la noche el 5 de febrero de 1952. Estando aquí, la princesa Isabel accedió al trono por la muerte de su padre el rey Jorge VI».

Placa conmemorativa de la visita real al Treetops, rescatada del incendio del Treetops original. Imagen de Mikerigg / Wikipedia.

Aquel fue el fin del Treetops original, pero no el fin del Treetops. Mañana continuaremos con esto y con el segundo conflicto, el de desarrollo vs conservación. Pero con respecto al primer conflicto, el de romanticismo vs realidad, por aquella época también el NO-DO franquista en España mostraba a los alegres británicos en su recreo kenyano, y a los sanguinarios, bestiales y feroces terroristas del Mau Mau, un nombre que aún los españoles de mayor edad recuerdan con terror por lo que la propaganda de la época contaba aquí de ellos.

La guerra del Mau Mau fue terrible y atroz por ambas partes. Pero lo que la propaganda no contaba es que sus principales víctimas fueron los propios kikuyus: el balance de muertos fue de 32 colonos, pocos cientos de soldados británicos, y decenas de miles de kikuyus. Para esta tribu fue una guerra civil, ya que los clanes y los poblados se dividían entre los leales a la colonia y los rebeldes. Estos sometían a sus reclutas a un juramento bajo castigo de muerte, lo que llevó a los Mau Mau a cometer brutales masacres contra su propio pueblo. Y a ello se unieron los campos de concentración donde los británicos hacinaban a poblaciones enteras, sin importar si eran rebeldes o no, y donde cientos o miles murieron de hambre, enfermedades y ejecuciones.

La guerra del Mau Mau decayó a partir de 1956 con el apresamiento y la posterior ejecución de su líder, Dedan Kimathi. Los coletazos finales en los años posteriores terminarían con la independencia de Kenya en 1963. Pero antes de eso, en 1957, el Treetops había vuelto a la vida, reconstruido sobre un castaño en la orilla opuesta de la misma charca. Como contaremos mañana.

El contacto sano con los microbios puede favorecer la respuesta contra la COVID-19

El ABC de la inmunología, del que casi todo el mundo tiene una vaga idea, dice que una infección o vacunación nos arma contra un futuro contacto con el mismo patógeno. En junio un estudio en The Lancet Infectious Diseases, que modelizaba matemáticamente la pandemia de COVID-19 simulando un mundo con y sin vacunas, estimaba que estas han salvado casi 20 millones de vidas.

Esto se logra gracias a una de las dos grandes fuerzas del sistema inmune, el llamado adquirido o adaptativo (el otro es el innato). Este a su vez tiene dos divisiones celulares, los linfocitos B y T. Los primeros se arman en su cubierta celular con los anticuerpos, moléculas en forma de Y cuyos dos rabitos superiores están recortados a la medida de los antígenos del patógeno en cuestión para que encajen con ellos como una llave en una cerradura. Un antígeno es, en general, cualquier molécula capaz de estimular esta respuesta. Y un patógeno, como un virus, suele tener varios antígenos diferentes; por ejemplo, la proteína Spike o S del coronavirus SARS-CoV-2 contra la cual nos hemos vacunado es uno de sus antígenos, pero tiene otros.

Además, las células B pueden soltar esos anticuerpos a la sangre y por los tejidos para que actúen como vigilantes; si alguno de ellos encuentra el antígeno y se une a él, otras células inmunitarias lo detectan y se activan. Por su parte, las células T se recubren de otro tipo de moléculas —llamadas receptores de células T, o TCR— que también reconocen los antígenos, aunque mediante otro mecanismo algo más complicado. Cuando las células T reconocen los antígenos contra los cuales están programados, hacen varias cosas diversas que pueden resumirse en un mismo objetivo: guerra al invasor.

También el ABC de la inmunología dice que tanto los anticuerpos como los TCR reconocen específicamente un, y solo un, antígeno. O más concretamente, solo una parte de él llamada epítopo; un antígeno puede tener varios epítopos, como distintas caras que pueden ser reconocidas por anticuerpos o TCR diferentes.

Niños jugando en un parque de agua. Imagen de needpix.com.

Pero cuando pasamos del ABC a una explicación algo más detallada y realista, ocurre que esto último no es exactamente así: resulta que los anticuerpos y los TCR pueden reconocer también, por error, otros antígenos diferentes a aquel contra el cual fueron programados. Sería como colocar una pieza de un puzle en otro puzle distinto al que esa pieza no pertenece, pero donde por casualidad encaja. Esto se llama reactividad cruzada.

Hemos dicho que esto se produce por error, pero lo he puesto en cursiva por una razón: lo consideramos un error del sistema, pero no sabemos hasta qué punto puede ser un inconveniente o una ventaja. De hecho, puede ser una cosa u otra, según el caso: la reactividad cruzada puede ser el origen de algunas alergias; por ejemplo, se ha descrito que este es el caso de algunas personas que son alérgicas al mismo tiempo al látex y al plátano. En ocasiones este fenómeno puede reducir o perjudicar la respuesta contra un antígeno. Pero en otras ocurre lo contrario: la reactividad cruzada posibilita que el organismo inmunizado contra una cepa de gripe responda contra otra cepa distinta.

Podría pensarse que esta reactividad cruzada sucede solo entre, por ejemplo, dos virus muy parecidos, como dos cepas de gripe. Pero este tampoco es siempre el caso: ocurre, por ejemplo, entre el virus de la gripe y el de la hepatitis C, muy distintos entre sí.

Hecha esta introducción, pasemos a lo que vengo a contar. Un equipo de investigadores de la Universidad de Pensilvania ha analizado muestras de sangre de 12 personas sanas recogidas antes de 2020, para asegurarse de que los donantes no hubieran estado expuestos al coronavirus SARS-CoV-2. En estas muestras han encontrado un total de 117 poblaciones de células T que reconocen el virus, en personas que no habían tenido contacto con él. Y pese a ello, estas poblaciones incluyen células T de memoria; es decir, células resultantes de un encuentro previo con el antígeno, a pesar de que es imposible que estas personas se hubiesen infectado con el coronavirus.

Este resultado no es sorprendente; se trata de reactividad cruzada. De hecho, varios estudios anteriores ya habían encontrado estas células T contra el virus en personas no expuestas a él. Pero ¿cuál es la reactividad original de estas células T? ¿Contra qué antígenos estaban programadas, y cuáles han sido los que las han activado previamente? Hasta ahora se ha asumido que estas células eran reactivas contra los coronavirus del resfriado, cuatro virus de la misma familia que el SARS-CoV-2, más o menos parecidos a este, que llevan mucho tiempo circulando entre nosotros y que nos provocan catarros, sobre todo en invierno.

Según lo dicho arriba sobre los efectos variables de la reactividad cruzada, los estudios no son unánimes respecto a si una inmunidad previa contra los coronavirus del resfriado ayuda al organismo a luchar contra la cóvid. Algunos estudios han encontrado que ayuda, otros que perjudica, y otros que ni una cosa ni la otra.

En su estudio, publicado en Science Immunology, los investigadores de Pensilvania han comprobado que sí, existe una cierta reactividad cruzada de estas células T anti-SARS-CoV-2 con los coronavirus del resfriado. Pero lo novedoso es que esta fuente de reactividad cruzada no parece ser la única, ni siquiera la más potente. En su lugar, los científicos han descubierto que estas células T responden contra ciertas bacterias que forman parte de la microbiota natural de nuestra piel, como Staphylococcus epidermidis, o del intestino, como Prevotella copri y Bacteroides ovatus.

Es decir, que en nuestro organismo existen células T programadas y activadas por las bacterias que forman parte de nuestra flora normal, pero casualmente esas células T tienen reactividad cruzada contra el coronavirus SARS-CoV-2, y por lo tanto nos ayudan a luchar contra esta infección incluso si nunca antes la hemos padecido. O dicho de otro modo, algo de lo que ya hay evidencias previas sobradas, que una flora bacteriana sana mantiene al sistema inmune preparado para responder mejor contra las amenazas peligrosas.

Cabe decir que, en realidad, los experimentos del estudio no pueden determinar cómo esta reactividad cruzada concreta afecta a la respuesta contra la cóvid. Pero los autores apuntan que, según estudios anteriores, «la frecuencia de células T preexistentes específicas contra el SARS-CoV-2 se asocia con efectos beneficiosos, como una enfermedad más suave y una infección fallida».

En resumen, los datos sugieren que un sistema inmune más entrenado y en funcionamiento normal puede ayudarnos también a luchar contra la cóvid. De forma más general, esto es precisamente lo que propone la mal llamada hipótesis de la higiene, más correctamente hipótesis de la microbiota: el sistema inmune necesita un contacto sano con los antígenos normales del entorno para funcionar de forma óptima. Intentar evitar este contacto, por ejemplo con desinfecciones innecesarias u otras medidas, puede perjudicarnos.

Se ha barajado la posibilidad de que los casos de hepatitis aguda grave en niños que se han detectado meses atrás estén relacionados con un entrenamiento deficiente del sistema inmune por un exceso de aislamiento. Ahora dos estudios en Reino Unido, aún sin publicar, han detectado en casi todos los niños afectados unos niveles anormalmente altos de Virus Adenoasociado 2 (AAV2), un pequeño parvovirus peculiar que no puede replicarse por sí mismo; necesita la coinfección con otro virus, que puede ser un adenovirus o un herpesvirus. El AAV2 es muy común y suele contraerse durante la infancia. Hasta ahora no se había asociado a ninguna enfermedad. Y si en efecto este virus es el responsable de los casos de hepatitis, en combinación con un adenovirus o quizá con el herpesvirus HHV6, aún no se sabe cuál puede ser el mecanismo implicado. Pero ambos grupos de investigadores han mencionado la posibilidad de que el descenso en la inmunidad de los niños por el aislamiento durante la pandemia haya provocado un posterior pico de infecciones por adenovirus que podrían estar relacionadas con las hepatitis.

En resumen, no solo el SARS-CoV-2 tiene un impacto sobre nuestra salud, sino también las medidas que tomamos contra él y que rompen la convivencia normal del sistema inmune con el mundo de antígenos que nos rodea. Salvando las precauciones debidas en las situaciones en las que exista un riesgo real de contagio, el sistema inmune también necesita volver a la normalidad para seguir protegiéndonos.

La increíble historia de los médicos del gueto de Varsovia que respondieron al nazismo con ciencia

Durante la 2ª Guerra Mundial, los campos de concentración nazis y japoneses fueron escenarios de brutales y aberrantes torturas disfrazadas de experimentos médicos. También en los gulags soviéticos se practicó esta falsa ciencia monstruosa. Pero según escribía en 2016 en la revista Bulletin of the History of Medicine la especialista en estudios rusos de la Universidad del Sur de Florida Golfo Alexopoulos, basándose en los primeros documentos desclasificados de estas prácticas en los campos soviéticos, «aunque la ciencia de los gulags aparentemente no poseyó el carácter letal de la medicina nazi, tampoco este trabajo fue enteramente benigno». Tal vez el diagnóstico de Alexopoulos sea demasiado indulgente, conociéndose, por ejemplo, los experimentos con venenos en los gulags.

Y para que no quede nada sin citar, cabría mencionar otros casos como el infame estudio sobre sífilis de Tuskegee que EEUU llevó a cabo desde 1932, en el que se reclutó a cientos de hombres negros afectados por la enfermedad sin informarles de su diagnóstico y proporcionándoles tratamientos falsos, para estudiar su evolución. Aquello no tuvo ninguna relación con la guerra; de hecho, se prolongó durante 40 años. Pero es una muestra de que fueron muchos los países en los que se diría que se aprovechó una especie de periodo propicio para las atrocidades en nombre de la ciencia: esta ya tenía una estructura y un desarrollo, pero aún no se habían impuesto los estándares éticos que hoy imperan. Y en este contexto, la guerra aportaba los ingredientes de caos, excepción e impunidad que faltaban para que se cometieran tales barbaridades.

Pero sin duda, y con la información disponible hoy, fueron los campos y centros de investigación nazis y japoneses (en Japón no fue solo la infame Unidad 731) los que superaron todos los límites imaginables de vileza y repugnancia. No voy a abundar aquí en enumerar algunos de estos espantosos crímenes; quien esté interesado podrá encontrar información sobrada en internet, y que prepare el estómago para encajar un puñetazo de horror real. Pero un caso especial que merece comentario es el de los experimentos de hipotermia en los campos nazis.

A diferencia de los delirios sádicos de los médicos Josef Mengele en Auschwitz o Aribert Heim en Mauthausen, en los que no existía realmente el menor método ni ánimo científico, se sabe de unos 30 proyectos de investigación desarrollados con lo que era un pretendido enfoque científico, en versión nazi. Y entre ellos, el más conocido es el de los experimentos de hipotermia en el campo de Dachau. Para estudiar cómo proteger de las aguas gélidas del mar a los tripulantes de la Luftwaffe que caían abatidos, y a los soldados del frente ruso, los médicos nazis sumergían a los prisioneros en bañeras de hielo desnudos o con trajes especiales y registraban el tiempo que tardaban en morir, así como la respuesta a distintos métodos de reanimación.

Dada la pulcritud con la que se recogieron aquellos datos, ocurrió que los experimentos nazis fueron citados en estudios posteriores sobre la hipotermia; hasta 1984, más de 45 los habían incluido en sus referencias. La ciencia siempre se basa en el conocimiento previo y este tiene que quedar bien detallado en las referencias, un apartado esencial de todo artículo en el que también se invierte esfuerzo y tiempo.

Pero durante décadas ha coleado un debate ético: incluso si sus datos fuesen válidos, ¿deberían citarse estos estudios, dadas las circunstancias en que se llevaron a cabo? La controversia ha continuado hasta hoy, a pesar de que ya hace décadas algunos expertos reanalizaron los estudios nazis y juzgaron que «ni la ciencia ni los científicos de Dachau eran fiables, y los datos no tenían ningún valor», según citaba un estudio de 1994.

Frente a estos casos tan vergonzantes para la historia de la ciencia, los profesores de nutrición de la Universidad Tufts de Massachusetts Merry Fitzpatrick e Irwin Rosenberg contaban esta semana en The Conversation un ejemplo contrario que, si bien no era del todo desconocido, debe difundirse más: cómo un grupo de médicos judíos del gueto de Varsovia, ellos mismos sufriendo la misma hambruna que todas las personas confinadas allí por los nazis, recogieron observaciones científicas de los efectos de la inanición hasta la muerte, con la esperanza de que sus estudios pudiesen servir de algo a la ciencia y perdurasen además como testimonio de aquellos horrores.

Tras la invasión nazi de Polonia, en la capital se amuralló un área de poco menos de 4 kilómetros cuadrados (unas 3 veces el Retiro de Madrid) donde se confinó a más de 450.000 personas. Fitzpatrick y Rosenberg apuntan que los alemanes de Varsovia recibían raciones de 2.600 calorías al día, lo que hoy se considera correcto para una dieta normal, pero los judíos sobrevivían con menos de la tercera parte, unas 800 calorías a las que llegaban complementando sus raciones con el contrabando. Según los investigadores, un estudio sobre inanición a finales de la 2ª Guerra Mundial en EEUU se hizo con voluntarios a los que se les daba el doble de calorías que esto.

El gueto albergaba dos hospitales, para adultos y niños, en los que se permitía el tratamiento de los pacientes con los recursos que pudieran conseguir, pero se prohibió la investigación. Y pese a ello, desde febrero de 1942 un grupo de médicos judíos puso en marcha un estudio en secreto sobre la inanición en sus pacientes, dirigido por Israel Milejkowski.

Una de las fotografías del hambre en el gueto de Varsovia incluidas en el libro ‘Maladie de famine’. Imagen de American Joint Distribution Committee.

Así, los médicos registraron datos de sus pacientes hasta una muerte por hambre que ellos no podían evitar de ningún modo, recogiendo observaciones valiosas; por ejemplo, que incluso al borde de la muerte la mayoría de las personas no mostraban síntomas de enfermedades típicas de la carencia de vitaminas, como el escorbuto (C), la ceguera nocturna (A) o el raquitismo (D). Y en cambio, sufrían más la falta de minerales: solían desarrollar osteomalacia, un ablandamiento de los huesos por desmineralización, cuando el organismo tiraba de esas reservas de minerales para luchar contra la inanición. Los médicos observaron también que la energía proporcionada por el azúcar, y no la carencia de otros nutrientes, era el factor limitante para la vida.

El 22 de julio de 1942 el Tercer Reich comenzó a aplicar su infame «solución final» al gueto de Varsovia. Aquel día las fuerzas nazis arrasaron el gueto, destruyendo los hospitales y comenzando la masacre o deportación de sus habitantes hacia los campos de exterminio. Para entonces el equipo dirigido por Milejkowski había recogido infinidad de datos valiosos, y durante varias noches los médicos participantes en el programa se dedicaron a intentar salvar sus cuadernos de la destrucción y a encontrarse en secreto en los pabellones del cementerio para poner por escrito una serie de estudios documentando su investigación. Según los cálculos de aquellos médicos, unas 100.000 personas habían muerto en el gueto de hambre y enfermedad. En octubre, cuando terminaban de reunir en un libro los seis estudios que habían podido salvar, otros 300.000 habitantes del gueto habían sido asesinados en los campos de exterminio.

Aquel manuscrito, titulado en francés Maladie de Famine, en inglés The Disease of Starvation: Clinical Research on Starvation in the Warsaw Ghetto in 1942, fue entregado a alguien que lo enterró en el cementerio del hospital para salvarlo de la destrucción. Según Fitzpatrick y Rosenberg, menos de un año después la mayoría de sus 23 autores habían muerto. Después de la guerra el manuscrito se recuperó y se entregó a uno de los autores que aún vivían, Emil Apfelbaum, y a una organización destinada a ayudar a los supervivientes judíos, el American Joint Distribution Committee. Ellos se encargaron de editar y publicar el libro entre 1948 y 1949, casi coincidiendo con la muerte de Apfelbaum.

En EEUU se distribuyeron 1.000 copias de la versión francesa. Fue rebuscando en los depósitos del sótano de la biblioteca de su universidad cuando Fitzpatrick y Rosenberg, que se dedican a estudiar los efectos biológicos de la inanición, descubrieron un ejemplar, y decidieron que debían contarlo. El libro de Milejkowski y sus colaboradores no había desaparecido ni era del todo ignorado; de hecho, el catálogo mundial de bibliotecas muestra que hay más de un centenar de ejemplares repartidos por el mundo, dos de ellos en España: uno en la Residencia de Estudiantes del Consejo Superior de Investigaciones Científicas y otro en la biblioteca de la IE University, ambas en Madrid. Pero sin duda es una historia muy poco conocida que merece mayor difusión, tanto por el heroísmo de los autores, combatiendo la barbarie con ciencia, como por el escalofriante prólogo de Milejkowski, en el que escribía:

«Qué puedo deciros, mis amados colegas y compañeros de miseria. Sois una parte de todos nosotros. Esclavitud, hambre, deportación, esas cifras de muertes en nuestro gueto son también vuestro legado. Y vosotros, mediante vuestro trabajo, podréis dar a los esbirros la respuesta Non omnis moriar, [no moriré del todo]».

Milejkowski escribió estas palabras al final de las deportaciones, en un gueto ya casi desierto, sabiendo que vivía las que serían sus últimas horas:

«Este trabajo se originó y emprendió bajo condiciones inconcebibles. Sostengo mi pluma en la mano y la muerte me observa en mi habitación. Mira a través de las ventanas negras de casas tristes y vacías, en calles desiertas donde se acumulan las posesiones vandalizadas y saqueadas… En este silencio dominante residen la fuerza y la profundidad de nuestro dolor, y los gemidos que un día sacudirán la conciencia del mundo».

Este es el límite de calor que puede aguantar el cuerpo humano

Es curioso cómo tenemos percepciones de distintos factores de riesgo para la salud que no se corresponden con su peligrosidad real. Fumar está prohibido en todas partes, y hay un gran revuelo social con el amianto cada vez que se revela su presencia en cualquier lugar. Pero, en cambio, tomar el sol continúa siendo deporte nacional, pese a que la radiación solar pertenece al mismo grupo de máximo riesgo de cáncer que el tabaco y el amianto. También pertenece a este grupo el alcohol, que bebemos generosamente, mientras al mismo tiempo se monta un gran aparato mediático y publicitario contra compuestos presentes en productos de consumo a los que ni siquiera se les ha demostrado claramente alguna toxicidad.

No seré yo quien vaya a abogar por prohibir el alcohol o tapar el sol a lo Montgomery Burns. Me limito a subrayar estas absurdas inconsistencias, instaladas y favorecidas por la publicidad, los medios y el entorno social. Otra más: parece que ahora acaba de descubrirse que el calor mata, cuando ya mataba a cientos de personas al año. Ha sido necesario que mueran trabajadores en el cumplimiento de sus funciones para que alguien empiece a darse cuenta de que realmente el calor es una amenaza para la vida, más allá del tratamiento ligero y festivo que tradicionalmente se le ha dado en los medios.

Unos jóvenes se refrescan en el río Iregua a su paso por Logroño. Imagen de EFE / Raquel Manzanares / 20Minutos.es.

Sí, hay un límite de calor incompatible con la vida humana. Un estudio publicado en 2010 en PNAS, que a menudo sirve como referencia sobre esos límites, decía: «a menudo se asume que los humanos podrían adaptarse a cualquier calentamiento posible. Aquí argumentamos que el estrés térmico impone un robusto límite superior a tal adaptación».

Los humanos somos eso que en la antigua EGB solía llamarse «animales de sangre caliente» (espero que hoy ya no, porque es nomenclatura anticuada y errónea); homeotermos, es decir, que somos capaces de mantener una temperatura corporal constante —37 °C, grado más, grado menos— con independencia de la ambiental, gracias a nuestro metabolismo y a una serie de maravillosos mecanismos evolutivos.

Contra el frío excesivo contamos además con otro sencillo mecanismo no metabólico ni evolutivo: el jersey. Pero contra el calor, si no podemos apartarnos de él, solo dependemos de nosotros mismos. Cuando el cuerpo se sobrecalienta, los sensores de temperatura de la piel y del interior del organismo envían una señal de alarma al hipotálamo, la central cerebral de regulación de la temperatura. El hipotálamo transmite entonces una orden de vuelta a la piel: sudar. El sudor es uno de esos maravillosos mecanismos, ya que la evaporación en la piel sirve para enfriarnos.

Al mismo tiempo, el hipotálamo ordena a los capilares sanguíneos de la piel que se dilaten para acoger más sangre, de modo que esta pueda enfriarse en la superficie del cuerpo. Entonces la presión sanguínea disminuye, y el corazón se ve obligado a bombear más fuertemente para mantener la circulación. Los músculos se ralentizan, lo que provoca una sensación de fatiga y somnolencia.

Si el calor es extremo y nada de esto consigue rebajar la temperatura corporal a valores normales, el sistema comienza a colapsar. El corazón se ralentiza, se detiene el enfriamiento de la sangre en la piel y se corta la sudoración. Entonces el cuerpo comienza a calentarse sin freno y empiezan a fallar el cerebro y el resto de órganos. En torno a 41 °C de temperatura interna se desata la catástrofe molecular: las proteínas empiezan a desnaturalizarse, a perder su forma. La vida depende de millones de interacciones entre las proteínas cada millonésima de segundo; si esto se para, todo el organismo falla. El ejemplo más típico de desnaturalización de las proteínas por el calor es la coagulación de la clara del huevo al hervirlo o freírlo.

Una vez que se ha llegado a estos extremos, ya no hay vuelta atrás. Ni hielo, ni sueros, ni nada. Se trata solo de qué órgano vital fallará primero. El inocente nombre de «golpe de calor» oculta algo que en realidad es un fracaso general del organismo sometido a estrés térmico extremo. Por eso parece inconcebible que esto no se haya tenido en cuenta como riesgo laboral, a juzgar por lo ocurrido en Madrid.

Pero ¿cuánto calor mata? Para evaluarlo, los científicos utilizan un parámetro estandarizado, que es la llamada temperatura de bulbo húmedo (wet-bulb temperature), o Tw. Esta es la temperatura que marca un termómetro envuelto en un paño empapado en agua, que es menor que la medida en el ambiente, debido al enfriamiento causado por la evaporación del agua del paño. La temperatura de bulbo húmedo Tw sería igual a la ambiental si la humedad relativa del aire fuera del 100% (recordemos que un 100% de humedad relativa no significa estar nadando en el agua, sino que es la máxima cantidad de vapor de agua que el aire puede contener).

El motivo de utilizar este valor de Tw es poder definir valores de temperatura máxima soportable por el ser humano sin que el mecanismo de sudoración pueda hacer nada para contrarrestarlo; con un 100% de humedad relativa el sudor no puede enfriar el cuerpo. A humedades relativas decrecientes, la diferencia entre Tw y la temperatura ambiental se va agrandando, de modo que es posible calcular a qué Tw equivale una temperatura ambiental concreta con un grado de humedad determinado.

El estudio citado de 2010 calculaba que en la Tierra la máxima Tw no suele superar los 31 °C, y que el límite posible para la vida estaría en una Tw de 35 °C. Para hacernos una idea, convirtiendo con otros niveles de humedad: con una humedad del 50%, como podría ser la de Madrid, esta Tw letal de 35 °C equivaldría a una temperatura ambiental de 44,8 °C; pero con una humedad del 90%, como podría ser un verano en Alicante, la temperatura ambiental equivalente a esa Tw de 35 °C sería de solo 36,5 °C.

Por cierto, consultando la web de la Agencia Estatal de Meteorología, la previsión hoy en Alicante es de una temperatura máxima de 34 °C y una humedad relativa máxima del 100%. Y aunque estos dos valores máximos no necesariamente tienen que coincidir en el mismo momento del día, si esto ocurriese los alicantinos estarían solo un grado por debajo del límite considerado compatible con la vida humana según el estudio de 2010. Con esto quizá se entienda mejor una de las razones por las que el acuerdo de París de 2015 contra el cambio climático advertía de lo catastrófico que resultará un aumento de 2 °C.

Pero ocurre que ese valor calculado en el estudio de 2010 era más bien teórico. Ahora, un equipo de investigadores de la Penn State University dirigido por el climatólogo Daniel Vecellio y el fisiólogo Larry Kenney ha puesto a prueba los límites reales en experimentos con voluntarios. Y la mala noticia es que ese límite real está por debajo de lo que decía el estudio de 2010.

Los investigadores reclutaron a un grupo de mujeres y hombres jóvenes y sanos, a quienes se les dio a tragar un pequeño termómetro telemétrico en forma de cápsula para poder monitorizar la temperatura interna de su cuerpo. Luego los voluntarios se encerraban en una cámara donde se les sometía a distintas condiciones de temperatura y humedad mientras hacían tareas ligeras como cocinar o comer.

Lo que descubrieron los científicos es que el límite del peligro, a partir del cual la temperatura interna de los voluntarios comenzaba a subir sin que la sudoración pudiese compensarlo, estaba en torno a una Tw de 31 °C. Esto equivaldría a 40,2 °C con una humedad del 50% (Madrid), o a solo 32,5 °C con una humedad del 90% (Alicante).

Es decir, con olas de calor como las que estamos sufriendo, ya estamos más allá del límite. Una exposición prolongada a estas condiciones puede matar, como se está demostrando en la práctica. El experimento de este estudio se hizo con personas jóvenes y sanas; las personas mayores son aún más sensibles al estrés térmico.

Este gráfico de los investigadores muestra el límite crítico de temperaturas y humedades, que sería la frontera entre la zona amarilla y la roja:

Límite crítico (entre la zona amarilla y la roja) de temperaturas y humedades para el cuerpo humano. Imagen de W. Larry Kenney, CC BY-ND.

Tocaría acabar este artículo con una mención sobre lo que se nos viene encima con el cambio climático, y con la previsión que comenté ayer de que estas olas de calor van a ser más frecuentes, duras y persistentes en los próximos años, porque nos ha tocado vivir en la región del hemisferio norte templado más propensa a estos azotes. Pero creo que ya está todo dicho.

Sí, el cambio climático es obra humana; no, no es el culpable de todo lo que pasa, hasta que la ciencia lo demuestre

Escucho esta mañana, en la tertulia radiofónica matinal de Onda Cero, la típica sucesión de especulaciones en torno al calor extremo que estamos sufriendo durante buena parte de lo que llevamos de verano, y en torno a la plaga de incendios forestales. Lo he llamado sucesión de especulaciones a falta de otro nombre mejor, por no llamarlo debate; por mi ya provecta edad llegué a ver en televisión aquellos antiguos programas de La Clave del recientemente fallecido José Luis Balbín. Aquello eran debates, con expertos hablando de su especialidad (aunque por entonces aquello para mí solo era el programa aburrido de gente mayor y seria que ponían un rato después de La pantera rosa). Lo de ahora, pues no.

Entre los tertulianos hay un periodista que avanza por la banda diciendo algo así como que él no va a entrar en si el cambio climático está provocado por los humanos o no, pero que lo importante es cómo está influyendo en todo lo antedicho, el calor extremo y los incendios.

Pues bien, es justo todo lo contrario.

Vaya por delante algo que quizá ya sepan quienes de cuando en cuando se dejen caer por este blog: cuando se trata de desmentir bulos o ideas erróneas, no suelo mencionar aquí el nombre del portavoz concreto que ha motivado el desmentido, y por al menos dos razones. Primera, no se trata de descalificar a una persona porque su ideología no nos gusta, sino solo de descalificar sus afirmaciones porque son erróneas. Los rifirrafes personales no conducen a nada más que el ruido y la furia, como vemos a diario en Twitter. Son la versión real de los Dos Minutos de Odio orwellianos.

Segunda, lo de menos es a quién le he escuchado decir algo que en realidad tampoco es su idea original; esto de, sí, hay un cambio climático que es evidente porque lo estamos viendo, pero no, no es culpa nuestra, es solo la enésima versión del negacionismo que actualmente triunfa. El negacionismo se ha ido adaptando y reformulando para continuar agarrándose desesperadamente a una apariencia de credibilidad, y ahora esta versión parece muy extendida.

Incendio forestal en Mijas (Málaga). Imagen de Daniel Pérez / EFE / 20Minutos.es.

El resumen de por qué es justo todo lo contrario es el que aparece en el título: sí, el cambio climático es obra humana. No, aún no podemos estar seguros de que estos calores sean parte del cambio climático, hasta que los científicos expertos nos digan que sus estudios lo confirman.

Con respecto a lo primero, muchos negacionistas ahora están sosteniendo esa misma versión defendida por el tertuliano; parece que con los extremos meteorológicos que sufrimos, y dado que la percepción de la gente naturalmente tiende a quedarse en lo más evidente e inmediato, ya que la gente no lee estudios científicos, a los negacionistas les resulta cada vez más difícil convencer a alguien de que esto no está pasando. Y por lo tanto, aceptan que está pasando, pero dicen que el ser humano no tiene nada que ver con ello, cosa que puede colar, ya que la gente no lee estudios científicos.

Ocurre que, como ya conté aquí, el consenso sobre el hecho de que el cambio climático es consecuencia de la acción humana actualmente lo apoya el 99,9% de la comunidad científica experta, según un estudio reciente. O sea, todos los científicos. Jamás ha existido un consenso científico sobre nada tan ampliamente ratificado de forma explícita. Los autores del estudio escribían que actualmente negar el cambio climático antropogénico equivale a negar la evolución biológica o la tectónica de placas. Pensamiento marginal acientífico que también tiene sus adeptos; en EEUU se niega la evolución en algunas escuelas.

En cambio, y aunque parezca paradójico, cuando salen tantas voces, incluyendo la del propio presidente del gobierno, culpando de todo al cambio climático, los científicos dicen: no tan deprisa.

Es natural que si un medio entrevista a un meteorólogo o climatólogo, este hable de todo lo que está ocurriendo en el contexto del cambio climático. Pero esto no significa que esté estableciendo una relación directa: si en algo insisten siempre los expertos, es en que no debemos confundir meteorología con clima. Los científicos son enormemente cautos a la hora de atribuir cualquier fenómeno meteorológico extremo al cambio climático; y cuando lo hacen, no es vía carajillo en la barra de un bar, sino vía estudios científicos que predicen y encajan esos fenómenos meteorológicos concretos dentro de los modelos matemáticos globales del clima.

Un ejemplo: a comienzos de este mes se publicaba en Nature Communications un estudio del Instituto de Investigación del Impacto del Clima de Potsdam (Alemania). A través de datos observacionales desde 1979 y de un modelo matemático basado en redes neuronales, los autores descubren que Europa occidental es especialmente propensa a las olas de calor extremo de un modo que durante los últimos 42 años ha crecido de 3 a 4 veces más que en otras latitudes medias del hemisferio norte.

A través de su modelo, explican este fenómeno por cambios en la dinámica atmosférica que incluyen un aumento en la frecuencia y persistencia de dobles corrientes en chorro sobre Eurasia, y muestran que este aumento es responsable de la totalidad de ese incremento de olas de calor en Europa occidental, y en buena medida también en el resto del continente.

Cambio climático, ¿no? Pues pese a todo, los autores del estudio no pueden afirmarlo, sencillamente porque no lo demuestran; su estudio no emplea modelos climáticos globales. Y los autores saben bien, como lo sabe cualquiera que haya publicado un estudio científico, que hay unas señoras y unos señores llamados referees que revisan el estudio antes de decidir si debe publicarse o no, y que la inmensa mayoría de las veces deciden que no. Y una de las razones por las que pueden decidir que no es esta: en la línea tal ustedes extraen una conclusión que no se apoya directamente en sus propios datos.

Por ello los autores sugieren, en base a otros estudios previos, que los cambios que reportan y analizan podrían ser consecuencia del cambio climático, pero no pueden afirmarlo sin más. Y concluyen: «Futuros estudios deberán investigar cómo los modelos climáticos capturan los vínculos entre los extremos de calor y las dobles corrientes en chorro, y si alguno de esos componentes cambia en diferentes escenarios forzados. Estos análisis permitirían evaluar si el aumento observado de las dobles corrientes es parte de la variabilidad natural interna del sistema climático o si es una respuesta al cambio climático antropogénico».

Y añaden: «Nuestros datos y otros análisis podrían ayudar a mejorar los modelos climáticos que actualmente están subestimando la observada tendencia al calentamiento en Europa occidental».

O sea, que será aún peor de lo que nos habían dicho. Una y otra vez ocurre que, si en algo están fallando las predicciones sobre el cambio climático, es en que se están quedando demasiado cortas.