Entradas etiquetadas como ‘ciencia’

Otro legado de la pandemia: el mayor estudio de campo de la historia sobre la desinformación científica

Como nostálgico musical (y como alguien que no suele pasar un día de su vida sin escuchar música), suelo hacer excavaciones arqueológicas en mi propia casa para rescatar y cargar en una vieja minicadena las cassettes que grababa allá por los 80, directamente de la radio o de discos prestados por los amigos; en fin, las playlists de entonces, cuando lo más parecido a un móvil era un walkman. De repente se ha abierto paso hasta mis oídos el Don’t Believe What you Read (1978) de los Boomtown Rats. Hace 44 años Bob Geldof cantaba cómo se levantaba por la mañana y leía los periódicos sabiendo, decía, que la mayoría de lo que publicaban era un montón de mentiras, y cómo tenía que aprender a leer entre líneas.

Aunque creamos que las fake news y las teorías conspiranoicas son un problema reciente y solo actual, recuerdo que hace unos años el sociólogo de la Universidad Rutgers Ted Goertzel me contaba cómo en tiempos de la Revolución Americana cuajó la idea de que los británicos querían esclavizar a los americanos y suprimir los cultos protestantes que habían llegado a América con los emigrantes no ingleses. Y que esta creencia extendida, viralizada diríamos hoy, fue un factor influyente en el levantamiento de la población de las colonias para reivindicar su independencia.

Tampoco suele haber nada radicalmente nuevo en el contenido de los bulos que se propagan; la historiadora de la ciencia Paula Larsson contaba que ya hace 135 años los antivacunas contra la viruela utilizaban los mismos argumentos falsos que los actuales contra la COVID-19: que la epidemia no existía, que las autoridades y el estamento médico sembraban el miedo para enriquecerse, que las vacunas eran más peligrosas que la propia enfermedad y que eran un método de control de la población. Nada nuevo bajo el sol.

Pintada negacionista en Miranda de Ebro. Imagen de Zarateman / Wikipedia.

Sí, es cierto que los medios de comunicación publican noticias falsas; unos pocos, con regularidad y sin el menor pudor. A veces, por arriesgar el rigor a cambio de un sensacionalismo rentable. Muchos, por desconocimiento o falta de criterio y de especialización, como ha ocurrido a menudo durante la pandemia en medios que se declararían contrarios a las fake news, pero que rebotan «noticias» que no saben valorar, y dan voz y difusión a autoproclamados expertos que no lo son y que no están promoviendo la ciencia, sino solo a sí mismos (creo que no hace falta nombrar a algún famoso todólogo que está en la mente de todos).

Recuerdo que allá por el 2006 llegué al periodismo de ciencia desde la ciencia, conociendo bien el mundo de la ciencia pero casi nada el del periodismo (salvo por una experiencia previa con el de viajes), y una de las primeras cosas que no entendí fue por qué los redactores de ciencia no solían entrevistar directamente a las fuentes originales, sino al presidente, vocal o tesorero de la Sociedad Española de nosecuántos. Esta extraña costumbre que solo parece afectar a las noticias de ciencia en los medios no especializados —para valorar las noticias sobre la guerra de Ucrania se pregunta a expertos avalados por su trabajo y sus publicaciones, no al vicepresidente de nosequé organización gremial— se ha exacerbado durante la pandemia, y ha contribuido muchas veces a la confusión.

Las noticias falsas y la desinformación esparcen sobre los medios una mancha general que es difícil de limpiar. Hacen caer en la trampa de la generalización, que lleva a despreciar medios que son referentes informativos de la prensa en español en todo el mundo. Conozco a personas jóvenes, de la generación millennial, que dicen no leer jamás lo que llaman medios tradicionales o mainstream por creer que siempre mienten.

El problema es que si, como cantaban los Boomtown Rats y piensan algunos o muchos millennials, los medios que ellos llaman tradicionales no son fuentes fiables, ¿cuál es la alternativa?

Tomemos como ejemplo especialmente inexplicable el de la publicidad: no suele cuestionarse de forma muy llamativa en el debate público, cuando es, por definición, interesada. El caso típico es el de una conocida marca de yogures líquidos que lleva décadas promocionándose bajo el supuesto argumento de que refuerza las defensas. En algún país ha llegado a prohibirse esta publicidad, ante los estudios científicos que la han desmontado. Pero el mensaje sigue dándose por válido hasta tal punto que incluso en los colegios, donde se supone que debería haber algún o alguna nutricionista con conocimiento científico al mando, se recomiendan estos alimentos para los niños frente a los yogures normales. Que la publicidad pagada llegue a considerarse una fuente más fiable que la ciencia reafirma la idea de algunos expertos de que la desinformación científica ha alcanzado proporciones de crisis.

Naturalmente, sabemos que son las redes sociales las que suplen esa función informativa para muchas personas, sobre todo jóvenes. No puede negarse que las redes sociales han tenido su lado luminoso durante la pandemia. Muchos investigadores expertos de prestigio han aprovechado la vía de Twitter para comunicar al gran público con enorme eficacia, a través de hilos que han explicado a millones de personas la ciencia más actual y relevante sobre la COVID-19. Como contaba Science hace unos días, algunos de estos investigadores apenas tenían un par de miles de seguidores antes de la pandemia, que se han convertido en cientos de miles gracias a su magnífica labor como fuentes de información relevante y veraz. Por desgracia, también esto ha convertido a muchos de ellos en víctimas de campañas de odio y ataques por parte de los negacionistas.

Dentro de la propia ciencia, Twitter también ha sido una herramienta enormemente valiosa durante la pandemia. Ha facilitado el intercambio de datos e información en la comunidad científica con una extensión e inmediatez inalcanzables por medios más habituales como los foros especializados, o no digamos los congresos. Ha conseguido que se retracten estudios falsos o defectuosos con una rapidez nunca antes lograda por los canales convencionales.

Pero en el reverso está el lado oscuro. Quizá uno de los ejemplos más extremos de la voracidad de Twitter por la desinformación y las fake news haya surgido a raíz del lamentable comportamiento de Will Smith en la ceremonia de los Óscar. Después de su agresión al pretendidamente gracioso presentador Chris Rock, en Twitter circuló un mosaico de rostros con, supuestamente, las reacciones de muchos de los presentes, y esta composición se ha hecho viral debido a los comentarios de los tuiteros. Pero ha resultado que al menos algunas de las fotos son falsas, ya que corresponden a galas de años anteriores. Más allá de la motivación que haya tenido la persona que ha creado ese falso montaje, que a saber, el ejemplo es extremo porque en este caso ni siquiera hay un interés ideológico o político en el fake. Sirve como experimento para mostrar lo fácil que es engañar en las redes sociales: se da por hecho que los medios mienten, pero cualquier cosa que circula en Twitter se toma automáticamente como cierta.

El daño que han hecho las redes sociales al conocimiento veraz sobre la pandemia ha sido inmenso. Si Goertzel señalaba que las conspiranoias y los bulos no son un fenómeno nuevo, también admitía que los medios actuales tienen una capacidad de amplificación nunca vista antes en la historia. Como contaba a Science el psicólogo de la Universidad de Bristol Stephan Lewandowsky, en el mundo físico es casi imposible que una persona que piensa que la Tierra es plana se encuentre casualmente con otra que cree lo mismo. Pero online, esa persona puede conectar con «el otro 0,000001% de gente que sostiene esa creencia, y puede llevarse la (falsa) impresión de que está muy extendida».

En el mismo reportaje de Science el biólogo evolutivo de la Universidad de Washington Carl Bergstrom, que se ha especializado en el ecosistema de la desinformación, cuenta cómo a comienzos de este siglo trabajaba en planes de preparación de EEUU contra una posible pandemia, y que por entonces él y sus colaboradores pensaban que, cuando las vacunas estuvieran por fin disponibles, sería necesario proteger los camiones que las transportaran para evitar que la gente los asaltara para llevárselas. La película Contagio de Steven Soderbergh, la que más se ha acercado a la realidad de una pandemia, mostraba algo parecido cuando una epidemióloga de la Organización Mundial de la Salud era secuestrada como rehén para que las vacunas llegaran a una aldea. A favor de Soderbergh hay que decir que también retrató el problema de la desinformación a través del personaje magníficamente interpretado por Jude Law, el bloguero conspiranoico reclutado por la industria homeopática para promocionar su falso remedio.

A lo largo de la pandemia han sido innumerables los estudios y artículos de expertos, en revistas científicas o medios explicativos independientes como The Conversation, que han tratado el problema de la desinformación. Y el tono general es que nadie encuentra paliativos al enorme daño que ha causado. Un estudio experimental en Reino Unido y EEUU encontró que la simple exposición a algún bulo sobre las vacunas publicado en Twitter reducía en un 6% la proporción de personas dispuestas a vacunarse. Escalado a una población como la española, esto supondría que casi tres millones de personas rechazarían la vacuna solo porque han leído un tuit.

Algunas plataformas, como Twitter, Facebook, Instagram o YouTube, han implantado supuestas políticas destinadas a eliminar la desinformación y los bulos sobre la COVID-19 y las vacunas en general. Pero como escribían hace unos días en Nature Medicine tres investigadores de la London School of Hygiene and Tropical Medicine, la plaga es casi incontrolable; en julio de 2020 había en las redes sociales en inglés un volumen de cuentas antivacunas que acumulaban 58 millones de seguidores, con un valor publicitario conjunto de 1.000 millones de dólares al año. La desinformación también es un gran negocio para las plataformas, como demuestra la reciente resistencia de Spotify a retirar un popular podcast antivacunas ante la denuncia de Neil Young.

Sin embargo, si en algo coinciden generalmente los expertos es en que el problema es mucho más complejo que simplemente información versus desinformación. «Aumentar el suministro de información precisa no curará por sí solo este problema si no se abordan las motivaciones subyacentes de la renuencia [a las vacunas]», escriben los autores de este último artículo. Hay otros muchos factores implicados, como también hay toda una taxonomía de la renuencia a las vacunas, desde los que solo dudan hasta los activistas antivacunas ideológicos. Los primeros pueden ser muy sensibles a cualquier bulo que puedan encontrar accidentalmente, y por lo tanto en ellos puede ser mayor el beneficio de la información veraz; mientras que, en el caso de los segundos, son ellos quienes buscan conectarse entre sí y compartir esas desinformaciones que refuerzan sus convicciones.

Esos muchos factores incluyen los emocionales y los racionales, los miedos y ansiedades profundas en tiempos de incertidumbre, la desconfianza en la clase política, en las élites de poder y en los estamentos de los expertos, todo ello avivado por populismos políticos extremistas, armados con discursos simples dirigidos a las tripas más que a la razón. La desinformación es un síntoma, pero la verdadera enfermedad es un sistema político y un clima social que la recompensan, dice el experto en comunicación de la ciencia Dietram Scheufele, de la Universidad de Wisconsin. En The Conversation, las historiadoras de la ciencia y la salud Caitjan Gainty y Agnes Arnold-Forster recuerdan que originalmente los movimientos antivacunas se situaban en la izquierda política y que solo recientemente se han desplazado a la extrema derecha, pero que siempre se han envuelto en la bandera retórica de la «libertad» para embellecer una gran variedad de motivaciones.

En resumen, los expertos básicamente coinciden en los análisis y los diagnósticos, y en los mensajes de que se debe construir confianza a través de mensajes positivos respaldados por figuras respetadas por la comunidad, de que debe fomentarse el pensamiento crítico y razonado, educar en el reconocimiento y el rechazo de la desinformación…

Pero, en el fondo, no puede evitarse la sensación de que realmente nadie sabe cuál es la cura. En un preprint reciente, investigadores noruegos han revisado los mejores de entre los estudios previos sobre la desinformación relativa a las vacunas en las redes sociales, y su principal conclusión es que… hacen falta más y mejores estudios. La pandemia de COVID-19, cuyo alcance ninguna predicción científica acertó a prever en los primeros momentos, ha desatado una pandemia paralela de anticiencia cuya magnitud también ha sorprendido incluso a quienes ya estudiaban este fenómeno antes. Si acaso, los científicos sociales y los estudiosos académicos de la comunicación se han encontrado de repente y sin esperarlo con el mayor estudio de campo de la historia, que ha generado suficientes datos como para darles trabajo durante muchos años.

En cuanto a los demás, y mientras esperamos sus conclusiones, al menos podríamos entender que el Don’t Believe What You Read de los Boomtown Rats hoy debería sustituir los periódicos por Twitter. Y quizá hasta el propio Bob Geldof estaría de acuerdo, ya que es un firme partidario de la vacunación.

Los científicos también son creíbles cuando dicen sandeces (y a veces las dicen)

La pandemia de COVID-19 no solo ha dado toneladas de trabajo y de datos a virólogos, epidemiólogos e inmunólogos, sino también a los científicos sociales, que han seguido muy de cerca la batalla librada en los medios y en las redes entre la información y la desinformación, entre verdades y bulos. Y algunos de quienes no somos científicos sociales hemos seguido sus estudios con mucho interés, ya que nos han ayudado a aprender mucho sobre el mundo del negacionismo y la conspiranoia, sobre los mecanismos psicológicos y sociológicos de quienes creen antes la verdad revelada que la empírica, como en aquella cita atribuida a Groucho Marx (pero que en realidad decía su hermano Chico disfrazado de Groucho): «¿A quién va usted a creer, a mí o a sus propios ojos?«

Ambos campos están muy bien diferenciados en los extremos; por ejemplo, el negacionismo de la existencia del virus o de la efectividad de las vacunas. Pero la frontera está más borrosa en otros casos, lo que ha llevado a muchos medios supuestamente serios a caer en la trampa de la desinformación, y ha propiciado que algunos políticos se aprovechen de ella. Creyendo, o al menos intentando hacer creer a otros, que estaban transmitiendo lo que dice la ciencia.

"El troll de la pseudociencia". Imagen de Durova / Wikipedia.

«El troll de la pseudociencia». Imagen de Durova / Wikipedia.

Un equipo internacional de investigadores, dirigido por la psicóloga de la Universidad de Ámsterdam Suzanne Hoogeveen, ha analizado cuál es la credibilidad de las, ejem, gilipolleces, cuando las dice un científico, en comparación con la situación en que quien las dice es un gurú espiritual. Las gilipolleces en cuestión (para los lectores del otro lado del charco, quizá podrían ser huevadas, huevonadas, pendejadas o boludeces, discúlpenme si no doy con el término correcto) han sido obtenidas de una web de la que ya he hablado aquí un par de veces, el New Age Bullshit Generator (generador de gilipolleces New Age), una web que genera automáticamente frases al estilo de las pregonadas por el famoso gurú Deepak Chopra y otros, y que en la literatura científica últimamente han dado en llamarse pseudo-profound bullshit, o gilipolleces pseudoprofundas.

Por ejemplo, en una visita a dicha web ahora mismo me ha salido esto: «La consciencia consiste en partículas subatómicas de energía cuántica. El cuanto significa un despertar del infinito. Crecemos, crecemos, renacemos. La belleza es el motor de la gratitud«. Y así.

Los investigadores han reunido a un extenso grupo de más de 10.000 participantes de 24 países, y les han presentado gilipolleces de este tipo acompañadas por el presunto autor de la cita, que en unos casos era un científico ficticio y en otros un gurú espiritual también inventado. Por ejemplo, esta es una de las tarjetas presentadas a los participantes (la foto es una imagen real del físico Enrico Fermi):

Imagen de Hoogeveen et al, Nature Human Behaviour 2022.

Imagen de Hoogeveen et al, Nature Human Behaviour 2022.

Los resultados del estudio, publicado en Nature Human Behaviour, indican que los sujetos otorgan mayor credibilidad a la chorrada en cuestión cuando quien la dice es un científico; es lo que los autores denominan el «efecto Einstein». Curiosamente, este resultado es consistente en todos los países, occidentales y orientales, del norte y del sur, y tanto en personas religiosas como ateas. Aunque hay diferencias entre países, en casi todos los casos la credibilidad de los científicos supera a la de los gurús, y solo en algunos países las personas más religiosas conceden ligeramente más credibilidad a los gurús; no en España (aunque, todo hay que decirlo y los propios autores lo reconocen, las gilipolleces en cuestión entroncan con el discurso de ciertos gurús orientales, pero no tanto con el de los líderes religiosos occidentales). «Estos resultados sugieren que, con independencia de la visión religiosa, a través de las culturas la ciencia es un heurístico poderoso y universal que marca la fiabilidad de la información«, escriben los autores.

La investigación no se ha aplicado en concreto a la pandemia de COVID-19, pero los autores incluyen una referencia al respecto. En el estudio, dicen que durante esta epidemia global «todos los ojos se han vuelto hacia los expertos científicos en busca de consejo, directrices y remedios; desde los alarmistas de la COVID-19 a los escépticos, la apelación a la autoridad científica ha sido una estrategia prevalente en ambos lados del espectro político«.

En la información suplementaria al estudio, añaden referencias a otras investigaciones previas según las cuales la confianza en la ciencia y en los científicos se ha mantenido o incluso ha aumentado durante la pandemia. En concreto en Países Bajos, dicen, los datos indican que el público sigue depositando una mayor confianza en las autoridades sanitarias y en los científicos que en los medios, las redes sociales o algunos autoproclamados expertos sobrevenidos (en la mente de todos surgirán nombres de ciertos caballeros equivalentes aquí). Y, añado yo, esto a pesar de cómo las imágenes en los medios se han encargado de mostrarnos protestas negacionistas en Países Bajos y otros lugares como si fueran un clamor mayoritario; pero ya sabemos que solo los mil que salen a la calle aparecen en las noticias, y no el millón que se queda en casa.

Pero, claro, cabe preguntarse: ¿cómo pueden los autores estirar la cuerda a la credibilidad de los científicos en la pandemia de COVID-19, si precisamente su estudio no mide la confianza en la información veraz, sino en gilipolleces pseudoprofundas? Es más, y mientras que un pilar de la comunicación científica —perfectamente ejemplificado en los auténticos expertos que sí han sido referencias esenciales en la pandemia— es la claridad de comprensión para que el público profano en la materia no tenga que creer, sino solo entender y ver, en cambio el estudio se basa en todo lo contrario, presentar frases deliberadamente oscuras y retorcidas que parecen decir algo, pero que nadie entiende y que en el fondo no significan absolutamente nada.

Sin embargo, esto es de por sí interesante, porque nos lleva a una interpretación que no es otra sino exactamente la contemplada en el estudio: cuando los científicos dicen gilipolleces, también se les cree. Y sí, los científicos también dicen gilipolleces.

Hay algo sobre lo que he elaborado repetidamente en este blog: cuidado con caer en la trampa de creer que lo que dice un científico siempre es palabra de Ciencia. Si le preguntamos la hora a un científico, y a no ser que conozcamos a esa persona en particular, no deberíamos caer en el error de pensar que su respuesta va a ser necesariamente más veraz que si le preguntamos a un cerrajero o a un lampista. Por supuesto que la opinión de un científico experto sobre su área de experiencia merece más consideración que la de quien no lo es. Pero la opinión no es ciencia. Y por lo tanto, la voz del experto solo tiene valor realmente científico si transmite lo que dice la ciencia, no sus opiniones o intuiciones. La ciencia no son personas. Con acceso a una verdad revelada. La ciencia es un método. Que sirve para conocer la realidad.

Es más: tantas gilipolleces han dicho científicos incluso de primerísima fila que hace ya años se acuñó algo llamado la enfermedad del Nobel. En este caso se trata de científicos que en su día ganaron un Nobel por un gran descubrimiento, y que posteriormente han abrazado y defendido proclamas pseudocientíficas, generalmente en campos distintos al suyo. Hace tiempo escribí un articulillo sobre algunos casos destacados, no necesariamente premios Nobel: Newton y la alquimia —la alquimia en tiempos de Newton ya era un poco como los libros de caballerías en El Quijote—, Schrödinger y el misticismo cuántico, Pauling y la medicina ortomolecular y la vitamina C milagrosa, Crick y la panspermia dirigida, Watson y el racismo pseudocientífico, Vogel y la energía mental de los cristales, Montagnier y la homeopatía y los bulos vacunales, Mullis y… casi toda la pseudociencia en general.

De hecho, los casos son casi incontables, con Nobel o sin Nobel, pero en científicos inmensamente célebres. El misticismo cuántico ha sido abrazado por Schrödinger, Yukawa, Wigner, Josephson o Eccles, todos ellos premios Nobel. Los fantasmas, lo paranormal y esotérico, por tantos que cuesta contarlos, desde los Curie (sobre todo Pierre; al parecer Marie lo aguantaba más bien por su marido) a Edison, Pauli, Wallace —coautor de la teoría de la evolución—, Thomson —descubridor del electrón—, Rayleigh —argón, dinámica de fluidos—, Richet —pionero de la inmunología, pero inventor del término «ectoplasma»—, pasando por un flirteo del mismísimo Einstein. Ernst Boris Chain, uno de los descubridores de la penicilina (no, no lo hizo Fleming él solito), negaba la evolución biológica, lo mismo que el Nobel de Química Richard Smalley o el astrónomo Fred Hoyle. También el cambio climático ha sido negado por ganadores del Nobel como Ivar Giaever o Kary Mullis, el inventor de la PCR.

Mullis merece un aparte, porque su lista es casi infinita: astrología, espíritus, abducciones alienígenas, antiguos astronautas, negacionismo del sida, teorías conspiranoicas, negacionismo del cambio climático, del agujero de ozono… En su autobiografía describió su encuentro con un mapache alienígena fluorescente. Aseguraba que aquel día no iba puesto de LSD, una droga que se administraba generosamente. Todo esto, en un científico cuyo descubrimiento ha tenido una repercusión en la ciencia como pocos; el público conoce la PCR como un test de diagnóstico de COVID-19, pero en realidad esto representa solo un uso concreto y extremadamente infinitesimal de la inmensa potencia que ha tenido la PCR en investigación, biotecnología y biomedicina desde que Mullis la inventara en los años 80.

Kary Mullis en 2009. Imagen de Erik Charlton from Menlo Park, USA / Wikipedia.

Kary Mullis en 2009. Imagen de Erik Charlton from Menlo Park, USA / Wikipedia.

Pero debe entenderse que todo esto aparece cuando los científicos se meten en charcos que no son los suyos, cuando creen que un Nobel u otro reconocimiento importante les da patente de corso para tener autoridad sobre cualquier otra cosa. Es decir, ninguno suele ser negacionista de su propia área de especialización. Y cuando esto ocurre, como en el caso del bioquímico antivacunas Robert Malone, suele ser porque hay una larga historia detrás.

Y aquí llegamos a la aplicación más directa a la COVID-19 del estudio mencionado arriba. El negacionismo ha ensalzado a figuras como Malone o como el recientemente fallecido Luc Montagnier, codescubridor del VIH, como gurús científicos de autoridad creíble aunque dijeran sandeces. Pero hacía años que Montagnier había perdido toda su reputación entre la comunidad científica, desde que a comienzos de este siglo se convirtiera en un paladín de la homeopatía y la memoria del agua, con teorías como que los remedios homeopáticos podían enviarse por correo electrónico; no las recetas (si existieran), sino los propios remedios, como adjuntar un paracetamol a un email. Montagnier fue un gran científico en su día; por desgracia, quiso dejar de serlo, quién sabe por qué. No pudo probar ninguna de sus disparatadas teorías, y ha fallecido tristemente en un total descrédito profesional, sin siquiera un obituario en las principales revistas de ciencia.

En el caso de Malone, el bioquímico antivacunas que en los círculos negacionistas se ha convertido en figura de culto porque, según él mismo, inventó las vacunas de ARN, basta decir que es un caso de despecho (y de arrogancia, dicen) cuando fue excluido de la que él creía su invención —en realidad no inventó las vacunas de ARN, aunque sí sentó bases importantes para ello—, y desde entonces se ha dedicado a vilipendiarla; ha encontrado en el negacionismo el crédito que nunca logró obtener en la propia ciencia (para quien esté interesado en una historia detallada, aquí o aquí).

Para terminar, si todo lo anterior tiene una moraleja, es esta: no hagan caso a los científicos. No, en serio: hagan caso a la ciencia, no necesariamente a los científicos. Cuando un científico diga cualquier cosa, pregúntenle cuáles son las fuentes, los datos, los estudios. Pregúntense si opina o informa; si habla en nombre del conocimiento científico o solo en su propio nombre. Si habla como científico experto o como gurú, coach o analisto todólogo. Cuestionar a los científicos es sano escepticismo; negar la ciencia es negacionismo (es decir, no hagan como eso tan oído del «yo no soy antivacunas, sino que cuestiono», en boca de quien carece del menor conocimiento, formación, información ni cualificación para cuestionar).

Y esto se refiere a los auténticos científicos expertos que hablan de lo suyo. En cuanto a los que ni siquiera lo son, cuando salgan en la tele, mejor pónganse una de Netflix.

Don’t Look Up (No mires arriba): la distopía negacionista que no gusta porque vivimos en ella

Dado que este no es un blog de cine, sino de ciencia, y que yo no soy un crítico cinematográfico cualificado, sería ridículo por mi parte tratar de pontificar aquí sobre las virtudes o los defectos que hacen o dejan de hacer a Don’t Look Up (No mires arriba) una candidata adecuada a ganar el Óscar a la mejor película, al que ha sido nominada (junto con otras tres categorías, creo). Supongo que es poco probable que llegue a alzarse con el premio, dado que parece haber otras claras favoritas, según quienes entienden de esto.

Pero no creo que nadie discuta el hecho de que en muchas ocasiones una película es mucho más que una película; El retorno del rey no necesitó nada más que lo que era para convertirse en la mejor película de su año —aunque para mi humilde gusto no fuese la mejor de la trilogía—, pero si Green Book fuese una historia sobre un músico rechazado por llevar deportivas y calcetines blancos, o Platoon narrara la guerra entre los fraxmis y los bloxnos del planeta Auris, pues quizá ninguna de las dos habría llegado a donde llegó. Y si la nominación de Don’t Look Up, película que no ha gustado a todo el mundo, es un guiño a la ciencia en un momento en que es necesario, pues bienvenido sea, aunque los puristas del cine se indignen. Y sobre todo, si quienes se indignan no son los puristas del cine, sino quienes rechazan la película precisamente por su contenido.

Don't Look Up. Imagen de Netflix.

Don’t Look Up. Imagen de Netflix.

Es bien sabido que Don’t Look Up es una sátira sobre la indiferencia del mundo hacia el cambio climático; esto no es una libre interpretación, dado que la película fue concebida precisamente bajo esa premisa. Para quien aún no la haya visto y si queda alguien que no sepa de qué trata, contaré brevemente, sin spoilers, que dos astrónomos (Leonardo DiCaprio y Jennifer Lawrence) descubren que un cometa de tamaño similar al que provocó la extinción de los dinosaurios va a colisionar con la Tierra; en seis meses se acabará el mundo. Pero en lugar de desatarse el terror y el caos, como es lo típico en otras versiones de esta misma trama, lo que ocurre es que nadie cree a los científicos, incluyendo al gobierno de EEUU y a los medios, mientras el público los ridiculiza y los convierte en objeto de memes.

Al parecer la idea nació de una conversación entre el director y guionista, Adam McKay, y el periodista y escritor David Sirota, en la que ambos se lamentaban de la poca repercusión de las advertencias de los científicos sobre el cambio climático en los medios y entre el público. Sirota lo comparó a un cometa acercándose a la Tierra que todo el mundo ignora, y McKay decidió que aquello era exactamente lo que quería contar.

Pero no hace falta un salto muy grande para extender el mensaje de Don’t Look Up al negacionismo de la ciencia en general; el cual, como ya conté aquí, ha tenido su propio recorrido histórico independiente (no posterior) del negacionismo histórico del Holocausto y otros. La película se ha rodado en plena pandemia, por lo que ha sido una triste y trágica casualidad que la realidad de estos dos últimos años se haya convertido en otro reflejo de la parodia retratada por McKay.

La película ha gustado a los científicos, y es lógico. Lo más evidente es que algunos, sobre todo los climáticos, se han sentido reivindicados. Pero hay otros motivos no tan obvios. A pesar del tono paródico, los científicos de la película son personas normales, no caricaturas; ni malvados villanos dispuestos a destruir el mundo, ni almas puras y benditas, ni ridículos nerds sin habilidades sociales y que no han echado un polvo en su vida. Y aunque retratar a los científicos normales como personas normales debería ser lo esperable y habitual, el cine tiene tradición de encontrar más fácil lo contrario; de hecho, algunas de las películas sobre ciencia que han llegado a los Óscar se basaban precisamente en científicos caracterizados por lo contrario, como Una mente maravillosa o La teoría del todo.

Pero además, los científicos normales de la película se ven en situaciones normales de los científicos que el público en general no advertirá, pero que los científicos reales verán como guiños: la publicación con revisión por pares (mal traducido en la versión española como revisión paritaria, un término que nadie utiliza), el conflicto de atribución del trabajo entre la estudiante predoctoral y su jefe, o la eterna lacra de que la ciencia se perciba como creíble solo si, y toda la que, proviene de una fuente prestigiosa (una pista: cuando un científico lee «la prestigiosa revista Nature» o «la prestigiosa Universidad de Harvard», piensa lo mismo que cualquier otra persona si leyera «el prestigioso club Real Madrid» o «la prestigiosa cantante Miley Cyrus»).

Pero como decía, la película no ha gustado a todos. Y por supuesto, habrá quienes simplemente la hayan encontrado aburrida, deshilachada, demasiado histriónica o lo que a cada uno le parezca. Que lo del bronteroc me parezca a mí una de las ocurrencias surrealistas más geniales que he visto en pantalla desde los tiempos de los Monty Python es algo que nadie más tiene por qué compartir.

Pero hay colectivos concretos a quienes la película podría no gustarles por razones específicas. Podría no gustar a los negacionistas del cambio climático o de la ciencia en general, dado que la película presenta una realidad nunca suficientemente bien comprendida, y es que las únicas conspiraciones son las de los propios negacionistas (algo que hasta ahora solo había visto retratado en otra película, Contagio de Steven Soderbergh).

Podría no gustar a los políticos. La inspiración de Donald Trump en la presidenta interpretada por Meryl Streep es algo que ya ha sido muy comentado, pero hay mucha más carne que sacar de este hueso. Sin entrar en otras facetas que escapan al prisma científico, el negacionismo no es únicamente el que dice «esto no está pasando»; en el personaje de la presidenta hay después una transición hacia otra forma de negacionismo, el de «esto sí está pasando, pero la economía». Y de esto hemos tenido por aquí algún que otro caso.

Podría no gustar a los periodistas, dado que el retrato de los medios es brutal: el desprecio por la información veraz, la ambición desmedida por las audiencias y los clics a costa de lo que sea necesario. Aquí es donde quizá pueda verse un inesperado parangón con lo que ha sucedido durante esta pandemia. Una cadena de TV nacional le da un programa sobre COVID-19 en prime time a un experto en… fenómenos paranormales. Su principal competidora tiene, en el mismo horario, a un presentador muy divertido lanzando a diario opiniones de barra de bar sobre epidemiología, gestión de pandemias y lo que haga falta. En los medios en general se rebotan a botepronto informaciones de cualquier procedencia sin la menor contrastación, contexto ni conocimiento de fondo, siempre que sean sensacionales. Columnistas y opinadores de primera fila difunden bulos y desinformaciones. Ciertos personajes del ámbito sanitario se convierten en referencias mediáticas sin ser epidemiólogos, inmunólogos ni virólogos.

Y en fin, podría no gustar al público en general, porque el público tampoco sale bien parado en esta sátira: frente al recurso habitual, seguramente más rentable en taquilla, de defender que la gente es maravillosa, pero que está mal gobernada y secuestrada por unos medios manipulados y manipuladores, la película presenta un dibujo mucho más nihilista; la idiocracia de los likes, los followers y los memes, donde entretenerse es informarse y reírse es pensar. The Daily Rip es un programa que se hace a diario también en las cadenas de TV de nuestro país a distintos horarios y bajo diversos nombres, y que todos los días marca tendencias en Twitter. Lo que viene a decir Don’t Look Up es que la sociedad tiene lo que pide, y obtiene lo que se merece.

Por todo ello, Don’t Look Up es una distopía. Pero con un twist. No es que las distopías clásicas como 1984, Un mundo feliz, Nosotros, Fahrenheit 451, La naranja mecánica, Blade Runner, THX1138, Gattaca, Soylent Green, etcétera, etcétera, ya no tengan cabida hoy. La tienen y mucha, pero precisamente porque las vemos como distopías, demasiado lejanas e imaginarias; son exageraciones extremas, tan excesivamente metafóricas que incluso cada cual puede escoger lo que le apetezca de ellas para defender tanto una postura política como la contraria. En cambio, Don’t Look Up no inventa una distopía lejana e imaginaria; lo que hace es retratar el mundo real de hoy mismo para a continuación decirnos: esto, damas y caballeros, es una distopía. Y eso, claro, es normal que no guste a casi nadie.

Por qué es importante llamar al negacionismo por su nombre

Hace unos días un famoso periodista de radio, conductor de uno de los programas de mayor audiencia de la mañana, criticaba con sarcasmo el término del uso «negacionismo» aplicado a quienes no creen en la existencia del virus de la cóvid o en la eficacia de las vacunas. El periodista en cuestión no pertenece a estos grupos, pero venía a decir que el único «negacionismo» admisible es el original del término, relativo al Holocausto, y ridiculizaba el uso de la palabra que según él se ha puesto de moda ahora en referencia a la pandemia y, por extensión, a casi cualquier otra cosa. Para el periodista, esto venía a ser una frivolización del término que daña el que él creía el único uso válido.

El nombre del periodista es lo de menos, ya que no se trata aquí de rebatir una opinión personal; cada uno es muy libre de decidir qué usos del término «negacionismo» le gustan y cuáles no, tanto como cada cual tiene perfecto derecho a odiar que se llame sujetador al sostén o sostén al sujetador. Pero sí se trata aquí de desmentir una idea equivocada, y es que ese término ha saltado desde el Holocausto a la cóvid por alguna especie de capricho, moda o jerga política.

El negacionismo, la idea, tiene una larguísima historia detrás en el campo de la ciencia. El negacionismo, el término, tiene una historia detrás en el campo de la ciencia, no tan larga, pero sí muy analizada, discutida y publicada. Aplicarlo a la cóvid es solo una extensión natural de su aplicación histórica a otros casos de negacionismo de la ciencia.

Pintada negacionista de la COVID-19. Imagen de Urci dream / Wikipedia.

Pintada negacionista de la COVID-19. Imagen de Urci dream / Wikipedia.

Es cierto que algunas fuentes citan el primer uso de la palabra «negacionismo» como referido al Holocausto en el libro de 1987 El síndrome de Vichy, del historiador francés Henry Rousso, quien definía el négationnisme como una negación del Holocausto políticamente motivada, a diferencia del revisionismo histórico legítimo basado en el estudio de los hechos. Este tipo de negacionismo histórico se ha aplicado a otros muchos casos, y suele citarse el libro de 2001 del sociólogo Stanley Cohen States of Denial como la fuente académica de referencia en la psicología de la negación referida al sufrimiento humano, la opresión y la injusticia (aunque Cohen empleaba el término «negación», no «negacionismo»).

Pero, en la ciencia empírica, el negacionismo ha seguido su propio camino. Es difícil saber cuándo se utilizó por primera vez y quién lo hizo; ni siquiera expertos como el sociólogo Keith Kahn-Harris han sido capaces de clavar una chincheta en su origen concreto. La versión inglesa del término, denialism, se imprimió por primera vez en el diccionario Merriam-Webster en 1874, casi 70 años antes del genocidio nazi, con la siguiente definición: «La práctica de negar la existencia, verdad o validez de algo a pesar de las pruebas o fuertes evidencias de que es real, verdadero o válido«. Los ejemplos que recoge este diccionario sobre el uso de la palabra son todos relativos al negacionismo de la ciencia.

La negación de la ciencia es casi tan antigua como la propia ciencia. El caso de Galileo es un ejemplo temprano y paradigmático, como repasaba el astrofísico Mario Livio en su libro Galileo: And the Science Deniers. Después se han sucedido infinidad de casos: la sepsis, la teoría microbiana de la enfermedad, la evolución biológica, los efectos del DDT, del plomo en la gasolina o del tabaco, las vacunas en general, el VIH/sida, el cambio climático o, el último, la COVID-19.

Todos estos casos se han analizado y estudiado en el mundo de la ciencia durante décadas, aunque el desarrollo del concepto de negacionismo de la ciencia comenzó sobre todo con los trabajos de Mark y Chris Hoofnagle y con el libro de 2009 de Michael Specter Denialism: How Irrational Thinking Hinders Scientific Progress, Harms the Planet, and Threatens Our Lives (Negacionismo: Cómo el pensamiento irracional obstaculiza el progreso científico, daña el planeta y amenaza nuestras vidas).

Es cierto que no a todo el mundo tiene por qué gustarle el uso del negacionismo aplicado a la ciencia, pero a menudo se cometen errores cuando se juzga el negacionismo de la ciencia desde fuera de la ciencia. Por ejemplo, a Cohen no le gustaba; como refería el criminólogo Willem de Haan en el libro Denialism and Human Rights, para Cohen no era lo mismo una realidad histórica como el Holocausto que el cambio climático, «una predicción científica de lo que probablemente ocurrirá en el futuro«, escribía De Haan, añadiendo que «en el caso del cambio climático, hay y debería haber espacio para un respetable escepticismo científico«.

Doble error: por un lado, aplicar a la predicción científica el concepto popular de la predicción. En la calle, una predicción es algo que uno cree que va a ocurrir o puede ocurrir en el futuro, basándose en lo que a cada uno le apetezca basarse. En ciencia, una predicción es algo muy diferente: es el resultado de uno o varios modelos matemáticos bajo unas determinadas condiciones, de modo que el resultado no tiene por qué estar restringido a un marco temporal concreto, ni mucho menos futuro; por ejemplo, un modelo científico predice cómo los cuerpos caen siempre; otro modelo científico predice el nivel de oxígeno en la atmósfera hace 200 millones de años. En el caso del cambio climático, los modelos predicen cómo ha evolucionado el clima desde la Revolución Industrial, en el pasado, en el presente y en el futuro. No es lo que dice De Haan.

El segundo error, muy común, es confundir escepticismo con negacionismo. Como contaba en 2011 en el Bulletin of the Atomic Scientists (los del reloj del apocalipsis) el historiador de la física Spencer Weart, cuando en 1896 (sí, en el siglo XIX) se advirtió por primera vez sobre el cambio climático, durante décadas hubo muchos científicos expertos en el clima que se mostraron escépticos; querían más pruebas para creer que aquello era real.

El escepticismo es una cualidad esencial en cualquier científico. Un científico debe mostrarse escéptico incluso ante sus propias hipótesis y sus propios resultados. Solo cuando el volumen de pruebas es abrumador es cuando se llega a un consenso. Pero como con la predicción, tampoco el consenso en ciencia significa lo mismo que en la calle: como escribía en la revista digital de la Universidad de Auckland The Big Q la psicóloga Fiona Crichton, experta en negacionismo de la ciencia, «es desafortunado que en el lenguaje común el consenso se use también para referirse a un acuerdo político, un compromiso o una llamada a la opinión popular, lo que puede llevar a confusión sobre el rigor que subyace a un consenso científico. Los científicos no están negociando una postura o alcanzando un compromiso para llegar a un acuerdo«. «Es importante que, cuando pensamos en el consenso, consideramos la posición de los expertos relevantes, no lo que el público en general piensa o ni siquiera lo que cada científico cree; se refiere a las conclusiones a las que han llegado los científicos en el campo relevante«. En el caso del clima, este consenso científico se alcanzó en 1989, según Weart.

Así, desde el momento en que existe un consenso científico, se acaba el recorrido del escepticismo y empieza el del negacionismo. «En un momento ya no hay escépticos, quienes tratan de ver todos los ángulos del caso, sino negadores, cuyo único interés es sembrar la duda sobre lo que otros científicos han acordado que es cierto«, escribía Weart. Los negacionistas a menudo se llaman a sí mismos escépticos, pero están jugando con cartas trucadas; no hay espacio para el escepticismo cuando existe un consenso científico. El negacionismo se define precisamente por su diferencia con el escepticismo. Como escribía Specter en el libro citado arriba, «los negacionistas reemplazan el riguroso escepticismo de la ciencia, de mantener la mente abierta, con la inflexible certeza de un compromiso ideológico«. Según Kahn-Harris, «donde la negación es el rechazo a mirar a la verdad a la cara, el negacionismo es una estrategia sistemática de desinformación. El ‘ismo’ indica el intento consciente de engañar al público para que crea que hay un debate científico, cuando no existe«.

A menudo ocurre que a quienes no les gusta el término «negacionismo» es a los propios negacionistas. Ocurre lo mismo con la pseudociencia. Como escribía el historiador de la ciencia Michael Gordin en su libro de 2012 The Pseudoscience Wars, «nadie en toda la historia del mundo se ha identificado jamás a sí mismo como un pseudocientífico. No existe una persona que se levante por la mañana y piense, voy a mi pseudolaboratorio a hacer algunos pseudoexperimentos para tratar de confirmar mis pseudoteorías con pseudodatos«.

Del mismo modo, la periodista Celia Farber no se autoidentificaba como negacionista a pesar de que en 2006 escribía un artículo en la revista Harper’s Magazine en el que daba pábulo a las teorías negacionistas del VIH/sida del biólogo molecular Peter Duesberg, del expresidente de Sudáfrica Thabo Mbeki y otros. Farber criticaba el uso del término «negacionismo», alegando que equivalía a comparar moralmente el escepticismo sobre el VIH/sida con la negación de la masacre de seis millones de judíos por los nazis.

El artículo fue respondido por otro firmado por un grupo de científicos liderado por el codescubridor del VIH Robert Gallo, que desgranaba todos los errores del texto de Farber. Y escribían Gallo y sus colaboradores: «De forma análoga al negacionismo del Holocausto, el negacionismo del sida es un insulto a la memoria de aquellos que han muerto de sida, así como a la dignidad de sus familias, amigos y supervivientes. Como con el negacionismo del Holocausto, el negacionismo del sida es pseudocientífico y contradice un inmenso cuerpo de investigación«. En su libro, Specter escribía: «Los que niegan el Holocausto y los negacionistas del sida son intensamente destructivos, incluso homicidas«; en 2008 algunos estudios estimaron que la política negacionista del sida de Mbeki en Sudáfrica, que prohibió el uso de antirretrovirales en los hospitales públicos, causó la muerte prematura de más de 330.000 enfermos.

Por todo lo dicho, es importante continuar llamando negacionismo al negacionismo, incluso si, como escribía en The Scientist la investigadora de la Academia de Ciencias de Nueva York Kari Fischer después de la celebración de un congreso sobre negacionismo de la ciencia —sí, incluso hay congresos sobre esto—, etiquetar a alguien como negacionista solo consigue que se atrinchere aún más. Porque dejar de llamar negacionistas a los negacionistas es caer en la trampa que ellos pretenden tender. «Negacionista» no es un insulto, no es una difamación; es simplemente una descripción, de acuerdo a una definición aplicada en el campo de la ciencia. Y no querer llamar a las cosas por su nombre es también, en cierto modo, una forma de negacionismo.

La última aventura de Richard Leakey

Hasta hace no mucho se manejaba la cifra de unos 100.000 años como la edad de nuestra especie, y este dato continúa apareciendo en muchas fuentes, incluyendo los libros de texto (algunos no nos quejamos de los abultados precios de los libros de texto si esto se justifica por el coste de actualizarlos; pero si es así, que por favor realmente los actualicen, que algunos se han quedado anclados en la ciencia de mediados del siglo pasado). Esta frontera temporal se rompió hace tiempo, empujando el origen de la humanidad hasta los 200.000 años en África oriental, aunque en Marruecos se han hallado restos de Homo sapiens de rasgos arcaicos de hace 300.000 años. Pero esta semana la revista Nature le ha dado un nuevo empujón a la prehistoria de nuestra especie en el este de África, con una datación que otorga una edad de 230.000 años a unos restos encontrados hace décadas en Omo, Etiopía.

Lo cual me da ocasión para hablar de quien dirigió aquellas excavaciones en Omo en los años 60 y 70, ya que se trata de todo un personaje que falleció el pasado 2 de enero, y a quien hace unos días prometí dedicarle unos párrafos. Porque, si quienes somos africanistas apasionados y además nos dedicamos a contar la ciencia no le dedicamos un obituario a Richard Leakey, ¿quién va a hacerlo?

Richard Leakey. Dibujo de Patrick L. Gallegos. Imagen de ELApro / Wikipedia.

Richard Leakey. Dibujo de Patrick L. Gallegos. Imagen de ELApro / Wikipedia.

A quien tenga algún interés por la paleoantropología, o por la historia de la conservación natural, o simplemente por África en general, no le resultarán extraños los nombres de Louis y Mary Leakey. Esta pareja de paleoantropólogos anglo-kenianos —Louis era hijo de misioneros anglicanos, de los que pueden casarse, en el entonces protectorado británico de África Oriental— estableció el origen de la humanidad en el este de África, sobre todo a través de sus descubrimientos en Olduvai. Louis Leakey fue también quien creó el grupo de las Trimates (juego de palabras entre trío y primates) o los Ángeles de Leakey, las tres mujeres que dedicaron su vida a la investigación y la protección de los grandes simios: Jane Goodall con los chimpancés en Tanzania, Dian Fossey con los gorilas de montaña en Ruanda, y Biruté Galdikas con los orangutanes en Borneo.

Louis y Mary tuvieron tres hijos: Jonathan, Richard y Philip. Los niños Leakey tuvieron una infancia libre y salvaje en África, viviendo en tiendas en la sabana y excavando con sus padres. Más allá del romanticismo que evoca la idea de aquel tiempo y lugar, fue también una época muy convulsa y sangrienta. En los años 50 el viejo poder colonial británico se desmoronaba. Quienes aún querían hacer de Kenya «el país del hombre blanco» respondieron con enorme brutalidad a la igualmente enorme brutalidad de la rebelión nativa del Mau Mau. Louis, como miembro de una saga familiar que ya entonces era muy prominente allí, tuvo un papel contradictorio: por un lado defendía los derechos de los nativos kikuyu y abogaba por un gobierno multirracial, pero al mismo tiempo fue reclutado para la defensa de los colonos blancos, hablando y actuando en su nombre.

Mientras, los niños Leakey vivían el final de una época y el comienzo de otra, un cambio tan turbulento como lo eran sus propias vidas. De los tres hijos de los Leakey, Richard comenzó a ganarse el perfil de personaje novelesco desde bien pequeño. La primera vez que estuvo a punto de morir fue a los 11 años, cuando se cayó de su caballo y se fracturó el cráneo. No solo sobrevivió, sino que además la reunión de la familia en torno al pequeño en peligro de muerte consiguió que Louis no abandonara a Mary por su secretaria.

Ya de adolescente, Richard se alió con su amigo Kamoya Kimeu, desde entonces su mano derecha y después ilustre paleoantropólogo keniano, para montar en la sabana un negocio de búsqueda y venta de huesos y esqueletos de animales, que después derivó hacia los safaris. Por entonces obtuvo su licencia de piloto y fue desde el aire como observó el potencial del lago Natron (entre Kenya y Tanzania) para la búsqueda de fósiles. La actitud de Richard hacia la profesión de sus padres era ambivalente: por un lado, fue el único de los tres hermanos que eligió seguir la vocación científica de sus padres, a pesar de que no se llevaba demasiado bien con la idea de seguir los caminos marcados. Pero al mismo tiempo le molestaba que no le tomaran suficientemente en serio, para lo cual había una razón: nunca fue capaz de completar estudios.

Lo intentó en Inglaterra con su primera esposa, Margaret, pero solo tuvo paciencia para obtener su graduación de bachillerato. Cuando ya había superado los exámenes para entrar en la universidad, en lugar de eso regresó a Kenya. Allí comenzó a montar lo que después serían los Museos Nacionales de Kenya, al tiempo que, con el apoyo de su padre, emprendía excavaciones en Etiopía —donde estuvo nuevamente a punto de morir cuando los cocodrilos se comieron su bote— y en el lago Rodolfo, hoy Turkana, en el norte de Kenya. Kimeu y otros colaboradores comenzaban a destellar con grandes hallazgos de restos de varias especies humanas, como Homo habilis y Homo erectus.

Una gran parte de lo que hoy sabemos de la evolución humana en el este de África se debe a las excavaciones dirigidas por Leakey. Pero en realidad muchos de aquellos hallazgos y su estudio científico fueron obra de sus colaboradores formados en la universidad, de quienes Leakey sentía celos por su propia falta de formación. Y al mismo tiempo, otros le envidiaban; de Donald Johanson, el descubridor de la famosa australopiteca Lucy, en un tiempo colaborador de Leakey y después rival, se ha dicho que él realmente quería ser Richard Leakey.

En 1969 se le diagnosticó una enfermedad renal terminal. Los médicos le dieron diez años de vida. Cuando comenzó a empeorar, recibió un trasplante de su hermano Philip, pero lo rechazó. Una vez más estuvo al borde de la muerte. De nuevo sobrevivió y salió adelante. Divorciado de su primera esposa, en 1970 se casó con la también paleoantropóloga Meave Epps, quien tomaría —junto con su hija Louise— el principal relevo de la tradición científica familiar con descubrimientos de gran alcance como el del Kenyanthropus platyops, una rama temprana del linaje humano. En 2009 tuve la ocasión de entrevistar en Madrid a Meave Leakey, una gran dama, cercana y cordial. Le pregunté cuándo tendríamos por fin una idea clara sobre la historia de la evolución humana. Me respondió que dentro de unos cien años, y a fecha de hoy aún no sé si se estaba quedando conmigo. Es lo que tiene la sutileza del humor británico.

Meave Leakey en 2014. Imagen de Pierre-Selim / Wikipedia.

Meave Leakey en 2014. Imagen de Pierre-Selim / Wikipedia.

En 1989 Richard se apartó definitivamente de la paleoantropología cuando el presidente keniano, Daniel arap Moi, le ofreció dirigir el departamento de conservación de fauna, poco después renombrado como Kenya Wildlife Service (KWS). El nombramiento fue recibido con sorpresa, ya que Leakey y Moi no eran precisamente amigos. El que fue el segundo presidente de Kenya después del héroe de la independencia, Jomo Kenyatta, gobernó el país como una dictadura fáctica, cruel y corrupta. Aquello le llevó a perder la confianza de los donantes internacionales, quienes además protestaban por la sangría de elefantes que se estaba cobrando la caza furtiva en Kenya (la caza es ilegal en todo el país desde 1977). Muchos vieron en la designación de Leakey un intento de agradar a la comunidad internacional.

Pero también es cierto que, si alguien podía actuar de forma contundente contra el furtivismo, nadie mejor que Leakey. Nótese que no estamos hablando de lugareños que cazan para su propio consumo; el perfil del furtivo en África no es, pongamos, el del extremeño. En África los furtivos son mercenarios, grupos fuertemente armados que aprovechan cualquier oportunidad para asaltar y a menudo matar a quienes tienen la desgracia de cruzarse en su camino.

Leakey emprendió una cruzada contra los furtivos, dotando patrullas armadas hasta los dientes con la orden de disparar antes de preguntar. Al estilo Leakey, organizó en el Parque Nacional de Nairobi un acto público de incineración de 12 toneladas de marfil incautado a los furtivos, que fue noticia en todo el mundo. Los restos carbonizados de aquellos colmillos hoy todavía pueden verse en el emplazamiento de la pira en el parque.

Pero si Moi esperaba con aquello corromper a Leakey y atraerlo a su bando, no lo consiguió. Leakey podía ser muchas cosas; hay quienes lo han calificado como ególatra, arrogante o engreído. Pero nunca se puso en duda su honradez. Las chispas saltaron entre él y el presidente. En 1993 Leakey pilotaba su avioneta cuando el motor falló y el aparato cayó al suelo. Una vez más sobrevivió milagrosamente, pero perdió las dos piernas por debajo de la rodilla. Él siempre mantuvo que la avioneta había sido saboteada, aunque nunca hubo pruebas. Poco después Moi acusó a Leakey de corrupción, y en 1994 este dimitió del KWS para crear su propio partido político, Safina, El Arca. El gobierno hizo todo lo que pudo por bloquear su reconocimiento legal, y lo consiguió durante años.

Pero todo aquello no era contemplado con buenos ojos por los donantes internacionales, que bloquearon las ayudas a Kenya debido a la corrupción galopante en el país. Como respuesta, Moi nombró a Leakey director de los servicios públicos, una especie de ministro de administraciones públicas. Leakey emprendió una lucha contra la corrupción que incluyó el despido de 25.000 funcionarios. Resultado: dos años después él mismo fue despedido.

Richard Leakey en 2010. Imagen de Ed Schipul / WIkipedia.

Richard Leakey en 2010. Imagen de Ed Schipul / WIkipedia.

Expulsado de la política keniana, emigró a EEUU, donde se dedicó a la conservación de la naturaleza africana. La Universidad Stony Brook de Nueva York le fichó como profesor de antropología, convalidando su falta de estudios con una vida dedicada a la investigación. Regresó a Kenya en 2015 cuando el entonces y actual presidente, Uhuru Kenyatta (hijo de Jomo), le ofreció la presidencia del KWS. Desde entonces y hasta su muerte el pasado 2 de enero de 2022 se ha dedicado a las políticas de conservación. Ya durante este siglo sobrevivió a un nuevo trasplante de riñón, a otro de hígado y a un cáncer de piel. Parecía inmortal. Pero finalmente nadie lo es.

Y si todo lo anterior les ha parecido una vida de película, frente a la cual incluso la de un Hemingway parecería aburrida, no son los únicos: hace unos años se anunció que Angelina Jolie iba a dirigir un biopic sobre Leakey con su entonces marido Brad Pitt en el papel de Richard. El proyecto tenía incluso un título, África (no muy original que digamos, es cierto), y un guion que el propio Leakey leyó y sobre el que protestó porque, según se dijo, el excesivo contenido de violencia y sexo iba a impedirle verla con sus nietos.

Pero a los problemas de presupuesto —es muy caro filmar en Kenya, aunque todo ese dinero nunca se nota en mejoras para la población local— se sumó la separación de la pareja estelar. Angelina ya no quería trabajar con su ex. Se dijo entonces que el proyecto continuaba sin ella, pero eso fue todo. Por mi parte, ignoro si sigue vivo o si se abandonó definitivamente. Ojalá algún día pudiéramos ver terminada esta película; aunque, por desgracia, el propio Leakey ya no podrá verla con sus nietos.

Leakey, Wilson, Lovejoy: la biología pierde tres nombres brillantes

Tal vez hayan aparecido solo como notas breves en las páginas menos leídas de los diarios, o ni eso. Pero durante estas fiestas navideñas de 2021, con pocos días de diferencia, el mundo de la ciencia –sobre todo la biología y aledaños– ha perdido a tres figuras irrepetibles: E. O. Wilson, Thomas Lovejoy y Richard Leakey. Con variadas trayectorias, perfiles y ocupaciones, los tres tenían algo en común: dieron lo mejor de sí mismos vistiendo camisa caqui y calzando botas de campo, como grandes campeones de la conservación de la naturaleza en tiempos en que esta misión es cada vez más urgente y necesaria.

De izquierda a derecha, Thomas Lovejoy (1941-2021) en 1974, E. O. Wilson (1929-2021) en 2003, y Richard Leakey (1944-2022) en 1986. Imágenes de JerryFreilich, Jim Harrison y Rob Bogaerts / Anefo vía Wikipedia.

De izquierda a derecha, Thomas Lovejoy (1941-2021) en 1974, E. O. Wilson (1929-2021) en 2003, y Richard Leakey (1944-2022) en 1986. Imágenes de JerryFreilich, Jim Harrison y Rob Bogaerts / Anefo vía Wikipedia.

El mismo día de Navidad fallecía a los 80 años de un cáncer pancreático el estadounidense Thomas Lovejoy. Su nombre no resultará muy familiar para la mayoría, pero sí la expresión que en 1980 popularizó entre la comunidad científica: diversidad biológica, después acortada a biodiversidad.

Lovejoy fue un biólogo conservacionista que combinó la ciencia con la política en busca de nuevas fórmulas y propuestas que contribuyeran a la protección de la naturaleza, sobre todo en los países con menos recursos para ello, que suelen coincidir también con los de mayor biodiversidad. De joven dedicó su trabajo a las aves de la Amazonia brasileña, lo que le reveló cómo la deforestación estaba provocando una sangría de especies. Esto le llevó a organizar en 1978 en California la primera conferencia internacional sobre biología de la conservación, que sirvió para dar un encaje académico formal a la investigación en esta área de la ciencia.

Pero si Lovejoy sabía moverse en la selva real, fue en la jungla de los despachos donde hizo sus mayores aportaciones, como gran influencer de la conciencia medioambiental. Bajo su liderazgo en EEUU, una pequeña organización llamada WWF se convirtió en el gigante que es hoy. Trabajó con instituciones como National Geographic, Naciones Unidas, Smithsonian o el Banco Mundial, entre otras, perteneció a diversas sociedades científicas y colaboró con varios presidentes de EEUU. Sus estimaciones de 1980 abrieron los ojos al mundo sobre el deterioro de la biodiversidad y la pérdida de especies. Entre los muchos premios que recibió, en 2008 obtuvo el de Fronteras del Conocimiento de la Fundación BBVA.

Con Lovejoy estuvo relacionado el también estadounidense Edward Osborne Wilson, más popular que su colega, conocido como E. O. o por sus sobrenombres, como Ant Man o el Señor de las Hormigas. Fue el mayor especialista mundial en mirmecología, el estudio de este enorme grupo de insectos. El interés por las hormigas le sobrevino a raíz de un accidente infantil de pesca: al tirar demasiado del pez que había mordido su anzuelo, la presa salió disparada del agua y se estrelló contra su cara. Era una clase de perca con duras espinas en la aleta dorsal, una de las cuales le perforó la pupila derecha, lo que unido a un tratamiento médico tardío y defectuoso le arrebató la visión de ese ojo. Más tarde, en la adolescencia le sobrevino una sordera que le incapacitaba para guiarse por el canto de los pájaros o las ranas. Pero su visión del ojo izquierdo era tan fina que comenzó a fijarse en los pequeños seres que no cantan ni croan.

Más allá de las fronteras de su especialidad, el trabajo de Wilson trascendió a la comunidad biológica en general a través de sus estudios sobre sociobiología, la ciencia que busca las raíces biológicas en la evolución del comportamiento y la organización de las sociedades de los vertebrados, incluidos los humanos, basándose en sus teorías sobre los insectos. Su visión de la biología evolutiva fue pionera y original; controvertida, pero inspiradora de grandes debates científicos.

Si Lovejoy era el conseguidor, Wilson era el académico y naturalista, un Darwin de nuestros tiempos. Su trabajo de divulgación y popularización, que llevó a dos de sus libros a ganar sendos premios Pulitzer, le convirtió en una figura mundial de la conservación de la naturaleza, un campo por el que comenzó a interesarse ya en su madurez. Junto a Lovejoy y otros como Paul Ehrlich formaron la primera generación que desde la ciencia hizo saltar la alarma sobre el enorme peligro de la pérdida de biodiversidad para la salud de la biosfera terrestre.

Wilson falleció el 26 de diciembre, un día después que Lovejoy, a los 92 años. Según Science, su muerte se debió a complicaciones después de una punción pulmonar.

El que completa la terna de las figuras de la biología fallecidas estos días es un favorito personal: Richard Leakey nunca fue formalmente un científico, ya que no llegó a estudiar una carrera; su vida no le dejó tiempo para eso. Pero a pesar de ello se le nombra como uno de los paleoantropólogos más reconocibles del siglo XX, y uno de los mayores impulsores de la investigación sobre los orígenes de la humanidad en su cuna africana. El último científico victoriano, se ha dicho de él.

Leakey fue un personaje de novela: un niño de la sabana, un joven aventurero y explorador, guía de safaris, trampero, aviador y buscador de fósiles, un keniano blanco que se metió en política, comprometido con la conservación de la naturaleza y con la lucha contra el totalitarismo y la corrupción política. Y un tipo carismático, inquieto, incómodo y hasta quizá tan difícil de trato que se creó muchos y poderosos enemigos, y su propia mala suerte. Murió este 2 de enero a los 77 años en su casa de Nairobi, sin que se hayan detallado las causas. Pero su vida merece un capítulo aparte. Mañana hablaremos de él.

Investigadores y divulgadores han sufrido acoso durante la pandemia

No es ningún secreto para todo el que durante estos 22 meses haya intentado acercar al público lo que la ciencia ha ido avanzando en el conocimiento del coronavirus SARS-CoV-2 y la enfermedad que causa. Pero también hay que contarlo.

El mes pasado, Nature publicaba un reportaje detallando hasta qué punto los científicos y divulgadores que han intervenido en los medios para informar sobre la COVID-19 han tenido que sufrir el acoso de los haters y negacionistas. El artículo se basa en una encuesta de la propia revista a 321 científicos que han concedido declaraciones sobre COVID-19 y han informado en las redes sociales. No es un estudio aleatorio; una parte de los científicos contactados prefirieron no responder a la encuesta para evitar más acoso.

Casi el 60% ha sufrido ataques a su credibilidad o insultos. Más del 20% ha recibido amenazas de agresiones físicas o sexuales. La tercera parte de los que han difundido informaciones en Twitter ha recibido ataques «siempre» o «habitualmente». El 15% ha llegado a soportar amenazas de muerte. A veces incluso por teléfono, como relata la especialista en enfermedades infecciosas Krutika Kuppalli, quien llevaba meses sufriendo ataques online. Seis han padecido agresiones físicas.

El virólogo Christian Drosten, la figura más destacada en Alemania con relación a la pandemia, recibió un paquete en su casa con un vial de líquido con la etiqueta «positivo» y una nota instándole a beberlo. En Bélgica, un francotirador amenazó con disparar a los virólogos. En EEUU, un investigador recibió sobres de polvo blanco. «Cómete un murciélago y muere, puta», «tú y tus hijos arderéis en el infierno», «si te veo te pego un tiro» o «espero que mueras» son algunas de las amenazas detalladas por los científicos, junto con imágenes de ataúdes o de cadáveres ahorcados.

A dos terceras partes de los que han sufrido algún tipo de amenaza o agresión, la experiencia les ha hecho cuestionarse sus apariciones en los medios, y muchos de ellos han decidido inhibirse de hacer declaraciones. Algunos han cerrado su cuenta de Twitter.

Manifestación negacionista contra la pandemia, el 1 de mayo de 2020 en Ohio. Imagen de Becker1999 / Wikipedia.

Manifestación negacionista contra la pandemia, el 1 de mayo de 2020 en Ohio. Imagen de Becker1999 / Wikipedia.

Según cuenta en Nature Fiona Fox, directora del UK Science Media Centre –una oficina de prensa independiente que ofrece testimonios de científicos y expertos–, de más de 20 científicos consultados para hacer una rueda de expertos sobre el origen del coronavirus, ninguno quiso participar. Esta cuestión en particular, junto con las vacunas, la ivermectina y la hidroxicloroquina –dos tratamientos ensayados que resultaron inútiles– han sido los temas recurrentes que han provocado las reacciones de los haters.

El estudio de Nature no encontró diferencias en el nivel de acoso a hombres y mujeres, pero sí que estas recibían frecuentemente burlas o amenazas de carácter sexual, del mismo modo que los investigadores de minorías étnicas han recibido insultos racistas.

La encuesta y el reportaje de Nature no son los primeros en sacar a la luz las amenazas e insultos que están recibiendo los científicos. Aquí ya he mencionado algún caso que ha ido publicándose sobre todo a raíz de las investigaciones sobre el origen del coronavirus. La iniciativa de Nature ha venido motivada por una encuesta previa en Australia que ya alertó del problema, y está en marcha un amplio estudio de la Universidad Johns Hopkins que ofrecerá un panorama más detallado.

Estos estudios se han centrado sobre todo en los países anglosajones, pero cualquiera que haya seguido los comentarios en los medios y en las redes sociales en nuestro país habrá podido observar que aquí ha ocurrido exactamente lo mismo. Esta semana, la Universitat Oberta de Catalunya (UOC) publicaba un artículo comentando el reportaje de Nature y añadiendo experiencias personales de algunos investigadores de la UOC que se han visto en la misma situación. El biólogo molecular y divulgador Salvador Macip i Maresma denuncia haber sido víctima de una campaña organizada de odio basada en amenazas e insultos en las redes sociales; acusaciones falsas, ataques al honor, insultos, amenazas de muerte o de tortura. Algo similar relata Alexandre López Borrull, experto en fake news.

Incluso se da el caso, aunque esto no se ha publicado, de algún comunicador científico que durante la pandemia ha preferido abstenerse por completo de tratar la COVID-19, supuestamente por centrarse en el resto de la esfera científica que ha quedado muy olvidada durante estos casi dos años; en realidad, porque pasaba de meterse en este marrón. Y quién se lo puede reprochar.

Esto es lo que realmente dice la ciencia sobre el sexo, el género y las personas trans

A lo largo de la historia, a menudo se ha manipulado la ciencia o se ha inventado una falsa ciencia (a.k.a. pseudociencia) para defender una ideología. Los llamados darwinistas sociales tergiversaron el principio de la selección natural de la evolución biológica para justificar el capitalismo a ultranza, la eugenesia, el racismo, el imperialismo o el fascismo, todo ello bajo el tramposo lema –no darwiniano– de la «supervivencia del más fuerte». El nazismo inventó sus propias pseudociencias, no solo la racial, sino también la basada en el ocultismo y en ideas que hoy conocemos como New Age. El comunismo estalinista soviético promovió el lysenkoísmo. E incluso el franquismo tuvo su propia pseudociencia eugenésica liderada por los psiquiatras Antonio Vallejo-Nájera y Juan José López Ibor.

Por qué las ideologías autoritarias recurren a este intento de ampararse en algo que realmente desprecian, como es la ciencia, es algo que corresponde explicar a historiadores y sociólogos. Pero en la vida cotidiana tenemos un paralelismo también muy frecuente, cuando alguien alega que aquello que defiende se basa en algo que está «científicamente demostrado». Es solo un modo de tratar de zanjar una discusión sin más argumentos, pero utilizando erróneamente un argumento de autoridad que no es tal. Porque como he explicado aquí tantas veces, 1) la inmensa mayoría de las veces que se dice que algo está científicamente demostrado no es así, 2) la persona que lo dice no sabe lo que significa que algo esté científicamente demostrado, y 3) en general la ciencia no sirve para demostrar.

Siempre que ocurre esto, que se intenta defender una ideología con tergiversaciones de la ciencia o pseudociencias, es necesario salir al paso para denunciar la trampa y evitar así la confusión de quienes puedan resultar confundidos o convencidos con este falso argumento. Y ahora es necesario para denunciar la trampa de quienes dicen esgrimir la ciencia en contra de lo que ellos mismos llaman «ideología de género», lo que afecta a cuestiones de enorme relevancia en la vida de muchas personas, como el reconocimiento de las personas transexuales.

Curiosamente, esta corriente que últimamente parece crecer en visibilidad ha aunado en un frente común a sectores ultraconservadores y a cierta parte del progresismo feminista. Quienes están en dicho frente dicen ampararse en la ciencia para defender que solo hay dos tipos de seres humanos según su sexo, masculinos (XY) y femeninos (XX). Niegan la autoafirmación de las personas trans porque, dicen, la idea del género es solo un invento sin realidad biológica (spoiler: en realidad son ellos quienes defienden una ideología contra el «género», un término obviamente inventado pero que designa una realidad, igual que «plastilina» o «cerveza»).

Pues bien, lo cierto es que la ciencia dice justamente todo lo contrario de lo que ellos afirman. Y no es que el aclararlo probablemente vaya a servir para que estas personas cambien su discurso. Pero al menos debería servir para algo: si todas las ideologías son aceptables o no, es algo que no corresponde discutir en este blog, y mi opinión al respecto tampoco importa aquí; pero que no se defiendan estas ideas en nombre de la ciencia. Porque la ciencia no dice lo que ellos dicen que dice.

Imagen de Marco Verch / Flickr / CC.

Imagen de Marco Verch / Flickr / CC.

Empecemos por el primer concepto: sexo. El sexo es la cuestión anatómica, los caracteres sexuales primarios, los genitales. Este es el criterio que se utiliza para asignar legalmente a una persona al sexo masculino o femenino después del nacimiento. La determinación del sexo en los animales puede venir dirigida por diferentes sistemas en especies distintas. En los humanos, está principalmente marcada por la dotación de los cromosomas sexuales, XY en los machos, XX en las hembras (Nota: las palabras «macho» y «hembra» repugnan a muchos, pero lo cierto es que deberíamos utilizarlas más como se hace en inglés, ya que lo único que se puede inferir a partir de los genitales es si una persona es anatómicamente un macho o una hembra. No si es hombre o mujer).

Principalmente, pero no exclusivamente. Además de los cromosomas sexuales, hay numerosos genes en los cromosomas autosómicos –no sexuales– y vías hormonales que a lo largo del desarrollo determinan la aparición de los caracteres sexuales primarios y secundarios (siendo estos últimos rasgos como los pechos o el vello corporal). Las variaciones en todo este conjunto de mecanismos, desde una dotación cromosómica sexual anómala hasta las mutaciones en infinidad de genes –por ejemplo, la 5-alfa reductasa 2– crean todo un espectro de situaciones entre los casos nítidos del humano anatómicamente masculino y el humano anatómicamente femenino.

Para apreciar a simple vista el complejo panorama real de la determinación del sexo en humanos, recomiendo este estupendo gráfico publicado por Amanda Montañez en 2017 en la revista Scientific American, que por cuestiones de copyright no puedo reproducir aquí.

Frente a esto, hay quienes suelen replicar que la norma, y por tanto lo normal, es macho cariotípico XY y hembra cariotípica XX, y que el resto son anomalías, errores. Y es cierto, las alteraciones cromosómicas pueden considerarse como tales. Pero, en primer lugar, son anomalías o errores muy frecuentes: el 1% de la población, según estimaciones, lo que suma unos 80 millones de personas en todo el mundo. En segundo lugar, el hecho de que sean anomalías no significa que sean enfermedades. Estas personas no están enfermas. Y en cuanto a su salud mental, el consenso científico actual refleja la postura de la Organización Mundial de la Salud (OMS) y de obras de referencia como el Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM) al restringir la categoría de trastornos mentales a aquellas condiciones que causan sufrimiento o incomodidad al propio afectado o a otros.

Y no ocurre en estos casos, o al menos no ocurriría de no ser porque muchas personas en estas situaciones sufren incomprensión, rechazo o estigmatización social, quizá por parte de quienes los consideran anormales o incluso niegan su existencia. Y si se trata de anomalías biológicas, precisamente estas personas deberían tener una especial acogida, comprensión y protección, en lugar de lo contrario.

Segundo concepto: sexualidad. Se refiere a la atracción sexual que sentimos por un tipo u otro de personas; heterosexualidad, homosexualidad o bisexualidad. Y por último, tercer concepto: género. Se refiere a cómo nos percibimos mentalmente como hombre, mujer o situaciones diferentes o intermedias.

Es esencial considerar juntos estos dos conceptos, porque son concomitantes. Ambos residen en el cerebro y son aún infinitamente más complejos que el sexo. La ciencia ha encontrado correlaciones con factores genéticos y vías hormonales, pero aún no se conocen los mecanismos precisos que determinan la sexualidad ni la identidad de género, y por lo tanto no existe un correlato claro objetivable, del mismo modo que la neurociencia actual está abandonando el concepto del cerebro masculino y el cerebro femenino. Como todo lo que ocupa nuestra mente, es bioquímica. Son procesos que vienen originados por los genes, mediados por las proteínas que producen y regulados por infinidad de factores moleculares para obtener un resultado final sujeto a un amplio rango de variabilidad.

Por lo tanto, y dado que tampoco ninguna de estas condiciones representa un trastorno mental –según lo dicho, la OMS cambió hace unos años su criterio de «trastorno de identidad de género» por «incongruencia de género»– si no son otros quienes lo juzgan como tal, la única actitud posible de una sociedad humanista, racional y con criterio científico es reconocer que son estas personas quienes realmente saben qué son (homosexuales, bisexuales, transgénero, no binarias) y aceptarlas con su diversidad. Porque en este caso ni siquiera puede hablarse de anomalías o errores, no solo porque son extremadamente comunes –uno de cada diez es la cifra que suele manejarse–, sino además porque el consenso científico actual los considera variaciones biológicas naturales dentro de un amplio espectro continuo. Y sobre si el lenguaje debe o no adaptarse a esta realidad, podría discutirse, pero esto ya escapa a la ciencia.

Así, no se puede negar las variaciones en la identidad de género sin negar también las variaciones en la sexualidad, porque hoy la ciencia las considera fenómenos paralelos, con raíces biológicas comunes. Quien niegue unas sin negar las otras no se atiene a la ciencia, sino que está fabricando su propia pseudociencia.

En 2018 la revista británica Nature reaccionaba a un documento filtrado al diario The New York Times respecto a una propuesta de la administración Trump de definir el género de una persona exclusiva e inmutablemente en función de su sexo (los genitales), recurriendo al testado genético en los casos de anomalías en el desarrollo de los caracteres sexuales. El documento decía tener una «base biológica clara basada en la ciencia«. Y algunas voces no precisamente alineadas con el sector político de Trump, pero sí con el movimiento que he citado más arriba, lo aplaudieron.

En un artículo editorial (la postura de la revista), Nature decía:

La propuesta es una idea terrible que debería erradicarse. No tiene ningún fundamento científico y desharía décadas de progreso en la comprensión del sexo –una clasificación basada en características corporales internas y externas– y el género, una construcción social relacionada con las diferencias biológicas pero también arraigada en la cultura, las normas sociales y la conducta individual. Aún peor, minaría los esfuerzos de reducir la discriminación contra las personas transgénero y aquellas que no caen en las categorías binarias de macho o hembra.

«La biología no es tan sencilla como la propuesta sugiere«, añadía Nature. «La comunidad médica e investigadora ahora ve el sexo como algo más complejo que macho y hembra, y el género como un espectro que incluye a las personas transgénero y a aquellas que no se identifican como macho o hembra. La propuesta de la administración de EEUU ignoraría este consenso de los expertos«.

(Insisto, «macho» y «hembra» son traducciones del inglés «male» y «female»; en castellano han quedado desterradas del lenguaje común en lo referente a los humanos por alguna causa que desconozco, pero rehabilitarlas ayudaría a saber si estamos hablando de sexo o de género).

Y concluía el editorial de Nature: «La idea de que la ciencia puede sacar conclusiones definitivas sobre el sexo o el género de una persona es fundamentalmente fallida«. «Los intentos políticos de encasillar a las personas no tienen nada que ver con la ciencia y todo que ver con privar de derechos y reconocimiento a las personas cuya identidad no se corresponde con ideas anticuadas sobre el sexo y el género«.

Con respecto a este mismo documento de la administración Trump, la revista estadounidense Science publicaba en 2018 que más de 1.600 científicos (cifra de aquel momento, que luego ascendió a 2.617 científicos firmantes) habían «criticado el grave daño» que el plan causaría. Los promotores de esta protesta acusaban a la propuesta del gobierno de ser «fundamentalmente inconsistente» con el conocimiento científico.

Este es el consenso científico. Esto es lo que dice la ciencia. Esto es lo que dice la biología. Quienes defiendan algo diferente o contrario, que sigan haciéndolo si quieren. Pero que lo hagan en nombre de su ideología, no en el de la ciencia. No en el de algo que en realidad están despreciando por la vía de la ignorancia o de la tergiversación.

Los precarios son siempre precarios, y los piratas son siempre piratas

Unos días atrás saltó a las redes sociales el comentario de una bloguera y, al parecer, hostelera, que defendía la práctica de los cocineros de incluir en sus equipos aprendices jóvenes sin remuneración; o sea, lo que siempre hemos conocido como precarios, ya que no puede llamarse becario a quien no tiene ninguna beca.

La bloguera en cuestión provocaba además las chuflas de los usuarios al comenzar su artículo aludiendo a lo “guapísimo” que le parece un cocinero concreto. Y en efecto, esto invita a dejar de leer o a no tomarse el resto en serio, como ocurriría con cualquier columna que arrancara refiriéndose al “guapísimo Joe Biden” (de joven lo era) o a la “guapísima Inés Arrimadas” (en cuyo caso, además, al autor le lloverían acusaciones de machismo).

En la opinión que vengo a plantear, vaya por delante un conflicto de intereses, cuyo protagonista es mi paladar. Confieso que la naturaleza no me ha dotado de un paladar exquisito. No soy capaz de apreciar los matices del roble ni aunque me coma el propio roble, ni los aromas del perfume que llevaba el bodeguero cuando embotelló el vino. Y esto, que muchos considerarían una desgracia, en cambio lo contemplo como una suerte, ya que nunca gastaré nada del dinero que a todos nos cuenta tanto conseguir en una cena en un restaurante con estrellas Michelín, porque no sabría apreciarlo; eso que me ahorro. Me gusta comer, pero la gastronomía no me interesa gran cosa.

Pero traigo hoy este asunto por un motivo: de precarios sabemos mucho en el mundo de la ciencia. Esta supuesta polémica sobre los aprendices sin paga, que incluso deberían dejarse abusar por tener la suerte de trabajar a los pies de una divinidad olímpica, es algo que hemos vivido durante décadas en la ciencia, antes de que la cocina adquiriera el estatus de culto posmoderno que hoy tiene para muchos. Y sin pretender desmerecer el trabajo de nadie, que todos son muy dignos, espero que pueda permitirse que algunos valoremos mucho más la ciencia que la cocina, y que por lo tanto no apoyemos en áreas menos importantes lo que no apoyamos en otras más importantes. Al menos de la ciencia puede decirse que está salvando vidas todos los días, y ahora está sacando al mundo de una pandemia. Y lo siento si ofendo a alguien o peco de arrogancia, que sí, que ya lo sé, pero sigue pareciéndome más meritorio y admirable crear una vacuna que salva vidas que cocinar una espuma de nabo.

Marcha por la Ciencia, abril de 2017, en Madrid. Imagen de LLN 1 / Wikipedia.

Marcha por la Ciencia, abril de 2017, en Madrid. Imagen de LLN 1 / Wikipedia.

Lo digo, además, porque sé en carne propia lo que es trabajar sin cobrar, como muchos otros de mi generación: durante tres años, desde 3º hasta 5º de carrera de biología, pasé sucesivamente por la Unidad de Citología e Histología de la Universidad Autónoma de Madrid, el laboratorio de bacterias termófilas del Centro de Biología Molecular, la Unidad de Inmunología del Hospital de la Princesa y el laboratorio de inmunología del Centro de Investigaciones Biológicas. Todo ello sin percibir un duro (por entonces aún había duros).

Sí, lo acepté porque quería aprender, como era habitual entonces. Y por entonces pensaba que era un peaje que los de mi generación debíamos pagar porque así era como se hacían las cosas entonces, pero que aquello debería cambiar tarde o temprano para que pudieran percibir una remuneración también esos insignificantes aprendices de científicos, que luego resultan no ser tan insignificantes cuando comienzan a aportar ideas, y a quienes además se encargan todas esas tareas rutinarias y sucias que otros prefieren evitar aunque cobren por hacerlas.

Incluso cuando ya terminábamos la carrera y teníamos la suerte de echarle el lazo a una beca de verdad, de las de cobrar una cantidad más simbólica que otra cosa, no teníamos ese lujo llamado alta en la Seguridad Social; nos cubría un seguro privado asociado a la beca. Durante los cuatro o cinco años de tesis, no cotizábamos ni un duro.

En el mundo de la ciencia, muchas cosas han cambiado desde entonces. Hoy, al menos teóricamente, los becarios cotizan. Y aunque posiblemente continúe la costumbre de las prácticas sin remuneración para los aún no licenciados, que confieso desconocerlo, el hecho de que aún existan irregularidades no justifica en absoluto que deban seguir existiendo. Es un resto del pasado a abolir. Y quien opine lo contrario se ha saltado una parte fundamental de la historia de la humanidad, esa en la que se impuso, por ejemplo, conceder a los trabajadores uno o dos días de descanso a la semana. Y sí, también entonces se quejaban de que esto ralentizaba la producción y se encarecían los productos. Pero qué se le iba a hacer.

Por no hablar de quien pretende justificar semejantes ignominias con argumentos de tan poca profundidad mental como que acusar a los explotadores de explotadores es algo recurrente y casposo, solo por el hecho de que se haya hablado mucho de ello. Este es uno de los grandes males dialécticos de la era de las redes sociales: si no te gusta una crítica, deja que hablen; una vez que se haya hablado mucho de ello, ya puedes descalificar el debate limitándote a decir que es rancio, recurrente y casposo, sin necesidad de aportar argumentos que apoyen tu (inapoyable) postura.

Y por no hablar tampoco de lo imbécil que resulta que en este nuevo culto posmoderno a la cocina, desde que los cocineros ascendieron a chefs, a los precarios se les haya ascendido también con un título en francés para que puedan exhibirlo a sus amigos y familiares y así presumir de ser stagiers de un chef, mejor si además es guapísimo. ¿Y encima pretenden cobrar por todo esto?

Al menos en la ciencia nadie llama a los precarios y becarios otra cosa que precarios y becarios. Y estos, a su vez, no llaman a sus jefes con otro título ni de otro modo que María, Pedro o Lola, aunque todos ellos tengan al menos el título de doctor. Los llamados stagiers son simplemente precarios. Y ustedes, quienes los explotan, unos piratas esnobs y petulantes, guapísimos o no.

¿Siguen las autoridades los criterios de la ciencia en sus medidas contra la pandemia? Los cierres perimetrales, la hostelería y los colegios

Dice un adagio humorístico del periodismo que un titular en forma de pregunta siempre tiene una respuesta invariable: no. Pero a pesar de que hay por ahí redactores jefe con reacción anafiláctica grave a los titulares preguntones, lo cierto es que no es cierto: en muchos casos esos titulares reflejan debates abiertos, que no necesariamente se cerrarán algún día, o simplemente preguntas cuya respuesta aún no se sabe. De estos últimos en ciencia los hay a porrillo, porque la ciencia ignora más cosas de las que sabe. Es más, si en los contenidos de ciencia publicados en los medios hubiese más titulares en forma de pregunta se evitaría mucha desinformación. Pero estos, ay, no ganan clics.

Por ejemplo, no tiene por qué existir una respuesta invariable a la pregunta de si las autoridades atienden a lo que dice la ciencia cuando toman decisiones contra la pandemia. Pero es un tema relevante que conviene discutir, sobre todo cuando algunos, como ha ocurrido esta semana con el vicepresidente de la Comunidad de Madrid, aseguran que siguen criterios médicos –supongamos que son lo mismo que «científicos»– en sus decisiones. De ser así, como mínimo este político debería hacer un esfuerzo por explicar cuáles son esos criterios, ya que la ciencia publicada, la normal, la que está al alcance de cualquiera que sepa leerla, no parece apoyar lo que dice.

Llama la atención que, en la guerra eterna entre izquierdas y derechas que a unos pocos tanto nos aburre, los primeros estén centrando toda su artillería en algo tan burdo e irracional como la oposición a la construcción de un hospital público que, con sus aciertos y sus errores –estos últimos lógicamente motivados por la bobería de querer ganar a los amish en rapidez de edificación para entrar en el Libro Guinness de los Récords–, a la larga será un evidente beneficio para todos (y no solo los madrileños). No sé nada de construcción o gestión de infraestructuras hospitalarias, ni de sus costes o de legislación sobre concursos o contratos. Quizá se haya hecho muy mal, no tengo la menor idea. Pero decir que no tener un hospital especializado en enfermedades infecciosas para atender brotes epidémicos es mejor que tener un hospital especializado en enfermedades infecciosas para atender brotes epidémicos es una postura poco digna de un ser racional. Porque lo vamos a necesitar, y no solo en esta pandemia.

En cambio, lo que se cae por su propio peso, a menos que ese vicepresidente disponga de estudios científicos ignorados para el resto, es todo lo demás, las medidas que la Comunidad de Madrid viene adoptando. Repasemos.

La Comunidad de Madrid ha sido pionera en la adopción de medidas discriminatorias –ellos las llaman «quirúrgicas»– que desigualan a sus ciudadanos antes iguales ante la ley. En los medios escuchamos que tal país entra o sale del confinamiento. En Madrid se confina una acera respecto a la contraria. O un pueblo, en el que uno vive, respecto al pueblo limítrofe, en el que uno lleva a sus hijos al colegio o hace la compra. Pero curiosamente, si uno compara el mapa de incidencias acumuladas con el de las restricciones, las primeras forman un agujero negro que ocupa casi toda la comunidad (astutamente, el nivel máximo en el mapa es de más de 700 contagios por 100.000 habitantes a 14 días, lo que disimula las zonas que superan los 900 o los 1.000, muchas de ellas en el centro de la ciudad), mientras que las segundas forman un cinturón de barrios periféricos y poblaciones que apenas afecta al centro de Madrid.

Mapa de la Comunidad de Madrid con los confinamientos perimetrales (izquierda) y las incidencias de contagios por 100.000 habitantes a 14 días, más oscuro a mayor nivel de contagios. Fuente: Comunidad de Madrid.

Mapa de la Comunidad de Madrid con los confinamientos perimetrales (izquierda) y las incidencias de contagios por 100.000 habitantes a 14 días, más oscuro a mayor nivel de contagios. Fuente: Comunidad de Madrid.

Es decir, se confinan zonas con alta incidencia, siempre que no sean barrios muy comerciales o turísticos. La gran mayoría de estos han salido hasta ahora limpios de polvo y paja en cuanto a restricciones de movimiento, a pesar de que muchos de ellos tienen niveles de contagios mayores que otras zonas confinadas. Me ha parecido que incluso a algunos de los propios medios de derechas, que esta semana habían informado de la alta incidencia en barrios de la almendra central de Madrid, les ha desconcertado la última decisión de este gobierno: confinar el Pozo del Tío Raimundo, en Vallecas.

Como no podía ser de otro modo, el (mal) ejemplo de Madrid ha cundido después, lo cual no es de extrañar, puesto que a veces para cualquier gobernante, sea diestro o zurdo, discriminar a sus ciudadanos sería una perfecta solución de ciertos problemas, si no fuese porque se lo impide algo llamado democracia e igualdad ante la ley. Pero dado que en Madrid no se ha desatado una revolución, ¿por qué no hacer lo mismo? Mejor confinar a unos pocos que a todos. Y si esos pocos se quejan de que hay madrileños de primera y de segunda, que se aguanten: haber sido madrileños de primera.

Podrá parecer que aquí no se trata de una cuestión de ciencia, sino de otras cosas como derechos e igualdad ante la ley. Pero los científicos no son ni mucho menos inmunes a los atropellos y al desgobierno; de hecho, en estas últimas elecciones en EEUU han apoyado masivamente a Joe Biden, porque los atropellos y el desgobierno suelen ser también anticientíficos. Y a finales del pasado octubre, un grupo de científicos de primera línea publicaba en The Lancet una carta resumiendo el actual consenso científico sobre la pandemia de COVID-19, la cual, entre otras cosas, decía esto:

La evidencia empírica de muchos países muestra que no es posible restringir brotes incontrolados a secciones particulares de la sociedad. Este enfoque también corre el riesgo de exacerbar las desigualdades socioeconómicas y discriminaciones estructurales que la pandemia ya ha dejado de manifiesto.

Así que, número uno, y a no ser que el dicho vicepresidente cuente con otra ciencia alternativa que no conocemos, no, sus confinamientos perimetrales discriminatorios no se guían por criterios científicos. Y además, discriminan. Y no, incluso aunque estas medidas logren algún efecto, el fin no justifica los medios, salvo que uno sea maquiavélico.

Número dos: la hostelería. Dice el vicepresidente que la mayoría de los contagios se producen en los hogares. Lo cual es noticia, dado que, de acuerdo a lo publicado, Madrid ignora el origen del 83,3% de los contagios en su territorio, por lo que parece que en realidad Madrid no tiene la menor idea de dónde se produce la mayoría de sus contagios; salvo que, una vez más, el vicepresidente cuente con otros estudios que debería revelar cuando comparece ante las cámaras.

Pero se da la circunstancia de que sí, según los estudios publicados, resulta que en todo el mundo la mayoría de los contagios se produce en los hogares y residencias; ver, por ejemplo, esta revisión de estudios de Science, que sitúa en los hogares y otros enclaves residenciales entre el 46 y el 66% de los contagios, y que cifra en seis veces más probable contagiarse en casa que en cualquier otro lugar.

Pero ¿cómo iba a ser de otro modo? En los hogares viven varias personas en estrecha convivencia, sin mascarillas y con ventilación opcional. En casa es muy difícil evitar el contagio, excepto para quienes dispongan de habitaciones suficientes como para que una persona infectada o sospechosa de estarlo pueda aislarse del resto, lo cual no es lo más habitual. Así que echar la culpa de los contagios a los hogares para exculpar a otros escenarios es una simple y llana tergiversación, porque lo importante es saber dónde se producen los contagios fuera de los hogares para que las personas no lleven el virus a casa e infecten al resto de sus familiares.

Y ¿dónde se producen los contagios fuera de los hogares? Para esto la ciencia ha contado desde hace siglos con algo llamado método experimental. Uno hace una observación, cambia las condiciones experimentales, y repite la observación. En el caso que nos ocupa, en un panorama de pandemia, uno introduce determinadas restricciones y comprueba cuáles de ellas reducen en mayor medida los contagios. Y, como ya he contado al menos aquí , aquí y aquí, el resultado de estos estudios es que lo que más reduce los contagios después de limitar las reuniones en los hogares es cerrar colegios y universidades (ahora iremos a esto) y cerrar los negocios no esenciales de alto riesgo como la hostelería. Quien quiera detalles sobre los estudios, los encontrará en los enlaces anteriores.

Por otra parte, el vicepresidente se justificaba aludiendo a lo que él llama «la experiencia» de que el cierre de la hostelería en otros lugares no ha servido para reducir los contagios. La experiencia es solo uno de los factores que deben formar parte de la ciencia basada en evidencias, previo paso por el análisis riguroso de los estudios científicos. De no ser así, la experiencia es lo que en ciencia suele llamarse el amimefuncionismo: uno mira, y así a ojo le parece que. Es lo que alegan los homeópatas para asegurar que sus terapias funcionan, solo que el filtro de los estudios científicos no les da la razón.

Claro que, cuando el gobierno de la Comunidad de Madrid afirma que los bares y restaurantes son seguros, pero al mismo tiempo dice que estudiará la vacunación prioritaria del personal de hostelería por estar expuesto a un mayor riesgo, lo único que queda claro es la contradicción.

Por último, vayamos a los centros educativos. Llaman la atención las recientes manifestaciones de los estudiantes universitarios por los exámenes presenciales, cuando todo padre o madre presencia a diario, en los colegios de los niños, imágenes similares a esas aparecidas en TV. En la Comunidad de Madrid se optó por una presencialidad en los niveles bajos de la educación y por una semipresencialidad en los niveles previos a la universidad.

Hay dos maneras de ver esta solución de la semipresencialidad, la del vaso medio lleno y la del vaso medio vacío. Según la primera, al menos los niños reciben una parte de sus clases presenciales a la vez que se reduce el riesgo de contagio. Pero según la segunda, los niños no están recibiendo toda la educación presencial que necesitarían y además ni siquiera se elimina el riesgo de contagio. Y en pandemia, me temo que fijarse en el vaso medio lleno solo conduce a errores, dolor y sufrimiento.

Curiosamente y dejado ya atrás el comienzo del curso académico, los centros educativos han desaparecido del debate sobre la pandemia. Solo a profesores y padres parece ya preocuparnos, porque probablemente todos conocemos casos de cóvid en los colegios e incluso en las aulas de nuestros hijos. Y porque probablemente, para muchos que a pesar de todo tratamos de ceñirnos en la medida de lo posible a la prudencia de las medidas contra el contagio, nuestros hijos representan ahora el mayor riesgo de introducir el virus en casa. Sí, es cierto que el riesgo de contagio de los niños es aproximadamente la mitad que el de los adultos; pero también que su riesgo de contagio aumenta del mismo modo que el de los adultos con las nuevas variantes del virus. Y algunos estudios apuntan a que los niños pueden ser más infecciosos que los adultos, quizá todavía una incertidumbre, pero una con la que sería preferible no jugar a la ruleta rusa.

Como también he contado ya (detalles aquí, aquí y aquí), el cierre de colegios y universidades es, después de la limitación de las reuniones en los hogares, la medida que más ha ayudado a reducir la propagación del virus en todo el mundo. Aparte de los estudios repasados en esos artículos que enlazo, para los más inmunes a la evidencia científica, traigo aquí otros estudios recientes:

Un estudio de la Universidad de Toronto publicado en PLOS One ha examinado el efecto de las diferentes medidas en la propagación del virus en 40 países y estados de EEUU. La conclusión de los autores es que «cinco de las políticas tienen un impacto relativamente grande cuando se implementan a sus más altos niveles: cierre de centros de trabajo, restricciones a los movimientos internos, confinamiento domiciliario, campañas de información pública y cierre de escuelas«.

Otro estudio de la Universidad Médica de Viena publicado en Nature Human Behaviour analiza el efecto de las medidas adoptadas en 79 territorios. La medida que más reduce la tasa de reproducción del virus es la prohibición de pequeñas reuniones, que no solo incluye domicilios, sino también tiendas y restaurantes. La segunda, el cierre de instituciones educativas. O, en palabras de los autores, «los mayores impactos en la Rt se producen por la cancelación de pequeñas reuniones, el cierre de instituciones educativas y las restricciones fronterizas«. Y añaden:

Aunque en estudios previos, basados en un menor número de países, se había atribuido a los cierres de escuelas un pequeño efecto en la propagación de la COVID-19, evidencias más recientes han favorecido la importancia de esta medida; se ha descubierto que los cierres de escuelas en EEUU han reducido la incidencia y la mortalidad de la COVID-19 en un 60%. Este resultado está también en línea con un estudio de rastreo de contactos en Corea del Sur, que identificó a los adolescentes de 10 a 19 años como más propensos que adultos y niños a transmitir el virus en sus hogares.

Y por cierto, los resultados de los autores también descartan el papel de trenes y autobuses como grandes responsables de la propagación del virus, en línea con estudios anteriores que ya mencioné aquí: «Aunque se ha informado de infecciones en autobuses y trenes, nuestros resultados sugieren una contribución limitada a la propagación general del virus, tal como se ha descrito previamente«.

Otro estudio más, este del Instituto del Trabajo de Alemania y la Universidad de Luxemburgo, publicado en Scientific Reports, ha examinado el efecto de las medidas en 175 países. La conclusión: «Cancelar los eventos públicos, imponer restricciones a las reuniones privadas y cerrar las escuelas y los centros de trabajo tienen efectos significativos en la reducción de las infecciones de COVID-19«.

En fin, se puede seguir negando todo esto si se quiere. Tal vez aquello de que no es posible engañar a todos todo el tiempo sea solo una frase bonita.