Archivo de la categoría ‘Divulgación’

La última aventura de Richard Leakey

Hasta hace no mucho se manejaba la cifra de unos 100.000 años como la edad de nuestra especie, y este dato continúa apareciendo en muchas fuentes, incluyendo los libros de texto (algunos no nos quejamos de los abultados precios de los libros de texto si esto se justifica por el coste de actualizarlos; pero si es así, que por favor realmente los actualicen, que algunos se han quedado anclados en la ciencia de mediados del siglo pasado). Esta frontera temporal se rompió hace tiempo, empujando el origen de la humanidad hasta los 200.000 años en África oriental, aunque en Marruecos se han hallado restos de Homo sapiens de rasgos arcaicos de hace 300.000 años. Pero esta semana la revista Nature le ha dado un nuevo empujón a la prehistoria de nuestra especie en el este de África, con una datación que otorga una edad de 230.000 años a unos restos encontrados hace décadas en Omo, Etiopía.

Lo cual me da ocasión para hablar de quien dirigió aquellas excavaciones en Omo en los años 60 y 70, ya que se trata de todo un personaje que falleció el pasado 2 de enero, y a quien hace unos días prometí dedicarle unos párrafos. Porque, si quienes somos africanistas apasionados y además nos dedicamos a contar la ciencia no le dedicamos un obituario a Richard Leakey, ¿quién va a hacerlo?

Richard Leakey. Dibujo de Patrick L. Gallegos. Imagen de ELApro / Wikipedia.

Richard Leakey. Dibujo de Patrick L. Gallegos. Imagen de ELApro / Wikipedia.

A quien tenga algún interés por la paleoantropología, o por la historia de la conservación natural, o simplemente por África en general, no le resultarán extraños los nombres de Louis y Mary Leakey. Esta pareja de paleoantropólogos anglo-kenianos —Louis era hijo de misioneros anglicanos, de los que pueden casarse, en el entonces protectorado británico de África Oriental— estableció el origen de la humanidad en el este de África, sobre todo a través de sus descubrimientos en Olduvai. Louis Leakey fue también quien creó el grupo de las Trimates (juego de palabras entre trío y primates) o los Ángeles de Leakey, las tres mujeres que dedicaron su vida a la investigación y la protección de los grandes simios: Jane Goodall con los chimpancés en Tanzania, Dian Fossey con los gorilas de montaña en Ruanda, y Biruté Galdikas con los orangutanes en Borneo.

Louis y Mary tuvieron tres hijos: Jonathan, Richard y Philip. Los niños Leakey tuvieron una infancia libre y salvaje en África, viviendo en tiendas en la sabana y excavando con sus padres. Más allá del romanticismo que evoca la idea de aquel tiempo y lugar, fue también una época muy convulsa y sangrienta. En los años 50 el viejo poder colonial británico se desmoronaba. Quienes aún querían hacer de Kenya «el país del hombre blanco» respondieron con enorme brutalidad a la igualmente enorme brutalidad de la rebelión nativa del Mau Mau. Louis, como miembro de una saga familiar que ya entonces era muy prominente allí, tuvo un papel contradictorio: por un lado defendía los derechos de los nativos kikuyu y abogaba por un gobierno multirracial, pero al mismo tiempo fue reclutado para la defensa de los colonos blancos, hablando y actuando en su nombre.

Mientras, los niños Leakey vivían el final de una época y el comienzo de otra, un cambio tan turbulento como lo eran sus propias vidas. De los tres hijos de los Leakey, Richard comenzó a ganarse el perfil de personaje novelesco desde bien pequeño. La primera vez que estuvo a punto de morir fue a los 11 años, cuando se cayó de su caballo y se fracturó el cráneo. No solo sobrevivió, sino que además la reunión de la familia en torno al pequeño en peligro de muerte consiguió que Louis no abandonara a Mary por su secretaria.

Ya de adolescente, Richard se alió con su amigo Kamoya Kimeu, desde entonces su mano derecha y después ilustre paleoantropólogo keniano, para montar en la sabana un negocio de búsqueda y venta de huesos y esqueletos de animales, que después derivó hacia los safaris. Por entonces obtuvo su licencia de piloto y fue desde el aire como observó el potencial del lago Natron (entre Kenya y Tanzania) para la búsqueda de fósiles. La actitud de Richard hacia la profesión de sus padres era ambivalente: por un lado, fue el único de los tres hermanos que eligió seguir la vocación científica de sus padres, a pesar de que no se llevaba demasiado bien con la idea de seguir los caminos marcados. Pero al mismo tiempo le molestaba que no le tomaran suficientemente en serio, para lo cual había una razón: nunca fue capaz de completar estudios.

Lo intentó en Inglaterra con su primera esposa, Margaret, pero solo tuvo paciencia para obtener su graduación de bachillerato. Cuando ya había superado los exámenes para entrar en la universidad, en lugar de eso regresó a Kenya. Allí comenzó a montar lo que después serían los Museos Nacionales de Kenya, al tiempo que, con el apoyo de su padre, emprendía excavaciones en Etiopía —donde estuvo nuevamente a punto de morir cuando los cocodrilos se comieron su bote— y en el lago Rodolfo, hoy Turkana, en el norte de Kenya. Kimeu y otros colaboradores comenzaban a destellar con grandes hallazgos de restos de varias especies humanas, como Homo habilis y Homo erectus.

Una gran parte de lo que hoy sabemos de la evolución humana en el este de África se debe a las excavaciones dirigidas por Leakey. Pero en realidad muchos de aquellos hallazgos y su estudio científico fueron obra de sus colaboradores formados en la universidad, de quienes Leakey sentía celos por su propia falta de formación. Y al mismo tiempo, otros le envidiaban; de Donald Johanson, el descubridor de la famosa australopiteca Lucy, en un tiempo colaborador de Leakey y después rival, se ha dicho que él realmente quería ser Richard Leakey.

En 1969 se le diagnosticó una enfermedad renal terminal. Los médicos le dieron diez años de vida. Cuando comenzó a empeorar, recibió un trasplante de su hermano Philip, pero lo rechazó. Una vez más estuvo al borde de la muerte. De nuevo sobrevivió y salió adelante. Divorciado de su primera esposa, en 1970 se casó con la también paleoantropóloga Meave Epps, quien tomaría —junto con su hija Louise— el principal relevo de la tradición científica familiar con descubrimientos de gran alcance como el del Kenyanthropus platyops, una rama temprana del linaje humano. En 2009 tuve la ocasión de entrevistar en Madrid a Meave Leakey, una gran dama, cercana y cordial. Le pregunté cuándo tendríamos por fin una idea clara sobre la historia de la evolución humana. Me respondió que dentro de unos cien años, y a fecha de hoy aún no sé si se estaba quedando conmigo. Es lo que tiene la sutileza del humor británico.

Meave Leakey en 2014. Imagen de Pierre-Selim / Wikipedia.

Meave Leakey en 2014. Imagen de Pierre-Selim / Wikipedia.

En 1989 Richard se apartó definitivamente de la paleoantropología cuando el presidente keniano, Daniel arap Moi, le ofreció dirigir el departamento de conservación de fauna, poco después renombrado como Kenya Wildlife Service (KWS). El nombramiento fue recibido con sorpresa, ya que Leakey y Moi no eran precisamente amigos. El que fue el segundo presidente de Kenya después del héroe de la independencia, Jomo Kenyatta, gobernó el país como una dictadura fáctica, cruel y corrupta. Aquello le llevó a perder la confianza de los donantes internacionales, quienes además protestaban por la sangría de elefantes que se estaba cobrando la caza furtiva en Kenya (la caza es ilegal en todo el país desde 1977). Muchos vieron en la designación de Leakey un intento de agradar a la comunidad internacional.

Pero también es cierto que, si alguien podía actuar de forma contundente contra el furtivismo, nadie mejor que Leakey. Nótese que no estamos hablando de lugareños que cazan para su propio consumo; el perfil del furtivo en África no es, pongamos, el del extremeño. En África los furtivos son mercenarios, grupos fuertemente armados que aprovechan cualquier oportunidad para asaltar y a menudo matar a quienes tienen la desgracia de cruzarse en su camino.

Leakey emprendió una cruzada contra los furtivos, dotando patrullas armadas hasta los dientes con la orden de disparar antes de preguntar. Al estilo Leakey, organizó en el Parque Nacional de Nairobi un acto público de incineración de 12 toneladas de marfil incautado a los furtivos, que fue noticia en todo el mundo. Los restos carbonizados de aquellos colmillos hoy todavía pueden verse en el emplazamiento de la pira en el parque.

Pero si Moi esperaba con aquello corromper a Leakey y atraerlo a su bando, no lo consiguió. Leakey podía ser muchas cosas; hay quienes lo han calificado como ególatra, arrogante o engreído. Pero nunca se puso en duda su honradez. Las chispas saltaron entre él y el presidente. En 1993 Leakey pilotaba su avioneta cuando el motor falló y el aparato cayó al suelo. Una vez más sobrevivió milagrosamente, pero perdió las dos piernas por debajo de la rodilla. Él siempre mantuvo que la avioneta había sido saboteada, aunque nunca hubo pruebas. Poco después Moi acusó a Leakey de corrupción, y en 1994 este dimitió del KWS para crear su propio partido político, Safina, El Arca. El gobierno hizo todo lo que pudo por bloquear su reconocimiento legal, y lo consiguió durante años.

Pero todo aquello no era contemplado con buenos ojos por los donantes internacionales, que bloquearon las ayudas a Kenya debido a la corrupción galopante en el país. Como respuesta, Moi nombró a Leakey director de los servicios públicos, una especie de ministro de administraciones públicas. Leakey emprendió una lucha contra la corrupción que incluyó el despido de 25.000 funcionarios. Resultado: dos años después él mismo fue despedido.

Richard Leakey en 2010. Imagen de Ed Schipul / WIkipedia.

Richard Leakey en 2010. Imagen de Ed Schipul / WIkipedia.

Expulsado de la política keniana, emigró a EEUU, donde se dedicó a la conservación de la naturaleza africana. La Universidad Stony Brook de Nueva York le fichó como profesor de antropología, convalidando su falta de estudios con una vida dedicada a la investigación. Regresó a Kenya en 2015 cuando el entonces y actual presidente, Uhuru Kenyatta (hijo de Jomo), le ofreció la presidencia del KWS. Desde entonces y hasta su muerte el pasado 2 de enero de 2022 se ha dedicado a las políticas de conservación. Ya durante este siglo sobrevivió a un nuevo trasplante de riñón, a otro de hígado y a un cáncer de piel. Parecía inmortal. Pero finalmente nadie lo es.

Y si todo lo anterior les ha parecido una vida de película, frente a la cual incluso la de un Hemingway parecería aburrida, no son los únicos: hace unos años se anunció que Angelina Jolie iba a dirigir un biopic sobre Leakey con su entonces marido Brad Pitt en el papel de Richard. El proyecto tenía incluso un título, África (no muy original que digamos, es cierto), y un guion que el propio Leakey leyó y sobre el que protestó porque, según se dijo, el excesivo contenido de violencia y sexo iba a impedirle verla con sus nietos.

Pero a los problemas de presupuesto —es muy caro filmar en Kenya, aunque todo ese dinero nunca se nota en mejoras para la población local— se sumó la separación de la pareja estelar. Angelina ya no quería trabajar con su ex. Se dijo entonces que el proyecto continuaba sin ella, pero eso fue todo. Por mi parte, ignoro si sigue vivo o si se abandonó definitivamente. Ojalá algún día pudiéramos ver terminada esta película; aunque, por desgracia, el propio Leakey ya no podrá verla con sus nietos.

Leakey, Wilson, Lovejoy: la biología pierde tres nombres brillantes

Tal vez hayan aparecido solo como notas breves en las páginas menos leídas de los diarios, o ni eso. Pero durante estas fiestas navideñas de 2021, con pocos días de diferencia, el mundo de la ciencia –sobre todo la biología y aledaños– ha perdido a tres figuras irrepetibles: E. O. Wilson, Thomas Lovejoy y Richard Leakey. Con variadas trayectorias, perfiles y ocupaciones, los tres tenían algo en común: dieron lo mejor de sí mismos vistiendo camisa caqui y calzando botas de campo, como grandes campeones de la conservación de la naturaleza en tiempos en que esta misión es cada vez más urgente y necesaria.

De izquierda a derecha, Thomas Lovejoy (1941-2021) en 1974, E. O. Wilson (1929-2021) en 2003, y Richard Leakey (1944-2022) en 1986. Imágenes de JerryFreilich, Jim Harrison y Rob Bogaerts / Anefo vía Wikipedia.

De izquierda a derecha, Thomas Lovejoy (1941-2021) en 1974, E. O. Wilson (1929-2021) en 2003, y Richard Leakey (1944-2022) en 1986. Imágenes de JerryFreilich, Jim Harrison y Rob Bogaerts / Anefo vía Wikipedia.

El mismo día de Navidad fallecía a los 80 años de un cáncer pancreático el estadounidense Thomas Lovejoy. Su nombre no resultará muy familiar para la mayoría, pero sí la expresión que en 1980 popularizó entre la comunidad científica: diversidad biológica, después acortada a biodiversidad.

Lovejoy fue un biólogo conservacionista que combinó la ciencia con la política en busca de nuevas fórmulas y propuestas que contribuyeran a la protección de la naturaleza, sobre todo en los países con menos recursos para ello, que suelen coincidir también con los de mayor biodiversidad. De joven dedicó su trabajo a las aves de la Amazonia brasileña, lo que le reveló cómo la deforestación estaba provocando una sangría de especies. Esto le llevó a organizar en 1978 en California la primera conferencia internacional sobre biología de la conservación, que sirvió para dar un encaje académico formal a la investigación en esta área de la ciencia.

Pero si Lovejoy sabía moverse en la selva real, fue en la jungla de los despachos donde hizo sus mayores aportaciones, como gran influencer de la conciencia medioambiental. Bajo su liderazgo en EEUU, una pequeña organización llamada WWF se convirtió en el gigante que es hoy. Trabajó con instituciones como National Geographic, Naciones Unidas, Smithsonian o el Banco Mundial, entre otras, perteneció a diversas sociedades científicas y colaboró con varios presidentes de EEUU. Sus estimaciones de 1980 abrieron los ojos al mundo sobre el deterioro de la biodiversidad y la pérdida de especies. Entre los muchos premios que recibió, en 2008 obtuvo el de Fronteras del Conocimiento de la Fundación BBVA.

Con Lovejoy estuvo relacionado el también estadounidense Edward Osborne Wilson, más popular que su colega, conocido como E. O. o por sus sobrenombres, como Ant Man o el Señor de las Hormigas. Fue el mayor especialista mundial en mirmecología, el estudio de este enorme grupo de insectos. El interés por las hormigas le sobrevino a raíz de un accidente infantil de pesca: al tirar demasiado del pez que había mordido su anzuelo, la presa salió disparada del agua y se estrelló contra su cara. Era una clase de perca con duras espinas en la aleta dorsal, una de las cuales le perforó la pupila derecha, lo que unido a un tratamiento médico tardío y defectuoso le arrebató la visión de ese ojo. Más tarde, en la adolescencia le sobrevino una sordera que le incapacitaba para guiarse por el canto de los pájaros o las ranas. Pero su visión del ojo izquierdo era tan fina que comenzó a fijarse en los pequeños seres que no cantan ni croan.

Más allá de las fronteras de su especialidad, el trabajo de Wilson trascendió a la comunidad biológica en general a través de sus estudios sobre sociobiología, la ciencia que busca las raíces biológicas en la evolución del comportamiento y la organización de las sociedades de los vertebrados, incluidos los humanos, basándose en sus teorías sobre los insectos. Su visión de la biología evolutiva fue pionera y original; controvertida, pero inspiradora de grandes debates científicos.

Si Lovejoy era el conseguidor, Wilson era el académico y naturalista, un Darwin de nuestros tiempos. Su trabajo de divulgación y popularización, que llevó a dos de sus libros a ganar sendos premios Pulitzer, le convirtió en una figura mundial de la conservación de la naturaleza, un campo por el que comenzó a interesarse ya en su madurez. Junto a Lovejoy y otros como Paul Ehrlich formaron la primera generación que desde la ciencia hizo saltar la alarma sobre el enorme peligro de la pérdida de biodiversidad para la salud de la biosfera terrestre.

Wilson falleció el 26 de diciembre, un día después que Lovejoy, a los 92 años. Según Science, su muerte se debió a complicaciones después de una punción pulmonar.

El que completa la terna de las figuras de la biología fallecidas estos días es un favorito personal: Richard Leakey nunca fue formalmente un científico, ya que no llegó a estudiar una carrera; su vida no le dejó tiempo para eso. Pero a pesar de ello se le nombra como uno de los paleoantropólogos más reconocibles del siglo XX, y uno de los mayores impulsores de la investigación sobre los orígenes de la humanidad en su cuna africana. El último científico victoriano, se ha dicho de él.

Leakey fue un personaje de novela: un niño de la sabana, un joven aventurero y explorador, guía de safaris, trampero, aviador y buscador de fósiles, un keniano blanco que se metió en política, comprometido con la conservación de la naturaleza y con la lucha contra el totalitarismo y la corrupción política. Y un tipo carismático, inquieto, incómodo y hasta quizá tan difícil de trato que se creó muchos y poderosos enemigos, y su propia mala suerte. Murió este 2 de enero a los 77 años en su casa de Nairobi, sin que se hayan detallado las causas. Pero su vida merece un capítulo aparte. Mañana hablaremos de él.

Comunicar la ciencia también importa sin pandemias ni volcanes

Ayer en Madrid, en la sede del Consejo Superior de Investigaciones Científicas (CSIC), se celebró la ceremonia de entrega de la primera edición de los premios y ayudas CSIC-BBVA de Comunicación Científica. Las distinciones fueron para Materia, la sección de ciencia del diario El País, en la categoría de periodismo, y en la de investigadores divulgadores para Alfredo Corell, José Antonio López, Ignacio López-Goñi, Antoni Trilla y Margarita del Val. En cuanto a las ayudas para jóvenes periodistas, las galardonadas fueron Lucía Casas, Leyre Flamarique y Ana Iglesias.

Esto no pretende ser una crónica del acto; quien esté interesado en ello podrá encontrarla en la web del CSIC. Pero a raíz de lo dicho y escuchado ayer, merece la pena destacar alguna cosa y hacer una pequeña reflexión.

Los galardonados en la I Edición de los premios y ayudas a la comunicación científica del CSIC y la Fundación BBVA. Imagen de FBBVA.

Los galardonados en la I Edición de los premios y ayudas a la comunicación científica del CSIC y la Fundación BBVA. Imagen de FBBVA.

Los premios y ayudas se otorgan por primera vez este año dentro del Programa de Impulso a la Comunicación Científica creado por el CSIC y la Fundación BBVA, y que ha nacido a raíz de la pandemia de COVID-19. Según comentó en su discurso el director de la fundación, Rafael Pardo, habitualmente solo de un 8 a un 10% del público sigue las noticias de ciencia. Esto explotó durante la pandemia, cuando la gente buscaba masivamente los avances científicos en la lucha contra el coronavirus. Los medios intensificaron sus espacios dedicados a este campo urgente de la ciencia, pero también proliferaron los bulos y las desinformaciones, por lo que el periodismo riguroso y la participación de los verdaderos expertos se hicieron más necesarios que nunca.

En la información de los medios sobre los aspectos científicos de la pandemia, ha destacado la labor de Materia, el grupo de periodistas de ciencia liderado por Patricia Fernández de Lis e integrado además por Manuel Ansede, Miguel Criado, Francisco Doménech, Nuño Domínguez, Daniel Mediavilla y Javier Salas; todos ellos antiguos compañeros en la finada sección de ciencias del diario Público, que fue disuelta cuando el periódico desapareció en su versión papel y se convirtió en otra cosa.

Me consta que los comienzos de Materia hace casi un decenio fueron muy difíciles, en un local prestado de la Comisión de Ayuda al Refugiado en el centro de Madrid, lo cual es poéticamente simbólico. Pero el duro trabajo y la valía de todos los miembros del grupo consiguió abrir un hueco a algo tan improbable como una agencia startup independiente de noticias de ciencia, que finalmente se incorporó al diario El País como su sección de ciencia.

En estos ya casi dos años de pandemia, Materia ha informado exhaustivamente y con rigor sobre los progresos de la ciencia contra esta crisis global. Algunas de sus historias han sido referencia mundial, como el reportaje infográfico sobre la transmisión del coronavirus por aerosoles en interiores, que se ha traducido a varios idiomas, siendo la pieza más leída de toda la historia del diario y acumulando varios premios; el último, esta semana, el Kavli de periodismo de ciencia de la American Association for the Advancement of Science, un equivalente al Pulitzer de la especialidad.

Durante la pandemia ha sido constante también la divulgación de los investigadores a través de los medios. De entre los científicos en activo que se han ocupado de acercar la ciencia del coronavirus al público, el jurado de los premios ha distinguido la labor de los cinco mencionados, que se han prodigado en sus apariciones y han llegado a convertirse en los expertos de cabecera para un gran número de medios. Por supuesto, no han sido los únicos, y algunas otras voces valiosas también habrían merecido este reconocimiento. Lo cual es inevitable en todo premio, pero que además en este caso lamentablemente no permite distinguir entre los verdaderos candidatos que se han quedado fuera –los que ya eran expertos antes de la pandemia– y otros.

Lo anterior es el reconocimiento al trabajo ya hecho, que siempre es debido cuando es merecido. Pero sin duda el aspecto más valioso de este nuevo programa es la concesión de ayudas a jóvenes periodistas que quieren especializarse en información científica, y que facilita que las tres galardonadas se integren (se empotren, en lenguaje de periodismo de guerra) sucesivamente en tres centros del CSIC para aprender cómo es el día a día en un laboratorio y cómo se lleva a cabo el trabajo científico.

Esta iniciativa rellena un hueco que es imprescindible rellenar por múltiples vías, porque este es el futuro. Los periodistas no suelen tener formación en ciencia, y menos aún experiencia directa. Cuando surge una pandemia y a la mayoría de la gente le interesa la información científica, una redacción de ciencia sólida y con criterio es algo que no se puede improvisar. O se tenía antes, o no se tiene. Y esto ha marcado una clara diferencia entre Materia/El País y otros medios que no cuentan con una sección de ciencia formada por verdaderos especialistas.

Por supuesto que un o una profesional del periodismo sin formación científica directa, pero con la suficiente valía y años de trabajo, puede convertirse en un excelente periodista de ciencia. Hay ejemplos brillantes de ello. Y por supuesto que existe una oferta de formación que sirve de puente entre ciencias y letras a través de ese abismo tradicional que ha sido una lacra en el sistema universitario de España. Pero para comprender de verdad qué es la ciencia, para qué sirve y para qué no, cómo funciona, cuáles son sus fortalezas y limitaciones, la posibilidad de que jóvenes periodistas trabajen codo con codo con los científicos durante un año es infinitamente mejor que cien clases magistrales. Sin duda las agraciadas con estas ayudas terminarán este periodo formativo con un nivel de preparación equivalente al de cualquier periodista especializado en países donde esta formación mixta o puente es fruto de un bagaje científico histórico mucho más potente que el nuestro.

Ahora bien, existe el evidente riesgo de que su camino profesional termine siendo el de la comunicación corporativa o institucional, y no el del periodismo. Entiéndase, riesgo para el periodismo, no para ellas. La comunicación científica existe, está mejor retribuida y es profesionalmente más estable que el periodismo de ciencia. Muchos buenos periodistas de ciencia acaban derivando hacia la comunicación, cansados de comprobar cómo los medios abren la puerta a periodistas expertos en política, economía o deportes, pagando lo que valen, y cómo la cierran a los especialistas en ciencia para cubrir ese hueco con jóvenes sin la suficiente experiencia ni comprensión de la ciencia. Esto marca la diferencia, por ejemplo, entre Materia y otros.

Pero es una diferencia que, se supone, el público no sabe apreciar. Salvo, claro, cuando el público hace de una pieza de ciencia en un medio la más leída en la historia de ese medio. Lo que no ocurre con otras piezas en otros medios.

Mi sensación personal durante la larguísima ceremonia de entrega de los premios y ayudas –cuando alguno de los propios agraciados que recibían un premio económico muy sustancioso la define como un tostón, quizá un replanteamiento sería oportuno– fue la de esas arengas de los entrenadores a sus jugadores en el vestuario antes del partido, o de los comandantes a sus soldados antes de la batalla. Todos los allí presentes ya llegábamos previamente convencidos de la importancia del periodismo de ciencia. Quienes no están convencidos de ello no estaban allí. ¿Ha trascendido algo de lo que allí se dijo? ¿Ha aparecido en los noticiarios de las radios y las televisiones?

Durante la gala se comentó también que, después del explosivo interés por las noticias científicas durante lo más crudo de la pandemia y con la salvedad aún del volcán de La Palma y de la conferencia COP26 del cambio climático, a medida que las aguas vuelven a su cauce la ciencia regresa a su lugar anterior, a las catacumbas de las páginas y las webs de los medios. Claro está, con las honrosas excepciones de aquellos que han mantenido sus apuestas antes y durante la pandemia, y seguirán manteniéndolas después de la pandemia.

Para otros medios, las noticias de ciencia volverán a ser aquello que conté en el primer post de este blog en febrero de 2014 y que decía un director de periódico de la vieja escuela, el tipo de perfil que no estaba presente en la gala ni se le esperaba: «la sonrisa, el invento y la curiosidad». Algo con lo que distraerse un poco entre las noticias realmente importantes, aquellas que cuentan lo que los políticos han dicho hoy. ¿Solo cuando hay una tragedia puede apreciarse la importancia en la sociedad de la información y la divulgación científica?

Así se verían los planetas en el lugar de la Luna y otras estrellas en el lugar del Sol

Existen ciertos tipos por ahí que en lugar de dedicar su tiempo –libre o no– delante de una pantalla a pergeñar memes pretendidamente graciosos, o a vomitar espumarajos en Twitter contra el bando contrario, lo destinan a crear afición por la ciencia y el conocimiento, fabricando maravillas en animaciones o vídeos que nos dejan boquiabiertos. Lo cual es de agradecer. Y de divulgar.

Hoy les traigo algunos de estos vídeos cuyo propósito común es mostrarnos la escala de aquello que normalmente nos queda fuera de escala. Somos seres pequeños en un planeta relativamente pequeño, y para representar la inmensidad del cosmos nos vemos obligados no solo a reducirlo todo a tamaños manejables, sino además a perder la idea de la escala. Pero no hay nada para darnos cuenta de nuestra insignificancia como tirar de metáforas visuales. Por ejemplo, ¿cómo veríamos los planetas de nuestro Sistema Solar si ocuparan el lugar de la Luna?

Saturno sobre Madrid. Imagen de Álvaro Gracia Montoya / MetaBallStudios / YouTube.

Saturno sobre Madrid. Imagen de Álvaro Gracia Montoya / MetaBallStudios / YouTube.

Eso es lo que muestra este vídeo del astrónomo amateur Nicholas Holmes:

Holmes ha hecho también una versión nocturna:

Otros vídeos han tratado la misma idea, por ejemplo este de Álvaro Gracia Montoya, que nos muestra los planetas sobre el familiar skyline del centro de Madrid:

O este publicado por la agencia rusa del espacio Roscosmos:

De propina, también de Roscosmos es este otro vídeo que nos enseña cómo sería el panorama de nuestro cielo si en el lugar del Sol tuviéramos alguna otra de las estrellas cercanas, como el sistema Alfa Centauri, Sirio, Arturo, Vega o la supergigante Polaris (la Estrella Polar).

Naturalmente, todos estos magníficos vídeos solo tienen por objeto mostrar una representación visual ficticia, sin ninguna intención de reflejar situaciones científicamente realistas. De hecho, nada sería como lo conocemos, ni habría nadie para conocerlo, si la Tierra estuviera a tan corta distancia de esos planetas o estrellas gigantes. Como ya he contado aquí, los estudios de la ciencia planetaria en los últimos años tienden a sugerir no solo que el nuestro es un planeta raro por sus propias características, sino que incluso toda la arquitectura precisa del Sistema Solar ha sido también un factor influyente para permitir la existencia de esta roca mojada que llamamos hogar.

Qué es el otoño, en dos patadas

¿Qué es el otoño, mamá/papá? A la pregunta de los tiernos infantes durante estos días, un buen número de madres y padres optarán por distintas estrategias de respuesta: la poética («cariño, el otoño es una rabiosa paleta de ocres y dorados salpicada sobre los campos como una lluvia de purpurina»), la evasiva («pues hijo, es lo que viene después del verano y antes del invierno») o la de Donald Trump («que alguien se lleve a este niño»).

Ni siquiera un subrepticio vistazo a la Wikipedia será de gran ayuda: bastará empezar a leer sobre equinoccios, eclípticas y declinaciones para que una mayoría se decante por la opción c. Pero en realidad, puede ser mucho más sencillo. Aquí lo explico en dos patadas. Eso sí, si hay algún astrónomo en la sala, les ruego que sean clementes y no se me lancen al cuello.

Otoño. Imagen de publicdomainpictures.net.

Otoño. Imagen de publicdomainpictures.net.

Sabemos que el Sol recorre el cielo todos los días, pero este camino va variando a lo largo del año. En un mediodía de verano lo vemos más alto en el cielo, mientras que en invierno sube hasta una altura menor. Imaginemos que la Tierra es un campo de juego. La línea del centro del campo es el ecuador que lo divide en dos mitades, lo que serían nuestros dos hemisferios. Yo me encuentro en el hemisferio norte, así que lo cuento desde mi perspectiva.

Durante la primavera, el Sol está en nuestro campo, y continúa adentrándose más en él hasta el 21 de junio, el comienzo del verano. Ese día alcanza su punto más lejano del centro del campo (el ecuador) y más cercano a nuestra portería, trayéndonos más horas de luz y menos de noche. A partir de entonces, comienza a retirarse hasta el comienzo del otoño (este año, 22 de septiembre); ese día cruza el centro del campo, el ecuador, y continúa su recorrido por el campo contrario (el hemisferio sur) hasta el 21 de diciembre (comienzo del invierno). Y luego, vuelta a empezar.

En resumen: los días de comienzo de primavera y otoño son los dos momentos del año en que el Sol cruza el ecuador. Y dado que esos dos días está en territorio neutral, el día y la noche duran entonces exactamente lo mismo en todos los puntos del planeta: 12 horas de luz, 12 horas de oscuridad. A partir del comienzo del otoño, en el hemisferio norte la noche comienza a ganar minutos al día, mientras que en el sur es al contrario.

Pero debo aclarar que, en la situación real, no tenemos calor en verano y frío en invierno porque el Sol esté más cerca o más lejos de nosotros; nuestra distancia a él es siempre tan grande que esto no influye. La razón de la diferencia de temperatura entre las estaciones se debe a que sus rayos nos caen más directamente en verano y más de refilón en invierno, cuando lo vemos ascender más perezosamente por el cielo.

Así que, lo prometido:

Primera patada: el otoño es cuando el Sol cruza el ecuador para marcharse hacia el hemisferio sur.

Segunda patada: el primer día del otoño es cuando el día dura lo mismo que la noche, antes de que la noche empiece a ganar minutos al día.

Pero aún hay otra patada extra:

Otro de los signos típicos del otoño es que las hojas comienzan a amarillear y a caerse. Pero ¿cómo saben las plantas que ha llegado el otoño? En contra de lo que pudiera parecer, no se debe a las temperaturas, sino a la luz. Es la diferencia en la duración de los días lo que informa a las plantas de que ha llegado el otoño.

En realidad los vegetales no necesitan estar continuamente pendientes de la señal exterior de luz: cuentan con un reloj interno que funciona solo y que les permite guiarse. Este reloj interno sigue activo incluso si las mantenemos con iluminación artificial, aunque las plantas cuentan con el Sol para ajustar su reloj, del mismo modo que nosotros comprobamos el móvil de vez en cuando para poner en hora los relojes de casa.

Girasol. Imagen de Wikipedia.

Girasol. Imagen de Wikipedia.

Un estudio publicado este pasado agosto ha mostrado cómo funciona el reloj interno de las plantas para el caso de los girasoles, con su maravillosa habilidad de contemplar el Sol en su camino a través del cielo. Y con su maravilloso regalo de las pipas.

Sabemos que los girasoles miran al Sol cuando sale por el este y después van rotando su cabeza a medida que transcurre el día, hasta que acaban de cara hacia el oeste en el ocaso. Durante la noche, vuelven a girar para esperar el regreso del Sol al alba.

Los investigadores, de las Universidades de California y Virginia, crecieron las plantas en un espacio interior con una iluminación fija. Descubrieron que durante unos días los girasoles continuaban ejecutando su ritual de este-oeste, hasta que se detenían; se paraban cuando trataban de poner en hora su reloj sincronizándolo con el Sol, pero no lo conseguían.

A continuación, los científicos crearon un día artificial, encendiendo y apagando luces de este a oeste en el espacio interior. Los girasoles volvían entonces a recuperar su movimiento. Pero curiosamente, cuando los investigadores estiraban el día artificial hasta las 30 horas, las plantas perdían la orientación; su reloj interno, como los que fabricamos los humanos, no puede manejar días de 30 horas.

Para entender cómo los girasoles controlan su movimiento, los investigadores pintaron puntos de tinta en ambos lados del tallo, que miran respectivamente hacia el este y el oeste, y midieron la distancia entre ellos a lo largo del tiempo. Descubrieron entonces que durante el día crece más la cara del tallo orientada hacia el este, mientras que por la noche ocurre lo contrario. Este crecimiento diferente en ambos lados del tallo, que está controlado por genes dependientes del reloj interno y de la luz, es el que consigue que la cabeza vaya girando a lo largo del ciclo de 24 horas.

En resumen, el girasol tiene dos tipos de crecimiento: uno continuo, como el resto de plantas, y otro controlado por el reloj interno, cuya precisión depende de esa sincronización con el Sol.

Pero aún falta lo mejor. Los autores del estudio se preguntaron por qué los girasoles, cuando maduran, se quedan permanentemente mirando hacia el este. Y descubrieron algo asombroso: las plantas que miran hacia el este cuando sale el Sol se calientan más por la mañana, y esta mayor temperatura atrae a los insectos polinizadores. Los girasoles encarados hacia la salida del Sol recibían cinco veces más visitas de abejas que las flores inmovilizadas por los investigadores para que miraran hacia el oeste. Cuando anulaban la diferencia de temperatura utilizando un calefactor, las abejas visitaban por igual ambos grupos de flores.

Así, las plantas que esperan a ser polinizadas se quedan de cara al este porque eso les permite reproducirse con mayor facilidad. Pero entonces, ¿por qué no se quedan siempre en esa posición?, se preguntarán. También hay una razón para esto: las plantas que siguen el movimiento del Sol durante su crecimiento reciben así más luz, y consiguen hojas más grandes.

Eso es todo. ¿Ven cómo se puede explicar sin mencionar las palabras equinoccio, solsticio, eclíptica o ritmos circadianos?

Cuando comer cadáver humano estaba de moda en Europa

Hace unos días elaboré una lista de diez libros sobre ciencia para leer este verano (aún no publicada), algo que suelo hacer por estas fechas para cierto medio. Por desgracia y como bien saben los periodistas de cultura (me consta como autor), aunque tal vez no el público en general, el ritmo del trabajo periodístico y las limitaciones del cerebro humano imposibilitan el leer diez libros en un par de días, así que debemos conformarnos con un análisis de la estructura y un muestreo del contenido con eso que suele llamarse lectura en diagonal (en realidad tan absurdo como, por ejemplo, hablar de practicar sexo en diagonal; o hay sexo, o no hay sexo).

Entre los libros que reseñé hay uno que reposa justo a la izquierda de estas líneas que escribo y que espera la primera oportunidad para hincarle el diente. Lamentablemente, debo aclarar que (aún) no hay una traducción española. Y más lamentablemente aún, y por si alguien se lo pregunta, hay por ahí una mayoría de libros magníficos sobre temas relacionados con la ciencia que jamás se traducen ni se traducirán al español.

Por poner sólo un caso, aún me hace frotarme los ojos que The Making of the Atomic Bomb de Richard Rhodes, publicado en 1986 y ganador del premio Pulitzer en 1988 (ha habido tiempo suficiente), traducido a una docena de idiomas, no esté disponible en castellano (y si alguna vez lo estuvo, que no lo puedo saber con certeza, estaría descatalogado). Y que en cambio sí se traduzcan otras cosas, de las que no voy a poner ejemplos.

mummiescannibalsandvampiresPero voy al grano. El libro en cuestión es Mummies, Cannibals and Vampires: The History of Corpse Medicine from the Renaissance to the Victorians, o traducido, Momias, caníbales y vampiros: La historia de la medicina de cadáveres del Renacimiento a los victorianos. Su autor es Richard Sugg, profesor de literatura de la Universidad de Durham (Reino Unido). La novedad es que recientemente se ha publicado una segunda edición y, al tratarse de un trabajo de investigación, el autor ha incluido nuevos materiales. En Amazon España se puede comprar la nueva edición en versión Kindle, pero en papel solo está disponible la primera edición. Quien quiera la nueva versión en papel podrá encontrarla en Amazon UK.

Lo que Sugg cuenta en su libro es un capítulo de la historia de Europa desconocido para la mayoría: el uso de partes de cadáveres humanos, como huesos, piel, sesos, grasa, carne o sangre, para tratar múltiples enfermedades, desde la epilepsia a la gota, el cáncer, la peste o incluso la depresión. Resulta curioso, como conté recientemente en un reportaje, que los navegantes y exploradores europeos tildaran fácilmente de caníbales a las tribus indígenas con las que se encontraban en sus viajes por el mundo, cuando también ocurría precisamente lo contrario, que los nativos veían a aquellos extranjeros como antropófagos.

Pero si los europeos a veces estaban en lo cierto, no menos los indígenas: la medicina de cadáveres fue muy popular en Europa durante siglos, y no como algo marginal y secreto. Al contrario, no era un material fácilmente accesible, por lo que su uso era frecuente entre la nobleza, el clero y las clases acomodadas. Y aunque fue desapareciendo en el último par de siglos, se registran casos incluso a comienzos del siglo XX: según una de las fuentes de mi reportaje, en 1910 todavía una compañía farmacéutica alemana listaba en su catálogo de productos el polvo de momias expoliadas de Egipto, uno de los productos estrella de la medicina de cadáveres.

Ahí dejo la sugerencia; un libro muy recomendable para este verano. Pero intrigado por saber algo más sobre las investigaciones de Richard Sugg, me puse en contacto con él y le hice algunas preguntas sobre la historia del canibalismo. Esto es lo que el autor me contó. Lean, que merece la pena.

¿Cómo surgió la medicina de cadáveres?

La práctica médica en Europa parece haber surgido en la Edad Media. Pero a pesar de que suele repetirse que fue un fenómeno puramente medieval, se prolongó entre los ilustrados hasta mediados del siglo XVIII y probablemente alcanzó su esplendor a finales del XVII, precisamente cuando comenzaba la Revolución Científica. Todavía en 1770 había un impuesto sobre los cráneos importados de Irlanda para utilizarse como medicinas en Gran Bretaña y Alemania.

¿Cuándo empezó el canibalismo a convertirse en un tabú entre los seres humanos?

Por su propia naturaleza, sabemos muy poco de las tribus caníbales aisladas en períodos antiguos. Aunque el canibalismo de subsistencia es diferente, el hecho de que estos episodios se registraran nos indica que se estaba violando un tabú. Un ejemplo temprano es el del sitio de Samaria (724-722 a. C.), cuando supuestamente las madres se comieron a sus propios hijos. Más tarde, el cristiano Tertuliano (c. 150-222 d. C.) informaba irónicamente sobre las leyendas urbanas en torno a esta nueva secta, a cuyos miembros se les acusaba de asesinar a niños y beberse su sangre. También la siniestra reputación de los cristianos en aquella época implica que el canibalismo ya era un tabú.

Pero nunca ha llegado a desaparecer.

El canibalismo y beber sangre han sido recursos en todas las épocas en casos de hambrunas, naufragios y otras situaciones desesperadas. Hay muchos relatos de ello en travesías marítimas en el siglo XIX. El caso más notorio fue el de un grumete, Richard Parker, asesinado para comérselo después del naufragio del yate Mignonette en 1884. Un caso más reciente ocurrió después del fiasco de la Bahía de Cochinos en 1961, cuando un grupo de exiliados cubanos recurrió al canibalismo estando a la deriva en el mar durante 16 días. En 1998 The Times contaba el caso de Julio Pestonit, de 57 años, que relató al canal de noticias Fox en Nueva York cómo por entonces, con 20 años, fue uno de los 1.500 exiliados implicados en el intento frustrado de invasión de Cuba con el apoyo de la CIA. Tras eludir la captura, 22 exiliados se hicieron a la mar en un bote muy frágil sin comida ni agua, y pronto empezaron a morir. Pestonit dijo: «El grupo comió un cadáver con mucha reticencia. Yo comí algo del interior del cuerpo que me pasaron. Era una locura. Era como estar en el infierno».

¿Sigue siendo práctica habitual hoy en algunas culturas?

El canibalismo intrínseco o ritual en ciertas tribus puede ser una táctica para aterrorizar a los enemigos, o bien puede ser un rito funerario, lo cual es una práctica formal religiosa y consensuada. En el primer caso las víctimas suelen saber que serán comidas si los matan; entre los tupinamba de Brasil la víctima capturada era incorporada a la tribu de sus captores durante un año, se le daba una esposa, tenía un hijo, y trabajaba junto a los demás antes de ser asesinado y devorado ceremonialmente. En ambos casos la práctica puede incluir un deseo de reciclar o absorber el poder espiritual o el alma de la persona. Daniel Korn, Mark Radice y Charlie Hawes han mostrado que en el caso de los caníbales de Fiji esto era muy preciso: creían que el espíritu se aferraba al cadáver durante cuatro días. Comer el cuerpo aniquilaba el espíritu y le impedía ascender al mundo de los espíritus para servir de guía y dar fuerza al enemigo.

¿Diría que antiguamente los exploradores occidentales utilizaron todo esto como excusa para justificar la necesidad de colonización con el fin de «civilizar a los salvajes»?

Así es. En 1503, la reina Isabel de España dictó que sus compatriotas podían legítimamente esclavizar solo a los caníbales. Por supuesto, esto impulsó la invención de caníbales que no existían, aunque ciertamente los había. En 1510, el Papa Inocencio IV definió el canibalismo como un pecado que los soldados cristianos estaban obligados a castigar, no solo que tuvieran el derecho de hacerlo. Si creemos los relatos del testigo y jesuita español Bartolomé de las Casas (1474-1566), los invasores españoles terminaron haciendo a los habitantes nativos, caníbales o no, cosas mucho peores que esta.

Mucho más reciente es el caso relatado por la antropóloga Beth A. Conklin. Al parecer en la década de 1960 los wari’, una tribu de Brasil, todavía practicaban canibalismo funerario. Cuando los misioneros cristianos llegaron allí, llevaron consigo enfermedades contra las que los wari’ no estaban inmunizados, y les dieron medicinas solo con la condición de que abandonaran lo que para ellos era una práctica solemne y una parte importante de la psicología del duelo y la pérdida. En todos estos casos, exceptuando el canibalismo de subsistencia, la práctica de comer personas ha sido altamente cultural, y no una actividad puramente natural o bestialmente salvaje.

Este es el mejor monólogo sobre ciencia jamás escrito

Les aseguro que no les traería aquí un vídeo de 20 minutos y 46 segundos, en inglés y sin subtítulos en castellano, si no fuera porque es el comentario sobre el funcionamiento de la ciencia –y su comunicación– más atinado e informado, además de divertido, que jamás he visto en un medio televisivo (medio al que, todo hay que decirlo, no soy muy adepto). Si dominan el idioma, les recomiendo muy vivamente que lo sigan de cabo a rabo (el final es apoteósico). Y si no es así, a continuación les resumiré los fragmentos más sabrosos. El vídeo, al pie del artículo.

John Oliver. Imagen de YouTube.

John Oliver. Imagen de YouTube.

Su protagonista es John Oliver, humorista británico que presenta el programa Last Week Tonight with John Oliver en la HBO estadounidense. Oliver despliega un humor repleto de inteligencia e ironía, de ese que no suele abundar por aquí. Hace algo más de un año traje aquí una deliciosa entrevista de Oliver con el físico Stephen Hawking.

En esta ocasión, Oliver se ocupa de la ciencia, bajo una clara pregunta: ¿Es la ciencia una gilipollez? Naturalmente, el presentador no trata de ridiculizar la ciencia, sino todo lo contrario, criticar a quienes dan de ella una imagen ridícula a través de la mala ciencia y el mal periodismo.

Para ilustrar cuál es el quid, comienza mostrando algunos fragmentos de informativos de televisión en los que se anuncian noticias presuntamente científicas como estas: el azúcar podría acelerar el crecimiento del cáncer, picar algo a altas horas de la noche daña el cerebro, la pizza es la comida más adictiva, abrazar a los perros es malo para ellos, o beber una copa de vino equivale a una hora de gimnasio.

Sí, ya lo han adivinado: la cosa va de correlación versus causalidad, un asunto tratado infinidad de veces en este blog; la última de ellas, si no me falla la memoria, esta. Les recuerdo que se trata de todos aquellos estudios epidemiológicos del tipo «hacer/comer x causa/previene y». Estudios que se hacen en dos tardes cruzando datos en un ordenador hasta que se obtiene lo que se conoce como una «correlación estadísticamente significativa», aunque no tenga sentido alguno, aunque no exista ningún vínculo plausible, no digamos ya una demostración de causalidad. Pero que en cambio, dan un buen titular.

Naturalmente, a menudo esos titulares engañosos se contradicen unos a otros. Oliver saca a la palestra varias aseveraciones sobre lo bueno y lo malo que es el café al mismo tiempo, para concluir: «El café hoy es como Dios en el Antiguo Testamento: podía salvarte o matarte, dependiendo de cuánto creyeras en sus poderes mágicos». Y añade: «La ciencia no es una gilipollez, pero hay un montón de gilipolleces disfrazadas de ciencia».

Pero el humor de Oliver esconde un análisis básico, aunque claro y certero, sobre las causas de todo esto. Primero, no toda la ciencia es de la misma calidad, y esto es algo que los periodistas deberían tener el suficiente criterio para juzgar, en lugar de dar el ridículo marchamo de «lo dice la Ciencia» (con C mayúscula) a todo lo que sale por el tubo, sea lo que sea. Segundo, la carrera científica hoy está minada por el virus del «publish or perish«, la necesidad de publicar a toda costa para conseguir proyectos, becas y contratos. No son solo los científicos quienes sienten la presión de conseguir un buen titular; los periodistas también se dejan seducir por este cebo. Para unos y otros, la presión es una razón de la mala praxis, pero nunca una disculpa.

El vídeo demuestra que Oliver está bien informado y asesorado, porque explica perfectamente cómo se producen estos estudios fraudulentos: manipulando los datos de forma más o menos sutil o descarada para obtener un valor p (ya hablé de este parámetro aquí y aquí) menor del estándar normalmente requerido para que el resultado pueda considerarse «estadísticamente significativo»; «aunque no tenga ningún sentido», añade el humorista. Como ejemplos, cita algunas de estas correlaciones deliberadamente absurdas, pero auténticas, publicadas en la web FiveThirtyEight: comer repollo con tener el ombligo hacia dentro. Aquí he citado anteriormente alguna del mismo tipo, e incluso las he fabricado yo mismo.

Otro problema, subraya Oliver, es que no se hacen estudios para comprobar los resultados de otros. Los estudios de replicación no interesan, no se financian. «No hay premio Nobel de comprobación de datos», bromea el presentador. Y de hecho, la reproducibilidad de los experimentos es una de las grandes preocupaciones hoy en el mundo de la publicación científica.

Oliver arremete también contra otro vicio del proceso, ya en el lado periodístico de la frontera. ¿Cuántas veces habremos leído una nota de prensa por el atractivo de su titular, para después descubrir que el contenido del estudio no justificaba ni mucho menos lo anunciado? Oliver cita un ejemplo de este mismo año: un estudio no encontraba ninguna diferencia entre el consumo de chocolate alto y bajo en flavonol en el riesgo de preeclampsia o hipertensión en las mujeres embarazadas. Pero la sociedad científica que auspiciaba el estudio tituló su nota de prensa: «Los beneficios del chocolate durante el embarazo». Y un canal de televisión picó, contando que comer chocolate durante el embarazo es beneficioso para el bebé, sobre todo en las mujeres con riesgo de preeclampsia o hipertensión. «¡Excepto que eso no es lo que dice el estudio!», exclama el humorista.

Otro titular descacharrante apareció nada menos que en la revista Time: «Los científicos dicen que oler pedos podría prevenir el cáncer». Oliver aclara cuál era la conclusión real del estudio en cuestión, que por supuesto jamás mencionaba los pedos ni el cáncer, sino que apuntaba a ciertos compuestos de sulfuro como herramientas farmacológicas para estudiar las disfunciones mitocondriales. Según el humorista, en este caso la historia fue después corregida, pero los investigadores aún reciben periódicamente llamadas de algunos medios para preguntarles sobre los pedos.

Claro que no hace falta marcharnos tan lejos para encontrar este tipo de titulares descaradamente mentirosos. Hace un par de meses conté aquí una aberración titulada «La inteligencia se hereda de la madre», cuando el título correcto habría sido «Las discapacidades mentales están más frecuentemente ligadas al cromosoma X». No me he molestado en comprobar si la historia original se ha corregido; como es obvio, el medio en cuestión no era la revista Time.

Y por cierto, esta semana he sabido de otro caso gracias a mi vecina de blog Madre Reciente: «Las mujeres que van a misa tienen mejor salud», decía un titular en La Razón. Para no desviarme de lo que he venido a contar hoy, no voy a entrar en detalle en el estudio en cuestión. Solo un par de apuntes: para empezar, las mujeres del estudio eran casi exclusivamente enfermeras blancas cristianas estadounidenses, así que la primera enmienda al titular sería esta: «Las enfermeras blancas cristianas estadounidenses que van a misa tienen mejor salud». Y a ver cómo se vende este titular.

Pero curiosamente, la población del estudio no presenta grandes diferencias en sus factores de salud registrados, excepto en dos: alcohol y tabaco. Cuanto más van a misa, menos fuman y beben. Por ejemplo, fuma un 20% de las que no van nunca, 14% de las que acuden menos de una vez a la semana, 10% de las enfermeras de misa semanal, y solo el 5% de las que repiten durante la semana. Así que, ¿qué tal «Las enfermeras blancas cristianas estadounidenses que menos fuman y beben tienen mejor salud»?. Para esta correlación sí habría un vínculo causal creíble.

Claro que tampoco vayan a pensar que hablamos de conseguir la inmortalidad: según el estudio, las que fuman y beben menos/van a misa más de una vez por semana viven 0,43 años más; es decir, unos cinco meses. Así que el resultado final es: «El tabaco y el alcohol podrían robar unos cinco meses de vida a las enfermeras blancas cristianas estadounidenses». Impresionante documento, ¿no?

Pero regresando a Oliver, el presentador continúa citando más ejemplos de estudios y titulares tan llamativos como sesgados: muestras pequeñas, resultados en ratones que se cuentan como si directamente pudieran extrapolarse a humanos, trabajos financiados por compañías interesadas en promocionar sus productos… El habitual campo minado de la comunicación de la ciencia, sobre el cual hay que pisar de puntillas.

Oliver concluye ilustrando la enorme confusión que crea todo este ruido en la opinión pública: el resultado son las frases que se escuchan en la calle, como «vale, si ya sabemos que todo da cáncer», o «pues antes decían lo contrario». El humorista enseña un fragmento de un magazine televisivo en el que un tertuliano osa manifestar: «Creo que la manera de vivir tu vida es: encuentras el estudio que te suena mejor, y te ciñes a eso». Oliver replica exaltado: «¡No, no, no, no, no! En ciencia no te limitas a escoger a dedo las partes que justifican lo que de todos modos vas a hacer. ¡Eso es la religión!». El monólogo da paso a un genial sketch parodiando las charlas TED. Les dejo con John Oliver. Y de verdad, no se lo pierdan.

2015, el año de CRISPR: llega la revolución genómica

Las doce campanadas del 31 de diciembre cerrarán un año científico que ha satisfecho su mayor expectativa: enseñarnos cómo es Plutón, completando el álbum de cromos de los principales cuerpos del Sistema Solar. Esta misión cumplida encabezaría el Top 10 de la ciencia en estos doce meses de no ser porque 2015 deberá recordarse como el año en que comenzó a hacerse palpable –y discutible, como ahora contaré– la promesa de CRISPR, la nueva tecnología que está llamada a revolucionar la edición genómica. Hoy hablamos de este avance que merece el número 1 en el elenco de los hitos científicos de 2015; mañana continuaremos con los demás.

Un embrión de cuatro células. Imagen de E.C. Raff and R.A. Raff / Indiana University.

Un embrión de cuatro células. Imagen de E.C. Raff and R.A. Raff / Indiana University.

Tal vez ustedes tengan la sensación de que llevan décadas oyendo hablar de la terapia génica y de que todas aquellas promesas aún no se han hecho realidad. Tengan en cuenta que la prensa pregona los éxitos, ignora los fracasos y siempre tiende a añadir coletillas que dejan la impresión de que cualquier nuevo avance será una panacea en unos pocos años.

Pero es cierto que la trayectoria de la terapia génica ha sido parecida al viaje de Frodo, con pronunciados altibajos y momentos de profundas crisis. Y con todo esto, como Frodo, este enfoque terapéutico continúa avanzando hacia su destino. Una revisión reciente en Nature proclamaba que la terapia génica vuelve a estar en el centro del escenario, gracias a los triunfos que han ido acumulándose en los últimos años. Y hoy las perspectivas son mejores que nunca gracias a CRISPR.

En este blog no he escatimado elogios hacia la que ahora se presenta como la gran tecnología genética del siglo que acaba de comenzar. En 2012 las investigadoras Emmanuelle Charpentier y Jennifer Doudna transformaron un mecanismo de defensa natural de las bacterias en el sistema más preciso y eficaz conocido hasta hoy para cortar y pegar genes. Desde entonces, CRISPR-Cas9 se ha convertido en el avance más revolucionario en biología molecular desde los años 70, cuando comenzaron a popularizarse las llamadas enzimas de restricción que hemos utilizado durante décadas.

El sistema CRISPR-Cas9, al que ya se han añadido otras variantes, permite editar genes, es decir, cortar y pegar trozos de ADN de forma dirigida y precisa, lo que extiende sus aplicaciones desde la investigación básica hasta la terapia génica; o incluso la recreación de los mamuts, como ya han avanzado este año al menos dos grupos de investigadores. Gracias a todo ello, Charpentier y Doudna ya no saben ni por dónde les llegan los premios; entre otros, el Princesa de Asturias de Investigación 2015, un fallo muy acertado.

Aunque CRISPR no es una tecnología surgida este año, 2015 ha sido un año clave por varias razones. Su uso se ha generalizado en los laboratorios, lo que ha permitido que aparezcan variantes, mejoras y nuevas maneras de aplicarlo. Pero también se ha abierto el debate sobre las perspectivas de aplicarlo a la edición genómica en embriones humanos destinados a la reproducción, un campo que podría traer inmensos beneficios, así como enormes desgracias si se emplea de forma prematura antes de haber alcanzado una tasa de error aceptable. Ya en marzo, Science y Nature publicaban sendos artículos en los que varios investigadores, entre ellos Doudna, advertían de estos riesgos. El título de la pieza en Nature lo dice todo: «No editéis la línea germinal humana».

Pero alguien en un laboratorio chino ya se había adelantado. Como conté en su día, en abril la revista Protein & Cell publicaba el primer experimento de edición genómica en embriones humanos.

La regulación de la investigación con embriones es más laxa en algunos países orientales que en el mundo occidental, pero es importante aclarar que el experimento dirigido por Junjiu Huang en la Universidad Sun Yat-sen de Guangzhou utilizó exclusivamente embriones no viables; se trataba de cigotos procedentes de fertilización in vitro que tenían tres juegos de cromosomas en lugar de dos, debido a que los óvulos habían sido fecundados por dos espermatozoides al mismo tiempo. En condiciones naturales, estos embriones triploides mueren durante la gestación o al poco tiempo de nacer, y los que sobreviven lo hacen con graves defectos. En el caso de la fecundación in vitro, estos embriones se desechan o se utilizan para investigación en los países que así lo permiten.

El experimento de Huang no fue precisamente un éxito, como él mismo reconoció. Recojo lo que ya escribí a propósito de los resultados: el sistema CRISPR/Cas9 logró extraer quirúrgicamente el gen HBB en aproximadamente la mitad de los embriones supervivientes analizados, pero solo en pocos casos consiguió reparar la brecha con la secuencia de reemplazo. Aún peor, los científicos observaron que en varios casos la enzima cortó donde no debía y que algunas de las brechas se rellenaron empleando erróneamente otro gen parecido como modelo, el de la delta-globina (HBD), causando mutaciones aberrantes.

La repercusión del experimento de Huang fue mucho mayor de la que habría correspondido a sus resultados científicos, debido a que abría una puerta que para muchos debería permanecer cerrada, al menos hasta que la tecnología CRISPR garantice un nivel mínimo de éxito. Tras la publicación del estudio, algunos de los principales investigadores en el campo de la edición genómica decidieron convocar una reunión en Washington, con la participación de la Academia China de Ciencias, para debatir los aspectos éticos y tratar de acordar una recomendación común.

El encuentro tuvo lugar a comienzos de diciembre y se saldó con una declaración final que, curiosamente (o tal vez no), fue interpretada de formas casi opuestas por medios ideológicamente diversos; en algunos diarios online se leía que los científicos habían dado luz verde a la manipulación genética de embriones humanos, mientras que otros aseguraban que se había establecido una moratoria. Pero ni una cosa ni otra; la declaración final decía exactamente que «sería irresponsable proceder con cualquier uso clínico de la edición en células germinales [espermatozoides y óvulos]», pero aconsejaba que la cuestión sea «revisitada a medida que el conocimiento científico avance y la visión de la sociedad evolucione».

Ni sobre los aspectos científicos de CRISPR ni sobre los éticos se ha dicho ya la última palabra. Respecto a lo primero, CRISPR es una nueva técnica en progreso que continuará sorprendiéndonos en los próximos años. Y en cuanto a lo segundo, los expertos recomendaron la creación de un foro internacional permanente que asuma el seguimiento y la reflexión sobre lo que será posible o no, lícito o no, gracias a esta potente tecnología que ha inaugurado la biología molecular del siglo XXI.

Isaac Newton y los dragones

Se ofenda quien se ofenda, tan risibles, ridículas y banales me parecen esas descacharrantes palabras del obispo de Córdoba al definir la fertilización in vitro como un «aquelarre químico» contrario al «abrazo amoroso» del que, según él, deben nacer los hijos (ahí tendrás a muchas pobres chiquillas temiendo quedarse embarazadas por un abrazo), como la arrogancia cristianofóbica de quienes todos los años y tal día como hoy, cumpleaños de Isaac Newton, aprovechan la ocasión para ciscarse en las libres creencias de otros. Allá cada cual, pero los fanatismos son fanatismos, ya los inspire la religión o la ciencia.

Isaac Newton en 1689 por Godfrey Kneller. Imagen de Wikipedia.

Isaac Newton en 1689 por Godfrey Kneller. Imagen de Wikipedia.

Hay algo que sí me gustaría recomendar a estos últimos (sobre el primero creo que no es preciso añadir nada más): que indaguen un poco más en el perfil biográfico de aquel a quien parecen venerar como príncipe de la razón. Newton fue teólogo además de científico, y estuvo a un pelo de ordenarse como pastor anglicano. Hoy se le considera un hereje por su postura antitrinitaria, que comprensiblemente ocultó, y que dominó su pensamiento religioso desde el centro de su esfuerzo intelectual.

Pero fuera de esta ineludible vertiente religiosa de Newton, que en realidad no incumbe a este blog, vengo a destacar otra faceta de su pensamiento que sí entronca con la ciencia, pero que tampoco cuadra con la imagen del racionalista puro con la que muchos parecen identificarle erróneamente. Lo cierto es que Newton fue un tipo fascinante y algo loco. Entre sus facetas menos conocidas se cuenta que, durante su cargo como director de la Casa de la Moneda en Gran Bretaña, inventó las estrías en el canto de las monedas que hoy son tan comunes. Entonces las monedas se fabricaban con metales preciosos, y el propósito de esta innovación fue evitar que los falsificadores rasparan los bordes para sisar una parte del oro.

Esta y otras historias de Newton como el Sherlock Holmes que perseguía a los falsificadores de moneda se cuentan con la tensión narrativa de los mejores thrillers en el libro de Thomas Levenson Newton y el falsificador, publicado en castellano por la editorial Alba en 2011. Un buen regalo para estas fiestas.

Pero Newton también era un ocultista apasionado. Hay quien le ha definido como el último de los alquimistas. Probablemente no lo fue, pero tal vez sí el último de los grandes alquimistas. Newton, como Harry Potter, perseguía la piedra filosofal, como conté con detalle en este reportaje que publiqué en 2010. El economista John Keynes, gran conocedor de la figura de Newton, le definió así:

Newton no fue el primero de la Edad de la Razón. Fue el último de los magos, el último de los babilonios y los sumerios, la última gran mente que miró al mundo visible e intelectual con los mismos ojos que aquellos que comenzaron a construir nuestro mundo intelectual hace menos de 10.000 años.

Naturalmente, la visión de Keynes no es compartida por todos. Hay quienes ven en el trabajo alquímico de Newton un esfuerzo precursor de la química moderna, ya que las transmutaciones metálicas de los alquimistas anticiparon el estudio de las reacciones químicas. Pero esta visión también estaría, para mi gusto, un poco sesgada, ya que en tiempos de Newton hubo otros científicos como Robert Boyle o su tocayo Hooke que realmente sí estaban transmutando la vieja alquimia en la química moderna, al distinguir entre magia y ciencia. Y mientras tanto, Newton escribía cosas como esta:

Nuestro esperma crudo fluye de tres sustancias, de las que dos se extraen de la tierra de su natividad por la tercera y después se convierten en una pura Virgen lechosa como la naturaleza obtenida del Menstruo de nuestra sórdida ramera. Estos tres manantiales son el agua, la sangre (de nuestro León verde totalmente volátil y vaciado de azufre metalino), el espíritu (un caos, que se aparece al mundo en una vil forma compacta, al Filósofo unida a la sangre de nuestro León verde, del que así se hace un león capaz de devorar a todas las criaturas de su clase…).

Una de las ilustraciones de los dragones alpinos en la obra de Johann Jakob Scheuchzer.

Una de las ilustraciones de los dragones alpinos en la obra de Johann Jakob Scheuchzer.

Pero hay un último aspecto de Newton que se ha divulgado y estudiado aún menos, y en el que posiblemente todavía quede un filón biográfico para quien quiera explorarlo y documentarlo. Contemporáneo de Newton fue un médico y científico suizo llamado Johann Jakob Scheuchzer. Entre los trabajos de Scheuchzer destaca uno titulado muy sencillamente Ouresiphoites Helveticus, sive itinera Alpina tria: in quibus incolae, animalia, plantae, montium altitudines barometricae, coeli & soli temperies, aquae medicatae, mineralia, metalla, lapides figurati, aliaque fossilia; & quicquid insuper in natura, artibus, & antiquitate, per Alpes Helveticas & Rhaeticas, rarum sit, & notatu dignum, exponitur, & iconibus illustratur. O de forma algo más breve, Itinera alpina tria, sus viajes alpinos.

Durante sus viajes por los Alpes, entre 1702 y 1704, Scheuchzer describió la naturaleza que observaba a su paso. Pero sus méritos como naturalista han sido puestos en duda por el hecho de que incluyó referencias a la presencia de dragones en los Alpes; no observados por él directamente, sino por testigos, pero sí con todas sus especies alpinas representadas en láminas en su obra. El suizo describía el método para dormir a un dragón con hierbas soporíferas y aprovechar su sueño para cortarle de la cabeza una piedra que poseía enormes propiedades curativas.

Pues bien, el principal patrocinador de la expedición y de la obra de Scheuchzer para la Royal Society londinense no fue otro que nuestro buen amigo Newton, quien según algunas fuentes era también un defensor de la existencia de los dragones. La creencia en estos animales míticos tradicionalmente vino alimentada por el hallazgo de fósiles que hoy conocemos como dinosaurios, sobre todo en China. En tiempos de Newton aún no se conocía el origen de aquellos huesos, pero sí su existencia; en Europa se les atribuían orígenes diversos, desde elefantes de guerra empleados por los romanos hasta gigantes humanos. ¿Creía Newton que los fósiles europeos de dinosaurios eran restos de dragones? ¿Hasta qué punto llegaba su creencia en estas criaturas míticas? En cualquier caso, todo esto no hace sino aumentar el atractivo de un personaje tan genial como conflictivo para quienes pretenden hacer de él un ser unidimensional.

El juego de la evolución tiene «nuevas reglas»

En 2005 dos genetistas y bioquímicas, Eva Jablonka y Marion J. Lamb, sacudieron el armazón de la biología con un libro titulado Evolution in Four Dimensions (Evolución en cuatro dimensiones), que en pocos años se ha convertido ya en una de las obras clásicas (léase imprescindibles) sobre el pensamiento evolutivo.

Lo que la israelí Jablonka y la británica Lamb proponían era una ampliación del enfoque de la evolución biológica a toda variación heredable de generación en generación, no solo a lo que una máquina secuenciadora de ADN puede leer. Con esta visión, la información genética estrictamente codificada en forma de A, G, T y C sería solo una de las dimensiones de la evolución, pero habría otras tres: los rasgos epigenéticos (ahora explico), los comportamientos sociales inculcados, y el pensamiento simbólico exclusivo de los humanos.

Los dos últimos podrían considerarse a simple vista como un viraje hacia la psicología evolutiva con escasa implicación en los mecanismos de variación de las especies, pero en realidad no es así: lo que Jablonka y Lamb argumentaban es que estas dos dimensiones son también biológicas, ya que los cuatro aspectos interactúan constantemente entre sí, de modo que la tradición social y la cultura también se ven influidas por los mecanismos genéticos y epigenéticos.

Nos queda explicar este último término. Lo epigenético es lo que está sobre lo genético. A finales del siglo pasado, se generalizó esta denominación para ciertos cambios químicos en la molécula de ADN que no son mutaciones, porque no afectan a la secuencia –CCGTACCGGT seguirá siendo CCGTACCGGT–, pero que sin embargo sí determinan la actividad de un gen, por ejemplo silenciándolo, es decir, volviéndolo invisible para la maquinaria encargada de hacer que los genes hagan lo que deben hacer. Imaginemos que borramos una palabra de un documento con típex; la palabra seguirá ahí, debajo de la franja blanca, pero no podremos leerla porque se ha vuelto invisible para nuestro mecanismo de lectura, la vista.

Los cambios epigenéticos pueden aparecer por estímulos de nuestro entorno, como los alimentos o los contaminantes ambientales. Y si afectan también al espermatozoide o al óvulo, nuestros hijos los heredarán. Es decir, que nuestra descendencia podría tener alterada la actividad de un gen debido a nuestra dieta; no solo la de la madre en gestación, como tradicionalmente se asumía, sino incluso la de la futura madre aún no gestante o la del futuro padre.

Retrato de Jean-Baptiste Lamarck por Charles Thévenin, 1802-3. Imagen de Wikipedia

Retrato de Jean-Baptiste Lamarck por Charles Thévenin, 1802-3. Imagen de Wikipedia

Esta posibilidad de transmitir a nuestros hijos ciertos rasgos que adquirimos durante nuestra vida, y que vienen determinados por lo que hacemos o dejamos de hacer, era un concepto que formaba parte de la teoría de la evolución definida por el francés Jean-Baptiste Lamarck, anterior a Darwin. Pero cuando Darwin llegó a la conclusión de que las variaciones heredables se producían al azar (aún no se conocían los genes, ni por tanto las mutaciones), y que el hecho de que prendieran o no en la especie se debía a la selección natural, las ideas de Lamarck quedaron abandonadas.

Con el descubrimiento de la epigenética, algunos biólogos han rescatado la visión de Lamarck, mientras que para otros este es un camino que lleva a la confusión. Al fin y al cabo, es sorprendente lo poco que se comprende la evolución entre el público en general. A menudo se escuchan expresiones como «adaptarse o morir», «la naturaleza se perfecciona», la «lucha por la supervivencia» o la «supervivencia del más fuerte»; ninguna de ellas es darwiniana. Las dos primeras son más bien lamarckianas. Y las dos últimas, si acaso, norrisianas, de Chuck.

Entre los supuestamente neolamarckistas está Jablonka, la coautora del libro al que me he referido, y a quien le he preguntado hasta qué punto el enfoque que proponen ella y Lamb sugiere que deberíamos sacar a Lamarck del rincón de los castigos e incorporar sus ideas en una nueva visión de la evolución. La respuesta de la bióloga es que no trata de defender que la mutación al azar deje de ser el principal mecanismo que dirige la evolución a largo plazo: «El hecho de que los mecanismos lamarckianos puedan haber evolucionado por selección natural de mutaciones al azar les niega un lugar central en la evolución una vez que existen», reconoce. «No cuestionamos la noción de lo aleatorio», añade.

Pero Jablonka sí piensa que la evolución ha cambiado; la evolución también evoluciona, y su postura es que en adelante hay nuevas reglas: «Puedes pensar en un juego cuyas reglas evolucionan; las nuevas reglas ahora dirigen, o son parte de lo que dirige, el juego de la evolución».

En resumen, quédense con esta idea: aunque el darwinismo puro quedó superado hace ya décadas debido a sus limitaciones, muchas de las cuales el propio Darwin reconoció en su obra, la variación aleatoria y la selección natural continúan siendo los principales motores de la evolución para la mayoría de los científicos. Pero otros mecanismos se han ido añadiendo con el tiempo, y hoy incluso algunas ideas descartadas hace más de un siglo tienen cabida en el estudio del problema central de la biología teórica.