BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Historia’

Marconi, el pionero de la radio que escapó de morir en el Titanic (y en el Lusitania)

Hace unos días les contaba aquí cómo una mala casualidad llevó al químico francés René Jacques Lévy a perder la vida en el Titanic, un barco en el que no debería haber viajado. Pero la suerte viene en dos sabores, y a algunos les toca la versión dulce. Este fue el caso del inventor y empresario italo-británico Guglielmo Marconi, uno de los pioneros de la radio y premio Nobel de Física en 1909 por su aportación al desarrollo de la telegrafía sin hilos (hoy más conocida como wireless).

Debido a dos casualidades afortunadas, Marconi y su mujer se libraron de viajar en la funesta travesía del Titanic. Pero además, y para los fans de esa divertidamente gore saga de películas titulada Destino final, el italiano burlaría una segunda vez a la muerte que le esperaba en el mar, para finalmente fallecer en su cama de un prosaico ataque cardíaco.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

En su libro My Father, Marconi, su hija Degna contaba que su familia tenía alquilada una propiedad cerca de Southampton (Inglaterra), en cuyo extremo se erguía una torre de tres pisos a la orilla del mar. En la mañana del 10 de abril de 1912, Degna y su madre ascendieron a la torre para ver pasar al Titanic, que acababa de zarpar con rumbo a América.

La niña solo tenía entonces tres años y medio, pero recordaba bien la escena: “juntas saludamos al barco, inmenso y resplandeciente al sol de primavera, y docenas de pañuelos y bufandas nos saludaron de vuelta. Mientras el Titanic desaparecía de nuestra vista sobre las aguas calmadas, descendimos lentamente los escalones”. Sin embargo, Degna recordaba también cómo entonces su madre le apretaba la mano con tristeza. Años después supo por qué: “ella deseaba estar a bordo”.

Marconi y su esposa, Beatrice, habían sido invitados por la White Star Line para viajar en la travesía inaugural del Titanic por cuenta de la naviera (algunos relatos de la historia se refieren a la familia entera, pero lo cierto es que el libro de Degna solo menciona a sus padres). Según contaba Degna, su padre tenía mucho trabajo pendiente que resolver y para ello necesitaba la ayuda de un taquígrafo. Marconi disponía del suyo propio, un tal Magrini, pero “era inservible a bordo de un barco; pasaba el viaje mareado de costa a costa”. Así que debía recurrir al taquígrafo del propio buque. Pero, casualidad afortunada número uno, Marconi sabía que el taquígrafo del Lusitania era más rápido y competente, por lo que cambió su pasaje a este barco, que zarpaba tres días antes.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

Así, la idea era que Beatrice tomara el Titanic y se reuniera con su marido en Nueva York. Pero, casualidad afortunada número dos, el pequeño de los Marconi enfermó. “Entonces Giulio lo arruinó todo cayendo presa de una de esas alarmantes fiebres de bebé que pueden ser el preludio de algo o de nada”, escribía Degna. “Ella cableó que debía posponer su viaje y quedarse a cuidar a su pequeño, y afrontar otra de esas separaciones interminables que tanto afectaban a su matrimonio”.

A su llegada a Nueva York en el Lusitania, Marconi supo que un mensaje recibido por una de sus estaciones traía noticias de un desastre en el mar. La mañana del 15 de abril el diario The New York Times publicaba la información: “a las 10:25 de anoche, el barco de la White Star Titanic emitió un CQD [de Come Quick, Danger, la señal de auxilio anterior al SOS] a la estación inalámbrica Marconi local informando de que había colisionado con un iceberg. El barco dijo necesitar ayuda inmediata”. El periódico había tratado de contactar telegráficamente con el capitán, sin éxito.

Lo que siguió fue, según Degna, un “pandemonio” de confusión y rumores, hasta tal punto que el diario Evening Sun de Nueva York informó aquella tarde de que todos los ocupantes del Titanic habían sido rescatados y que el buque estaba siendo remolcado con destino a Halifax, en Canadá. A última hora de la tarde se conoció una realidad muy diferente, que unos 700 supervivientes viajaban en el Carpathia hacia Nueva York, y que el resto hasta los más de 2.200, junto con el barco, habían quedado en el mar.

Cuando el 18 de abril el Carpathia atracó en el puerto neoyorquino, Marconi fue uno de los primeros en abordarlo, y por una buena razón. En medio de la consternación provocada por la tragedia del Titanic, el día anterior Marconi había recibido un entusiasta homenaje en la Sociedad Eléctrica de Nueva York. Según relataba el Times, el motivo lo había resumido en aquel acto el inventor estadounidense Frank Sprague: “Cuando mañana por la noche 700 u 800 personas pisen tierra en Nueva York, podrán mirarle a usted como su salvador”.

El primer sistema práctico y comercial de telegrafía inalámbrica, desarrollado por Marconi, había sido clave para que el Carpathia supiera del naufragio del Titanic y acudiera a rescatar a los supervivientes. De hecho, los dos radiotelegrafistas del barco siniestrado no eran empleados de la naviera White Star, sino de la compañía Marconi. El primer oficial, Jack Phillips, había perecido en el desastre; el segundo, Harold Bride, viajaba en el Carpathia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Cuando Marconi subió al barco apenas tocó puerto, fue para entrevistarse con Bride y el telegrafista del Carpathia. Ambos operadores, junto con el fallecido Phillips, habían sido los artífices del rescate de más de 700 personas, gracias a la tecnología de Marconi. Unos días después, relataba Degna, los supervivientes se congregaron en el hotel donde se alojaba Marconi para expresarle su gratitud con una medalla de oro.

Según narraba Degna, paradójicamente el desastre del Titanic propició el ascenso de su padre a la cumbre de su carrera: el mundo entero fue consciente del inmenso poder de la telegrafía inalámbrica para salvar vidas, y desde entonces los equipos de Marconi se convirtieron en una herramienta imprescindible en la navegación marítima. Anecdóticamente, también el accidente cambió el estándar internacional de socorro: además de la señal usada hasta entonces, CQD, el Titanic emitió también el nuevo código propuesto, SOS, más fácil de marcar en Morse. Según Degna, aquella fue la primera vez que se lanzó al aire un SOS.

Llegamos así al “destino final” que Marconi logró evitar: tres años después del desastre del Titanic, en abril de 1915, el inventor embarcó de nuevo en Inglaterra en el Lusitania rumbo a Nueva York para testificar en un juicio por una patente. La Primera Guerra Mundial había comenzado, y Alemania había declarado las aguas británicas como zona de guerra. Cuando el trasatlántico regresaba de vuelta a Liverpool, la tarde del 7 de mayo, fue torpedeado y hundido por un submarino alemán cerca de la costa de Irlanda. Casi 1.200 personas perdieron la vida, mientras Marconi estaba sano y salvo en América.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Quien sí viajaba aquel día en el Lusitania y se hundió con él fue el millonario estadounidense Alfred Gwynne Vanderbilt. Cuenta la historia de su familia que Vanderbilt estuvo a punto de viajar tres años antes en el Titanic. Lo cierto es que hay cierta neblina al respecto: una investigación histórica determinó que el Vanderbilt que había comprado pasaje en el Titanic y finalmente decidió no viajar fue en realidad el tío de Alfred, George Washington Vanderbilt (que no murió en el Lusitania). Sin embargo, un descendiente de la saga escribía en una web sobre el Lusitania que, de acuerdo a la tradición de su familia, “Alfred también había considerado seriamente viajar en el Titanic”. Fuera cual fuese la realidad, la conclusión es la misma; no hay destinos finales, pero la suerte viene en dos sabores, y a algunos les toca la versión amarga.

¿Fue Rosalind Franklin, codescubridora de la hélice de ADN, discriminada por ser mujer?

Rosalind Franklin, la mujer cuya aportación fue esencial para el descubrimiento de la estructura de la doble hélice de ADN, sufrió discriminación por ser mujer. Dicho esto, pensarán que este va a ser el artículo más corto en la historia de este blog. Pero lo cierto es que la historia de Franklin, de cuya muerte hoy se cumplen 60 años, es más complicada de lo que una simple afirmación categórica puede dar a entender.

Rosalind Franklin.

Rosalind Franklin.

Conviene detenerse un poco en los detalles para comprender hasta qué punto la contribución de Franklin fue infravalorada, y si en ello existió una discriminación de género o si se debió a otras causas más relacionadas con el (mal) proceso científico. Sobre todo por evitar la frivolización que lleva a reconstruir la historia como una fábula de buenos y malos; y que especialmente en las redes sociales a veces tiende a prender las antorchas hasta los extremos delirantes –como he podido leer hoy– de escribirse barbaridades tales como calificar al resto de los implicados en la historia de “celosos” y “mediocres”.

En los años 50 la discriminación hacia las mujeres era indudablemente mayor que hoy, y la ciencia no escapaba a este estado de cosas. En el terreno científico, inumerables mujeres fueron históricamente apartadas o menospreciadas. Incluso aquellas que conseguían superar los impedimentos sociales para labrarse una carrera científica difícilmente conseguían hacerse ver tras la sombra de sus colegas masculinos; un ejemplo clamoroso es el de Marie Curie, quien nunca habría recibido su primer Nobel en 1903 de no haber sido porque su marido Pierre, que sí estaba nominado, presionó con la ayuda de un miembro del comité para que a su esposa se le reconociera el que legítimamente era su trabajo.

Sin embargo, es esencial distinguir entre la discriminación de una mujer por el hecho de ser mujer, y por otros motivos diferentes de su género. Para ilustrarlo, traigo de nuevo un ejemplo que ya he contado aquí extensamente: el de Jocelyn Bell Burnell, la codescubridora del primer púlsar. Cuando el hallazgo trascendió y los medios se interesaron por este nuevo objeto astronómico, Bell Burnell fue tratada por los periodistas con un sesgo (hoy) intolerablemente machista, como cuando le preguntaban si tenía muchos novios o si era más alta que la princesa Margarita.

Pero cuando en 1974 el premio Nobel de Física distinguió únicamente a su supervisor, Antony Hewish, aquello no fue discriminación sexista, sino científica. Bell Burnell era la becaria, y los Nobel no se conceden a los becarios. Esta norma se aplica no solo en los premios suecos, sino de forma general, salvo excepciones, en todo el mundo de la ciencia. La propia Bell Burnell (con la humildad que suele distinguir a muchos de los grandes científicos) tuvo que salir al paso de ciertas manipulaciones sesgadas: “Pienso que los premios Nobel quedarían degradados si se concedieran a estudiantes de investigación, excepto en casos muy excepcionales, y no creo que este sea uno de ellos”, dijo.

El caso de Franklin es aún más complicado, porque concurrieron otros numerosos factores, incluyendo una mala gestión por parte de los responsables, algún malentendido, cierto juego sucio y una dosis de enemistades personales. Para no extenderme demasiado voy a ahorrarles los antecedentes de la historia del descubrimiento de la estructura del ADN para ir directamente al grano.

Debo comenzar desmontando la crítica de trazo más grueso, aunque este dato es ya conocido y evidente para los informados: si Watson, Crick y Wilkins recibieron el Nobel de Química en 1962, y Franklin no, fue porque Franklin había fallecido de cáncer en 1958, y el premio nunca se concede a título póstumo. Es más: los tres científicos fueron nominados por primera vez para el premio en 1960, dos años después de la muerte de Franklin. En ciencia nunca se conceden los premios en caliente, sino que los hallazgos deben dejarse reposar no solamente para corroborar su veracidad, sino para que pueda comprobarse su impacto posterior.

¿Habría recibido Franklin el Nobel de no haber quedado su vida prematuramente segada por el cáncer? Nunca lo sabremos. El premio sueco solo puede partirse en tres. De haberse tenido que establecer un rango de contribuciones exclusivamente a la estructura del ADN, creo que pocos cuestionarán que Franklin tendría que haber figurado en tercer lugar por encima de Wilkins. Pero aquí regresamos a la cuestión de las jerarquías y explicamos lo dicho más arriba sobre la gestión deficiente y los malentendidos.

Cuando Franklin dejó París para incorporarse al King’s College de Londres, lo hizo bajo la invitación de John Randall, el director del grupo de biofísica, y ante la insistencia de Wilkins, quien deseaba contar con la participación de la brillante investigadora. De hecho, Wilkins insistió en que Franklin debía dejar su trabajo en proteínas para centrarse en el ADN.

Pero Randall cometió una enorme torpeza: al escribir a Franklin, la informó de que la línea del ADN sería de su exclusiva competencia, lo cual equivalía a equipararla con Wilkins en la jerarquía del laboratorio. Sin embargo, Randall jamás planteó esta situación a Wilkins, quien pensaba que la investigadora trabajaría en su equipo. Lo que siguió era lo esperable: Franklin pensaba que Wilkins se inmiscuía en su trabajo, y este que ella pretendía quitarle su línea.

Añadimos ahora el ingrediente de las enemistades personales: Wilkins y Franklin no se soportaban. Él era tímido, y ella tenía un carácter difícil. Según escribió Matthew Cobb en su libro Life’s Greatest Secret: The Race to Crack the Genetic Code, una amiga de Franklin decía de ella que “sus maneras eran bruscas y a veces buscaba la confrontación; suscitó bastante hostilidad entre la gente con la que se trataba y parecía bastante insensible a ello”.

En medio de todo este embrollo, el becario de Wilkins, Raymond Gosling, quedó en un extraño limbo entre ambos investigadores; una situación (y doy fe de ello en primera persona porque viví algo similar) tremendamente incómoda y difícil de manejar. Y entonces, sucedió que Gosling tomó la famosa Foto 51, la que más claramente mostraba la estructura helicoidal del ADN. Es importante insistir en este detalle: fue el becario Gosling quien obtuvo la imagen; aunque naturalmente y como ya he explicado, el éxito debía apuntarse en el haber de su supervisor. Pero ¿cuál de ellos? Gosling había sido reasignado a Franklin por Randall sin el conocimiento de Wilkins, pero según cuenta Cobb, para entonces había sido devuelto de nuevo a Wilkins cuando Franklin ya preparaba su nuevo traslado a otro laboratorio. Probablemente Gosling ya no sabía realmente a quién debía reportar, pero era perfectamente natural que mostrara la imagen también a Wilkins.

Llegamos ahora al juego sucio: Wilkins mostró a Watson una imagen tomada por quien él creía su becario, pero que se había obtenido bajo la dirección de Franklin. ¿Hubo mala intención por parte de Wilkins? No puede descartarse. ¿Fue sexismo? No hay ningún motivo de peso para creerlo. Sin embargo, la foto es solo una parte de la historia: la imagen revelaba claramente una estructura helicoidal, pero para definirla con precisión fueron necesarios los datos numéricos del King’s College que fueron proporcionados por este laboratorio al de Watson y Crick en la Universidad de Cambridge, y que la propia Franklin había presentado antes en un seminario.

Pero seguimos con el juego sucio. Dado que Watson y Crick basaron su modelo teórico en gran medida en los datos de Franklin, debieron hacerla partícipe de ello desde el principio. No la informaron, pero tampoco a Wilkins, que era quien les había mostrado la imagen. Los investigadores de Cambridge desarrollaron su trabajo gracias en buena parte a los datos del King’s College, pero a espaldas del King’s College. Es mala práctica científica, pero de nuevo no hay motivos para una acusación de discriminación sexista.

Rosalind Franklin. Imagen de Jewish Chronicle Archive / Heritage-Images / Wikipedia.

Rosalind Franklin. Imagen de Jewish Chronicle Archive / Heritage-Images / Wikipedia.

Con todo, Franklin casi logró llegar en solitario y por su cuenta a las mismas conclusiones que Watson y Crick, lo que demuestra el enorme talento de la investigadora. Pero los dos de Cambridge se adelantaron con un modelo completo. Cuando finalmente Watson y Crick revelaron su estructura a sus rivales del King’s College, la carrera hacia el ADN ya era historia. Finalmente la solución de compromiso fue publicar tres artículos independientes en Nature, uno firmado por Watson y Crick, otro por Wilkins y sus colaboradores, y el tercero por Franklin y Gosling.

Este resumen de la historia muestra que no puede achacarse justificadamente una falta de reconocimiento científico a Franklin por el hecho específico de ser mujer. Durante su confección del modelo, Watson y Crick dejaron de lado tanto a Franklin como a Wilkins, y no digamos al becario Gosling, autor material de la Foto 51. Cuando llegó el momento de las nominaciones al Nobel, Franklin ya había fallecido. De no haber sido así, a menudo se ha sugerido la hipótesis de que Watson y Crick podrían haber recibido el Nobel de Medicina, y Wilkins y Franklin el de Química. La científica podría además haber optado a un segundo galardón: en 1982 se concedió el Nobel a Aaron Klug por su trabajo en los cristales de proteínas y ácidos nucleicos en los virus, una línea que Klug había iniciado como becario de Franklin después de su etapa en el King’s College.

Pero como he sugerido al comienzo, esto tampoco implica que la científica no sufriera discriminación de género. En su época, las mujeres investigadoras eran una minoría. Muchas de ellas debían demostrar mucho más que los hombres para ganarse el respeto de sus colegas masculinos. El King’s College heredaba la apolillada tradición anglosajona de los gentlemen’s clubs, y tenía un comedor solo para hombres. Durante aquellos años, Watson mostró una actitud desdeñosa hacia Franklin que era incuestionablemente machista, y que solo rectificó años después. Sí, Franklin fue víctima del machismo, como muchas otras mujeres de su época e incluso de la nuestra. Pero lo que cercenó su carrera no fue el machismo, sino el cáncer.

El científico que sobrevivió al Titanic y escribió el primer testimonio

Anoche se cumplió un nuevo aniversario del desastre que por algún motivo continúa excitando hoy un morbo tan potente como el primer día. Es lógico que entonces, cuando aún no existía acceso global e inmediato a la información en cualquier parte del mundo, causara un enorme horror una tragedia en tiempos de paz que se llevó de un plumazo la vida de más de 1.500 personas.

Pero incluso más de un siglo después, con dos guerras mundiales a nuestras espaldas y otras locales incontables, y cuando todos los días los telediarios nos presentan un amplio desfile de cifras de víctimas de todo tipo, la fascinación por el hundimiento del Titanic sigue tan viva como siempre, sobre todo después de que en 1997 James Cameron convirtiera el episodio en una de las superproducciones más exitosas de la historia del cine.

El hundimiento del 'Titanic'. Dibujo de Willy Stöwer / Wikipedia.

El hundimiento del ‘Titanic’. Dibujo de Willy Stöwer / Wikipedia.

Como soy un tipo curioso, un devorador de conocimientos y de historias, me ha dado por preguntarme: ¿había científicos a bordo del Titanic? Sabemos, en parte gracias a Cameron, que aquel buque era un microcosmos representativo de la sociedad de entonces donde viajaban desde magnates a obreros, compartiendo el mismo casco pero sin jamás mezclarse. Parecería lógico que entre sus pasajeros hubiese también al menos algún investigador científico, pero esto es algo que no suele encontrarse en los relatos al uso.

Por suerte, cuento con la ayuda de la Encyclopedia Titanica, un recurso que contiene una inconcebible cantidad de datos sobre el buque y su primera y única travesía, incluyendo biografías más o menos extensas de todos sus ocupantes. Allí descubro que en el barco viajaban varios ingenieros, profesores, académicos y seis médicos, dos de ellos pertenecientes a la tripulación. Pero ninguno parece haber destacado por una labor investigadora sobresaliente.

Entre los pasajeros había un químico industrial, el francés René Jacques Lévy, de 36 años. El de Lévy fue un caso desafortunado, ya que el suyo no era un viaje de placer, ni debía haber estado aquella noche a bordo del Titanic. Su especialidad era la producción de tintes textiles, un trabajo que había ejercido en Inglaterra antes de regresar a París para casarse. En 1910 emigró con su mujer y sus tres hijas pequeñas a Montreal.

Posiblemente Lévy habría vivido una larga existencia en Canadá, de no haber sido por la circunstancia casual de la muerte de un familiar, que le llevó a viajar a Francia en marzo de 1912. Una vez cumplida aquella desagradable obligación, el químico debía regresar a América el 20 de abril a bordo del France. Pero cuando supo que otro barco le llevaría de vuelta con su familia 10 días antes, cambió su pasaje por uno de segunda clase en el Titanic.

Durante la travesía, Lévy comentó que los cabos para arriar los botes salvavidas le parecían demasiado cortos, y que en caso de accidente preferiría hundirse con el barco que sentarse en uno de ellos. La noche del 14 al 15 de abril, tras la colisión con el iceberg y cuando comenzó la evacuación del Titanic, el químico y sus dos compañeros de camarote se aseguraron de encontrarle una plaza en uno de los botes a una mujer con la que habían coincidido durante el viaje. Desde la cubierta la despidieron con un “au revoir!“, y ese fue el fin de la historia de Lévy. En 2012 la Real Sociedad de Química de Reino Unido concedió a Lévy su premio Presidencial a título póstumo por su “sobresaliente acto de cortesía”.

Lawrence Beesley y otra pasajera en el gimnasio del 'Titanic'. Imagen de Central News And Illustrations Bureau / Wikipedia.

Lawrence Beesley y otra pasajera en el gimnasio del ‘Titanic’. Imagen de Central News And Illustrations Bureau / Wikipedia.

El caso más notable es el del profesor de ciencias de 34 años Lawrence Beesley. Según la Encyclopedia Titanica, Beesley viajaba en segunda clase en el Titanic para tomarse unas vacaciones en EEUU y visitar a su hermano en Toronto tras haber abandonado su trabajo en Inglaterra. Viajaba solo, ya que había enviudado unos años antes. Según las crónicas, Beesley pasó gran parte de la travesía leyendo en la biblioteca. En esta curiosa foto se le puede ver junto a otra pasajera en el gimnasio del barco, haciendo bicicleta estática con un atuendo dudosamente cómodo.

La noche del 14 de abril, Beesley leía en su camarote. De repente notó un tirón en el movimiento del barco, pero ningún impacto. Al salir al pasillo a informarse, un miembro de la tripulación le tranquilizó asegurándole que no ocurría nada anormal. Pero tras comprobar que se estaban preparando los botes salvavidas, regresó a su camarote a buscar algunas pertenencias y se dirigió a cubierta, notando ya una cierta inclinación anómala en las escaleras.

Cuando llegó a cubierta, se estaba organizando el arriado del bote número 13. Al no haber más mujeres ni niños a la vista, Beesley fue invitado a abordar el bote, de donde él y el resto de sus ocupantes fueron rescatados durante la madrugada del 15 de abril por el buque Carpathia.

La evacuación de Beesley fue sorprendentemente tranquila y sencilla. Solo después supo de la magnitud de la tragedia y, sobre todo, de cómo su caso había sido excepcional: pese a que la película de Cameron se centraba en las diferencias entre primera y tercera clase, en realidad el grupo que se llevó la peor parte fue el de los hombres de segunda clase, de los que solo sobrevivió el 8%, la mitad que en tercera. “Los hombres de segunda clase no tenían el prestigio social y la notoriedad para ser favorecidos por el capitán y la tripulación en la primera oleada del rescate, y al mismo tiempo podían no tener la fortaleza física de algunos de los pasajeros de tercera clase para abrirse camino a través del caos”, dice el psicólogo Daniel Kruger en este documental del canal Historia.

Beesley narró su experiencia en el libro The Loss of the SS Titanic: its Story and its Lessons, que se publicó solo nueve semanas después del hundimiento. Fue la primera crónica escrita por un superviviente del desastre, y una de las principales fuentes en las que Cameron se inspiró para su película. Pero la obra de Beesley no es un simple relato de una catástrofe, sino que analizaba también los aspectos técnicos, incluyendo una discusión basada en un artículo publicado en la revista Scientific American sobre la tan cacareada insumergibilidad del Titanic. Gracias a su mentalidad científica, Beesley repasaba los errores y las posibles mejoras, con un alcance que habría sido imposible en una persona sin su formación.

A ese espíritu científico de Beesley debemos agradecerle también que se ocupara, ya en aquel relato temprano, de criticar toda la charlatanería sobrenatural de historias de premoniciones que ya entonces comenzó a aflorar, y que ha persistido hasta hoy. “Una cosa más debe señalarse: la prevalencia de creencias supersticiosas referentes al Titanic“, escribió. “Imagino que ningún otro barco zarpó jamás con tanta tontería miserable vertida sobre él”.

Beesley volvió a casarse, tuvo tres hijos más –ya tenía uno de su primera esposa– y vivió hasta los 89 años, falleciendo en 1967. Uno de sus nietos es Nicholas Wade, reputado escritor de ciencia en medios como The New York Times y las revistas científicas Science y Nature.

Pero la historia más extraña de su vida, dejando aparte su afortunada huida del Titanic, tuvo lugar en 1958. Suelen decir los psicólogos que a menudo los supervivientes de tragedias se ven afectados por una especie de sentimiento de culpa por continuar vivos. Tal vez fuera esta la razón, o quizá no. Pero aquel año Beesley servía como asesor en el rodaje en Londres de la película La última noche del Titanic, cuando el director, Roy Ward Baker, le descubrió de repente infiltrado entre los actores durante la escena del naufragio. Cuando Baker le preguntó qué hacía allí, Beesley respondió que en aquella ocasión quería hundirse con el barco. Pero por segunda vez fue desalojado antes del hundimiento, ya que las normas del rodaje impedían la participación de actores no sindicados.

Aún me queda en la recámara una historia más que contarles sobre los científicos y el Titanic. Mañana seguiremos.

Diez ideas para entender la clonación (1-5)

Desde China ya no solo nos vienen productos baratos, comida con palillos o turistas. La ciencia china está respirándole en la nuca a la primera potencia mundial, EEUU, y cada vez son más las primicias científicas que nos llegan del este de forma inesperada (dado que aquel país no se distingue por su transparencia informativa, a lo que se une la barrera del idioma).

Lo que ha venido de Oriente esta semana ha sido la primera clonación exitosa de primates por el mismo procedimiento que en 1996 sirvió para crear la oveja Dolly. El resultado del experimento, publicado en la revista Cell, son dos pequeños macacos sanos llamados Zhong Zhong y Hua Hua, nombres tomados, según han explicado los autores, de “Zhonghua“, un término que significa “pueblo chino” o “nación china”.

Zhong Zhong y Hua Hua, los primeros macacos clonados por el "método Dolly". Imágenes de Qiang Sun and Mu-ming Poo / Chinese Academy of Sciences.

Zhong Zhong y Hua Hua, los primeros macacos clonados por el “método Dolly”. Imágenes de Qiang Sun and Mu-ming Poo / Chinese Academy of Sciences.

La clonación es un campo científico tan potencialmente productivo como popularmente malentendido. Decían los jedis aquello de que el miedo lleva a la ira, la ira lleva al odio, el odio lleva al sufrimiento y el sufrimiento lleva al lado oscuro. Con ciertos avances científicos ocurre que empiezan la cadena un poco antes, en la desinformación. La desinformación lleva al desconocimiento, el desconocimiento lleva a la incomprensión y la incomprensión lleva al miedo. Y etcétera.

Es dudoso que alguien reniegue de la posibilidad de conseguir avances médicos antes inalcanzables; pero continuando con las citas de fuentes eruditas, con el progreso de la medicina a veces ocurre lo que Homer Simpson le decía a su hija Lisa: te gustan las salchichas, pero no quieres saber cómo se hacen. Nadie quiere ver cómo muere su padre/madre/hermana/hermano/hijo/hija/pariente/amigo/amiga, y deseará que se le aplique todo tratamiento disponible que pueda evitarlo. Pero paradójicamente, hay quienes se oponen a los métodos utilizados para lograr estos avances, como la experimentación con animales, que en muchos campos de la biomedicina va a continuar siendo insustituible durante décadas, tal vez siglos.

Para romper la cadena lógica de los jedis hay que comenzar por el principio, en la información. Aquí van las cinco primeras de diez ideas para entender mejor qué es y qué no es la clonación, por qué se hace y para qué sirve.

1. La clonación es obtener un organismo genéticamente idéntico a otro.

Sí, todos sabemos esto, aunque esta definición básica se matizará un poco más abajo al hablar de dos tipos de clonación. Pero es importante comenzar aclarando que la clonación, en esencia, busca copiar algo que la naturaleza ya ha creado. Crear cosas nuevas con fines de mejora es una constante en ciencia, pero en el caso de la clonación el objetivo primordial no es fabricar un diseño nuevo, sino aplicar tecnología para imitar a la naturaleza, como se hace con la inseminación artificial o la fecundación in vitro. Hablar de “Frankenciencia”, como ha hecho alguna organización animalista esta semana a propósito de la clonación de los macacos, revela un propósito deliberado y demagógico de fomentar la desinformación. Deliberado, porque cuesta creer que sea una cuestión de ignorancia.

2. La clonación no es manipulación genética.

Parece haber una cierta confusión en algunas personas que identifican la clonación con los procedimientos de modicación del ADN. La llamada ingeniería genética es la línea que a lo largo de este siglo puede llegar a salvarnos de males hoy incurables, como muchas enfermedades heredables o degenerativas, entre otras. Pero en concreto la clonación no es ingeniería genética; no manipula ADN. No actúa al nivel de las moléculas, sino de las células y sus partes. De hecho, como contaré ahora, cuando se inventó la clonación aún ni siquiera se sabía que la herencia genética reside en el ADN, ni se conocía cómo era esta molécula.

3. La naturaleza clona organismos continuamente, incluso humanos.

Muchos organismos se reproducen asexualmente por métodos de clonación, copiando exactamente la información genética de la madre para crear una hija igual a ella. Una forma de reproducción de este tipo es la partenogénesis, donde un óvulo sin fecundar produce un embrión. Ocurre en algunos invertebrados como los insectos, pero también en peces, anfibios y reptiles. En los humanos y otras muchas especies puede suceder que un óvulo fecundado se divida en dos embriones que son genéticamente diferentes de sus padres, pero iguales entre sí; son los gemelos idénticos.

4. Las técnicas de clonación no son un invento reciente, sino que nacieron en el siglo XIX.

Según lo dicho antes, y dado que la clonación no requiere el manejo de moléculas, estos procesos existen desde que la biología era mucho más rudimentaria que hoy. A finales del siglo XIX, el alemán Hans Adolf Eduard Driesch descubrió que si agitaba un embrión de erizo de mar cuando aún solo tenía dos células, podía separarlas y cada una de ellas daba lugar a un erizo completo. En 1902, el también alemán Hans Spemann trató de hacer lo mismo con un embrión de vertebrado, un tritón (en muchas referencias aparece como salamandra, pero si no me falla la taxonomía, era más bien un tritón). Dado que en este caso no bastaba con agitar para disgregar las células, fabricó una especie de lazo con un fino pelo de bebé (de su hija Margerete) para separarlas, obteniendo tritones gemelos.

5. El procedimiento de clonación de la oveja Dolly se ideó en los años 20 y 30.

La denominación técnica del llamado “método Dolly” es Transferencia Nuclear de Células Somáticas. El nombre puede asustar, pero en realidad es un concepto muy simple. Consiste en sacar el núcleo de una célula del cuerpo (somática) de un individuo, por ejemplo de una célula viva de la piel, y trasplantarlo a un óvulo fecundado (cigoto o huevo) al que previamente se le ha extraído su propio núcleo. El cigoto tiene capacidad para generar un embrión, pero dado que su genoma (contenido en el núcleo que se le ha trasplantado) es el de otro individuo, dará lugar a un clon de ese otro individuo.

La idea es sencilla, pero en la práctica es más complicado. No solo porque requiere instrumentos precisos para manejar células y sus núcleos, sino por un impedimento técnico adicional: el cigoto es una célula no diferenciada, es decir, que es capaz de generar cualquier tipo de tejido del organismo, como neuronas, músculo, hígado, etc. Por el contrario, el núcleo que se le ha implantado es el de una célula diferenciada, en concreto de la piel. Dado que este núcleo ha perdido esa versatilidad, uno de los obstáculos a superar en la clonación es conseguir que ese núcleo se reprograme para recuperar esa capacidad de generar un embrión completo.

Esta idea, la de que un cigoto vacío podía dar lugar a un embrión con el núcleo de una célula más diferenciada, fue intuida y puesta en práctica por Spemann. A partir de 1914, emprendió experimentos en los que recurría a su lazo de pelo de bebé para atarlo fuertemente alrededor de un cigoto de tritón, dividiéndolo en dos células pero de modo que no se separaran por completo, sino que quedaban unidas por un estrecho puente. El núcleo quedaba en una de las dos partes. El científico observó que la célula con el núcleo comenzaba a dividirse, pero no así la vacía. Una vez que la mitad con el núcleo se había dividido varias veces, soltaba el lazo, y así la célula vacía recuperaba el núcleo, ya más diferenciado. Spemann descubrió que entonces esta célula actuaba como un cigoto normal, dando lugar a un segundo embrión.

Método de Spemann y Mangold. Con un lazo de pelo de bebé se divide la célula en dos partes, de modo que el núcleo queda en una de ellas. Esta se divide, pero no así la otra. Cuando el lazo se libera y la parte vacía recupera su núcleo, ambas dan lugar a sendos embriones. Imagen de Spemann 1928, 1936.

Método de Spemann y Mangold. Con un lazo de pelo de bebé se divide la célula en dos partes, de modo que el núcleo queda en una de ellas. Esta se divide, pero no así la otra. Cuando el lazo se libera y la parte vacía recupera su núcleo, ambas dan lugar a sendos embriones. Imagen de Spemann 1928, 1936.

Por este descubrimiento de que el núcleo bastaba para dirigir el desarrollo del embrión, Spemann recibió el premio Nobel de Fisiología o Medicina en 1935. Pero es imprescindible subrayar la contribución a este trabajo de otra persona, su estudiante la zoóloga Hilde Mangold. El trabajo por el que Spemann recibió el Nobel era, tal cual, la tesis doctoral de Mangold, pero por desgracia ella no tuvo ni siquiera la oportunidad de ser discriminada por ser becaria o mujer: en 1924, mientras rellenaba una estufa de petróleo para calentar la comida de su bebé, un derrame de combustible la hizo salir corriendo de la casa envuelta en llamas. Murió al día siguiente. Hoy la teoría de la organización del embrión por el núcleo se conoce como de Spemann-Mangold.

Hans Spemann y Hilde Mangold. Imágenes de Wikipedia.

Hans Spemann y Hilde Mangold. Imágenes de Wikipedia.

Años más tarde, en 1938, Spemann propuso en un libro lo que entonces parecía un experimento fantástico, la Transferencia Nuclear de Células Somáticas, lo que después sería el método Dolly. Sin embargo, el trabajo de Spemann y Mangold fue casi olvidado durante años, tal vez porque provenía de la Alemania nazi. En 1935, cuando Spemann recibió el Nobel, la revista Time publicaba que el premio se había concedido a un “científico nazi”. Spemann nunca se afilió al Partido Nacionalsocialista, pero un libro recoge su amistad con el filósofo nazi Heidegger, y refiere un artículo en el que elogiaba el esfuerzo científico del Tercer Reich y bendecía al que llamaba “nuestro Führer”. Quien en cambio sí fue miembro del partido y activo defensor del nazismo fue Otto Mangold, marido de Hilde y también estudiante de Spemann. Dado que Hilde murió antes del ascenso de Hitler, tal vez la tragedia la libró de pasar a la historia como científica nazi.

Por último, conviene aclarar que el motivo de las investigaciones de Spemann y Mangold era demostrar cómo el núcleo celular dirigía el desarrollo del embrión, algo que hoy nos resulta evidente, pero por entonces aún ni siquiera se sabía cuál era la sede de la información hereditaria en la célula. Aquellas investigaciones no estaban encaminadas a obtener clones idénticos. Pero como contaré mañana, en décadas posteriores la idea de Spemann se emplearía para obtener los primeros animales clónicos, mucho antes de la oveja Dolly.

Así seríamos hoy si fuéramos neandertales

Juguemos a la historia-ficción: ¿qué habría ocurrido si nosotros, los que nos autodenominamos Homo sapiens, nos hubiéramos extinguido, y en nuestro lugar hubieran prosperado quienes realmente se extinguieron, los neandertales?

Naturalmente, no tenemos la menor idea, y lo que sigue no es otra cosa que un ejercicio de imaginación sin más pretensiones. Para empezar, los científicos aún no se han puesto de acuerdo en muchas de las características que definían a esta especie, como tampoco en qué fue lo que la llevó a la extinción.

Sobre esto último, tradicionalmente se ha supuesto que nosotros teníamos alguna ventaja adaptativa de la que ellos carecían, y/o que el cambio climático tuvo algo que ver, y/o que nuestra mayor población y expansión los fue reduciendo hasta eliminarlos.

Esta semana se ha publicado un interesante estudio en Nature Communications que no dirime la intervención de los dos primeros factores, las ventajas adaptativas y el cambio climático, pero que sí llega a la interesante conclusión de que en todo caso ambos habrían sido irrelevantes.

Los investigadores han creado un modelo matemático para simular la dinámica de las poblaciones de sapiens y neandertales dejando fuera estos dos factores. Tras correr el modelo cientos de miles de veces, cambiando los valores de diversas variables para dejar el margen necesario a las muchas incertidumbres sobre el pasado y sobre los propios neandertales, en la inmensa mayoría de los casos el resultado terminaba siendo el mismo: ellos se extinguían, nosotros prosperábamos, simplemente porque éramos más.

“Sugerimos que, aunque la selección y los factores ambientales pueden o no haber jugado un papel en la dinámica entre especies de neandertales y humanos modernos, el eventual reemplazo de los neandertales lo determinó la repetida migración de humanos modernos desde África hacia Eurasia”, escriben los investigadores.

Pero ¿y si no hubiera sido así? Demos marcha atrás al reloj unos miles de años e imaginemos que los hoy llamados humanos modernos desaparecieron, y que en su lugar sobrevivimos nosotros, los neandertales.

Lo primero que necesitamos es desprendernos de un tópico erróneo. Apostaría el caballo que no tengo a que, cuando el titular de este artículo llegue a Twitter, provocará algún que otro comentario equiparando los neandertales a salvajes brutos sin el menor atisbo de inteligencia, y probablemente asociando esta categoría al nombre de algún político. Nunca falta.

Pero no: hoy los científicos tienden a pensar que los neandertales eran similares en inteligencia a sus coetáneos antepasados nuestros, los humanos modernos del Paleolítico, antiguamente conocidos como Hombres de Cromañón o cromañones por el hallazgo de sus restos en la cueva francesa de Cro-Magnon.

Probablemente nuestra inteligencia se ha desarrollado desde el Paleolítico, pero podemos imaginar que lo mismo habría ocurrido con los neandertales si hubieran sido ellos los triunfadores en la competición por la supervivencia. Así que aquí estaríamos nosotros, los neandertales, una especie pensante.

Por ello y como es natural, no nos llamaríamos a nosotros mismos neandertales, sino que reservaríamos este apelativo para nuestros antepasados cuyos restos se encontraron en el valle alemán de Neander. Nosotros nos llamaríamos, lógicamente, Homo sapiens. Y esta denominación nos diferenciaría de otra especie humana extinguida sobre la que aún tendríamos muchas incógnitas: los cromañones, que habríamos designado Homo cromagnonensis.

Nuestro aspecto físico sería distinto. El Museo Neanderthal, en Alemania, nos muestra cómo seríamos hoy:

Recreación de un neandertal en el Museo Neanderthal. Imagen de Clemens Vasters / Flickr / CC.

Recreación de un neandertal en el Museo Neanderthal. Imagen de Clemens Vasters / Flickr / CC.

Recreación de un neandertal en el Museo Neanderthal. Imagen de suchosch / Flickr / CC.

Recreación de un neandertal en el Museo Neanderthal. Imagen de suchosch / Flickr / CC.

Seríamos físicamente más robustos, con miembros más cortos, tórax amplio, una fuerte mandíbula, mentón pequeño, cejas prominentes, nariz grande, frente huidiza y un cráneo de mayor tamaño. Existía una app para Android y iPhone, creada por el Museo Smithsonian de EEUU, que neandertalizaba el rostro a partir de una foto, pero por desgracia parece que ya no está disponible. En cualquier caso, podemos imaginar que nuestros cánones de belleza serían algo diferentes, y tal vez el número uno en la lista de los hombres más atractivos del mundo estaría invariablemente ocupado por alguien del estilo del actor Ron Perlman (El nombre de la rosa, Hellboy, Alien resurrección…):

Ron Perlman. Imagen de Wikipedia / Gage Skidmore.

Ron Perlman. Imagen de Wikipedia / Gage Skidmore.

O quizá alguien como Steven Tyler de Aerosmith:

Steven Tyler (Aerosmith). Imagen de Wikipedia.

Steven Tyler (Aerosmith). Imagen de Wikipedia.

En cuanto a las chicas, tal vez las proporciones faciales de Linda Hunt (NCIS: Los Angeles) nos parecerían cercanas a la perfección:

Linda Hunt en NCIS: Los Ángeles. Imagen de CBS.

Linda Hunt en NCIS: Los Ángeles. Imagen de CBS.

La nariz de Rossy de Palma ya no sería, como suele decirse, picassiana, sino que sería el modelo más solicitado en las clínicas de rinoplastia:

Rossy de Palma. Imagen de Wikipedia / Georges Biard.

Rossy de Palma. Imagen de Wikipedia / Georges Biard.

Por supuesto, seríamos más fuertes, aunque según los expertos la mayor fortaleza física de los neandertales no se distribuía por igual en todo su cuerpo. Seríamos más potentes arrastrando y levantando pesos; probablemente no habríamos tenido que recurrir tanto al uso de animales de carga o, más modernamente, a las máquinas. Cualquier persona media sería capaz de levantar pesos similares a los que hoy soportan los atletas halterofílicos.

Al contrario que nosotros, los neandertales tenían espacio suficiente en sus anchas mandíbulas para acomodar todas sus piezas dentales, por lo que no sufriríamos con las muelas del juicio, y los problemas de dientes montados y descolocados serían más bien raros. En la sociedad neandertal, la de ortodoncista no sería una salida profesional muy recomendable.

Los neandertales estaban mejor adaptados que nosotros al clima de la Eurasia templada, aunque los científicos aún debaten por qué esta presunta adaptación al frío no se reflejaba en algunos rasgos como la nariz. Pero asumamos la hipótesis tradicional de la adaptación al frío: según esto, no usaríamos tanta ropa de abrigo, y tal vez nos habríamos expandido a las regiones más gélidas del planeta. Quizá nos encontraríamos más cómodos en la Antártida que en los trópicos.

Los ojos de los neandertales eran más grandes que los nuestros, y tal vez también la región de la corteza cerebral dedicada al procesamiento visual. Algunos científicos suponen que su visión en condiciones de poca luz era superior a la nuestra. Si fuéramos neandertales, no necesitaríamos tanta iluminación nocturna. Y esto, unido a la mayor resistencia al frío, sugiere que tal vez nos ahorraríamos un buen dinero en luz y calefacción.

Pero ¿cómo sería nuestra sociedad neandertal? Aquí es donde surgen los problemas. Ciertos expertos proponen que los neandertales eran menos gregarios que nosotros, y que vivían en grupos más pequeños y dispersos. Y se ha propuesto que precisamente este mayor gregarismo nuestro, de los Homo sapiens de la realidad real, fue uno de los factores clave de nuestro éxito: nos unió en grandes grupos para establecernos en asentamientos estables, nos permitió crear las ciudades e inventar la agricultura, y por tanto más tarde la industria, la mecanización, las tecnologías de la comunicación y la información, los transportes globales, y todo aquello en lo que hoy se basan nuestras sociedades.

Si fuéramos neandertales, tal vez viviríamos en pequeñas comunidades desconectadas, cazando y recolectando, pero sin haber desarrollado el conocimiento, la cultura (aún se debate en qué grado los neandertales tenían o no pensamiento simbólico), el orden social, la economía, la industria, la ciencia…

Lo cual pone de manifiesto que, incluso si su supervivencia se hubiera prolongado unos miles de años más, los neandertales lo habrían tenido difícil para sobrevivir en el mundo de los Homo sapiens de la edad contemporánea. Y así es como nuestro experimento mental se desploma.

Claro que tal vez este planeta hoy gozaría de mayor salud si lo hubieran colonizado los neandertales en lugar de nosotros. Eso sí, también nos habríamos perdido muchas cosas por las que merece la pena ser un Homo sapiens.

Thomson, el físico que (realmente no) descubrió el electrón

Dicen los libros de texto que el físico inglés Joseph John Thomson descubrió el electrón el 30 de abril de 1897. De lo cual se sigue que la primera partícula subatómica acaba de cumplir 120 años.

Pero en realidad no fue exactamente así.

J. J. Thomson en su laboratorio. Imagen de Wikipedia.

J. J. Thomson en su laboratorio. Imagen de Wikipedia.

A los humanos nos vuelven locos los aniversarios, sobre todo cuando hacen números redondos. En cuanto algo cumple un año, ya nos estamos lanzando a celebrarlo, y luego vienen los cinco, los diez… Y todo hay que decirlo, es uno de los recursos de los que vive el periodismo, incluido el que practica este que suscribe. Y tampoco está mal recordar nuestra historia reconociendo a quienes lo merecen.

Pero a veces, estas efemérides deben servir para aclarar cómo no sucedieron las cosas. Los grandes descubrimientos científicos no suelen ser cuestión de una fecha concreta, ya que normalmente son fruto de un largo proceso de investigación. Incluso cuando hay un momento de eureka, un experimento que revela de súbito un resultado largamente esperado, este deberá esperar a ser divulgado, y a que la comunidad científica le dé su asentimiento.

Las fechas que asociamos a ciertos hallazgos, como la relatividad general de Einstein cuyo  centenario celebrábamos en 2015, suelen ser las de su divulgación. Antes era común que los científicos leyeran sus trabajos ante los miembros de alguna institución científica. Hoy la fecha de un descubrimiento es la de su publicación en una revista después de que los resultados hayan sido validados por otros expertos en un proceso llamado revisión por pares.

En el caso de Thomson, la fecha del 30 de abril corresponde al día en que presentó sus resultados ante la Royal Institution. Pero el físico no presentó el electrón, sino el “corpúsculo”, una partícula constituyente de los rayos catódicos que tenía carga negativa y cuya masa era unas mil veces menor que la del ion de hidrógeno.

En realidad, Thomson no fue el primero en intuir que el átomo no era tal á-tomo (indivisible), sino que contenía partículas subatómicas. Tampoco fue el primero en sugerir que esas partículas eran unidades elementales de carga eléctrica. Tampoco fue el primero en deducir que los rayos catódicos estaban formados por algo cargado negativamente, ni fue el primero en intentar calcular una masa para ese algo. Y por último, tampoco inventó la palabra “electrón”; esta había sido acuñada por el irlandés George Johnstone Stoney en 1891, un término esperando algo que designar.

El de Thomson es un caso peculiar. Acudo a Isobel Falconer, historiadora de matemáticas y física de la Universidad de St. Andrews (Reino Unido), experta en la figura de Thomson y autora del libro J.J. Thompson And The Discovery Of The Electron (CRC Press, 1997), entre otros muchos trabajos sobre el físico. Le pregunto si debemos considerar a Thomson el descubridor del electrón, y esta es su respuesta: “descubrir es una palabra muy resbaladiza”.

“El trabajo de Thomson reunió un número de líneas separadas que presagiaron el electrón como lo conocemos”, prosigue Falconer. “Al demostrar que podía manipular y adscribir masa y velocidad a cargas unitarias, concebidas como estructuras en el éter, reunió la visión mecanística británica y la visión continental de la relación entre electricidad y materia, haciendo de los electrones algo real para los físicos experimentales”.

Más que un padre natural para el electrón, Thomson fue el padre adoptivo; recogió a una criatura ya casi existente entonces para presentarla en sociedad y hacerla visible ante los demás. La historiadora añade que la constatación de que los electrones podían explicar las propiedades periódicas de los elementos de la tabla consiguió unificar las visiones del átomo que hasta entonces separaban a físicos y químicos.

Todo lo cual es motivo más que suficiente para conceder a Thomson un lugar de privilegio en el hall of fame de la ciencia, sin necesidad de recordarle por el electrón. “Pienso que Thomson debería ser recordado como un físico prolífico y muy creativo, con gran visión y con olfato para los problemas interesantes, que estaba preparado para romper las reglas en la prosecución de esos problemas”, dice Falconer. Tanto la historiadora como otros expertos en la obra de Thomson coinciden en su papel crucial en el cambio de siglo de la física, en su transición hacia la física de partículas. Y no solo a través de su propio trabajo, sino como director del laboratorio Cavendish de la Universidad de Cambridge, un criadero de premios Nobel.

De hecho, cuando Thomson recibió el Nobel en 1906 no fue por el electrón, sino por su línea principal de trabajo, la conducción de electricidad en recipientes llenos de gas. Curiosamente, el electrón llegó en tubos al vacío, algo que era más bien una rareza en su trabajo.

Tal vez al propio Thomson le sorprendería verse hoy en los libros como el padre del electrón. Según Falconer, era un tipo modesto. Y seguro que de otra paternidad se sentía mucho más orgulloso: vivió para ver cómo su hijo George Paget Thomson le seguía los pasos hasta el mismísimo altar de los Nobel, donde un segundo Thomson recogería su premio en 1937.

Halloween, un viaje de ida y vuelta Europa-EEUU

Sin ánimo de pasar por el antropólogo que no soy, sino como mirón de la realidad, veo dos perfiles básicos de odiadores de Halloween: quienes aborrecen todo lo que lleve la marca de las barras y estrellas, y un sector del cristianismo empeñado, por razones que no me corresponde analizar, en erradicar una inocente diversión laica que tiene como protagonistas a los niños (quienes, por cierto, no suelen celebrarlo como una fiesta pagana). Y que pretenden reemplazar por una contraversión llamada Holywin que, no puedo evitarlo, me trae a la mente aquellos alambicados deportes pergeñados por el Estado Mundial de Un mundo feliz para mantener a la población ideológicamente encarrilada.

Imagen de Wikipedia.

Imagen de Wikipedia.

Y si se fijan, no abro un tercer taxón para los puristas de las tradiciones propias; en mi sola experiencia (ya lo he dicho, simple mirón), esto suele ser una excusa bajo la cual se esconde uno de los otros dos motivos. Hay pretendidos puristas que nunca se pierden el festival del año nuevo chino, y otros que han adoptado el Holywin con los brazos abiertos.

Tanto a unos como a otros les recomendaría una lectura nada sofisticada: la entrada sobre Halloween en la versión española de la Wikipedia. No voy a descubrir nada nuevo; ahí encontrarán, para su probable sorpresa, que la fiesta de Halloween y la mayor parte de sus tradiciones y simbología no se han inventado en la patria del Capitán América, sino que viajaron hasta allí desde la cristiana Europa ancestral para luego regresar a casa. Eso sí, convertidas en un exitoso producto comercial, que para eso no hay nadie como ellos.

Por servirles la carne magra de lo que cuenta la Wikipedia, Halloween (venga, que es muy fácil: ja-lo-güin) es una contracción de All Hallows Eve, o “víspera de Todos los Santos”; aunque otro posible origen del término sería Hellequin, nombre que daban los galos a la leyenda de las cabalgatas de muertos y espíritus que en diferentes lugares de España se conocen como Santa Compaña (Galicia), Estantiga (Castilla) o Güestia (Asturias). Misma cosa, distintos nombres.

Graffiti de la Santa Compaña en Pontevedra. Imagen de Wikipedia.

Graffiti de la Santa Compaña en Pontevedra. Imagen de Wikipedia.

En la tradición de inspiración cristiana de la víspera de Todos los Santos, llamada Noche de Difuntos, aparecen casi todos los elementos del armazón de la moderna fiesta de Halloween. Comencemos por el rollo muertos, zombis y esqueletos:

…cuando llega la noche de difuntos se oye doblar sola la campana de la capilla, y que las ánimas de los muertos, envueltas en jirones de sus sudarios, corren como en una cacería fantástica por entre las breñas y los zarzales. Los ciervos braman espantados, los lobos aúllan, las culebras dan horrorosos silbidos, y al otro día se han visto impresas en la nieve las huellas de los descarnados pies de los esqueletos.

No, no es un párrafo del guión de una de Tim Burton, sino un fragmento de El Monte de las Ánimas, el cuento de Gustavo Adolfo Bécquer sobre la leyenda de la Noche de Difuntos en Soria; cuento que, al menos antes, solía ser lectura obligatoria en los colegios, incluyendo los católicos.

¿Calabazas? Corto y pego textualmente de la Wikipedia: “dentro de Castilla, en la actual comunidad de Madrid, se tienen registros de numerosos municipios como Ambite, Canencia, El Vellón, Estremera, Manzanares el Real, Loeches, Fuentidueña de Tajo en los que se decoraban las casas con calabazas, a las que le hacían agujeros en su interior para simular una cara con ojos, nariz y boca y se introducía una vela o luz dentro de la calabaza, con el objetivo de invocar espíritus protectores y asustar a la gente generando una atmósfera de terror”.

¿Niños pidiendo chuches de puerta en puerta? Por entonces aún no se habían inventado los Peta Zetas, los Sugus ni las gominolas, pero cito de la misma fuente: “En Asturias, en el siglo XVIII, los niños llevaban lámparas y pedían comida a las puertas de las casas durante esa noche”.

Dicho todo esto, hago una salvedad, y es que por desgracia la Wikipedia tiene sus peligros. Me refiero a la calidad de las fuentes. Como suelo explicar aquí, la ventaja del sistema de las revistas científicas (también para las ciencias sociales y las humanidades) es que todo lo publicado ha sido validado por otros especialistas en la misma materia, certificando que el contenido de un estudio es legítimo y no una veleidad de los autores. La Wikipedia a menudo cita fuentes académicas, pero otras veces refiere a páginas web o blogs que a su vez no enlazan a fuentes originales contrastables.

En el caso de las tradiciones asturianas, por ejemplo, hay garantías en la referencia a una entrevista con un etnógrafo especializado en la mitología local. En cambio, lo relativo a Castilla se basa en un blog que ofrece abundante información elaborada, pero sin citar una sola fuente verificable.

Entiéndanme, no estoy calificando el blog como pura fantasía, pero hay que justificar que lo contado no se lo ha inventado uno mismo, sobre todo cuando ni siquiera se sabe quién es “uno mismo” (el blog parece ser anónimo). ¿Dónde se han publicado o documentado esas costumbres de tantos pueblos madrileños? Es el doble filo de la internet 2.0; lo bueno es que cualquiera puede publicar lo que quiera, pero lo malo es que cualquiera puede publicar lo que quiera. Con mucha frecuencia, los rumores falsos se propagan y rebotan de unas webs a otras hasta que todo el mundo los da por ciertos. Frente a este círculo vicioso, las revistas académicas crean un círculo virtuoso: estudios aprobados por expertos que citan otros estudios a su vez también aprobados por expertos.

Hecha esta salvedad y volviendo al asunto, lo que sí parece aceptado comúnmente por los eruditos es que las raíces de todo esto se remontan a más atrás, a la festividad céltica del Samhain, el fin de la cosecha y el cambio de estación, ligada al culto a los espíritus; que perdura en el paganismo, y que la Iglesia Católica trató de reconducir haciéndola coincidir con la celebración de Todos los Santos, pero que popularmente conservó sus evocaciones siniestras en la Noche de Difuntos.

Y con todo este equipaje cultural, emprendamos viaje, de Europa a América. Como es bien conocido, las tradiciones españolas se difundieron al Nuevo Continente, y en el caso que nos ocupa tomaron forma en fiestas como el Día de Muertos de México. Pero antes de que algún mexicano se me enfade, aclaremos: ellos también aportaron sus propias costumbres. Aquí sí puedo citar a un académico, el experto en historia celta Manuel Alberro, escribiendo en 2004 en Araucaria, Revista Iberoamericana de Filosofía, Política y Humanidades:

Tanto Halloween como el Día de los Difuntos y su Día de Muertos no son más que modernas versiones de las arcaicas festividades del céltico Samain y de la Festividad de los Muertos de los aztecas.

Cráneos de cerámica decorada del Día de Muertos en México. Imagen de Wikipedia.

Cráneos de cerámica decorada del Día de Muertos en México. Imagen de Wikipedia.

Es decir, que la rama céltica se enlazó con una rama cristiana, a cuyo resultado se le unió en México otra rama mesoamericana. Más al norte, la tradición llegó a EEUU desde Irlanda. A estas costumbres se les aplicaron formatos locales de acuerdo a la idiosincrasia de cada pueblo. Pero curiosamente, y para horror de los alérgicos al mestizaje (que los hay aquí, en México y en EEUU), todo acaba mezclándose: si a muchos mexicanos la versión estadounidense de la fiesta les indigna tanto o más que a muchos españoles, resulta que en algunos lugares de EEUU el Día de Muertos está comenzando a teñir también las celebraciones de Halloween.

Pero si en EEUU (y de rebote, aquí) Halloween carece de todo aquel carácter de solemnidad, de rezo y de veneración hacia los antepasados, no es más que una secularización idéntica a la que ha experimentado, por ejemplo, la Navidad, que obviamente ya no es una celebración exclusiva de los cristianos. Parecería lógico que los odiadores de Halloween por razones religiosas despreciaran con la misma contundencia todo aquello de la Navidad que no es estrictamente cristiano; y no hablo solo del árbol y el Jingle Bells: desde el turrón, que es de origen árabe, hasta la Nochevieja, una fiesta civil, y sus uvas, una costumbre de origen digamos socioagrícola. Eh, y nada de regalos a los adultos, que los Reyes Magos se fueron con las manos vacías.

Me reservo para el final la guinda del pastel. Resumiendo todo lo anterior, Halloween es una fiesta popularizada en EEUU pero llevada allí desde Irlanda, con influencia cristiana y raíz celta en la celebración del Samhain o Samaín. Pero ¿quién inventó el Samaín?

Según la mitología gallega, los descendientes del rey Breogán conquistaron Irlanda y llevaron allí las tradiciones celtas; entre ellas, el Samaín. Hoy esta fiesta se celebra como tradición recuperada en muchos lugares de Galicia. Pero resulta que también leyendas irlandesas hablan de invasiones desde la cornisa cantábrica de la Península Ibérica. Así que, si las leyendas fueran ciertas, los irlandeses habrían heredado el origen de Halloween de los celtas gallegos.

Claro que solo son leyendas. ¿O no? De hecho, ciertos estudios sugieren que tal vez realmente existan vínculos genéticos entre ambos pueblos actuales, aunque aún hay controversia al respecto (y con razón: el principal proponente de la hipótesis es Bryan Sykes, genetista de Oxford que protagonizó un gran bluf cuando publicó que el Yeti era un descendiente de un oso polar del Paleolítico, como conté aquí y aquí).

Y sin más, les dejo con unos minutos musicales para Halloween: una joya clásica de los Bauhaus, padres del post-punk gótico, y la cuasi-banda sonora oficial de la fiesta, del inclasificable Marilyn Manson, sobre (esta vez sí) vídeo de Pesadilla antes de Navidad de Tim Burton. Felices sustos.

Museo Galileo, también hay ciencia en Florencia (y sin multitudes)

Dado que la cabra tira al monte, no podía pasar por Florencia este verano sin dejarme caer por el Museo Galileo, del que tenía muy buenas referencias.

Busto de Galileo Galilei en el Museo Galileo de Florencia. Imagen de J. Y.

Busto de Galileo Galilei en el Museo Galileo de Florencia. Imagen de J. Y.

Situado a espaldas de la archigigafamosísima Galería de los Oficios, mirando hacia el cercano Ponte Vecchio sobre el Arno, lo primero que sorprende es lo bien que se respira por allí. En cada rincón hiperturístico de la capital toscana se embuten masas de gente cual chorizo en tripa, buscando la belleza que mareó a Stendhal y el encanto que sedujo a E. M. Forster. Aunque la primera sigue intacta, es difícil disfrutar de ella cuando el segundo ha desaparecido por completo, disuelto en el parque temático turístico en el que vienen convirtiéndose ciudades como aquella. Pero por suerte, en el Museo Galileo puedes respirar tranquilo e incluso extender los brazos sin empujar a nadie; por desgracia, porque esto revela la escasa prioridad por la ciencia de la inmensa mayoría de los turistas que visitan Florencia.

Pero al grano. Cabe advertir de que el museo no es casa-museo. Galileo, nacido en Pisa pero florentino de por vida, residió en varios lugares distintos de la ciudad. Su morada más conocida, donde sufrió arresto domiciliario y donde murió, es Villa Il Gioiello, que se encuentra en Arcetri, a las afueras. Pero el museo no ocupa una residencia del astrónomo, sino que es la reconversión (desde 2010) del antiguo Museo de Historia de la Ciencia, ubicado junto al río en un céntrico palacio del siglo XI.

El Museo Galileo presume de albergar una de las mayores colecciones del mundo de instrumentos científicos antiguos. Todavía he podido leer por ahí que el auge de la ciencia en Florencia fue una señal de su decadencia artística, ignorando que en el Renacimiento aún no se había inventado la confrontación actual entre ciencias y letras; humanismo y ciencia eran inseparables, con Leonardo como ejemplo de cabecera. Lo cierto es que la ciudad fue tan importante para el conocimiento como lo fue para el arte: los Medici y los Duques de Lorena impulsaron el progreso científico con su mecenazgo, como queda bien reflejado en la colección del museo. Y no olvidemos que el mapa con el que Colón convenció a los Reyes Católicos procedía de Florencia.

Las dos plantas (más sótano) del museo reúnen aparatos de todas las ramas históricas de la ciencia. Hay instrumentos meteorológicos, ópticos, geográficos, eléctricos, mecánicos, químicos, astronómicos y quirúrgicos, si no me dejo nada. Hay cilindros electrostáticos, barómetros, botellas de Leyden, microscopios, esferas armilares, mapas, globos terráqueos, modelos anatómicos de cera, relojes…

En fin, un paraíso para quien sienta fascinación por los cacharros antiguos, y una buena oportunidad para explicar a los niños cómo, por qué y para qué se inventaron muchos de aquellos cachivaches. Y por supuesto, hay telescopios, incluyendo los primeros de Galileo y también algunos de los primeros gigantescos telescopios de precisión. Tampoco falta la reliquia, en forma de huesudos dedos del astrónomo, a poca distancia de los libros que le valieron una condena de por vida.

El museo también ilustra algunos fenómenos científicos curiosos, como la paradoja mecánica del doble cono que (solo) aparentemente rueda cuesta arriba, un artefacto inventado en el siglo XVIII. También se ilustra el concepto de anamorfosis, un dibujo o escultura cuyo sentido solo puede percibirse cuando se refleja en un espejo deformado o se observa desde un punto de vista distinto al natural. Finalmente, abajo hay una pequeña sección interactiva, de esas de apretar botones. A mis hijos les encantó, aunque es bastante birriosa en comparación con los museos dedicados a ello, y por tanto es la parte menos interesante.

De izquierda a derecha y de arriba abajo: modelos anatómicos en cera de fetos en el útero materno; telescopios y obras de Galileo; huesos de los dedos de Galileo; anamorfosis de una esfera armilar en un espejo convexo. Imágenes de J. Y.

De izquierda a derecha y de arriba abajo: modelos anatómicos en cera de fetos en el útero materno; telescopios y obras de Galileo; huesos de los dedos de Galileo; anamorfosis de una esfera armilar en un espejo convexo. Imágenes de J. Y.

Una última curiosidad a destacar es que el Museo Galileo, tal como hoy lo conocemos, es sobre todo el producto del empeño de una mujer, la historiadora de la ciencia y museóloga Maria Luisa Righini Bonelli (1917-1981). Aunque ella no lo creó, sino que recibió el encargo de dirigirlo en 1961, sin su intervención quizá el museo habría desaparecido cuando en 1966 un desbordamiento del Arno inundó el edificio y dañó gravemente la colección.

Righini Bonelli, que vivía en un apartamento en el propio inmueble, sacó de allí los instrumentos más valiosos, sin ayuda y con sus propias manos, arriesgando su vida sobre la cornisa que une la sede del museo con la Galería de los Oficios. Hasta el 20 de noviembre de este año, una exposición temporal en el sótano del museo recuerda la hazaña de la mujer que salvó un precioso tesoro histórico-científico para que hoy todos podamos seguir disfrutándolo. Aunque seamos solo unos pocos.

España, décima en ciencia, vigesimoséptima en premios Nobel de ciencia

En la tabla de países por número de premios Nobel de ciencia, España ocupa un lugar muy por debajo de su puesto en producción científica. No es ninguna novedad, pero es interesante analizar los datos: la décima potencia mundial por volumen de publicaciones científicas se queda en una discreta vigesimoséptima posición en número de premios, compartiendo escalón con Finlandia (que ocupa el puesto 26 en publicaciones), Irlanda (39), Rumanía (41), Lituania (58) y Luxemburgo (81).

Imagen de Jonathunder / Wikipedia.

Imagen de Jonathunder / Wikipedia.

Para la clasificación de los países por el volumen de publicaciones científicas, he tomado los datos del Journal & Country Rank de SCImago, un grupo de investigación integrado por el CSIC y las Universidades de Granada, Extremadura, Carlos III y Alcalá de Henares. A su vez, los datos de SCImago proceden de Scopus, la mayor base de datos de bibliografía académica del mundo. Según estos datos, y para el período acumulado 1996-2014, España ocupa el décimo lugar en número de publicaciones, con un total de 952.099, inmediatamente por debajo de India (998.544) y superando a Australia (890.458).

Este décimo puesto es razonable con respecto al peso económico del país, y es además consistente con otros índices similares, por ejemplo el actualizado el pasado año por la revista Scientific American con datos de la OCDE. En este caso España se mantiene también en décimo puesto por publicaciones en una selección de revistas solo para el año 2014, y anda en la misma línea –puesto arriba o abajo– tanto en gasto en I+D como en doctorados en ciencia e ingeniería. Tampoco es una sorpresa que España se desploma en número de patentes, cayendo al puesto 22. Habría que consultar a los expertos de la industria a qué se debe esta carencia ya clásica en nuestro sistema; pero independientemente de las múltiples razones que supongo podrían aportar, también sería un avance si patentar dejara de estar mal visto en este país.

En cuanto a los datos de los premios Nobel por países, los he tomado de la lista publicada en la Wikipedia, seleccionando solo los de Física, Química y Fisiología o Medicina. Dado que con bastante frecuencia los investigadores trabajan en naciones diferentes a la suya de origen, la lista recopilada por la Wikipedia adopta el criterio más favorable, adjudicando los premios tanto al país natal del galardonado como al estado donde trabajaba en el momento de la concesión. Por ejemplo, Severo Ochoa cuenta como un premio para España y otro para Estados Unidos. A nuestro país se le adjudican dos galardones, Ochoa y Ramón y Cajal.

A continuación detallo la lista de los 41 primeros países por producción científica con su número respectivo de premios Nobel de ciencia. Y para apreciarlo mejor de un vistazo, he construido dos gráficos que expongo más abajo. El primero refleja los mismos datos de esta lista, añadiendo a los 41 primeros Lituania (puesto 58) y Luxemburgo (81), dos países que cuentan con el mismo número de premios Nobel de ciencia que España. El segundo gráfico muestra estos mismos 43 países ordenados por el número de premios.

  1. Estados Unidos: 267 premios Nobel de ciencia
  2. China: 8
  3. Reino Unido: 85
  4. Alemania: 85
  5. Japón: 21
  6. Francia: 36
  7. Canadá: 17
  8. Italia: 12
  9. India: 4
  10. España: 2
  11. Australia: 11
  12. Corea del Sur: 0
  13. Rusia: 17
  14. Holanda: 16
  15. Brasil: 1
  16. Suiza: 20
  17. Taiwán: 1
  18. Suecia: 16
  19. Polonia: 7
  20. Turquía: 1
  21. Bégica: 6
  22. Irán: 0
  23. Israel: 6
  24. Austria: 16
  25. Dinamarca: 9
  26. Finlandia: 2
  27. Grecia: 0
  28. República Checa: 3
  29. México: 1
  30. Noruega: 5
  31. Hong Kong: –
  32. Singapur: 0
  33. Portugal: 1
  34. Suráfrica: 5
  35. Nueva Zelanda: 3
  36. Malasia: 0
  37. Argentina: 3
  38. Hungría: 11
  39. Irlanda: 2
  40. Ucrania: 4
  41. Rumanía: 2

58. Lituania: 2

81. Luxemburgo: 2

Producción científica (por número de publicaciones, eje vertical izquierdo) y premios Nobel de ciencia (eje vertical derecho) por países. El eje horizontal muestra ordenados los 41 países con mayor producción científica, a los que se añaden Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Producción científica (por número de publicaciones, eje vertical izquierdo) y premios Nobel de ciencia (eje vertical derecho) por países. El eje horizontal muestra ordenados los 41 países con mayor producción científica, a los que se añaden Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Lista de países por número de premios Nobel de ciencia. En la lista figuran los 41 países con mayor producción científica, más Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Lista de países por número de premios Nobel de ciencia. En la lista figuran los 41 países con mayor producción científica, más Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Interesante, ¿no? El primer gráfico nos sugiere una idea curiosa: el perfil de España, en cuanto a la brutal diferencia entre su producción científica y su número de premios Nobel, es similar al de países llamados emergentes, como China, India, Corea del Sur o Brasil. En el caso de los países asiáticos, incluyendo Japón, se da además la circunstancia de que permanecieron desconectados de la ciencia occidental, y por tanto de los premios Nobel, durante buena parte del siglo XX. Sin embargo, los dos premios Nobel españoles datan de 1906 y 1959.

Dejo además aquí otros datos para la reflexión. La organización de los premios Nobel publica las nominaciones a sus galardones 50 años después (¿será para asegurarse de que los posibles agraviados ya fallecieron?). Por lo tanto, hasta hoy se han publicado las candidaturas desde la primera edición de los premios, en 1901, hasta 1964 (aún no han introducido los datos de 1965). Una nominación se produce cuando alguna autoridad científica, normalmente invitada por el comité organizador, propone el nombre de un candidato.

Pues bien, y aquí está el dato interesante: para que Ramón y Cajal fuera agraciado con el premio de Fisiología o Medicina en 1906, tuvo que recibir un total de 65 nominaciones desde la primera edición de los premios en 1901. Y para que juzguen si esto es poco o mucho, una comparación: al italiano Camillo Golgi, que compartió el premio con Cajal, le bastó con menos de la mitad, 31 nominaciones.

La lista de los nominados españoles revela otros detalles jugosos. Por no concernir a este blog, no voy a comentar las candidaturas a los premios de Literatura o de la Paz, aunque les recomiendo que no se las pierdan. En lo que se refiere a ciencia, y hasta 1964, cuatro investigadores fueron candidatos en la categoría de Fisiología o Medicina y nunca premiados. El pionero catalán de la bacteriología Jaume Ferran i Clua recibió seis nominaciones; las mismas que el fisiólogo, también catalán, August Pi i Sunyer. El médico e investigador vallisoletano Pío del Río Hortega, considerado un continuador de Cajal, fue nominado en tres ocasiones. Por último, tres nominaciones obtuvo también alguien que en la web de los Nobel aparece como “Joseph G. Ocaña”, y que imagino debe referirse al médico malagueño José Gómez Ocaña, investigador del cerebro. Último dato: según la web de los Nobel, ningún español fue jamás nominado hasta 1964 para un premio de Física o Química.

Parece que ya iría siendo hora de un nuevo reconocimiento a la buena ciencia que se hace por aquí, ¿no creen?

“Galileo no tenía pruebas del heliocentrismo, sino una corazonada”

Hace unos días hemos conmemorado los 400 años desde que la Iglesia Católica condenó a Galileo Galilei por primera vez, el 24 de febrero de 1616. Aquella primera condena fue una censura y una advertencia: ordenaba a Galileo que se abstuviera de divulgar su teoría heliocéntrica, bajo la amenaza de un castigo más contundente si persistía en defender algo que la Iglesia tachó de herético y absurdo. El astrónomo se vio obligado a acatar la sentencia, pero no desistió, lo que le llevaría en 1633 a una condena de reclusión en arresto domiciliario que se mantuvo hasta su muerte en 1642.

El caso de Galileo es uno de los más conocidos entre los miles de atropellos que el conocimiento ha sufrido ante el dogma promulgado por la autoridad dominante. Históricamente este papel ha recaído sobre todo en la autoridad religiosa, aunque no ha sido la única. Pero más allá de que –aunque sea a la larga– la realidad se acabe imponiendo a la doctrina ideológica de cualquier clase, lo realmente llamativo es que casos como el de Galileo se cierren en falso.

En 1992 el Papa Juan Pablo II emitió un reconocimiento del error, pero la referencia al caso del astrónomo italiano como una “trágica incomprensión mutua” hizo que incluso científicos de la propia Iglesia, como el exdirector del Observatorio Vaticano George Coyne, protestaran por lo que consideraban una declaración tibia, el intento de perpetuar un mito de desencuentro sin expresar la repulsa debida ante cualquier abuso de la autoridad contra la búsqueda de los hechos.

Lo cierto es que aún perduran ciertos mitos, en un debate a menudo más defendido con vísceras que con argumentos. La postura de Coyne es refrescante frente a quienes en el lado de la Iglesia aún tratan de poner paños calientes, asegurando poco menos que Galileo estuvo muy a gustito en casa el resto de su vida, y que no fue para tanto. Claro que, en el bando contrario, también hay quienes piensan que Galileo murió en la hoguera.

Guy Consolmagno, director del Observatorio Vaticano. Imagen de vaticanobservatory.va.

Guy Consolmagno, director del Observatorio Vaticano. Imagen de vaticanobservatory.va.

Tengo costumbre en este blog de dar voz a las partes cuando se trata de asuntos polémicos, cuando esta voz procede de figuras de relevancia. Y en este caso quien trae los argumentos es el reputado científico planetario, escritor, divulgador y ganador de la medalla Carl Sagan, jesuita y director del Observatorio Vaticano, el estadounidense Guy Consolmagno. Para Consolmagno, el asunto de Galileo continúa resumiéndose hoy, 400 años después, con una palabra: “complicado”.

La tesis de Consolmagno es que en tiempos de Galileo el heliocentrismo no estaba aún demostrado, y que las observaciones del astrónomo no aportaron pruebas definitivas: “Galileo aseguraba que sus observaciones de las fases de Venus probaban el sistema copernicano, pero de hecho también eran consistentes con el sistema de Tycho Brahe; así que no había pruebas”, me escribe Consolmagno en un correo electrónico.

El sistema descrito por el danés Tycho Brahe era intermedio entre el geocéntrico de Ptolomeo y el heliocéntrico de Copérnico. Brahe propuso que los planetas giraban alrededor del Sol, pero que tanto este como la Luna a su vez orbitaban en torno a la Tierra inmóvil. Este sistema era una ingeniosa manera de reconciliar las observaciones favorables al sistema copernicano con la doctrina bíblica.

Y aunque es innnegable que Brahe trataba de mantenerse dentro de la ortodoxia religiosa de la época, también aportó razones científicas para defender su modelo: si la Tierra se moviera, decía, debía percibirse un movimiento aparente de las estrellas (hoy llamado paralaje) a lo largo del año, y esto no ocurría. El error de Brahe y de los astrónomos de la época consistía en creer que las estrellas estaban mucho más cerca de lo que realmente están; frente a las distancias estelares, el tamaño de la órbita terrestre es tan pequeño que el paralaje no era detectable con la tecnología de la época.

Pero si, como afirma Consolmagno, las observaciones de Galileo eran compatibles con el sistema de Brahe (que sean los astrofísicos quienes discutan esta cuestión), que no chocaba con la doctrina católica, ¿por qué el italiano defendía la teoría heliocéntrica? “Leyendo los libros y diarios de Galileo queda claro que él creía en el sistema copernicano incluso a mediados de los 1590, unos 15 años antes de que construyera su primer telescopio”, dice Consolmagno. “Así que sus observaciones no cambiaron su idea; ya había decidido”.

Pero Consolmagno no trata de desacreditar la aptitud de Galileo como científico: “Esto no es inusual en la ciencia; muy a menudo, los científicos realizan observaciones o experimentos para confirmar corazonadas que ya tienen”, señala. Aunque la ciencia debe acercarse con neutralidad a la disputa entre dos hipótesis en conflicto, quienes la encarnan, que son los científicos, no necesariamente contemplan ambas propuestas con ecuanimidad. Aunque siempre los datos se encargan de poner a cada una en su sitio.

Galileo Galilei en 1624, por Ottavio Leoni. Imagen de Wikipedia.

Galileo Galilei en 1624, por Ottavio Leoni. Imagen de Wikipedia.

Consolmagno admite que “la base de los argumentos esgrimidos en 1616 contra el sistema copernicano era teológica; la reforma Protestante había dado nuevo énfasis a la aproximación al significado literal de la Biblia frente a su interpretación”. Y esta literalidad era clara: la Tierra es inmóvil.

Sin embargo, el director del Observatorio Vaticano insiste en que las pruebas del modelo heliocéntrico no eran tan nítidas en tiempos de Galileo como popularmente se asume, y que por entonces la autoridad competente, eclesiástica por supuesto, no hacía sino ceñirse al conocimiento corriente: “La condena del sistema copernicano como filosofía absurda, sin entrar en más detalles, implica que los autores estaban muy al tanto de muchos argumentos científicos contra este sistema que las observaciones de entonces no podían rebatir”, expone Consolmagno; y añade: “Incluso el Cardenal Bellarmine [quien juzgó no solo a Galileo, sino también a Giordano Bruno, que sí murió en la hoguera] escribió entonces que si el movimiento de la Tierra podía demostrarse (es decir, una prueba de nivel matemático), entonces simplemente las escrituras tendrían que reinterpretarse, lo que no veía como una gran dificultad”.

Por último, Consomagno quiere insistir en que la Iglesia aceptó la ciencia de Galileo hace “cientos de años”, y que la declaración de Juan Pablo II fue “más bien una disculpa personal reconociendo que el juicio a Galileo fue injusto”.

Dicho queda. Como conclusión de todo esto se me ocurre una reflexión. Y es que, si después de 400 años aún no hemos conseguido cerrar el debate sobre Galileo, cómo podemos esperar zanjar otros de aparición más reciente. Y aunque podría parecernos que hoy el progreso científico no se ve tan impedido por las doctrinas ideológicas dominantes (e incluyo todas, de cariz diferente según tiempo y lugar), tal vez deberíamos pensarlo dos veces: el progreso científico necesita un clima social, y el clima social depende de doctrinas ideológicas. Y cada vez que una autoridad ideológica dice cosas tales como que la fertilización in vitro es un “aquelarre químico”, es como entrar por una de esas puertas del Ministerio del Tiempo y aparecer en 1616.