Archivo de la categoría ‘Historia’

Halloween, un viaje de ida y vuelta Europa-EEUU

Sin ánimo de pasar por el antropólogo que no soy, sino como mirón de la realidad, veo dos perfiles básicos de odiadores de Halloween: quienes aborrecen todo lo que lleve la marca de las barras y estrellas, y un sector del cristianismo empeñado, por razones que no me corresponde analizar, en erradicar una inocente diversión laica que tiene como protagonistas a los niños (quienes, por cierto, no suelen celebrarlo como una fiesta pagana). Y que pretenden reemplazar por una contraversión llamada Holywin que, no puedo evitarlo, me trae a la mente aquellos alambicados deportes pergeñados por el Estado Mundial de Un mundo feliz para mantener a la población ideológicamente encarrilada.

Imagen de Wikipedia.

Imagen de Wikipedia.

Y si se fijan, no abro un tercer taxón para los puristas de las tradiciones propias; en mi sola experiencia (ya lo he dicho, simple mirón), esto suele ser una excusa bajo la cual se esconde uno de los otros dos motivos. Hay pretendidos puristas que nunca se pierden el festival del año nuevo chino, y otros que han adoptado el Holywin con los brazos abiertos.

Tanto a unos como a otros les recomendaría una lectura nada sofisticada: la entrada sobre Halloween en la versión española de la Wikipedia. No voy a descubrir nada nuevo; ahí encontrarán, para su probable sorpresa, que la fiesta de Halloween y la mayor parte de sus tradiciones y simbología no se han inventado en la patria del Capitán América, sino que viajaron hasta allí desde la cristiana Europa ancestral para luego regresar a casa. Eso sí, convertidas en un exitoso producto comercial, que para eso no hay nadie como ellos.

Por servirles la carne magra de lo que cuenta la Wikipedia, Halloween (venga, que es muy fácil: ja-lo-güin) es una contracción de All Hallows Eve, o «víspera de Todos los Santos»; aunque otro posible origen del término sería Hellequin, nombre que daban los galos a la leyenda de las cabalgatas de muertos y espíritus que en diferentes lugares de España se conocen como Santa Compaña (Galicia), Estantiga (Castilla) o Güestia (Asturias). Misma cosa, distintos nombres.

Graffiti de la Santa Compaña en Pontevedra. Imagen de Wikipedia.

Graffiti de la Santa Compaña en Pontevedra. Imagen de Wikipedia.

En la tradición de inspiración cristiana de la víspera de Todos los Santos, llamada Noche de Difuntos, aparecen casi todos los elementos del armazón de la moderna fiesta de Halloween. Comencemos por el rollo muertos, zombis y esqueletos:

…cuando llega la noche de difuntos se oye doblar sola la campana de la capilla, y que las ánimas de los muertos, envueltas en jirones de sus sudarios, corren como en una cacería fantástica por entre las breñas y los zarzales. Los ciervos braman espantados, los lobos aúllan, las culebras dan horrorosos silbidos, y al otro día se han visto impresas en la nieve las huellas de los descarnados pies de los esqueletos.

No, no es un párrafo del guión de una de Tim Burton, sino un fragmento de El Monte de las Ánimas, el cuento de Gustavo Adolfo Bécquer sobre la leyenda de la Noche de Difuntos en Soria; cuento que, al menos antes, solía ser lectura obligatoria en los colegios, incluyendo los católicos.

¿Calabazas? Corto y pego textualmente de la Wikipedia: «dentro de Castilla, en la actual comunidad de Madrid, se tienen registros de numerosos municipios como Ambite, Canencia, El Vellón, Estremera, Manzanares el Real, Loeches, Fuentidueña de Tajo en los que se decoraban las casas con calabazas, a las que le hacían agujeros en su interior para simular una cara con ojos, nariz y boca y se introducía una vela o luz dentro de la calabaza, con el objetivo de invocar espíritus protectores y asustar a la gente generando una atmósfera de terror».

¿Niños pidiendo chuches de puerta en puerta? Por entonces aún no se habían inventado los Peta Zetas, los Sugus ni las gominolas, pero cito de la misma fuente: «En Asturias, en el siglo XVIII, los niños llevaban lámparas y pedían comida a las puertas de las casas durante esa noche».

Dicho todo esto, hago una salvedad, y es que por desgracia la Wikipedia tiene sus peligros. Me refiero a la calidad de las fuentes. Como suelo explicar aquí, la ventaja del sistema de las revistas científicas (también para las ciencias sociales y las humanidades) es que todo lo publicado ha sido validado por otros especialistas en la misma materia, certificando que el contenido de un estudio es legítimo y no una veleidad de los autores. La Wikipedia a menudo cita fuentes académicas, pero otras veces refiere a páginas web o blogs que a su vez no enlazan a fuentes originales contrastables.

En el caso de las tradiciones asturianas, por ejemplo, hay garantías en la referencia a una entrevista con un etnógrafo especializado en la mitología local. En cambio, lo relativo a Castilla se basa en un blog que ofrece abundante información elaborada, pero sin citar una sola fuente verificable.

Entiéndanme, no estoy calificando el blog como pura fantasía, pero hay que justificar que lo contado no se lo ha inventado uno mismo, sobre todo cuando ni siquiera se sabe quién es «uno mismo» (el blog parece ser anónimo). ¿Dónde se han publicado o documentado esas costumbres de tantos pueblos madrileños? Es el doble filo de la internet 2.0; lo bueno es que cualquiera puede publicar lo que quiera, pero lo malo es que cualquiera puede publicar lo que quiera. Con mucha frecuencia, los rumores falsos se propagan y rebotan de unas webs a otras hasta que todo el mundo los da por ciertos. Frente a este círculo vicioso, las revistas académicas crean un círculo virtuoso: estudios aprobados por expertos que citan otros estudios a su vez también aprobados por expertos.

Hecha esta salvedad y volviendo al asunto, lo que sí parece aceptado comúnmente por los eruditos es que las raíces de todo esto se remontan a más atrás, a la festividad céltica del Samhain, el fin de la cosecha y el cambio de estación, ligada al culto a los espíritus; que perdura en el paganismo, y que la Iglesia Católica trató de reconducir haciéndola coincidir con la celebración de Todos los Santos, pero que popularmente conservó sus evocaciones siniestras en la Noche de Difuntos.

Y con todo este equipaje cultural, emprendamos viaje, de Europa a América. Como es bien conocido, las tradiciones españolas se difundieron al Nuevo Continente, y en el caso que nos ocupa tomaron forma en fiestas como el Día de Muertos de México. Pero antes de que algún mexicano se me enfade, aclaremos: ellos también aportaron sus propias costumbres. Aquí sí puedo citar a un académico, el experto en historia celta Manuel Alberro, escribiendo en 2004 en Araucaria, Revista Iberoamericana de Filosofía, Política y Humanidades:

Tanto Halloween como el Día de los Difuntos y su Día de Muertos no son más que modernas versiones de las arcaicas festividades del céltico Samain y de la Festividad de los Muertos de los aztecas.

Cráneos de cerámica decorada del Día de Muertos en México. Imagen de Wikipedia.

Cráneos de cerámica decorada del Día de Muertos en México. Imagen de Wikipedia.

Es decir, que la rama céltica se enlazó con una rama cristiana, a cuyo resultado se le unió en México otra rama mesoamericana. Más al norte, la tradición llegó a EEUU desde Irlanda. A estas costumbres se les aplicaron formatos locales de acuerdo a la idiosincrasia de cada pueblo. Pero curiosamente, y para horror de los alérgicos al mestizaje (que los hay aquí, en México y en EEUU), todo acaba mezclándose: si a muchos mexicanos la versión estadounidense de la fiesta les indigna tanto o más que a muchos españoles, resulta que en algunos lugares de EEUU el Día de Muertos está comenzando a teñir también las celebraciones de Halloween.

Pero si en EEUU (y de rebote, aquí) Halloween carece de todo aquel carácter de solemnidad, de rezo y de veneración hacia los antepasados, no es más que una secularización idéntica a la que ha experimentado, por ejemplo, la Navidad, que obviamente ya no es una celebración exclusiva de los cristianos. Parecería lógico que los odiadores de Halloween por razones religiosas despreciaran con la misma contundencia todo aquello de la Navidad que no es estrictamente cristiano; y no hablo solo del árbol y el Jingle Bells: desde el turrón, que es de origen árabe, hasta la Nochevieja, una fiesta civil, y sus uvas, una costumbre de origen digamos socioagrícola. Eh, y nada de regalos a los adultos, que los Reyes Magos se fueron con las manos vacías.

Me reservo para el final la guinda del pastel. Resumiendo todo lo anterior, Halloween es una fiesta popularizada en EEUU pero llevada allí desde Irlanda, con influencia cristiana y raíz celta en la celebración del Samhain o Samaín. Pero ¿quién inventó el Samaín?

Según la mitología gallega, los descendientes del rey Breogán conquistaron Irlanda y llevaron allí las tradiciones celtas; entre ellas, el Samaín. Hoy esta fiesta se celebra como tradición recuperada en muchos lugares de Galicia. Pero resulta que también leyendas irlandesas hablan de invasiones desde la cornisa cantábrica de la Península Ibérica. Así que, si las leyendas fueran ciertas, los irlandeses habrían heredado el origen de Halloween de los celtas gallegos.

Claro que solo son leyendas. ¿O no? De hecho, ciertos estudios sugieren que tal vez realmente existan vínculos genéticos entre ambos pueblos actuales, aunque aún hay controversia al respecto (y con razón: el principal proponente de la hipótesis es Bryan Sykes, genetista de Oxford que protagonizó un gran bluf cuando publicó que el Yeti era un descendiente de un oso polar del Paleolítico, como conté aquí y aquí).

Y sin más, les dejo con unos minutos musicales para Halloween: una joya clásica de los Bauhaus, padres del post-punk gótico, y la cuasi-banda sonora oficial de la fiesta, del inclasificable Marilyn Manson, sobre (esta vez sí) vídeo de Pesadilla antes de Navidad de Tim Burton. Felices sustos.

Museo Galileo, también hay ciencia en Florencia (y sin multitudes)

Dado que la cabra tira al monte, no podía pasar por Florencia este verano sin dejarme caer por el Museo Galileo, del que tenía muy buenas referencias.

Busto de Galileo Galilei en el Museo Galileo de Florencia. Imagen de J. Y.

Busto de Galileo Galilei en el Museo Galileo de Florencia. Imagen de J. Y.

Situado a espaldas de la archigigafamosísima Galería de los Oficios, mirando hacia el cercano Ponte Vecchio sobre el Arno, lo primero que sorprende es lo bien que se respira por allí. En cada rincón hiperturístico de la capital toscana se embuten masas de gente cual chorizo en tripa, buscando la belleza que mareó a Stendhal y el encanto que sedujo a E. M. Forster. Aunque la primera sigue intacta, es difícil disfrutar de ella cuando el segundo ha desaparecido por completo, disuelto en el parque temático turístico en el que vienen convirtiéndose ciudades como aquella. Pero por suerte, en el Museo Galileo puedes respirar tranquilo e incluso extender los brazos sin empujar a nadie; por desgracia, porque esto revela la escasa prioridad por la ciencia de la inmensa mayoría de los turistas que visitan Florencia.

Pero al grano. Cabe advertir de que el museo no es casa-museo. Galileo, nacido en Pisa pero florentino de por vida, residió en varios lugares distintos de la ciudad. Su morada más conocida, donde sufrió arresto domiciliario y donde murió, es Villa Il Gioiello, que se encuentra en Arcetri, a las afueras. Pero el museo no ocupa una residencia del astrónomo, sino que es la reconversión (desde 2010) del antiguo Museo de Historia de la Ciencia, ubicado junto al río en un céntrico palacio del siglo XI.

El Museo Galileo presume de albergar una de las mayores colecciones del mundo de instrumentos científicos antiguos. Todavía he podido leer por ahí que el auge de la ciencia en Florencia fue una señal de su decadencia artística, ignorando que en el Renacimiento aún no se había inventado la confrontación actual entre ciencias y letras; humanismo y ciencia eran inseparables, con Leonardo como ejemplo de cabecera. Lo cierto es que la ciudad fue tan importante para el conocimiento como lo fue para el arte: los Medici y los Duques de Lorena impulsaron el progreso científico con su mecenazgo, como queda bien reflejado en la colección del museo. Y no olvidemos que el mapa con el que Colón convenció a los Reyes Católicos procedía de Florencia.

Las dos plantas (más sótano) del museo reúnen aparatos de todas las ramas históricas de la ciencia. Hay instrumentos meteorológicos, ópticos, geográficos, eléctricos, mecánicos, químicos, astronómicos y quirúrgicos, si no me dejo nada. Hay cilindros electrostáticos, barómetros, botellas de Leyden, microscopios, esferas armilares, mapas, globos terráqueos, modelos anatómicos de cera, relojes…

En fin, un paraíso para quien sienta fascinación por los cacharros antiguos, y una buena oportunidad para explicar a los niños cómo, por qué y para qué se inventaron muchos de aquellos cachivaches. Y por supuesto, hay telescopios, incluyendo los primeros de Galileo y también algunos de los primeros gigantescos telescopios de precisión. Tampoco falta la reliquia, en forma de huesudos dedos del astrónomo, a poca distancia de los libros que le valieron una condena de por vida.

El museo también ilustra algunos fenómenos científicos curiosos, como la paradoja mecánica del doble cono que (solo) aparentemente rueda cuesta arriba, un artefacto inventado en el siglo XVIII. También se ilustra el concepto de anamorfosis, un dibujo o escultura cuyo sentido solo puede percibirse cuando se refleja en un espejo deformado o se observa desde un punto de vista distinto al natural. Finalmente, abajo hay una pequeña sección interactiva, de esas de apretar botones. A mis hijos les encantó, aunque es bastante birriosa en comparación con los museos dedicados a ello, y por tanto es la parte menos interesante.

De izquierda a derecha y de arriba abajo: modelos anatómicos en cera de fetos en el útero materno; telescopios y obras de Galileo; huesos de los dedos de Galileo; anamorfosis de una esfera armilar en un espejo convexo. Imágenes de J. Y.

De izquierda a derecha y de arriba abajo: modelos anatómicos en cera de fetos en el útero materno; telescopios y obras de Galileo; huesos de los dedos de Galileo; anamorfosis de una esfera armilar en un espejo convexo. Imágenes de J. Y.

Una última curiosidad a destacar es que el Museo Galileo, tal como hoy lo conocemos, es sobre todo el producto del empeño de una mujer, la historiadora de la ciencia y museóloga Maria Luisa Righini Bonelli (1917-1981). Aunque ella no lo creó, sino que recibió el encargo de dirigirlo en 1961, sin su intervención quizá el museo habría desaparecido cuando en 1966 un desbordamiento del Arno inundó el edificio y dañó gravemente la colección.

Righini Bonelli, que vivía en un apartamento en el propio inmueble, sacó de allí los instrumentos más valiosos, sin ayuda y con sus propias manos, arriesgando su vida sobre la cornisa que une la sede del museo con la Galería de los Oficios. Hasta el 20 de noviembre de este año, una exposición temporal en el sótano del museo recuerda la hazaña de la mujer que salvó un precioso tesoro histórico-científico para que hoy todos podamos seguir disfrutándolo. Aunque seamos solo unos pocos.

España, décima en ciencia, vigesimoséptima en premios Nobel de ciencia

En la tabla de países por número de premios Nobel de ciencia, España ocupa un lugar muy por debajo de su puesto en producción científica. No es ninguna novedad, pero es interesante analizar los datos: la décima potencia mundial por volumen de publicaciones científicas se queda en una discreta vigesimoséptima posición en número de premios, compartiendo escalón con Finlandia (que ocupa el puesto 26 en publicaciones), Irlanda (39), Rumanía (41), Lituania (58) y Luxemburgo (81).

Imagen de Jonathunder / Wikipedia.

Imagen de Jonathunder / Wikipedia.

Para la clasificación de los países por el volumen de publicaciones científicas, he tomado los datos del Journal & Country Rank de SCImago, un grupo de investigación integrado por el CSIC y las Universidades de Granada, Extremadura, Carlos III y Alcalá de Henares. A su vez, los datos de SCImago proceden de Scopus, la mayor base de datos de bibliografía académica del mundo. Según estos datos, y para el período acumulado 1996-2014, España ocupa el décimo lugar en número de publicaciones, con un total de 952.099, inmediatamente por debajo de India (998.544) y superando a Australia (890.458).

Este décimo puesto es razonable con respecto al peso económico del país, y es además consistente con otros índices similares, por ejemplo el actualizado el pasado año por la revista Scientific American con datos de la OCDE. En este caso España se mantiene también en décimo puesto por publicaciones en una selección de revistas solo para el año 2014, y anda en la misma línea –puesto arriba o abajo– tanto en gasto en I+D como en doctorados en ciencia e ingeniería. Tampoco es una sorpresa que España se desploma en número de patentes, cayendo al puesto 22. Habría que consultar a los expertos de la industria a qué se debe esta carencia ya clásica en nuestro sistema; pero independientemente de las múltiples razones que supongo podrían aportar, también sería un avance si patentar dejara de estar mal visto en este país.

En cuanto a los datos de los premios Nobel por países, los he tomado de la lista publicada en la Wikipedia, seleccionando solo los de Física, Química y Fisiología o Medicina. Dado que con bastante frecuencia los investigadores trabajan en naciones diferentes a la suya de origen, la lista recopilada por la Wikipedia adopta el criterio más favorable, adjudicando los premios tanto al país natal del galardonado como al estado donde trabajaba en el momento de la concesión. Por ejemplo, Severo Ochoa cuenta como un premio para España y otro para Estados Unidos. A nuestro país se le adjudican dos galardones, Ochoa y Ramón y Cajal.

A continuación detallo la lista de los 41 primeros países por producción científica con su número respectivo de premios Nobel de ciencia. Y para apreciarlo mejor de un vistazo, he construido dos gráficos que expongo más abajo. El primero refleja los mismos datos de esta lista, añadiendo a los 41 primeros Lituania (puesto 58) y Luxemburgo (81), dos países que cuentan con el mismo número de premios Nobel de ciencia que España. El segundo gráfico muestra estos mismos 43 países ordenados por el número de premios.

  1. Estados Unidos: 267 premios Nobel de ciencia
  2. China: 8
  3. Reino Unido: 85
  4. Alemania: 85
  5. Japón: 21
  6. Francia: 36
  7. Canadá: 17
  8. Italia: 12
  9. India: 4
  10. España: 2
  11. Australia: 11
  12. Corea del Sur: 0
  13. Rusia: 17
  14. Holanda: 16
  15. Brasil: 1
  16. Suiza: 20
  17. Taiwán: 1
  18. Suecia: 16
  19. Polonia: 7
  20. Turquía: 1
  21. Bégica: 6
  22. Irán: 0
  23. Israel: 6
  24. Austria: 16
  25. Dinamarca: 9
  26. Finlandia: 2
  27. Grecia: 0
  28. República Checa: 3
  29. México: 1
  30. Noruega: 5
  31. Hong Kong: –
  32. Singapur: 0
  33. Portugal: 1
  34. Suráfrica: 5
  35. Nueva Zelanda: 3
  36. Malasia: 0
  37. Argentina: 3
  38. Hungría: 11
  39. Irlanda: 2
  40. Ucrania: 4
  41. Rumanía: 2

58. Lituania: 2

81. Luxemburgo: 2

Producción científica (por número de publicaciones, eje vertical izquierdo) y premios Nobel de ciencia (eje vertical derecho) por países. El eje horizontal muestra ordenados los 41 países con mayor producción científica, a los que se añaden Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Producción científica (por número de publicaciones, eje vertical izquierdo) y premios Nobel de ciencia (eje vertical derecho) por países. El eje horizontal muestra ordenados los 41 países con mayor producción científica, a los que se añaden Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Lista de países por número de premios Nobel de ciencia. En la lista figuran los 41 países con mayor producción científica, más Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Lista de países por número de premios Nobel de ciencia. En la lista figuran los 41 países con mayor producción científica, más Lituania y Luxemburgo. Elaboración propia con datos de SCImago y Wikipedia.

Interesante, ¿no? El primer gráfico nos sugiere una idea curiosa: el perfil de España, en cuanto a la brutal diferencia entre su producción científica y su número de premios Nobel, es similar al de países llamados emergentes, como China, India, Corea del Sur o Brasil. En el caso de los países asiáticos, incluyendo Japón, se da además la circunstancia de que permanecieron desconectados de la ciencia occidental, y por tanto de los premios Nobel, durante buena parte del siglo XX. Sin embargo, los dos premios Nobel españoles datan de 1906 y 1959.

Dejo además aquí otros datos para la reflexión. La organización de los premios Nobel publica las nominaciones a sus galardones 50 años después (¿será para asegurarse de que los posibles agraviados ya fallecieron?). Por lo tanto, hasta hoy se han publicado las candidaturas desde la primera edición de los premios, en 1901, hasta 1964 (aún no han introducido los datos de 1965). Una nominación se produce cuando alguna autoridad científica, normalmente invitada por el comité organizador, propone el nombre de un candidato.

Pues bien, y aquí está el dato interesante: para que Ramón y Cajal fuera agraciado con el premio de Fisiología o Medicina en 1906, tuvo que recibir un total de 65 nominaciones desde la primera edición de los premios en 1901. Y para que juzguen si esto es poco o mucho, una comparación: al italiano Camillo Golgi, que compartió el premio con Cajal, le bastó con menos de la mitad, 31 nominaciones.

La lista de los nominados españoles revela otros detalles jugosos. Por no concernir a este blog, no voy a comentar las candidaturas a los premios de Literatura o de la Paz, aunque les recomiendo que no se las pierdan. En lo que se refiere a ciencia, y hasta 1964, cuatro investigadores fueron candidatos en la categoría de Fisiología o Medicina y nunca premiados. El pionero catalán de la bacteriología Jaume Ferran i Clua recibió seis nominaciones; las mismas que el fisiólogo, también catalán, August Pi i Sunyer. El médico e investigador vallisoletano Pío del Río Hortega, considerado un continuador de Cajal, fue nominado en tres ocasiones. Por último, tres nominaciones obtuvo también alguien que en la web de los Nobel aparece como «Joseph G. Ocaña», y que imagino debe referirse al médico malagueño José Gómez Ocaña, investigador del cerebro. Último dato: según la web de los Nobel, ningún español fue jamás nominado hasta 1964 para un premio de Física o Química.

Parece que ya iría siendo hora de un nuevo reconocimiento a la buena ciencia que se hace por aquí, ¿no creen?

«Galileo no tenía pruebas del heliocentrismo, sino una corazonada»

Hace unos días hemos conmemorado los 400 años desde que la Iglesia Católica condenó a Galileo Galilei por primera vez, el 24 de febrero de 1616. Aquella primera condena fue una censura y una advertencia: ordenaba a Galileo que se abstuviera de divulgar su teoría heliocéntrica, bajo la amenaza de un castigo más contundente si persistía en defender algo que la Iglesia tachó de herético y absurdo. El astrónomo se vio obligado a acatar la sentencia, pero no desistió, lo que le llevaría en 1633 a una condena de reclusión en arresto domiciliario que se mantuvo hasta su muerte en 1642.

El caso de Galileo es uno de los más conocidos entre los miles de atropellos que el conocimiento ha sufrido ante el dogma promulgado por la autoridad dominante. Históricamente este papel ha recaído sobre todo en la autoridad religiosa, aunque no ha sido la única. Pero más allá de que –aunque sea a la larga– la realidad se acabe imponiendo a la doctrina ideológica de cualquier clase, lo realmente llamativo es que casos como el de Galileo se cierren en falso.

En 1992 el Papa Juan Pablo II emitió un reconocimiento del error, pero la referencia al caso del astrónomo italiano como una «trágica incomprensión mutua» hizo que incluso científicos de la propia Iglesia, como el exdirector del Observatorio Vaticano George Coyne, protestaran por lo que consideraban una declaración tibia, el intento de perpetuar un mito de desencuentro sin expresar la repulsa debida ante cualquier abuso de la autoridad contra la búsqueda de los hechos.

Lo cierto es que aún perduran ciertos mitos, en un debate a menudo más defendido con vísceras que con argumentos. La postura de Coyne es refrescante frente a quienes en el lado de la Iglesia aún tratan de poner paños calientes, asegurando poco menos que Galileo estuvo muy a gustito en casa el resto de su vida, y que no fue para tanto. Claro que, en el bando contrario, también hay quienes piensan que Galileo murió en la hoguera.

Guy Consolmagno, director del Observatorio Vaticano. Imagen de vaticanobservatory.va.

Guy Consolmagno, director del Observatorio Vaticano. Imagen de vaticanobservatory.va.

Tengo costumbre en este blog de dar voz a las partes cuando se trata de asuntos polémicos, cuando esta voz procede de figuras de relevancia. Y en este caso quien trae los argumentos es el reputado científico planetario, escritor, divulgador y ganador de la medalla Carl Sagan, jesuita y director del Observatorio Vaticano, el estadounidense Guy Consolmagno. Para Consolmagno, el asunto de Galileo continúa resumiéndose hoy, 400 años después, con una palabra: «complicado».

La tesis de Consolmagno es que en tiempos de Galileo el heliocentrismo no estaba aún demostrado, y que las observaciones del astrónomo no aportaron pruebas definitivas: «Galileo aseguraba que sus observaciones de las fases de Venus probaban el sistema copernicano, pero de hecho también eran consistentes con el sistema de Tycho Brahe; así que no había pruebas», me escribe Consolmagno en un correo electrónico.

El sistema descrito por el danés Tycho Brahe era intermedio entre el geocéntrico de Ptolomeo y el heliocéntrico de Copérnico. Brahe propuso que los planetas giraban alrededor del Sol, pero que tanto este como la Luna a su vez orbitaban en torno a la Tierra inmóvil. Este sistema era una ingeniosa manera de reconciliar las observaciones favorables al sistema copernicano con la doctrina bíblica.

Y aunque es innnegable que Brahe trataba de mantenerse dentro de la ortodoxia religiosa de la época, también aportó razones científicas para defender su modelo: si la Tierra se moviera, decía, debía percibirse un movimiento aparente de las estrellas (hoy llamado paralaje) a lo largo del año, y esto no ocurría. El error de Brahe y de los astrónomos de la época consistía en creer que las estrellas estaban mucho más cerca de lo que realmente están; frente a las distancias estelares, el tamaño de la órbita terrestre es tan pequeño que el paralaje no era detectable con la tecnología de la época.

Pero si, como afirma Consolmagno, las observaciones de Galileo eran compatibles con el sistema de Brahe (que sean los astrofísicos quienes discutan esta cuestión), que no chocaba con la doctrina católica, ¿por qué el italiano defendía la teoría heliocéntrica? «Leyendo los libros y diarios de Galileo queda claro que él creía en el sistema copernicano incluso a mediados de los 1590, unos 15 años antes de que construyera su primer telescopio», dice Consolmagno. «Así que sus observaciones no cambiaron su idea; ya había decidido».

Pero Consolmagno no trata de desacreditar la aptitud de Galileo como científico: «Esto no es inusual en la ciencia; muy a menudo, los científicos realizan observaciones o experimentos para confirmar corazonadas que ya tienen», señala. Aunque la ciencia debe acercarse con neutralidad a la disputa entre dos hipótesis en conflicto, quienes la encarnan, que son los científicos, no necesariamente contemplan ambas propuestas con ecuanimidad. Aunque siempre los datos se encargan de poner a cada una en su sitio.

Galileo Galilei en 1624, por Ottavio Leoni. Imagen de Wikipedia.

Galileo Galilei en 1624, por Ottavio Leoni. Imagen de Wikipedia.

Consolmagno admite que «la base de los argumentos esgrimidos en 1616 contra el sistema copernicano era teológica; la reforma Protestante había dado nuevo énfasis a la aproximación al significado literal de la Biblia frente a su interpretación». Y esta literalidad era clara: la Tierra es inmóvil.

Sin embargo, el director del Observatorio Vaticano insiste en que las pruebas del modelo heliocéntrico no eran tan nítidas en tiempos de Galileo como popularmente se asume, y que por entonces la autoridad competente, eclesiástica por supuesto, no hacía sino ceñirse al conocimiento corriente: «La condena del sistema copernicano como filosofía absurda, sin entrar en más detalles, implica que los autores estaban muy al tanto de muchos argumentos científicos contra este sistema que las observaciones de entonces no podían rebatir», expone Consolmagno; y añade: «Incluso el Cardenal Bellarmine [quien juzgó no solo a Galileo, sino también a Giordano Bruno, que sí murió en la hoguera] escribió entonces que si el movimiento de la Tierra podía demostrarse (es decir, una prueba de nivel matemático), entonces simplemente las escrituras tendrían que reinterpretarse, lo que no veía como una gran dificultad».

Por último, Consomagno quiere insistir en que la Iglesia aceptó la ciencia de Galileo hace «cientos de años», y que la declaración de Juan Pablo II fue «más bien una disculpa personal reconociendo que el juicio a Galileo fue injusto».

Dicho queda. Como conclusión de todo esto se me ocurre una reflexión. Y es que, si después de 400 años aún no hemos conseguido cerrar el debate sobre Galileo, cómo podemos esperar zanjar otros de aparición más reciente. Y aunque podría parecernos que hoy el progreso científico no se ve tan impedido por las doctrinas ideológicas dominantes (e incluyo todas, de cariz diferente según tiempo y lugar), tal vez deberíamos pensarlo dos veces: el progreso científico necesita un clima social, y el clima social depende de doctrinas ideológicas. Y cada vez que una autoridad ideológica dice cosas tales como que la fertilización in vitro es un «aquelarre químico», es como entrar por una de esas puertas del Ministerio del Tiempo y aparecer en 1616.

Historia de un hallazgo y una portada: el primer púlsar y Joy Division (II)

En 1978, el punk había muerto. Entiéndanme, nunca lo ha hecho. Pero ninguna otra corriente musical ha pasado tan deprisa del antes al después, tanto que si uno parpadeaba corría el peligro de perdérsela. A comienzos de los años 70 surgió una oleada de bandas que después recibirían el nombre de protopunk. El momento de auge del punk llegó entre 1975 y 1977. Un año después, los británicos Crass certificaban la muerte de este fenómeno músico-social con un tema titulado precisamente así, Punk is Dead, en el que denunciaban cómo aquel movimiento presuntamente revolucionario se había convertido en un artefacto comercial.

En realidad, siempre lo fue: la corriente principal en Europa, liderada en aquel primer momento por los Sex Pistols, fue un invento de su manager, Malcolm McLaren, y de la novia de este, la diseñadora Vivienne Westwood, quienes incluso copiaron para los Pistols la estética originalmente creada por el estadounidense Richard Hell. McLaren era un tipo brillante y astuto que supo mantenerse a la sombra explotando aquella hambre generacional de cambio para convertirla en una marca rentable, como muchos otros han hecho antes y después.

Así, en 1978 ya se hablaba del afterpunk, hoy denominado más apropiadamente post-punk (más apropiadamente porque after es algo posterior, mientras que post es más bien una consecuencia). En aquella tendencia se incluían músicos influidos por el punk, pero que se apartaban de la doctrina pura para explorar otros territorios musicales aún vírgenes.

Entre aquellos músicos afterpunk estaban cuatro chicos de un suburbio de Manchester, una ciudad industrial del norte de Inglaterra. Dos años antes, en el 76, Bernard Sumner y Peter Hook habían asistido junto con otro amigo a un concierto de los Sex Pistols; y como sucedió del mismo modo en tantos otros casos, decidieron formar su propia banda. Eligieron el nombre de Warsaw (Varsovia) por una canción de David Bowie (ya les dije aquí que Ziggy fue una influencia ineludible), pero en 1978, y ya con su formación definitiva, lo cambiaron por Joy Division.

El nuevo nombre era deliberadamente polémico, algo habitual en los grupos de la época: Joy Division era, supuestamente, el nombre que los nazis habían dado a los pabellones de los campos de concentración donde explotaban a las mujeres judías como esclavas sexuales, según narraba la durísima novela La casa de las muñecas del superviviente del holocausto Ka-tzetnik 135633 (seudónimo de Yehiel De-Nur). Para elevar el nivel de provocación, el primer disco de la banda, un EP con cuatro temas, mostraba en la portada a un niño nazi tocando el tambor.

Portada del álbum Unknown Pleasures de Joy Division (1979).

Portada del álbum Unknown Pleasures de Joy Division (1979).

Así comenzó un ascenso que pronto les llevó a fichar por Factory Records, una de las banderas de la música independiente británica del momento. En 1979 Joy Division grababan su álbum de debut, Unknown Pleasures, ya con el sonido característico que les ha inmortalizado y que inauguró una corriente de la que beberían no solo muchos otros grupos del momento, sino corrientes iniciadas después como el gótico, el emo y todos sus primos; una carrera enormemente influyente teniendo en cuenta su fugacidad: un par de años y solo dos LP.

El segundo de ellos, Closer, se publicó póstumamente: el 18 de mayo de 1980 Ian Curtis, el vocalista, un tipo atormentado por su inestabilidad emocional, sus crisis de epilepsia y un matrimonio demasiado temprano y problemático, se ahorcaba en la cocina con una cuerda de tender la ropa. Su hija Natalie acababa de cumplir un año. Tras aquella tragedia, el grupo cambió su nombre por el de New Order, y así comenzó otra historia. Pero la de Joy Division nunca terminó; fíjense en este dato: la primera web oficial del grupo se abrió en junio de 2015.

Pero tal vez a estas alturas usted esté pensando que todo esto está muy bien, y al mismo tiempo se pregunte qué diablos pinta en un blog de ciencia y qué tiene que ver con el púlsar CP 1919 o PSR B1919+21, del que hablé ayer. Ya llegamos.

A la hora de elegir la imagen para la portada de Unknown Pleasures, el diseñador y cofundador de Factory Records, Peter Saville, recibió una carpeta con material que los propios miembros del grupo habían elegido (según algunas fuentes, fue una sugerencia del batería Stephen Morris). Entre aquellas imágenes había un extraño gráfico de líneas y picos. Saville lo recordaba así para el diario The Guardian en 2011:

El patrón de ondas era tan apropiado. Era de CP 1919, el primer púlsar, así que es probable que el gráfico procediera de Jodrell Bank [observatorio astronómico de la Universidad de Manchester], que es local para Manchester y Joy Division. Es a la vez técnico y sensual. Es tenso, como la batería de Stephen Morris, pero también fluido: mucha gente piensa que es un latido cardíaco. No parecía realmente necesario que el título fuera en la portada. Le pregunté a Rob [Gretton, manager de Joy Division] sobre ello y, entre nosotros, decidimos que no sería cool. Era el movimiento post-punk y estábamos en contra del estrellato pretencioso. La banda no querían ser estrellas del pop.

Así, la imagen del primer púlsar se convirtió en una de las portadas más míticas e icónicas de la historia reciente de la música; una imagen simbólica para la legión de seguidores de Joy Division en todo el mundo. No consta, al menos que yo sepa, cuál fue el motivo concreto que llevó a los miembros del grupo (o a Morris en concreto, según algunas fuentes) a sugerir esta imagen.

Gráfico del púlsar CP 1919 en la Enciclopedia de Astronomía de Cambridge.

Gráfico del púlsar CP 1919 en la Enciclopedia de Astronomía de Cambridge.

Ahora bien; como mostré ayer, esta imagen no aparecía en el estudio de Nature publicado en 1968 por los descubridores de CP 1919, Jocelyn Bell Burnell y Antony Hewish. El gráfico superpone 80 pulsos de la estrella, cada uno de ellos con una duración de menos de 50 milésimas de segundo, separados por un período de 1.3373 segundos. Pero Bell Burnell y Hewish solo incluyeron en su artículo algunas representaciones de pulsos individuales. Saville supuso que el origen del dibujo compuesto era el observatorio de Manchester Jodrell Bank, pero se equivocaba: la banda había extraído la imagen de la Enciclopedia de Astronomía de Cambridge. La pregunta es: ¿cómo llegó hasta la enciclopedia?

En 2011, un tipo llamado Adam Capriola se propuso averiguarlo. Capriola quería modificar el diseño original para aplicarlo a una camiseta promocional de su web, pero antes debía saber si podía disponer libremente de la imagen. Muy concienzudamente, comenzó a investigar su origen, y supo entonces que un astrofísico de la Universidad Estatal de Arizona llamado F. X. Timmes la había encontrado por casualidad publicada en la página 53 del número de enero de 1971 de la revista Scientific American, en un artículo titulado The Nature of Pulsars escrito por el astrofísico Jerry Ostriker. En aquella versión el gráfico no aparecía en negro sobre blanco, como en la enciclopedia de Cambridge, sino en blanco sobre un fondo cian. Capriola se puso entonces en contacto con Ostriker y este le dijo que probablemente él no era el autor de la imagen, sino que la habría obtenido de alguna fuente publicada.

Gráfico del púlsar CP 1919 publicado en Scientific American en 1971.

Gráfico del púlsar CP 1919 publicado en Scientific American en 1971.

Capriola descubrió entonces en el artículo de Ostriker que la ilustración había sido generada por ordenador en el gran radiotelescopio de Arecibo, en Puerto Rico. Timmes le sugirió que probablemente algún estudiante del observatorio la había creado a partir de la observación del púlsar, pero Capriola no pudo concretar quién era el responsable de aquel trabajo.

De alguna manera, el artículo del blog de Capriola llegó a conocimiento de Jen Christiansen, editora gráfica de Scientific American y que se autodefine como «obsesa de las visualizaciones tempranas de púlsares». En febrero de 2015, Christiansen recogió la investigación donde Capriola la había dejado, y supo que a finales de los 60 la informática se estaba introduciendo en la visualización de los fenómenos astronómicos. Repasando los trabajos elaborados en Arecibo en aquella época, dio con la tesis doctoral de un estudiante llamado Harold D. Craft Jr., leída en septiembre de 1970 y titulada Radio Observations of the Pulse Profiles and Dispersion Measures of Twelve Pulsars. Christiansen visitó entonces la biblioteca de la Universidad de Cornell, que por entonces operaba el radiotelescopio de Arecibo, y allí encontró un ejemplar de la tesis de Craft donde, en efecto, aparecía la famosa imagen.

Así, el autor había quedado por fin identificado. Y curiosamente, Craft había elaborado su tesis doctoral en Arecibo bajo la dirección de Frank Drake, pionero del SETI. Christiansen remató su búsqueda entrevistándose con Craft, quien le contó lo siguiente a propósito del uso de su imagen como portada del álbum de Joy Division:

Fue una completa sorpresa. De hecho, yo no sabía nada sobre ello, y un colega en el Departamento de Ciencias del Espacio, que ahora es profesor de astronomía en Cornell, Jim Cordes, me vio en la calle –es un viejo amigo– y me dijo, «ah, por cierto, ¿sabías que tu imagen está en la portada de Joy Division?». Y yo le dije que no, que no tenía ni idea. Así que fui a la tienda de discos y, vaya, ahí estaba. Así que compré un álbum, y había un póster que yo tenía de ella, así que compré también uno de esos, por ninguna razón en particular excepto que es mi imagen, y debía tener una copia.

Así pues, caso resuelto. Permítanme terminar esta historia como si se tratara de una película de Scorsese:

  • Jocelyn Bell Burnell es actualmente presidenta de la Royal Society de Edimburgo. Pese a no haber recibido el premio Nobel, sus merecimientos han sido distinguidos con numerosos honores y es hoy una de las figuras más reputadas de la astrofísica mundial. No constan fotos suyas con la princesa Margarita que permitan comparar la estatura de ambas.
  • Antony Hewish cumplirá este año 92 primaveras. Es de suponer que está como una rosa, dado que al menos hasta 2012 ha continuado dando entrevistas, y aún figura como activo, aunque emérito, en la web de la Universidad de Cambridge.
  • Harold D. Craft Jr. llegó a ser director del radiotelescopio de Arecibo. Hoy está retirado y mantiene algunos cargos honoríficos.
  • Peter Saville mantiene una exitosa trayectoria como diseñador gráfico. Pero a pesar de haber realizado numerosos trabajos importantes, todo el mundo le sigue conociendo como el tipo que un día de 1979 se preguntó: ¿y con fondo negro…?
  • Tras el suicidio de Ian Curtis, los renacidos New Order reemprendieron su carrera, en un principio tras la estela del estilo único y original por el que Joy Division habían tenido las narices de apostar en una época en que la gente escuchaba a Boney M, Abba y Earth, Wind & Fire. Sin embargo, posteriormente se dejaron abducir por la escena neoyorquina del tecno y comenzaron a hacer cosas mucho menos interesantes. Hoy continúan en activo, aunque sin Peter Hook. Su último álbum, Music Complete, es lo mejor que han hecho en un decenio. Bueno, también lo único.
  • El púlsar CP 1919, o PSR B1919+21, continúa emitiendo pulsos de 0,04 segundos cada 1.3373 segundos, y no se le conocen otros planes que continuar haciendo lo mismo durante los próximos millones de años. Nada de esto le importa.
  • Los hombrecitos verdes aún no han dado señales de vida.
  • El punk sigue no-muerto.

Historia de un hallazgo y una portada: el primer púlsar y Joy Division (I)

Esta semana he estado escribiendo un reportaje sobre la búsqueda de inteligencia extraterrestre, lo que conocemos como SETI; y siempre que se repasa la trayectoria de este empeño tan singular en lo científico, e inspirador en lo humano, como (hasta ahora) infructuoso en lo práctico, surge la anécdota del descubrimiento del primer púlsar, una de las grandes falsas alarmas en la historia de SETI. Y al recordar aquel episodio, inevitablemente viene a la memoria la portada de un álbum mítico, Unknown Pleasures, el primer disco de los efímeros pero indelebles e influyentes Joy Division.

Si usted se pregunta de qué demonios estoy hablando, tal vez le interese leer lo que sigue, una historia de fusión entre ciencia y cultura pop; o dicho de otro modo, Ciencias Mixtas. El relato comienza en los años 60, cuando un grupo de astrónomos de la Universidad británica de Cambridge, dirigido por Antony Hewish, construye un radiotelescopio con sus propias manos. Eran otros tiempos; una estudiante de doctorado de aquel grupo, la norirlandesa Jocelyn Bell Burnell, contaba hace pocos años que a cada estudiante que se unía al grupo se le entregaba un kit de herramientas. Era la época del boom de la radioastronomía, y Hewish necesitaba un instrumento para estudiar los recién descubiertos cuásares.

Jocelyn Bell Burnell y su radiotelescopio en 1967.

Jocelyn Bell Burnell y su radiotelescopio en 1967.

No piensen en Arecibo ni nada que se le parezca; aquello era poco más que un bosque de postes de madera sujetando 190 kilómetros de cable sobre un campo de algo más de 18.000 metros cuadrados. Entre cinco personas, tardaron dos años en construirlo. El artefacto comenzó a operar en julio de 1967 bajo la exclusiva responsabilidad de Bell Burnell, la única encargada de manejarlo y analizar los datos: cada día, unos 30 metros de papel continuo con sus líneas trazadas por las plumas de los registradores.

Entre los gráficos, la investigadora descubrió algo extraño: un bip-bip que se repetía con enorme regularidad, a razón de un pulso cada segundo y pico. Cuando la becaria presentó a su jefe esta anomalía, Hewish se resistió a tomarla en serio, asegurando que se trataba de una interferencia terrestre. Pero una vez que esta explicación mundana quedó descartada, la siguiente opción fue la más fantástica: una baliza perteneciente a una civilización alienígena inteligente, un radiofaro cósmico.

El SETI había nacido esa misma década como subproducto del auge de la radioastronomía. Sin experiencias previas, con la razonable suposición de que el universo debía albergar muchos planetas habitados, y con el florecimiento del fenómeno ovni, muchos científicos pensaban que no tardaría en llegar la noticia de la primera detección de un signo de vida inteligente procedente del espacio. Algunos investigadores partían su tiempo y el de sus telescopios entre la ciencia seria y aquella actividad extraescolar.

No era el caso de Bell Burnell y Hewish; pero desechada la hipótesis de la interferencia, era realmente difícil imaginar que aquella señal tan mecánicamente regular no fuera producto de una fuente artificial. Los dos investigadores lo bautizaron, medio en broma y medio en serio, como LGM-1, siglas de Little Green Men; es decir, hombrecitos verdes. En un discurso que pronunció en 1977, Bell Burnell lo contaba así:

No creíamos de verdad que hubiéramos pillado señales de otra civilización, pero obviamente la idea nos había cruzado la mente, y no teníamos pruebas de que fuera una emisión de radio enteramente natural. Es un problema interesante; si uno piensa que puede haber detectado vida en otro lugar del universo, ¿cómo hace uno para anunciar los resultados de forma responsable? ¿A quién se lo cuenta primero? No resolvimos el problema aquella tarde, y me fui a casa por la noche muy enfadada; allí estaba yo tratando de sacarme un doctorado de una nueva técnica, y algún puñado de estúpidos hombrecitos verdes había tenido que elegir mi antena y mi frecuencia para comunicarse con nosotros.

Gráficos del primer púlsar en el estudio de Bell Burnell y Hewish (1968).

Gráficos del primer púlsar en el estudio de Bell Burnell y Hewish (1968).

Finalmente no eran aliens, aunque sí un radiofaro, solo que cien por cien natural: una estrella de neutrones que giraba rápidamente emitiendo un pulso electromagnético con la precisión de un reloj; el primer púlsar. Bell Burnell y Hewish publicaron sus resultados en Nature el 24 de febrero de 1968. De hecho el estudio no identificaba claramente la naturaleza del objeto emisor de aquellos pulsos, pero otras observaciones de fuentes diferentes, incluso previas a las de Bell Burnell y Hewish, permitieron reconocer y nombrar aquel nuevo tipo de objeto espacial. Bell Burnell recordaba con mucha gracia cómo fueron aquellos días:

En el estudio de Nature mencionamos que en un momento creímos que la señal podía proceder de otra civilización. Cuando el artículo se publicó, la prensa se volcó, y cuando descubrieron que había una mujer implicada se volcaron aún más. Me hicieron fotografías de pie sobre un banco, sentada en un banco, de pie sobre un banco examinando falsos registros, sentada en un banco examinando falsos registros; uno de ellos me hizo correr desde el banco agitando los brazos en el aire: «¡Pon cara alegre, querida, acabas de hacer un descubrimiento!» (¡Arquímedes nunca supo lo que se perdía!). Mientras, los periodistas me hacían preguntas relevantes, como si era más alta o no que la princesa Margarita (en Gran Bretaña tenemos unas unidades de medida muy singulares) y cuántos novios tenía por entonces.

Una famosa controversia asociada al episodio es que seis años después, en 1974, solo Hewish recibiría el premio Nobel por el descubrimiento. Pero quienes de cuando en cuando traen el caso a colación como una cuestión de género ignoran por completo cómo funciona el mundo de la ciencia. No se trata de negar que históricamente haya existido sexismo, como en cualquier otro ámbito. Pero el motivo por el que el Nobel dejó fuera a Bell Burnell es la naturaleza jerárquica de la ciencia.

Ilustración de un púlsar. Imagen de NASA.

Ilustración de un púlsar. Imagen de NASA.

Contrariamente a la imagen popular, los becarios no suelen ser esos obreros limitados a ejecutar las ideas geniales de su brillante director de tesis. Muchos de ellos son en la práctica los únicos autores y artífices de su línea de investigación. Pero guste o no, el becario no es propietario de sus investigaciones. Es natural que muchos se quejen de ello; lo curioso es que suelen cambiar de visión una vez que son ellos quienes se convierten en jefes de laboratorio y tienen sus propios becarios. Bell Burnell, con la humildad de los más grandes, lo sabía muy bien:

Es el supervisor quien tiene la responsabilidad final del éxito o el fracaso del proyecto. Oímos de casos en los que un supervisor culpa a su estudiante de un fracaso, pero sabemos que la culpa es sobre todo del supervisor. Me parece simplemente justo que él deba también beneficiarse de los éxitos. Pienso que los premios Nobel quedarían degradados si se concedieran a estudiantes de investigación, excepto en casos muy excepcionales, y no creo que este sea uno de ellos.

Aquel primer púlsar fue denominado CP 1919, más tarde rebautizado como PSR B1919+21. Mañana, la segunda parte de esta historia.

Isaac Newton y los dragones

Se ofenda quien se ofenda, tan risibles, ridículas y banales me parecen esas descacharrantes palabras del obispo de Córdoba al definir la fertilización in vitro como un «aquelarre químico» contrario al «abrazo amoroso» del que, según él, deben nacer los hijos (ahí tendrás a muchas pobres chiquillas temiendo quedarse embarazadas por un abrazo), como la arrogancia cristianofóbica de quienes todos los años y tal día como hoy, cumpleaños de Isaac Newton, aprovechan la ocasión para ciscarse en las libres creencias de otros. Allá cada cual, pero los fanatismos son fanatismos, ya los inspire la religión o la ciencia.

Isaac Newton en 1689 por Godfrey Kneller. Imagen de Wikipedia.

Isaac Newton en 1689 por Godfrey Kneller. Imagen de Wikipedia.

Hay algo que sí me gustaría recomendar a estos últimos (sobre el primero creo que no es preciso añadir nada más): que indaguen un poco más en el perfil biográfico de aquel a quien parecen venerar como príncipe de la razón. Newton fue teólogo además de científico, y estuvo a un pelo de ordenarse como pastor anglicano. Hoy se le considera un hereje por su postura antitrinitaria, que comprensiblemente ocultó, y que dominó su pensamiento religioso desde el centro de su esfuerzo intelectual.

Pero fuera de esta ineludible vertiente religiosa de Newton, que en realidad no incumbe a este blog, vengo a destacar otra faceta de su pensamiento que sí entronca con la ciencia, pero que tampoco cuadra con la imagen del racionalista puro con la que muchos parecen identificarle erróneamente. Lo cierto es que Newton fue un tipo fascinante y algo loco. Entre sus facetas menos conocidas se cuenta que, durante su cargo como director de la Casa de la Moneda en Gran Bretaña, inventó las estrías en el canto de las monedas que hoy son tan comunes. Entonces las monedas se fabricaban con metales preciosos, y el propósito de esta innovación fue evitar que los falsificadores rasparan los bordes para sisar una parte del oro.

Esta y otras historias de Newton como el Sherlock Holmes que perseguía a los falsificadores de moneda se cuentan con la tensión narrativa de los mejores thrillers en el libro de Thomas Levenson Newton y el falsificador, publicado en castellano por la editorial Alba en 2011. Un buen regalo para estas fiestas.

Pero Newton también era un ocultista apasionado. Hay quien le ha definido como el último de los alquimistas. Probablemente no lo fue, pero tal vez sí el último de los grandes alquimistas. Newton, como Harry Potter, perseguía la piedra filosofal, como conté con detalle en este reportaje que publiqué en 2010. El economista John Keynes, gran conocedor de la figura de Newton, le definió así:

Newton no fue el primero de la Edad de la Razón. Fue el último de los magos, el último de los babilonios y los sumerios, la última gran mente que miró al mundo visible e intelectual con los mismos ojos que aquellos que comenzaron a construir nuestro mundo intelectual hace menos de 10.000 años.

Naturalmente, la visión de Keynes no es compartida por todos. Hay quienes ven en el trabajo alquímico de Newton un esfuerzo precursor de la química moderna, ya que las transmutaciones metálicas de los alquimistas anticiparon el estudio de las reacciones químicas. Pero esta visión también estaría, para mi gusto, un poco sesgada, ya que en tiempos de Newton hubo otros científicos como Robert Boyle o su tocayo Hooke que realmente sí estaban transmutando la vieja alquimia en la química moderna, al distinguir entre magia y ciencia. Y mientras tanto, Newton escribía cosas como esta:

Nuestro esperma crudo fluye de tres sustancias, de las que dos se extraen de la tierra de su natividad por la tercera y después se convierten en una pura Virgen lechosa como la naturaleza obtenida del Menstruo de nuestra sórdida ramera. Estos tres manantiales son el agua, la sangre (de nuestro León verde totalmente volátil y vaciado de azufre metalino), el espíritu (un caos, que se aparece al mundo en una vil forma compacta, al Filósofo unida a la sangre de nuestro León verde, del que así se hace un león capaz de devorar a todas las criaturas de su clase…).

Una de las ilustraciones de los dragones alpinos en la obra de Johann Jakob Scheuchzer.

Una de las ilustraciones de los dragones alpinos en la obra de Johann Jakob Scheuchzer.

Pero hay un último aspecto de Newton que se ha divulgado y estudiado aún menos, y en el que posiblemente todavía quede un filón biográfico para quien quiera explorarlo y documentarlo. Contemporáneo de Newton fue un médico y científico suizo llamado Johann Jakob Scheuchzer. Entre los trabajos de Scheuchzer destaca uno titulado muy sencillamente Ouresiphoites Helveticus, sive itinera Alpina tria: in quibus incolae, animalia, plantae, montium altitudines barometricae, coeli & soli temperies, aquae medicatae, mineralia, metalla, lapides figurati, aliaque fossilia; & quicquid insuper in natura, artibus, & antiquitate, per Alpes Helveticas & Rhaeticas, rarum sit, & notatu dignum, exponitur, & iconibus illustratur. O de forma algo más breve, Itinera alpina tria, sus viajes alpinos.

Durante sus viajes por los Alpes, entre 1702 y 1704, Scheuchzer describió la naturaleza que observaba a su paso. Pero sus méritos como naturalista han sido puestos en duda por el hecho de que incluyó referencias a la presencia de dragones en los Alpes; no observados por él directamente, sino por testigos, pero sí con todas sus especies alpinas representadas en láminas en su obra. El suizo describía el método para dormir a un dragón con hierbas soporíferas y aprovechar su sueño para cortarle de la cabeza una piedra que poseía enormes propiedades curativas.

Pues bien, el principal patrocinador de la expedición y de la obra de Scheuchzer para la Royal Society londinense no fue otro que nuestro buen amigo Newton, quien según algunas fuentes era también un defensor de la existencia de los dragones. La creencia en estos animales míticos tradicionalmente vino alimentada por el hallazgo de fósiles que hoy conocemos como dinosaurios, sobre todo en China. En tiempos de Newton aún no se conocía el origen de aquellos huesos, pero sí su existencia; en Europa se les atribuían orígenes diversos, desde elefantes de guerra empleados por los romanos hasta gigantes humanos. ¿Creía Newton que los fósiles europeos de dinosaurios eran restos de dragones? ¿Hasta qué punto llegaba su creencia en estas criaturas míticas? En cualquier caso, todo esto no hace sino aumentar el atractivo de un personaje tan genial como conflictivo para quienes pretenden hacer de él un ser unidimensional.

Ada Lovelace, el genio que nos perdimos

¿Qué importancia tendría haber creado el primer programa rudimentario de ordenador frente a poseer lo que Ada Lovelace tenía?

Ada Lovelace (por entonces aún Ada Byron) a los 17 años, en un retrato de autor desconocido. Imagen de Wikipedia.

Ada Lovelace (por entonces aún Ada Byron) a los 17 años, en un retrato de autor desconocido. Imagen de Wikipedia.

Juzguen ustedes por este ejemplo: cuando solo había cumplido 12 años, Ada decidió dedicarse a estudiar científicamente el problema del vuelo. Según cuenta su biógrafa Betty Alexandra Toole, autora de Ada, the Enchantress of Numbers, examinó la anatomía de las aves para diseñar las alas, estudió distintos materiales, hizo bocetos, planificó el equipo necesario (incluyendo una brújula) y comenzó a construir su ingenio con cuerdas y poleas. El siguiente paso era integrar la máquina de vapor, que iría en el interior de un fuselaje con forma de caballo, cuyo piloto se sentaría a su grupa. Este gran proyecto nunca llegó a término: fue interrumpido por la madre de Ada cuando supo que la niña estaba descuidando sus estudios por aquella manía de volar.

Repito, con 12 años. ¿Qué hacen otros niños a los 12 años?

Ada tenía la sustancia reservada a los grandes genios, esa emulsión de imaginación y raciocinio de la que han surgido muchos grandes avances científicos de la historia. En su mecanismo mental se engranaron dos ruedas que giraban en perfecta coordinación: por una parte, la educación científica que su madre le procuró; y por otra, haber heredado la mitad de su ser de un enorme poeta que la abandonó nada más nacer –lo cabrón no quita lo genial, véanse Céline, Kazan, Pound…–, pero al que ella siempre profesó un extraño afecto. El sumatorio de todo esto fue lo que ella misma llamaba «ciencia poética». En un mundo de ciencias contra letras, razón contra emoción, personajes mixtos como Ada son raros e imprescindibles.

En mi artículo anterior y en el reportaje que escribí con motivo del bicentenario ya hablé de aquello por lo que hoy se recuerda a Ada, su colaboración con el matemático Charles Babbage a propósito de la primera computadora mecánica de uso general. Pero los intereses de Ada no acababan ahí. A lo largo de su vida se impregnó de los avances de su época como la fotografía, el ferrocarril, la telegrafía, la teoría de la probabilidad, el magnetismo o la electricidad, además de buscar la relación entre matemáticas y música o de apreciar otras novedades que por entonces se presentaban con una pátina científica, como la frenología y el mesmerismo.

Pero entre todo ello, uno de los afanes que más atrajeron a Ada fue el de elaborar un «cálculo del sistema nervioso». «Mi propio gran objetivo científico es el estudio del sistema nervioso y sus relaciones con las más ocultas influencias de la naturaleza», escribió. Ada quería verse a sí misma como «una Newton del universo molecular» de la mente, desentrañando matemáticamente el funcionamiento del cerebro como otros habían hecho con el movimiento de los cuerpos celestes. Tuvo la (correcta) intuición de que la electricidad resolvería los misterios del cerebro. En 1844, un año después de sus famosas notas sobre la máquina de Babbage, y con el fin de progresar en su conocimiento de la electricidad, Ada visitó a Andrew Crosse.

Andrew Crosse era todo un personaje, un científico autodidacta que vivía recluido en su mansión donde conducía extraños experimentos eléctricos para los que reunía miles de pilas voltaicas. En 1836 Crosse fue objeto de fama y controversia a causa de un experimento de electrocristalización en el que, según se contaba, habían aparecido insectos. Aunque al parecer Crosse nunca sugirió que aquellos insectos habían surgido espontáneamente por acción de la electricidad, en su época fue precisamente esta la idea que trascendió.

Hay quienes dicen que Crosse pudo servir de inspiración a Mary Shelley para su Victor Frankenstein, ya que consta que ella y su marido, Percy Bysshe Shelley, asistieron a una conferencia de Crosse en Londres el 28 de diciembre de 1814, dos años antes de que la autora comenzara a escribir Frankenstein o el moderno Prometeo. Y ello a pesar de que, curiosamente, el libro no especifica que fuera la electricidad la que animaba a la criatura (fue el cine el que popularizó esta idea); solo hay una oscura referencia a «infundir una chispa de ser», lo que podría ser solo una metáfora. Y por cierto, es bien conocido que Shelley empezó a componer su novela durante un verano que ella y Percy pasaron en Ginebra en compañía de Byron, padre de Ada. El mundo de la alta sociedad inglesa era un pañuelo.

El caso es que Ada no solo visitó a Crosse, sino que a partir de entonces desarrolló una relación con su hijo John cuya naturaleza no ha quedado históricamente aclarada. Ada estaba casada desde varios años antes; pero a su muerte, John Crosse heredó algunos de sus bienes y destruyó la correspondencia que había mantenido con ella.

Ni el cálculo del sistema nervioso ni el resto de proyectos de Ada llegaron jamás a concretarse. Los más críticos la acusan de haber sido víctima de delirios de grandeza, y lo cierto es que no le faltaba megalomanía cuando en una ocasión propuso una colaboración al electrocientífico Michael Faraday diciendo de sí misma que esperaba «morir como la Suma Sacerdotisa de la obra de Dios manifestada en la Tierra». Pero tanto en sus frecuentes grandilocuencias como en sus no menos habituales caídas pudo tener algo que ver el opio que los médicos le suministraron durante la mayor parte de su vida. Ada siempre tuvo una salud frágil, que se quebró definitivamente en 1852 a causa de un cáncer de útero.

Su muerte prematura a los 36 años nos dejó sin saber qué habría podido lograr si hubiera disfrutado de una vida larga. Es cierto que, sobre todo en tiempos pasados, 36 años de vida eran suficientes para dejar un legado perdurable. Pero Ada además era mujer, en una época en que la academia no admitía fácilmente a científicos con falda. El matemático Augustus de Morgan, impresionado por el talento de Ada, dijo sin embargo que un exceso de matemáticas podía ser extenuante para el delicado sistema nervioso femenino, y la propia Ada atribuía parte de sus males a «demasiadas matemáticas».

Eso sí; tampoco caigamos en la idolatría. No podemos dejar de lado que, como madre, Ada Lovelace fue lo peor, en la estela de sus propios progenitores: confesó que carecía de todo amor natural por los niños y que para ella sus tres hijos no eran sino «deberes fastidiosos». Pero centrándonos en su trabajo y dejando aparte su aureola como profeta de la computación, un gran logro fue sencillamente ser ella misma; ser como era, porque pocos eran como ella. Porque aún hoy, pocos son como ella.

Para celebrar el interés de Ada por la electricidad, dejo aquí una muestra de uno de sus más sublimes usos. No hace falta más presentación.

Ada Lovelace no fue la primera programadora, pero vio el futuro de las computadoras

No crean todo lo que lean por ahí. Internet es un medio fantástico de difusión de información, pero también puede serlo de desinformación. Y cuando una versión de una historia cuaja y se copia y recopia en miles de webs, es muy difícil llegar a derribarla, por muy equivocada que esté.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Hace unos días el historiador de la computación Doron Swade me escribía en un correo: «Si puedes corregir las innumerables equivocaciones que abundan sobre la reputación de Lovelace, habrás hecho más que ningún otro periodista con el que haya tenido el placer de relacionarme». ¿A qué se refería Swade? A esto: «Si como periodista levantas alguna duda sobre la proclama de la primera programadora, no digamos si la rebates, habrás hecho más que nadie que conozco con proyección pública para realinear las pruebas históricas con la percepción pública, y te deseo suerte en ello».

Ada Lovelace, de cuyo nacimiento hoy se cumplen 200 años, fue la única hija legítima de Lord Byron, un tipo tan agraciado por su talento poético como desgraciado en su vida amorosa. Es curiosa la riqueza del castellano cuando una palabra puede significar algo y su contrario. En el caso de «desgraciado», el diccionario recoge dos significados contrapuestos: el que padece desgracia, o el que la provoca a otros. Byron repartió mucha desgracia amorosa y, con ella, dejó por ahí un número de hijos que ni siquiera se conoce con exactitud. Solo una vez se casó, con Annabella Milbanke, y de este matrimonio nació una niña, Ada. Byron y Annabella rompieron cuando la niña solo tenía un mes.

Ada se crió con sus abuelos y con su, al parecer, poco afectuosa madre, que se preocupó de que aprendiera matemáticas y lógica para evitar que sufriera los delirios de su padre. Desde pequeña, la futura condesa de Lovelace destacó por su inteligencia y por su interés en los números, que la llevarían a relacionarse con Charles Babbage, el creador de las primeras calculadoras mecánicas; un trabajo por el que Babbage suele recibir el título de padre de la computación.

Ada se encargó de traducir al inglés un artículo que resumía una conferencia pronunciada por Babbage en Italia. Al final del texto, añadió unas extensas notas que incluían un algoritmo que permitiría a la máquina calcular los números de Bernoulli, una serie de fracciones con diversas aplicaciones matemáticas. Y es este algoritmo el que ha servido para promocionar mundialmente a Ada Lovelace como la autora del primer programa informático de la historia, un título que suele acompañar a su nombre en innumerables reseñas biográficas.

No se trata de que aquel algoritmo no pueda definirse exactamente como un programa informático. Es evidente que aún quedaba un siglo por delante hasta la existencia de verdaderas computadoras que trabajaran con programas tal como hoy los entendemos. Pero aquel algoritmo era una descripción paso a paso de los cálculos que realizaría la máquina, por lo cual los expertos reconocen en aquel trabajo el primer precursor de la programación.

El problema es que, según parece, no fue el trabajo de Lovelace, sino de Babbage. Durante años, los expertos han discutido hasta qué punto aquellas notas escritas por Ada fueron realmente producto de su mente o fueron más o menos dirigidas por Babbage. Si abren la página de la Wikipedia sobre Ada Lovelace en inglés (la entrada en castellano no recoge la controversia), comprobarán que existen versiones contradictorias. Pero en general, los historiadores de la computación favorecían la versión de que Babbage era quien mejor conocía la máquina que él mismo había ideado, y que los primeros programas fueron obra suya. En palabras de Swade: «La idea de que Babbage inventó una computadora y no sabía que podía programarse es de risa».

A esto se añaden los nuevos datos aportados ahora por Swade en el simposio celebrado esta semana en Oxford con motivo del bicentenario de Ada Lovelace. Según me contaba por email antes del simposio, tiene las pruebas documentales de 24 programas creados por Babbage seis o siete años antes de las famosas notas de Lovelace, y ha rastreado en ellos la procedencia original de cada uno de los rasgos que aparecen en el programa de los números de Bernoulli del escrito de Ada; lo que parece zanjar definitivamente el debate. He explicado los detalles en este reportaje.

Queda una cuestión por resolver, y es que según parece los programas no están escritos de puño y letra por Babbage. Sin embargo, Swade apunta que el matemático solía emplear escribientes y dibujantes, y que de hecho gran parte del material por el que es reconocido tampoco corresponde a su escritura. La posibilidad de que estos primeros programas fueran escritos por Lovelace queda descartada, según Swade, por otras pruebas indirectas: en primer lugar, de ser así habría correspondencia al respecto entre ambos, que no existe. Y tal vez más importante, de las cartas que Babbage y Lovelace intercambiaron más tarde, en la época de las notas, se deduce que por entonces Ada solo estaba comenzando a comprender los fundamentos de la máquina, lo que no cuadraría con el hecho de que hubiera escrito programas para ella varios años antes.

Pese a todo lo anterior, Swade quiere dejar claro que no pretende de ningún modo desmontar la figura de Ada Lovelace, sino solo el mito: «El propósito de mi derribo de la ficción de la primera programadora no es desacreditar a Lovelace; ella nunca hizo tal proclama. El derribo se dirige hacia aquellos que han confeccionado y perpetuado la ficción».

De hecho, Swade lleva años defendiendo que la verdadera y valiosa aportación de Ada Lovelace, y aquella por la que debería ser celebrada y recordada, fue su capacidad de ver más allá: «Babbage no vio en ningún momento que las computadoras pudieran operar fuera de las matemáticas», dice el historiador, mientras que «fue Lovelace, no Babbage ni sus contemporáneos, quien vio que los números podían representar entidades diferentes de las cantidades: notas de música, letras del abecedario o más cosas, y que el potencial de las computadoras residía en el poder de representación de los símbolos, en su capacidad de manipular representaciones simbólicas del mundo de acuerdo a unas reglas».

Ada Lovelace continuará siendo lo que siempre ha sido, pionera de la computación, una figura brillante y adelantada a su época que combinó maravillosamente su vocación científica con la herencia poética que le venía de familia; un espléndido ejemplo para las Ciencias Mixtas. Mañana contaré algún aspecto más de su vida, igualmente insólito.

El primer Einstein fue quemado vivo

Nada mejor para colocar el chorro final de nata a esta semana dedicada a Einstein que una vuelta a los orígenes. El otro día conté que, según el punto de vista del propio físico alemán, la que hoy se recuerda como su genialidad individual era realmente una consecuencia directa del trabajo de otros antes que él; esa imagen clásica en ciencia de ver más allá aupándose sobre los hombros de gigantes. O en otra más pop a lo Indiana Jones, recorrer el último tramo hasta el escondite del Santo Grial gracias a que otros fueron resolviendo las pistas del mapa. Lo cual no oscurece el mérito de Indy, ni el de Albert.

Retrato de Giordano Bruno (1548-1600). Imagen de Wikipedia.

Retrato de Giordano Bruno (1548-1600). Imagen de Wikipedia.

En el caso de Einstein, él mismo citó a Faraday, Maxwell y Lorentz. En el principio hubo un londinense inigualable llamado Michael Faraday, un humilde aprendiz de encuadernador que nunca fue a la Universidad y que a pesar de ello descubrió el electromagnetismo; de él deberíamos acordarnos cada vez que pulsemos un interruptor y se haga la luz. Su relevo lo recogió un aristócrata escocés llamado James Clerk Maxwell que tradujo a ecuaciones lo que Faraday había descubierto.

Poco después el holandés Hendrik Lorentz comenzó a trabajar sobre las ecuaciones de Maxwell, descubriendo que se podía aplicar a ellas un tipo de transformaciones para hacerlas funcionar en cualquier sistema de referencia. Dicho de otro modo, que las leyes eran siempre válidas si dejamos de contemplar el espacio y el tiempo como términos absolutos; si olvidamos la ficción de que en el espacio existe algo que lo rellena y que permite definir un punto fijo. Lo que Einstein empleó como premisa, la constancia de la velocidad de la luz en el vacío, era una consecuencia del trabajo de Lorentz sobre las ecuaciones de Maxwell que explicaban las observaciones de Faraday.

Los sistemas de referencia a los que se aplicaban las transformaciones de Lorentz son aquellos que se mueven uno respecto al otro a una velocidad constante. Este es el escenario de la relatividad especial, descrito por Einstein en 1905 y que diez años más tarde amplió al caso más general que incluye la aceleración, en el que por tanto encajaría la gravedad y, con ella, todo el universo.

Pero fijémonos en esta situación de dos sistemas que se mueven uno respecto al otro a velocidad constante. No es un concepto físico abstracto. Cuando volamos en un avión, si no miramos por la ventana, y si no fuera por el ruido de los motores y las posibles turbulencias, parecería que en realidad no estamos moviéndonos. Si dentro del avión pudiéramos lanzar hacia la proa a velocidad constante a una mosca dentro de una caja de cerillas (algo hoy ya imposible debido a las normas de seguridad), la mosca tampoco notaría su movimiento. La mosca y nosotros somos víctimas de una ilusión, porque en realidad nos desplazamos cuando creemos estar quietos. ¿O es al revés?

Mientras, la estela de nuestro avión en el cielo capta la atención de un turista, que reposa apaciblemente sobre una hamaca en una playa ecuatorial. Pero ¿en realidad reposa apaciblemente? El turista no cae en la cuenta de que él, su tumbona, la playa con sus palmeras y todo lo demás están desplazándose a una disparatada velocidad de 1.600 kilómetros por hora, la de la rotación de la Tierra en el Ecuador. Pero el turista no cae en la cuenta de esto porque la Tierra no lleva motores ni sufre turbulencias. Y cuando mira hacia lo que existe fuera de su enorme nave, observa que en apariencia son el Sol y las estrellas los que se mueven.

Todo esto nos lleva a la conclusión de que el movimiento es siempre relativo y que para un observador es imposible tener una constancia real (=física) de su movimiento. El siguiente vídeo lo ilustra de una manera impecable. En este programa de la BBC, el físico Brian Cox deja caer desde lo alto una bola de bolos y una pluma dentro de una cámara de vacío, para eliminar la interferencia del aire. Ambos objetos caen exactamente al mismo tiempo, dado que experimentan la misma aceleración debida a la gravedad, y por ello los dos llevan la misma velocidad en cualquier momento concreto de su caída.

Con esto se comprende por qué algo hoy obvio para nosotros, que la Tierra gira en torno al Sol, fue históricamente tan difícil de entender y de demostrar. Aristóteles lo dejó claro: si la Tierra se moviera, una piedra lanzada hacia arriba debería caer en trayectoria oblicua, y no en vertical, ya que el suelo avanzaría mientras la piedra está en el aire. Costó mucho demostrar que Aristóteles se equivocaba.

Los libros de ciencia le atribuyen este mérito a Galileo Galilei. El italiano aportó pruebas de observación que demostraban el modelo astronómico de Copérnico, según el cual la Tierra giraba en torno al Sol. Pero sobre todo, Galileo consideraba que tanto podía decirse que, para nosotros, el universo entero se movía respecto a la Tierra, como lo contrario: introdujo el concepto de relatividad.

En su obra Dialogo sopra i due massimi sistemi del mondo Tolemaico, e Coperniciano (Diálogos sobre los dos máximos sistemas del mundo), publicado en 1632, Galileo exponía el caso de un barco que se mueve a velocidad constante y sobre un mar en calma: alguien que estuviera experimentando con el movimiento de cualquier objeto en el interior del barco no notaría ninguna diferencia entre sus observaciones y las de alguien repitiendo los mismos experimentos en tierra.

Regresando brevemente hacia delante, la relatividad de Galileo sería el punto de partida que permitió a Isaac Newton formular sus leyes del movimiento, y siglos más tarde a Einstein recoger las transformaciones de Lorentz sobre las ecuaciones de Maxwell del fenómeno descrito por Faraday para concluir que la naturaleza se explicaba mejor suponiendo que las leyes físicas son inmutables y que, por tanto, son el espacio y el tiempo los que se deforman.

Volvamos ahora de nuevo hacia atrás. Lo cierto es que, como en el caso de Einstein, en realidad tampoco lo de Galileo fue un chispazo de genialidad individual. Desde Aristóteles, que puso los deberes, hubo otros gigantes que prestaron sus hombros, aunque Galileo no era demasiado propenso a reconocerlo: en 1610, su amigo Martin Hasdale le escribió una carta en la que decía:

Esta mañana tuve la oportunidad de hacerme amigo de Kepler […] Le pregunté qué le gusta de ese libro tuyo y me respondió que durante muchos años ha intercambiado cartas contigo, y que está realmente convencido de que no conoce a nadie mejor que tú en esta profesión […] Respecto a este libro, dice que realmente mostraste la divinidad de tu genio; pero estaba en cierto modo molesto, no solo por la nación alemana, sino por ti mismo, ya que no mencionaste a aquellos autores que iniciaron el asunto y te dieron la oportunidad de investigar lo que has hallado ahora, nombrando entre ellos a Giordano Bruno entre los italianos, a Copérnico y a sí mismo.

La carta figura en la colección de la correspondencia de Galileo, según recoge un estudio firmado por Alessandro De Angelis y Catarina Espirito Santo que se publicará próximamente en la revista Journal of Astronomical History and Heritage. Pero dejando aparte el censurable comportamiento de Galileo, y el hecho de que otros estudiosos como Jean Buridan o Nicole Oresme ya habían reflexionado en torno a las ideas que el italiano desarrollaría más tarde, De Angelis y Espirito Santo destacan un nombre que aparece en la carta de Hasdale y cuya contribución al principio de la relatividad no se ha reconocido: Giordano Bruno.

En 1584, Bruno publicó una obra titulada La cena de le ceneri (La cena del Miércoles de Ceniza) en la que empleó antes que Galileo el ejemplo del barco para enunciar que el avance de este era irrelevante de cara a cualquier observación del movimiento de las cosas en su interior. Esto lo atribuyó a una «virtud» por la cual todos los objetos del barco toman parte en su movimiento, estén en contacto con él o no. Según el estudio, Bruno estaba anticipando el concepto de inercia, la innovación introducida por Galileo (aunque acuñada por Kepler) que diferenciaba su visión de la de autores anteriores; para estos, el hecho de que un objeto suspendido dentro de un barco se moviera junto con la nave se debía a que era el aire el que lo arrastraba.

Según De Angelis y Spirito Santo, es probable que Galileo estuviera enterado del trabajo de Bruno e incluso que ambos llegaran a conocerse, ya que coincidieron en Venecia durante largos períodos. Pero aparte de que Galileo nunca admitiera esta influencia, los autores opinan que el hecho de que Bruno fuera quemado en la hoguera por sus ideas teológicas ha devaluado su contribución a la física. Así que por mi parte, y para cerrar esta semana de relatividad, vaya aquí mi recuerdo a Giordano Bruno, el primer Einstein, quemado vivo en Roma el 17 de febrero de 1600, en una época de matanzas auspiciadas por el fanatismo religioso. Y mi deseo de que ojalá esa época termine algún día.