BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Marconi, el pionero de la radio que escapó de morir en el Titanic (y en el Lusitania)

Hace unos días les contaba aquí cómo una mala casualidad llevó al químico francés René Jacques Lévy a perder la vida en el Titanic, un barco en el que no debería haber viajado. Pero la suerte viene en dos sabores, y a algunos les toca la versión dulce. Este fue el caso del inventor y empresario italo-británico Guglielmo Marconi, uno de los pioneros de la radio y premio Nobel de Física en 1909 por su aportación al desarrollo de la telegrafía sin hilos (hoy más conocida como wireless).

Debido a dos casualidades afortunadas, Marconi y su mujer se libraron de viajar en la funesta travesía del Titanic. Pero además, y para los fans de esa divertidamente gore saga de películas titulada Destino final, el italiano burlaría una segunda vez a la muerte que le esperaba en el mar, para finalmente fallecer en su cama de un prosaico ataque cardíaco.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

En su libro My Father, Marconi, su hija Degna contaba que su familia tenía alquilada una propiedad cerca de Southampton (Inglaterra), en cuyo extremo se erguía una torre de tres pisos a la orilla del mar. En la mañana del 10 de abril de 1912, Degna y su madre ascendieron a la torre para ver pasar al Titanic, que acababa de zarpar con rumbo a América.

La niña solo tenía entonces tres años y medio, pero recordaba bien la escena: “juntas saludamos al barco, inmenso y resplandeciente al sol de primavera, y docenas de pañuelos y bufandas nos saludaron de vuelta. Mientras el Titanic desaparecía de nuestra vista sobre las aguas calmadas, descendimos lentamente los escalones”. Sin embargo, Degna recordaba también cómo entonces su madre le apretaba la mano con tristeza. Años después supo por qué: “ella deseaba estar a bordo”.

Marconi y su esposa, Beatrice, habían sido invitados por la White Star Line para viajar en la travesía inaugural del Titanic por cuenta de la naviera (algunos relatos de la historia se refieren a la familia entera, pero lo cierto es que el libro de Degna solo menciona a sus padres). Según contaba Degna, su padre tenía mucho trabajo pendiente que resolver y para ello necesitaba la ayuda de un taquígrafo. Marconi disponía del suyo propio, un tal Magrini, pero “era inservible a bordo de un barco; pasaba el viaje mareado de costa a costa”. Así que debía recurrir al taquígrafo del propio buque. Pero, casualidad afortunada número uno, Marconi sabía que el taquígrafo del Lusitania era más rápido y competente, por lo que cambió su pasaje a este barco, que zarpaba tres días antes.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

Así, la idea era que Beatrice tomara el Titanic y se reuniera con su marido en Nueva York. Pero, casualidad afortunada número dos, el pequeño de los Marconi enfermó. “Entonces Giulio lo arruinó todo cayendo presa de una de esas alarmantes fiebres de bebé que pueden ser el preludio de algo o de nada”, escribía Degna. “Ella cableó que debía posponer su viaje y quedarse a cuidar a su pequeño, y afrontar otra de esas separaciones interminables que tanto afectaban a su matrimonio”.

A su llegada a Nueva York en el Lusitania, Marconi supo que un mensaje recibido por una de sus estaciones traía noticias de un desastre en el mar. La mañana del 15 de abril el diario The New York Times publicaba la información: “a las 10:25 de anoche, el barco de la White Star Titanic emitió un CQD [de Come Quick, Danger, la señal de auxilio anterior al SOS] a la estación inalámbrica Marconi local informando de que había colisionado con un iceberg. El barco dijo necesitar ayuda inmediata”. El periódico había tratado de contactar telegráficamente con el capitán, sin éxito.

Lo que siguió fue, según Degna, un “pandemonio” de confusión y rumores, hasta tal punto que el diario Evening Sun de Nueva York informó aquella tarde de que todos los ocupantes del Titanic habían sido rescatados y que el buque estaba siendo remolcado con destino a Halifax, en Canadá. A última hora de la tarde se conoció una realidad muy diferente, que unos 700 supervivientes viajaban en el Carpathia hacia Nueva York, y que el resto hasta los más de 2.200, junto con el barco, habían quedado en el mar.

Cuando el 18 de abril el Carpathia atracó en el puerto neoyorquino, Marconi fue uno de los primeros en abordarlo, y por una buena razón. En medio de la consternación provocada por la tragedia del Titanic, el día anterior Marconi había recibido un entusiasta homenaje en la Sociedad Eléctrica de Nueva York. Según relataba el Times, el motivo lo había resumido en aquel acto el inventor estadounidense Frank Sprague: “Cuando mañana por la noche 700 u 800 personas pisen tierra en Nueva York, podrán mirarle a usted como su salvador”.

El primer sistema práctico y comercial de telegrafía inalámbrica, desarrollado por Marconi, había sido clave para que el Carpathia supiera del naufragio del Titanic y acudiera a rescatar a los supervivientes. De hecho, los dos radiotelegrafistas del barco siniestrado no eran empleados de la naviera White Star, sino de la compañía Marconi. El primer oficial, Jack Phillips, había perecido en el desastre; el segundo, Harold Bride, viajaba en el Carpathia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Cuando Marconi subió al barco apenas tocó puerto, fue para entrevistarse con Bride y el telegrafista del Carpathia. Ambos operadores, junto con el fallecido Phillips, habían sido los artífices del rescate de más de 700 personas, gracias a la tecnología de Marconi. Unos días después, relataba Degna, los supervivientes se congregaron en el hotel donde se alojaba Marconi para expresarle su gratitud con una medalla de oro.

Según narraba Degna, paradójicamente el desastre del Titanic propició el ascenso de su padre a la cumbre de su carrera: el mundo entero fue consciente del inmenso poder de la telegrafía inalámbrica para salvar vidas, y desde entonces los equipos de Marconi se convirtieron en una herramienta imprescindible en la navegación marítima. Anecdóticamente, también el accidente cambió el estándar internacional de socorro: además de la señal usada hasta entonces, CQD, el Titanic emitió también el nuevo código propuesto, SOS, más fácil de marcar en Morse. Según Degna, aquella fue la primera vez que se lanzó al aire un SOS.

Llegamos así al “destino final” que Marconi logró evitar: tres años después del desastre del Titanic, en abril de 1915, el inventor embarcó de nuevo en Inglaterra en el Lusitania rumbo a Nueva York para testificar en un juicio por una patente. La Primera Guerra Mundial había comenzado, y Alemania había declarado las aguas británicas como zona de guerra. Cuando el trasatlántico regresaba de vuelta a Liverpool, la tarde del 7 de mayo, fue torpedeado y hundido por un submarino alemán cerca de la costa de Irlanda. Casi 1.200 personas perdieron la vida, mientras Marconi estaba sano y salvo en América.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Quien sí viajaba aquel día en el Lusitania y se hundió con él fue el millonario estadounidense Alfred Gwynne Vanderbilt. Cuenta la historia de su familia que Vanderbilt estuvo a punto de viajar tres años antes en el Titanic. Lo cierto es que hay cierta neblina al respecto: una investigación histórica determinó que el Vanderbilt que había comprado pasaje en el Titanic y finalmente decidió no viajar fue en realidad el tío de Alfred, George Washington Vanderbilt (que no murió en el Lusitania). Sin embargo, un descendiente de la saga escribía en una web sobre el Lusitania que, de acuerdo a la tradición de su familia, “Alfred también había considerado seriamente viajar en el Titanic”. Fuera cual fuese la realidad, la conclusión es la misma; no hay destinos finales, pero la suerte viene en dos sabores, y a algunos les toca la versión amarga.

¿Fue Rosalind Franklin, codescubridora de la hélice de ADN, discriminada por ser mujer?

Rosalind Franklin, la mujer cuya aportación fue esencial para el descubrimiento de la estructura de la doble hélice de ADN, sufrió discriminación por ser mujer. Dicho esto, pensarán que este va a ser el artículo más corto en la historia de este blog. Pero lo cierto es que la historia de Franklin, de cuya muerte hoy se cumplen 60 años, es más complicada de lo que una simple afirmación categórica puede dar a entender.

Rosalind Franklin.

Rosalind Franklin.

Conviene detenerse un poco en los detalles para comprender hasta qué punto la contribución de Franklin fue infravalorada, y si en ello existió una discriminación de género o si se debió a otras causas más relacionadas con el (mal) proceso científico. Sobre todo por evitar la frivolización que lleva a reconstruir la historia como una fábula de buenos y malos; y que especialmente en las redes sociales a veces tiende a prender las antorchas hasta los extremos delirantes –como he podido leer hoy– de escribirse barbaridades tales como calificar al resto de los implicados en la historia de “celosos” y “mediocres”.

En los años 50 la discriminación hacia las mujeres era indudablemente mayor que hoy, y la ciencia no escapaba a este estado de cosas. En el terreno científico, inumerables mujeres fueron históricamente apartadas o menospreciadas. Incluso aquellas que conseguían superar los impedimentos sociales para labrarse una carrera científica difícilmente conseguían hacerse ver tras la sombra de sus colegas masculinos; un ejemplo clamoroso es el de Marie Curie, quien nunca habría recibido su primer Nobel en 1903 de no haber sido porque su marido Pierre, que sí estaba nominado, presionó con la ayuda de un miembro del comité para que a su esposa se le reconociera el que legítimamente era su trabajo.

Sin embargo, es esencial distinguir entre la discriminación de una mujer por el hecho de ser mujer, y por otros motivos diferentes de su género. Para ilustrarlo, traigo de nuevo un ejemplo que ya he contado aquí extensamente: el de Jocelyn Bell Burnell, la codescubridora del primer púlsar. Cuando el hallazgo trascendió y los medios se interesaron por este nuevo objeto astronómico, Bell Burnell fue tratada por los periodistas con un sesgo (hoy) intolerablemente machista, como cuando le preguntaban si tenía muchos novios o si era más alta que la princesa Margarita.

Pero cuando en 1974 el premio Nobel de Física distinguió únicamente a su supervisor, Antony Hewish, aquello no fue discriminación sexista, sino científica. Bell Burnell era la becaria, y los Nobel no se conceden a los becarios. Esta norma se aplica no solo en los premios suecos, sino de forma general, salvo excepciones, en todo el mundo de la ciencia. La propia Bell Burnell (con la humildad que suele distinguir a muchos de los grandes científicos) tuvo que salir al paso de ciertas manipulaciones sesgadas: “Pienso que los premios Nobel quedarían degradados si se concedieran a estudiantes de investigación, excepto en casos muy excepcionales, y no creo que este sea uno de ellos”, dijo.

El caso de Franklin es aún más complicado, porque concurrieron otros numerosos factores, incluyendo una mala gestión por parte de los responsables, algún malentendido, cierto juego sucio y una dosis de enemistades personales. Para no extenderme demasiado voy a ahorrarles los antecedentes de la historia del descubrimiento de la estructura del ADN para ir directamente al grano.

Debo comenzar desmontando la crítica de trazo más grueso, aunque este dato es ya conocido y evidente para los informados: si Watson, Crick y Wilkins recibieron el Nobel de Química en 1962, y Franklin no, fue porque Franklin había fallecido de cáncer en 1958, y el premio nunca se concede a título póstumo. Es más: los tres científicos fueron nominados por primera vez para el premio en 1960, dos años después de la muerte de Franklin. En ciencia nunca se conceden los premios en caliente, sino que los hallazgos deben dejarse reposar no solamente para corroborar su veracidad, sino para que pueda comprobarse su impacto posterior.

¿Habría recibido Franklin el Nobel de no haber quedado su vida prematuramente segada por el cáncer? Nunca lo sabremos. El premio sueco solo puede partirse en tres. De haberse tenido que establecer un rango de contribuciones exclusivamente a la estructura del ADN, creo que pocos cuestionarán que Franklin tendría que haber figurado en tercer lugar por encima de Wilkins. Pero aquí regresamos a la cuestión de las jerarquías y explicamos lo dicho más arriba sobre la gestión deficiente y los malentendidos.

Cuando Franklin dejó París para incorporarse al King’s College de Londres, lo hizo bajo la invitación de John Randall, el director del grupo de biofísica, y ante la insistencia de Wilkins, quien deseaba contar con la participación de la brillante investigadora. De hecho, Wilkins insistió en que Franklin debía dejar su trabajo en proteínas para centrarse en el ADN.

Pero Randall cometió una enorme torpeza: al escribir a Franklin, la informó de que la línea del ADN sería de su exclusiva competencia, lo cual equivalía a equipararla con Wilkins en la jerarquía del laboratorio. Sin embargo, Randall jamás planteó esta situación a Wilkins, quien pensaba que la investigadora trabajaría en su equipo. Lo que siguió era lo esperable: Franklin pensaba que Wilkins se inmiscuía en su trabajo, y este que ella pretendía quitarle su línea.

Añadimos ahora el ingrediente de las enemistades personales: Wilkins y Franklin no se soportaban. Él era tímido, y ella tenía un carácter difícil. Según escribió Matthew Cobb en su libro Life’s Greatest Secret: The Race to Crack the Genetic Code, una amiga de Franklin decía de ella que “sus maneras eran bruscas y a veces buscaba la confrontación; suscitó bastante hostilidad entre la gente con la que se trataba y parecía bastante insensible a ello”.

En medio de todo este embrollo, el becario de Wilkins, Raymond Gosling, quedó en un extraño limbo entre ambos investigadores; una situación (y doy fe de ello en primera persona porque viví algo similar) tremendamente incómoda y difícil de manejar. Y entonces, sucedió que Gosling tomó la famosa Foto 51, la que más claramente mostraba la estructura helicoidal del ADN. Es importante insistir en este detalle: fue el becario Gosling quien obtuvo la imagen; aunque naturalmente y como ya he explicado, el éxito debía apuntarse en el haber de su supervisor. Pero ¿cuál de ellos? Gosling había sido reasignado a Franklin por Randall sin el conocimiento de Wilkins, pero según cuenta Cobb, para entonces había sido devuelto de nuevo a Wilkins cuando Franklin ya preparaba su nuevo traslado a otro laboratorio. Probablemente Gosling ya no sabía realmente a quién debía reportar, pero era perfectamente natural que mostrara la imagen también a Wilkins.

Llegamos ahora al juego sucio: Wilkins mostró a Watson una imagen tomada por quien él creía su becario, pero que se había obtenido bajo la dirección de Franklin. ¿Hubo mala intención por parte de Wilkins? No puede descartarse. ¿Fue sexismo? No hay ningún motivo de peso para creerlo. Sin embargo, la foto es solo una parte de la historia: la imagen revelaba claramente una estructura helicoidal, pero para definirla con precisión fueron necesarios los datos numéricos del King’s College que fueron proporcionados por este laboratorio al de Watson y Crick en la Universidad de Cambridge, y que la propia Franklin había presentado antes en un seminario.

Pero seguimos con el juego sucio. Dado que Watson y Crick basaron su modelo teórico en gran medida en los datos de Franklin, debieron hacerla partícipe de ello desde el principio. No la informaron, pero tampoco a Wilkins, que era quien les había mostrado la imagen. Los investigadores de Cambridge desarrollaron su trabajo gracias en buena parte a los datos del King’s College, pero a espaldas del King’s College. Es mala práctica científica, pero de nuevo no hay motivos para una acusación de discriminación sexista.

Rosalind Franklin. Imagen de Jewish Chronicle Archive / Heritage-Images / Wikipedia.

Rosalind Franklin. Imagen de Jewish Chronicle Archive / Heritage-Images / Wikipedia.

Con todo, Franklin casi logró llegar en solitario y por su cuenta a las mismas conclusiones que Watson y Crick, lo que demuestra el enorme talento de la investigadora. Pero los dos de Cambridge se adelantaron con un modelo completo. Cuando finalmente Watson y Crick revelaron su estructura a sus rivales del King’s College, la carrera hacia el ADN ya era historia. Finalmente la solución de compromiso fue publicar tres artículos independientes en Nature, uno firmado por Watson y Crick, otro por Wilkins y sus colaboradores, y el tercero por Franklin y Gosling.

Este resumen de la historia muestra que no puede achacarse justificadamente una falta de reconocimiento científico a Franklin por el hecho específico de ser mujer. Durante su confección del modelo, Watson y Crick dejaron de lado tanto a Franklin como a Wilkins, y no digamos al becario Gosling, autor material de la Foto 51. Cuando llegó el momento de las nominaciones al Nobel, Franklin ya había fallecido. De no haber sido así, a menudo se ha sugerido la hipótesis de que Watson y Crick podrían haber recibido el Nobel de Medicina, y Wilkins y Franklin el de Química. La científica podría además haber optado a un segundo galardón: en 1982 se concedió el Nobel a Aaron Klug por su trabajo en los cristales de proteínas y ácidos nucleicos en los virus, una línea que Klug había iniciado como becario de Franklin después de su etapa en el King’s College.

Pero como he sugerido al comienzo, esto tampoco implica que la científica no sufriera discriminación de género. En su época, las mujeres investigadoras eran una minoría. Muchas de ellas debían demostrar mucho más que los hombres para ganarse el respeto de sus colegas masculinos. El King’s College heredaba la apolillada tradición anglosajona de los gentlemen’s clubs, y tenía un comedor solo para hombres. Durante aquellos años, Watson mostró una actitud desdeñosa hacia Franklin que era incuestionablemente machista, y que solo rectificó años después. Sí, Franklin fue víctima del machismo, como muchas otras mujeres de su época e incluso de la nuestra. Pero lo que cercenó su carrera no fue el machismo, sino el cáncer.

El científico que sobrevivió al Titanic y escribió el primer testimonio

Anoche se cumplió un nuevo aniversario del desastre que por algún motivo continúa excitando hoy un morbo tan potente como el primer día. Es lógico que entonces, cuando aún no existía acceso global e inmediato a la información en cualquier parte del mundo, causara un enorme horror una tragedia en tiempos de paz que se llevó de un plumazo la vida de más de 1.500 personas.

Pero incluso más de un siglo después, con dos guerras mundiales a nuestras espaldas y otras locales incontables, y cuando todos los días los telediarios nos presentan un amplio desfile de cifras de víctimas de todo tipo, la fascinación por el hundimiento del Titanic sigue tan viva como siempre, sobre todo después de que en 1997 James Cameron convirtiera el episodio en una de las superproducciones más exitosas de la historia del cine.

El hundimiento del 'Titanic'. Dibujo de Willy Stöwer / Wikipedia.

El hundimiento del ‘Titanic’. Dibujo de Willy Stöwer / Wikipedia.

Como soy un tipo curioso, un devorador de conocimientos y de historias, me ha dado por preguntarme: ¿había científicos a bordo del Titanic? Sabemos, en parte gracias a Cameron, que aquel buque era un microcosmos representativo de la sociedad de entonces donde viajaban desde magnates a obreros, compartiendo el mismo casco pero sin jamás mezclarse. Parecería lógico que entre sus pasajeros hubiese también al menos algún investigador científico, pero esto es algo que no suele encontrarse en los relatos al uso.

Por suerte, cuento con la ayuda de la Encyclopedia Titanica, un recurso que contiene una inconcebible cantidad de datos sobre el buque y su primera y única travesía, incluyendo biografías más o menos extensas de todos sus ocupantes. Allí descubro que en el barco viajaban varios ingenieros, profesores, académicos y seis médicos, dos de ellos pertenecientes a la tripulación. Pero ninguno parece haber destacado por una labor investigadora sobresaliente.

Entre los pasajeros había un químico industrial, el francés René Jacques Lévy, de 36 años. El de Lévy fue un caso desafortunado, ya que el suyo no era un viaje de placer, ni debía haber estado aquella noche a bordo del Titanic. Su especialidad era la producción de tintes textiles, un trabajo que había ejercido en Inglaterra antes de regresar a París para casarse. En 1910 emigró con su mujer y sus tres hijas pequeñas a Montreal.

Posiblemente Lévy habría vivido una larga existencia en Canadá, de no haber sido por la circunstancia casual de la muerte de un familiar, que le llevó a viajar a Francia en marzo de 1912. Una vez cumplida aquella desagradable obligación, el químico debía regresar a América el 20 de abril a bordo del France. Pero cuando supo que otro barco le llevaría de vuelta con su familia 10 días antes, cambió su pasaje por uno de segunda clase en el Titanic.

Durante la travesía, Lévy comentó que los cabos para arriar los botes salvavidas le parecían demasiado cortos, y que en caso de accidente preferiría hundirse con el barco que sentarse en uno de ellos. La noche del 14 al 15 de abril, tras la colisión con el iceberg y cuando comenzó la evacuación del Titanic, el químico y sus dos compañeros de camarote se aseguraron de encontrarle una plaza en uno de los botes a una mujer con la que habían coincidido durante el viaje. Desde la cubierta la despidieron con un “au revoir!“, y ese fue el fin de la historia de Lévy. En 2012 la Real Sociedad de Química de Reino Unido concedió a Lévy su premio Presidencial a título póstumo por su “sobresaliente acto de cortesía”.

Lawrence Beesley y otra pasajera en el gimnasio del 'Titanic'. Imagen de Central News And Illustrations Bureau / Wikipedia.

Lawrence Beesley y otra pasajera en el gimnasio del ‘Titanic’. Imagen de Central News And Illustrations Bureau / Wikipedia.

El caso más notable es el del profesor de ciencias de 34 años Lawrence Beesley. Según la Encyclopedia Titanica, Beesley viajaba en segunda clase en el Titanic para tomarse unas vacaciones en EEUU y visitar a su hermano en Toronto tras haber abandonado su trabajo en Inglaterra. Viajaba solo, ya que había enviudado unos años antes. Según las crónicas, Beesley pasó gran parte de la travesía leyendo en la biblioteca. En esta curiosa foto se le puede ver junto a otra pasajera en el gimnasio del barco, haciendo bicicleta estática con un atuendo dudosamente cómodo.

La noche del 14 de abril, Beesley leía en su camarote. De repente notó un tirón en el movimiento del barco, pero ningún impacto. Al salir al pasillo a informarse, un miembro de la tripulación le tranquilizó asegurándole que no ocurría nada anormal. Pero tras comprobar que se estaban preparando los botes salvavidas, regresó a su camarote a buscar algunas pertenencias y se dirigió a cubierta, notando ya una cierta inclinación anómala en las escaleras.

Cuando llegó a cubierta, se estaba organizando el arriado del bote número 13. Al no haber más mujeres ni niños a la vista, Beesley fue invitado a abordar el bote, de donde él y el resto de sus ocupantes fueron rescatados durante la madrugada del 15 de abril por el buque Carpathia.

La evacuación de Beesley fue sorprendentemente tranquila y sencilla. Solo después supo de la magnitud de la tragedia y, sobre todo, de cómo su caso había sido excepcional: pese a que la película de Cameron se centraba en las diferencias entre primera y tercera clase, en realidad el grupo que se llevó la peor parte fue el de los hombres de segunda clase, de los que solo sobrevivió el 8%, la mitad que en tercera. “Los hombres de segunda clase no tenían el prestigio social y la notoriedad para ser favorecidos por el capitán y la tripulación en la primera oleada del rescate, y al mismo tiempo podían no tener la fortaleza física de algunos de los pasajeros de tercera clase para abrirse camino a través del caos”, dice el psicólogo Daniel Kruger en este documental del canal Historia.

Beesley narró su experiencia en el libro The Loss of the SS Titanic: its Story and its Lessons, que se publicó solo nueve semanas después del hundimiento. Fue la primera crónica escrita por un superviviente del desastre, y una de las principales fuentes en las que Cameron se inspiró para su película. Pero la obra de Beesley no es un simple relato de una catástrofe, sino que analizaba también los aspectos técnicos, incluyendo una discusión basada en un artículo publicado en la revista Scientific American sobre la tan cacareada insumergibilidad del Titanic. Gracias a su mentalidad científica, Beesley repasaba los errores y las posibles mejoras, con un alcance que habría sido imposible en una persona sin su formación.

A ese espíritu científico de Beesley debemos agradecerle también que se ocupara, ya en aquel relato temprano, de criticar toda la charlatanería sobrenatural de historias de premoniciones que ya entonces comenzó a aflorar, y que ha persistido hasta hoy. “Una cosa más debe señalarse: la prevalencia de creencias supersticiosas referentes al Titanic“, escribió. “Imagino que ningún otro barco zarpó jamás con tanta tontería miserable vertida sobre él”.

Beesley volvió a casarse, tuvo tres hijos más –ya tenía uno de su primera esposa– y vivió hasta los 89 años, falleciendo en 1967. Uno de sus nietos es Nicholas Wade, reputado escritor de ciencia en medios como The New York Times y las revistas científicas Science y Nature.

Pero la historia más extraña de su vida, dejando aparte su afortunada huida del Titanic, tuvo lugar en 1958. Suelen decir los psicólogos que a menudo los supervivientes de tragedias se ven afectados por una especie de sentimiento de culpa por continuar vivos. Tal vez fuera esta la razón, o quizá no. Pero aquel año Beesley servía como asesor en el rodaje en Londres de la película La última noche del Titanic, cuando el director, Roy Ward Baker, le descubrió de repente infiltrado entre los actores durante la escena del naufragio. Cuando Baker le preguntó qué hacía allí, Beesley respondió que en aquella ocasión quería hundirse con el barco. Pero por segunda vez fue desalojado antes del hundimiento, ya que las normas del rodaje impedían la participación de actores no sindicados.

Aún me queda en la recámara una historia más que contarles sobre los científicos y el Titanic. Mañana seguiremos.

Cuanto más fuerte es la ciencia, ¿más fuerte es la pseudociencia?

Hace poco más de un año dejé aquí un artículo explicando por qué, en mi sola y personal opinión, la guerra contra las pseudociencias nunca podrá ganarse. El artículo en cuestión fue contestado por otras opiniones, igualmente respetables y válidas que la mía, de quienes calificaban mi postura de derrotista porque, según ellos, la solución era muy sencilla: basta con aumentar el nivel de alfabetización y cultura científica entre la población para que los ciudadanos abran los ojos a la verdad y dejen de creer en patrañas.

Pero ya que en este caso se trata de un debate entre personas con conocimientos científicos, les invito a enfocarlo como si se tratara de un experimento: todos sabemos que, en general, para probar que tal condición provoca tal efecto, debe existir una curva de dosis-respuesta. Es decir, que a mayor cantidad de estímulo, mayor debe ser el efecto.

Pues bien, el experimento ya está hecho. No creo que nadie pueda cuestionar que en nuestra época y al menos en los países desarrollados, con sistemas educativos normalizados, alfabetización universal, escolarización obligatoria y educación pública gratuita, la población está mejor formada que nunca antes en la historia. Y sin embargo, no parece que las pseudociencias hayan desaparecido, sino todo lo contrario: vivimos una edad de oro de la anti-ilustración, en la cual la superstición y las creencias irracionales atraviesan momentos de gloria en todos los ámbitos. No creo que a nadie le resulte difícil encontrar a su alrededor personas con educación universitaria, incluso con educación científica universitaria, que asisten a sesiones de reiki, piensan que los transgénicos son veneno o toman preparados homeopáticos.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Reproduzco aquí lo que contaba sobre este argumento en aquel artículo, la primera de mis razones para creer que ese triunfo contra las pseudociencias no es posible:

1. No es cuestión de nivel educativo o de formación científica

Entre esas observaciones de los neurocientíficos y psicólogos experimentales dedicados a estudiar el fenómeno del movimiento anti-ilustración, destaca una conclusión contraintuitiva.

Lo natural sería pensar que quienes creen que el movimiento de los astros puede influir sobre su personalidad o su futuro, o quienes creen que un vial de agua o una pastilla de azúcar pueden curar enfermedades, son auténticos zotes con un paupérrimo nivel educativo y menos luces que un ovni de madera. Y que un poco de educación y de información bastaría para barrer sus telarañas mentales y abrirles los ojos a la luz de la razón.

Pero no es así. Como recientemente he comentado aquí, un reciente estudio revelaba que los adeptos al movimiento anti-ilustración no tienen en general menor inteligencia o nivel educativo que el resto, y ni siquiera menos interés por la ciencia. Simplemente, prefieren elegir selectivamente, sabiamente pero tramposamente, los datos que corroboran sus ideas preconcebidas; los autores del estudio lo llamaban “pensar como un abogado”.

Como también he contado aquí, neurocientíficos como Dean Burnett argumentan que, nos guste o no, la creencia en patrañas forma parte del funcionamiento normal de un cerebro humano sano. Y aunque otro estudio reciente sugiere que es posible proteger a las personas contra la influencia de la pseudociencia mediante lo que los autores definían como una especie de vacuna psicológica, parece que lograrlo requiere algo más sutil y complejo que simplemente más información científica o una mejor educación en el empirismo.

De hecho, y esta es ya simplemente una sensación intuitiva sin datos concretos, mi impresión personal es que últimamente ya casi no existe anuncio televisivo de cualquier producto destinado a echarnos en el cuerpo de una manera u otra que no se agarre a la quimiofobia como argumento de venta. Las marcas saben que la quimiofobia vende, y la explotan profusamente. Últimamente ha llegado también a la bebida estrella de la primavera y el verano: una marca de cerveza se anuncia ahora diciendo que su nueva receta es su vieja receta, sin sulfitos porque en el siglo XIX “no se utilizaban”. Lo cual, por cierto, es falso: en la antigua Roma los sulfitos ya se empleaban para preservar el vino, y desde 1664 se utilizan como aditivos alimentarios. En el siglo XIX su uso estaba más que generalizado como conservante antimicrobiano.

El anuncio en cuestión también asegura que la cerveza está más “buena” por no emplear aditivos, lo que es sencillamente un oxímoron conceptual: tratar de transmitir la idea de que los aditivos se añaden a los alimentos con el estúpido fin de empeorar aposta su sabor y sus propiedades es llamar imbéciles a sus consumidores. Obviamente, lo que hace un conservante es precisamente lo contrario, proteger el alimento del deterioro para preservar su sabor y sus propiedades en el punto óptimo del producto fresco.

Pero volviendo al foco, hoy quiero hablarles sobre un artículo que leí hace unos días, publicado el año pasado en la revista EMBO Reports del Laboratorio Europeo de Biología Molecular. Su autor, el historiador de la ciencia de la Universidad de Princeton (EEUU) Michael Gordin, explica “el problema de la pseudociencia”, y a mi modo de ver aporta un muy lúcido análisis sobre por qué la guerra contra las pseudociencias no puede ganarse. Resumiendo, la tesis de Gordin es que las pseudociencias florecen con mayor intensidad precisamente cuando la ciencia es más fuerte.

Gordin opina que la pseudociencia no es un producto de la ignorancia, y que por tanto no puede eliminarse con un antídoto de conocimiento científico. En su lugar, plantea una metáfora: la pseudociencia no es la anticiencia, sino la sombra de la ciencia. Y cuanto más fuerte es la luz, más intensa es también la sombra. “La pseudociencia es la sombra de la ciencia profesional, y del mismo modo que una sombra no puede existir sin el objeto que la proyecta, también todo objeto necesariamente proyecta una sombra”.

El historiador expone cómo históricamente las pseudociencias han surgido como fringe science, ciencia marginal, alejada del núcleo y caracterizada por una oposición al establishment científico. Como este blog destacaba recientemente, no todo lo que es acientífico puede considerarse pseudocientífico; la pseudociencia se caracteriza por ser una imitación de la ciencia. Gordin escribe que los pseudocientíficos “leen estudios en áreas específicas, proponen teorías, reúnen datos, escriben artículos y puede que los publiquen. Lo que imaginan estar haciendo es, en una palabra, ciencia”. Y añade: “todos los individuos que han sido llamados pseudocientíficos se han considerado a sí mismos científicos, sin prefijo”.

Esto es algo que podemos observar a menudo en los ámbitos donde queda más patente la presentación de las pseudociencias lavadas y peinadas para ofrecer el aspecto de verdaderas ciencias. Hace unas semanas, mientras escribía para otro medio un reportaje sobre la patraña de los chemtrails, escuché un antiguo programa de radio de un famoso comunicador del misterio que trataba sobre este asunto. En aquella emisión, un presunto investigador presentaba presuntos argumentos sobre la existencia de presuntas fumigaciones conspirativas y sus efectos sobre una presunta enfermedad.

Imagen de pxhere.

Imagen de pxhere.

Era realmente sorprendente cómo aquel sujeto citaba una avalancha de presuntos datos publicados por presuntos científicos. En realidad, cualquiera que tratara de contrastar la información por su cuenta podía descubrir fácilmente que ni los científicos citados eran tales (por ejemplo, la “bióloga investigadora” era en realidad una mujer que tenía una licenciatura en biología pero que nunca había ejercido profesionalmente, no tenía formación ni experiencia investigadora y trabajaba como ama de casa), ni los datos existían más allá de la simple presunción (no existía una sola prueba física contrastada), y que en el fondo no había absolutamente nada real. Pero sin duda todo aquello podía ser muy convincente para cualquier oyente sin conocimientos especializados; todo sonaba muy a ciencia, sin serlo jamás.

Por todo ello, defiende Gordin, arrojar más conocimiento científico sobre la mesa no sirve para extinguir la pseudociencia, sino que al contrario, puede ser como echar gasolina al fuego. El autor desarrolla el ejemplo de Immanuel Velikovsky, un médico ruso que a mediados del siglo pasado publicó una teoría sobre un cataclismo planetario que habría ocurrido en tiempos históricos y que habría dejado reflejo en los textos sagrados de varias religiones. Según cuenta Gordin, la reacción exagerada de la ciencia contra la hipótesis de Velikovsky convirtió lo que debería haber sido flor de un día en una doctrina defendida en todo el mundo por una legión de seguidores, que presentaban a su líder como un nuevo Galileo, un genio censurado por el establishment.

Del caso de Velikovsky, Gordin concluye: “algunas veces, los intentos de movilización contra lo que se percibe como pseudociencia pueden volverse contra uno”. Hoy podemos encontrar ejemplos de esto en numerosos frentes, como los transgénicos, el cambio climático, el movimiento antivacunas o las pseudomedicinas como la homeopatía, donde más ciencia no consigue erradicar la pseudociencia. “Aumentar el nivel de educación científica en todo el mundo es un objetivo encomiable que apoyo con todo mi ánimo, pero no deberíamos imaginar que esto eliminará el fringe“, escribe Gordin.

Pero de todo ello puede extraerse un mensaje alentador, y es que la proliferación actual de las pseudociencias es, al menos, un indicador de que la ciencia atraviesa un momento histórico brillante, como en los 1820 cuando proliferó la frenología, en los 1870 con el espiritualismo o entre los 50 y 70 del siglo XX con la parapsicología y los ovnis, según repasa Gordin: “paradójicamente, estos no son momentos en los que el prestigio de la ciencia estaba bajo, sino cuando era alto”.

Y frente a todo esto, ¿cuál es la solución? Gordin no tiene una bala mágica, pero sí apunta aquello que no debe hacerse, y precisamente es algo en lo que también suelo insistir: la postura elitista de despreciar a los seguidores de las pseudociencias no hace ningún bien. La ciencia debe ser inclusiva y bajar al suelo, fusionarse con la sociedad, no dogmatizar, no imponer el qué, sino explicar el por qué. Gordin aclara una vez más que “lo que estas prácticas no lograrán es eliminar el fringe por completo, porque el fringe es inerradicable”. Pero, concluye el historiador con su metáfora, en el juego de sombras chinescas donde la mano proyecta en la pared sombras de conejos y patos, tal vez logremos que haya más gente que no mire la sombra sino la mano, que es donde realmente está la acción.

Este es el jefe de medio ambiente de Trump, para quien extraer petróleo es un mandato divino

Les presento a un personaje: Scott Pruitt. Puede que su nombre no les diga nada, pero en EEUU está en boca de todo el mundo. Pruitt es un político republicano estadounidense, antiguo fiscal general de Oklahoma (si los expertos en derecho me aprueban esta traducción de attorney general).

Scott Pruitt en 2017. Imagen de la Casa Blanca.

Scott Pruitt en 2017. Imagen de la Casa Blanca.

A este lado del Atlántico, lo de fiscal general de Oklahoma nos suena como a un tipo con revólver al cinto y brazos en jarras que contempla satisfecho cómo se balancea el cuerpo al extremo de la soga. Pero más allá de la fantasía, lo cierto es que sí, que en Oklahoma no solo está vigente la pena de muerte, sino que –si la Wikipedia no me engaña– es el estado de la Unión con el menú más profuso de opciones de ejecución, incluyendo el fusilamiento.

Pero Pruitt no ha saltado a la popularidad por este antiguo cargo, sino por el actual: es el hombre designado por Donald Trump para dirigir la Agencia de Protección Medioambiental (EPA), un puesto que lleva desempeñando algo más de un año.

Como es lógico, hasta el advenimiento de Trump, el cambio climático era una gran prioridad en la agenda de la EPA. No es un secreto que el actual presidente de EEUU es un ferviente negacionista de la evidencia científica sobre los efectos antropogénicos en el clima, y la huella de la doctrina de Trump en su mandato es más que palpable: en enero la Environmental Data & Governance Initiative, una organización promovida por académicos y ONG, revelaba en un extenso análisis cómo la información sobre el cambio climático ha ido desapareciendo de las webs del gobierno federal, destacando sobre todo la web de la EPA.

Pero los cambios introducidos por Pruitt, cuya dimisión ya piden incluso algunos miembros de su propio partido (¡sí, sí, eso allí pasa!), eran difícilmente inesperados: durante años Pruitt ha pasado por ser el adalid de la industria contra el medio ambiente, poniendo en marcha varias demandas contra políticas medioambientales instauradas por la administración anterior de Barack Obama.

Hace unos meses Pruitt, que en su página de Linkedin se declara un campeón de “la legislación tradicional basada en la fe”, venía a decir que la extracción de petróleo es un mandato divino: “la visión bíblica del mundo con respecto a estas cuestiones es que tenemos la responsabilidad de gestionar, cultivar y cosechar los recursos naturales con los que hemos sido bendecidos para realmente bendecir a nuestros semejantes”, declaraba a Christian Broadcasting Network. Sin embargo lo cierto es que, bajo este discurso tan extraño a nuestra mentalidad, pero tan aplaudido en EEUU, los medios han desvelado que la gracia de Pruitt hacia las industrias más contaminantes parece tanto o más motivada por el dólar que por la Biblia.

Un manifestante contrario a Pruitt. Imagen de Lorie Shaull / Wikipedia.

Un manifestante contrario a Pruitt. Imagen de Lorie Shaull / Wikipedia.

En su programa Last Week Tonight, el cómico John Oliver –de quien ya les he hablado aquí en alguna ocasión– desvelaba la curiosidad de que en su página de LinkedIn, que no se ha actualizado desde sus tiempos de Oklahoma, Pruitt se presenta como “un prominente opositor contra la agenda activista de la EPA”. Pero el hecho de que Pruitt esté ahora dirigiendo el organismo que anteriormente ha tratado de aniquilar no es casual: si uno quiere destruir una organización, ¿qué mejor que ponerla bajo la dirección de su peor enemigo? Obviamente, Pruitt es el hombre elegido por Trump para desmantelar la EPA, al menos tal como solía ser.

Y sin embargo, incluso esto tiene un lado positivo. Mírenlo de esta manera: el hecho de que Trump haya arriesgado poniendo al frente de la EPA no a cualquier mindundi, sino al más potente archienemigo de la propia agencia, sugiere que el más poderoso negacionista del cambio climático del mundo es consciente de estar enfrentándose a un enemigo muy difícil de batir: la ciencia. Los políticos van y vienen, y por mucho daño que estos ocho años de trumpismo puedan hacer a los esfuerzos contra el cambio climático, la designación de Pruitt es un indicio de que incluso el propio Trump reconoce lo complicado que resulta ya negar las pruebas científicas actuales. Y una vez llegado a ese punto, la única salida es la censura.

Lo cual podría llevarnos a una sugerente moraleja, y es que cuanto más fuerte es la pseudociencia, puede ser también un signo de que la ciencia goza de muy buena salud. Es una idea interesante, pero no es mía. De hecho, precisamente la leí hace unos días en un artículo que me ha llevado a conectarlo con el caso de Pruitt, y que mañana les contaré.

Por qué padres y madres de Silicon Valley restringen el uso de móviles a sus hijos

Soy de la opinión de que la tecnología debe servir para resolvernos necesidades, y no para creárnoslas. Por ejemplo, la razón de ser de los fármacos es curarnos enfermedades. No tendría sentido que su fin fuera satisfacer la necesidad de consumirlos, como ocurre en las adicciones.

Es evidente que las necesidades van cambiando con los tiempos, y que su relación con el desarrollo de la tecnología es de doble sentido. Por ejemplo, el trabajo periodístico de hoy sería imposible sin un uso intensivo de la tecnología. Los dispositivos y las herramientas, internet, el correo electrónico o las redes sociales nos permiten cubrir el mundo entero al instante. Hoy el periodismo no podría volver a ser lo que era hace un siglo, pero si quizá las crecientes necesidades de información y comunicación han contribuido a la creación de las herramientas, también la aparición de estas se ha aprovechado para crear una necesidad de la que hoy ya no se puede prescindir.

Sin embargo, en otros casos la situación parece más simple. Nadie tenía realmente la necesidad de estar en contacto permanente con un amplio grupo de personas distantes durante cada minuto del día, en muchos casos ignorando la realidad más próxima. O de estar continuamente exhibiendo detalles de su vida a un amplio grupo de personas distantes durante cada minuto del día, y de estar cada minuto del día comprobando con ansia a cuántas de esas personas distantes les gusta esa exhibición. Si esto puede llegar a considerarse una adicción, según y en qué casos, y si esta adicción puede ser nociva, según y en qué casos, es algo que corresponde analizar a psiquiatras y psicólogos. Pero tratándose de adultos, allá cada cual.

El problema son los niños. Porque ellos no tienen ni la capacidad ni el derecho legal de elegir sus propias opciones, sino que dependen de las nuestras. Y porque sus cerebros están en desarrollo, y lo que nosotros hagamos hoy con sus mentes va a influir poderosamente en lo que ellos mismos puedan mañana hacer con ellas.

Niños con teléfonos móviles. Imagen de National Park Service.

Niños con teléfonos móviles. Imagen de National Park Service.

Muchos colegios, entre ellos el de mis hijos, están cambiando en gran medida el uso de las herramientas tradicionales por las informáticas: libros y cuadernos por iPads, papel por PDF, tinta por táctil, pizarras por pantallas, el contacto personal por el virtual… Bien, ¿no? Hay que aprovechar las últimas tecnologías, son los utensilios de hoy y del futuro que deben aprender a manejar, son nativos digitales, y blablabla…

Aparentemente todo esto solo resulta problemático para quienes preferimos que todas las afirmaciones categóricas de cualquier clase vengan avaladas por datos científicos. Y por desgracia, cuando pedimos que nos dirijan a los datos que demuestran cómo la enseñanza basada en bits es mejor para los niños que la basada en átomos, nadie parece tenerlos a mano ni saber dónde encontrarlos. Lo cual nos deja con la incómoda sensación de que, en realidad, el cambio no se basa en hechos, sino en tendencias. O sea, que el juicio es apriorístico sin datos reales que lo justifiquen: la enseñanza digital es mejor porque… ¡hombre, por favor, cómo no va a serlo!

Lo peor es que, cuando uno decide buscar por su cuenta esos datos en las revistas científicas, el veredicto tampoco parece cristalino. Es cierto que evaluar el impacto de la tecnología en el desarrollo mental de un niño parece algo mucho más complicado que valorar la eficacia de un medicamento contra una enfermedad. Pero cuando parece aceptado que el uso de la tecnología sustituyendo a las herramientas tradicionales es beneficioso para los niños, uno esperaría una avalancha de datos confirmándolo. Y parece que no es el caso.

Como todos los periodistas, exprimo la tecnología actual hasta hacerla sangre. Mi sustento depende de ello. Si un día no me funciona internet, ese día no puedo trabajar y no cobro. Pero una vez que cierro el portátil, soy bastante selectivo con el uso de la tecnología. No es tanto porque me gusten el papel y el vinilo, que sí, sino porque pretendo no crearme más necesidades innecesarias de las que tengo actualmente. Y por todo ello me pregunto: ¿se las estarán creando a mis hijos sin mi consentimiento ni mi control?

Todo esto viene a cuento de uno de los artículos más interesantes que he leído en los últimos meses, y sin duda el más inquietante. Según publicaba recientemente Chris Weller en Business Insider, algunos padres y madres que trabajan en grandes compañías tecnológicas de Silicon Valley limitan el acceso de sus hijos a la tecnología y los llevan a colegios de libros, pizarra y tiza. ¿El motivo? Según cuenta el artículo, porque ellos conocen perfectamente los enormes esfuerzos que sus compañías invierten en conseguir crear en sus usuarios una dependencia, y quieren proteger a sus hijos de ello.

Este es el sumario que BI hace del artículo:

  • Los padres de Silicon Valley pueden ver de primera mano, viviendo o trabajando en el área de la Bahía, que la tecnología es potencialmente dañina para los niños.
  • Muchos padres están restringiendo, o directamente prohibiendo, el uso de pantallas a sus hijos.
  • La tendencia sigue una extendida práctica entre los ejecutivos tecnológicos de alto nivel que durante años han establecido límites a sus propios hijos.
Sede de Google en Silicon Valley. Imagen de pxhere.

Sede de Google en Silicon Valley. Imagen de pxhere.

Destaco alguna cita más del artículo:

Una encuesta de 2017 elaborada por la Fundación de la Comunidad de Silicon Valley descubrió entre 907 padres/madres de Silicon Valley que, pese a una alta confianza en los beneficios de la tecnología, muchos padres/madres ahora albergan serias preocupaciones sobre el impacto de la tecnología en el desarrollo psicológico y social de los niños.

“No puedes meter la cara en un dispositivo y esperar desarrollar una capacidad de atención a largo plazo”, cuenta a Business Insider Taewoo Kim, jefe de ingeniería en Inteligencia Artificial en la start-up One Smart Lab.

Antiguos empleados en grandes compañías tecnológicas, algunos de ellos ejecutivos de alto nivel, se han pronunciado públicamente condenando el intenso foco de las compañías en fabricar productos tecnológicos adictivos. Las discusiones han motivado nuevas investigaciones de la comunidad de psicólogos, todo lo cual gradualmente ha convencido a muchos padres/madres de que la mano de un niño no es lugar para dispositivos tan potentes.

“Las compañías tecnológicas saben que cuanto antes logres acostumbrar a los niños y adolescentes a utilizar tu plataforma, más fácil será que se convierta en un hábito de por vida”, cuenta Koduri [Vijay Koduri, exempleado de Google y emprendedor tecnológico] a Business Insider. No es coincidencia, dice, que Google se haya introducido en las escuelas con Google Docs, Google Sheets y la plataforma de gestión del aprendizaje Google Classroom.

En 2007 [Bill] Gates, antiguo CEO de Microsoft, impuso un límite de tiempo de pantalla cuando su hija comenzó a desarrollar una dependencia peligrosa de un videojuego. Más tarde la familia adoptó la política de no permitir a sus hijos que tuvieran sus propios móviles hasta los 14 años. Hoy el niño estadounidense medio tiene su primer móvil a los 10 años.

[Steve] Jobs, el CEO de Apple hasta su muerte en 2012, reveló en una entrevista para el New York Times en 2011 que prohibió a sus hijos que utilizaran el nuevo iPad lanzado entonces. “En casa limitamos el uso de la tecnología a nuestros niños”, contó Jobs al periodista Nick Bilton.

Incluso [Tim] Cook, el actual CEO de Apple, dijo en enero que no permite a su sobrino unirse a redes sociales. El comentario siguió a los de otras figuras destacadas de la tecnología, que han condenado las redes sociales como perjudiciales para la sociedad.

Estos padres/madres esperan enseñar a sus hijos/hijas a entrar en la edad adulta con un saludable conjunto de criterios sobre cómo utilizar –y, en ciertos casos, evitar– la tecnología.

Finalmente, me quedo con dos ideas. La primera: una de las entrevistadas en el artículo habla de la “enfermedad del scrolling“, una epidemia que puede observarse simplemente subiendo a cualquier autobús. La entrevistada añadía que raramente se ve a alguna de estas personas leyendo un Kindle. Y, añado yo, tampoco simplemente pensando mientras mira por la ventanilla; pensar es un gran ejercicio mental. Precisamente en estos días hay en televisión un anuncio de una compañía de telefonía móvil en la que un dedo gordo se pone en forma a base de escrollear. El formato del anuncio en dibujos animados está indudablemente llamado a captar la atención de niños y adolescentes. La publicidad tampoco es inocente.

La "enfermedad del scrolling". Imagen de jseliger2 / Flickr / CC.

La “enfermedad del scrolling”. Imagen de jseliger2 / Flickr / CC.

La segunda idea viene implícita en el artículo, pero no se menciona expresamente: somos ejemplo y modelo para nuestros hijos. Aunque los adultos somos soberanos y responsables de nuestros actos, debemos tener en cuenta que nuestros hijos tenderán a imitarnos, y tanto sus comportamientos como su escala de valores se forjarán en gran medida en función de los nuestros. Difícilmente los niños desarrollarán una relación saludable con la tecnología si observan, algo que he podido ver en numerosas ocasiones, cómo su padre y su madre se pasan toda la cena familiar escrolleando como zombis.

Les invito a leer el artículo completo; y si no dominan el inglés, esta traducción de Google es casi perfecta. Es increíble cómo los algoritmos de traducción automática están progresando desde aquellas primeras versiones macarrónicas hasta las de hoy, casi indistinguibles de una traducción humana. ¿Ven? La tecnología sirve si nos resuelve necesidades, como la de estar advertidos de sus riesgos.

Por mi parte y ante quienes me cantan las maravillas de la tecnología en la educación, pero me las cantan de oído, sin ser capaces de detallarme ninguna referencia concreta, desde ahora yo sí tendré una para ellos.

El mayor espectáculo del mundo se rompe en dos (dentro de millones de años)

Esta semana ha sido noticia, si bien de las que apenas nos interesan a unos pocos, el arañazo de varios kilómetros de longitud que se ha abierto de repente en el suroeste de Kenya. Ha ocurrido alrededor de la carretera de Mai Mahiu a Narok, una ruta bien conocida para todos los que frecuentamos aquellos lugares, ya que se trata de la vía más directa que une la capital, Nairobi, con la reserva de Masai Mara.

La grieta apareció en realidad hace un par de semanas, aunque la noticia ha tardado algunos días en propagarse a través de la red. El jueves lo contaba mi compadre Miguel Criado en la web de El País. El desgarrón en el suelo puede apreciarse en este vídeo tomado desde un dron para el diario kenyano Daily Nation:

El lugar donde esto ha sucedido es la sede del mayor espectáculo natural del mundo, el Gran Valle del Rift, una fractura en la faz de la Tierra que se extiende a lo largo de unos 6.000 kilómetros, desde Mozambique, al sur, subiendo por la región de los grandes lagos al este de África, cruzando el mar Rojo y terminando en el Líbano. Pero lo que lo convierte en el mayor espectáculo del mundo no es solamente una curiosidad geológica, sino sobre todo la explosión de vida que allí ha tenido lugar y que aún a duras penas se conserva.

En el sector de África Oriental, donde mejor se distingue la geografía del valle, se asientan lagos como Turkana, Nakuru, Elmenteita y Bogoria, que han ido acumulando sales a lo largo de millones de años y que congregan inmensas bandadas de flamencos y otras especies. Los lagos de agua dulce como el Naivasha, el Victoria o el Baringo, junto con sus muchos ríos y arroyos, mantienen una cantidad y variedad de animales que no pueden observarse con tanta facilidad en ningún otro lugar del planeta. La ranura que forma el valle en el paisaje africano se ve agujereada por cráteres de antiguos volcanes como el Suswa o el Longonot.

Y por supuesto, en el ecosistema formado por Masai Mara y el Serengeti se representa año a año el mayor movimiento de megafauna de la Tierra, la Gran Migración de millones de ñus, cebras, gacelas y otros herbívoros siguiendo los ciclos de las lluvias y sirviendo como enorme supermercado para miles de carnívoros. Por si aún fuera poco, durante décadas se ha considerado que el Rift era la cuna de la humanidad, dado que allí se han encontrado los restos de algunos de nuestros ancestros más antiguos. Y aunque hoy existen otras regiones candidatas en el continente africano, incluso si el Rift no llegó a ser el paritorio del ser humano, al menos sí fue el primer parquecito donde aprendimos a jugar, y no podía existir otro mejor.

He tenido la suerte de poder enseñar todas aquellas maravillas a algunas personas que las descubrían por primera vez, y he disfrutado mucho de su pasmo ante el espectáculo; tanto como si les estuviera revelando algo mío propio, que en cierto modo lo es. Mi itinerario favorito es salir de Nairobi directamente hacia el Rift, ya sea a Naivasha, Nakuru y los lagos del norte o a Masai Mara. Desde las tierras altas fértiles que bordean la capital –Nairobi está a unos 1.700 metros de altura–, la carretera se interna en el terreno ondulado y selvático de la escarpadura Kikuyu, hasta que de repente, detrás de una curva, aparece ese gigantesco cañón que se extiende a izquierda y derecha hasta donde alcanza la vista, tapizado de amarillo frente al verde de la meseta y suavemente levantado en algunas cimas mansas. Mientras la carretera se cuelga de la sierra para ir posándose al fondo del valle, hay varios miradores donde detenerse a dejar vagar la mirada por aquel río de polvo y hierba.

Esta imagen de Google Maps y este mapa (mío propio) les ayudarán a hacerse una composición de lugar. Nairobi aparece abajo a la derecha. El Rift es la franja de color pardo que corre a su izquierda, de arriba abajo, y donde destaca sobre todo el ojo redondo del cráter del monte Suswa. Masai Mara es la región con forma más o menos de trapecio que se ve a la izquierda, debajo de Talek y lindando con la frontera tanzana (la línea blanca). La carretera donde se ha abierto la grieta, la B3, pasa de izquierda a derecha justo al norte del Suswa.

Imagen de Google Maps.

Imagen de Google Maps.

© Javier Yanes / Kenyalogy.com.

© Javier Yanes / Kenyalogy.com.

La noticia de la nueva grieta y el hecho de que haya aparecido en la fractura natural del Rift ha llevado a varios medios a publicar titulares anunciando una casi inminente ruptura de África en dos. Y es cierto que el continente se partirá por esta línea, desgajando la masa de tierra en dos y abriendo un nuevo océano entre ambos bloques. Pero esto no ocurrirá hasta dentro de millones de años, cuando probablemente no quede ningún ser humano aquí para verlo. Y por supuesto, no sucederá de golpe; el Rift se está abriendo, pero a razón de como mucho un par de centímetros al año.

Lo cierto es que hoy los geólogos explican el Rift como una combinación de fenómenos relacionados pero distintos, donde ni todo lo que se ve es, ni todo lo que es se ve. La causa principal de la existencia de esta fractura es la colisión entre las placas tectónicas, los retales flotantes de los que está hecha la superficie terrestre. Desde el este y el norte, la placa India y la Arábiga empujan contra la placa Africana y la están partiendo en dos a través del Rift, donde se abren algunas fallas activas y otras antiguas, ya fosilizadas. El resultado final de este lentísimo proceso serán dos placas separadas que ya tienen nombre, la Nubia al oeste y la Somalí al este. Masai Mara, los lagos del Rift y sus volcanes quedarán entonces sumergidos bajo las aguas.

En cuanto a la nueva grieta, los geólogos ya se han apresurado a aclarar que no, que la idea de que África está comenzando a rajarse rápidamente es una fantasía sin ningún fundamento, y que si bien la trinchera abierta en el suelo de Kenya está relacionada con la inestabilidad del Rift, no es ningún principio de nada cataclísmico.

En el diario The Guardian, el sismólogo Stephen Hicks repasa las pruebas disponibles para concluir que la grieta “no es de origen tectónico”, es decir, que no se debe a un brusco movimiento rápido de las placas, sino que probablemente se debe a la erosión por las lluvias recientes. En Twitter, la geóloga Helen Robinson decía: “tras contactar con el director del Servicio Geológico de Kenya a través de mi trabajo en Kenya, se cree que la causa de esto es un rápido flujo de agua subterránea como resultado de lluvias fuertes y repentinas, después de sequías prolongadas”.

De hecho, incluso si hubo actividad sísmica en la zona antes de la apertura de la grieta, algo que no parece confirmado, y a pesar de lo que habitualmente podemos ver en las películas de terremotos, el geólogo David Bressan escribe en Forbes: “la idea de que durante un terremoto se abre una gran fisura es más bien una leyenda urbana”.

En resumen y según los expertos, esta es la explicación más probable: la grieta no se ha abierto ahora, sino que ya existía, solo que estaba oculta. Tal vez se trate de una falla inactiva fosilizada, que estaba rellena y taponada por materiales sueltos como las cenizas volcánicas de antiguas erupciones. Sobre este suelo inestable se había formado una costra de tierra endurecida por las sequías. Las fuertes lluvias recientes en la región han empapado el suelo y han alimentado corrientes de aguas subterráneas que han arrastrado las cenizas, dejando solo la cáscara superficial que ha terminado por venirse abajo.

De hecho y como también señala Bressan, barrancos como este son frecuentes en la zona y pueden apreciarse incluso en las fotos de Google Maps. Si han visitado aquellos parajes, habrán comprobado que abundan los cauces secos estacionales, pero también que en muchos lugares se abren zanjas en el suelo sin una razón aparente. Y si aún no los han visitado, sepan que no se puede dejar pasar una vida sin conocer el más increíble espectáculo natural del planeta.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: “Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo”). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. “Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte”, dijo. “Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial”. Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: “creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa”. Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: “queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura”. Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera “clic” y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de “alucinaciones auditivas”. Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: “es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte”.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: “su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico”. David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.

 

El reiki y el ayurveda no son pseudociencias. Ni siquiera son pseudociencias

Cuentan que en una ocasión al físico Wolfgang Pauli le mostraron un trabajo, tan deficiente que su respuesta fue: “no es que no sea bueno, es que ni siquiera es malo”.

O algo parecido. Lo cierto es que circulan distintas versiones de la historia, y en castellano la cita suele traducirse utilizando las palabras correcto/falso. Pero personalmente prefiero bueno/malo, o correcto/erróneo-equivocado, porque el matiz es fundamental: parece claro que lo expresado en aquel trabajo sí era indiscutiblemente falso; en cambio, lo que Pauli probablemente quería decir es que ni siquiera llegaba al nivel de erróneo. Que no es lo mismo. En el alemán natal de Pauli la cita aparece con la palabra “falsch“, que según el diccionario significa indistintamente “falso” e “incorrecto”/”equivocado”, pero creo que en este caso es más adecuada la versión inglesa “wrong“, que no significa “falso”, pero sí “incorrecto”/”equivocado”.

Un ejemplo: si le damos a alguien una raqueta de tenis y una pelota, y ni siquiera es capaz de acertar a dar con la primera en la segunda, puede decirse que es un pésimo jugador de tenis. Pero si deja la pelota en el suelo, agarra la raqueta por la parte ancha y trata de empujar la bola con el mango como si fuera un taco de billar, entonces ni siquiera podremos afirmar que es un mal tenista.

Cuento esto porque a menudo calificamos como pseudociencias cosas que realmente no deberían clasificarse como tales, ya que ni siquiera llegan a serlo. Hoy el término “pseudociencia” se ha extendido, y muchos, también mea culpa, lo utilizamos indiscriminadamente para referirnos a todo lo que no es científico. Sin embargo, tal vez deberíamos reservar este término exclusivamente para lo que de verdad puede calificarse como pseudociencia.

Imagen de Pixabay.

Imagen de Pixabay.

Hoy existe un término alternativo muy popular, “magufo” o “magufería”. Pero personalmente no me gusta, porque su carácter peyorativo es interpretado por muchas personas ajenas a la ciencia, y me consta, como un signo de prepotencia de la élite científica. Se convierte en un insulto, como el “hereje” del siglo XVI cuando la sociedad estaba regida por la religión. La ciencia debe ser inquisitiva, pero no inquisitorial; debe ser inclusiva y amable, debe explicar y convencer simplemente porque sus argumentos son mejores. Insultar al contrario es una buena manera de estigmatizarlo, pero no es una buena manera de lograr abrirle los ojos, ya que probablemente reaccionará cerrándolos aún más. La letra con sangre no entra.

Pero ¿qué es pseudociencia? Aunque la palabra se emplea desde hace siglos, fue el filósofo de la ciencia Karl Popper quien a mediados del siglo XX puso orden en el método científico, convirtiéndolo en lo que hoy entendemos como tal. Según Popper, la ciencia no demuestra, sino que falsa (del verbo falsar, recogido por la RAE). Es decir, que algo es científico no cuando se demuestra irrefutablemente que es cierto, un horizonte al que nunca se llega, sino cuando puede demostrarse que es falso, se demuestre o no.

Por supuesto, la teoría de Popper también ha sido criticada, ya que algunos consideran la falsación como un ideal impracticable que haría imposible el progreso real de la ciencia. En la práctica, los científicos tienden a aplicar un popperismo de baja graduación, tratando para sus adentros de demostrar sus hipótesis, pero sabiendo que formalmente solo pueden corroborarlas hasta un cierto grado y que por tanto pueden ser falsadas en el futuro; más bien un cóctel de falsacionismo de Popper y positivismo clásico.

Pero así como los criterios de Popper y otros permiten distinguir lo que es ciencia de lo que no lo es, esto no implica que todas las no-ciencias sean pseudociencias. Para que algo pueda calificarse como pseudociencia, debe presentarse con pretensiones de ciencia, utilizando principios, sistemas y leyes similares a los de la ciencia. Una pseudociencia debe parecer en principio que podría ser ciencia, y si no logra desprenderse del prefijo es porque no consigue sobrevivir a esa especie de selección natural que impone el método científico.

Dos ejemplos son la homeopatía y la osteopatía. Ambas fueron inventadas cuando aún no se conocían las causas por las que enfermamos, ni por qué ciertos compuestos o procedimientos tienen propiedades curativas. Médicos como Samuel Hahnemann, inventor de la homeopatía en 1796, o Andrew Taylor Still, de la osteopatía en 1874, propusieron nuevas teorías sobre el origen de las dolencias y el funcionamiento de los remedios.

Lo que hizo el progreso de la ciencia fue mostrar que la enfermedad y su curación obedecen a causas muy distintas de las que proponían Hahnemann y Still, y que por tanto sus ideas estaban muy lejos de los mecanismos reales de la naturaleza. Pero hoy los defensores de ambas pseudociencias se aferran a un argumento inválido, que la ciencia no las ha refutado, cuando ellos saben, o deberían saber, que precisamente son no-ciencias porque son irrefutables: es imposible demostrar que el agua no tiene memoria (homeopatía), tanto como es imposible demostrar que la manipulación de un músculo no se transmite de alguna forma al cerebro o al intestino (osteopatía).

El propio Popper puso la astrología y el psicoanálisis como ejemplos de pseudociencias. Y además de la homeopatía y la osteopatía, en esta categoría también se han incluido el test de Rorschach de las manchas de tinta, la frenología que pretendía relacionar la personalidad con la forma del cráneo, la fisiognomía que hacía lo mismo con los rasgos de la cara, la grafología, el polígrafo o detector de mentiras, la llamada ciencia creacionista y el diseño inteligente, el lysenkoísmo soviético que se presentaba como alternativa a la genética y el darwinismo, ciertas interpretaciones de la comunicación no verbal como la sinergología, la criptozoología o incluso las bolas para la lavadora sin detergente.

Incluso hay quienes califican la astrobiología como algo próximo a la pseudociencia, ya que aún no se ha descubierto el objeto de su estudio –los alienígenas–, sin que al mismo tiempo sea posible refutar su existencia. Para otros, astrobiología es simplemente un oxímoron.

Todo esto viene a propósito de un cartel que vi hace unos días anunciando un gimnasio. Me llamó la atención que hoy en estos establecimientos lo mismo te enseñan a pelear o a hacer ejercicio sin romperte los huesos, o a bailar salsa, que te ayudan a equilibrarte física y espiritualmente mediante la meditación mindfulness, o te curan enfermedades mediante la imposición de manos del reiki. Los gimnasios se han convertido en templos de la salvación física, mental y espiritual donde anything goes; todo vale en esa amalgama de ciencia (del deporte) y pseudociencias.

Imagen de Pixabay.

Imagen de Pixabay.

Y sin embargo, se me ocurrió pensar entonces que llamar pseudociencia a cosas como el reiki, el feng shui, el ayurveda o la medicina tradicional china en realidad es un insulto a las pseudociencias. Las pseudociencias han tenido que trabajar muy duro para ganarse el prefijo; han tenido que presentarse como teorías con aspecto científico, e incluso en la mayoría de los casos han hecho el esfuerzo de intentar probarse.

En cambio, todo aquello que se basa en el qi, el karma o los chakras, en la influencia de presuntas energías cósmicas indetectables, inmensurables, iparametrizables e irrelacionables con cualquier magnitud física, y que resultan alteradas por la colocación de los muebles, o que fluyen por ciertos canales invisibles y pueden administrarse a través de las manos o de sustancias o adminículos, son no-ciencias, pero no son pseudociencias. Al designarlas como tales podemos transmitir la impresión de que solo un prefijo las separa de las ciencias, pero en realidad son casos de la cita de Pauli: “not even wrong“; ni siquiera son erróneas.

Sus proponentes no pretenden en absoluto disfrazarlas de ciencias ni presentarlas como tales, y en algunos casos incluso se sitúan abiertamente en posturas anticiencia, acogiéndose en su lugar a la experiencia propia y a la tradición milenaria (aunque el reiki lo convalida con menos de un siglo). Y negando los argumentos de que lo primero es fácilmente explicable como placebo, y de que lo segundo olvida que precisamente sus prácticas acumulan milenios de fracaso en la eliminación de enfermedades y en el aumento de la esperanza de vida de la población.

En el fondo, el reiki o el ayurveda son las versiones orientales de nuestro milagro, el mal de ojo, el castigo de Dios, el embrujo, la maldición, la posesión demoníaca, la buenaventura y la ramita de romero. Son simplemente magia, pensamiento mágico precientífico, obra de humanos en busca de explicaciones pero que ni en sus sueños más locos llegaban aún al conocimiento de un Hahnemann o un Still. Así que quizá deberíamos hacer el pequeño esfuerzo de llamar pseudociencias solo a las que realmente lo son. Incluso las pseudociencias merecen un respeto.